KR20190045041A - Method for recogniging user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method - Google Patents
Method for recogniging user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method Download PDFInfo
- Publication number
- KR20190045041A KR20190045041A KR1020180057871A KR20180057871A KR20190045041A KR 20190045041 A KR20190045041 A KR 20190045041A KR 1020180057871 A KR1020180057871 A KR 1020180057871A KR 20180057871 A KR20180057871 A KR 20180057871A KR 20190045041 A KR20190045041 A KR 20190045041A
- Authority
- KR
- South Korea
- Prior art keywords
- brain
- learning
- head
- user
- screen
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Abstract
Description
본 발명은 뇌-컴퓨터 인터페이스(Brain-Computer Interface, BCI)에 관한 것이다.The present invention relates to a Brain-Computer Interface (BCI).
뇌-컴퓨터 인터페이스는 다양한 두뇌 활동 시 발생하는 뇌 신호를 분석하여 사용자 의도를 인식하고 이를 통해 외부 장치를 제어하는 기술이다. 사용자는 뇌-컴퓨터 인터페이스를 통해 근육을 사용하지 않아도 컴퓨터 또는 기계들을 제어할 수 있다. 뇌-컴퓨터 인터페이스는 사고나 질병에 의해 운동신경 장애가 있는 환자들의 움직임을 보조해 주기 위한 장치 개발에 주로 이용되었고, 최근에는 다양한 분야에서 뇌-컴퓨터 인터페이스를 적용하기 위한 연구가 진행되고 있다.The brain-computer interface is a technology for recognizing user's intention by analyzing brain signals generated during various brain activities and controlling the external device through this. The user can control the computer or machines without using the muscle through the brain-computer interface. The brain-computer interface has been used mainly for the development of devices to assist the movement of patients with motor neuropathy due to accidents or diseases. Recently, studies are being conducted to apply brain-computer interfaces in various fields.
헤드 마운트 디스플레이와 같은 웨어러블 장치는 사용자의 눈과 대면하는 위치에 영상을 출력하여 증강 현실(Augmented Reality) 또는 가상 현실(Virtual Reality)을 제공한다. 헤드 마운트 디스플레이는 자이로 센서 등을 이용하여 사용자의 동작을 감지할 수 있으나, 사용자는 헤드 마운트 디스플레이를 착용하고, 조이스틱, 키보드 등의 도구를 이용하여 화면을 제어해야 한다. 뇌-컴퓨터 인터페이스가 헤드 마운트 디스플레이 제어에 이용된다면, 도구 사용 없이 제어할 수 있을 것이다. 하지만, 뇌-컴퓨터 인터페이스로 사용자 의도를 인식하기 위해서는 다양한 뇌 영역에서 발생하는 뇌 신호를 분석해야 하므로, 많은 전극을 두피에 부착해야 하는 문제가 있다. 만약, 적은 수의 전극을 부착한다면 전극을 부착한 영역의 뇌 신호만을 획득할 수 있어서, 인식 정확도가 낮아지는 문제가 있다. 또한, 모자 형태의 헤드 마운트 디스플레이에 전극들을 부착할 수는 있으나, 소형 및 경량으로 제작하기 어렵고 가격이 높아져, 헤드 마운트 디스플레이에 뇌-컴퓨터 인터페이스를 적용하는 것이 쉽지 않다. A wearable device such as a head mount display provides augmented reality or virtual reality by outputting an image at a position facing a user's eyes. The head mount display can detect a user's operation using a gyro sensor or the like, but the user must wear a head mount display and control the screen using a joystick, a keyboard, or the like. If a brain-computer interface is used for head-mounted display control, it will be possible to control without using a tool. However, in order to recognize the intention of the user through the brain-computer interface, brain signals generated in various brain regions must be analyzed. Therefore, many electrodes must be attached to the scalp. If a small number of electrodes are attached, only the brain signal of the area where the electrodes are attached can be obtained, which lowers the recognition accuracy. It is also possible to attach electrodes to a head-mounted display in the form of a hat, but it is difficult to apply a brain-computer interface to the head-mounted display due to the difficult and costly manufacture of small and lightweight displays.
따라서, 사용자가 실생활에서 편리하게 사용하기 위해서는, 적은 수의 전극을 사용하면서도 높은 인식 성능을 유지할 수 있는 뇌-컴퓨터 인터페이스 기술이 필요하다. 또한 다양한 뇌-컴퓨터 인터페이스의 뇌 신호 측정 패러다임을 이용하여 헤드 마운트 디스플레이를 효율적으로 제어하기 위한 방법이 필요하다. Therefore, a brain-computer interface technology capable of maintaining a high recognition performance while using a small number of electrodes is required for a user to use the device conveniently in a real life environment. There is also a need for a method for efficiently controlling the head-mounted display using the brain signal measurement paradigm of various brain-computer interfaces.
본 발명이 해결하고자 하는 과제는 뇌 신호를 추정하여 사용자 의도를 인식하는 방법, 이를 구현한 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치를 제공하는 것이다. 구체적으로, 본 발명이 해결하고자 하는 과제는 전극들이 부착된 헤드 마운트 디스플레이에 탈부착형 추가 전극 장치를 결합한 후 뇌 신호들을 획득하고, 전극들에서 획득한 뇌 신호들을 이용하여 전극간 관계 모델을 생성하며, 헤드 마운트 디스플레이에서 측정된 뇌 신호들과 전극간 관계 모델을 이용하여 사용자 의도 인식에 필요한 뇌 신호들을 추정하는 것이다. A problem to be solved by the present invention is to provide a method for recognizing a user's intention by estimating a brain signal and a head-mounted display-based brain-computer interface device implementing the same. Specifically, the present invention provides a head-mounted display having electrodes attached to a removable additional electrode device to acquire brain signals, and generates an inter-electrode relationship model using brain signals acquired from the electrodes , And brain signals required for user's intention recognition using the brain signals measured in the head mount display and the relationship model between the electrodes.
또한, 본 발명이 해결하고자 하는 과제는 안구 전도(ElectroOculoGraphy, EOG) 신호를 사용하여 헤드 마운트 디스플레이를 제어하는 방법을 제공하는 것이다.Another object of the present invention is to provide a method of controlling a head-mounted display using an electro-oculography (EOG) signal.
한 실시예에 따른 제어기가, 뇌 전도 전극들이 부착된 헤드 마운트 디스플레이를 착용한 사용자의 의도를 인식하는 방법으로서, 뇌 신호들을 유발하는 학습 화면을 상기 헤드 마운트 디스플레이에 표시한 상태에서, 상기 헤드 마운트 디스플레이 및 상기 헤드 마운트 디스플레이에 결합된 추가 전극 장치 각각에서 측정된 학습용 뇌 신호들을 획득하는 단계, 상기 학습용 뇌 신호들로부터 상기 헤드 마운트 디스플레이의 전극들과 상기 추가 전극 장치의 전극들의 관계 모델을 학습하는 단계, 특정 화면을 상기 헤드 마운트 디스플레이에 표시한 상태에서, 상기 추가 전극 장치가 분리된 상기 헤드 마운트 디스플레이에서 측정된 뇌 신호들을 획득하는 단계, 상기 관계 모델을 기초로 상기 헤드 마운트 디스플레이에서 측정된 뇌 신호들로부터 미측정된 상기 추가 전극 장치의 뇌 신호들을 추정하는 단계, 그리고 상기 측정된 뇌 신호들과 추정한 뇌 신호들에 해당하는 사용자 의도를 검출하는 단계를 포함한다.There is provided a method of recognizing a user's intention of wearing a head mounted display to which brain conduction electrodes are attached in a state in which a learning screen for causing brain signals is displayed on the head mounted display, Acquiring learning brain signals measured at each of a display and an additional electrode device coupled to the head-mounted display, learning relationship models of the electrodes of the head-mounted display and the electrodes of the additional electrode device from the learning brain signals The method comprising the steps of: obtaining brain signals measured in the head-mounted display from which the additional electrode device has been separated, with a specific screen displayed on the head-mounted display; Signals from the unmeasured phase Estimating brain signals of the additional electrode device, and detecting user intent corresponding to the measured brain signals and estimated brain signals.
상기 사용자 의도 인식 방법은 상기 학습용 뇌 신호들로부터 사용자 의도 분류 모델을 학습하는 단계를 더 포함할 수 있다. 상기 사용자 의도를 검출하는 단계는 학습된 상기 사용자 의도 분류 모델을 기초로 상기 측정된 뇌 신호들과 상기 추정한 뇌 신호들을 조합한 신호에 해당하는 사용자 의도를 검출할 수 있다.The user's intention recognition method may further include learning a user's intention classification model from the learning brain signals. The step of detecting the user intention may detect a user intention corresponding to a signal obtained by combining the measured brain signals with the estimated brain signals based on the learned user's intention classification model.
상기 학습 화면은 특정 뇌-컴퓨터 인터페이스 패러다임에 해당하는 뇌 신호들을 유발하기 위해 제작된 인터페이스 화면일 수 있다.The learning screen may be an interface screen designed to generate brain signals corresponding to a specific brain-computer interface paradigm.
상기 뇌-컴퓨터 인터페이스 패러다임은 동작 상상(Motor Imagery) 전위, 정상 상태 시각/청각/촉각 유발 전위(Steady-State Visual/Auditory/Somatosensory Evoked Potential), 그리고 사건 관련 전위(Event Related Potential) 중 적어도 하나일 수 있다.The brain-computer interface paradigm includes at least one of a motor imagery potential, a steady state visual / auditory / somatosensory evoked potential, and an event related potential. .
상기 학습 화면이 동작 상상에 해당하는 뇌 신호들을 유발하는 인터페이스 화면인 경우, 상기 학습용 뇌 신호들은 상기 학습 화면에서 지정한 신체 부위를 움직이는 상상으로 유발된 신호일 수 있다.When the learning screen is an interface screen for generating brain signals corresponding to an operation image, the brain signals for learning may be imaginary signals that move a body part designated on the learning screen.
상기 학습 화면이 사건 관련 전위에 해당하는 뇌 신호들을 유발하는 인터페이스 화면인 경우, 상기 학습 화면은 양쪽 눈에 각각 대응하는 좌측 화면 및 우측 화면을 분리 제공하고, 상기 좌측 화면과 상기 우측 화면에서 동일 객체를 서로 다른 주파수로 점멸하는 시각 자극을 제공할 수 있다. 상기 학습용 뇌 신호들은 상기 학습 화면에 포함된 시각 자극으로 유발된 신호일 수 있다.When the learning screen is an interface screen for generating brain signals corresponding to an event related potential, the learning screen separates the left screen and the right screen corresponding to the respective eyes, and provides the left screen and the right screen with the same object Can be provided with a visual stimulus that blinks at different frequencies. The learning brain signals may be signals induced by visual stimulation included in the learning screen.
상기 학습 화면이 정상 상태 시각 유발 전위에 해당하는 뇌 신호들을 유발하는 인터페이스 화면인 경우, 상기 학습 화면은 선택 가능한 복수의 객체들을 서로 다른 시각 자극으로 제공할 수 있다. 상기 학습용 뇌 신호들은 상기 학습 화면에서 복수의 객체들 중 특정 객체를 응시할 때 유발된 신호일 수 있다.When the learning screen is an interface screen for generating brain signals corresponding to the steady state visual evoked potential, the learning screen may provide a plurality of selectable objects as different visual stimuli. The learning brain signals may be a signal induced when a specific object among a plurality of objects is gazed on the learning screen.
상기 관계 모델을 학습하는 단계는 전극별로 현재 주기에서 측정된 뇌 신호에 과거 주기들에서 측정된 일정 수의 뇌 신호들을 포함하여 뇌 신호 특징 벡터를 생성하고, 상기 뇌 신호 특징 벡터를 이용하여 상기 관계 모델을 학습할 수 있다.Wherein the learning of the relationship model includes generating brain signal feature vectors including a predetermined number of brain signals measured in past cycles on a brain signal measured in a current cycle for each electrode, The model can be learned.
상기 사용자 의도 인식 방법은 검출한 사용자 의도를 기초로 상기 특정 화면을 제어하는 단계를 더 포함할 수 있다.The user's intention recognizing method may further include controlling the specific screen based on the detected user intention.
상기 특정 화면을 제어하는 단계는 상기 헤드 마운트 디스플레이에 부착된 안구 전도 전극들로부터 획득된 안구 전도 신호들을 기초로 시선 움직임을 검출하고, 검출한 시선 움직임에 따라 상기 특정 화면의 시점을 변경하며, 상기 측정된 뇌 신호들과 추정한 뇌 신호들로 검출한 사용자 의도에 따라 상기 특정 화면을 제어할 수 있다.The step of controlling the specific screen may include detecting eye movements based on the eye conduction signals obtained from the eye conduction electrodes attached to the head mount display, changing the view of the specific screen according to the detected eye movement, The specific screen can be controlled according to the user's intention detected by the measured brain signals and the estimated brain signals.
상기 사용자 의도 인식 방법은 상기 특정 화면을 제어하는 단계 이전에, 커서 화면에 시선이 따라 움직이는 커서를 표시한 상태에서, 상기 안구 전도 전극들로부터 획득된 학습용 안구 전도 신호들과 커서 속도의 관계 모델을 학습하는 단계를 더 포함할 수 있다. 상기 특정 화면을 제어하는 단계는 상기 안구 전도 신호들과 커서 속도의 관계 모델을 기초로, 상기 획득된 안구 전도 신호들에 해당하는 시선 움직임을 검출할 수 있다.Wherein the user's intention recognizing method includes a step of displaying a relationship model of the cursor velocity with the learning eye conduction signals obtained from the eye conduction electrodes in a state in which a cursor moving along the eye direction is displayed on the cursor screen prior to the step of controlling the specific screen And may further include learning steps. The step of controlling the specific screen may detect eye movements corresponding to the obtained eye conduction signals based on a relationship model of the eye conduction signals and the cursor speed.
한 실시예에 따른 뇌-컴퓨터 인터페이스 장치로서, 제1 채널 그룹의 뇌 전도 전극들이 부착된 헤드 마운트 디스플레이, 상기 헤드 마운트 디스플레이에 탈착되고, 제2 채널 그룹의 뇌 전도 전극들이 부착된 추가 전극 장치, 그리고 상기 제1 채널 그룹의 뇌 전도 전극들과 상기 제2 채널 그룹의 뇌 전도 전극들에서 획득되는 뇌 신호들의 관계 모델을 저장하고, 상기 관계 모델을 기초로 상기 추가 전극 장치가 분리된 상기 헤드 마운트 디스플레이를 제어하는 제어기를 포함한다. 상기 제어기는 특정 화면을 상기 헤드 마운트 디스플레이에 표시한 상태에서 상기 제1 채널 그룹에서 측정된 뇌 신호들이 입력되면, 상기 관계 모델을 기초로 상기 제2 채널 그룹의 뇌 전도 전극들의 뇌 신호들을 추정하고, 상기 제1 채널 그룹에서 측정된 뇌 신호들과 상기 제2 채널 그룹에서 추정된 뇌 신호들을 이용하여 사용자 의도를 검출하며, 검출한 사용자 의도를 기초로 상기 특정 화면을 제어한다.A brain-computer interface apparatus according to one embodiment, comprising: a head-mounted display having a first channel group of brain conduction electrodes attached thereto; an additional electrode unit detachably attached to the head-mounted display, Storing a relationship model of brain signals obtained at the brain conduction electrodes of the first channel group and the brain conduction electrodes of the second channel group, and based on the relationship model, And a controller for controlling the display. Wherein the controller estimates brain signals of brain conduction electrodes of the second channel group based on the relationship model when the brain signals measured in the first channel group are inputted while displaying a specific screen on the head mount display Detects user intention using brain signals measured in the first channel group and brain signals estimated in the second channel group, and controls the specific screen based on the detected user intention.
상기 제어기는 상기 추가 전극 장치가 상기 헤드 마운트 디스플레이에 결합된 학습 모드에서, 뇌 신호들을 유발하는 학습 화면을 상기 헤드 마운트 디스플레이에 표시하고, 상기 제1 채널 그룹과 상기 제2 채널 그룹에서 측정된 학습용 뇌 신호들을 획득하며, 상기 학습용 뇌 신호들을 이용하여 상기 관계 모델을 학습시킨 후, 학습된 상기 관계 모델을 저장할 수 있다.Wherein the controller displays on the head mounted display a learning screen that causes brain signals in a learning mode in which the additional electrode device is coupled to the head mounted display, Acquiring brain signals, learning the relational model using the learning brain signals, and storing the learned relational model.
상기 학습 화면은 특정 뇌-컴퓨터 인터페이스 패러다임에 해당하는 뇌 신호들을 유발하기 위해 제작된 인터페이스 화면이고, 상기 뇌-컴퓨터 인터페이스 패러다임은 동작 상상(Motor Imagery) 전위, 정상 상태 시각/청각/촉각 유발 전위(Steady-State Visual/Auditory/Somatosensory Evoked Potential), 그리고 사건 관련 전위(Event Related Potential) 중 적어도 하나일 수 있다.Wherein the learning screen is an interface screen produced to induce brain signals corresponding to a specific brain-computer interface paradigm, wherein the brain-computer interface paradigm includes a motor imagery potential, a steady state visual / auditory / tactile evoked potential Steady-State Visual / Auditory / Somatosensory Evoked Potential, and Event Related Potential.
상기 제어기는 상기 학습용 뇌 신호들을 회귀 분석하여 상기 관계 모델을 학습시킬 수 있다.The controller may learn the relational model by regression analysis of the learning brain signals.
상기 제어기는 학습된 사용자 의도 분류 모델을 기초로, 상기 제1 채널 그룹에서 측정된 뇌 신호들과 상기 제2 채널 그룹에서 추정된 뇌 신호들을 조합한 신호의 특징에 해당하는 상기 사용자 의도를 검출할 수 있다. 상기 사용자 의도 분류 모델은 상기 제1 채널 그룹과 상기 제2 채널 그룹에서 획득된 뇌 신호들의 특징을 기초로 특정 뇌-컴퓨터 인터페이스 패러다임에서 지정한 복수의 의도들 중 어느 하나로 분류하도록 학습된 모델일 수 있다.The controller detects the user intention corresponding to the feature of the signal obtained by combining the brain signals measured in the first channel group and the brain signals estimated in the second channel group based on the learned user's intention classification model . The user's intention classification model may be a model learned to classify into one of a plurality of intents specified in a specific brain-computer interface paradigm based on characteristics of brain signals acquired in the first channel group and the second channel group .
다른 실시예에 따른 뇌-컴퓨터 인터페이스 장치로서, 내측면의 적어도 일부가 사용자의 안면에 접하도록 착용되고, 적어도 하나의 프로세서, 메모리 그리고 디스플레이를 포함하는 본체, 그리고 상기 본체와 연결되며 상기 본체가 사용자의 안면에 착용된 상태로 고정되도록 지지하는 고정부를 포함하는 헤드 마운트 디스플레이, 그리고 상기 헤드 마운트 디스플레이에 결합되거나 분리되고, 사용자의 두피에 접하는 내 측면에 뇌 전도 전극들이 부착된 추가 전극 장치를 포함한다. 상기 헤드 마운트 디스플레이는, 상기 고정부의 내측면에 사용자의 머리 둘레를 따라 임의의 간격으로 배치된 복수의 뇌 전도 전극들, 상기 본체의 내측면에 사용자의 안구가 접하는 위치로부터 복수의 방향으로 임의의 간격으로 배치된 복수의 안구 전도 전극들, 상기 본체에 사용자의 안면의 일부가 접하는 영역에 배치되는 레퍼런스 전극, 그리고 상기 본체와 상기 고정부 중 적어도 하나에 배치되어, 상기 추가 전극 장치와 결합하거나 분리되는 체결부를 더 포함한다.A brain-computer interface apparatus according to another embodiment, comprising: a main body including at least one processor, a memory and a display, wherein at least a portion of the inner surface is in contact with the user's face, And an additional electrode device coupled to or separated from the head mount display and having an inner surface adjacent to the user's scalp and having brain conduction electrodes attached thereto do. The head-mounted display includes a plurality of brain conduction electrodes arranged at an arbitrary interval along a circumference of a user on the inner surface of the fixing unit, a plurality of brain conduction electrodes arranged in a plurality of directions from a position where the user & A plurality of eye conduction electrodes arranged at intervals of a predetermined distance, a reference electrode disposed in a region where a part of the user's face is in contact with the main body, and at least one of the main body and the fixing portion, And a separate fastening portion.
실시예에 따르면, 헤드 마운트 디스플레이에 탈부착형 추가 전극 장치를 결합하여 전극간 관계 모델을 생성한 이후, 추가 전극 장치 없이 헤드 마운트 디스플레이의 전극들에서 측정된 뇌 신호들로부터 사용자 의도를 정확히 인식할 수 있다.According to embodiments, after attaching the removable additional electrode device to the head-mounted display to create the inter-electrode relationship model, the user's intention can be accurately identified from the brain signals measured at the electrodes of the head- have.
실시예에 따르면, 뇌 전도 전극과 안구 전도 전극을 부착한 헤드 마운트 디스플레이를 통해 사용자에게 편리하고 현실감이 높으며 자연스러운 제어 환경을 제공할 수 있다. 따라서, 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치를 착용한 사용자는 직접 손이나 팔 등의 몸을 사용하여 제어 대상을 제어하는 대신, 생각이나 눈 움직임으로 제어 대상을 제어할 수 있다.According to the embodiment, a head-mounted display having a brain conduction electrode and an ocular conduction electrode can provide a user with a convenient, realistic and natural control environment. Therefore, a user who wears a head-mounted display-based brain-computer interface device can control the object to be controlled by thinking or eye movement instead of using the body of the hand or arm directly to control the object.
실시예에 따르면, 사용자의 시야 변화에 따라 사용자에게 제공되는 화면 변화를 제공함으로써, 사용자의 눈 움직임에 따라 실생활과 유사한 증강 현실 및 가상 현실을 제공할 수 있다.According to the embodiments, it is possible to provide augmented reality and virtual reality similar to the real life according to the user's eye motion by providing a screen change provided to the user in accordance with the change of the user's view.
실시예에 따르면, 헤드 마운트 디스플레이를 활용하는 게임, 엔터테인먼트, 헬스케어, 모바일 디스플레이 등의 다양한 분야에 뇌-컴퓨터 인터페이스를 적용하여 콘텐츠에 적합한 최적의 제어 환경을 제공할 수 있다.According to embodiments, a brain-computer interface can be applied to various fields such as game, entertainment, healthcare, and mobile display utilizing a head mount display, thereby providing an optimal control environment suitable for contents.
도 1은 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 착용 상태를 설명하는 도면이다.
도 2는 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 전극간 관계 모델을 개념적으로 설명하는 도면이다.
도 3과 도 4 각각은 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 예시이다.
도 5는 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 개념적인 구성도이다.
도 6은 한 실시예에 따른 제어기의 기능 블록도이다.
도 7은 한 실시예에 따른 제어기의 전극간 관계 모델 학습 방법의 흐름도이다.
도 8은 한 실시예에 따른 제어기의 사용자 의도 인식을 위한 분류 모델 학습 방법의 흐름도이다.
도 9는 한 실시예에 따른 제어기의 뇌 신호 추정 방법의 흐름도이다.
도 10은 뇌-컴퓨터 인터페이스 패러다임 중 동작 상상을 위한 학습 인터페이스 화면의 예시이다.
도 11과 도 12는 동작 상상에 따른 화면 제어의 예시이다.
도 13은 뇌-컴퓨터 인터페이스 패러다임 중 정상 상태 시각 유발 전위를 위한 학습 인터페이스 화면의 예시이다.
도 14는 뇌-컴퓨터 인터페이스 패러다임 중 사건 관련 전위를 위한 학습 인터페이스 화면의 예시이다.
도 15는 사건 관련 전위 기반의 시각 자극을 이용한 문자 입력 인터페이스의 예시이다.
도 16은 뇌-컴퓨터 인터페이스 패러다임 중 정상 상태 청각 유발 전위를 위한 학습 인터페이스 화면의 예시이다.
도 17은 한 실시예에 따른 사용자의 안구 움직임에 의한 화면 제어의 예시이다.
도 18은 한 실시예에 따른 사용자의 머리 및 안구 움직임에 화면 제어의 예시이다.1 is a view for explaining a wearing state of a head-mounted display-based brain-computer interface device according to an embodiment.
FIG. 2 is a conceptual illustration of a relationship model between electrodes of a head-mounted display-based brain-computer interface device according to an embodiment.
Each of Figures 3 and 4 is an example of a head-mounted display based brain-computer interface device according to one embodiment.
5 is a conceptual block diagram of a head-mounted display-based brain-computer interface device according to an embodiment.
6 is a functional block diagram of a controller according to one embodiment.
7 is a flowchart of a method of learning the inter-electrode relationship model of a controller according to an embodiment.
8 is a flowchart of a classification model learning method for user's intention recognition of a controller according to an embodiment.
9 is a flowchart of a brain signal estimation method of a controller according to an embodiment.
FIG. 10 is an illustration of a learning interface screen for operation imagination in a brain-computer interface paradigm.
Figs. 11 and 12 show an example of screen control according to the operation image.
13 is an illustration of a learning interface screen for steady state visual evoked potentials in the brain-computer interface paradigm.
14 is an illustration of a learning interface screen for event related potentials in the brain-computer interface paradigm.
15 is an illustration of a character input interface using event-related potential-based visual stimulation.
Figure 16 is an illustration of a learning interface screen for steady state auditory evoked potentials in a brain-computer interface paradigm.
17 is an illustration of screen control by eye movement of a user according to an embodiment.
18 is an illustration of screen control over the head and eye movements of a user according to one embodiment.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when an element is referred to as " comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the terms " part, " " module, " and " module ", etc. in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software have.
도 1은 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 착용 상태를 설명하는 도면이고, 도 2는 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 전극간 관계 모델을 개념적으로 설명하는 도면이다.FIG. 1 is a view for explaining a wear state of a head-mounted display-based brain-computer interface device according to an embodiment, and FIG. 2 is a conceptual Fig.
도 1을 참고하면, 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치(10)는 전극들이 부착된 헤드 마운트 디스플레이(100) 그리고 헤드 마운트 디스플레이(100)에 탈부착되는 전극 장치(앞으로, "추가 전극 장치"라고 한다)(200)를 포함한다. 헤드 마운트 디스플레이(100)와 추가 전극 장치(200) 각각에 배치된 뇌 전도 전극들의 위치는 사용자의 뇌 신호를 측정할 수 있는 지점들로 미리 설정되거나 사용자가 조정할 수 있다. 헤드 마운트 디스플레이(100)는 안구 전도 신호를 측정할 수 있는 안구 전도 전극들을 더 포함할 수 있다. 1, a head-mounted display-based brain-
도 1의 (a)와 같이, 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)는 결합될 수 있고, 이를 결합 상태라고 부른다. 도 1의 (b)와 같이, 추가 전극 장치(200)가 헤드 마운트 디스플레이(100)에서 분리될 수 있고, 이를 분리 상태라고 부른다. As shown in Fig. 1 (a), the head-mounted
설명에서는 하나의 추가 전극 장치(200)가 헤드 마운트 디스플레이(100)에 결합되거나 분리된다고 설명하나, 복수의 추가 전극 장치들이 헤드 마운트 디스플레이(100)에 결합될 수 있다. 이 경우, 복수의 추가 전극 장치들 중 적어도 하나의 추가 전극 장치가 분리된 상태를 분리 상태라고 부를 수 있다. Although only one
도 2의 (a)를 참고하면, 추가 전극 장치(200)가 결합된 헤드 마운트 디스플레이(100)를 사용자가 착용한 상태에서, 뇌 신호들이 측정된다. 이렇게 결합 상태에서 측정된 뇌 신호들이 분리 상태의 뇌 신호 추정을 위한 학습 데이터로 사용된다. 측정된 뇌 신호들을 이용하여 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)의 전극들 사이의 관계 모델(W)(간단히, 전극간 관계 모델이라고 한다)을 학습한다. 즉, 헤드 마운트 디스플레이(100)의 전극들(X1, X2, ..., Xnx)에서 측정된 뇌 신호들(x)과 추가 전극 장치(200)의 전극들(Y1, Y2, .., Yny)에서 측정된 뇌 신호들(y)로 전극간 관계 모델(W)이 학습된다. 전극간 관계 모델(W)은 선형 회귀 분석, 비선형 회귀 분석 등의 회귀 분석으로 도출된 회귀 모델일 수 있다.Referring to FIG. 2 (a), brain signals are measured with the user wearing the head-mounted
도 2의 (b)를 참고하면, 추가 전극 장치(200)가 분리된 헤드 마운트 디스플레이(100)를 사용자가 착용한 상태에서는 헤드 마운트 디스플레이(100)의 전극들(X1, X2, ..., Xnx)에서 뇌 신호들이 측정된다. 이때, 결합 상태에서 측정된 뇌 신호들로 학습된 전극간 관계 모델(W)로 미측정된 지점들, 즉 추가 전극 장치(200)의 전극들(Y1, Y2, ..., Yny)의 뇌 신호들을 추정할 수 있다. 2 (b), the electrodes X 1 , X 2 ,... Of the head-mounted
이처럼 본 발명에 따르면, 헤드 마운트 디스플레이(100)만을 착용한 상태에서 일부 지점(전극 채널)의 뇌 신호들만을 측정하더라도, 학습된 전극간 관계 모델을 통해 다른 지점들의 뇌 신호들을 추정할 수 있다. 즉, 뇌 신호 추정을 통해 사용자 의도를 정확히 인식하기 위해 요구되는 수준의 뇌 신호들이 추가적으로 획득된다. 따라서, 사용자는 항상 추가 전극 장치(200)가 결합된 헤드 마운트 디스플레이(100)를 착용할 필요 없이, 학습 이후에는 간단히 헤드 마운트 디스플레이(100)만을 착용하더라도, 뇌 신호들이 충분히 획득되고, 결과적으로 사용자 의도를 간편하면서도 정확히 인식할 수 있다.According to the present invention, even if only the brain signals of some points (electrode channels) are measured while wearing only the
도 3과 도 4 각각은 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 예시이다.Each of Figures 3 and 4 is an example of a head-mounted display based brain-computer interface device according to one embodiment.
도 3 및 도 4를 참고하면, 헤드 마운트 디스플레이(100)는 사용자에게 착용되어 증강 현실 및 가상 현실 기반 콘텐츠를 제공하는 본체(110), 그리고 본체(110)를 머리에 고정 지지하는 고정부(120)를 포함한다. 사용자가 헤드 마운트 디스플레이(100)를 머리에 착용하면, 본체(110)는 내측면이 사용자의 안면 중 적어도 일부에 접촉되도록 밀착 지지되고, 고정부(12)는 내측면이 사용자의 안면의 일부 및 머리 둘레를 따라 적어도 일부의 두피에 접촉되도록 밀착 지지된다.3 and 4, the
헤드 마운트 디스플레이(100)는 증강 현실 및 가상 현실을 제공하는데 필요한 다양한 구성 요소들을 포함할 수 있는데, 일반적인 헤드 마운트 디스플레이의 구성 요소들을 포함할 수 있다. 예를 들면, 본체(110)는 적어도 하나의 프로세서, 메모리, 증강 현실 영상이나 가상 현실 영상을 표시하는 디스플레이를 포함하고, 본체(110)의 외측에 증강 현실을 제공하기 위해, 외부를 실시간으로 촬영할 수 있는 카메라(111)가 장착될 수 있다. 본체(110)의 안면부에는 사용자의 두 눈에 대면하는 위치에 렌즈(112)가 장착될 수 있다. 고정부(120)에는 헤드 마운트 디스플레이 제어 시 발생되는 음향(오디오 신호)을 제공하기 위한 이어폰(121)이나 스피커(미도시)가 포함될 수 있다. 한편, 이어폰(121)의 삽입부(즉, 사용자의 귀에 직접 삽입되는 부분)에 귀 내부에서 뇌 신호를 측정할 수 있는 뇌 전도 전극이 더 포함될 수 있다.The
본체(110)와 고정부(120) 중 적어도 하나에, 추가 전극 장치(200)가 결합/분리되는 체결부(130, 131)가 형성된다. 결합 모양에 따라 체결부의 위치는 다양하게 형성될 수 있다. 예를 들어, 도 2와 같은 추가 전극 장치(200)인 경우, 체결부(130, 131)에 추가 전극 장치(200)의 전방 결합부(230) 및 후방 결합부(231)가 각각 삽입되어 결합될 수 있다.At least one of the
헤드 마운트 디스플레이(100)는 복수의 전극들을 포함한다. 전극들의 위치는 뇌 신호 측정 지점들/안구 전도 신호 측정 지점들에 따라 다양하게 배치될 수 있다. 고정부(120)의 내측면(즉, 사용자의 머리에 직접적으로 대면하는 일부면)에 머리 둘레를 따라 복수의 뇌 전도 전극들(141, 142, ..., 149)이 부착될 수 있다. 본체(11)의 사용자의 안면에 직접적으로 대면하는 내측면에 복수의 안구 전도 전극들(151, 152, ..., 158)이 부착될 수 있다. 각 안구 전도 전극은 안면부 중 사용자의 눈에 근접한 위치에 배치되고, 눈 주위의 상/하/좌/우에 부착될 수 있다. 본체(11)는 뇌 신호 및 안구 전도 신호의 기준이 되는 레퍼런스 전극(또는 그라운드 전극)(160)을 포함하고, 예를 들면, 사용자의 코 위치에 대면하는 영역에 부착될 수 있다. 이때, 레퍼런스 전극과 그라운드 전극은 하나의 전극으로 사용 가능하다.The
추가 전극 장치(200)는 착용한 사용자의 머리에 접촉하는 내측면(하부면)에 복수의 뇌 전도 전극들(미도시)이 부착된다. 예를 들면, 추가 전극 장치(200)의 하부면에서 가로 방향 및 세로 방향으로 복수의 뇌 전도 전극들이 배치될 수 있다.The
추가 전극 장치(200)의 모양은 다양하게 설계될 수 있다. 예를 들면, 추가 전극 장치(200)는 사용자의 착용 상태에서, 전후 방향으로 일정의 길이 및 면적을 갖는 제1 바디, 그리고 좌우 방향으로 일정의 길이 및 면적을 갖는 제2 바디로 구성되고, 제1 바디와 제2 바디는 서로 교차하는 중심에 연결부(210)를 통해 물리적으로 연결되고, 전기적으로도 연결될 수 있다. The shape of the
추가 전극 장치(200)를 사용자의 머리에 맞추고, 뇌 전도 전극 사이의 간격을 조절하기 위해, 추가 전극 장치(200)는 전후 전극 간격 확장부(220)와 좌우 전극 간격 확장부(222)를 포함한다. 전후 전극 간격 확장부(220)는 연결부(210)로부터 전후 방향으로 연장되고, 좌우 전극 간격 확장부(222)는 연결부(210)로부터 좌우 방향으로 연장될 수 있다. 각 전극 간격 확장부(220, 222)는 복수의 마디 형상을 가지고, 연결부(210)를 향해 각 마디가 이전 마디에 삽입되어 있다가 연장될수록 순차적으로 외부로 펼쳐질 수 있고, 적어도 하나의 마디가 펼쳐지면 사용자의 머리 굴곡에 따라 밀착되는 휘어진 바(bar) 형상이 될 수 있다. 뇌 전도 전극은 연결부(210), 전후 전극 간격 확장부(220) 및 좌우 전극 간격 확장부(222)의 각 마디에 부착될 수 있다. 이러한 추가 전극 장치(200)를 통해 헤드 마운트 디스플레이(100)에서 측정할 수 없는 사용자의 다양한 뇌 영역의 뇌 신호를 측정할 수 있다.In order to align the
전후 전극 간격 확장부(220) 및 좌우 전극 간격 확장부(222) 각각은 사용자 머리 위에서 지탱 및 고정하기 위한 다리부(240, 242)가 연장될 수 있다. 다리부(240, 242)는 사용자 머리에 접촉되며, 스트랩 또는 유연한 재질로 구성될 수 있다. 다리부(240, 242) 중 적어도 하나의 끝단은 헤드 마운트 디스플레이(100)의 체결부(130, 131)에 삽입되는 전방 결합부(230) 및 후방 결합부(231)가 형성될 수 있다.Each of the front and rear electrode
한편, 도 3 및 도 4에서는 표시되어 있지 않으나, 뇌-컴퓨터 인터페이스 장치(10)는 본 발명에서 설명하는 방법을 수행하는 프로세서(미도시), 메모리(미도시), 통신 모듈(미도시) 등의 하드웨어를 포함하고, 하드웨어를 통해 본 발명에서 설명하는 방법을 수행하는 프로그램들(예를 들면, 헤드 마운트 디스플레이 제어 프로그램)을 실행한다. 프로그램들은 적어도 하나의 메모리에 저장되고, 적어도 하나의 프로세서가 프로그램들을 실행하여 본 발명에서 설명하는 방법을 처리한다. 헤드 마운트 디스플레이(100)와 추가 전극 장치(200) 각각이 적어도 하나의 메모리, 적어도 하나의 프로세서, 그리고 적어도 하나의 통신 모듈 등의 하드웨어에 의해 동작할 수 있고, 또는 헤드 마운트 디스플레이(100)가 결합된 추가 전극 장치(200)의 뇌 신호 측정을 제어할 수 있다.3 and 4, the brain-
추가 전극 장치(200)에서 측정된 뇌 신호들은 측정된 뇌 신호들을 기초로 전극간 관계 모델을 학습하는 장치로 전달되는데, 전극간 관계 모델을 학습하는 장치는 헤드 마운트 디스플레이(100)이거나, 별도의 외부 제어 장치일 수 있다. 이때, 추가 전극 장치(200)에서 측정된 뇌 신호들은 결합된 헤드 마운트 디스플레이(100)로 전달되거나, 추가 전극 장치(200)가 측정된 뇌 신호들을 직접 지정된 서버로 전송할 수 있다. 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)는 통신 모듈을 통해 통신할 수 있다. 또는 헤드 마운트 디스플레이(100)에 결합된 추가 전극 장치(200)는 헤드 마운트 디스플레이(100)에 전기적으로 연결되고, 헤드 마운트 디스플레이(100)는 결합된 추가 전극 장치(200)를 통해 뇌 신호들을 측정할 수 있다. The brain signals measured at the
헤드 마운트 디스플레이(100)는 통신 모듈을 통해 외부 장치(미도시), 예를 들어, 모바일 단말과 통신할 수 있다. 헤드 마운트 디스플레이(100)는 통신 모듈을 통해 외부 제어 서버와 통신할 수 있다. The
다음에서 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치가 뇌 신호를 추정하여 사용자 의도를 인식하는 방법에 대해 설명한다. 본 발명에서 설명하는 방법은 헤드 마운트 디스플레이(100)에 내장된 프로세서가 수행할 수 있고, 또는 헤드 마운트 디스플레이(100), 추가 전극 장치(200), 외부 제어 장치 각각에 내장된 프로세서들이 연동하여 수행할 수 있다. 설명에서는 적어도 하나의 프로세서에 의해 동작하는 제어기(300)가 본 발명에서 설명하는 방법을 처리한다고 가정하고, 제어기(300)는 헤드 마운트 디스플레이(100)에 포함된 것으로 가정한다.The following describes how a head-mounted display-based brain-computer interface device estimates the brain signal and recognizes the user's intention. The method described in the present invention can be performed by a processor built in the
도 5는 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 개념적인 구성도이고, 도 6은 한 실시예에 따른 제어기의 기능 블록도이다.FIG. 5 is a conceptual block diagram of a head-mounted display-based brain-computer interface apparatus according to an embodiment, and FIG. 6 is a functional block diagram of a controller according to an embodiment.
도 5를 참고하면, 뇌-컴퓨터 인터페이스 장치(10)는 헤드 마운트 디스플레이(100) 그리고 추가 전극 장치(200)를 포함하고, 이들을 제어하는 제어기(300)를 포함할 수 있다. 추가적으로, 헤드 마운트 디스플레이(100)는 사용자 단말이나 외부 제어 서버를 포함하는 외부 제어 장치와 통신할 수 있다. Referring to FIG. 5, the brain-
한편, 제어기(300)는 헤드 마운트 디스플레이(100)의 외부에서 헤드 마운트 디스플레이(100)와 외부 통신하여 헤드 마운트 디스플레이(100)를 제어하도록 설계 변경할 수 있다. 또한, 제어기(300)의 일부 기능은 헤드 마운트 디스플레이(100)의 프로세서가 처리하고, 나머지 기능은 외부 제어 장치가 처리할 수 있도록 설계 변경할 수 있다.On the other hand, the
도 6을 참고하면, 제어기(300)는 뇌 신호 측정부(310), 뇌 신호 학습부(330), 뇌 신호 추정부(350), 그리고 사용자 의도 인식부(370)를 포함한다. Referring to FIG. 6, the
뇌 신호 측정부(310)는 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)가 결합 상태에서 사용자의 뇌 신호들을 측정한다. 결합 상태에서 측정된 뇌 신호들은 뇌 전도 전극들 간의 관계 모델의 학습에 사용되는 학습 데이터이다. 이때, 뇌 신호 측정부(310)는 뇌-컴퓨터 인터페이스 패러다임별로 제작된 화면, 진동, 소리 등을 헤드 마운트 디스플레이(100)의 디스플레이, 진동 센서, 스피커 등으로 출력하고, 각 뇌-컴퓨터 인터페이스 패러다임에서 유발된 뇌 신호들을 측정할 수 있다. 뇌-컴퓨터 인터페이스 패러다임은 예를 들어, 신체 움직임을 상상하여 유발되는 동작 상상(Motor Imagery, MI) 전위, 정상 상태 시각/청각/촉각 유발 전위(Steady-State Visual/Auditory/Somatosensory Evoked Potential), 사건 관련 전위(Event Related Potential, ERP) 등을 포함할 수 있다.The brain
뇌 신호 측정부(310)는 뇌 신호 추정부(330)로부터 헤드 마운트 디스플레이에서 측정된 뇌 신호들과 함께 추정된 뇌 신호들을 입력받을 수 있다. 입력받은 데이터는 학습 데이터로 사용될 수 있다.The brain
또한, 뇌 신호 측정부(310)는 추가 전극 장치(200)가 분리된 상태에서, 헤드 마운트 디스플레이(100)를 착용한 사용자의 뇌 신호들을 측정한다. 분리 상태에서 측정된 뇌 신호들은 미측정 지점들의 뇌 신호들의 추정에 사용된다.In addition, the brain
뇌 신호 측정부(310)는 측정한 뇌 신호들을 구분하기 위해 측정 전에 뇌 신호 측정 모드를 설정할 수 있다. 뇌 신호 측정 모드는 학습용 뇌 신호 측정을 위한 학습 모드 또는 결합 모드, 사용자 의도 인식 모드 또는 분리 모드 등으로 구분될 수 있다. 또한, 뇌 신호 측정부(310)는 뇌-컴퓨터 인터페이스 패러다임을 설정할 수 있다. 뇌 신호 측정부(310)는 설정에 따라 측정된 뇌 신호들을 구분하여 저장한다.The brain
뇌 신호 학습부(330)는 뇌 신호 측정부(310)에서 측정한 학습용 뇌 신호들을 기초로 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)의 뇌 전도 전극들 간의 관계 모델을 학습한다. The brain
또한, 뇌 신호 학습부(330)는 뇌 신호 측정부(310)에서 측정한 학습용 뇌 신호들을 기초로 뇌-컴퓨터 인터페이스 패러다임에 적합한 사용자 의도 인식을 위한 분류 모델을 학습한다. In addition, the brain
뇌 신호 학습부(330)는 학습할 데이터가 많을수록 높은 성능을 제공할 수 있는 딥러닝의 특성에 따라, 획득한 학습 데이터를 증강(Data Augmentation)하여 학습 데이터를 늘릴 수 있다. 데이터 증강 방법은 다양할 수 있다. The brain
뇌 신호 추정부(330)는 학습된 전극간 관계 모델을 기초로, 사용자가 헤드 마운트 디스플레이(100)만을 착용한 상태에서 측정된 뇌 신호들로부터 미측정된 추가 전극 장치(200)의 뇌 신호들을 추정한다.The brain
사용자 의도 인식부(250)는 학습된 사용자 의도 인식을 위한 분류 모델을 기초로, 입력된 뇌 신호들에 해당하는 사용자 의도를 판단한다. 입력된 뇌 신호들은 헤드 마운트 디스플레이(100)에서 측정된 뇌 신호들과 추정한 뇌 신호들일 수 있다. 또는 입력된 뇌 신호들은 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)가 결합 상태에서 측정된 뇌 신호들일 수 있다.The user's intention recognition unit 250 determines a user's intention corresponding to the inputted brain signals based on the classification model for the learned user's intention recognition. The input brain signals may be brain signals measured at the
도 7은 한 실시예에 따른 제어기의 전극간 관계 모델 학습 방법의 흐름도이다.7 is a flowchart of a method of learning the inter-electrode relationship model of a controller according to an embodiment.
도 7을 참고하면, 사용자가 추가 전극 장치(200)가 결합된 헤드 마운트 디스플레이(100)를 착용한 상태에서, 제어기(300)는 뇌-컴퓨터 인터페이스 패러다임을 지정한다(S110). 뇌-컴퓨터 인터페이스 패러다임은 사용자에 의해 선택될 수 있고, 또는 학습 모드에서 학습할 패러다임이 지정될 수 있다.Referring to FIG. 7, in a state in which the user wears the head-mounted
제어기(300)는 지정된 뇌-컴퓨터 인터페이스 패러다임에 해당하는 뇌 신호들을 유발하는 인터페이스 화면을 표시한 상태에서, 사용자의 뇌 신호들을 측정한다(S120). 헤드 마운트 디스플레이(100)의 전극들에서 측정된 뇌 신호들(x1, x2, ..., xnx)과 추가 전극 장치(200)의 전극들에서 측정된 뇌 신호들(y1, y2, ..., yny)이 획득된다. 이때, 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)에서 측정된 뇌 신호들들은 동일한 샘플비(Sampling rate)를 갖는다. 각 전극은 채널 식별자로 구분될 수 있다. 한편, 헤드 마운트 디스플레이(100)의 전극들(채널들)을 제1 채널 그룹이라고 하고, 추가 전극 장치(200)의 전극들(채널들)을 제2 채널 그룹이라고 할 수 있다.The
제어기(300)는 지정된 뇌-컴퓨터 인터페이스 패러다임에 대해서 일정 시간 동안 측정한 뇌 신호들을 저장한다(S130). 측정된 뇌 신호는 대역 통과 필터가 적용되고, 정규화되는 전처리를 거친다. 대역 통과 필터는 지정된 뇌 신호 측정 패러다임에 관련된 주파수 범위가 설정될 수 있다. 정규화 방법은 다양한데, 예를 들면, 각 전극(채널)의 뇌 신호의 평균값이 0이고, 분산값이 1이 되도록 정규화할 수 있다.The
제어기(300)는 측정한 뇌 신호들로부터 해당 뇌-컴퓨터 인터페이스 패러다임을 위한 학습 데이터를 생성한다(S140). 학습용 뇌 신호는 각 전극에서 일정 시간 동안의 측정을 반복적으로 시도(Trial)하여 획득될 수 있고, 또는 각 전극에서 연속된 시간 동안 측정된 신호일 수 있다. 또는 학습용 뇌 신호는 각 전극에서 과거(예를 들면, 이전 측정 주기들)에 측정된 뇌 신호들(샘플)을 축적하여 생성될 수 있다. 한편, 제어기(300)는 측정한 뇌 신호들을 학습용, 검증용, 평가용으로 분리하고, 측정한 뇌 신호들 중 일부를 학습 데이터로 사용할 수 있다. The
제어기(300)는 학습 데이터를 이용하여 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)의 전극들 간의 관계 모델(W)을 초기 학습한다(S150). 전극간 관계 모델(W)은 헤드 마운트 디스플레이(100)의 뇌 신호들과 추가 전극 장치(200)의 뇌 신호들을 관계를 포함하고, 이후 측정 지점인 헤드 마운트 디스플레이(100)의 뇌 신호들로부터 미측정 지점들의 뇌 신호들을 추정하는데 이용된다. 미측정 지점들은 추가 전극 장치(200)의 전극들의 전극 위치들이고, 뇌 신호 추정 지점이라고 부를 수 있다.The
제어기(300)는 검증용 뇌 신호들을 이용하여 초기 학습된 전극간 관계 모델(W)의 파라미터들을 최적화한다(S160).The
제어기(300)는 평가용 뇌 신호들을 이용하여 최적화된 전극간 관계 모델(W)을 평가한다(S170). 관계 모델 평가 지표는, 측정된 뇌 신호(y)와 전극간 관계 모델로 추정된 뇌 신호의 상관 계수(Correlation coefficient), 또는 평균 제곱 오차를 사용할 수 있다. 상관 계수가 1에 가까울수록 또는 평균 제곱 오차가 0에 가까울수록 관계 모델의 정확도가 증가한다.The
제어기(300)는 정확도가 기준값 이상이면, 전극간 관계 모델의 학습을 종료한다(S180). 만약, 제어기(300)는 정확도가 기준값 미만인 경우, 전극간 관계 모델의 학습, 최적화, 평가를 반복할 수 있다. 필요 시, 제어기(300)는 추가적인 뇌 신호 측정을 요청할 수 있다. 제어기(300)는 뇌-컴퓨터 인터페이스 패러다임별로 전극간 관계 모델을 학습시킬 수 있다.If the accuracy is equal to or greater than the reference value, the
제어기(300)는 추정된 뇌 신호의 오차를 피드백하여 전극간 관계 모델을 최적화하는 오차 교정 방법을 통해, 전극간 관계 모델의 정확도를 높일 수 있다. 제어기(300)는 다양한 회귀 분석 기법의 조합으로 오차를 교정할 수 있고, 예를 들면, 선형 회귀 분석(Linear Regression Analysis)을 통해 추정된 뇌 신호에서 발생한 오차를 커널 리지 회귀 분석(Kernel Ridge Regression)으로 오차를 줄일 수 있다.The
전극간 관계 모델은 적용하는 회귀 분석 기법에 따라 다양하게 생성될 수 있다. 전극들 간의 관계 모델은 예를 들어 선형 회귀 분석, 리지 회귀 분석, 커널 리지 회귀 분석, 앙상블 회귀 분석(Ensemble Regression Analysis) 등으로 생성될 수 있다. 전극간 관계 모델의 변수 개수는 회귀 모델에 따라 달라지며, 예를 들어 리지 회귀 분석으로 생성되는 관계 모델은 리지 크기가 변수가 되고, 커널 리지 분석으로 생성되는 관계 모델은 리지 크기 및 커널 크기 등이 변수가 될 수 있다. The relationship model between electrodes can be variously generated according to the applied regression analysis technique. The relationship model between the electrodes can be generated by, for example, linear regression analysis, ridge regression analysis, kernel ridge regression analysis, ensemble regression analysis, and the like. The number of variables in the inter-electrode relationship model depends on the regression model. For example, the relation model generated by the ridge regression analysis is the ridge size, and the relationship model generated by the kernel ridge analysis is the ridge size and the kernel size It can be a variable.
회귀 분석에 따른 전극간 관계 모델은 표 1과 같이 정의될 수 있다. 표 1에서, x는 헤드 마운트 디스플레이(100)에서 측정된 뇌 신호이고, y는 추가 전극 장치(200)에서 측정된 뇌 신호이다. 는 리지의 크기를 나타내는 변수이다. k는 커널을 의미하고, 커널은 선형(Linear) 커널, 다항(Polynomial) 커널, 가우시안 커널 등이 선택적으로 사용될 수 있다. m은 앙상블에 사용된 모델의 개수이며, 3개의 모델뿐만 아니라 다양한 모델의 조합으로 형성될 수 있다.The relationship model between the electrodes according to the regression analysis can be defined as shown in Table 1. In Table 1, x is the brain signal measured at the head-mounted
제어기(300)는 측정 방법을 선택하고 측정한 데이터를 가공하여 다양한 차원의 학습 데이터를 생성할 수 있다. 예를 들어, 제어기(300)는 특정 뇌-컴퓨터 인터페이스 패러다임에서, 일정 시간 동안 측정을 반복적으로 시도하여 해당 패러다임에서의 뇌 신호들을 획득할 수 있다. 반복적 측정 시도에 따라 획득된 뇌 신호는 표 2의 종류1과 같은 데이터 차원(데이터 수)으로 저장될 수 있다. 연속적인 시간에 따라 획득된 뇌 신호는 표 2의 종류2와 같고, 이 경우의 데이터 차원은 전극 수와 같다. 반복적 시도에 따라 획득된 뇌 신호는 표 2의 종류3과 같이 시도 시간을 통합한 데이터로 변형되어 저장될 수 있다.The
(Ncx: 전극 수)The brain signals of the head mount display
(N cx : number of electrodes)
(Ncy: 전극 수)The brain signals of the additional electrode device
(N cy : number of electrodes)
Ttrial: 단일 시도(trial)의 시간
Ntrial: 시도 수
T trial : the time of a single trial
N trial : number of attempts
Ttrial: 단일 시도의 시간
Ntrial: 시도 수
T trial : Time of a single attempt
N trial : number of
T: 시간
T: Time
T: 시간
T:
Ttrial x nt: 전체 시도 시간
T trial x nt : Total trial time
Ttrial x nt: 전체 시도 시간
T trial x nt : Total trial time
한편, 제어기(300)는 각 전극에서 과거(과거 주기)에 측정된 일정 수의 뇌 신호들(샘플)을 축적하여 학습 데이터를 생성할 수 있다. 제어기(300)는 시간 지연된 샘플들을 이용하여 특정 시점(t)(현재 주기)에서의 뇌 신호 특징을 변환할 수 있다. On the other hand, the
특정 시점(t)에서 시간 지연 샘플들로 변환된 뇌 신호의 특징 벡터[x'(t)]는 수학식 1과 같은 벡터로 표현될 수 있고, 시간 지연 샘플들로 변환된 뇌 신호는 수학식 2와 같은 데이터 차원으로 저장될 수 있다. 수학식 1에서, ch는 해당 전극 채널이고, k은 시간 지연된 샘플 수이다. 수학식 2에서, 는 전극 수와 시간 지연된 샘플 수의 곱이고, 는 전체 시도 시간이다. The feature vector x [tau] (t) of the brain signal converted into the time delay samples at a specific time t may be expressed by a vector as shown in Equation (1) 2 < / RTI > In Equation (1), ch is the corresponding electrode channel and k is the number of samples delayed in time. In Equation (2) Is the product of the number of electrodes and the number of samples delayed by time, Is the total attempt time.
전극마다 시간 지연된 샘플들을 축적하고 이를 특정 시점(t)에서의 전극간 관계 학습에 사용하므로, 특정 시간에서 사용하는 뇌 신호의 수(차원)가 늘어나는 효과가 있다. 즉, 특정 시점(t)에서의 전극간 관계를 나타내는 학습 데이터를 생성할 때, 특정 시점(t)에서 측정한 뇌 신호들만을 사용하는 것이 아니라, 과거에 측정한 뇌 신호들도 특정 시점(t)에서의 전극간 관계를 나타내는 학습 데이터에 포함시킨다. 예를 들어, 헤드 마운트 디스플레이의 3개 전극에서 측정된 뇌 신호에 대해서 10개의 시간 지연된 샘플을 이용하면, 특정 시점의 뇌 신호를 추정하기 위해 30개의 특징값을 이용하게 된다. 표 3부터 표 5를 비교하면, 샘플 지연 방법은 관계 모델의 정확도를 높일 수 있음을 알 수 있다.Since the time-delayed samples are accumulated for each electrode and used for learning the interelectrode relation at a specific time t, there is an effect that the number (dimension) of brain signals used at a specific time is increased. That is, when generating the learning data indicating the relationship between the electrodes at the specific time point t, not only the brain signals measured at the specific time point t but also the brain signals measured in the past are also used at a specific time point t In the learning data indicating the interelectrode relationship in the electrodes. For example, using 10 time-delayed samples for brain signals measured at three electrodes on the head-mounted display, 30 feature values are used to estimate the brain signal at a given time. Comparing Table 3 through Table 5 shows that the sample delay method can increase the accuracy of the relational model.
표 3은 10초의 학습 데이터에 대해 샘플 지연이 없을 경우의 측정한 뇌 신호와 추정한 뇌 신호의 상관 계수이다. 표 4는 10초의 학습 데이터에 대해 15개의 샘플 지연을 적용한 경우의 두 뇌 신호의 상관 계수이다. 표 5는 25초의 학습 데이터에 대해 15개의 샘플 지연을 적용한 경우의 두 신호의 상관 계수이다. 표 3부터 표 5를 비교하면, 시간 지연된 샘플들을 이용하여 학습한 경우, 관계 모델의 정확도를 평가하는 지표인 상관 계수가 증가하는 것을 보이고, 학습 데이터를 증가시킬 때에도 상관 계수가 증가되는 것을 확인할 수 있다.Table 3 shows the measured brain signals in the absence of sample delay for 10 seconds of training data and the estimated brain signals . Table 4 shows the results of two brain signals with 15 sample delays applied to 10 seconds of training data . Table 5 shows two signals with 15 sample delays applied for 25 seconds of training data . Comparing Table 3 to Table 5 shows that correlation coefficient, which is an index for evaluating the accuracy of relationship model, increases when learning with time delayed samples, and that correlation coefficient increases even when learning data is increased have.
한편, 학습 데이터가 많을수록 높은 분류 성능을 제공할 수 있는 딥러닝의 특성에 따라, 각 학습 데이터를 데이터 증강(Data Augmentation)할 수 있다. 예를 들어, 데이터 증강 방법은 뇌 신호의 주파수 정보를 활용하는 정상 상태 시각/시각/촉각 유발 전위에 활용 가능하다. 예를 들어, 단일 시도의 시간에 수집된 뇌 신호에 작은 크기의 윈도우를 적용하여, 시간 축에서 한 샘플씩 이동해가며 주파수 특징을 추출하고, 이를 학습 데이터로 이용할 수 있다.On the other hand, according to the characteristics of the deep learning that can provide a higher classification performance as the learning data is larger, the data of each learning data can be augmented. For example, the data enhancement method can be used for steady state visual / visual / tactile evoked potentials that utilize frequency information of the brain signal. For example, by applying a small-sized window to a brain signal collected at a single trial time, frequency characteristics can be extracted by moving one sample in the time axis and used as learning data.
도 8은 한 실시예에 따른 제어기의 사용자 의도 인식을 위한 분류 모델 학습 방법의 흐름도이다.8 is a flowchart of a classification model learning method for user's intention recognition of a controller according to an embodiment.
도 8을 참고하면, 제어기(300)는 뇌-컴퓨터 인터페이스 패러다임에 대해서 일정 시간 동안 측정한 뇌 신호들을 이용하여 분류 모델 학습을 위한 학습 데이터를 생성한다(S210). 제어기(300)는 전극간 관계 모델의 학습을 위해 측정한 뇌 신호들을 이용하여 분류 모델 학습을 위한 학습 데이터를 생성할 수 있다. 한편, 제어기(300)는 측정된 뇌 신호들과 전극간 관계 모델로 추정된 뇌 신호들도 분류 모델 학습을 위한 학습 데이터로 이용할 수 있다. 학습 데이터는 헤드 마운트 디스플레이(100)의 뇌 신호(x)와 추가 전극 장치(200)의 뇌 신호(y)를 조합한 뇌 신호(EEGcombination)일 수 있다. EEGcombination은 전극간 관계 모델 학습에 사용된 표 2의 특징 벡터와 같이 시도 시간, 시도 횟수 등에 따라 다양하게 가공될 수 있다.Referring to FIG. 8, the
제어기(300)는 뇌-컴퓨터 인터페이스 패러다임별 학습 데이터를 기초로 사용자 의도 인식을 위한 분류 모델을 생성한다(S220). 이때, 제어기(300)는 공통 공간 패턴(Common Spatial Pattern), 선형판별분석법(Linear Discriminant Analysis), 서포트벡터머신(Support Vector Machine), 정준상관분석(Canonical Correlation Analysis), 푸리에 변환(Fourier transform), 딥러닝(Deep Learning) 등의 다양한 패턴 인식 및 기계학습 기법을 이용하여 분류 모델을 생성할 수 있다. 분류 모델은 전극간 관계모델 학습과 유사하게, 학습, 검증, 평가를 거쳐 생성될 수 있다.The
분류 모델은 뇌-컴퓨터 인터페이스 패러다임에 따라 다르게 생성된다.The classification model is generated differently according to the brain-computer interface paradigm.
동작 상상(Motor Imagery) 패러다임에서 측정된 뇌 신호인 경우, 서로 다른 두 클래스 간 분산 차이를 극대화하는 공간 필터(즉, 한 클래스에 대해서 분산을 최대화하고 동시에 다른 클래스의 분산을 최소화)를 설계하는 공통 공간 패턴(Common Spatial Pattern) 방법을 이용할 수 있다. 필터를 통해 변환된 뇌 신호의 분산을 계산하고 정규화하여 이를 사용자 의도 분류를 위한 특징 벡터로 사용한다. 이때, 선형 판별 분석법(Linear Discriminant Analysis), 서포트 벡터 머신(Support Vector Machine), 딥러닝(Deep Learning) 등의 분류기가 사용될 수 있다.In the case of a brain signal measured in the Motor Imagery paradigm, a spatial filter that maximizes dispersion between two different classes (ie, maximizes dispersion for one class while minimizing dispersion of other classes) A common spatial pattern method can be used. The variance of the brain signal transformed through the filter is calculated and normalized and used as a feature vector for user's intention classification. At this time, classifiers such as Linear Discriminant Analysis, Support Vector Machine, and Deep Learning may be used.
정상 상태 시각/청각/촉각 유발 전위에서 측정된 뇌 신호인 경우, 주파수 특징을 고려할 수 있는 정준 상관 분석 기법(Canonical Correlation Analysis), 푸리에 변환(Fourier Transform) 등이 사용될 수 있다. 정준 상관 분석 기법을 진행할 경우 시각/청각/촉각 자극과 같은 주파수를 갖는 참조 신호들(Reference Signals)을 생성한다. 그리고 정준 상관 분석 기법을 통해 참조 신호들과 단일 시도(Trial) 뇌 신호 간 상관 관계를 최대화하는 가중치 벡터를 구하고, 각각의 참조 신호와의 상관 관계를 이용하여 사용자 의도를 분류한다. 최대값 비교, 최대 근접 이웃 (k-nearest neighbor), 서포트 벡터 머신(Support Vector Machine), 딥러닝(Deep Learning) 등의 분류기가 사용될 수 있다.For brain signals measured at steady state visual / auditory / tactile evoked potentials, Canonical Correlation Analysis and Fourier Transform can be used to consider frequency characteristics. When the canonical correlation analysis is performed, reference signals having frequencies such as visual / auditory / tactile stimuli are generated. Then, a weight vector that maximizes the correlation between the reference signals and the trial brain signal is obtained through canonical correlation analysis, and the user intention is classified using the correlation with each reference signal. Classifiers such as maximum value comparison, k-nearest neighbor, Support Vector Machine, and Deep Learning may be used.
사건 유발 전위에서 측정된 뇌 신호인 경우, 사건(이벤트 또는 자극)이 주어진 후, 특정 시간(수백 ms) 후에 발생하는 뇌 신호의 크기 변화를 이용하여 사용자 의도를 분류한다. 먼저 선형 판별 분석법(Linear Discriminant Analysis), 주성분 분석법(Principal Component Analysis), 독립 성분 분석법(Independent Component Analysis)을 통해, 뇌 신호로부터 사건 유발 전위와 관련된 뇌 신호 특징을 추출한다. 선형 판별 분석법, 서포트 벡터 머신, 딥러닝 등의 분류기가 사용될 수 있다.In the case of a brain signal measured at the event evoked potential, the user's intention is classified using the magnitude change of the brain signal occurring after a certain time (several hundred ms) after the event (event or stimulus) is given. First, the brain signal features related to the event evoked potentials are extracted from the brain signal through Linear Discriminant Analysis, Principal Component Analysis, and Independent Component Analysis. Classifiers such as linear discriminant analysis, support vector machines, and deep learning may be used.
도 9는 한 실시예에 따른 제어기의 뇌 신호 추정 방법의 흐름도이다.9 is a flowchart of a brain signal estimation method of a controller according to an embodiment.
도 9를 참고하면, 제어기(300)는 학습된 전극간 관계 모델과 학습된 사용자의도 분류 모델을 저장한다(S310).Referring to FIG. 9, the
사용자가 추가 전극 장치(200)가 분리된 헤드 마운트 디스플레이(100)를 착용한 상태에서, 제어기(300)는 헤드 마운트 디스플레이(100)에서 측정된 뇌 신호들(x*)을 획득한다(S320). 제어기(300)는 학습 시 수행한 전처리와 동일하게 측정된 뇌 신호들을 전처리한다.When the user wears the separate head-mounted
제어기(300)는 학습된 전극간 관계 모델의 입력 벡터에 대응하도록 측정된 뇌 신호들의 특징 벡터를 생성한다(S330). 즉, 제어기(300)는 전극간 관계 모델의 학습에서 사용한 데이터 차원 및 데이터 형식에 맞게, 뇌 신호들을 측정하고 가공한다. 예를 들어, 수학식 1과 같이, 전극마다 시간 지연된 샘플들을 축적하고 이를 특정 시점(t)에서의 특징 벡터로 생성할 수 있다.The
제어기(300)는 학습된 전극간 관계 모델을 기초로, 측정된 뇌 신호들의 특징 벡터로부터 미측정된 지점들의 뇌 신호들을 추정한다(S340). 미측정된 지점은 추가 전극 장치(200)의 전극 위치에 해당한다.The
제어기(300)는 측정된 뇌 신호들(x*)과 추정한 뇌 신호들의 조합 신호(EEGcombination)를 생성한다(S350). 이때, 조합 신호는 수학식 3과 같이, 헤드 마운트 디스플레이 전극들과 추정된 추가 전극 장치의 전극들에서 시간(T) 동안 획득된 신호 벡터로서 표현될 수 있다.The
제어기(300)는 학습된 사용자 의도 인식을 위한 분류 모델을 기초로, 조합 신호의 특징에 해당하는 사용자 의도를 판단한다(S360). 예를 들면, 동적 상상 전위를 학습한 분류 모델은 뇌 신호 특징으로부터 사용자가 상상한 부위를 분류할 수 있다. 분류 모델은 뇌-컴퓨터 인터페이스 패러다임에 따라 복수의 의도들 중 어느 하나로 분류되도록 학습된다.The
이처럼, 사용자 머리에 많은 수의 전극을 부착하지 않아도 헤드 마운트 디스플레이를 착용하는 것만으로도 향상된 사용자 의도 인식 및 그에 따른 가상/증강 현실을 편리하게 제공할 수 있다.As described above, even if a large number of electrodes are not attached to the user's head, improved user's intention recognition and corresponding virtual / augmented reality can be conveniently provided by wearing the head-mounted display.
도 10은 뇌-컴퓨터 인터페이스 패러다임 중 동작 상상을 위한 학습 인터페이스 화면의 예시이고, 도 11과 도 12는 동작 상상에 따른 화면 제어의 예시이다.FIG. 10 shows an example of a learning interface screen for an operation image of a brain-computer interface paradigm, and FIGS. 11 and 12 show an example of a screen control according to an operation image.
도 10을 참고하면, 제어기(300)는 뇌-컴퓨터 인터페이스 패러다임 중 동작 상상 학습을 위해, 추가 전극 장치(200)가 결합된 헤드 마운트 디스플레이(100)를 착용한 사용자에게, 오른손, 왼손, 발, 혀 등의 특정 신체 부위를 통한 움직임을 상상하도록 하는 화면을 제시한다. 예를 들어, 제어기(300)는 사용자 중심의 1인칭 시점으로 제공되는 화면에서 오른손, 왼손을 각각 움켜쥐고 피는 동작을 반복하는 장면, 발가락을 까닥 까닥하는 장면, 또는 혀를 움직이는 장면을 보여주면서 뇌 신호를 유도할 수 있다. 이외에도, 제어기(300)는 상/하/좌/우 화살표 또는 임의의 형태의 도형을 보여주면서 신체 움직임을 상상을 유도할 수도 있으며, 사용하려는 동작 상상의 신체 부위를 바꾸어가며 반복할 수 있다.10, the
뇌-컴퓨터 인터페이스 패러다임이 동작 상상으로 선택된 경우, 도 4의 (a)는 오른손 동작 상상 뇌 신호를 유도하기 위한 학습 단계에서 제시되는 영상의 예이고, 도 4의 (b)는 오른손 동작 상상 뇌 신호를 유도하기 위한 학습 단계에서 제시되는 영상의 예이다.4 (a) is an example of an image presented in a learning stage for deriving a right-hand motion imaginary brain signal, and FIG. 4 (b) is an example of a right- Which is an example of the image presented in the learning step for deriving the image.
제어기(300)는 동작 상상에 의해 유발되는 뇌 신호들을 통해 학습한 전극간 관계 모델과 분류 모델을 기초로, 사용자에게 제시되는 가상 현실 화면/증강 현실 화면에서 특정 부위의 움직임을 인식할 수 있다. 본 발명에 따르면 사용자는 동작 상상을 이용하여 3차원 공간 이동을 할 수 있다.The
예를 들어, 도 11의 (a)와 같이, 헤드 마운트 디스플레이(100)가 사용자에게왼쪽 화면과 오른쪽 화면을 제공하면, 사용자가 도 11의 (b)와 같은 화면을 헤드 마운트 디스플레이(100)를 통해 인식한다. 이때, 제어기(300)는 발의 움직임은 직진, 오른손 움직임은 우회전, 왼손 움직임은 좌회전, 혀의 움직임은 후진과 매핑하고, 사용자에게 제시되는 가상 현실 화면/증강 현실 화면에서 사용자의 뇌 신호로부터 동작 상상 부위를 인식하고, 인식한 부위에 매핑된 화면 제어를 할 수 있다. 그리고 제어기(300)는 사용자가 동작 상상하지 않을 때는 화면 움직임을 정지할 수 있다.For example, if the
도 12를 참고하면, 제어기(300)는 특정 신체 움직임 상상을 검출하면 인터페이스 화면에서 특정 신체 움직임에 대응된 방향 표시 화살표의 색/모양/크기를 변경할 수 있다. Referring to FIG. 12, the
제어기(300)는 동작 상상을 이용하여 검출된 사용자 의도의 지속 시간이나 강도를 피드백할 수 있다. 예를 들어, 제어기(300)는 전진에 매핑된 발 동작 상상이 지속되거나 강도가 강해질 때, 전진 방향의 화살표 /모양/크기를 변경할 수 있다. 이를 통해, 제어기(300)는 사용자에게 올바른 동작 상상이 발현되는지에 대한 피드백을 제공할 수 있어서, 편리하고 정확한 인터페이스를 제공할 수 있다.The
도 13은 뇌-컴퓨터 인터페이스 패러다임 중 정상 상태 시각 유발 전위를 위한 학습 인터페이스 화면의 예시이다.13 is an illustration of a learning interface screen for steady state visual evoked potentials in the brain-computer interface paradigm.
도 13을 참고하면, 제어기(300)는 정상 상태 시각 유발 전위 학습을 위해, 추가 전극 장치(200)가 결합된 헤드 마운트 디스플레이(100)를 착용한 사용자에게, 적어도 한 개 이상의 시각 자극을 포함하는 화면을 제시한다. 예를 들어, 시각 자극은 자극이 제시되는 동안 특정 주파수로 점멸될 수 있고, 도형, 글자, 물체 형상 등을 포함할 수 있다. 13, the
제어기(300)는 정상 상태 시각 유발 전위에 의해 유발되는 뇌 신호들을 통해 학습한 전극간 관계 모델과 분류 모델을 기초로, 사용자에게 제시되는 가상 현실 화면/증강 현실 화면에서 시각 자극 패턴이 할당된 객체들을 인식할 수 있다. 이를 위해, 가상 환경 및 증강 현실 영상은 특정 객체 대응하는 시각 자극 패턴을 할당하여 시각 자극으로 유발된 뇌 신호들을 측정할 수 있도록 제작된다. 이때 시각 자극의 형태는 특정 객체뿐만 아니라 도형, 글자 등의 다양한 형태가 가능하며, 이를 통해 다양한 사용자 의도를 검출할 수 있다.Based on the inter-electrode relationship model and the classification model learned through the brain signals induced by the steady-state visual evoked potential, the
도 13의 (a)를 참고하면, 뇌-컴퓨터 인터페이스 패러다임이 정상 상태 시각 유발 전위로 선택된 경우, 헤드 마운트 디스플레이(100)가 사용자에게 왼쪽 화면과 오른쪽 화면을 제공하되, 좌/우 화면에서 특정 객체의 시각 자극 주파수를 상이하게 제공할 수 있다. 예를 들어, 제1 객체에 대한 시각 자극이 왼쪽 눈으로 F1Hz가 제공되고 오른쪽 눈으로 F3Hz가 제공될 수 있다. 또한 제2 객체에 대한 시각 자극이 왼쪽 눈으로 F2Hz가 제공되고 오른쪽 눈으로 F4Hz가 제공될 수 있다. 13 (a), when the brain-computer interface paradigm is selected as the steady state visual evoked potential, the
사용자는 도 13의 (b)와 같은 화면을 헤드 마운트 디스플레이 장치를 통해 인식한다. 이때, 사용자는 두 가지 주파수 성분을 인식하여 사용자 의도 인식 성능을 높일 수 있다. 즉, 사용자는 제1 객체를 F1Hz과 F3Hz의 결합으로 인식하고, 제2 객체를 F2Hz과 F4Hz의 결합으로 인식할 수 있다. The user recognizes the screen as shown in FIG. 13 (b) through the head mount display device. At this time, the user can recognize two frequency components, thereby enhancing the user's intention recognition performance. That is, the user inputs the first object as F 1 Hz F 3 Hz, and recognizes the second object as F 2 Hz and F 4 Hz. ≪ / RTI >
도 14는 뇌-컴퓨터 인터페이스 패러다임 중 사건 관련 전위를 위한 학습 인터페이스 화면의 예시이고, 도 15는 사건 관련 전위 기반의 시각 자극을 이용한 문자 입력 인터페이스의 예시이다.FIG. 14 is an illustration of a learning interface screen for event related potentials in a brain-computer interface paradigm, and FIG. 15 is an illustration of a character input interface using visual stimulation based on event related potentials.
도 14를 참고하면, 제어기(300)는 사건 관련 전위 학습을 위해, 추가 전극 장치(200)가 결합된 헤드 마운트 디스플레이(100)를 착용한 사용자에게, 적어도 한 개 이상의 시각 자극을 포함하는 화면을 제시한다. 예를 들어, 한 개 이상의 시각 자극이 제시될 수 있으며, 시각 자극은 사용자가 예측하지 못하는 순서로 번갈아 가면서 제시될 수 있다. 시각 자극은 도형, 글자, 사진, 얼굴, 소리 등을 포함할 수 있다. 사건 관련 전위는 3차원 공간에 다양한 자극이 제시되어야 할 때 편리하게 사용될 수 있다. 14, the
제어기(300)는 사건 관련 전위에 의해 유발되는 뇌 신호들을 통해 학습한 전극간 관계 모델과 분류 모델을 기초로, 사용자에게 제시되는 가상 현실 화면/증강 현실 화면에서 시각 자극을 통해 사용자가 선택한 객체들을 인식할 수 있다. 이를 위해, 가상 환경 및 증강 현실 영상은 특정 객체 대응하는 시각 자극 패턴을 할당하여 시각 자극으로 유발된 뇌 신호들을 측정할 수 있도록 제작된다.Based on the inter-electrode relationship model and the classification model learned through brain signals induced by the event-related potential, the
도 14의 (a)를 참고하면, 뇌-컴퓨터 인터페이스 패러다임이 사건 관련 전위로 선택된 경우, 헤드 마운트 디스플레이(100)가 3차원 공간에 존재하는 객체를 대상으로 사건 관련 전위를 이용한 시각 자극을 제공한다. 사용자는 도 14의 (b)와 같은 화면을 헤드 마운트 디스플레이를 통해 인식한다.Referring to FIG. 14A, when the brain-computer interface paradigm is selected as the event-related potential, the
사건 관련 전위를 이용한 시각 자극을 제공하는 방법은 다양할 수 있는데, 예를 들어, 다른 거리에 있는 객체들을 서로 번갈아 점멸하고, 깜빡임의 반복은 사용자가 예측 불가능한 시점이나 예측 불가능한 순서로 제공된다. There are a variety of ways to provide visual stimuli using event related potentials. For example, objects at different distances are alternately blinked, and blinking repetitions are provided in unpredictable or unpredictable order.
제어기(300)는 인터페이스 화면에서 사용자가 원하는 객체를 응시할 때 유발되는 뇌 신호를 학습하고, 학습된 분류 모델을 기초로 사용자 의도를 인식한다.The
도 15를 참고하면, 제어기(300)는 사건 관련 전위를 유발하는 입력 인터페이스를 이용하여 글자 입력 기능을 제공할 수 있다. 도 15의 (a)와 같이 헤드 마운트 디스플레이(100)가 사용자에게 입력 인터페이스를 제공하면, 사용자는 도 15의 (b)와 같이 인식한다. 예를 들면, 입력 인터페이스는 문자들이 번갈아가며 점멸되는 QWERTY 형태의 키보드일 수 있다.Referring to FIG. 15, the
도 16은 뇌-컴퓨터 인터페이스 패러다임 중 정상 상태 청각 유발 전위를 위한 학습 인터페이스 화면의 예시이다. Figure 16 is an illustration of a learning interface screen for steady state auditory evoked potentials in a brain-computer interface paradigm.
도 16을 참고하면, 제어기(300)는 정상 상태 청각 유발 전위 학습을 위해, 추가 전극 장치(200)가 결합된 헤드 마운트 디스플레이(100)를 착용한 사용자에게, 적어도 한 개 이상의 청각 자극을 포함하는 화면을 제시한다. 예를 들어, 한 개 이상의 청각 자극이 제시될 수 있으며, 청각 자극은 사용자가 예측하지 못하는 순서로 번갈아 가면서 제시될 수 있다. 청각 자극은 단일 주파수 또는 복수의 주파수 조합으로 구성될 수 있다. 청각 자극은 헤드 마운트 디스플레이(100)에 포함된 스피커 또는 이어폰을 통해 제공될 수 있다.Referring to Figure 16, the
제어기(300)는 정상 상태 청각 유발 전위에 의해 유발되는 뇌 신호들을 통해 학습한 전극간 관계 모델과 분류 모델을 기초로, 사용자에게 제시되는 가상 현실 화면/증강 현실 화면에서 사용자 의도를 인식할 수 있다.The
청각 자극 제시 방법은 다양할 수 있는데, 예를 들어, 사용자를 기준으로 왼쪽과 오른쪽에서 각각 발생하는 것처럼 들리는 청각 자극을 제공할 수 있다. 이때, 왼쪽에서 발생하는 것처럼 느껴지는 소리는 시간 지연없이 제공하고 오른쪽에서 발생하는 것처럼 느껴지는 소리는 왼쪽에 비해 일정 시간 지연시켜 제공할 수 있으며, 그 반대의 경우도 가능하다. The methods of presenting auditory stimuli can vary, for example, providing auditory stimuli that sound like they occur on the left and right sides, respectively, relative to the user. At this time, it is possible to provide the sound that appears to be generated from the left side without time delay, and the sound that appears to occur on the right side can be provided with a delay time compared to the left side, and vice versa.
양쪽에서 들리는 소리는 각각 다른 주파수의 소리로 이루어져 있으며, 사용자가 어느 한쪽의 소리에 집중할 때 발생하는 뇌 신호를 분석하여 사용자의 왼쪽 또는 오른쪽 의도를 검출할 수 있다. 또한 시간 지연뿐만 아니라 소리의 크기를 다르게 제공함으로써 소리 자극의 방향성을 제공할 수도 있다.The sound heard from both sides is composed of sounds of different frequencies, and the user can detect the left or right intention by analyzing the brain signal generated when the user concentrates on one sound. It may also provide the direction of sound stimulation by providing a different amount of sound as well as time delay.
추가적으로, 헤드 마운트 디스플레이(100)와 유선/무선으로 연결된 적어도 하나의 진동 자극을 사용자 신체에 부착하고, 제어기(300)는 정상 상태 촉각 유발 전위 학습을 위해, 진동 자극을 통한 자극을 제시할 수도 있다. Additionally, at least one vibratory stimulus wired / wirelessly connected to the head-mounted
이처럼 제어기(300)는, 뇌 신호를 기초로 학습된 사용자 의도 인식을 위한 분류 모델을 이용하여, 사용자에게 제시되는 가상 현실 화면/증강 현실 화면에서 측정 및 추정된 뇌 신호에 해당하는 사용자 의도를 인식할 수 있다. 그리고 제어기(300)는 인식된 사용자 의도에 따라 가상 현실 화면/증강 현실 화면을 제어(이동, 객체 선택, 키보드 입력 등)할 수 있다. As described above, the
도 17은 한 실시예에 따른 사용자의 안구 움직임에 의한 화면 제어의 예시이고, 도 18은 한 실시예에 따른 사용자의 머리 및 안구 움직임에 화면 제어의 예시이다.FIG. 17 shows an example of screen control by the user's eye movement according to an embodiment, and FIG. 18 shows an example of a screen control on a user's head and eye movement according to an embodiment.
도 17과 도 18을 참고하면, 제어기(300)는 헤드 마운트 디스플레이(100)로부터 측정된 안구 전도 신호를 기초로 사용자의 시선의 움직임에 따른 사용자 의도(예를 들면, 방향 전환, 시선 움직임 방향)를 인식할 수 있다. 즉, 제어기(300)는 안구 전도 신호를 사용자 의도로 인식하여 헤드 마운트 디스플레이를 제어할 수 있다. 제어기(300)는 뇌 신호와 안구 전도 신호로부터 검출한 사용자 의도를 기초로 헤드 마운트 디스플레이를 제어할 수 있다.Referring to FIGS. 17 and 18, the
이때, 제어기(300)는 뇌 신호를 기초로 학습된 사용자 의도 인식을 위한 분류 모델을 이용하여 사용자 의도를 인식하는 방법과 유사하게, 안구 전도 신호를 기초로 사용자 의도 인식(시선 움직임)을 위한 분류 모델을 학습하고, 학습된 분류 모델을 기초로 사용자 시선 움직임을 검출할 수 있다.At this time, similar to the method of recognizing the intention of the user using the classification model for learning the intention of the user based on the brain signal, the
제어기(300)는 안구 전도에 따른 사용자 시선 움직임 검출을 위해 헤드 마운트 디스플레이(100)에 사용자가 응시하기 위한 커서 화면을 제공할 수 있다. 커서의 움직임에 따라 사용자는 눈을 움직이게 되고, 이때 발생되는 안구 전도 신호가 안구 전도 전극들을 통해 획득된다. The
커서 화면은 중심으로부터 수평축(x-axis)과 수직축(y-axis)를 형성하고 커서의 위치 변화를 통해 수평 방향과 수직방향에 대한 속도(v)는 수학식 4와 같이 계산될 수 있다.The cursor screen forms a horizontal axis (x-axis) and a vertical axis (y-axis) from the center, and the velocity (v) in the horizontal direction and the vertical direction through the change of the cursor position can be calculated as shown in Equation (4).
제어기(300)는 왼쪽 눈 주변에 부착된 전극들(,, , )과 오른쪽 눈 주변에 부착된 전극들(,, , )을 이용하여 수직(,) 성분과 수평(,) 성분을 추출한다. 왼쪽 눈에서 측정된 수직 성분과 수평 성분은 수학식 5와 같이 표현될 수 있다.The
제어기(300)는 커서의 속도와 안구 전도의 관계 모델을 구축하기 위해 회귀 모델의 종속 변수(즉, 커서의 속도)와 독립 변수(즉, 안구 전도)를 수학식 6과 같이 생성할 수 있다.The
제어기(300)는 뇌 신호 처리 시의 학습 방법과 유사하게, 다양한 회귀 분석 기법을 적용하여 관계 모델을 생성하고, 관계 모델을 기초로 사용자가 눈을 움직일 때 발생하는 안구 전도 신호로부터 시선 움직임을 검출할 수 있다. 이에 따라, 제어기(300)는 사용자의 시선 움직임 따라 시점 변화된 화면을 출력함으로써, 자연스러운 화면 제공이 가능하다.The
도 17의 (a)를 참고하면, 사용자가 헤드 마운트 디스플레이(100)를 착용한 상태에서 상하 방향으로 안구를 움직인다. 그러면, 제어기(300)는 도 17의 (b)와 같이 카메라의 렌즈 각도를 제어하여 촬영한다. 이를 통해 제어기(300)는 도 17의 (c)와 같이 사용자가 바라본 시야에 매칭된 촬영 화면을 제공할 수 있다. Referring to FIG. 17 (a), the user moves the eyeball in the vertical direction while wearing the
가상 현실 영상의 경우에도, 제어기(300)는 사용자가 위/아래/좌/우/원거리/근거리를 볼 때 발생하는 안구 전도 신호를 분석하여 가상 현실 영상 내에서 대응되는 시점으로 화면 이동한다. In the case of the virtual reality image, the
도 18을 참조하면, 사용자가 헤드 마운트 디스플레이(100)를 착용한 상태에서 눈과 머리를 함께 움직일 수 있다. 머리 움직임은 자이로센서 등으로 측정될 수 있다.Referring to FIG. 18, the user can move the eyes and head together while wearing the
도 18의 (b)를 현재 사용자의 응시 화면이라고 가정하면, 제어기(300)는 도 18의 (a)와 같이 사용자의 머리와 눈이 움직이면, (a-1) 내지 (a-3)과 같은 화면 변화를 제공한다. 제어기(300)는 도 18의 (c)와 같이 사용자의 머리와 눈이 움직이면, (c-1) 내지 (c-3)과 같은 화면 변화를 제공한다. If the user's head and eyes move as shown in (a) of FIG. 18, the
이와 같이, 제어기(300)는 뇌-컴퓨터 인터페이스 패러다임에 따라 유발된 뇌 신호를 학습하여 사용자 의도 분류 모델을 생성하고, 또한 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)의 전극간 관계 모델을 생성할 수 있다. 이를 통해 사용자는 헤드 마운트 디스플레이(100)만을 착용하더라도 가상 현실 영상/증강 현실 영상을 제어에서 요구되는 뇌 신호들을 획득할 수 있다.In this way, the
또한, 제어기(300)는 안구 전도 신호를 학습하여 시선 움직임(시야 방향 변화)을 검출할 수 있다. 이를 통해 사용자는 헤드 마운트 디스플레이(100)만을 착용한 상태에서 눈을 움직여 가상 현실 영상/증강 현실 영상의 시점을 제어할 수 있다.In addition, the
이때, 헤드 마운트 디스플레이(100)의 뇌 전도 전극을 통한 뇌 신호 측정 및 안구 전도 전극을 통한 안구 전도 신호 측정은 병렬적으로 진행되어, 헤드 마운트 디스플레이 제어에 복합적으로 적용될 수 있다.At this time, brain signal measurement through the brain conduction electrode of the
이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다. 또한, 설명한 방법은 컴퓨터에 의해 판독 가능한 명령어를 포함하는 기록 매체로 구현될 수 있다. The embodiments of the present invention described above are not implemented only by the apparatus and method, but may be implemented through a program for realizing the function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded. Furthermore, the described method can be implemented as a recording medium including instructions readable by a computer.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.
Claims (17)
뇌 신호들을 유발하는 학습 화면을 상기 헤드 마운트 디스플레이에 표시한 상태에서, 상기 헤드 마운트 디스플레이 및 상기 헤드 마운트 디스플레이에 결합된 추가 전극 장치 각각에서 측정된 학습용 뇌 신호들을 획득하는 단계,
상기 학습용 뇌 신호들로부터 상기 헤드 마운트 디스플레이의 전극들과 상기 추가 전극 장치의 전극들의 관계 모델을 학습하는 단계,
특정 화면을 상기 헤드 마운트 디스플레이에 표시한 상태에서, 상기 추가 전극 장치가 분리된 상기 헤드 마운트 디스플레이에서 측정된 뇌 신호들을 획득하는 단계,
상기 관계 모델을 기초로 상기 헤드 마운트 디스플레이에서 측정된 뇌 신호들로부터 미측정된 상기 추가 전극 장치의 뇌 신호들을 추정하는 단계, 그리고
상기 측정된 뇌 신호들과 추정한 뇌 신호들에 해당하는 사용자 의도를 검출하는 단계를 포함하는 사용자 의도 인식 방법.CLAIMS What is claimed is: 1. A method for a controller to recognize a user's intention to wear a head-mounted display to which brain conduction electrodes are attached,
Obtaining learning brain signals measured at each of the head-mounted display and the additional electrode device coupled to the head-mounted display, with the learning screen displaying brain signals being displayed on the head-mounted display,
Learning relationship models of the electrodes of the head-mounted display and the electrodes of the additional electrode device from the learning brain signals,
Acquiring brain signals measured in the head-mounted display from which the additional electrode device is detached, with a specific screen displayed on the head-mounted display,
Estimating brain signals of the further electrode device not measured from brain signals measured at the head-mounted display based on the relational model, and
And detecting user intention corresponding to the measured brain signals and estimated brain signals.
상기 학습용 뇌 신호들로부터 사용자 의도 분류 모델을 학습하는 단계를 더 포함하고,
상기 사용자 의도를 검출하는 단계는
학습된 상기 사용자 의도 분류 모델을 기초로 상기 측정된 뇌 신호들과 상기 추정한 뇌 신호들을 조합한 신호에 해당하는 사용자 의도를 검출하는, 사용자 의도 인식 방법.The method of claim 1,
Further comprising learning a user's intention classification model from the learning brain signals,
The step of detecting the user intention
And a user intention corresponding to a signal obtained by combining the measured brain signals with the estimated brain signals based on the learned user's intention classification model.
상기 학습 화면은 특정 뇌-컴퓨터 인터페이스 패러다임에 해당하는 뇌 신호들을 유발하기 위해 제작된 인터페이스 화면인, 사용자 의도 인식 방법.The method of claim 1,
Wherein the learning screen is an interface screen produced to induce brain signals corresponding to a specific brain-computer interface paradigm.
상기 뇌-컴퓨터 인터페이스 패러다임은
동작 상상(Motor Imagery) 전위, 정상 상태 시각/청각/촉각 유발 전위(Steady-State Visual/Auditory/Somatosensory Evoked Potential), 그리고 사건 관련 전위(Event Related Potential) 중 적어도 하나인, 사용자 의도 인식 방법.4. The method of claim 3,
The brain-computer interface paradigm
Wherein the method is at least one of a Motor Imagery Potential, a Steady State Visual / Auditory / Somatosensory Evoked Potential, and an Event Related Potential.
상기 학습 화면이 동작 상상에 해당하는 뇌 신호들을 유발하는 인터페이스 화면인 경우,
상기 학습용 뇌 신호들은 상기 학습 화면에서 지정한 신체 부위를 움직이는 상상으로 유발된 신호인, 사용자 의도 인식 방법.4. The method of claim 3,
If the learning screen is an interface screen for generating brain signals corresponding to an operation image,
Wherein the learning brain signals are images generated by imagining moving body parts designated on the learning screen.
상기 학습 화면이 사건 관련 전위에 해당하는 뇌 신호들을 유발하는 인터페이스 화면인 경우, 상기 학습 화면은 양쪽 눈에 각각 대응하는 좌측 화면 및 우측 화면을 분리 제공하고, 상기 좌측 화면과 상기 우측 화면에서 동일 객체를 서로 다른 주파수로 점멸하는 시각 자극을 제공하고,
상기 학습용 뇌 신호들은 상기 학습 화면에 포함된 시각 자극으로 유발된 신호인, 사용자 의도 인식 방법.4. The method of claim 3,
When the learning screen is an interface screen for generating brain signals corresponding to an event related potential, the learning screen separates the left screen and the right screen corresponding to the respective eyes, and provides the left screen and the right screen with the same object To a different frequency,
Wherein the learning brain signals are signals caused by visual stimulation included in the learning screen.
상기 학습 화면이 정상 상태 시각 유발 전위에 해당하는 뇌 신호들을 유발하는 인터페이스 화면인 경우, 상기 학습 화면은 선택 가능한 복수의 객체들을 서로 다른 시각 자극으로 제공하고,
상기 학습용 뇌 신호들은 상기 학습 화면에서 복수의 객체들 중 특정 객체를 응시할 때 유발된 신호인, 사용자 의도 인식 방법.4. The method of claim 3,
When the learning screen is an interface screen for generating brain signals corresponding to a steady state visual evoked potential, the learning screen provides a plurality of selectable objects as different visual stimuli,
Wherein the learning brain signals are signals generated when a specific object among a plurality of objects is gazed at the learning screen.
상기 관계 모델을 학습하는 단계는
전극별로 현재 주기에서 측정된 뇌 신호에 과거 주기들에서 측정된 일정 수의 뇌 신호들을 포함하여 뇌 신호 특징 벡터를 생성하고, 상기 뇌 신호 특징 벡터를 이용하여 상기 관계 모델을 학습하는, 사용자 의도 인식 방법.The method of claim 1,
The step of learning the relational model
A brain signal feature vector including a predetermined number of brain signals measured in past cycles on a brain signal measured at a current cycle for each electrode and learning the relational model using the brain signal feature vector, Way.
검출한 사용자 의도를 기초로 상기 특정 화면을 제어하는 단계를 더 포함하는, 사용자 의도 인식 방법.The method of claim 1,
And controlling the specific screen based on the detected user intention.
상기 특정 화면을 제어하는 단계는
상기 헤드 마운트 디스플레이에 부착된 안구 전도 전극들로부터 획득된 안구 전도 신호들을 기초로 시선 움직임을 검출하고, 검출한 시선 움직임에 따라 상기 특정 화면의 시점을 변경하며, 상기 측정된 뇌 신호들과 추정한 뇌 신호들로 검출한 사용자 의도에 따라 상기 특정 화면을 제어하는, 사용자 의도 인식 방법.The method of claim 9,
The step of controlling the specific screen
The method includes detecting eye movements based on eye conduction signals obtained from the eye conduction electrodes attached to the head mount display, changing the view of the specific screen according to the detected eye movement, And controlling the specific screen according to a user's intention detected with brain signals.
상기 특정 화면을 제어하는 단계 이전에,
커서 화면에 시선이 따라 움직이는 커서를 표시한 상태에서, 상기 안구 전도 전극들로부터 획득된 학습용 안구 전도 신호들과 커서 속도의 관계 모델을 학습하는 단계를 더 포함하고,
상기 특정 화면을 제어하는 단계는
상기 안구 전도 신호들과 커서 속도의 관계 모델을 기초로, 상기 획득된 안구 전도 신호들에 해당하는 시선 움직임을 검출하는, 사용자 의도 인식 방법.11. The method of claim 10,
Before the step of controlling the specific screen,
Further comprising the step of learning a relationship model of cursor velocity and learning ocular conduction signals obtained from the ocular conduction electrodes while displaying a cursor moving along a line of sight on a cursor screen,
The step of controlling the specific screen
And a gaze movement corresponding to the acquired ocular conduction signals is detected based on a relationship model between the ocular conduction signals and the cursor velocity.
제1 채널 그룹의 뇌 전도 전극들이 부착된 헤드 마운트 디스플레이,
상기 헤드 마운트 디스플레이에 탈착되고, 제2 채널 그룹의 뇌 전도 전극들이 부착된 추가 전극 장치, 그리고
상기 제1 채널 그룹의 뇌 전도 전극들과 상기 제2 채널 그룹의 뇌 전도 전극들에서 획득되는 뇌 신호들의 관계 모델을 저장하고, 상기 관계 모델을 기초로 상기 추가 전극 장치가 분리된 상기 헤드 마운트 디스플레이를 제어하는 제어기를 포함하고,
상기 제어기는
특정 화면을 상기 헤드 마운트 디스플레이에 표시한 상태에서 상기 제1 채널 그룹에서 측정된 뇌 신호들이 입력되면, 상기 관계 모델을 기초로 상기 제2 채널 그룹의 뇌 전도 전극들의 뇌 신호들을 추정하고, 상기 제1 채널 그룹에서 측정된 뇌 신호들과 상기 제2 채널 그룹에서 추정된 뇌 신호들을 이용하여 사용자 의도를 검출하며, 검출한 사용자 의도를 기초로 상기 특정 화면을 제어하는, 뇌-컴퓨터 인터페이스 장치.A brain-computer interface device,
A head-mounted display to which brain conduction electrodes of the first channel group are attached,
An additional electrode device attached to the head mounted display and attached to the brain conduction electrodes of the second channel group,
Storing a relationship model of brain signals obtained at the brain conduction electrodes of the first channel group and the brain conduction electrodes of the second channel group and based on the relationship model, And a control unit
The controller
When the brain signals measured in the first channel group are inputted while displaying a specific screen on the head mount display, the brain signals of the brain conduction electrodes of the second channel group are estimated based on the relationship model, Wherein the user's intention is detected using brain signals measured in one channel group and brain signals estimated in the second channel group, and the specific screen is controlled based on the detected user intention.
상기 제어기는
상기 추가 전극 장치가 상기 헤드 마운트 디스플레이에 결합된 학습 모드에서, 뇌 신호들을 유발하는 학습 화면을 상기 헤드 마운트 디스플레이에 표시하고, 상기 제1 채널 그룹과 상기 제2 채널 그룹에서 측정된 학습용 뇌 신호들을 획득하며, 상기 학습용 뇌 신호들을 이용하여 상기 관계 모델을 학습시킨 후, 학습된 상기 관계 모델을 저장하는, 뇌-컴퓨터 인터페이스 장치.The method of claim 12,
The controller
In the learning mode in which the additional electrode device is coupled to the head mounted display, a learning screen for causing brain signals is displayed on the head mounted display, and the learning brain signals measured in the first channel group and the second channel group Acquiring learning models of the brain models, and learning the relationship models using the learning brain signals, and then storing the learned relationship models.
상기 학습 화면은 특정 뇌-컴퓨터 인터페이스 패러다임에 해당하는 뇌 신호들을 유발하기 위해 제작된 인터페이스 화면이고,
상기 뇌-컴퓨터 인터페이스 패러다임은
동작 상상(Motor Imagery) 전위, 정상 상태 시각/청각/촉각 유발 전위(Steady-State Visual/Auditory/Somatosensory Evoked Potential), 그리고 사건 관련 전위(Event Related Potential) 중 적어도 하나인, 뇌-컴퓨터 인터페이스 장치.The method of claim 13,
The learning screen is an interface screen generated to generate brain signals corresponding to a specific brain-computer interface paradigm,
The brain-computer interface paradigm
A brain-computer interface device that is at least one of a Motor Imagery Potential, a Steady State Visual / Auditory / Somatosensory Evoked Potential, and an Event Related Potential.
상기 제어기는
상기 학습용 뇌 신호들을 회귀 분석하여 상기 관계 모델을 학습시키는, 뇌-컴퓨터 인터페이스 장치.The method of claim 13,
The controller
And the learning brain signals are regression analyzed to learn the relational model.
상기 제어기는
학습된 사용자 의도 분류 모델을 기초로, 상기 제1 채널 그룹에서 측정된 뇌 신호들과 상기 제2 채널 그룹에서 추정된 뇌 신호들을 조합한 신호의 특징에 해당하는 상기 사용자 의도를 검출하고,
상기 사용자 의도 분류 모델은 상기 제1 채널 그룹과 상기 제2 채널 그룹에서 획득된 뇌 신호들의 특징을 기초로 특정 뇌-컴퓨터 인터페이스 패러다임에서 지정한 복수의 의도들 중 어느 하나로 분류하도록 학습된 모델인, 뇌-컴퓨터 인터페이스 장치.The method of claim 12,
The controller
Detecting a user intention corresponding to a feature of a signal obtained by combining brain signals measured in the first channel group and brain signals estimated in the second channel group based on the learned user's intention classification model,
Wherein the user's intention classification model is a model learned to classify into one of a plurality of intents designated in a specific brain-computer interface paradigm based on characteristics of brain signals obtained in the first channel group and the second channel group, - Computer interface device.
내측면의 적어도 일부가 사용자의 안면에 접하도록 착용되고, 적어도 하나의 프로세서, 메모리 그리고 디스플레이를 포함하는 본체, 그리고 상기 본체와 연결되며 상기 본체가 사용자의 안면에 착용된 상태로 고정되도록 지지하는 고정부를 포함하는 헤드 마운트 디스플레이, 그리고
상기 헤드 마운트 디스플레이에 결합되거나 분리되고, 사용자의 두피에 접하는 내 측면에 뇌 전도 전극들이 부착된 추가 전극 장치를 포함하고,
상기 헤드 마운트 디스플레이는,
상기 고정부의 내측면에 사용자의 머리 둘레를 따라 임의의 간격으로 배치된 복수의 뇌 전도 전극들,
상기 본체의 내측면에 사용자의 안구가 접하는 위치로부터 복수의 방향으로 임의의 간격으로 배치된 복수의 안구 전도 전극들,
상기 본체에 사용자의 안면의 일부가 접하는 영역에 배치되는 레퍼런스 전극, 그리고
상기 본체와 상기 고정부 중 적어도 하나에 배치되어, 상기 추가 전극 장치와 결합하거나 분리되는 체결부
를 더 포함하는, 뇌-컴퓨터 인터페이스 장치.A brain-computer interface device,
A main body including at least one processor, a memory and a display; at least a portion of an inner surface of the main body being worn to abut the user ' s face, the main body being connected to the main body and supporting the main body in a state of being worn on the user ' A head-mounted display including a head, and
An additional electrode device coupled to or separated from the head mount display and having brain conduction electrodes attached to an inner surface of the user's scalp,
Wherein the head mount display comprises:
A plurality of brain conduction electrodes arranged at an arbitrary interval along the user's head circumference on an inner surface of the fixing portion,
A plurality of eye conduction electrodes arranged at an arbitrary interval in a plurality of directions from a position where the user ' s eyeball contacts the inner surface of the body,
A reference electrode disposed in an area where a part of the user's face is in contact with the main body, and
And a fixing unit (20) disposed on at least one of the main body and the fixing unit,
Wherein the computer-readable medium further comprises a computer-readable medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/117,814 US10795441B2 (en) | 2017-10-23 | 2018-08-30 | Method of recognizing user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20170137143 | 2017-10-23 | ||
KR1020170137143 | 2017-10-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190045041A true KR20190045041A (en) | 2019-05-02 |
KR102029219B1 KR102029219B1 (en) | 2019-10-04 |
Family
ID=66581446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180057871A KR102029219B1 (en) | 2017-10-23 | 2018-05-21 | Method for recogniging user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102029219B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113434040A (en) * | 2021-06-07 | 2021-09-24 | 西北工业大学 | Brain-computer interface technical method based on augmented reality induction |
KR20210129437A (en) * | 2020-04-20 | 2021-10-28 | 한국과학기술연구원 | System and method for controlling exoskeleton robot using brain waves according to motion imagination |
CN113648541A (en) * | 2021-08-13 | 2021-11-16 | 上海大学 | Magnetic stimulation and brain signal acquisition combined synchronous integrated device |
KR20220022390A (en) * | 2020-08-18 | 2022-02-25 | 고려대학교 산학협력단 | Method for providing 360° panoramic video based on real-time field-of-view changes with eye-gaze tracking in mri environment, recording medium and device for performing the method |
KR20220091090A (en) * | 2020-12-23 | 2022-06-30 | 울산과학기술원 | Brain-computer interface method and device using video to stimulate movement image |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102270046B1 (en) * | 2020-02-18 | 2021-06-25 | 고려대학교 산학협력단 | Brain-machine interface based intention determination device and method using virtual environment |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020069382A (en) * | 2001-02-26 | 2002-09-04 | 학교법인 한양학원 | Visual displaying device for virtual reality with a built-in biofeedback sensor |
KR101203921B1 (en) * | 2011-09-21 | 2012-11-27 | 유제형 | Information providing apparatus using an eye tracking and local based service |
-
2018
- 2018-05-21 KR KR1020180057871A patent/KR102029219B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020069382A (en) * | 2001-02-26 | 2002-09-04 | 학교법인 한양학원 | Visual displaying device for virtual reality with a built-in biofeedback sensor |
KR101203921B1 (en) * | 2011-09-21 | 2012-11-27 | 유제형 | Information providing apparatus using an eye tracking and local based service |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210129437A (en) * | 2020-04-20 | 2021-10-28 | 한국과학기술연구원 | System and method for controlling exoskeleton robot using brain waves according to motion imagination |
KR20220022390A (en) * | 2020-08-18 | 2022-02-25 | 고려대학교 산학협력단 | Method for providing 360° panoramic video based on real-time field-of-view changes with eye-gaze tracking in mri environment, recording medium and device for performing the method |
KR20220091090A (en) * | 2020-12-23 | 2022-06-30 | 울산과학기술원 | Brain-computer interface method and device using video to stimulate movement image |
CN113434040A (en) * | 2021-06-07 | 2021-09-24 | 西北工业大学 | Brain-computer interface technical method based on augmented reality induction |
CN113434040B (en) * | 2021-06-07 | 2024-01-05 | 西北工业大学 | Brain-computer interface technical method based on augmented reality induction |
CN113648541A (en) * | 2021-08-13 | 2021-11-16 | 上海大学 | Magnetic stimulation and brain signal acquisition combined synchronous integrated device |
Also Published As
Publication number | Publication date |
---|---|
KR102029219B1 (en) | 2019-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10795441B2 (en) | Method of recognizing user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method | |
KR102029219B1 (en) | Method for recogniging user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method | |
US11366517B2 (en) | Human-computer interface using high-speed and accurate tracking of user interactions | |
US20200268296A1 (en) | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions | |
Lee et al. | Real-time “eye-writing” recognition using electrooculogram | |
US20170293356A1 (en) | Methods and Systems for Obtaining, Analyzing, and Generating Vision Performance Data and Modifying Media Based on the Vision Performance Data | |
CN106580346B (en) | Emotion estimation method and emotion estimation device | |
JP2021511567A (en) | Brain-computer interface with adaptation for fast, accurate, and intuitive user interaction | |
CN113156650A (en) | Augmented reality system and method using images | |
JP2018187287A (en) | Sensitivity estimation device, sensitivity estimation system, sensitivity estimation method and program | |
KR101571848B1 (en) | Hybrid type interface apparatus based on ElectronEncephaloGraph and Eye tracking and Control method thereof | |
WO2020186230A1 (en) | Systems, devices, and methods of determining data associated with a person's eyes | |
KR101734845B1 (en) | Emotion classification apparatus using visual analysis and method thereof | |
KR102064510B1 (en) | Adhd/ads diagnosis apparatus using eeg and method thereof | |
KR101306922B1 (en) | Apparatus and method for measuring EEG | |
JP2013255742A (en) | Sensibility evaluation device, method and program | |
CN116133594A (en) | Sound-based attention state assessment | |
CN113576497A (en) | Visual steady-state evoked potential detection system oriented to binocular competition | |
JP2021092883A (en) | Information processing device, information processing method, and program | |
US20230418372A1 (en) | Gaze behavior detection | |
Matthies et al. | Wearable Sensing of Facial Expressions and Head Gestures | |
KR101887296B1 (en) | Iris diagnosis system and stress diagnosing method for the same | |
VLADIĆ et al. | USING EYE TRACKING TECHNOLOGY IN PRODUCT DESIGN EVALUATION | |
Belhaouari et al. | A Tactile P300 Brain-Computer Interface: Principle and Paradigm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |