KR102548507B1 - Apparatus and method for providing user interface of game content using brain wave data - Google Patents
Apparatus and method for providing user interface of game content using brain wave data Download PDFInfo
- Publication number
- KR102548507B1 KR102548507B1 KR1020220138455A KR20220138455A KR102548507B1 KR 102548507 B1 KR102548507 B1 KR 102548507B1 KR 1020220138455 A KR1020220138455 A KR 1020220138455A KR 20220138455 A KR20220138455 A KR 20220138455A KR 102548507 B1 KR102548507 B1 KR 102548507B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- data
- wave data
- characteristic wave
- output
- Prior art date
Links
- 210000004556 brain Anatomy 0.000 title claims abstract description 123
- 238000000034 method Methods 0.000 title abstract description 31
- 230000008859 change Effects 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims description 30
- 238000013528 artificial neural network Methods 0.000 claims description 25
- 230000000694 effects Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 24
- 230000009471 action Effects 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 5
- 230000007423 decrease Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 44
- 230000000875 corresponding effect Effects 0.000 description 21
- 230000002996 emotional effect Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 6
- 230000007177 brain activity Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 210000001652 frontal lobe Anatomy 0.000 description 4
- 210000000869 occipital lobe Anatomy 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 3
- 102400000817 P-beta Human genes 0.000 description 2
- 101800000616 P-beta Proteins 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 210000001152 parietal lobe Anatomy 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 210000003478 temporal lobe Anatomy 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 206010029216 Nervousness Diseases 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004958 brain cell Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
- A63F13/46—Computing the game score
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Cardiology (AREA)
- Heart & Thoracic Surgery (AREA)
- Neurosurgery (AREA)
- Dermatology (AREA)
- Neurology (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
Description
본 발명의 실시예들은 뇌파 데이터를 활용한 게임 콘텐츠의 사용자 인터페이스 제공 장치 및 방법에 관한 것으로, 보다 구체적으로는 사용자의 뇌파를 실시간으로 분석하고, 분석 결과를 기초로 생체 신호를 적극적으로 반영한 BCI 기반 콘텐츠를 포함하는 사용자 인터페이스 제공 장치 및 방법에 관한 것이다.Embodiments of the present invention relate to an apparatus and method for providing a user interface for game content using brain wave data, and more specifically, based on a BCI that analyzes a user's brain wave in real time and actively reflects biosignals based on the analysis result. It relates to an apparatus and method for providing a user interface including content.
뇌-컴퓨터 인터페이스(Brain-Computer Interface, 이하 BCI)는 뇌파를 활용하여 사용자의 의도 및 정신, 감정 상태 등의 정보를 분석하는 것을 의미한다. BCI는, BCI를 활용하여 컴퓨터를 제어하거나, 다양한 장치 인터페이스로 활용이 가능하여 방대한 연구 가치를 지닌다. 종래에는 사용자의 뇌파를 측정하기 위해서 매우 고가의 장비가 요구되었기 때문에, 주로 전문 연구 시설이나 의료용으로만 활용되는 것에 그치는 실정이었지만, 최근 들어 헬스케어 및 엔터테인먼트를 목적으로 하는 소형화된 다양한 BCI 장비들이 등장하며 BCI의 적용 분야가 급격하게 확대되었다. Brain-Computer Interface (BCI) means to analyze information such as intention and mental and emotional state of the user by using brain waves. BCI has enormous research value because it can be used to control a computer by using BCI or to be used as a variety of device interfaces. In the past, very expensive equipment was required to measure the user's brain waves, so it was mainly used only for specialized research facilities or medical purposes. However, recently, various miniaturized BCI equipment for healthcare and entertainment purposes have appeared. The scope of application of BCI has rapidly expanded.
그러나, 일반적으로 이러한 헬스케어, 엔터테인먼트 목적의 BCI 장비는 장비 가격은 높은 반면, 뇌파에서 정량적인 집중력, 감정 상태 등의 정보를 추출하여 애플리케이션에 반영하는 Passive-BCI 형태로 설계되어 있기 때문에 시장 경쟁력을 갖추기 어렵다. 또한, 기존 BCI 기반 콘텐츠들은 내용이 단조롭고 구성이 단순하며 게임 및 애플리케이션 환경에 사용자의 개입이 상당히 제한적이다. However, in general, BCI equipment for health care and entertainment purposes is expensive, but is designed in the form of a passive-BCI that extracts quantitative information such as concentration and emotional state from brain waves and reflects it to applications, thereby increasing market competitiveness. difficult to equip In addition, existing BCI-based contents are monotonous and simple in composition, and user intervention in game and application environments is quite limited.
실시예들은, 게임 컨텐츠를 플레이하는 사용자의 뇌파를 실시간으로 분석하고, 분석 결과를 기초로 생체 신호를 적극적으로 반영한 BCI 기반 콘텐츠를 포함하는 사용자 인터페이스 제공 장치 및 방법을 제공한다.Embodiments provide an apparatus and method for providing a user interface including BCI-based content that analyzes brain waves of a user playing game content in real time and actively reflects biosignals based on the analysis result.
실시예들에서 이루고자 하는 기술적 과제들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 다양한 실시예들로부터 당해 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.Technical tasks to be achieved in the embodiments are not limited to those mentioned above, and other technical tasks not mentioned will be considered by those skilled in the art from various embodiments to be described below. can
본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법은, 게임장치의 출력부에 의해, 적어도 하나의 사용자 인터페이스를 포함하는 제1 멀티미디어 컨텐츠가 출력되는 단계; 상기 게임장치에 연결된 착용모듈에 의해, 사용자의 뇌파를 감지하여 뇌파 데이터를 생성하는 단계; 제어부에 의해, 상기 뇌파 데이터에 밴드패스 필터(Band-pass filter)를 적용하여 적어도 하나의 특성파 데이터를 생성하는 단계; 상기 제어부에 의해, 상기 특성파 데이터를 기초로 집중력 점수를 산출하고 가공 데이터를 생성하는 단계; 및 상기 제어부에 의해, 상기 가공 데이터를 기초로 메모리에서 제2 멀티미디어 컨텐츠를 선택하고 상기 출력부에 출력하는 단계;를 포함하되, 상기 특성파 데이터는, 적어도 하나의 특성파의 세기 값 및 세기 값의 변화율을 기초로 생성되고, 상기 제어부는, 상기 특성파의 세기 값을 기초로 상기 집중력 점수를 산출하고, 상기 집중력 점수를 기초로 상기 가공 데이터를 생성할 수 있다.A user interface providing method according to an embodiment of the present invention includes outputting first multimedia content including at least one user interface by an output unit of a game device; generating brain wave data by sensing brain waves of a user by a wearable module connected to the game device; generating, by a controller, at least one characteristic wave data by applying a band-pass filter to the brain wave data; calculating, by the control unit, a concentration score based on the characteristic wave data and generating processing data; and selecting, by the control unit, second multimedia content from a memory based on the processed data and outputting the second multimedia content to the output unit, wherein the characteristic wave data includes an intensity value and an intensity value of at least one characteristic wave. The control unit may calculate the concentration score based on the intensity value of the characteristic wave, and generate the processing data based on the concentration score.
상기 제1 멀티미디어 컨텐츠는, 상기 집중력 점수를 시각적으로 나타내는 게이지를 표시하는 제1 인터페이스, 및 액션 점수를 시각적으로 나타내는 게이지를 표시하는 제2 인터페이스를 포함하고, 상기 액션 점수는, 상기 사용자가 상기 제1 멀티미디어 컨텐츠에 등장하는 자신의 캐릭터를 조종하기 위해 필요한 점수를 의미하고, 상기 제어부는, 상기 특성파 데이터를 기초로 상기 액션 점수를 산출할 수 있다.The first multimedia content includes a first interface displaying a gauge visually representing the concentration score, and a second interface displaying a gauge visually representing the action score, and the action score is determined by the user. 1 means a score required to control one's own character appearing in multimedia content, and the control unit may calculate the action score based on the characteristic wave data.
상기 특성파 데이터는, 베타파에 대응하는 제1 특성파 데이터, 및 세타파에 대한 제2 특성파 데이터를 포함하고, 상기 제어부는, 상기 제1 특성파 데이터 및 상기 제2 특성파 데이터를 기초로 상기 집중력 점수를 산출할 수 있다.The characteristic wave data includes first characteristic wave data corresponding to a beta wave and second characteristic wave data corresponding to a theta wave, and the controller determines the first characteristic wave data and the second characteristic wave data based on the characteristic wave data. The concentration score may be calculated.
[수학식][mathematical expression]
상기 제어부는, 상기 [수학식]을 이용하여 상기 집중력 점수를 산출하고, 상기 [수학식]에서, CP는 집중력 점수, Pbeta는 베타파의 세기 값, Ptheta는 세타파의 세기 값을 의미할 수 있다.The control unit calculates the concentration score using the [Equation Equation], and in the [Equation Equation], CP may mean a concentration score, Pbeta may mean a beta wave intensity value, and Ptheta may mean a theta wave intensity value. .
상기 게임장치와 연결된 서버 프로세서에 의해 상기 특성파 데이터를 분석하는 단계;를 더 포함하고, 상기 서버 프로세서는, 입력 레이어, 하나 이상의 히든 레이어 및 출력 레이어를 포함하는 다층 신경망; 및 상기 특성파 데이터를 입력값으로 하고 집중력 점수를 출력값으로 하는 학습 데이터를 사용하여 상기 다층 신경망을 지도학습시켜 상기 학습 데이터를 기초로 최적화된 하이퍼파라미터(hyperparameter)를 산출하는 학습 엔진;을 포함하고, 상기 입력 레이어는, 상기 특성파 데이터를 입력받고, 상기 하나 이상의 히든 레이어는, 상기 입력 레이어의 출력값 각각에 대하여 가중치를 곱하고, 바이어스를 더하여 출력하고, 상기 출력 레이어는, 상기 히든 레이어의 출력값을 입력받아 활성화 함수를 이용하여 출력 벡터를 출력하고, 상기 다층 신경망은 상기 출력 레이어에 연결된 손실함수 레이어를 포함하고, 상기 출력 벡터는 상기 손실함수 레이어에 입력되고, 상기 손실함수 레이어는 상기 출력 벡터와 각각의 피드백 데이터에 대한 정답 벡터를 비교하는 손실 함수를 이용하여 손실값을 출력하고, 상기 다층 신경망의 파라미터는 상기 손실값이 작아지는 방향으로 학습될 수 있다.Analyzing the characteristic wave data by a server processor connected to the game device, wherein the server processor includes: a multilayer neural network including an input layer, one or more hidden layers, and an output layer; And a learning engine for performing supervised learning on the multilayer neural network using training data having the characteristic wave data as input values and concentration scores as output values, and calculating optimized hyperparameters based on the training data. . It receives an input and outputs an output vector using an activation function, the multilayer neural network includes a loss function layer connected to the output layer, the output vector is input to the loss function layer, and the loss function layer corresponds to the output vector and A loss value may be output using a loss function that compares correct answer vectors for each feedback data, and parameters of the multilayer neural network may be learned in a direction in which the loss value decreases.
본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 방법은, 제어부에 의해, 제1 특성파 데이터를 분석하는 단계; 상기 제1 특성파 데이터에 대응하는 특성파가 미리 설정된 제1 뇌파 조건을 충족하는 경우, 출력부에 의해, 상기 제1 뇌파 조건에 대응하는 제1 게임 효과가 반영된 컨텐츠를 출력하고, 상기 출력부에 의해, 사용자 입력 인터페이스를 출력하는 단계; 상기 사용자 입력 인터페이스를 통해 사용자 입력 신호가 수신되는 경우, 상기 제어부에 의해, 상기 사용자 입력 신호를 기초로, 메모리에 저장된 적어도 하나의 멀티미디어 컨텐츠 중 어느 하나를 선택하고, 제1 시점에서 상기 출력부에 출력하는 단계; 상기 제1 시점에 후속하는 제2 시점에서, 사용자의 뇌파를 기초로 생성된 제2 특성파 데이터를 분석하는 단계; 및 상기 제2 특성파 데이터에 대응하는 특성파가 미리 설정된 제2 뇌파 조건을 충족하는 경우, 상기 출력부에 의해, 상기 제2 뇌파 조건에 대응하는 제2 게임 효과가 반영된 컨텐츠를 출력하는 단계;를 포함할 수 있다.A method for providing a user interface according to another embodiment of the present invention includes analyzing first characteristic wave data by a controller; When the characteristic wave corresponding to the first characteristic wave data satisfies a preset first brain wave condition, an output unit outputs content reflecting a first game effect corresponding to the first brain wave condition, and the output unit By, outputting a user input interface; When a user input signal is received through the user input interface, the control unit selects one of at least one multimedia content stored in a memory based on the user input signal, outputting; analyzing second characteristic wave data generated based on the brain waves of the user at a second time point subsequent to the first time point; and when the characteristic wave corresponding to the second characteristic wave data satisfies a preset second brain wave condition, outputting, by the output unit, content reflecting a second game effect corresponding to the second brain wave condition; can include
본 발명의 실시예들에 따른 사용자 인터페이스 제공 방법은 사용자의 뇌파를 실시간으로 분석하고, 사용자 뇌파를 기초로 사용자에게 멀티미디어 컨텐츠를 제공할 수 있다. 또한, 새로운 컨텐츠를 제공하는 것에 따라 변화하는 사용자의 뇌파를 실시간으로 측정하여 사용자의 흥미를 향상시킬 수 있다.The method for providing a user interface according to embodiments of the present invention may analyze a user's brain wave in real time and provide multimedia content to the user based on the user's brain wave. In addition, the user's interest can be improved by measuring the user's brain waves, which change according to the provision of new content, in real time.
실시예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.Effects obtainable from the embodiments are not limited to the effects mentioned above, and other effects not mentioned are clearly derived and understood by those skilled in the art based on the detailed description below. It can be.
실시예들에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 게임장치의 구성을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법을 설명하기 위한 흐름도이다.
도 3은 출력부에서 표시되는 제1 게임 화면을 나타내는 도면이다.
도 4는 다양한 뇌파의 파형을 개략적으로 도시한 도면이다.
도 5는 출력부에서 표시되는 제2 게임 화면을 나타내는 도면이다.
도 6은 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 방법을 설명하기 위한 흐름도이다.
도 7은 게임장치의 제어부를 설명하기 위한 블록도이다.
도 8은 본 발명의 일 실시예에 따른 착용모듈을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 게임장치 및 이와 통신하는 서버를 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 서버를 도시한 블록도이다.
도 11은 서버 프로세서의 다층 신경망 구조를 설명하기 위한 도면이다.BRIEF DESCRIPTION OF THE DRAWINGS Included as part of the detailed description to aid understanding of the embodiments, the accompanying drawings provide various embodiments and, together with the detailed description, describe technical features of the various embodiments.
1 is a diagram for explaining the configuration of a game device according to an embodiment of the present invention.
2 is a flowchart illustrating a method of providing a user interface according to an embodiment of the present invention.
3 is a diagram illustrating a first game screen displayed on an output unit.
4 is a diagram schematically showing the waveforms of various brain waves.
5 is a diagram illustrating a second game screen displayed on an output unit.
6 is a flowchart illustrating a user interface providing method according to another embodiment of the present invention.
7 is a block diagram for explaining a control unit of a game device.
8 is a view for explaining a wearing module according to an embodiment of the present invention.
9 is a diagram illustrating a game device and a server communicating with the game device according to an embodiment of the present invention.
10 is a block diagram showing a server according to an embodiment of the present invention.
11 is a diagram for explaining a multilayer neural network structure of a server processor.
이하의 실시예들은 실시예들의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 다양한 실시예들을 구성할 수도 있다. 다양한 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.The following embodiments combine elements and features of the embodiments in a predetermined form. Each component or feature may be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form not combined with other components or features. In addition, various embodiments may be configured by combining some components and/or features. The order of operations described in various embodiments may be changed. Some components or features of one embodiment may be included in another embodiment, or may be replaced with corresponding components or features of another embodiment.
도면에 대한 설명에서, 다양한 실시예들의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당해 기술분야에서 통상의 지식을 가진 자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.In the description of the drawings, procedures or steps that may obscure the gist of various embodiments are not described, and procedures or steps that can be understood by those skilled in the art are not described. did
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 다양한 실시예들을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Throughout the specification, when a part is said to "comprising" or "including" a certain element, it means that it may further include other elements, not excluding other elements, unless otherwise stated. do. In addition, terms such as “… unit”, “… unit”, and “module” described in the specification mean a unit that processes at least one function or operation, which is hardware or software or a combination of hardware and software. can be implemented as Also, “a or an”, “one”, “the” and like terms are used herein in the context of describing various embodiments (particularly in the context of the claims below). Unless otherwise indicated or clearly contradicted by context, both the singular and the plural can be used.
이하, 다양한 실시예들에 따른 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 다양한 실시예들의 예시적인 실시형태를 설명하고자 하는 것이며, 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, embodiments according to various embodiments will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The detailed description set forth below in conjunction with the accompanying drawings is intended to describe exemplary embodiments of various embodiments, and is not intended to represent a single embodiment.
또한, 다양한 실시예들에서 사용되는 특정(特定) 용어들은 다양한 실시예들의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 다양한 실시예들의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition, specific terms used in various embodiments are provided to help understanding of various embodiments, and the use of these specific terms may be changed into other forms without departing from the technical spirit of various embodiments. .
도 1은 본 발명의 일 실시예에 따른 게임장치(100)의 구성을 설명하기 위한 도면이다. 1 is a diagram for explaining the configuration of a
도 1을 참조하면, 본 발명의 일 실시예에 따른 게임장치(100)는 제어부(110), 출력부(120), 거치부(130), 지지부(140)를 포함할 수 있다.Referring to FIG. 1 , a
제어부(110)는 게임장치(100)의 전반적인 동작을 제어할 수 있다. 제어부(110)는 착용모듈(200)로부터 수신한 뇌파 데이터를 기초로, 사용자의 뇌의 활성도, 집중도, 및 사용자의 감정 상태 중 적어도 하나를 결정할 수 있다. 제어부(110)는 사용자의 뇌의 활성도, 집중도, 및 사용자의 감정 상태 중 적어도 하나를 기초로 생체 정보를 생성할 수 있다. 여기서 사용자의 감정 상태는, 예를 들면, 긍정적 감정 상태와 부정적 감정 상태로 분류될 수 있다. 다른 예시에서, 사용자의 감정 상태는 복수의 상태로 분류될 수 있다. 복수의 상태는, 즐거움을 느끼는 제1 상태, 짜증을 느끼는 제2 상태, 지루함을 느끼는 제3 상태, 분노를 느끼는 제4 상태 중 적어도 하나를 포함할 수 있다.The
제어부(110)는 생체 정보를 분석하고, 생체 정보를 기초로 멀티미디어 컨텐츠를 선택하여 출력부(120)에 출력할 수 있다.The
제어부(110)는 복수의 시점에서 생성한 생체 정보들을 비교하고, 비교 결과를 기초로 피드백 데이터를 생성하여 메모리(112)에 저장할 수 있다. 복수의 시점 각각은 서로 다른 멀티미디어 컨텐츠가 출력부(120)에서 출력(재생)되고 있는 시점을 의미할 수 있다. 예를 들면, 제1 컨텐츠가 출력 중인 시점이 제1 시점, 제1 컨텐츠와는 다른 제2 컨텐츠가 출력 중인 시점이 제2 시점이라고 정의될 수 있다. 여기서, 피드백 데이터란, 제어부(110)가 사용자의 생체 정보를 기초로 선택한 멀티미디어 컨텐츠가 출력부(120)를 통해 표시되는 시점에 새롭게 획득한 사용자의 생체 정보를 기존의 생체 정보와 비교하여 뇌의 활성도 및 집중도가 얼만큼 상승하였는지에 대한 평가가 반영된 데이터일 수 있다. The
출력부(120)는 멀티미디어 컨텐츠를 출력할 수 있다. 제어부(110)는 프로세서(111)에서 출력 가능한 복수의 멀티미디어 컨텐츠 중 하나를 사용자의 입력에 기초하여 선택할 수 있다. 예를 들어, 제어부(110)는 출력부(120)의 화면에 출력되는 복수의 멀티미디어 컨텐츠 각각에 대한 아이콘들 중 사용자의 터치 입력에 대응되는 멀티미디어 컨텐츠를 선택할 수 있다.The
출력부(120)는 디스플레이 모듈을 포함할 수 있다. 디스플레이 모듈은 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 또는, 디스플레이 모듈은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. 이 경우 디스플레이 모듈은 사용자의 조작에 의해 입력 신호를 생성하는 입력 장치로서 기능할 수 있다.The
거치부(130)는 착용모듈(200)이 미사용되는 경우 착용모듈(200)을 거치할 수 있도록 게임장치(100) 외부에 형성될 수 있다. 거치부(130)의 형상은 다양할 수 있다. 일 실시예에서, 거치부(130)는 도 2에 도시된 바와 같이 게임장치(100)의 출력부(120)의 베젤 부분에 부착된 원통 형태의 형상을 가질 수 있다.The holding
지지부(140)는 사용자가 게임장치(100)를 이용하여 멀티미디어 컨텐츠 또는 게임을 즐기는 도중에 게임장치(100)가 지면에 안정적으로 고정될 수 있도록 게임장치(100)를 지지할 수 있다.The
착용모듈(200)은 복수의 센서 중 어느 하나 또는 일부만을 이용하거나, 복수의 센서 전부를 이용하여 사용자의 뇌파를 감지할 수 있다. 이 경우, 복수의 센서 각각은 사용자의 뇌의 각 부분(예를 들면, 전두엽, 두정엽, 측두엽, 후두엽 등)에 가깝게 부착될 수 있다. 이에 따라, 복수의 센서 각각은 뇌의 특정 부위에서 발생하는 뇌파를 개별적으로 감지할 수 있다.The wearing
착용모듈(200)은 사용자의 머리 부분에 적어도 일부가 접촉하도록 머리띠 형태로 형성될 수 있다. The wearing
착용모듈(200)은 케이블(230)을 통해 게임장치(100)와 연결될 수 있다. 착용모듈(200)은 케이블(230)을 통해 게임장치(100)로부터 전기 에너지를 전달받을 수 있다. 또한, 케이블(230)은 착용모듈(200)이 유선 통신 방법으로 게임장치(100)와 데이터를 주고받는 경우, 데이터를 전송할 수 있는 통신 케이블을 포함할 수 있다. 즉, 착용모듈(200)은 케이블(230)을 통해 신호 또는 전력을 외부 전자 장치로 송신하거나 외부로부터 수신할 수 있다.The wearing
도 2는 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법을 설명하기 위한 흐름도이다. 도 3은 출력부(120)에서 표시되는 제1 게임 화면을 나타내는 도면이다. 도 4는 다양한 뇌파의 파형을 개략적으로 도시한 도면이다. 도 5는 출력부(120)에서 표시되는 제2 게임 화면을 나타내는 도면이다.2 is a flowchart illustrating a method of providing a user interface according to an embodiment of the present invention. FIG. 3 is a diagram showing a first game screen displayed on the
도 2를 참조하면, S210 단계에서, 사용자가 착용모듈(200)을 착용하면, 착용모듈(200)에 전원이 공급되면서 게임장치(100)와 착용모듈(200)이 연결된다.Referring to FIG. 2 , in step S210 , when the user wears the wearing
S220 단계에서, 게임장치(100)의 출력부(120)에서 제1 멀티미디어 컨텐츠가 출력된다. 이 경우, 제1 멀티미디어 컨텐츠는 적어도 하나의 사용자 인터페이스를 포함하는 게임 화면을 포함할 수 있다.In step S220, the first multimedia content is output from the
도 3을 참조하면, 출력부(120)에서 출력되는 제1 멀티미디어 컨텐츠는 제1 인터페이스(IF1), 제2 인터페이스(IF2), 제3 인터페이스(IF3), 제4 인터페이스(IF4)를 포함하는 제1 게임 화면(D1)을 출력할 수 있다.Referring to FIG. 3, the first multimedia content output from the
제1 게임 화면(D1)의 제1 인터페이스(IF1)는 사용자 뇌파 분석 모니터링 연결 버튼을 포함할 수 있다. 게임장치(100)의 제어부(110)는 사용자의 제1 인터페이스(IF1) 터치 동작(마우스 등 포인터를 이용한 클릭 동작을 포함한다, 이하 같다)에 응답하여, 제1 게임 화면(D1)에 사용자의 뇌파를 분석한 결과를 나타내는 화면을 출력할 수 있다.The first interface IF1 of the first game screen D1 may include a user EEG analysis monitoring connection button. The
제1 게임 화면(D1)의 제2 인터페이스(IF2)는 사용자가 미니 게임 연결 버튼을 포함할 수 있다. 게임장치(100)의 제어부(110)는 사용자의 제2 인터페이스(IF2) 터치 동작에 응답하여, 제1 게임 화면(D1)에 사용자가 미니 게임을 선택할 수 있도록 미니 게임 리스트 화면을 출력할 수 있다. 여기서 미니 게임은, 사용자가 자신의 순발력, 판단력, 기억력 등을 훈련할 수 있도록 하는 사칙연산, 퀴즈, 틀린그림 찾기 등 다양한 유형의 게임을 포함할 수 있다.The second interface IF2 of the first game screen D1 may include a mini game connection button for the user. The
제1 게임 화면(D1)의 제3 인터페이스(IF3)는 사용자의 집중력 점수(CP)를 나타내는 인터페이스를 포함할 수 있다. 집중력 점수(CP)는, 제어부(110)에 의해, 사용자의 뇌파 데이터를 분석한 결과를 기초로 산출될 수 있다. 게임장치(100)의 제어부(110)는 사용자의 뇌파 데이터를 분석한 결과를 집중력 점수(CP)로서 제3 인터페이스(IF3)를 통해 화면에 출력할 수 있다. 집중력 점수(CP)는 게이지 형태로 출력될 수 있다.The third interface IF3 of the first game screen D1 may include an interface indicating the user's concentration point CP. The concentration score (CP) may be calculated by the
제1 게임 화면(D1)의 제4 인터페이스(IF4)는 사용자의 액션 점수(AP)를 나타내는 인터페이스를 포함할 수 있다. 액션 점수(AP)는, 사용자가 자신의 캐릭터에 다양한 명령을 내리기 위해 필요한 점수를 의미한다. 사용자는 게임장치(100)의 다양한 입력 장치(예를 들면, 터치 디스플레이 모듈, 마우스, 조이스틱 등)를 통해 자신의 캐릭터를 조작하며 달리기, 점프, 공격, 아이템 수집 중 적어도 하나를 포함하는 액션 명령을 입력할 수 있다. 이 경우 특정 액션 명령에는 캐릭터가 해당 액션을 수행하기 위한 고유의 액션 점수가 요구될 수 있다. 사용자가 액션 점수가 해당 명령을 내리기 위해 요구되는 액션 점수보다 부족한 경우, 사용자는 해당 명령을 입력하더라도 캐릭터가 반응하지 않게 된다.The fourth interface IF4 of the first game screen D1 may include an interface indicating the user's action score AP. Action points (AP) refer to points required for the user to issue various commands to his or her character. The user manipulates his character through various input devices (eg, touch display module, mouse, joystick, etc.) of the
게임장치(100)의 제어부(110)는 사용자의 현재 액션 점수(AP)를 제3 인터페이스(IF3)를 통해 화면에 출력할 수 있다. 액션 점수(AP)는 게이지 형태로 출력될 수 있다.The
S230 단계에서, 착용모듈(200)에 의해 사용자의 뇌파를 감지하여 뇌파 데이터를 생성한다. In step S230, brain wave data of the user is generated by detecting the user's brain wave by the wearing
착용모듈(200)은 복수의 센서 중 어느 하나 또는 일부만을 이용하거나, 복수의 센서 전부를 이용하여 사용자의 뇌파를 감지할 수 있다. 착용모듈(200)이 복수의 센서를 이용하여 뇌파를 감지하는 경우, 각각의 센서는 사용자의 뇌에서 흘러나오는 뇌파를 개별적으로 검출할 수 있다. 예를 들면, 제1 센서는 전두엽에서 흘러나오는 제1 뇌파를, 제2 센서는 후두엽에서 흘러나오는 제2 뇌파를 검출할 수 있다.The wearing
여기서 뇌파 데이터는, 시간에 따라 진폭이 변화하는 파형으로 표현될 수 있다. 또한 뇌파 데이터는 적어도 하나의 특성파 데이터를 포함할 수 있다. 특성파 데이터는, 도 4에 도시된 바와 같이 사용자의 뇌파를 측정하여 얻을 수 있는 개별적인 뇌파들(델타파, 세타파, 알파파, 베타파, 감마파 등) 각각에 대한 데이터를 의미할 수 있다.Here, brain wave data may be expressed as a waveform whose amplitude changes with time. Also, brain wave data may include at least one characteristic wave data. As shown in FIG. 4 , the characteristic wave data may mean data for each of individual brain waves (delta wave, theta wave, alpha wave, beta wave, gamma wave, etc.) that can be obtained by measuring the user's brain wave.
도 4는 착용모듈(200)의 센서를 이용하여 사용자의 뇌파를 측정하고, 측정한 뇌파를 파워 스펙트럼 분석 방법을 통해 주파수에 따라 표시한 그래프이다. 도 4를 참조하면, 뇌파는 주파수 및 진폭에 따라 복수의 개별적인 뇌파로 분류할 수 있다. 뇌파는 수만 개의 뇌세포 활동이 합쳐진 전기적 파동으로, 외부 자극에 의해 발생하는 뇌파와, 외부 자극이 없이 뇌의 활동에 의해 발생하는 뇌파로 구분된다. 이 경우, 외부 자극 없이 뇌의 활동에 의해 발생하는 뇌파는, 다시 고유 주파수에 따라 델타파, 세타파, 알파파, 베타파, 감마파로 분류할 수 있다.4 is a graph in which the user's brain waves are measured using the sensor of the wearing
델타(Delta)파는 주파수 1~4Hz로 1초 동안 1~4번 진동하여 뇌파 중 가장 적게 진동한다. 델타파는 아주 깊은 수면이나 깊은 명상, 또는 의식 불명 상태일 때 나타난다.Delta waves vibrate 1 to 4 times per second at a frequency of 1 to 4 Hz, vibrating the least among brain waves. Delta waves appear during very deep sleep, deep meditation, or unconsciousness.
세타(Theta)파는 주파수 4~7Hz로 초당 4~7번 정도 진동한다. 창의적인 생각이 일어나는 순간이나 정서 안정 또는 잠에 빠져드는 과정에서 주로 나타난다. 성인보다는 어린이에게 더 많이 나타나며 명상하는 동안에도 나타난다.Theta waves vibrate about 4 to 7 times per second with a frequency of 4 to 7 Hz. It usually appears at the moment when creative thoughts arise or in the process of emotional stability or falling asleep. It is more common in children than adults and also appears during meditation.
알파(Alfa)파는 주파수 8~12Hz로, 마음이 편안하고 안정 상태에 있을 때 나타나는 뇌파이다. 특히 눈을 감고 편안한 상태에 있을 때 안정된 알파파가 나타난다. 알파파는 눈을 뜨면 약해지고 감으면 강해지기 때문에 뇌의 시각 영역과 연결된다고 추측된다.Alpha waves, with a frequency of 8 to 12 Hz, are brain waves that appear when the mind is in a comfortable and stable state. In particular, stable alpha waves appear when you are in a relaxed state with your eyes closed. Since alpha waves weaken when the eyes are open and become stronger when the eyes are closed, it is speculated that they are connected to the visual area of the brain.
베타(Beta)파는 주파수 18~25Hz로, 대체로 눈을 뜨고 생각하고 활동하는 동안 나타나는 뇌파이다. 특히, 불안하거나 긴장한 상태, 복잡한 계산을 처리할 때에 자주 나타난다. 생각이 많거나 걱정을 할 때도 나타난다.Beta waves have a frequency of 18 to 25 Hz, and are brain waves that appear while thinking and working with eyes open. In particular, it often appears when dealing with anxiety or tension, or complex calculations. It appears when you have a lot of thoughts or worry.
감마(Gamma)파는 주파수 30~100Hz)로, 초조한 상태이거나 깊은 주의 집중이 이뤄질 때 잘 나타난다.Gamma waves have a frequency of 30 to 100 Hz) and appear well in a state of nervousness or when deep attention is focused.
이하 본 명세서에서, 특성파란, 전술한 델타파, 세타파, 알파파, 베타파, 감마파 중 어느 하나를 의미할 수 있다.Hereinafter, in the present specification, a characteristic wave may mean any one of the aforementioned delta waves, theta waves, alpha waves, beta waves, and gamma waves.
이어, S240 단계에서, 제어부(110)에 의해, 뇌파 데이터에 밴드패스 필터(Band-pass filter)를 적용하여 적어도 하나의 특성파 데이터를 생성한다. 밴드패스 필터는, 특정 주파수 사이의 신호만 통과시키는 필터이다. 밴드패스 필터는 RLC 회로를 이용하여 구현될 수 있다. Next, in step S240, the
제어부(110)는 뇌파 데이터를 기초로 델타파, 세타파, 알파파, 베타파, 감마파 각각에 대한 데이터를 생성할 수 있다. 제어부(110)는 델타파, 세타파, 알파파, 베타파, 감마파 각각의 세기 값 및 세기 값의 변화율을 기초로, 특성파 데이터를 생성할 수 있다. 즉, 특성파 데이터는 각각의 개별 뇌파의 세기 값 및 세기 값의 변화율을 기초로 생성될 수 있다. The
일 실시예에서, 특성파 데이터는 제1 특성파 데이터, 제2 특성파 데이터를 포함할 수 있다. 일 실시예에서, 제1 특성파 데이터는 베타파의 세기 값 및 세기 값의 변화율을 기초로 생성될 수 있다. 제2 특성파 데이터는 세타파의 세기 값 및 세기 값의 변화율을 기초로 생성될 수 있다. In an embodiment, the characteristic wave data may include first characteristic wave data and second characteristic wave data. In an embodiment, the first characteristic wave data may be generated based on an intensity value of the beta wave and a rate of change of the intensity value. The second characteristic wave data may be generated based on the intensity value of the theta wave and the rate of change of the intensity value.
S250 단계에서, 제어부(110)에 의해, 적어도 하나의 특성파 데이터를 기초로 집중력 점수를 산출하고 가공 데이터를 생성한다.In step S250, the
제어부(110)는 S240 단계에서 획득한 특성파 데이터를 기초로 가공 데이터를 생성할 수 있다. 가공 데이터는, 집중력 점수를 포함할 수 있다. 제어부(110)는 특성파 데이터를 기초로 집중력 점수를 산출할 수 있다.The
일 실시예에서, 제1 특성파 데이터와 제2 특성파 데이터를 기초로 집중력 점수를 산출할 수 있다. 제1 특성파 데이터는 베타파의 세기 값 및 세기 값의 변화율에 대한 정보를 포함할 수 있다. 제2 특성파 데이터는 세타파의 세기 값 및 세기 값의 변화율에 대한 정보를 포함할 수 있다.In an embodiment, a concentration score may be calculated based on the first characteristic wave data and the second characteristic wave data. The first characteristic wave data may include information about an intensity value of the beta wave and a rate of change of the intensity value. The second characteristic wave data may include information about an intensity value of the theta wave and a rate of change of the intensity value.
일 실시예에서, 제어부(110)는 [수학식 1]을 이용하여 집중력 점수를 산출할 수 있다. [수학식 1]에서, CP는 집중력 점수, Pbeta는 베타파의 세기 값, Ptheta는 세타파의 세기 값을 의미할 수 있다.In one embodiment, the
다만 이는 예시적인 것이고, 제어부(110)가 특성파 데이터를 기초로 집중력 점수를 산출하는 방식은 다양할 수 있다.However, this is just an example, and the method by which the
S260 단계에서, 제어부(110)에 의해 가공 데이터를 기초로 제2 멀티미디어 컨텐츠를 선택하고, 게임장치(100)의 출력부(120)에서 제2 멀티미디어 컨텐츠를 출력한다.In step S260, the
제2 멀티미디어 컨텐츠는 적어도 하나의 사용자 인터페이스를 포함하는 제2 게임 화면(D2)을 포함할 수 있다. The second multimedia content may include a second game screen D2 including at least one user interface.
도 5를 참조하면, 제2 게임 화면(D2)은 제1 게임 화면(D1)과 상이할 수 있다. 구체적으로, 제2 게임 화면(D2)에서 출력되는 적어도 하나의 컨텐츠는 S250 단계에서 생성된 가공 데이터를 기초로 결정될 수 있다. 도 5를 참조하면, 제2 게임 화면(D2)의 제3 인터페이스(IF3)를 통해 표시되는 집중력 점수 게이지는 제1 게임 화면(D2)의 집중력 점수 게이지와 상이할 수 있다. 즉, S250 단계에서 제어부(110)가 사용자의 뇌파 데이터를 기초로 집중력이 낮아졌다고 판단하는 경우, 제어부(110)는 게임장치(100)의 출력부(120)에서 표시되는 제2 게임 화면(D2)의 제3 인터페이스(IF3)를 통해, 사용자의 낮아진 집중력 점수가 반영된 게이지를 출력할 수 있다.Referring to FIG. 5 , the second game screen D2 may be different from the first game screen D1. Specifically, at least one piece of content output from the second game screen D2 may be determined based on the processed data generated in step S250. Referring to FIG. 5 , the concentration point gauge displayed through the third interface IF3 of the second game screen D2 may be different from the concentration point gauge of the first game screen D2. That is, when the
도 6은 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a user interface providing method according to another embodiment of the present invention.
도 6을 참조하면, S610 단계에서, 제어부(110)는 제1 특성파 데이터를 생성하고 생성된 제1 특성파 데이터를 분석한다. 제1 특성파 데이터는 도 2를 참조하여 설명한 S240 단계를 통해 생성될 수 있다.Referring to FIG. 6 , in step S610, the
S620 단계에서, 제어부(110)는 제1 특성파 데이터에 포함된 적어도 하나의 뇌파에 대한 정보를 분석하여, 상기 뇌파가 미리 설정된 뇌파 조건을 충족하는지 판단한다.In step S620, the
여기서, '뇌파 조건'은, 델타파, 세타파, 베타파 등 여러 뇌파 중 어느 하나의 뇌파의 값(물리량)에 대한 조건일 수 있다. 예를 들면, 뇌파 조건은, '베타파'의 '세기'에 대한 조건일 수 있다. 일 실시예에서, 뇌파 조건은, 베타파의 세기에 대한 제1 임계값에 대한 정보를 포함할 수 있다. 즉, S620 단계에서 제어부(110)가 뇌파 조건을 충족하는지 판단하는 것은, 사용자의 뇌파를 측정하여 생성한 제1 특성파 데이터 중, 베타파의 세기가 제1 임계값을 초과하는지 여부를 판단하는 것일 수 있다.Here, the 'brain wave condition' may be a condition for a value (physical quantity) of any one of several brain waves such as delta waves, theta waves, and beta waves. For example, the brain wave condition may be a condition for 'intensity' of 'beta waves'. In one embodiment, the brain wave condition may include information about a first threshold value for the intensity of beta waves. That is, determining whether the
다른 실시예에서, 뇌파 조건은, 세타파의 세기에 대한 제2 임계값에 대한 정보를 포함할 수 있다. 이 경우, S620 단계에서 제어부(110)가 뇌파 조건을 충족하는지 판단하는 것은, 사용자의 뇌파를 측정하여 생성한 제1 특성파 데이터 중, 세타파의 세기가 제2 임계값 이하인지 여부를 판단하는 것일 수 있다.In another embodiment, the EEG condition may include information about a second threshold value for the intensity of the theta wave. In this case, determining whether the
또 다른 실시예에서, 뇌파 조건은, 베타파의 세기가 제1 임계값을 초과하는 시간 구간에 대한 정보를 포함할 수 있다. 이 경우, S620 단계에서 제어부(110)가 뇌파 조건을 충족하는지 판단하는 것은, 사용자의 뇌파를 측정하여 생성한 제1 특성파 데이터 중, 베타파의 세기가 제1 임계값을 초과하는 시간이 특정 임계 시간 이상인지 여부를 판단하는 것일 수 있다.In another embodiment, the EEG condition may include information about a time interval in which the intensity of a beta wave exceeds a first threshold value. In this case, determining whether the
제어부(110)의 메모리는 적어도 하나의 뇌파 조건에 대한 정보를 저장할 수 있다. 이에 따라, 제어부(110)는 S620 단계에서 다양한 뇌파 조건에 대해 충족 여부 판단을 수행할 수 있다. 또한, 제어부(110)의 메모리는, 저장된 적어도 하나의 뇌파 조건에 대응하는 게임 효과에 대한 정보를 저장할 수 있다. 게임 효과는, 뇌파 조건이 충족되는 경우 실행되는 효과를 의미할 수 있다.The memory of the
S620 단계에서, 제어부(110)는 제1 특성파 데이터에 포함된 적어도 하나의 뇌파에 대한 정보를 분석하여, 상기 뇌파가 미리 설정된 뇌파 조건을 충족하는지 판단하고, 뇌파가 정해진 뇌파 조건을 충족하는 경우, S630 단계에서, 게임장치(100)의 출력부(120)를 통해 게임 효과가 반영된 컨텐츠를 출력하고, 사용자 입력 인터페이스를 출력한다.In step S620, the
여기서, 게임 효과는, 정해진 뇌파 조건에 대응하는 게임 효과를 의미한다. 일 실시예에서, 뇌파 조건이 베타파의 세기가 제1 임계값을 초과하는 조건인 경우, 이에 대응하는 게임 효과는 도 3을 참조하여 설명한 액션 포인트(AP)가 증가하는 것일 수 있다. 다른 실시예에서, 뇌파 조건이 세타파의 세기가 제2 임계값 이하로 되는 조건인 경우, 이에 대응하는 게임 효과는 액션 포인트(AP)가 감소하는 것일 수 있다. 또 다른 실시예에서, 뇌파 조건이 베타파의 세기가 제1 임계값을 초과하는 시간 구간이 특정 임계 시간 이상일 것을 요구하는 조건인 경우, 이에 대응하는 게임 효과는 특정 임계 시간을 초과하는 시간에 비례하는 액션 포인트가 증가하는 것일 수 있다.Here, the game effect means a game effect corresponding to a predetermined brain wave condition. In one embodiment, when the brain wave condition is a condition in which the strength of the beta wave exceeds the first threshold value, the corresponding game effect may be an increase in the action point (AP) described with reference to FIG. 3 . In another embodiment, when the brain wave condition is a condition in which the intensity of the theta wave is equal to or less than the second threshold value, the corresponding game effect may be that the action point (AP) decreases. In another embodiment, when the brain wave condition requires that the time interval in which the intensity of the beta wave exceeds the first threshold is equal to or longer than a specific threshold, the corresponding game effect is proportional to the time exceeding the specific threshold. action points may increase.
사용자 입력 인터페이스는 사용자의 입력 동작을 인식하여 게임장치(100)가 사용자 입력 신호를 생성할 수 있도록 하는 인터페이스를 의미할 수 있다. 예를 들면, 게임장치(100)는, 사용자가 게임 화면에 표시되는 사용자 입력 인터페이스를 마우스를 이용하여 클릭하거나, 또는 손가락 등 신체 일부를 이용하여 사용자 입력 인터페이스를 터치하는 것을 감지하여 사용자 입력 신호를 생성할 수 있다.The user input interface may refer to an interface that recognizes a user's input operation and allows the
S640 단계에서, 게임장치(100)의 입력부를 통해 사용자 입력 신호를 수신하는 경우, S650 단계에서, 사용자 입력 신호를 기초로 게임장치(100) 출력부(120)를 통해 제3 멀티미디어 컨텐츠를 출력한다.In step S640, when a user input signal is received through the input unit of the
게임장치(100)의 제어부(110)는 사용자 입력 신호를 기초로 제3 멀티미디어 컨텐츠를 선택하여 출력부(120)를 통해 출력할 수 있다. The
S640 단계에서, 게임장치(100)의 입력부를 통해 사용자 입력 신호를 수신하지 않는 경우, S630 단계로 돌아가, 사용자 입력 인터페이스를 출력한다.In step S640, when a user input signal is not received through the input unit of the
이 경우 사용자 입력 인터페이스에서 표시되는 컨텐츠는 '입력 대기'안내 메시지를 포함할 수 있다.In this case, the content displayed on the user input interface may include a 'wait for input' guidance message.
S660 단계에서, 제어부(110)는 제3 멀티미디어 컨텐츠에 대한 사용자의 뇌파를 측정하여 제2 특성파 데이터를 생성하고, 제2 특성파 데이터를 분석한다. S660 단계는 전술한 S610 단계에 대응할 수 있다.In step S660, the
이어, S670 단계에서, 제어부(110)는 제2 특성파 데이터에 포함된 적어도 하나의 뇌파에 대한 정보를 분석하여, 상기 뇌파가 미리 설정된 뇌파 조건을 충족하는지 판단한다. 이 경우, 게임장치(100)의 출력부(120)를 통해 제3 멀티미디어 컨텐츠가 표시되는 시점에 제1 시점이고, 제어부(110)가 분석하는 제2 특성파 데이터의 생성 시점은 제1 시점에 후속하는 제2 시점일 수 있다. 즉, 제어부(110)는 사용자가 제3 멀티미디어 컨텐츠를 인지한 경우에 변화된 뇌파를 측정하여 분석할 수 있다. S670 단계는 전술한 S620 단계에 대응할 수 있다.Subsequently, in step S670, the
전술한 바와 같이, 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법은 사용자의 뇌파를 실시간으로 분석하고, 사용자 뇌파를 기초로 사용자에게 멀티미디어 컨텐츠를 제공할 수 있다. 또한, 새로운 컨텐츠를 제공하는 것에 따라 변화하는 사용자의 뇌파를 실시간으로 측정하여 사용자의 흥미를 향상시킬 수 있다.As described above, the method for providing a user interface according to an embodiment of the present invention may analyze a user's brain wave in real time and provide multimedia content to the user based on the user's brain wave. In addition, the user's interest can be improved by measuring the user's brain waves, which change according to the provision of new content, in real time.
도 7은 게임장치(100)의 제어부(110)를 설명하기 위한 블록도이다.7 is a block diagram for explaining the
도 7을 참조하면, 본 발명의 일 실시예에 따른 게임장치(100)는 제어부(110), 출력부(120), 거치부(130), 지지부(140)를 포함할 수 있다.Referring to FIG. 7 , the
출력부(120)는 멀티미디어 컨텐츠를 출력할 수 있다. 제어부(110)는 프로세서(111)에서 출력 가능한 복수의 멀티미디어 컨텐츠 중 하나를 사용자의 입력에 기초하여 선택할 수 있다. 예를 들어, 제어부(110)는 출력부(120)의 화면에 출력되는 복수의 멀티미디어 컨텐츠 각각에 대한 아이콘들 중 사용자의 터치 입력에 대응되는 멀티미디어 컨텐츠를 선택할 수 있다.The
출력부(120)는 디스플레이 모듈을 포함할 수 있다. 디스플레이 모듈은 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 또는, 디스플레이 모듈은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. 이 경우 디스플레이 모듈은 사용자의 조작에 의해 입력 신호를 생성하는 입력 장치로서 기능할 수 있다.The
제어부(110)는 게임장치(100)의 전반적인 동작을 제어할 수 있다. 도 4를 참조하면, 게임장치(100)의 제어부(110)는 프로세서(111), 메모리(112), 통신 모듈(113), 안테나 모듈(114)을 포함할 수 있다. 또는, 제어부(110)에는 이 구성요소들 중 적어도 하나가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 다른 실시예에서는, 이 구성요소들 중 일부들은 하나의 구성요소로 통합될 수 있다.The
제어부(110)의 프로세서(111)는, 후술할 착용모듈(200)로부터 수신한 뇌파 데이터를 기초로, 사용자의 뇌의 활성도, 집중도, 및 사용자의 감정 상태 중 적어도 하나를 결정할 수 있다. 프로세서(111)는 사용자의 뇌의 활성도, 집중도, 및 사용자의 감정 상태 중 적어도 하나를 기초로 생체 정보를 생성할 수 있다.The processor 111 of the
여기서 사용자의 감정 상태는, 예를 들면, 긍정적 감정 상태와 부정적 감정 상태로 분류될 수 있다. 다른 예시에서, 사용자의 감정 상태는 복수의 상태로 분류될 수 있다. 복수의 상태는, 즐거움을 느끼는 제1 상태, 짜증을 느끼는 제2 상태, 지루함을 느끼는 제3 상태, 분노를 느끼는 제4 상태 중 적어도 하나를 포함할 수 있다.Here, the user's emotional state may be classified into, for example, a positive emotional state and a negative emotional state. In another example, the user's emotional state may be classified into a plurality of states. The plurality of states may include at least one of a first state of feeling pleasure, a second state of feeling annoyed, a third state of feeling bored, and a fourth state of feeling anger.
프로세서(111)는 생체 정보를 분석하고, 생체 정보를 기초로 멀티미디어 컨텐츠를 메모리(112)에서 선택하여 출력부(120)에 출력할 수 있다.The processor 111 may analyze biometric information, select multimedia content from the memory 112 based on the biometric information, and output the selected multimedia content to the
프로세서(111)는 복수의 시점에서 생성한 생체 정보들을 비교하고, 비교 결과를 기초로 피드백 데이터를 생성하여 메모리(112)에 저장할 수 있다. 복수의 시점 각각은 서로 다른 멀티미디어 컨텐츠가 출력부(120)에서 출력(재생)되고 있는 시점을 의미할 수 있다. 예를 들면, 제1 컨텐츠가 출력 중인 시점이 제1 시점, 제1 컨텐츠와는 다른 제2 컨텐츠가 출력 중인 시점이 제2 시점이라고 정의될 수 있다.The processor 111 may compare biometric information generated at a plurality of viewpoints, generate feedback data based on the comparison result, and store the generated feedback data in the memory 112 . Each of the plurality of points of view may refer to a point in time when different multimedia contents are being output (played) from the
여기서, 피드백 데이터란, 프로세서(111)가 사용자의 생체 정보를 기초로 선택한 멀티미디어 컨텐츠가 출력부(120)를 통해 표시되는 시점에 새롭게 획득한 사용자의 생체 정보를 기존의 생체 정보와 비교하여 뇌의 활성도 및 집중도가 얼만큼 상승하였는지에 대한 평가가 반영된 데이터일 수 있다. 예를 들면, 만약 프로세서(111)가 사용자의 제1 생체 정보를 기초로 현재 출력부(120)에서 표시되고 있는 멀티미디어 컨텐츠와 다른 새로운 컨텐츠를 표시하였는데, 이 때 새롭게 획득된 사용자의 제2 생체 정보를 분석한 결과 제1 생체 정보와 비교하여 사용자의 뇌의 활성도 또는 집중도가 상승하였다면, 프로세서(111)는 상승분에 비례하는 점수(예를 들면, 양의 값을 가지는 점수)를 포함하는 피드백 데이터를 생성할 수 있다. 반대로, 사용자의 뇌의 활성도 또는 집중도가 오히려 저하되었다면, 프로세서(111)는 음의 값을 가지는 점수를 포함하는 피드백 데이터를 생성할 수 있다.Here, the feedback data means that the processor 111 compares the user's biometric information newly obtained at the time when the multimedia content selected based on the user's biometric information is displayed through the
프로세서(111)는 다른 구성요소(예를 들면, 착용모듈(200), 서버(300))로부터 수신된 명령 또는 데이터를 휘발성 메모리에 저장하고, 휘발성 메모리에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다. 일 실시예에서, 프로세서(111)는 메인 프로세서(예를 들면, 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(예를 들면, 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 센서 허브 프로세서)를 포함할 수 있다. 예를 들어, 게임장치(100)가 메인 프로세서 및 보조 프로세서를 포함하는 경우, 보조 프로세서는 메인 프로세서보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서는 메인 프로세서와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 111 stores commands or data received from other components (eg, the
보조 프로세서는, 예를 들면, 메인 프로세서가 인액티브 상태에 있는 동안 메인 프로세서를 대신하여, 또는 메인 프로세서가 액티브 상태에 있는 동안 메인 프로세서와 함께, 게임장치(100)의 구성요소들 중 적어도 하나의 구성요소와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에서, 보조 프로세서는 기능적으로 관련 있는 다른 구성요소의 일부로서 구현될 수 있다. The auxiliary processor is, for example, in place of the main processor while the main processor is in an inactive state, or together with the main processor while the main processor is in an active state, at least one of the components of the
일 실시예에서, 보조 프로세서가 신경망 처리 장치인 경우, 보조 프로세서는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 게임장치(100) 자체에서 수행될 수 있고, 별도의 서버를 통해 수행될 수도 있다. In one embodiment, when the auxiliary processor is a neural network processing device, the auxiliary processor may include a hardware structure specialized for processing an artificial intelligence model. AI models can be created through machine learning. Such learning may be performed, for example, in the
학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning or reinforcement learning, but in the above example Not limited. The artificial intelligence model may include a plurality of artificial neural network layers. Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the foregoing, but is not limited to the foregoing examples. The artificial intelligence model may include, in addition or alternatively, software structures in addition to hardware structures.
제어부(110)의 메모리(112)는 복수의 멀티미디어 컨텐츠를 저장할 수 있다. 게임장치(100)는 메모리(112)에 저장된 복수의 멀티미디어 컨텐츠 중 어느 하나를 사용자의 입력에 기초하여 선택하고 선택된 컨텐츠를 출력부(120)를 통해 출력할 수 있다. The memory 112 of the
또한, 메모리(112)는 사용자의 뇌의 활성도에 관한 제1 임계값과 사용자의 뇌의 집중도에 관한 제2 임계값을 저장할 수 있다. 여기서, 제1 임계값은 사용자의 뇌의 활성도 분포 범위 내의 어느 하나의 값을 의미할 수 있다. 예를 들면, 사용자의 뇌의 활성도가 0 ~ 100 범위의 값으로 표현되는 경우, 제1 임계값은 0 ~ 100 범위의 값 중 어느 하나, 예를 들면 50일 수 있다. 다만 이는 예시적인 것이고, 본 발명의 실시예는 이에 제한되지 않는다. 마찬가지로, 제2 임계값은 사용자의 뇌의 집중도 분포 범위 내의 어느 하나의 값을 의미할 수 있으며, 여기서 '범위'의 최솟값과 최댓값은 다양할 수 있다.In addition, the memory 112 may store a first threshold value related to the activity of the user's brain and a second threshold value related to the degree of concentration of the user's brain. Here, the first threshold value may mean any one value within the user's brain activity distribution range. For example, when the user's brain activity is expressed as a value in the range of 0 to 100, the first threshold value may be any one of the values in the range of 0 to 100, for example 50. However, this is exemplary, and embodiments of the present invention are not limited thereto. Similarly, the second threshold value may mean any one value within the concentration distribution range of the user's brain, where the minimum and maximum values of the 'range' may vary.
프로세서(111)는 사용자 정보, 생체 정보, 및 피드백 데이터 등에 기초하여 제1 및/또는 제2 임계값을 변경하여 메모리(112)에 저장할 수 있다. 예를 들면, 프로세서(111)는 생체 정보를 분석하고, 생체 정보 중 사용자의 뇌의 활성도가 제1 임계값 이하인 경우, 현재 출력부(120)에서 출력되고 있는 멀티미디어 컨텐츠와 다른 컨텐츠를 메모리(112)에서 선택하여 출력부(120)에 출력할 수 있다. 또는, 프로세서(111)는 생체 정보 중 사용자의 뇌의 집중도가 제2 임계값 이하로 되는 경우, 현재 출력부(120)에서 출력되고 있는 멀티미디어 컨텐츠와 다른 컨텐츠를 메모리(112)에서 선택하여 출력부(120)에 출력할 수 있다.The processor 111 may change and store the first and/or second threshold values in the memory 112 based on user information, biometric information, and feedback data. For example, the processor 111 analyzes the biometric information, and if the activity of the user's brain is less than or equal to a first threshold value among the biometric information, the multimedia content currently being output from the
또한, 메모리(112)는 사용자의 감정 상태에 관한 트리거 정보를 저장할 수 있다. 여기서, 사용자의 감정 상태에 관한 트리거 정보는, 사용자의 감정 상태를 어느 하나의 상태에서 다른 상태로 변경시키기 위해 필요한 생체 정보의 임계값에 관한 정보일 수 있다.Also, the memory 112 may store trigger information related to a user's emotional state. Here, the trigger information on the user's emotional state may be information on a threshold value of biometric information necessary to change the user's emotional state from one state to another.
그 밖에 메모리(112)는, 게임장치(100)의 적어도 하나의 구성요소에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(112)는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.In addition, the memory 112 may store various data used by at least one component of the
통신 모듈(113)은 게임장치(100)와 외부 전자 장치 간의 유선 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(113)은 프로세서(111)와 독립적으로 운영되고, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에서, 통신 모듈(113)은 무선 통신 모듈 또는 유선 통신 모듈을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 네트워크(400)를 통하여 게임장치(100)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소로 통합되거나, 또는 서로 별도의 복수의 구성요소들로 구현될 수 있다. The communication module 113 may support establishment of a wired or wireless communication channel between the
무선 통신 모듈은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역을 지원할 수 있다. 무선 통신 모듈은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈은 게임장치(100), 외부 전자 장치 또는 네트워크 시스템에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에서, 무선 통신 모듈은 eMBB 실현을 위한 Peak data rate, mMTC 실현을 위한 손실 Coverage 또는 URLLC 실현을 위한 U-plane latency를 지원할 수 있다.The wireless communication module may support a 5G network after a 4G network and a next-generation communication technology, for example, NR access technology (new radio access technology). NR access technologies include high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access of multiple terminals (massive machine type communications (mMTC)), or high reliability and low latency (ultra-reliable and low latency (URLLC)). -latency communications)) can be supported. The wireless communication module may support a high frequency band, for example, to achieve a high data rate. The wireless communication module uses various technologies for securing performance in a high frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), and full-dimensional multiple-output (FD). Technologies such as full dimensional MIMO (MIMO), array antenna, analog beam-forming, or large scale antenna may be supported. The wireless communication module may support various requirements stipulated in the
안테나 모듈(114)은 신호 또는 전력을 외부 전자 장치로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에서, 안테나 모듈(114)은 서브스트레이트 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에서, 안테나 모듈(114)은 복수의 안테나들을 포함할 수 있다. 이 경우, 네트워크(400)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(113)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(113)과 외부 전자 장치 간에 송신되거나 수신될 수 있다.The antenna module 114 may transmit a signal or power to an external electronic device or receive it from the outside. In one embodiment, the antenna module 114 may include an antenna including a radiator formed of a conductor or conductive pattern formed on a substrate. In one embodiment, the antenna module 114 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the network 400 may be selected from the plurality of antennas by, for example, the communication module 113 . A signal or power may be transmitted or received between the communication module 113 and an external electronic device through the selected at least one antenna.
일 실시예에서, 명령 또는 데이터는 네트워크(400)에 연결된 게임장치(100)간에 송신 또는 수신될 수 있다. 게임장치(100)는 게임장치(100)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에서, 게임장치(100)에서 실행되는 동작들의 전부 또는 일부는 게임장치(100)에서 실행될 수 있다. In one embodiment, commands or data may be transmitted or received between
예를 들면, 게임장치(100)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 게임장치(100)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 게임장치(100)로 전달할 수 있다. 게임장치(100)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 게임장치(100)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다.For example, when the
게임장치(100)의 거치부(130)는 착용모듈(200)이 미사용되는 경우 착용모듈(200)을 거치할 수 있도록 게임장치(100) 외부에 형성될 수 있다. 거치부(130)의 형상은 다양할 수 있다. 일 실시예에서, 거치부(130)는 도 7에 도시된 바와 같이 게임장치(100)의 출력부(120)의 베젤 부분에 부착된 원통 형태의 형상을 가질 수 있다.The holding
지지부(140)는 사용자가 게임장치(100)를 이용하여 멀티미디어 컨텐츠 또는 게임을 즐기는 도중에 게임장치(100)가 지면에 안정적으로 고정될 수 있도록 게임장치(100)를 지지할 수 있다.The
도 8은 본 발명의 일 실시예에 따른 착용모듈(200)을 설명하기 위한 도면이다. 8 is a diagram for explaining the wearing
도 8을 참조하면, 착용모듈(200)은 복수의 센서 중 어느 하나 또는 일부만을 이용하거나, 복수의 센서 전부를 이용하여 사용자의 뇌파를 감지할 수 있다. 이 경우, 복수의 센서 각각은 사용자의 뇌의 각 부분(예를 들면, 전두엽, 두정엽, 측두엽, 후두엽 등)에 가깝게 부착될 수 있다. 이에 따라, 복수의 센서 각각은 뇌의 특정 부위에서 발생하는 뇌파를 개별적으로 감지할 수 있다.Referring to FIG. 8 , the wearing
착용모듈(200)은 사용자의 머리 부분에 적어도 일부가 접촉하도록 머리띠 형태로 형성될 수 있다.The wearing
착용모듈(200)은 복수의 센서, 통신부(220), 및 케이블(230)을 포함할 수 있다. 복수의 센서는 제1 센서(210_1), 제2 센서(210_2)를 포함할 수 있다. 복수의 센서에 포함되는 센서의 수는 다양할 수 있다. 비록 도 8에서는 2개의 센서만이 도시되었으나, 본 발명의 실시예는 이에 제한되지 않는다. 각각의 센서(210_1, 210_2)는 뇌파(Electroencephalogram) 검출을 위한 금속 측정 전극을 포함할 수 있다. 각각의 센서(210_1, 210_2)는 사용자의 뇌에서 흘러나오는 뇌파를 개별적으로 검출할 수 있다. 사용자가 착용모듈(200)을 머리에 착용한 경우에 측정 전극은 사용자의 두피 또는 얼굴 피부에 접촉할 수 있다. 각각의 센서(210_1, 210_2)는 서로 다른 부위의 뇌에서 흘러나오는 뇌파를 개별적으로 검출할 수 있다. 예를 들면, 제1 센서(210_1)는 전두엽에서 흘러나오는 제1 뇌파를, 제2 센서(210_2)는 후두엽에서 흘러나오는 제2 뇌파를 검출할 수 있다. 또는, 제1 센서(210_1)는 좌뇌에서 흘러나오는 제1 뇌파를, 제2 센서(210_2)는 우뇌에서 흘러나오는 제2 뇌파를 검출할 수 있다.The wearing
통신부(220)는 착용모듈(200)의 복수의 센서에 의해 획득된 뇌파 데이터를 외부 전자 장치(예를 들면, 게임장치(100))로 송신하거나, 외부 전자 장치로부터 신호 또는 데이터를 수신할 수 있다. 통신부(220)는 게임장치(100) 등 외부 전자 장치와 착용모듈(200) 간의 유선 통신 채널 또는 무선 통신 채널의 수립하고, 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. The
통신부(220)는 무선 통신 모듈 또는 유선 통신 모듈을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 네트워크를 통하여 게임장치(100)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소로 통합되거나, 또는 서로 별도의 복수의 구성요소들로 구현될 수 있다. The
케이블(230)은 게임장치(100)와 연결될 수 있다. 착용모듈(200)은 케이블(230)을 통해 게임장치(100)로부터 전기 에너지를 전달받을 수 있다. 또한, 케이블(230)은 착용모듈(200)이 유선 통신 방법으로 게임장치(100)와 데이터를 주고받는 경우, 데이터를 전송할 수 있는 통신 케이블을 포함할 수 있다. 즉, 착용모듈(200)은 케이블(230)을 통해 신호 또는 전력을 외부 전자 장치로 송신하거나 외부로부터 수신할 수 있다.The
도 9는 본 발명의 일 실시예에 따른 게임장치(100) 및 이와 통신하는 서버(300)를 도시한 도면이다. 도 10은 본 발명의 일 실시예에 따른 서버(300)를 도시한 블록도이다. 도 11은 서버 프로세서(310)의 다층 신경망 구조를 설명하기 위한 도면이다.9 is a diagram showing a
도 9를 참조하면, 네트워크 환경에서 게임장치(100)는 네트워크를 통하여 서버(300)와 통신할 수 있다. 서버(300)는 서버(300)에 연결된 게임장치(100) 및 사용자 단말(미도시)을 관리할 수 있다. 서버(300)는 게임장치(100)로부터 사용자의 뇌파를 측정하여 획득한 뇌파 데이터, 뇌파 데이터를 분석하여 생성된 생체 정보, 및 복수의 생체 정보 비교 결과에 따른 선택 정보 및 피드백 데이터를 수신하고 이를 저장할 수 있다. 또한, 서버(300)는 게임장치(100)로부터 특성파 데이터, 집중력 점수, 액션 점수, 및 가공 데이터를 수신하고 이를 저장할 수 있다.Referring to FIG. 9 , in a network environment, a
도 10을 참조하면, 서버(300)는 서버 프로세서(310), 서버 메모리(320), 및 사용자 관리부(330)를 포함할 수 있다. 서버 프로세서(310)는 게임장치(100)의 메모리(112)에 저장된 뇌파 데이터, 생체 정보, 피드백 데이터를 수신할 수 있다. 서버 메모리(320)는 수신한 뇌파 데이터, 생체 정보, 피드백 데이터를 저장할 수 있다. 또한, 서버 메모리(320)는 게임장치(100)로부터 수신한 특성파 데이터, 집중력 점수, 액션 점수, 및 가공 데이터를 저장할 수 있다.Referring to FIG. 10 , the
서버 프로세서(310)는 학습 모델을 이용하여 특성파 데이터를 분석하고, 특성파 데이터를 기초로 생성되는 집중력 점수를 보정할 수 있다.The server processor 310 may analyze the characteristic wave data using the learning model and correct the concentration score generated based on the characteristic wave data.
이를 위해, 서버 프로세서(310)는 다층 신경망(311), 학습 엔진(312)을 포함할 수 있다. To this end, the server processor 310 may include a multilayer
학습 엔진(312)은 복수의 학습 데이터를 사용하여 다층 신경망(311)을 미리 지도학습시킬 수 있다. 다층 신경망(Multilayer Neural Network)은 많은 수의 인공 뉴런(또는, 노드)들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 소프트웨어나 하드웨어로 구현된 예측 모델이다. The learning engine 312 may pre-supervise the multilayer
학습 엔진(312)은, 다층 신경망(311)이 학습 데이터를 기초로 집중력 점수를 정확하게 보정할 수 있도록, 특성파 데이터를 입력값으로 하고, 집중력 점수를 출력값으로 하는 학습 데이터를 사용하여 다층 신경망(311)을 지도학습시킬 수 있다.The learning engine 312 uses the learning data having characteristic wave data as an input value and the concentration score as an output value so that the multilayer
이때, 지도학습이란, 입력값과 그에 따른 출력값이 있는 데이터를 학습 데이터로 이용하여 주어진 입력값에 따른 출력값을 찾는 학습을 의미하며, 정답을 알고 있는 상태에서 이루어지는 학습을 의미한다. 지도 학습에서 주어지는 입력값과 출력값 세트를 학습 데이터(Training Data)라고 한다. At this time, supervised learning means learning to find an output value according to a given input value by using data with input values and corresponding output values as learning data, and means learning that takes place in a state where the correct answer is known. The set of input values and output values given in supervised learning is called training data.
도 11을 참조하면, 다층 신경망(311)은 입력 레이어(311_a), 하나 이상의 히든 레이어(311_b), 및 출력 레이어(311_c)을 포함할 수 있다.Referring to FIG. 11 , the multilayer
일 실시예에서, 다층 신경망(311)은, 입력값을 입력받고 제1 특징 벡터의 성분 개수에 상응하는 노드들을 갖는 입력 레이어(311_a), 입력 레이어(311_a)의 출력값 각각에 대하여 가중치를 곱하고, 바이어스(bias)를 더하여 출력하는 제1 히든 레이어(421_b1), 및 제1 히든 레이어(421_b1)의 출력값 각각에 대하여 가중치를 곱하고, 바이어스를 더하여 출력하는 제2 히든 레이어(제421_b2), 및 제2 히든 레이어(421_b2)의 출력값 각각에 대하여 가중치를 곱하고, 그 결과를 활성화 함수를 이용하여 출력하는 출력 레이어(output layer)(311_c)를 포함할 수 있다. 비록 도 6에서는 2개의 히든 레이어(421_b1, 421_b2)만이 도시되었으나, 하나 이상의 히든 레이어(311_b)은, 제1 히든 레이어(421_b1), 제2 히든 레이어(421_b2)외에 더 많은 수의 히든 레이어를 포함할 수 있다.In one embodiment, the multilayer
예를 들어, 활성화 함수는 Softmax 함수일 수 있으나, 본 발명의 실시예는 이에 제한되는 것은 아니고, 활성화 함수는 LeRU 함수 등 다른 다양한 함수일 수 있다. 가중치와 바이어스는 지도학습에 의해 지속적으로 갱신될 수 있다. For example, the activation function may be a Softmax function, but embodiments of the present invention are not limited thereto, and the activation function may be various other functions such as a LeRU function. Weights and biases can be continuously updated by supervised learning.
구체적으로, 출력 벡터는 출력 레이어(311_c)에 연결된 손실함수 레이어에 입력될 수 있다. 손실함수 레이어는 출력 벡터와 각각의 학습 데이터에 대한 정답 벡터를 비교하는 손실 함수를 이용하여 손실값을 출력할 수 있다. 다층 신경망(311)의 파라미터는 손실값이 작아지는 방향으로 지도학습될 수 있다.Specifically, the output vector may be input to a loss function layer connected to the output layer 311_c. The loss function layer may output a loss value using a loss function that compares an output vector with a correct answer vector for each training data. Parameters of the multilayer
예를 들어, 손실함수 레이어는 [수학식 2]를 따라 손실 값을 계산할 수 있다. [수학식 2]에서, N은 복수의 학습 데이터의 수, n은 학습 데이터를 식별하는 자연수, k는 n번째 학습 데이터의 값을 식별하는 자연수, nk는 n번째 학습 데이터의 k번째 값을 의미하고, t는 정답 데이터를 의미하고, y는 출력 벡터를 의미하고, E는 손실값을 의미할 수 있다.For example, the loss function layer can calculate a loss value according to [Equation 2]. In [Equation 2], N is the number of a plurality of training data, n is a natural number identifying the learning data, k is a natural number identifying the value of the nth learning data, nk means the kth value of the nth learning data , t may mean correct answer data, y may mean an output vector, and E may mean a loss value.
또는, 손실함수 레이어는 [수학식 3]을 따라 손실 값을 계산할 수 있다. [수학식 3]에서, n은 클래스 별 학습 데이터의 수, y와 j는 클래스를 나타내는 식별자, C는 상수값, M은 클래스의 개수, x_y는 학습 데이터가 클래스 y에 속할 확률값, x_j는 학습 데이터가 클래스 j에 속할 확률값, L은 손실값을 의미할 수 있다.Alternatively, the loss function layer may calculate a loss value according to [Equation 3]. In [Equation 3], n is the number of learning data for each class, y and j are identifiers representing classes, C is a constant value, M is the number of classes, x_y is the probability that the training data belongs to class y, x_j is learning A probability value, L, that data belongs to class j may mean a loss value.
서버 프로세서(310)는 적어도 하나의 하드웨어 칩 형태로 제작되어 디바이스에 탑재될 수 있다. 예를 들어, 서버 프로세서(310)는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 디바이스에 탑재될 수도 있다.The server processor 310 may be manufactured in the form of at least one hardware chip and mounted in a device. For example, the server processor 310 may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or a conventional general-purpose processor (eg, CPU or application processor) or a graphics-only processor (eg, It may be manufactured as a part of GPU) and mounted in various devices described above.
이 경우, 서버 프로세서(310)는 하나의 디바이스에 탑재될 수도 있으며, 또는 별개의 디바이스에 탑재될 수도 있다. 한편, 서버 프로세서(310)의 학습 모델은 소프트웨어 모듈로 구현될 수 있다. 학습 모델이 소프트웨어 모듈(또는, 인스트럭션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 어플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 어플리케이션에 의해 제공될 수 있다.In this case, the server processor 310 may be mounted on one device or may be mounted on a separate device. Meanwhile, the learning model of the server processor 310 may be implemented as a software module. When the learning model is implemented as a software module (or a program module including instructions), the software module may be stored in a computer-readable, non-transitory computer readable media. there is. Also, in this case, at least one software module may be provided by an Operating System (OS) or a predetermined application. Alternatively, some of the at least one software module may be provided by an Operating System (OS), and the other part may be provided by a predetermined application.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.
Claims (5)
상기 게임장치에 연결된 착용모듈에 의해, 사용자의 뇌파를 감지하여 뇌파 데이터를 생성하는 단계;
제어부에 의해, 상기 뇌파 데이터에 밴드패스 필터(Band-pass filter)를 적용하여 적어도 하나의 특성파 데이터를 생성하는 단계;
상기 제어부에 의해, 상기 특성파 데이터를 기초로 집중력 점수를 산출하고 가공 데이터를 생성하는 단계; 및
상기 제어부에 의해, 상기 가공 데이터를 기초로 메모리에서 제2 멀티미디어 컨텐츠를 선택하고 상기 출력부에 출력하는 단계;를 포함하되,
상기 특성파 데이터는,
적어도 하나의 특성파의 세기 값 및 세기 값의 변화율을 기초로 생성되고,
상기 제어부는, 상기 특성파의 세기 값을 기초로 상기 집중력 점수를 산출하고, 상기 집중력 점수를 기초로 상기 가공 데이터를 생성하고,
상기 제1 멀티미디어 컨텐츠는,
상기 집중력 점수를 시각적으로 나타내는 게이지를 표시하는 제1 인터페이스, 및
액션 점수를 시각적으로 나타내는 게이지를 표시하는 제2 인터페이스를 포함하고,
상기 액션 점수는, 상기 사용자가 상기 제1 멀티미디어 컨텐츠에 등장하는 자신의 캐릭터를 조종하기 위해 필요한 점수를 의미하고,
상기 제어부는, 상기 특성파 데이터를 기초로 상기 액션 점수를 산출하는,
사용자 인터페이스 제공 방법.outputting first multimedia content including at least one user interface by an output unit of the game device;
generating brain wave data by sensing brain waves of a user by a wearable module connected to the game device;
generating, by a controller, at least one characteristic wave data by applying a band-pass filter to the brain wave data;
calculating, by the control unit, a concentration score based on the characteristic wave data and generating processing data; and
Selecting, by the controller, second multimedia content from a memory based on the processed data and outputting it to the output unit; including,
The characteristic wave data,
It is generated based on an intensity value and a rate of change of the intensity value of at least one characteristic wave,
The control unit calculates the concentration score based on the intensity value of the characteristic wave, and generates the processing data based on the concentration score;
The first multimedia content,
A first interface displaying a gauge visually representing the concentration score; and
A second interface displaying a gauge that visually represents an action score;
The action score means a score required for the user to manipulate his character appearing in the first multimedia content,
The control unit calculates the action score based on the characteristic wave data.
How to present the user interface.
상기 특성파 데이터는, 베타파에 대응하는 제1 특성파 데이터, 및 세타파에 대한 제2 특성파 데이터를 포함하고,
상기 제어부는, 상기 제1 특성파 데이터 및 상기 제2 특성파 데이터를 기초로 상기 집중력 점수를 산출하는,
사용자 인터페이스 제공 방법.According to claim 1,
The characteristic wave data includes first characteristic wave data corresponding to a beta wave and second characteristic wave data corresponding to a theta wave,
The control unit calculates the concentration score based on the first characteristic wave data and the second characteristic wave data.
How to present the user interface.
상기 게임장치와 연결된 서버 프로세서에 의해 상기 특성파 데이터를 분석하는 단계;를 더 포함하고,
상기 서버 프로세서는, 입력 레이어, 하나 이상의 히든 레이어 및 출력 레이어를 포함하는 다층 신경망; 및 상기 특성파 데이터를 입력값으로 하고 집중력 점수를 출력값으로 하는 학습 데이터를 사용하여 상기 다층 신경망을 지도학습시켜 상기 학습 데이터를 기초로 최적화된 하이퍼파라미터(hyperparameter)를 산출하는 학습 엔진;을 포함하고,
상기 입력 레이어는, 상기 특성파 데이터를 입력받고, 상기 하나 이상의 히든 레이어는, 상기 입력 레이어의 출력값 각각에 대하여 가중치를 곱하고, 바이어스를 더하여 출력하고, 상기 출력 레이어는, 상기 히든 레이어의 출력값을 입력받아 활성화 함수를 이용하여 출력 벡터를 출력하고,
상기 다층 신경망은 상기 출력 레이어에 연결된 손실함수 레이어를 포함하고, 상기 출력 벡터는 상기 손실함수 레이어에 입력되고, 상기 손실함수 레이어는 상기 출력 벡터와 각각의 피드백 데이터에 대한 정답 벡터를 비교하는 손실 함수를 이용하여 손실값을 출력하고, 상기 다층 신경망의 파라미터는 상기 손실값이 작아지는 방향으로 학습되는,
사용자 인터페이스 제공 방법.According to claim 3,
Further comprising: analyzing the characteristic wave data by a server processor connected to the game device;
The server processor may include a multi-layer neural network including an input layer, one or more hidden layers, and an output layer; And a learning engine for performing supervised learning on the multilayer neural network using training data having the characteristic wave data as input values and concentration scores as output values, and calculating optimized hyperparameters based on the training data. ,
The input layer receives the characteristic wave data, the at least one hidden layer multiplies a weight for each output value of the input layer, adds a bias, and outputs the result, and the output layer inputs an output value of the hidden layer. Take it and use the activation function to output the output vector,
The multilayer neural network includes a loss function layer connected to the output layer, the output vector is input to the loss function layer, and the loss function layer compares the output vector with a correct answer vector for each feedback data. A loss value is output using , and the parameters of the multilayer neural network are learned in a direction in which the loss value decreases.
How to present the user interface.
상기 제1 특성파 데이터에 대응하는 특성파가 미리 설정된 제1 뇌파 조건을 충족하는 경우, 출력부에 의해, 상기 제1 뇌파 조건에 대응하는 제1 게임 효과가 반영된 컨텐츠를 출력하고, 상기 출력부에 의해, 사용자 입력 인터페이스를 출력하는 단계;
상기 사용자 입력 인터페이스를 통해 사용자 입력 신호가 수신되는 경우, 상기 제어부에 의해, 상기 사용자 입력 신호를 기초로, 메모리에 저장된 적어도 하나의 멀티미디어 컨텐츠 중 어느 하나를 선택하고, 제1 시점에서 상기 출력부에 출력하는 단계;
상기 제1 시점에 후속하는 제2 시점에서, 사용자의 뇌파를 기초로 생성된 제2 특성파 데이터를 분석하는 단계; 및
상기 제2 특성파 데이터에 대응하는 특성파가 미리 설정된 제2 뇌파 조건을 충족하는 경우, 상기 출력부에 의해, 상기 제2 뇌파 조건에 대응하는 제2 게임 효과가 반영된 컨텐츠를 출력하는 단계;를 포함하는,
사용자 인터페이스 제공 방법.analyzing the first characteristic wave data by a control unit;
When the characteristic wave corresponding to the first characteristic wave data satisfies a preset first brain wave condition, an output unit outputs content reflecting a first game effect corresponding to the first brain wave condition, and the output unit By, outputting a user input interface;
When a user input signal is received through the user input interface, the control unit selects one of at least one multimedia content stored in a memory based on the user input signal, outputting;
analyzing second characteristic wave data generated based on the brain waves of the user at a second time point subsequent to the first time point; and
When the characteristic wave corresponding to the second characteristic wave data satisfies a preset second brain wave condition, outputting, by the output unit, content reflecting a second game effect corresponding to the second brain wave condition; including,
How to present the user interface.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220138455A KR102548507B1 (en) | 2022-10-25 | 2022-10-25 | Apparatus and method for providing user interface of game content using brain wave data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220138455A KR102548507B1 (en) | 2022-10-25 | 2022-10-25 | Apparatus and method for providing user interface of game content using brain wave data |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102548507B1 true KR102548507B1 (en) | 2023-06-28 |
Family
ID=86994012
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220138455A KR102548507B1 (en) | 2022-10-25 | 2022-10-25 | Apparatus and method for providing user interface of game content using brain wave data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102548507B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150028661A (en) * | 2013-09-06 | 2015-03-16 | 세종대학교산학협력단 | Analysis method of user intention recognition for brain computer interface |
KR20160081003A (en) * | 2014-12-30 | 2016-07-08 | 한국과학기술연구원 | Device and method for measuring cognitive fatigue based on tactile stimuli |
KR20190140864A (en) * | 2018-06-12 | 2019-12-20 | 주식회사 아이디어빈스 | Method and apparatus for determining concentration level of user |
JP6889564B2 (en) * | 2017-02-01 | 2021-06-18 | 株式会社コロプラ | Game display methods, computers, and programs |
-
2022
- 2022-10-25 KR KR1020220138455A patent/KR102548507B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150028661A (en) * | 2013-09-06 | 2015-03-16 | 세종대학교산학협력단 | Analysis method of user intention recognition for brain computer interface |
KR20160081003A (en) * | 2014-12-30 | 2016-07-08 | 한국과학기술연구원 | Device and method for measuring cognitive fatigue based on tactile stimuli |
JP6889564B2 (en) * | 2017-02-01 | 2021-06-18 | 株式会社コロプラ | Game display methods, computers, and programs |
KR20190140864A (en) * | 2018-06-12 | 2019-12-20 | 주식회사 아이디어빈스 | Method and apparatus for determining concentration level of user |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Junior et al. | Feature selection and dimensionality reduction: An extensive comparison in hand gesture classification by sEMG in eight channels armband approach | |
CN112256123B (en) | Brain load-based control work efficiency analysis method, equipment and system | |
Scherer et al. | Brain–computer interfacing: more than the sum of its parts | |
KR20220097907A (en) | Latency compensation using machine learning prediction of user input | |
Wu et al. | Offline EEG-based driver drowsiness estimation using enhanced batch-mode active learning (EBMAL) for regression | |
KR102152615B1 (en) | Weight initialization method and apparatus for stable learning of deep learning model using activation function | |
CN112256124B (en) | Emotion-based control work efficiency analysis method, equipment and system | |
CN115407872B (en) | Evaluation method, device and storage medium for intelligent man-machine cooperative system | |
Acharya et al. | An enhanced fitness function to recognize unbalanced human emotions data | |
KR102453304B1 (en) | A system that provides virtual reality content for dementia prevention and self-diagnosis | |
Bose et al. | Deep learning for brain computer interfaces | |
Ogino et al. | Semi-supervised learning for auditory event-related potential-based brain–computer interface | |
KR102548507B1 (en) | Apparatus and method for providing user interface of game content using brain wave data | |
Yu et al. | Towards pilot’s situation awareness enhancement: A framework of adaptive interaction system and its realization | |
Fang et al. | Real-Time Monitoring of Mental Fatigue of Construction Workers Using Enhanced Sequential Learning and Timeliness | |
CN112200025B (en) | Operation and control work efficiency analysis method, device and system | |
KR102602146B1 (en) | Method for adjusting dynamic environment in game based on brain wave data | |
KR102429627B1 (en) | The System that Generates Avatars in Virtual Reality and Provides Multiple Contents | |
Kraft et al. | A systematic approach to developing near real-time performance predictions based on physiological measures | |
KR102602144B1 (en) | Apparatus and method for analyzing the user's brain waves and providing content based on the analysis result | |
Ziegler et al. | Sensing and assessing cognitive workload across multiple tasks | |
Pathirana et al. | Applicability of multi-agent systems for electroencephalographic data classification | |
Miao et al. | Research on the Integration of Human-Computer Interaction and Cognitive Neuroscience | |
Sharma et al. | Computational models of stress in reading using physiological and physical sensor data | |
KR102020479B1 (en) | Globe Module System for Image Training |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |