KR102548507B1 - Apparatus and method for providing user interface of game content using brain wave data - Google Patents

Apparatus and method for providing user interface of game content using brain wave data Download PDF

Info

Publication number
KR102548507B1
KR102548507B1 KR1020220138455A KR20220138455A KR102548507B1 KR 102548507 B1 KR102548507 B1 KR 102548507B1 KR 1020220138455 A KR1020220138455 A KR 1020220138455A KR 20220138455 A KR20220138455 A KR 20220138455A KR 102548507 B1 KR102548507 B1 KR 102548507B1
Authority
KR
South Korea
Prior art keywords
user
data
wave data
characteristic wave
output
Prior art date
Application number
KR1020220138455A
Other languages
Korean (ko)
Inventor
권하은
임형빈
Original Assignee
주식회사 프레임
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 프레임 filed Critical 주식회사 프레임
Priority to KR1020220138455A priority Critical patent/KR102548507B1/en
Application granted granted Critical
Publication of KR102548507B1 publication Critical patent/KR102548507B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/46Computing the game score
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Cardiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Neurosurgery (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

Embodiments provide a method for providing a user interface based on brain wave data by analyzing the brain waves of a user. The method for providing a user interface according to an embodiment of the present invention comprises the steps of: outputting, by an output part of a game device, first multimedia content including at least one user interface; generating, by a wearable module connected to the game device, brain wave data by detecting the brain waves of a user; generating, by a control part, at least one characteristic wave data by applying a band-pass filter to the brain wave data; calculating, by the control part, a concentration score based on the characteristic wave data and generating processed data; and selecting, by the control part, second multimedia content from a memory based on the processed data and outputting the second multimedia content to the output part, wherein the characteristic wave data are generated based on the intensity value of the at least one characteristic wave and the change rate of the intensity value, and the control part may calculate the concentration score based on the intensity value of the characteristic wave, and generate the processed data based on the concentration score. Therefore, multimedia content can be provided to a user based on the brain waves of the user analyzed in real time.

Description

뇌파 데이터를 활용한 게임 콘텐츠의 사용자 인터페이스 제공 장치 및 방법{APPARATUS AND METHOD FOR PROVIDING USER INTERFACE OF GAME CONTENT USING BRAIN WAVE DATA}Apparatus and method for providing user interface of game contents using brain wave data

본 발명의 실시예들은 뇌파 데이터를 활용한 게임 콘텐츠의 사용자 인터페이스 제공 장치 및 방법에 관한 것으로, 보다 구체적으로는 사용자의 뇌파를 실시간으로 분석하고, 분석 결과를 기초로 생체 신호를 적극적으로 반영한 BCI 기반 콘텐츠를 포함하는 사용자 인터페이스 제공 장치 및 방법에 관한 것이다.Embodiments of the present invention relate to an apparatus and method for providing a user interface for game content using brain wave data, and more specifically, based on a BCI that analyzes a user's brain wave in real time and actively reflects biosignals based on the analysis result. It relates to an apparatus and method for providing a user interface including content.

뇌-컴퓨터 인터페이스(Brain-Computer Interface, 이하 BCI)는 뇌파를 활용하여 사용자의 의도 및 정신, 감정 상태 등의 정보를 분석하는 것을 의미한다. BCI는, BCI를 활용하여 컴퓨터를 제어하거나, 다양한 장치 인터페이스로 활용이 가능하여 방대한 연구 가치를 지닌다. 종래에는 사용자의 뇌파를 측정하기 위해서 매우 고가의 장비가 요구되었기 때문에, 주로 전문 연구 시설이나 의료용으로만 활용되는 것에 그치는 실정이었지만, 최근 들어 헬스케어 및 엔터테인먼트를 목적으로 하는 소형화된 다양한 BCI 장비들이 등장하며 BCI의 적용 분야가 급격하게 확대되었다. Brain-Computer Interface (BCI) means to analyze information such as intention and mental and emotional state of the user by using brain waves. BCI has enormous research value because it can be used to control a computer by using BCI or to be used as a variety of device interfaces. In the past, very expensive equipment was required to measure the user's brain waves, so it was mainly used only for specialized research facilities or medical purposes. However, recently, various miniaturized BCI equipment for healthcare and entertainment purposes have appeared. The scope of application of BCI has rapidly expanded.

그러나, 일반적으로 이러한 헬스케어, 엔터테인먼트 목적의 BCI 장비는 장비 가격은 높은 반면, 뇌파에서 정량적인 집중력, 감정 상태 등의 정보를 추출하여 애플리케이션에 반영하는 Passive-BCI 형태로 설계되어 있기 때문에 시장 경쟁력을 갖추기 어렵다. 또한, 기존 BCI 기반 콘텐츠들은 내용이 단조롭고 구성이 단순하며 게임 및 애플리케이션 환경에 사용자의 개입이 상당히 제한적이다. However, in general, BCI equipment for health care and entertainment purposes is expensive, but is designed in the form of a passive-BCI that extracts quantitative information such as concentration and emotional state from brain waves and reflects it to applications, thereby increasing market competitiveness. difficult to equip In addition, existing BCI-based contents are monotonous and simple in composition, and user intervention in game and application environments is quite limited.

실시예들은, 게임 컨텐츠를 플레이하는 사용자의 뇌파를 실시간으로 분석하고, 분석 결과를 기초로 생체 신호를 적극적으로 반영한 BCI 기반 콘텐츠를 포함하는 사용자 인터페이스 제공 장치 및 방법을 제공한다.Embodiments provide an apparatus and method for providing a user interface including BCI-based content that analyzes brain waves of a user playing game content in real time and actively reflects biosignals based on the analysis result.

실시예들에서 이루고자 하는 기술적 과제들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 다양한 실시예들로부터 당해 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.Technical tasks to be achieved in the embodiments are not limited to those mentioned above, and other technical tasks not mentioned will be considered by those skilled in the art from various embodiments to be described below. can

본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법은, 게임장치의 출력부에 의해, 적어도 하나의 사용자 인터페이스를 포함하는 제1 멀티미디어 컨텐츠가 출력되는 단계; 상기 게임장치에 연결된 착용모듈에 의해, 사용자의 뇌파를 감지하여 뇌파 데이터를 생성하는 단계; 제어부에 의해, 상기 뇌파 데이터에 밴드패스 필터(Band-pass filter)를 적용하여 적어도 하나의 특성파 데이터를 생성하는 단계; 상기 제어부에 의해, 상기 특성파 데이터를 기초로 집중력 점수를 산출하고 가공 데이터를 생성하는 단계; 및 상기 제어부에 의해, 상기 가공 데이터를 기초로 메모리에서 제2 멀티미디어 컨텐츠를 선택하고 상기 출력부에 출력하는 단계;를 포함하되, 상기 특성파 데이터는, 적어도 하나의 특성파의 세기 값 및 세기 값의 변화율을 기초로 생성되고, 상기 제어부는, 상기 특성파의 세기 값을 기초로 상기 집중력 점수를 산출하고, 상기 집중력 점수를 기초로 상기 가공 데이터를 생성할 수 있다.A user interface providing method according to an embodiment of the present invention includes outputting first multimedia content including at least one user interface by an output unit of a game device; generating brain wave data by sensing brain waves of a user by a wearable module connected to the game device; generating, by a controller, at least one characteristic wave data by applying a band-pass filter to the brain wave data; calculating, by the control unit, a concentration score based on the characteristic wave data and generating processing data; and selecting, by the control unit, second multimedia content from a memory based on the processed data and outputting the second multimedia content to the output unit, wherein the characteristic wave data includes an intensity value and an intensity value of at least one characteristic wave. The control unit may calculate the concentration score based on the intensity value of the characteristic wave, and generate the processing data based on the concentration score.

상기 제1 멀티미디어 컨텐츠는, 상기 집중력 점수를 시각적으로 나타내는 게이지를 표시하는 제1 인터페이스, 및 액션 점수를 시각적으로 나타내는 게이지를 표시하는 제2 인터페이스를 포함하고, 상기 액션 점수는, 상기 사용자가 상기 제1 멀티미디어 컨텐츠에 등장하는 자신의 캐릭터를 조종하기 위해 필요한 점수를 의미하고, 상기 제어부는, 상기 특성파 데이터를 기초로 상기 액션 점수를 산출할 수 있다.The first multimedia content includes a first interface displaying a gauge visually representing the concentration score, and a second interface displaying a gauge visually representing the action score, and the action score is determined by the user. 1 means a score required to control one's own character appearing in multimedia content, and the control unit may calculate the action score based on the characteristic wave data.

상기 특성파 데이터는, 베타파에 대응하는 제1 특성파 데이터, 및 세타파에 대한 제2 특성파 데이터를 포함하고, 상기 제어부는, 상기 제1 특성파 데이터 및 상기 제2 특성파 데이터를 기초로 상기 집중력 점수를 산출할 수 있다.The characteristic wave data includes first characteristic wave data corresponding to a beta wave and second characteristic wave data corresponding to a theta wave, and the controller determines the first characteristic wave data and the second characteristic wave data based on the characteristic wave data. The concentration score may be calculated.

[수학식][mathematical expression]

Figure 112022112712428-pat00001
Figure 112022112712428-pat00001

상기 제어부는, 상기 [수학식]을 이용하여 상기 집중력 점수를 산출하고, 상기 [수학식]에서, CP는 집중력 점수, Pbeta는 베타파의 세기 값, Ptheta는 세타파의 세기 값을 의미할 수 있다.The control unit calculates the concentration score using the [Equation Equation], and in the [Equation Equation], CP may mean a concentration score, Pbeta may mean a beta wave intensity value, and Ptheta may mean a theta wave intensity value. .

상기 게임장치와 연결된 서버 프로세서에 의해 상기 특성파 데이터를 분석하는 단계;를 더 포함하고, 상기 서버 프로세서는, 입력 레이어, 하나 이상의 히든 레이어 및 출력 레이어를 포함하는 다층 신경망; 및 상기 특성파 데이터를 입력값으로 하고 집중력 점수를 출력값으로 하는 학습 데이터를 사용하여 상기 다층 신경망을 지도학습시켜 상기 학습 데이터를 기초로 최적화된 하이퍼파라미터(hyperparameter)를 산출하는 학습 엔진;을 포함하고, 상기 입력 레이어는, 상기 특성파 데이터를 입력받고, 상기 하나 이상의 히든 레이어는, 상기 입력 레이어의 출력값 각각에 대하여 가중치를 곱하고, 바이어스를 더하여 출력하고, 상기 출력 레이어는, 상기 히든 레이어의 출력값을 입력받아 활성화 함수를 이용하여 출력 벡터를 출력하고, 상기 다층 신경망은 상기 출력 레이어에 연결된 손실함수 레이어를 포함하고, 상기 출력 벡터는 상기 손실함수 레이어에 입력되고, 상기 손실함수 레이어는 상기 출력 벡터와 각각의 피드백 데이터에 대한 정답 벡터를 비교하는 손실 함수를 이용하여 손실값을 출력하고, 상기 다층 신경망의 파라미터는 상기 손실값이 작아지는 방향으로 학습될 수 있다.Analyzing the characteristic wave data by a server processor connected to the game device, wherein the server processor includes: a multilayer neural network including an input layer, one or more hidden layers, and an output layer; And a learning engine for performing supervised learning on the multilayer neural network using training data having the characteristic wave data as input values and concentration scores as output values, and calculating optimized hyperparameters based on the training data. . It receives an input and outputs an output vector using an activation function, the multilayer neural network includes a loss function layer connected to the output layer, the output vector is input to the loss function layer, and the loss function layer corresponds to the output vector and A loss value may be output using a loss function that compares correct answer vectors for each feedback data, and parameters of the multilayer neural network may be learned in a direction in which the loss value decreases.

본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 방법은, 제어부에 의해, 제1 특성파 데이터를 분석하는 단계; 상기 제1 특성파 데이터에 대응하는 특성파가 미리 설정된 제1 뇌파 조건을 충족하는 경우, 출력부에 의해, 상기 제1 뇌파 조건에 대응하는 제1 게임 효과가 반영된 컨텐츠를 출력하고, 상기 출력부에 의해, 사용자 입력 인터페이스를 출력하는 단계; 상기 사용자 입력 인터페이스를 통해 사용자 입력 신호가 수신되는 경우, 상기 제어부에 의해, 상기 사용자 입력 신호를 기초로, 메모리에 저장된 적어도 하나의 멀티미디어 컨텐츠 중 어느 하나를 선택하고, 제1 시점에서 상기 출력부에 출력하는 단계; 상기 제1 시점에 후속하는 제2 시점에서, 사용자의 뇌파를 기초로 생성된 제2 특성파 데이터를 분석하는 단계; 및 상기 제2 특성파 데이터에 대응하는 특성파가 미리 설정된 제2 뇌파 조건을 충족하는 경우, 상기 출력부에 의해, 상기 제2 뇌파 조건에 대응하는 제2 게임 효과가 반영된 컨텐츠를 출력하는 단계;를 포함할 수 있다.A method for providing a user interface according to another embodiment of the present invention includes analyzing first characteristic wave data by a controller; When the characteristic wave corresponding to the first characteristic wave data satisfies a preset first brain wave condition, an output unit outputs content reflecting a first game effect corresponding to the first brain wave condition, and the output unit By, outputting a user input interface; When a user input signal is received through the user input interface, the control unit selects one of at least one multimedia content stored in a memory based on the user input signal, outputting; analyzing second characteristic wave data generated based on the brain waves of the user at a second time point subsequent to the first time point; and when the characteristic wave corresponding to the second characteristic wave data satisfies a preset second brain wave condition, outputting, by the output unit, content reflecting a second game effect corresponding to the second brain wave condition; can include

본 발명의 실시예들에 따른 사용자 인터페이스 제공 방법은 사용자의 뇌파를 실시간으로 분석하고, 사용자 뇌파를 기초로 사용자에게 멀티미디어 컨텐츠를 제공할 수 있다. 또한, 새로운 컨텐츠를 제공하는 것에 따라 변화하는 사용자의 뇌파를 실시간으로 측정하여 사용자의 흥미를 향상시킬 수 있다.The method for providing a user interface according to embodiments of the present invention may analyze a user's brain wave in real time and provide multimedia content to the user based on the user's brain wave. In addition, the user's interest can be improved by measuring the user's brain waves, which change according to the provision of new content, in real time.

실시예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.Effects obtainable from the embodiments are not limited to the effects mentioned above, and other effects not mentioned are clearly derived and understood by those skilled in the art based on the detailed description below. It can be.

실시예들에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 게임장치의 구성을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법을 설명하기 위한 흐름도이다.
도 3은 출력부에서 표시되는 제1 게임 화면을 나타내는 도면이다.
도 4는 다양한 뇌파의 파형을 개략적으로 도시한 도면이다.
도 5는 출력부에서 표시되는 제2 게임 화면을 나타내는 도면이다.
도 6은 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 방법을 설명하기 위한 흐름도이다.
도 7은 게임장치의 제어부를 설명하기 위한 블록도이다.
도 8은 본 발명의 일 실시예에 따른 착용모듈을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 게임장치 및 이와 통신하는 서버를 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 서버를 도시한 블록도이다.
도 11은 서버 프로세서의 다층 신경망 구조를 설명하기 위한 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS Included as part of the detailed description to aid understanding of the embodiments, the accompanying drawings provide various embodiments and, together with the detailed description, describe technical features of the various embodiments.
1 is a diagram for explaining the configuration of a game device according to an embodiment of the present invention.
2 is a flowchart illustrating a method of providing a user interface according to an embodiment of the present invention.
3 is a diagram illustrating a first game screen displayed on an output unit.
4 is a diagram schematically showing the waveforms of various brain waves.
5 is a diagram illustrating a second game screen displayed on an output unit.
6 is a flowchart illustrating a user interface providing method according to another embodiment of the present invention.
7 is a block diagram for explaining a control unit of a game device.
8 is a view for explaining a wearing module according to an embodiment of the present invention.
9 is a diagram illustrating a game device and a server communicating with the game device according to an embodiment of the present invention.
10 is a block diagram showing a server according to an embodiment of the present invention.
11 is a diagram for explaining a multilayer neural network structure of a server processor.

이하의 실시예들은 실시예들의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 다양한 실시예들을 구성할 수도 있다. 다양한 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.The following embodiments combine elements and features of the embodiments in a predetermined form. Each component or feature may be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form not combined with other components or features. In addition, various embodiments may be configured by combining some components and/or features. The order of operations described in various embodiments may be changed. Some components or features of one embodiment may be included in another embodiment, or may be replaced with corresponding components or features of another embodiment.

도면에 대한 설명에서, 다양한 실시예들의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당해 기술분야에서 통상의 지식을 가진 자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.In the description of the drawings, procedures or steps that may obscure the gist of various embodiments are not described, and procedures or steps that can be understood by those skilled in the art are not described. did

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 다양한 실시예들을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Throughout the specification, when a part is said to "comprising" or "including" a certain element, it means that it may further include other elements, not excluding other elements, unless otherwise stated. do. In addition, terms such as “… unit”, “… unit”, and “module” described in the specification mean a unit that processes at least one function or operation, which is hardware or software or a combination of hardware and software. can be implemented as Also, “a or an”, “one”, “the” and like terms are used herein in the context of describing various embodiments (particularly in the context of the claims below). Unless otherwise indicated or clearly contradicted by context, both the singular and the plural can be used.

이하, 다양한 실시예들에 따른 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 다양한 실시예들의 예시적인 실시형태를 설명하고자 하는 것이며, 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, embodiments according to various embodiments will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The detailed description set forth below in conjunction with the accompanying drawings is intended to describe exemplary embodiments of various embodiments, and is not intended to represent a single embodiment.

또한, 다양한 실시예들에서 사용되는 특정(特定) 용어들은 다양한 실시예들의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 다양한 실시예들의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition, specific terms used in various embodiments are provided to help understanding of various embodiments, and the use of these specific terms may be changed into other forms without departing from the technical spirit of various embodiments. .

도 1은 본 발명의 일 실시예에 따른 게임장치(100)의 구성을 설명하기 위한 도면이다. 1 is a diagram for explaining the configuration of a game device 100 according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 게임장치(100)는 제어부(110), 출력부(120), 거치부(130), 지지부(140)를 포함할 수 있다.Referring to FIG. 1 , a game device 100 according to an embodiment of the present invention may include a control unit 110, an output unit 120, a holding unit 130, and a support unit 140.

제어부(110)는 게임장치(100)의 전반적인 동작을 제어할 수 있다. 제어부(110)는 착용모듈(200)로부터 수신한 뇌파 데이터를 기초로, 사용자의 뇌의 활성도, 집중도, 및 사용자의 감정 상태 중 적어도 하나를 결정할 수 있다. 제어부(110)는 사용자의 뇌의 활성도, 집중도, 및 사용자의 감정 상태 중 적어도 하나를 기초로 생체 정보를 생성할 수 있다. 여기서 사용자의 감정 상태는, 예를 들면, 긍정적 감정 상태와 부정적 감정 상태로 분류될 수 있다. 다른 예시에서, 사용자의 감정 상태는 복수의 상태로 분류될 수 있다. 복수의 상태는, 즐거움을 느끼는 제1 상태, 짜증을 느끼는 제2 상태, 지루함을 느끼는 제3 상태, 분노를 느끼는 제4 상태 중 적어도 하나를 포함할 수 있다.The controller 110 may control the overall operation of the game device 100 . The controller 110 may determine at least one of activity of the user's brain, degree of concentration, and emotional state of the user, based on the EEG data received from the wearing module 200 . The controller 110 may generate biometric information based on at least one of activity of the user's brain, degree of concentration, and emotional state of the user. Here, the user's emotional state may be classified into, for example, a positive emotional state and a negative emotional state. In another example, the user's emotional state may be classified into a plurality of states. The plurality of states may include at least one of a first state of feeling pleasure, a second state of feeling annoyed, a third state of feeling bored, and a fourth state of feeling anger.

제어부(110)는 생체 정보를 분석하고, 생체 정보를 기초로 멀티미디어 컨텐츠를 선택하여 출력부(120)에 출력할 수 있다.The controller 110 may analyze biometric information, select multimedia content based on the biometric information, and output the selected multimedia content to the output unit 120 .

제어부(110)는 복수의 시점에서 생성한 생체 정보들을 비교하고, 비교 결과를 기초로 피드백 데이터를 생성하여 메모리(112)에 저장할 수 있다. 복수의 시점 각각은 서로 다른 멀티미디어 컨텐츠가 출력부(120)에서 출력(재생)되고 있는 시점을 의미할 수 있다. 예를 들면, 제1 컨텐츠가 출력 중인 시점이 제1 시점, 제1 컨텐츠와는 다른 제2 컨텐츠가 출력 중인 시점이 제2 시점이라고 정의될 수 있다. 여기서, 피드백 데이터란, 제어부(110)가 사용자의 생체 정보를 기초로 선택한 멀티미디어 컨텐츠가 출력부(120)를 통해 표시되는 시점에 새롭게 획득한 사용자의 생체 정보를 기존의 생체 정보와 비교하여 뇌의 활성도 및 집중도가 얼만큼 상승하였는지에 대한 평가가 반영된 데이터일 수 있다. The controller 110 may compare biometric information generated at a plurality of viewpoints, generate feedback data based on the comparison result, and store the generated feedback data in the memory 112 . Each of the plurality of points of view may refer to a point in time when different multimedia contents are being output (played) from the output unit 120 . For example, it may be defined as a first time point when the first content is being output, and a second time point when a second content different from the first content is being output. Here, the feedback data refers to the user's biometric information newly acquired at the time when the multimedia content selected by the control unit 110 based on the user's biometric information is displayed through the output unit 120, by comparing the user's biometric information with the existing biometric information, It may be data reflecting the evaluation of how much the activity and concentration increased.

출력부(120)는 멀티미디어 컨텐츠를 출력할 수 있다. 제어부(110)는 프로세서(111)에서 출력 가능한 복수의 멀티미디어 컨텐츠 중 하나를 사용자의 입력에 기초하여 선택할 수 있다. 예를 들어, 제어부(110)는 출력부(120)의 화면에 출력되는 복수의 멀티미디어 컨텐츠 각각에 대한 아이콘들 중 사용자의 터치 입력에 대응되는 멀티미디어 컨텐츠를 선택할 수 있다.The output unit 120 may output multimedia content. The controller 110 may select one of a plurality of multimedia contents outputtable by the processor 111 based on a user's input. For example, the controller 110 may select multimedia content corresponding to a user's touch input from among icons for each of a plurality of multimedia content output on the screen of the output unit 120 .

출력부(120)는 디스플레이 모듈을 포함할 수 있다. 디스플레이 모듈은 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 또는, 디스플레이 모듈은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. 이 경우 디스플레이 모듈은 사용자의 조작에 의해 입력 신호를 생성하는 입력 장치로서 기능할 수 있다.The output unit 120 may include a display module. The display module may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device. Alternatively, the display module may include a touch sensor set to detect a touch or a pressure sensor set to measure the intensity of force generated by the touch. In this case, the display module may function as an input device generating an input signal by a user's manipulation.

거치부(130)는 착용모듈(200)이 미사용되는 경우 착용모듈(200)을 거치할 수 있도록 게임장치(100) 외부에 형성될 수 있다. 거치부(130)의 형상은 다양할 수 있다. 일 실시예에서, 거치부(130)는 도 2에 도시된 바와 같이 게임장치(100)의 출력부(120)의 베젤 부분에 부착된 원통 형태의 형상을 가질 수 있다.The holding unit 130 may be formed outside the game device 100 to hold the wearing module 200 when the wearing module 200 is not in use. The shape of the mounting portion 130 may vary. In one embodiment, the mounting unit 130 may have a cylindrical shape attached to the bezel portion of the output unit 120 of the game device 100 as shown in FIG. 2 .

지지부(140)는 사용자가 게임장치(100)를 이용하여 멀티미디어 컨텐츠 또는 게임을 즐기는 도중에 게임장치(100)가 지면에 안정적으로 고정될 수 있도록 게임장치(100)를 지지할 수 있다.The support unit 140 may support the game device 100 so that the game device 100 can be stably fixed to the ground while a user enjoys multimedia content or a game using the game device 100 .

착용모듈(200)은 복수의 센서 중 어느 하나 또는 일부만을 이용하거나, 복수의 센서 전부를 이용하여 사용자의 뇌파를 감지할 수 있다. 이 경우, 복수의 센서 각각은 사용자의 뇌의 각 부분(예를 들면, 전두엽, 두정엽, 측두엽, 후두엽 등)에 가깝게 부착될 수 있다. 이에 따라, 복수의 센서 각각은 뇌의 특정 부위에서 발생하는 뇌파를 개별적으로 감지할 수 있다.The wearing module 200 may detect the user's brain waves using only one or some of the plurality of sensors or all of the plurality of sensors. In this case, each of the plurality of sensors may be closely attached to each part of the user's brain (eg, frontal lobe, parietal lobe, temporal lobe, occipital lobe, etc.). Accordingly, each of the plurality of sensors may individually detect brain waves generated in a specific region of the brain.

착용모듈(200)은 사용자의 머리 부분에 적어도 일부가 접촉하도록 머리띠 형태로 형성될 수 있다. The wearing module 200 may be formed in the form of a headband so that at least a part of it comes into contact with the user's head.

착용모듈(200)은 케이블(230)을 통해 게임장치(100)와 연결될 수 있다. 착용모듈(200)은 케이블(230)을 통해 게임장치(100)로부터 전기 에너지를 전달받을 수 있다. 또한, 케이블(230)은 착용모듈(200)이 유선 통신 방법으로 게임장치(100)와 데이터를 주고받는 경우, 데이터를 전송할 수 있는 통신 케이블을 포함할 수 있다. 즉, 착용모듈(200)은 케이블(230)을 통해 신호 또는 전력을 외부 전자 장치로 송신하거나 외부로부터 수신할 수 있다.The wearing module 200 may be connected to the game device 100 through a cable 230 . The wearing module 200 may receive electrical energy from the game device 100 through the cable 230 . In addition, the cable 230 may include a communication cable capable of transmitting data when the wearing module 200 exchanges data with the game device 100 in a wired communication method. That is, the wearable module 200 may transmit a signal or power to an external electronic device or receive it from the outside through the cable 230 .

도 2는 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법을 설명하기 위한 흐름도이다. 도 3은 출력부(120)에서 표시되는 제1 게임 화면을 나타내는 도면이다. 도 4는 다양한 뇌파의 파형을 개략적으로 도시한 도면이다. 도 5는 출력부(120)에서 표시되는 제2 게임 화면을 나타내는 도면이다.2 is a flowchart illustrating a method of providing a user interface according to an embodiment of the present invention. FIG. 3 is a diagram showing a first game screen displayed on the output unit 120 . 4 is a diagram schematically showing the waveforms of various brain waves. 5 is a diagram showing a second game screen displayed on the output unit 120 .

도 2를 참조하면, S210 단계에서, 사용자가 착용모듈(200)을 착용하면, 착용모듈(200)에 전원이 공급되면서 게임장치(100)와 착용모듈(200)이 연결된다.Referring to FIG. 2 , in step S210 , when the user wears the wearing module 200 , power is supplied to the wearing module 200 and the game device 100 and the wearing module 200 are connected.

S220 단계에서, 게임장치(100)의 출력부(120)에서 제1 멀티미디어 컨텐츠가 출력된다. 이 경우, 제1 멀티미디어 컨텐츠는 적어도 하나의 사용자 인터페이스를 포함하는 게임 화면을 포함할 수 있다.In step S220, the first multimedia content is output from the output unit 120 of the game device 100. In this case, the first multimedia content may include a game screen including at least one user interface.

도 3을 참조하면, 출력부(120)에서 출력되는 제1 멀티미디어 컨텐츠는 제1 인터페이스(IF1), 제2 인터페이스(IF2), 제3 인터페이스(IF3), 제4 인터페이스(IF4)를 포함하는 제1 게임 화면(D1)을 출력할 수 있다.Referring to FIG. 3, the first multimedia content output from the output unit 120 includes a first interface IF1, a second interface IF2, a third interface IF3, and a fourth interface IF4. 1 The game screen D1 can be output.

제1 게임 화면(D1)의 제1 인터페이스(IF1)는 사용자 뇌파 분석 모니터링 연결 버튼을 포함할 수 있다. 게임장치(100)의 제어부(110)는 사용자의 제1 인터페이스(IF1) 터치 동작(마우스 등 포인터를 이용한 클릭 동작을 포함한다, 이하 같다)에 응답하여, 제1 게임 화면(D1)에 사용자의 뇌파를 분석한 결과를 나타내는 화면을 출력할 수 있다.The first interface IF1 of the first game screen D1 may include a user EEG analysis monitoring connection button. The control unit 110 of the game device 100 responds to the user's first interface IF1 touch operation (including a click operation using a pointer such as a mouse, the same below), and displays the user's A screen showing the result of analyzing the brain wave may be output.

제1 게임 화면(D1)의 제2 인터페이스(IF2)는 사용자가 미니 게임 연결 버튼을 포함할 수 있다. 게임장치(100)의 제어부(110)는 사용자의 제2 인터페이스(IF2) 터치 동작에 응답하여, 제1 게임 화면(D1)에 사용자가 미니 게임을 선택할 수 있도록 미니 게임 리스트 화면을 출력할 수 있다. 여기서 미니 게임은, 사용자가 자신의 순발력, 판단력, 기억력 등을 훈련할 수 있도록 하는 사칙연산, 퀴즈, 틀린그림 찾기 등 다양한 유형의 게임을 포함할 수 있다.The second interface IF2 of the first game screen D1 may include a mini game connection button for the user. The controller 110 of the game device 100 may display a mini game list screen on the first game screen D1 in response to a user's touch operation on the second interface IF2 so that the user can select a mini game. . Here, the mini-games may include various types of games such as four arithmetic operations, quizzes, and finding the wrong picture so that the user can train his/her quickness, judgment, memory, and the like.

제1 게임 화면(D1)의 제3 인터페이스(IF3)는 사용자의 집중력 점수(CP)를 나타내는 인터페이스를 포함할 수 있다. 집중력 점수(CP)는, 제어부(110)에 의해, 사용자의 뇌파 데이터를 분석한 결과를 기초로 산출될 수 있다. 게임장치(100)의 제어부(110)는 사용자의 뇌파 데이터를 분석한 결과를 집중력 점수(CP)로서 제3 인터페이스(IF3)를 통해 화면에 출력할 수 있다. 집중력 점수(CP)는 게이지 형태로 출력될 수 있다.The third interface IF3 of the first game screen D1 may include an interface indicating the user's concentration point CP. The concentration score (CP) may be calculated by the controller 110 based on a result of analyzing the brain wave data of the user. The control unit 110 of the game device 100 may output a result of analyzing the user's brain wave data as a concentration score (CP) on the screen through the third interface IF3. Concentration points (CP) may be output in the form of a gauge.

제1 게임 화면(D1)의 제4 인터페이스(IF4)는 사용자의 액션 점수(AP)를 나타내는 인터페이스를 포함할 수 있다. 액션 점수(AP)는, 사용자가 자신의 캐릭터에 다양한 명령을 내리기 위해 필요한 점수를 의미한다. 사용자는 게임장치(100)의 다양한 입력 장치(예를 들면, 터치 디스플레이 모듈, 마우스, 조이스틱 등)를 통해 자신의 캐릭터를 조작하며 달리기, 점프, 공격, 아이템 수집 중 적어도 하나를 포함하는 액션 명령을 입력할 수 있다. 이 경우 특정 액션 명령에는 캐릭터가 해당 액션을 수행하기 위한 고유의 액션 점수가 요구될 수 있다. 사용자가 액션 점수가 해당 명령을 내리기 위해 요구되는 액션 점수보다 부족한 경우, 사용자는 해당 명령을 입력하더라도 캐릭터가 반응하지 않게 된다.The fourth interface IF4 of the first game screen D1 may include an interface indicating the user's action score AP. Action points (AP) refer to points required for the user to issue various commands to his or her character. The user manipulates his character through various input devices (eg, touch display module, mouse, joystick, etc.) of the game device 100 and executes action commands including at least one of running, jumping, attacking, and collecting items. can be entered. In this case, a specific action command may require a unique action score for the character to perform the corresponding action. If the user's action points are less than the action points required for issuing the corresponding command, the character does not respond even if the user inputs the corresponding command.

게임장치(100)의 제어부(110)는 사용자의 현재 액션 점수(AP)를 제3 인터페이스(IF3)를 통해 화면에 출력할 수 있다. 액션 점수(AP)는 게이지 형태로 출력될 수 있다.The controller 110 of the game device 100 may output the user's current action score (AP) to the screen through the third interface IF3. Action points (AP) may be output in a gauge form.

S230 단계에서, 착용모듈(200)에 의해 사용자의 뇌파를 감지하여 뇌파 데이터를 생성한다. In step S230, brain wave data of the user is generated by detecting the user's brain wave by the wearing module 200.

착용모듈(200)은 복수의 센서 중 어느 하나 또는 일부만을 이용하거나, 복수의 센서 전부를 이용하여 사용자의 뇌파를 감지할 수 있다. 착용모듈(200)이 복수의 센서를 이용하여 뇌파를 감지하는 경우, 각각의 센서는 사용자의 뇌에서 흘러나오는 뇌파를 개별적으로 검출할 수 있다. 예를 들면, 제1 센서는 전두엽에서 흘러나오는 제1 뇌파를, 제2 센서는 후두엽에서 흘러나오는 제2 뇌파를 검출할 수 있다.The wearing module 200 may detect the user's brain waves using only one or some of the plurality of sensors or all of the plurality of sensors. When the wearing module 200 detects brain waves using a plurality of sensors, each sensor may individually detect brain waves flowing from the user's brain. For example, the first sensor may detect a first brain wave flowing from the frontal lobe, and the second sensor may detect a second brain wave flowing from the occipital lobe.

여기서 뇌파 데이터는, 시간에 따라 진폭이 변화하는 파형으로 표현될 수 있다. 또한 뇌파 데이터는 적어도 하나의 특성파 데이터를 포함할 수 있다. 특성파 데이터는, 도 4에 도시된 바와 같이 사용자의 뇌파를 측정하여 얻을 수 있는 개별적인 뇌파들(델타파, 세타파, 알파파, 베타파, 감마파 등) 각각에 대한 데이터를 의미할 수 있다.Here, brain wave data may be expressed as a waveform whose amplitude changes with time. Also, brain wave data may include at least one characteristic wave data. As shown in FIG. 4 , the characteristic wave data may mean data for each of individual brain waves (delta wave, theta wave, alpha wave, beta wave, gamma wave, etc.) that can be obtained by measuring the user's brain wave.

도 4는 착용모듈(200)의 센서를 이용하여 사용자의 뇌파를 측정하고, 측정한 뇌파를 파워 스펙트럼 분석 방법을 통해 주파수에 따라 표시한 그래프이다. 도 4를 참조하면, 뇌파는 주파수 및 진폭에 따라 복수의 개별적인 뇌파로 분류할 수 있다. 뇌파는 수만 개의 뇌세포 활동이 합쳐진 전기적 파동으로, 외부 자극에 의해 발생하는 뇌파와, 외부 자극이 없이 뇌의 활동에 의해 발생하는 뇌파로 구분된다. 이 경우, 외부 자극 없이 뇌의 활동에 의해 발생하는 뇌파는, 다시 고유 주파수에 따라 델타파, 세타파, 알파파, 베타파, 감마파로 분류할 수 있다.4 is a graph in which the user's brain waves are measured using the sensor of the wearing module 200 and the measured brain waves are displayed according to frequencies through a power spectrum analysis method. Referring to FIG. 4 , brain waves may be classified into a plurality of individual brain waves according to frequency and amplitude. EEG is an electrical wave in which the activities of tens of thousands of brain cells are combined, and is divided into EEG generated by external stimulation and EEG generated by brain activity without external stimulation. In this case, brain waves generated by brain activity without external stimuli can be further classified into delta waves, theta waves, alpha waves, beta waves, and gamma waves according to natural frequencies.

델타(Delta)파는 주파수 1~4Hz로 1초 동안 1~4번 진동하여 뇌파 중 가장 적게 진동한다. 델타파는 아주 깊은 수면이나 깊은 명상, 또는 의식 불명 상태일 때 나타난다.Delta waves vibrate 1 to 4 times per second at a frequency of 1 to 4 Hz, vibrating the least among brain waves. Delta waves appear during very deep sleep, deep meditation, or unconsciousness.

세타(Theta)파는 주파수 4~7Hz로 초당 4~7번 정도 진동한다. 창의적인 생각이 일어나는 순간이나 정서 안정 또는 잠에 빠져드는 과정에서 주로 나타난다. 성인보다는 어린이에게 더 많이 나타나며 명상하는 동안에도 나타난다.Theta waves vibrate about 4 to 7 times per second with a frequency of 4 to 7 Hz. It usually appears at the moment when creative thoughts arise or in the process of emotional stability or falling asleep. It is more common in children than adults and also appears during meditation.

알파(Alfa)파는 주파수 8~12Hz로, 마음이 편안하고 안정 상태에 있을 때 나타나는 뇌파이다. 특히 눈을 감고 편안한 상태에 있을 때 안정된 알파파가 나타난다. 알파파는 눈을 뜨면 약해지고 감으면 강해지기 때문에 뇌의 시각 영역과 연결된다고 추측된다.Alpha waves, with a frequency of 8 to 12 Hz, are brain waves that appear when the mind is in a comfortable and stable state. In particular, stable alpha waves appear when you are in a relaxed state with your eyes closed. Since alpha waves weaken when the eyes are open and become stronger when the eyes are closed, it is speculated that they are connected to the visual area of the brain.

베타(Beta)파는 주파수 18~25Hz로, 대체로 눈을 뜨고 생각하고 활동하는 동안 나타나는 뇌파이다. 특히, 불안하거나 긴장한 상태, 복잡한 계산을 처리할 때에 자주 나타난다. 생각이 많거나 걱정을 할 때도 나타난다.Beta waves have a frequency of 18 to 25 Hz, and are brain waves that appear while thinking and working with eyes open. In particular, it often appears when dealing with anxiety or tension, or complex calculations. It appears when you have a lot of thoughts or worry.

감마(Gamma)파는 주파수 30~100Hz)로, 초조한 상태이거나 깊은 주의 집중이 이뤄질 때 잘 나타난다.Gamma waves have a frequency of 30 to 100 Hz) and appear well in a state of nervousness or when deep attention is focused.

이하 본 명세서에서, 특성파란, 전술한 델타파, 세타파, 알파파, 베타파, 감마파 중 어느 하나를 의미할 수 있다.Hereinafter, in the present specification, a characteristic wave may mean any one of the aforementioned delta waves, theta waves, alpha waves, beta waves, and gamma waves.

이어, S240 단계에서, 제어부(110)에 의해, 뇌파 데이터에 밴드패스 필터(Band-pass filter)를 적용하여 적어도 하나의 특성파 데이터를 생성한다. 밴드패스 필터는, 특정 주파수 사이의 신호만 통과시키는 필터이다. 밴드패스 필터는 RLC 회로를 이용하여 구현될 수 있다. Next, in step S240, the control unit 110 generates at least one characteristic wave data by applying a band-pass filter to the EEG data. A bandpass filter is a filter that passes only signals between specific frequencies. A bandpass filter may be implemented using an RLC circuit.

제어부(110)는 뇌파 데이터를 기초로 델타파, 세타파, 알파파, 베타파, 감마파 각각에 대한 데이터를 생성할 수 있다. 제어부(110)는 델타파, 세타파, 알파파, 베타파, 감마파 각각의 세기 값 및 세기 값의 변화율을 기초로, 특성파 데이터를 생성할 수 있다. 즉, 특성파 데이터는 각각의 개별 뇌파의 세기 값 및 세기 값의 변화율을 기초로 생성될 수 있다. The controller 110 may generate data for delta waves, theta waves, alpha waves, beta waves, and gamma waves, respectively, based on brain wave data. The controller 110 may generate characteristic wave data based on intensity values of delta waves, theta waves, alpha waves, beta waves, and gamma waves, and a rate of change of the intensity values. That is, the characteristic wave data may be generated based on the intensity value of each individual brain wave and the rate of change of the intensity value.

일 실시예에서, 특성파 데이터는 제1 특성파 데이터, 제2 특성파 데이터를 포함할 수 있다. 일 실시예에서, 제1 특성파 데이터는 베타파의 세기 값 및 세기 값의 변화율을 기초로 생성될 수 있다. 제2 특성파 데이터는 세타파의 세기 값 및 세기 값의 변화율을 기초로 생성될 수 있다. In an embodiment, the characteristic wave data may include first characteristic wave data and second characteristic wave data. In an embodiment, the first characteristic wave data may be generated based on an intensity value of the beta wave and a rate of change of the intensity value. The second characteristic wave data may be generated based on the intensity value of the theta wave and the rate of change of the intensity value.

S250 단계에서, 제어부(110)에 의해, 적어도 하나의 특성파 데이터를 기초로 집중력 점수를 산출하고 가공 데이터를 생성한다.In step S250, the control unit 110 calculates a concentration score based on at least one characteristic wave data and generates processing data.

제어부(110)는 S240 단계에서 획득한 특성파 데이터를 기초로 가공 데이터를 생성할 수 있다. 가공 데이터는, 집중력 점수를 포함할 수 있다. 제어부(110)는 특성파 데이터를 기초로 집중력 점수를 산출할 수 있다.The controller 110 may generate processing data based on the characteristic wave data acquired in step S240. The processing data may include a concentration score. The controller 110 may calculate a concentration score based on the characteristic wave data.

일 실시예에서, 제1 특성파 데이터와 제2 특성파 데이터를 기초로 집중력 점수를 산출할 수 있다. 제1 특성파 데이터는 베타파의 세기 값 및 세기 값의 변화율에 대한 정보를 포함할 수 있다. 제2 특성파 데이터는 세타파의 세기 값 및 세기 값의 변화율에 대한 정보를 포함할 수 있다.In an embodiment, a concentration score may be calculated based on the first characteristic wave data and the second characteristic wave data. The first characteristic wave data may include information about an intensity value of the beta wave and a rate of change of the intensity value. The second characteristic wave data may include information about an intensity value of the theta wave and a rate of change of the intensity value.

Figure 112022112712428-pat00002
Figure 112022112712428-pat00002

일 실시예에서, 제어부(110)는 [수학식 1]을 이용하여 집중력 점수를 산출할 수 있다. [수학식 1]에서, CP는 집중력 점수, Pbeta는 베타파의 세기 값, Ptheta는 세타파의 세기 값을 의미할 수 있다.In one embodiment, the controller 110 may calculate the concentration score using [Equation 1]. In [Equation 1], CP may mean a concentration score, Pbeta may mean a beta wave intensity value, and Ptheta may mean a theta wave intensity value.

다만 이는 예시적인 것이고, 제어부(110)가 특성파 데이터를 기초로 집중력 점수를 산출하는 방식은 다양할 수 있다.However, this is just an example, and the method by which the control unit 110 calculates the concentration score based on the characteristic wave data may vary.

S260 단계에서, 제어부(110)에 의해 가공 데이터를 기초로 제2 멀티미디어 컨텐츠를 선택하고, 게임장치(100)의 출력부(120)에서 제2 멀티미디어 컨텐츠를 출력한다.In step S260, the controller 110 selects the second multimedia content based on the processed data, and the output unit 120 of the game device 100 outputs the second multimedia content.

제2 멀티미디어 컨텐츠는 적어도 하나의 사용자 인터페이스를 포함하는 제2 게임 화면(D2)을 포함할 수 있다. The second multimedia content may include a second game screen D2 including at least one user interface.

도 5를 참조하면, 제2 게임 화면(D2)은 제1 게임 화면(D1)과 상이할 수 있다. 구체적으로, 제2 게임 화면(D2)에서 출력되는 적어도 하나의 컨텐츠는 S250 단계에서 생성된 가공 데이터를 기초로 결정될 수 있다. 도 5를 참조하면, 제2 게임 화면(D2)의 제3 인터페이스(IF3)를 통해 표시되는 집중력 점수 게이지는 제1 게임 화면(D2)의 집중력 점수 게이지와 상이할 수 있다. 즉, S250 단계에서 제어부(110)가 사용자의 뇌파 데이터를 기초로 집중력이 낮아졌다고 판단하는 경우, 제어부(110)는 게임장치(100)의 출력부(120)에서 표시되는 제2 게임 화면(D2)의 제3 인터페이스(IF3)를 통해, 사용자의 낮아진 집중력 점수가 반영된 게이지를 출력할 수 있다.Referring to FIG. 5 , the second game screen D2 may be different from the first game screen D1. Specifically, at least one piece of content output from the second game screen D2 may be determined based on the processed data generated in step S250. Referring to FIG. 5 , the concentration point gauge displayed through the third interface IF3 of the second game screen D2 may be different from the concentration point gauge of the first game screen D2. That is, when the controller 110 determines that the user's concentration has decreased based on the brain wave data in step S250, the controller 110 displays the second game screen D2 displayed on the output unit 120 of the game device 100. ) through the third interface IF3, a gauge reflecting the user's lowered concentration score may be output.

도 6은 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a user interface providing method according to another embodiment of the present invention.

도 6을 참조하면, S610 단계에서, 제어부(110)는 제1 특성파 데이터를 생성하고 생성된 제1 특성파 데이터를 분석한다. 제1 특성파 데이터는 도 2를 참조하여 설명한 S240 단계를 통해 생성될 수 있다.Referring to FIG. 6 , in step S610, the controller 110 generates first characteristic wave data and analyzes the generated first characteristic wave data. The first characteristic wave data may be generated through step S240 described with reference to FIG. 2 .

S620 단계에서, 제어부(110)는 제1 특성파 데이터에 포함된 적어도 하나의 뇌파에 대한 정보를 분석하여, 상기 뇌파가 미리 설정된 뇌파 조건을 충족하는지 판단한다.In step S620, the controller 110 analyzes information on at least one brain wave included in the first characteristic wave data, and determines whether the brain wave meets a preset brain wave condition.

여기서, '뇌파 조건'은, 델타파, 세타파, 베타파 등 여러 뇌파 중 어느 하나의 뇌파의 값(물리량)에 대한 조건일 수 있다. 예를 들면, 뇌파 조건은, '베타파'의 '세기'에 대한 조건일 수 있다. 일 실시예에서, 뇌파 조건은, 베타파의 세기에 대한 제1 임계값에 대한 정보를 포함할 수 있다. 즉, S620 단계에서 제어부(110)가 뇌파 조건을 충족하는지 판단하는 것은, 사용자의 뇌파를 측정하여 생성한 제1 특성파 데이터 중, 베타파의 세기가 제1 임계값을 초과하는지 여부를 판단하는 것일 수 있다.Here, the 'brain wave condition' may be a condition for a value (physical quantity) of any one of several brain waves such as delta waves, theta waves, and beta waves. For example, the brain wave condition may be a condition for 'intensity' of 'beta waves'. In one embodiment, the brain wave condition may include information about a first threshold value for the intensity of beta waves. That is, determining whether the control unit 110 satisfies the brain wave condition in step S620 is to determine whether the intensity of a beta wave among the first characteristic wave data generated by measuring the user's brain wave exceeds a first threshold value. it could be

다른 실시예에서, 뇌파 조건은, 세타파의 세기에 대한 제2 임계값에 대한 정보를 포함할 수 있다. 이 경우, S620 단계에서 제어부(110)가 뇌파 조건을 충족하는지 판단하는 것은, 사용자의 뇌파를 측정하여 생성한 제1 특성파 데이터 중, 세타파의 세기가 제2 임계값 이하인지 여부를 판단하는 것일 수 있다.In another embodiment, the EEG condition may include information about a second threshold value for the intensity of the theta wave. In this case, determining whether the controller 110 satisfies the brain wave condition in step S620 is to determine whether the strength of the theta wave among the first characteristic wave data generated by measuring the user's brain wave is equal to or less than the second threshold value. can

또 다른 실시예에서, 뇌파 조건은, 베타파의 세기가 제1 임계값을 초과하는 시간 구간에 대한 정보를 포함할 수 있다. 이 경우, S620 단계에서 제어부(110)가 뇌파 조건을 충족하는지 판단하는 것은, 사용자의 뇌파를 측정하여 생성한 제1 특성파 데이터 중, 베타파의 세기가 제1 임계값을 초과하는 시간이 특정 임계 시간 이상인지 여부를 판단하는 것일 수 있다.In another embodiment, the EEG condition may include information about a time interval in which the intensity of a beta wave exceeds a first threshold value. In this case, determining whether the controller 110 satisfies the brain wave condition in step S620 determines the time when the intensity of the beta wave exceeds the first threshold among the first characteristic wave data generated by measuring the user's brain wave. It may be to determine whether it is over a critical time.

제어부(110)의 메모리는 적어도 하나의 뇌파 조건에 대한 정보를 저장할 수 있다. 이에 따라, 제어부(110)는 S620 단계에서 다양한 뇌파 조건에 대해 충족 여부 판단을 수행할 수 있다. 또한, 제어부(110)의 메모리는, 저장된 적어도 하나의 뇌파 조건에 대응하는 게임 효과에 대한 정보를 저장할 수 있다. 게임 효과는, 뇌파 조건이 충족되는 경우 실행되는 효과를 의미할 수 있다.The memory of the controller 110 may store information on at least one EEG condition. Accordingly, the controller 110 may determine whether various EEG conditions are met in step S620. Also, the memory of the controller 110 may store information about a game effect corresponding to at least one stored brain wave condition. The game effect may refer to an effect that is executed when an brain wave condition is satisfied.

S620 단계에서, 제어부(110)는 제1 특성파 데이터에 포함된 적어도 하나의 뇌파에 대한 정보를 분석하여, 상기 뇌파가 미리 설정된 뇌파 조건을 충족하는지 판단하고, 뇌파가 정해진 뇌파 조건을 충족하는 경우, S630 단계에서, 게임장치(100)의 출력부(120)를 통해 게임 효과가 반영된 컨텐츠를 출력하고, 사용자 입력 인터페이스를 출력한다.In step S620, the controller 110 analyzes information on at least one brain wave included in the first characteristic wave data, determines whether the brain wave meets a preset brain wave condition, and if the brain wave meets the predetermined brain wave condition , In step S630, the game effect is output through the output unit 120 of the game device 100, and the user input interface is output.

여기서, 게임 효과는, 정해진 뇌파 조건에 대응하는 게임 효과를 의미한다. 일 실시예에서, 뇌파 조건이 베타파의 세기가 제1 임계값을 초과하는 조건인 경우, 이에 대응하는 게임 효과는 도 3을 참조하여 설명한 액션 포인트(AP)가 증가하는 것일 수 있다. 다른 실시예에서, 뇌파 조건이 세타파의 세기가 제2 임계값 이하로 되는 조건인 경우, 이에 대응하는 게임 효과는 액션 포인트(AP)가 감소하는 것일 수 있다. 또 다른 실시예에서, 뇌파 조건이 베타파의 세기가 제1 임계값을 초과하는 시간 구간이 특정 임계 시간 이상일 것을 요구하는 조건인 경우, 이에 대응하는 게임 효과는 특정 임계 시간을 초과하는 시간에 비례하는 액션 포인트가 증가하는 것일 수 있다.Here, the game effect means a game effect corresponding to a predetermined brain wave condition. In one embodiment, when the brain wave condition is a condition in which the strength of the beta wave exceeds the first threshold value, the corresponding game effect may be an increase in the action point (AP) described with reference to FIG. 3 . In another embodiment, when the brain wave condition is a condition in which the intensity of the theta wave is equal to or less than the second threshold value, the corresponding game effect may be that the action point (AP) decreases. In another embodiment, when the brain wave condition requires that the time interval in which the intensity of the beta wave exceeds the first threshold is equal to or longer than a specific threshold, the corresponding game effect is proportional to the time exceeding the specific threshold. action points may increase.

사용자 입력 인터페이스는 사용자의 입력 동작을 인식하여 게임장치(100)가 사용자 입력 신호를 생성할 수 있도록 하는 인터페이스를 의미할 수 있다. 예를 들면, 게임장치(100)는, 사용자가 게임 화면에 표시되는 사용자 입력 인터페이스를 마우스를 이용하여 클릭하거나, 또는 손가락 등 신체 일부를 이용하여 사용자 입력 인터페이스를 터치하는 것을 감지하여 사용자 입력 신호를 생성할 수 있다.The user input interface may refer to an interface that recognizes a user's input operation and allows the game device 100 to generate a user input signal. For example, the game device 100 detects that a user clicks a user input interface displayed on a game screen using a mouse or touches a user input interface using a body part such as a finger, and receives a user input signal. can create

S640 단계에서, 게임장치(100)의 입력부를 통해 사용자 입력 신호를 수신하는 경우, S650 단계에서, 사용자 입력 신호를 기초로 게임장치(100) 출력부(120)를 통해 제3 멀티미디어 컨텐츠를 출력한다.In step S640, when a user input signal is received through the input unit of the game device 100, in step S650, third multimedia content is output through the output unit 120 of the game device 100 based on the user input signal. .

게임장치(100)의 제어부(110)는 사용자 입력 신호를 기초로 제3 멀티미디어 컨텐츠를 선택하여 출력부(120)를 통해 출력할 수 있다. The control unit 110 of the game device 100 may select and output the third multimedia content through the output unit 120 based on the user input signal.

S640 단계에서, 게임장치(100)의 입력부를 통해 사용자 입력 신호를 수신하지 않는 경우, S630 단계로 돌아가, 사용자 입력 인터페이스를 출력한다.In step S640, when a user input signal is not received through the input unit of the game device 100, returning to step S630, the user input interface is output.

이 경우 사용자 입력 인터페이스에서 표시되는 컨텐츠는 '입력 대기'안내 메시지를 포함할 수 있다.In this case, the content displayed on the user input interface may include a 'wait for input' guidance message.

S660 단계에서, 제어부(110)는 제3 멀티미디어 컨텐츠에 대한 사용자의 뇌파를 측정하여 제2 특성파 데이터를 생성하고, 제2 특성파 데이터를 분석한다. S660 단계는 전술한 S610 단계에 대응할 수 있다.In step S660, the controller 110 measures the user's brain wave for the third multimedia content, generates second characteristic wave data, and analyzes the second characteristic wave data. Step S660 may correspond to step S610 described above.

이어, S670 단계에서, 제어부(110)는 제2 특성파 데이터에 포함된 적어도 하나의 뇌파에 대한 정보를 분석하여, 상기 뇌파가 미리 설정된 뇌파 조건을 충족하는지 판단한다. 이 경우, 게임장치(100)의 출력부(120)를 통해 제3 멀티미디어 컨텐츠가 표시되는 시점에 제1 시점이고, 제어부(110)가 분석하는 제2 특성파 데이터의 생성 시점은 제1 시점에 후속하는 제2 시점일 수 있다. 즉, 제어부(110)는 사용자가 제3 멀티미디어 컨텐츠를 인지한 경우에 변화된 뇌파를 측정하여 분석할 수 있다. S670 단계는 전술한 S620 단계에 대응할 수 있다.Subsequently, in step S670, the controller 110 analyzes information on at least one brain wave included in the second characteristic wave data, and determines whether the brain wave meets a preset brain wave condition. In this case, the first time point is when the third multimedia content is displayed through the output unit 120 of the game device 100, and the generation time point of the second characteristic wave data analyzed by the controller 110 is the first time point. It may be a second point in time that follows. That is, the controller 110 may measure and analyze the changed brain waves when the user recognizes the third multimedia content. Step S670 may correspond to step S620 described above.

전술한 바와 같이, 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법은 사용자의 뇌파를 실시간으로 분석하고, 사용자 뇌파를 기초로 사용자에게 멀티미디어 컨텐츠를 제공할 수 있다. 또한, 새로운 컨텐츠를 제공하는 것에 따라 변화하는 사용자의 뇌파를 실시간으로 측정하여 사용자의 흥미를 향상시킬 수 있다.As described above, the method for providing a user interface according to an embodiment of the present invention may analyze a user's brain wave in real time and provide multimedia content to the user based on the user's brain wave. In addition, the user's interest can be improved by measuring the user's brain waves, which change according to the provision of new content, in real time.

도 7은 게임장치(100)의 제어부(110)를 설명하기 위한 블록도이다.7 is a block diagram for explaining the control unit 110 of the game device 100.

도 7을 참조하면, 본 발명의 일 실시예에 따른 게임장치(100)는 제어부(110), 출력부(120), 거치부(130), 지지부(140)를 포함할 수 있다.Referring to FIG. 7 , the game device 100 according to an embodiment of the present invention may include a control unit 110, an output unit 120, a holding unit 130, and a support unit 140.

출력부(120)는 멀티미디어 컨텐츠를 출력할 수 있다. 제어부(110)는 프로세서(111)에서 출력 가능한 복수의 멀티미디어 컨텐츠 중 하나를 사용자의 입력에 기초하여 선택할 수 있다. 예를 들어, 제어부(110)는 출력부(120)의 화면에 출력되는 복수의 멀티미디어 컨텐츠 각각에 대한 아이콘들 중 사용자의 터치 입력에 대응되는 멀티미디어 컨텐츠를 선택할 수 있다.The output unit 120 may output multimedia content. The controller 110 may select one of a plurality of multimedia contents outputtable by the processor 111 based on a user's input. For example, the controller 110 may select multimedia content corresponding to a user's touch input from among icons for each of a plurality of multimedia content output on the screen of the output unit 120 .

출력부(120)는 디스플레이 모듈을 포함할 수 있다. 디스플레이 모듈은 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 또는, 디스플레이 모듈은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. 이 경우 디스플레이 모듈은 사용자의 조작에 의해 입력 신호를 생성하는 입력 장치로서 기능할 수 있다.The output unit 120 may include a display module. The display module may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device. Alternatively, the display module may include a touch sensor set to detect a touch or a pressure sensor set to measure the intensity of force generated by the touch. In this case, the display module may function as an input device generating an input signal by a user's manipulation.

제어부(110)는 게임장치(100)의 전반적인 동작을 제어할 수 있다. 도 4를 참조하면, 게임장치(100)의 제어부(110)는 프로세서(111), 메모리(112), 통신 모듈(113), 안테나 모듈(114)을 포함할 수 있다. 또는, 제어부(110)에는 이 구성요소들 중 적어도 하나가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 다른 실시예에서는, 이 구성요소들 중 일부들은 하나의 구성요소로 통합될 수 있다.The controller 110 may control the overall operation of the game device 100 . Referring to FIG. 4 , the controller 110 of the game device 100 may include a processor 111, a memory 112, a communication module 113, and an antenna module 114. Alternatively, at least one of these components may be omitted or one or more other components may be added to the controller 110 . In other embodiments, some of these components may be integrated into a single component.

제어부(110)의 프로세서(111)는, 후술할 착용모듈(200)로부터 수신한 뇌파 데이터를 기초로, 사용자의 뇌의 활성도, 집중도, 및 사용자의 감정 상태 중 적어도 하나를 결정할 수 있다. 프로세서(111)는 사용자의 뇌의 활성도, 집중도, 및 사용자의 감정 상태 중 적어도 하나를 기초로 생체 정보를 생성할 수 있다.The processor 111 of the controller 110 may determine at least one of activity of the user's brain, degree of concentration, and emotional state of the user, based on brain wave data received from the wearing module 200 to be described later. The processor 111 may generate biometric information based on at least one of activity of the user's brain, degree of concentration, and emotional state of the user.

여기서 사용자의 감정 상태는, 예를 들면, 긍정적 감정 상태와 부정적 감정 상태로 분류될 수 있다. 다른 예시에서, 사용자의 감정 상태는 복수의 상태로 분류될 수 있다. 복수의 상태는, 즐거움을 느끼는 제1 상태, 짜증을 느끼는 제2 상태, 지루함을 느끼는 제3 상태, 분노를 느끼는 제4 상태 중 적어도 하나를 포함할 수 있다.Here, the user's emotional state may be classified into, for example, a positive emotional state and a negative emotional state. In another example, the user's emotional state may be classified into a plurality of states. The plurality of states may include at least one of a first state of feeling pleasure, a second state of feeling annoyed, a third state of feeling bored, and a fourth state of feeling anger.

프로세서(111)는 생체 정보를 분석하고, 생체 정보를 기초로 멀티미디어 컨텐츠를 메모리(112)에서 선택하여 출력부(120)에 출력할 수 있다.The processor 111 may analyze biometric information, select multimedia content from the memory 112 based on the biometric information, and output the selected multimedia content to the output unit 120 .

프로세서(111)는 복수의 시점에서 생성한 생체 정보들을 비교하고, 비교 결과를 기초로 피드백 데이터를 생성하여 메모리(112)에 저장할 수 있다. 복수의 시점 각각은 서로 다른 멀티미디어 컨텐츠가 출력부(120)에서 출력(재생)되고 있는 시점을 의미할 수 있다. 예를 들면, 제1 컨텐츠가 출력 중인 시점이 제1 시점, 제1 컨텐츠와는 다른 제2 컨텐츠가 출력 중인 시점이 제2 시점이라고 정의될 수 있다.The processor 111 may compare biometric information generated at a plurality of viewpoints, generate feedback data based on the comparison result, and store the generated feedback data in the memory 112 . Each of the plurality of points of view may refer to a point in time when different multimedia contents are being output (played) from the output unit 120 . For example, it may be defined as a first time point when the first content is being output, and a second time point when a second content different from the first content is being output.

여기서, 피드백 데이터란, 프로세서(111)가 사용자의 생체 정보를 기초로 선택한 멀티미디어 컨텐츠가 출력부(120)를 통해 표시되는 시점에 새롭게 획득한 사용자의 생체 정보를 기존의 생체 정보와 비교하여 뇌의 활성도 및 집중도가 얼만큼 상승하였는지에 대한 평가가 반영된 데이터일 수 있다. 예를 들면, 만약 프로세서(111)가 사용자의 제1 생체 정보를 기초로 현재 출력부(120)에서 표시되고 있는 멀티미디어 컨텐츠와 다른 새로운 컨텐츠를 표시하였는데, 이 때 새롭게 획득된 사용자의 제2 생체 정보를 분석한 결과 제1 생체 정보와 비교하여 사용자의 뇌의 활성도 또는 집중도가 상승하였다면, 프로세서(111)는 상승분에 비례하는 점수(예를 들면, 양의 값을 가지는 점수)를 포함하는 피드백 데이터를 생성할 수 있다. 반대로, 사용자의 뇌의 활성도 또는 집중도가 오히려 저하되었다면, 프로세서(111)는 음의 값을 가지는 점수를 포함하는 피드백 데이터를 생성할 수 있다.Here, the feedback data means that the processor 111 compares the user's biometric information newly obtained at the time when the multimedia content selected based on the user's biometric information is displayed through the output unit 120 with the existing biometric information, It may be data reflecting the evaluation of how much the activity and concentration increased. For example, if the processor 111 displays new content different from the multimedia content currently being displayed on the output unit 120 based on the user's first biometric information, then the newly acquired user's second biometric information. As a result of the analysis, if the activity or concentration of the user's brain has increased compared to the first biometric information, the processor 111 provides feedback data including a score proportional to the increase (eg, a score having a positive value). can create Conversely, if the user's brain activity or concentration is rather low, the processor 111 may generate feedback data including a score having a negative value.

프로세서(111)는 다른 구성요소(예를 들면, 착용모듈(200), 서버(300))로부터 수신된 명령 또는 데이터를 휘발성 메모리에 저장하고, 휘발성 메모리에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다. 일 실시예에서, 프로세서(111)는 메인 프로세서(예를 들면, 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(예를 들면, 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 센서 허브 프로세서)를 포함할 수 있다. 예를 들어, 게임장치(100)가 메인 프로세서 및 보조 프로세서를 포함하는 경우, 보조 프로세서는 메인 프로세서보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서는 메인 프로세서와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 111 stores commands or data received from other components (eg, the wearable module 200 or the server 300) in a volatile memory, processes the commands or data stored in the volatile memory, and generates the resulting data can be stored in non-volatile memory. In one embodiment, the processor 111 is a main processor (eg, a central processing unit or application processor) or a secondary processor (eg, a graphics processing unit, a neural network processing unit (NPU) that can operate independently of or in conjunction therewith). processing unit) and sensor hub processor). For example, when the game device 100 includes a main processor and an auxiliary processor, the auxiliary processor may use less power than the main processor or may be set to be specialized for a designated function. A secondary processor may be implemented separately from, or as part of, the main processor.

보조 프로세서는, 예를 들면, 메인 프로세서가 인액티브 상태에 있는 동안 메인 프로세서를 대신하여, 또는 메인 프로세서가 액티브 상태에 있는 동안 메인 프로세서와 함께, 게임장치(100)의 구성요소들 중 적어도 하나의 구성요소와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에서, 보조 프로세서는 기능적으로 관련 있는 다른 구성요소의 일부로서 구현될 수 있다. The auxiliary processor is, for example, in place of the main processor while the main processor is in an inactive state, or together with the main processor while the main processor is in an active state, at least one of the components of the game device 100 At least some of the functions or states related to the component may be controlled. In one embodiment, a coprocessor may be implemented as part of other functionally related components.

일 실시예에서, 보조 프로세서가 신경망 처리 장치인 경우, 보조 프로세서는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 게임장치(100) 자체에서 수행될 수 있고, 별도의 서버를 통해 수행될 수도 있다. In one embodiment, when the auxiliary processor is a neural network processing device, the auxiliary processor may include a hardware structure specialized for processing an artificial intelligence model. AI models can be created through machine learning. Such learning may be performed, for example, in the game device 100 itself where the artificial intelligence model is performed, or may be performed through a separate server.

학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning or reinforcement learning, but in the above example Not limited. The artificial intelligence model may include a plurality of artificial neural network layers. Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the foregoing, but is not limited to the foregoing examples. The artificial intelligence model may include, in addition or alternatively, software structures in addition to hardware structures.

제어부(110)의 메모리(112)는 복수의 멀티미디어 컨텐츠를 저장할 수 있다. 게임장치(100)는 메모리(112)에 저장된 복수의 멀티미디어 컨텐츠 중 어느 하나를 사용자의 입력에 기초하여 선택하고 선택된 컨텐츠를 출력부(120)를 통해 출력할 수 있다. The memory 112 of the controller 110 may store a plurality of multimedia contents. The game device 100 may select any one of a plurality of multimedia contents stored in the memory 112 based on a user's input and output the selected contents through the output unit 120 .

또한, 메모리(112)는 사용자의 뇌의 활성도에 관한 제1 임계값과 사용자의 뇌의 집중도에 관한 제2 임계값을 저장할 수 있다. 여기서, 제1 임계값은 사용자의 뇌의 활성도 분포 범위 내의 어느 하나의 값을 의미할 수 있다. 예를 들면, 사용자의 뇌의 활성도가 0 ~ 100 범위의 값으로 표현되는 경우, 제1 임계값은 0 ~ 100 범위의 값 중 어느 하나, 예를 들면 50일 수 있다. 다만 이는 예시적인 것이고, 본 발명의 실시예는 이에 제한되지 않는다. 마찬가지로, 제2 임계값은 사용자의 뇌의 집중도 분포 범위 내의 어느 하나의 값을 의미할 수 있으며, 여기서 '범위'의 최솟값과 최댓값은 다양할 수 있다.In addition, the memory 112 may store a first threshold value related to the activity of the user's brain and a second threshold value related to the degree of concentration of the user's brain. Here, the first threshold value may mean any one value within the user's brain activity distribution range. For example, when the user's brain activity is expressed as a value in the range of 0 to 100, the first threshold value may be any one of the values in the range of 0 to 100, for example 50. However, this is exemplary, and embodiments of the present invention are not limited thereto. Similarly, the second threshold value may mean any one value within the concentration distribution range of the user's brain, where the minimum and maximum values of the 'range' may vary.

프로세서(111)는 사용자 정보, 생체 정보, 및 피드백 데이터 등에 기초하여 제1 및/또는 제2 임계값을 변경하여 메모리(112)에 저장할 수 있다. 예를 들면, 프로세서(111)는 생체 정보를 분석하고, 생체 정보 중 사용자의 뇌의 활성도가 제1 임계값 이하인 경우, 현재 출력부(120)에서 출력되고 있는 멀티미디어 컨텐츠와 다른 컨텐츠를 메모리(112)에서 선택하여 출력부(120)에 출력할 수 있다. 또는, 프로세서(111)는 생체 정보 중 사용자의 뇌의 집중도가 제2 임계값 이하로 되는 경우, 현재 출력부(120)에서 출력되고 있는 멀티미디어 컨텐츠와 다른 컨텐츠를 메모리(112)에서 선택하여 출력부(120)에 출력할 수 있다.The processor 111 may change and store the first and/or second threshold values in the memory 112 based on user information, biometric information, and feedback data. For example, the processor 111 analyzes the biometric information, and if the activity of the user's brain is less than or equal to a first threshold value among the biometric information, the multimedia content currently being output from the output unit 120 and other content are stored in the memory 112. ) can be selected and output to the output unit 120. Alternatively, the processor 111 selects, from the memory 112, content different from the multimedia content currently being output from the output unit 120 when the degree of concentration of the user's brain among the biometric information is equal to or less than the second threshold, and outputs the output unit. It can be output to (120).

또한, 메모리(112)는 사용자의 감정 상태에 관한 트리거 정보를 저장할 수 있다. 여기서, 사용자의 감정 상태에 관한 트리거 정보는, 사용자의 감정 상태를 어느 하나의 상태에서 다른 상태로 변경시키기 위해 필요한 생체 정보의 임계값에 관한 정보일 수 있다.Also, the memory 112 may store trigger information related to a user's emotional state. Here, the trigger information on the user's emotional state may be information on a threshold value of biometric information necessary to change the user's emotional state from one state to another.

그 밖에 메모리(112)는, 게임장치(100)의 적어도 하나의 구성요소에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(112)는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.In addition, the memory 112 may store various data used by at least one component of the game device 100 . Data may include, for example, input data or output data for software and related instructions. The memory 112 may include volatile memory or non-volatile memory.

통신 모듈(113)은 게임장치(100)와 외부 전자 장치 간의 유선 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(113)은 프로세서(111)와 독립적으로 운영되고, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에서, 통신 모듈(113)은 무선 통신 모듈 또는 유선 통신 모듈을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 네트워크(400)를 통하여 게임장치(100)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소로 통합되거나, 또는 서로 별도의 복수의 구성요소들로 구현될 수 있다. The communication module 113 may support establishment of a wired or wireless communication channel between the game device 100 and an external electronic device, and communication through the established communication channel. The communication module 113 may include one or more communication processors that operate independently of the processor 111 and support wired communication or wireless communication. In one embodiment, the communication module 113 may include a wireless communication module or a wired communication module. Among these communication modules, a corresponding communication module may communicate with the game device 100 through the network 400 . These various types of communication modules may be integrated into one component or implemented as a plurality of separate components.

무선 통신 모듈은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역을 지원할 수 있다. 무선 통신 모듈은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈은 게임장치(100), 외부 전자 장치 또는 네트워크 시스템에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에서, 무선 통신 모듈은 eMBB 실현을 위한 Peak data rate, mMTC 실현을 위한 손실 Coverage 또는 URLLC 실현을 위한 U-plane latency를 지원할 수 있다.The wireless communication module may support a 5G network after a 4G network and a next-generation communication technology, for example, NR access technology (new radio access technology). NR access technologies include high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access of multiple terminals (massive machine type communications (mMTC)), or high reliability and low latency (ultra-reliable and low latency (URLLC)). -latency communications)) can be supported. The wireless communication module may support a high frequency band, for example, to achieve a high data rate. The wireless communication module uses various technologies for securing performance in a high frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), and full-dimensional multiple-output (FD). Technologies such as full dimensional MIMO (MIMO), array antenna, analog beam-forming, or large scale antenna may be supported. The wireless communication module may support various requirements stipulated in the game device 100, an external electronic device, or a network system. In one embodiment, the wireless communication module may support peak data rate for realizing eMBB, loss coverage for realizing mMTC, or U-plane latency for realizing URLLC.

안테나 모듈(114)은 신호 또는 전력을 외부 전자 장치로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에서, 안테나 모듈(114)은 서브스트레이트 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에서, 안테나 모듈(114)은 복수의 안테나들을 포함할 수 있다. 이 경우, 네트워크(400)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(113)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(113)과 외부 전자 장치 간에 송신되거나 수신될 수 있다.The antenna module 114 may transmit a signal or power to an external electronic device or receive it from the outside. In one embodiment, the antenna module 114 may include an antenna including a radiator formed of a conductor or conductive pattern formed on a substrate. In one embodiment, the antenna module 114 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the network 400 may be selected from the plurality of antennas by, for example, the communication module 113 . A signal or power may be transmitted or received between the communication module 113 and an external electronic device through the selected at least one antenna.

일 실시예에서, 명령 또는 데이터는 네트워크(400)에 연결된 게임장치(100)간에 송신 또는 수신될 수 있다. 게임장치(100)는 게임장치(100)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에서, 게임장치(100)에서 실행되는 동작들의 전부 또는 일부는 게임장치(100)에서 실행될 수 있다. In one embodiment, commands or data may be transmitted or received between game devices 100 connected to network 400 . The game device 100 may be the same as the game device 100 or a different type of device. In one embodiment, all or part of the operations executed in the game device 100 may be executed in the game device 100 .

예를 들면, 게임장치(100)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 게임장치(100)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 게임장치(100)로 전달할 수 있다. 게임장치(100)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 게임장치(100)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다.For example, when the game device 100 needs to perform a certain function or service automatically or in response to a request from a user or other device, the game device 100 instead of executing the function or service by itself. Alternatively or additionally, one or more external electronic devices may be requested to perform the function or at least part of the service. One or more external electronic devices receiving the request may execute at least a part of the requested function or service or an additional function or service related to the request, and deliver the execution result to the game device 100 . The game device 100 may provide the result as at least part of a response to the request as it is or additionally processed. To this end, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used. The game device 100 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.

게임장치(100)의 거치부(130)는 착용모듈(200)이 미사용되는 경우 착용모듈(200)을 거치할 수 있도록 게임장치(100) 외부에 형성될 수 있다. 거치부(130)의 형상은 다양할 수 있다. 일 실시예에서, 거치부(130)는 도 7에 도시된 바와 같이 게임장치(100)의 출력부(120)의 베젤 부분에 부착된 원통 형태의 형상을 가질 수 있다.The holding portion 130 of the game device 100 may be formed outside the game device 100 to hold the wearing module 200 when the wearing module 200 is not in use. The shape of the mounting portion 130 may vary. In one embodiment, the mounting unit 130 may have a cylindrical shape attached to the bezel portion of the output unit 120 of the game device 100 as shown in FIG. 7 .

지지부(140)는 사용자가 게임장치(100)를 이용하여 멀티미디어 컨텐츠 또는 게임을 즐기는 도중에 게임장치(100)가 지면에 안정적으로 고정될 수 있도록 게임장치(100)를 지지할 수 있다.The support unit 140 may support the game device 100 so that the game device 100 can be stably fixed to the ground while a user enjoys multimedia content or a game using the game device 100 .

도 8은 본 발명의 일 실시예에 따른 착용모듈(200)을 설명하기 위한 도면이다. 8 is a diagram for explaining the wearing module 200 according to an embodiment of the present invention.

도 8을 참조하면, 착용모듈(200)은 복수의 센서 중 어느 하나 또는 일부만을 이용하거나, 복수의 센서 전부를 이용하여 사용자의 뇌파를 감지할 수 있다. 이 경우, 복수의 센서 각각은 사용자의 뇌의 각 부분(예를 들면, 전두엽, 두정엽, 측두엽, 후두엽 등)에 가깝게 부착될 수 있다. 이에 따라, 복수의 센서 각각은 뇌의 특정 부위에서 발생하는 뇌파를 개별적으로 감지할 수 있다.Referring to FIG. 8 , the wearing module 200 may detect the user's brain waves using only one or some of the plurality of sensors or all of the plurality of sensors. In this case, each of the plurality of sensors may be closely attached to each part of the user's brain (eg, frontal lobe, parietal lobe, temporal lobe, occipital lobe, etc.). Accordingly, each of the plurality of sensors may individually detect brain waves generated in a specific region of the brain.

착용모듈(200)은 사용자의 머리 부분에 적어도 일부가 접촉하도록 머리띠 형태로 형성될 수 있다.The wearing module 200 may be formed in the form of a headband so that at least a part of it comes into contact with the user's head.

착용모듈(200)은 복수의 센서, 통신부(220), 및 케이블(230)을 포함할 수 있다. 복수의 센서는 제1 센서(210_1), 제2 센서(210_2)를 포함할 수 있다. 복수의 센서에 포함되는 센서의 수는 다양할 수 있다. 비록 도 8에서는 2개의 센서만이 도시되었으나, 본 발명의 실시예는 이에 제한되지 않는다. 각각의 센서(210_1, 210_2)는 뇌파(Electroencephalogram) 검출을 위한 금속 측정 전극을 포함할 수 있다. 각각의 센서(210_1, 210_2)는 사용자의 뇌에서 흘러나오는 뇌파를 개별적으로 검출할 수 있다. 사용자가 착용모듈(200)을 머리에 착용한 경우에 측정 전극은 사용자의 두피 또는 얼굴 피부에 접촉할 수 있다. 각각의 센서(210_1, 210_2)는 서로 다른 부위의 뇌에서 흘러나오는 뇌파를 개별적으로 검출할 수 있다. 예를 들면, 제1 센서(210_1)는 전두엽에서 흘러나오는 제1 뇌파를, 제2 센서(210_2)는 후두엽에서 흘러나오는 제2 뇌파를 검출할 수 있다. 또는, 제1 센서(210_1)는 좌뇌에서 흘러나오는 제1 뇌파를, 제2 센서(210_2)는 우뇌에서 흘러나오는 제2 뇌파를 검출할 수 있다.The wearing module 200 may include a plurality of sensors, a communication unit 220, and a cable 230. The plurality of sensors may include a first sensor 210_1 and a second sensor 210_2. The number of sensors included in the plurality of sensors may vary. Although only two sensors are shown in FIG. 8, the embodiment of the present invention is not limited thereto. Each of the sensors 210_1 and 210_2 may include a metal measuring electrode for detecting an electroencephalogram. Each of the sensors 210_1 and 210_2 may individually detect brain waves flowing from the user's brain. When the user wears the wearing module 200 on the head, the measurement electrode may contact the user's scalp or facial skin. Each of the sensors 210_1 and 210_2 may individually detect brain waves flowing from different parts of the brain. For example, the first sensor 210_1 may detect a first brain wave flowing from the frontal lobe, and the second sensor 210_2 may detect a second brain wave flowing from the occipital lobe. Alternatively, the first sensor 210_1 may detect a first brain wave flowing from the left brain, and the second sensor 210_2 may detect a second brain wave flowing from the right brain.

통신부(220)는 착용모듈(200)의 복수의 센서에 의해 획득된 뇌파 데이터를 외부 전자 장치(예를 들면, 게임장치(100))로 송신하거나, 외부 전자 장치로부터 신호 또는 데이터를 수신할 수 있다. 통신부(220)는 게임장치(100) 등 외부 전자 장치와 착용모듈(200) 간의 유선 통신 채널 또는 무선 통신 채널의 수립하고, 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. The communication unit 220 may transmit EEG data acquired by the plurality of sensors of the wearable module 200 to an external electronic device (eg, the game device 100) or receive signals or data from the external electronic device. there is. The communication unit 220 may establish a wired communication channel or a wireless communication channel between an external electronic device such as the game device 100 and the wearable module 200 and support communication through the established communication channel.

통신부(220)는 무선 통신 모듈 또는 유선 통신 모듈을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 네트워크를 통하여 게임장치(100)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소로 통합되거나, 또는 서로 별도의 복수의 구성요소들로 구현될 수 있다. The communication unit 220 may include a wireless communication module or a wired communication module. Among these communication modules, a corresponding communication module may communicate with the game device 100 through a network. These various types of communication modules may be integrated into one component or implemented as a plurality of separate components.

케이블(230)은 게임장치(100)와 연결될 수 있다. 착용모듈(200)은 케이블(230)을 통해 게임장치(100)로부터 전기 에너지를 전달받을 수 있다. 또한, 케이블(230)은 착용모듈(200)이 유선 통신 방법으로 게임장치(100)와 데이터를 주고받는 경우, 데이터를 전송할 수 있는 통신 케이블을 포함할 수 있다. 즉, 착용모듈(200)은 케이블(230)을 통해 신호 또는 전력을 외부 전자 장치로 송신하거나 외부로부터 수신할 수 있다.The cable 230 may be connected to the game device 100 . The wearing module 200 may receive electrical energy from the game device 100 through the cable 230 . In addition, the cable 230 may include a communication cable capable of transmitting data when the wearing module 200 exchanges data with the game device 100 in a wired communication method. That is, the wearable module 200 may transmit a signal or power to an external electronic device or receive it from the outside through the cable 230 .

도 9는 본 발명의 일 실시예에 따른 게임장치(100) 및 이와 통신하는 서버(300)를 도시한 도면이다. 도 10은 본 발명의 일 실시예에 따른 서버(300)를 도시한 블록도이다. 도 11은 서버 프로세서(310)의 다층 신경망 구조를 설명하기 위한 도면이다.9 is a diagram showing a game device 100 and a server 300 communicating with the game device 100 according to an embodiment of the present invention. 10 is a block diagram showing a server 300 according to an embodiment of the present invention. 11 is a diagram for explaining a multilayer neural network structure of the server processor 310.

도 9를 참조하면, 네트워크 환경에서 게임장치(100)는 네트워크를 통하여 서버(300)와 통신할 수 있다. 서버(300)는 서버(300)에 연결된 게임장치(100) 및 사용자 단말(미도시)을 관리할 수 있다. 서버(300)는 게임장치(100)로부터 사용자의 뇌파를 측정하여 획득한 뇌파 데이터, 뇌파 데이터를 분석하여 생성된 생체 정보, 및 복수의 생체 정보 비교 결과에 따른 선택 정보 및 피드백 데이터를 수신하고 이를 저장할 수 있다. 또한, 서버(300)는 게임장치(100)로부터 특성파 데이터, 집중력 점수, 액션 점수, 및 가공 데이터를 수신하고 이를 저장할 수 있다.Referring to FIG. 9 , in a network environment, a game device 100 may communicate with a server 300 through a network. The server 300 may manage the game device 100 and user terminals (not shown) connected to the server 300 . The server 300 receives EEG data obtained by measuring the user's EEG from the game device 100, biometric information generated by analyzing the EEG data, and selection information and feedback data according to a plurality of biometric information comparison results, and receives the feedback data. can be saved In addition, the server 300 may receive characteristic wave data, concentration points, action points, and processing data from the game device 100 and store them.

도 10을 참조하면, 서버(300)는 서버 프로세서(310), 서버 메모리(320), 및 사용자 관리부(330)를 포함할 수 있다. 서버 프로세서(310)는 게임장치(100)의 메모리(112)에 저장된 뇌파 데이터, 생체 정보, 피드백 데이터를 수신할 수 있다. 서버 메모리(320)는 수신한 뇌파 데이터, 생체 정보, 피드백 데이터를 저장할 수 있다. 또한, 서버 메모리(320)는 게임장치(100)로부터 수신한 특성파 데이터, 집중력 점수, 액션 점수, 및 가공 데이터를 저장할 수 있다.Referring to FIG. 10 , the server 300 may include a server processor 310, a server memory 320, and a user manager 330. The server processor 310 may receive brain wave data, biometric information, and feedback data stored in the memory 112 of the game device 100 . The server memory 320 may store received EEG data, biometric information, and feedback data. In addition, the server memory 320 may store characteristic wave data, concentration points, action points, and processed data received from the game device 100 .

서버 프로세서(310)는 학습 모델을 이용하여 특성파 데이터를 분석하고, 특성파 데이터를 기초로 생성되는 집중력 점수를 보정할 수 있다.The server processor 310 may analyze the characteristic wave data using the learning model and correct the concentration score generated based on the characteristic wave data.

이를 위해, 서버 프로세서(310)는 다층 신경망(311), 학습 엔진(312)을 포함할 수 있다. To this end, the server processor 310 may include a multilayer neural network 311 and a learning engine 312 .

학습 엔진(312)은 복수의 학습 데이터를 사용하여 다층 신경망(311)을 미리 지도학습시킬 수 있다. 다층 신경망(Multilayer Neural Network)은 많은 수의 인공 뉴런(또는, 노드)들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 소프트웨어나 하드웨어로 구현된 예측 모델이다. The learning engine 312 may pre-supervise the multilayer neural network 311 using a plurality of training data. A multilayer neural network is a predictive model implemented in software or hardware that mimics the computational power of a biological system by using a large number of artificial neurons (or nodes).

학습 엔진(312)은, 다층 신경망(311)이 학습 데이터를 기초로 집중력 점수를 정확하게 보정할 수 있도록, 특성파 데이터를 입력값으로 하고, 집중력 점수를 출력값으로 하는 학습 데이터를 사용하여 다층 신경망(311)을 지도학습시킬 수 있다.The learning engine 312 uses the learning data having characteristic wave data as an input value and the concentration score as an output value so that the multilayer neural network 311 can accurately correct the concentration score based on the training data, and the multilayer neural network ( 311) can be supervised.

이때, 지도학습이란, 입력값과 그에 따른 출력값이 있는 데이터를 학습 데이터로 이용하여 주어진 입력값에 따른 출력값을 찾는 학습을 의미하며, 정답을 알고 있는 상태에서 이루어지는 학습을 의미한다. 지도 학습에서 주어지는 입력값과 출력값 세트를 학습 데이터(Training Data)라고 한다. At this time, supervised learning means learning to find an output value according to a given input value by using data with input values and corresponding output values as learning data, and means learning that takes place in a state where the correct answer is known. The set of input values and output values given in supervised learning is called training data.

도 11을 참조하면, 다층 신경망(311)은 입력 레이어(311_a), 하나 이상의 히든 레이어(311_b), 및 출력 레이어(311_c)을 포함할 수 있다.Referring to FIG. 11 , the multilayer neural network 311 may include an input layer 311_a, one or more hidden layers 311_b, and an output layer 311_c.

일 실시예에서, 다층 신경망(311)은, 입력값을 입력받고 제1 특징 벡터의 성분 개수에 상응하는 노드들을 갖는 입력 레이어(311_a), 입력 레이어(311_a)의 출력값 각각에 대하여 가중치를 곱하고, 바이어스(bias)를 더하여 출력하는 제1 히든 레이어(421_b1), 및 제1 히든 레이어(421_b1)의 출력값 각각에 대하여 가중치를 곱하고, 바이어스를 더하여 출력하는 제2 히든 레이어(제421_b2), 및 제2 히든 레이어(421_b2)의 출력값 각각에 대하여 가중치를 곱하고, 그 결과를 활성화 함수를 이용하여 출력하는 출력 레이어(output layer)(311_c)를 포함할 수 있다. 비록 도 6에서는 2개의 히든 레이어(421_b1, 421_b2)만이 도시되었으나, 하나 이상의 히든 레이어(311_b)은, 제1 히든 레이어(421_b1), 제2 히든 레이어(421_b2)외에 더 많은 수의 히든 레이어를 포함할 수 있다.In one embodiment, the multilayer neural network 311 receives an input value and multiplies an input layer 311_a having nodes corresponding to the number of components of the first feature vector and an output value of the input layer 311_a by a weight, A first hidden layer 421_b1 that outputs after adding a bias, a second hidden layer (421_b2) that multiplies a weight for each output value of the first hidden layer 421_b1, adds a bias, and outputs the result, and An output layer 311_c that multiplies each output value of the hidden layer 421_b2 by a weight and outputs the result using an activation function may be included. Although only two hidden layers 421_b1 and 421_b2 are shown in FIG. 6 , one or more hidden layers 311_b include a larger number of hidden layers in addition to the first hidden layer 421_b1 and the second hidden layer 421_b2. can do.

예를 들어, 활성화 함수는 Softmax 함수일 수 있으나, 본 발명의 실시예는 이에 제한되는 것은 아니고, 활성화 함수는 LeRU 함수 등 다른 다양한 함수일 수 있다. 가중치와 바이어스는 지도학습에 의해 지속적으로 갱신될 수 있다. For example, the activation function may be a Softmax function, but embodiments of the present invention are not limited thereto, and the activation function may be various other functions such as a LeRU function. Weights and biases can be continuously updated by supervised learning.

구체적으로, 출력 벡터는 출력 레이어(311_c)에 연결된 손실함수 레이어에 입력될 수 있다. 손실함수 레이어는 출력 벡터와 각각의 학습 데이터에 대한 정답 벡터를 비교하는 손실 함수를 이용하여 손실값을 출력할 수 있다. 다층 신경망(311)의 파라미터는 손실값이 작아지는 방향으로 지도학습될 수 있다.Specifically, the output vector may be input to a loss function layer connected to the output layer 311_c. The loss function layer may output a loss value using a loss function that compares an output vector with a correct answer vector for each training data. Parameters of the multilayer neural network 311 may be supervised in a direction in which a loss value decreases.

Figure 112022112712428-pat00003
Figure 112022112712428-pat00003

예를 들어, 손실함수 레이어는 [수학식 2]를 따라 손실 값을 계산할 수 있다. [수학식 2]에서, N은 복수의 학습 데이터의 수, n은 학습 데이터를 식별하는 자연수, k는 n번째 학습 데이터의 값을 식별하는 자연수, nk는 n번째 학습 데이터의 k번째 값을 의미하고, t는 정답 데이터를 의미하고, y는 출력 벡터를 의미하고, E는 손실값을 의미할 수 있다.For example, the loss function layer can calculate a loss value according to [Equation 2]. In [Equation 2], N is the number of a plurality of training data, n is a natural number identifying the learning data, k is a natural number identifying the value of the nth learning data, nk means the kth value of the nth learning data , t may mean correct answer data, y may mean an output vector, and E may mean a loss value.

Figure 112022112712428-pat00004
Figure 112022112712428-pat00004

또는, 손실함수 레이어는 [수학식 3]을 따라 손실 값을 계산할 수 있다. [수학식 3]에서, n은 클래스 별 학습 데이터의 수, y와 j는 클래스를 나타내는 식별자, C는 상수값, M은 클래스의 개수, x_y는 학습 데이터가 클래스 y에 속할 확률값, x_j는 학습 데이터가 클래스 j에 속할 확률값, L은 손실값을 의미할 수 있다.Alternatively, the loss function layer may calculate a loss value according to [Equation 3]. In [Equation 3], n is the number of learning data for each class, y and j are identifiers representing classes, C is a constant value, M is the number of classes, x_y is the probability that the training data belongs to class y, x_j is learning A probability value, L, that data belongs to class j may mean a loss value.

서버 프로세서(310)는 적어도 하나의 하드웨어 칩 형태로 제작되어 디바이스에 탑재될 수 있다. 예를 들어, 서버 프로세서(310)는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 디바이스에 탑재될 수도 있다.The server processor 310 may be manufactured in the form of at least one hardware chip and mounted in a device. For example, the server processor 310 may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or a conventional general-purpose processor (eg, CPU or application processor) or a graphics-only processor (eg, It may be manufactured as a part of GPU) and mounted in various devices described above.

이 경우, 서버 프로세서(310)는 하나의 디바이스에 탑재될 수도 있으며, 또는 별개의 디바이스에 탑재될 수도 있다. 한편, 서버 프로세서(310)의 학습 모델은 소프트웨어 모듈로 구현될 수 있다. 학습 모델이 소프트웨어 모듈(또는, 인스트럭션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 어플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 어플리케이션에 의해 제공될 수 있다.In this case, the server processor 310 may be mounted on one device or may be mounted on a separate device. Meanwhile, the learning model of the server processor 310 may be implemented as a software module. When the learning model is implemented as a software module (or a program module including instructions), the software module may be stored in a computer-readable, non-transitory computer readable media. there is. Also, in this case, at least one software module may be provided by an Operating System (OS) or a predetermined application. Alternatively, some of the at least one software module may be provided by an Operating System (OS), and the other part may be provided by a predetermined application.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (5)

게임장치의 출력부에 의해, 적어도 하나의 사용자 인터페이스를 포함하는 제1 멀티미디어 컨텐츠가 출력되는 단계;
상기 게임장치에 연결된 착용모듈에 의해, 사용자의 뇌파를 감지하여 뇌파 데이터를 생성하는 단계;
제어부에 의해, 상기 뇌파 데이터에 밴드패스 필터(Band-pass filter)를 적용하여 적어도 하나의 특성파 데이터를 생성하는 단계;
상기 제어부에 의해, 상기 특성파 데이터를 기초로 집중력 점수를 산출하고 가공 데이터를 생성하는 단계; 및
상기 제어부에 의해, 상기 가공 데이터를 기초로 메모리에서 제2 멀티미디어 컨텐츠를 선택하고 상기 출력부에 출력하는 단계;를 포함하되,
상기 특성파 데이터는,
적어도 하나의 특성파의 세기 값 및 세기 값의 변화율을 기초로 생성되고,
상기 제어부는, 상기 특성파의 세기 값을 기초로 상기 집중력 점수를 산출하고, 상기 집중력 점수를 기초로 상기 가공 데이터를 생성하고,
상기 제1 멀티미디어 컨텐츠는,
상기 집중력 점수를 시각적으로 나타내는 게이지를 표시하는 제1 인터페이스, 및
액션 점수를 시각적으로 나타내는 게이지를 표시하는 제2 인터페이스를 포함하고,
상기 액션 점수는, 상기 사용자가 상기 제1 멀티미디어 컨텐츠에 등장하는 자신의 캐릭터를 조종하기 위해 필요한 점수를 의미하고,
상기 제어부는, 상기 특성파 데이터를 기초로 상기 액션 점수를 산출하는,
사용자 인터페이스 제공 방법.
outputting first multimedia content including at least one user interface by an output unit of the game device;
generating brain wave data by sensing brain waves of a user by a wearable module connected to the game device;
generating, by a controller, at least one characteristic wave data by applying a band-pass filter to the brain wave data;
calculating, by the control unit, a concentration score based on the characteristic wave data and generating processing data; and
Selecting, by the controller, second multimedia content from a memory based on the processed data and outputting it to the output unit; including,
The characteristic wave data,
It is generated based on an intensity value and a rate of change of the intensity value of at least one characteristic wave,
The control unit calculates the concentration score based on the intensity value of the characteristic wave, and generates the processing data based on the concentration score;
The first multimedia content,
A first interface displaying a gauge visually representing the concentration score; and
A second interface displaying a gauge that visually represents an action score;
The action score means a score required for the user to manipulate his character appearing in the first multimedia content,
The control unit calculates the action score based on the characteristic wave data.
How to present the user interface.
삭제delete 제1항에 있어서,
상기 특성파 데이터는, 베타파에 대응하는 제1 특성파 데이터, 및 세타파에 대한 제2 특성파 데이터를 포함하고,
상기 제어부는, 상기 제1 특성파 데이터 및 상기 제2 특성파 데이터를 기초로 상기 집중력 점수를 산출하는,
사용자 인터페이스 제공 방법.
According to claim 1,
The characteristic wave data includes first characteristic wave data corresponding to a beta wave and second characteristic wave data corresponding to a theta wave,
The control unit calculates the concentration score based on the first characteristic wave data and the second characteristic wave data.
How to present the user interface.
제3항에 있어서,
상기 게임장치와 연결된 서버 프로세서에 의해 상기 특성파 데이터를 분석하는 단계;를 더 포함하고,
상기 서버 프로세서는, 입력 레이어, 하나 이상의 히든 레이어 및 출력 레이어를 포함하는 다층 신경망; 및 상기 특성파 데이터를 입력값으로 하고 집중력 점수를 출력값으로 하는 학습 데이터를 사용하여 상기 다층 신경망을 지도학습시켜 상기 학습 데이터를 기초로 최적화된 하이퍼파라미터(hyperparameter)를 산출하는 학습 엔진;을 포함하고,
상기 입력 레이어는, 상기 특성파 데이터를 입력받고, 상기 하나 이상의 히든 레이어는, 상기 입력 레이어의 출력값 각각에 대하여 가중치를 곱하고, 바이어스를 더하여 출력하고, 상기 출력 레이어는, 상기 히든 레이어의 출력값을 입력받아 활성화 함수를 이용하여 출력 벡터를 출력하고,
상기 다층 신경망은 상기 출력 레이어에 연결된 손실함수 레이어를 포함하고, 상기 출력 벡터는 상기 손실함수 레이어에 입력되고, 상기 손실함수 레이어는 상기 출력 벡터와 각각의 피드백 데이터에 대한 정답 벡터를 비교하는 손실 함수를 이용하여 손실값을 출력하고, 상기 다층 신경망의 파라미터는 상기 손실값이 작아지는 방향으로 학습되는,
사용자 인터페이스 제공 방법.
According to claim 3,
Further comprising: analyzing the characteristic wave data by a server processor connected to the game device;
The server processor may include a multi-layer neural network including an input layer, one or more hidden layers, and an output layer; And a learning engine for performing supervised learning on the multilayer neural network using training data having the characteristic wave data as input values and concentration scores as output values, and calculating optimized hyperparameters based on the training data. ,
The input layer receives the characteristic wave data, the at least one hidden layer multiplies a weight for each output value of the input layer, adds a bias, and outputs the result, and the output layer inputs an output value of the hidden layer. Take it and use the activation function to output the output vector,
The multilayer neural network includes a loss function layer connected to the output layer, the output vector is input to the loss function layer, and the loss function layer compares the output vector with a correct answer vector for each feedback data. A loss value is output using , and the parameters of the multilayer neural network are learned in a direction in which the loss value decreases.
How to present the user interface.
제어부에 의해, 제1 특성파 데이터를 분석하는 단계;
상기 제1 특성파 데이터에 대응하는 특성파가 미리 설정된 제1 뇌파 조건을 충족하는 경우, 출력부에 의해, 상기 제1 뇌파 조건에 대응하는 제1 게임 효과가 반영된 컨텐츠를 출력하고, 상기 출력부에 의해, 사용자 입력 인터페이스를 출력하는 단계;
상기 사용자 입력 인터페이스를 통해 사용자 입력 신호가 수신되는 경우, 상기 제어부에 의해, 상기 사용자 입력 신호를 기초로, 메모리에 저장된 적어도 하나의 멀티미디어 컨텐츠 중 어느 하나를 선택하고, 제1 시점에서 상기 출력부에 출력하는 단계;
상기 제1 시점에 후속하는 제2 시점에서, 사용자의 뇌파를 기초로 생성된 제2 특성파 데이터를 분석하는 단계; 및
상기 제2 특성파 데이터에 대응하는 특성파가 미리 설정된 제2 뇌파 조건을 충족하는 경우, 상기 출력부에 의해, 상기 제2 뇌파 조건에 대응하는 제2 게임 효과가 반영된 컨텐츠를 출력하는 단계;를 포함하는,
사용자 인터페이스 제공 방법.
analyzing the first characteristic wave data by a control unit;
When the characteristic wave corresponding to the first characteristic wave data satisfies a preset first brain wave condition, an output unit outputs content reflecting a first game effect corresponding to the first brain wave condition, and the output unit By, outputting a user input interface;
When a user input signal is received through the user input interface, the control unit selects one of at least one multimedia content stored in a memory based on the user input signal, outputting;
analyzing second characteristic wave data generated based on the brain waves of the user at a second time point subsequent to the first time point; and
When the characteristic wave corresponding to the second characteristic wave data satisfies a preset second brain wave condition, outputting, by the output unit, content reflecting a second game effect corresponding to the second brain wave condition; including,
How to present the user interface.
KR1020220138455A 2022-10-25 2022-10-25 Apparatus and method for providing user interface of game content using brain wave data KR102548507B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220138455A KR102548507B1 (en) 2022-10-25 2022-10-25 Apparatus and method for providing user interface of game content using brain wave data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220138455A KR102548507B1 (en) 2022-10-25 2022-10-25 Apparatus and method for providing user interface of game content using brain wave data

Publications (1)

Publication Number Publication Date
KR102548507B1 true KR102548507B1 (en) 2023-06-28

Family

ID=86994012

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220138455A KR102548507B1 (en) 2022-10-25 2022-10-25 Apparatus and method for providing user interface of game content using brain wave data

Country Status (1)

Country Link
KR (1) KR102548507B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150028661A (en) * 2013-09-06 2015-03-16 세종대학교산학협력단 Analysis method of user intention recognition for brain computer interface
KR20160081003A (en) * 2014-12-30 2016-07-08 한국과학기술연구원 Device and method for measuring cognitive fatigue based on tactile stimuli
KR20190140864A (en) * 2018-06-12 2019-12-20 주식회사 아이디어빈스 Method and apparatus for determining concentration level of user
JP6889564B2 (en) * 2017-02-01 2021-06-18 株式会社コロプラ Game display methods, computers, and programs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150028661A (en) * 2013-09-06 2015-03-16 세종대학교산학협력단 Analysis method of user intention recognition for brain computer interface
KR20160081003A (en) * 2014-12-30 2016-07-08 한국과학기술연구원 Device and method for measuring cognitive fatigue based on tactile stimuli
JP6889564B2 (en) * 2017-02-01 2021-06-18 株式会社コロプラ Game display methods, computers, and programs
KR20190140864A (en) * 2018-06-12 2019-12-20 주식회사 아이디어빈스 Method and apparatus for determining concentration level of user

Similar Documents

Publication Publication Date Title
Junior et al. Feature selection and dimensionality reduction: An extensive comparison in hand gesture classification by sEMG in eight channels armband approach
CN112256123B (en) Brain load-based control work efficiency analysis method, equipment and system
Scherer et al. Brain–computer interfacing: more than the sum of its parts
KR20220097907A (en) Latency compensation using machine learning prediction of user input
Wu et al. Offline EEG-based driver drowsiness estimation using enhanced batch-mode active learning (EBMAL) for regression
KR102152615B1 (en) Weight initialization method and apparatus for stable learning of deep learning model using activation function
CN112256124B (en) Emotion-based control work efficiency analysis method, equipment and system
CN115407872B (en) Evaluation method, device and storage medium for intelligent man-machine cooperative system
Acharya et al. An enhanced fitness function to recognize unbalanced human emotions data
KR102453304B1 (en) A system that provides virtual reality content for dementia prevention and self-diagnosis
Bose et al. Deep learning for brain computer interfaces
Ogino et al. Semi-supervised learning for auditory event-related potential-based brain–computer interface
KR102548507B1 (en) Apparatus and method for providing user interface of game content using brain wave data
Yu et al. Towards pilot’s situation awareness enhancement: A framework of adaptive interaction system and its realization
Fang et al. Real-Time Monitoring of Mental Fatigue of Construction Workers Using Enhanced Sequential Learning and Timeliness
CN112200025B (en) Operation and control work efficiency analysis method, device and system
KR102602146B1 (en) Method for adjusting dynamic environment in game based on brain wave data
KR102429627B1 (en) The System that Generates Avatars in Virtual Reality and Provides Multiple Contents
Kraft et al. A systematic approach to developing near real-time performance predictions based on physiological measures
KR102602144B1 (en) Apparatus and method for analyzing the user's brain waves and providing content based on the analysis result
Ziegler et al. Sensing and assessing cognitive workload across multiple tasks
Pathirana et al. Applicability of multi-agent systems for electroencephalographic data classification
Miao et al. Research on the Integration of Human-Computer Interaction and Cognitive Neuroscience
Sharma et al. Computational models of stress in reading using physiological and physical sensor data
KR102020479B1 (en) Globe Module System for Image Training

Legal Events

Date Code Title Description
GRNT Written decision to grant