KR20190140864A - Method and apparatus for determining concentration level of user - Google Patents

Method and apparatus for determining concentration level of user Download PDF

Info

Publication number
KR20190140864A
KR20190140864A KR1020190069297A KR20190069297A KR20190140864A KR 20190140864 A KR20190140864 A KR 20190140864A KR 1020190069297 A KR1020190069297 A KR 1020190069297A KR 20190069297 A KR20190069297 A KR 20190069297A KR 20190140864 A KR20190140864 A KR 20190140864A
Authority
KR
South Korea
Prior art keywords
user
content
information
concentration
level
Prior art date
Application number
KR1020190069297A
Other languages
Korean (ko)
Other versions
KR102085693B1 (en
Inventor
임준식
김형준
Original Assignee
주식회사 아이디어빈스
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이디어빈스, 가천대학교 산학협력단 filed Critical 주식회사 아이디어빈스
Publication of KR20190140864A publication Critical patent/KR20190140864A/en
Application granted granted Critical
Publication of KR102085693B1 publication Critical patent/KR102085693B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Developmental Disabilities (AREA)
  • Engineering & Computer Science (AREA)
  • Hospice & Palliative Care (AREA)
  • Biomedical Technology (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Physics & Mathematics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Educational Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Provided are a method for determining a concentration level of a user and a device thereof. The method for determining a concentration level provides content to a user through a head mounted display (HMD) for determining a concentration level, obtains at least one of brainwave information and eye gaze information of the user watching the content through the HMD, and determines the concentration level of the user based on the at least one of first brainwave information and first eye gaze information.

Description

사용자의 집중력 레벨 결정 방법 및 장치{METHOD AND APPARATUS FOR DETERMINING CONCENTRATION LEVEL OF USER}METHOD AND APPARATUS FOR DETERMINING CONCENTRATION LEVEL OF USER}

기술 분야는 사용자의 집중력의 레벨을 결정하는 기술에 관한 것으로, 특히, 사용자의 뇌파 정보 및 시선 정보에 기초하여 사용자의 집중력의 레벨을 결정하는 장치 및 방법에 관한 것이다.The technical field relates to a technology for determining a level of concentration of a user, and more particularly, to an apparatus and a method for determining a level of concentration of a user based on brain wave information and gaze information of a user.

발달은 성장에 따른 기능적 발전 과정을 말하는데 대개 일정하고 예측 가능한 양상으로 진행되는 역동적 과정이다. 그리고 발달 장애란 어느 특정 질환 또는 장애를 지칭하는 것이 아니라, 해당하는 나이에 이루어져야 할 발달이 성취되지 않은 상태로, 발달 선별검사에서 해당 연령의 정상 기대치보다 25%가 뒤쳐져 있는 경우를 말한다. 전반적 발달 지연은 대운동(Gross motor), 미세운동(Fine motor), 인지, 언어, 사회성과 일상 생황 중 2가지 이상이 지연된 경우를 말한다. 상술한 바와 같이 발달장애는 나이에 비해 지연된 것이므로 몸으로 익히고 학습함으로써 개선될 수 있다. 이러한 발달장애를 겪고 있는 발달장애인을 치료하기 위해서 치료용 시뮬레이터를 이용하고 있다. 통상 발달장애 치료 방법으로는 선 출원된 등록특허 10-1008541호, [시, 청각 자극을 제공하는 인지능력 향상 장치] 등과 같이 시각 및 청각적으로 자극을 주어 인지능력을 향상시키는 방법, 디스플레이 장치를 통해 시뮬레이션을 제공하여 치료하는 방법, 시각적 자극과 뇌에 물리적인 전정 자극을 주어 치료하는 방법, 및 약물 흡입에 의해 치료하는 방법 등이 적용되고 있다.Development refers to the functional development process as it grows, usually a dynamic process that proceeds in a constant and predictable manner. A developmental disability does not refer to a specific disease or disorder, but refers to a case in which development to be performed at a corresponding age is not achieved, and the developmental screening test is 25% behind the normal expectation of the age. Overall developmental delay is a delay in two or more of the gross motor, fine motor, cognition, language, sociality and everyday life. As described above, the developmental disorder is delayed compared with age, and thus can be improved by learning and learning with the body. Therapeutic simulators are used to treat people with developmental disabilities suffering from these developmental disorders. In general, as a method for treating developmental disorders, a method for improving cognitive ability by providing visual and auditory stimuli, such as a previously filed Patent Application No. 10-1008541, [a cognitive ability improving device for providing an auditory stimulus], and a display device Through the use of simulation to provide treatment, visual stimulation and physical vestibular stimulation to the brain, treatment, and drug inhalation are being applied.

일 실시예는 사용자의 집중력의 레벨을 결정하는 장치 및 방법을 제공할 수 있다.One embodiment may provide an apparatus and method for determining a level of concentration of a user.

일 실시예는 사용자의 집중력의 레벨을 향상시키는 장치 및 방법을 제공할 수 있다.One embodiment may provide an apparatus and method for improving the level of concentration of a user.

일 측면에 따른, 집중력 레벨 결정 방법은, HMD(head mounted display)를 통해 사용자에게 제1 컨텐츠를 제공하는 단계, 상기 HMD를 통해 상기 제1 컨텐츠를 시청하는 상기 사용자의 제1 뇌파 정보 및 제1 시선 정보 중 적어도 하나를 획득하는 단계, 및 상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나에 기초하여 상기 사용자의 집중력 레벨을 결정하는 단계를 포함한다.In accordance with an aspect, the concentration level determining method may include providing first content to a user through a head mounted display (HMD), first brain wave information and a first brain wave information of the user viewing the first content through the HMD; Obtaining at least one of gaze information, and determining a concentration level of the user based on at least one of the first brain wave information and the first gaze information.

상기 HMD를 통해 상기 제1 컨텐츠를 시청하는 상기 사용자의 제1 뇌파 정보 및 제1 시선 정보 중 적어도 하나를 획득하는 단계는, 상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나에 기초하여 상기 제1 컨텐츠 내의 오브젝트를 변화시키는 단계, 및 상기 오브젝트의 변화가 미리 설정된 변화에 대응하는 경우 상기 제1 컨텐츠의 제공을 중단하는 단계를 포함할 수 있다.Acquiring at least one of the first brain wave information and the first gaze information of the user who views the first content through the HMD is based on at least one of the first brain wave information and the first gaze information. Changing the object in the first content, and stopping the providing of the first content when the change of the object corresponds to a preset change.

상기 오브젝트의 변화는, 상기 오브젝트의 형태 및 상기 오브젝트의 위치 중 적어도 하나가 변화할 수 있다.The change of the object may change at least one of the shape of the object and the position of the object.

상기 제1 컨텐츠 내의 오브젝트를 변화시키는 단계는, 상기 제1 시선 정보에 기초하여 상기 사용자의 시선이 상기 제1 컨텐츠의 복수의 오브젝트들 중 상기 오브젝트에 대응하는지 여부를 결정하는 단계, 및 상기 시선이 상기 오브제트에 대응하는 경우 상기 오브젝트를 변화시키는 단계를 포함할 수 있다.The changing of the object in the first content may include determining whether the gaze of the user corresponds to the object among a plurality of objects of the first content based on the first gaze information, and the gaze is If the object corresponds to the object may include the step of changing the object.

상기 HMD를 통해 상기 제1 컨텐츠를 시청하는 상기 사용자의 뇌파 정보 및 시선 정보 중 적어도 하나를 획득하는 단계는, 상기 오브젝트의 변화가 미리 설정된 변화에 대응하지 않더라도 상기 제1 컨텐츠에 대해 미리 설정된 타이머가 종료되는 경우 상기 제1 컨텐츠의 제공을 중단하는 단계를 더 포함할 수 있다.Acquiring at least one of brain wave information and gaze information of the user who views the first content through the HMD may include setting a preset timer for the first content even if the change of the object does not correspond to a preset change. The method may further include stopping the providing of the first content when it is finished.

상기 집중력 레벨을 결정하는 방법은, 상기 제1 컨텐츠의 제공이 중단된 경우, 상기 사용자에게 제2 컨텐츠를 제공하는 단계, 및 상기 HMD를 통해 상기 제2 컨텐츠를 시청하는 상기 사용자의 제2 뇌파 정보 및 제2 시선 정보 중 적어도 하나를 획득하는 단계를 더 포함하고, 상기 사용자의 집중력 레벨을 계산하는 단계는, 상기 사용자의 제2 뇌파 정보 및 제2 시선 정보 중 적어도 하나에 기초하여 상기 집중력 레벨을 계산하는 단계를 포함할 수 있다.The method for determining the concentration level may include providing second content to the user when the first content is stopped, and second brain wave information of the user who views the second content through the HMD. And obtaining at least one of second gaze information, and the calculating of the concentration level of the user may include calculating the concentration level based on at least one of the second brain wave information and the second gaze information of the user. Calculating may be included.

상기 사용자의 집중력 레벨을 계산하는 단계는, 상기 제1 뇌파 정보를 복수의 주파수 대역들의 뇌파 신호들로 분할하는 단계, 및 상기 뇌파 신호들 중 타겟 뇌파 신호에 기초하여 상기 집중력 레벨을 계산하는 단계를 포함할 수 있다.The calculating of the concentration level of the user may include dividing the first EEG information into brain wave signals of a plurality of frequency bands, and calculating the concentration level based on a target EEG signal among the brain wave signals. It may include.

상기 사용자의 집중력 레벨을 계산하는 단계는, 상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나를 입력으로 하는 가중 퍼지 소속함수 기반 심층 신경망(Neural Network with Weighted Fuzzy Membership Function, NEWFM)을 이용하여 상기 집중력 레벨을 계산하는 단계를 포함할 수 있다.The step of calculating the concentration level of the user may be performed using a weighted fuzzy membership function-based deep neural network (NEF) based on at least one of the first brain wave information and the first gaze information. Calculating the concentration level.

상기 NEWFM은 상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나를 수신한 경우, 타카기-수게노 역 퍼지 값들(takagi-sugeno defuzzification values), 타카기-수게노 역 퍼지 값들의 클래스를 분류한 결과 및 가중 퍼지 소속함수를 출력함으로써 상기 집중력 레벨을 계산할 수 있다.The NEWFM classifies a class of Takagi-Sugeno defuzzification values and Takagi-Sugeno inverse fuzzy values when receiving at least one of the first EEG information and the first gaze information. The concentration level can be calculated by outputting the result and the weighted fuzzy membership function.

다른 일 측면에 따른, 사용자의 집중력 레벨을 결정하는 서버는, 사용자의 집중력 레벨을 결정하는 프로그램이 기록된 메모리, 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, HMD(head mounted display)를 통해 사용자에게 제1 컨텐츠를 제공하는 단계, 상기 HMD를 통해 상기 제1 컨텐츠를 시청하는 상기 사용자의 제1 뇌파 정보 및 제1 시선 정보 중 적어도 하나를 획득하는 단계, 상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나에 기초하여 상기 사용자의 집중력 레벨을 결정하는 단계를 수행한다.According to another aspect, a server for determining a concentration level of a user includes a memory in which a program for determining a concentration level of a user is recorded, and a processor for executing the program, wherein the program includes a head mounted display (HMD). Providing a first content to a user through, Acquiring at least one of the first brain wave information and the first gaze information of the user viewing the first content through the HMD, The first brain wave information and the Determining a concentration level of the user based on at least one of first gaze information.

상기 HMD를 통해 상기 제1 컨텐츠를 시청하는 상기 사용자의 제1 뇌파 정보 및 제1 시선 정보 중 적어도 하나를 획득하는 단계는, 상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나에 기초하여 상기 제1 컨텐츠 내의 오브젝트를 변화시키는 단계, 및 상기 오브젝트의 변화가 미리 설정된 변화에 대응하는 경우 상기 제1 컨텐츠의 제공을 중단하는 단계를 포함할 수 있다.Acquiring at least one of the first brain wave information and the first gaze information of the user who views the first content through the HMD is based on at least one of the first brain wave information and the first gaze information. Changing the object in the first content, and stopping the providing of the first content when the change of the object corresponds to a preset change.

상기 제1 컨텐츠 내의 오브젝트를 변화시키는 단계는, 상기 제1 시선 정보에 기초하여 상기 사용자의 시선이 상기 제1 컨텐츠의 복수의 오브젝트들 중 상기 오브젝트에 대응하는지 여부를 결정하는 단계, 및 상기 시선이 상기 오브제트에 대응하는 경우 상기 오브젝트를 변화시키는 단계를 포함할 수 있다.The changing of the object in the first content may include determining whether the gaze of the user corresponds to the object among a plurality of objects of the first content based on the first gaze information, and the gaze is If the object corresponds to the object may include the step of changing the object.

상기 사용자의 집중력 레벨을 계산하는 단계는, 상기 제1 뇌파 정보를 복수의 주파수 대역들의 뇌파 신호들로 분할하는 단계, 및 상기 뇌파 신호들 중 타겟 뇌파 신호에 기초하여 상기 집중력 레벨을 계산하는 단계를 포함할 수 있다.The calculating of the concentration level of the user may include dividing the first EEG information into brain wave signals of a plurality of frequency bands, and calculating the concentration level based on a target EEG signal among the brain wave signals. It may include.

상기 사용자의 집중력 레벨을 계산하는 단계는, 상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나를 입력으로 하는 가중 퍼지 소속함수 기반 심층 신경망(Neural Network with Weighted Fuzzy Membership Function, NEWFM)을 이용하여 상기 집중력 레벨을 계산하는 단계를 포함할 수 있다.The step of calculating the concentration level of the user may be performed using a weighted fuzzy membership function-based deep neural network (NEF) based on at least one of the first brain wave information and the first gaze information. Calculating the concentration level.

상기 NEWFM은 상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나를 수신한 경우, 타카기-수게노 역 퍼지 값들(takagi-sugeno defuzzification values), 타카기-수게노 역 퍼지 값들의 클래스를 분류한 결과 및 가중 퍼지 소속함수를 출력함으로써 상기 집중력 레벨을 계산할 수 있다.The NEWFM classifies a class of Takagi-Sugeno defuzzification values and Takagi-Sugeno inverse fuzzy values when receiving at least one of the first EEG information and the first gaze information. The concentration level can be calculated by outputting the result and the weighted fuzzy membership function.

사용자의 집중력의 레벨을 결정하는 장치 및 방법이 제공될 수 있다.An apparatus and method may be provided for determining the level of concentration of a user.

사용자의 집중력의 레벨을 향상시키는 장치 및 방법이 제공될 수 있다.An apparatus and method may be provided that enhance the level of concentration of a user.

도 1은 일 예에 따른 사용자의 집중력의 레벨을 결정하는 시스템의 구성도이다.
도 2는 일 실시예에 따른 서버의 구성도이다.
도 3은 일 실시예에 따른 사용자의 집중력의 레벨을 결정하는 방법의 흐름도이다.
도 4는 일 예에 따른 사용자의 집중력에 오브젝트가 변화하는 컨텐츠를 도시한다.
도 5는 일 예에 따른 오브젝트의 변화에 기초하여 뇌파 정보 및 시선 정보를 획득하는 방법의 흐름도이다.
도 6은 일 예에 따른 시선 정보에 기초하여 컨텐츠 내의 오브젝트를 변화시키는 방법의 흐름도이다.
도 7은 일 예에 따른 컨텐츠를 시청하는 사용자의 시선 정보를 나타낸다.
도 8은 일 예에 따른 뇌파 정보 및 뇌파 정보에 기초하여 복수의 주파수 대역들의 분할된 뇌파 신호들을 도시한다.
도 9는 일 예에 따른 사용자에게 제2 컨텐츠를 제공하고, 사용자의 제2 뇌파 및 제2 시선 정보를 획득하는 방법의 흐름도이다.
도 10은 일 예에 따른 뇌파 신호들에 기초하여 집중력 레벨을 계산하는 방법의 흐름도이다.
도 11은 일 예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법의 흐름도이다.
도 12 내지 14는 일 예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 도시한다.
도 15는 일 예에 따른 사용자 장치의 구성도이다.
1 is a block diagram of a system for determining a level of concentration of a user according to an example.
2 is a block diagram of a server according to an exemplary embodiment.
3 is a flowchart of a method of determining a level of concentration of a user according to an embodiment.
4 illustrates content in which an object changes in a user's concentration according to an example.
5 is a flowchart illustrating a method of acquiring EEG information and gaze information based on a change of an object according to an example.
6 is a flowchart of a method of changing an object in content based on eye gaze information according to an example.
7 illustrates gaze information of a user who views content according to an example.
8 illustrates divided EEG signals of a plurality of frequency bands based on EEG information and EEG information according to an example.
9 is a flowchart illustrating a method of providing second content to a user and obtaining second brain wave and second gaze information of the user, according to an exemplary embodiment.
10 is a flowchart of a method of calculating a concentration level based on brain wave signals according to an example.
11 is a flowchart illustrating a class classification method using a weighted fuzzy membership function based deep neural network, according to an embodiment.
12 to 14 illustrate a weighted fuzzy membership function based deep neural network according to an example.
15 is a block diagram illustrating a user device according to one embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference numerals in the drawings denote like elements.

아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various modifications may be made to the embodiments described below. The examples described below are not intended to be limited to the embodiments and should be understood to include all modifications, equivalents, and substitutes for them.

실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of examples. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components regardless of reference numerals will be given the same reference numerals and duplicate description thereof will be omitted. In the following description of the embodiment, when it is determined that the detailed description of the related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

도 1은 일 예에 따른 사용자의 집중력의 레벨을 결정하는 시스템의 구성도이다.1 is a block diagram of a system for determining a level of concentration of a user according to an example.

일 측면에 따르면, 시스템(100)은 사용자의 집중력의 레벨을 결정하는 서버(110), 컨텐츠를 출력하는 사용자 장치(120), 및 의료 기관의 분석 단말(130)을 포함할 수 있다.According to an aspect, the system 100 may include a server 110 that determines a level of concentration of a user, a user device 120 that outputs content, and an analysis terminal 130 of a medical institution.

서버(110)는 사용자 장치(120)로 사용자의 집중력의 레벨을 결정할 수 있도록 미리 제작된 컨텐츠를 제공할 수 있다. 예를 들어, 컨텐츠는 가상 현실(virtual reality: VR) 컨텐츠일 수 있다. 컨텐츠에 대해 아래에서 도 4를 참조하여 상세하게 설명된다.The server 110 may provide pre-produced content to the user device 120 to determine the level of concentration of the user. For example, the content may be virtual reality (VR) content. The content is described in detail with reference to FIG. 4 below.

사용자 장치는 HMD(head mounted display)(120)을 포함할 수 있고, HMD(120)에 처리 장치가 없는 경우, HMD(120)와 연결될 수 있는 사용자 단말(130)을 더 포함할 수 있다. HMD(120)는 컨텐츠가 출력되는 동안, 컨텐츠에 대해 작용하는 사용자의 반응을 측정할 수 있다. VR 컨텐츠가 HMD(120)를 통해 제공되는 경우, 사용자는 몰입감 있게 컨텐츠를 시청할 수 있다.The user device may include a head mounted display (HMD) 120, and may further include a user terminal 130 that may be connected to the HMD 120 when there is no processing device in the HMD 120. The HMD 120 may measure a user's response to the content while the content is output. When the VR content is provided through the HMD 120, the user can watch the content in an immersive manner.

일 측면에 따른, HMD(120)는 카메라를 포함하고, 카메라를 이용하여 사용자의 시선 정보를 생성할 수 있다. 예를 들어, 카메라는 적외선 카메라일 수 있고, 적외선 카메라가 사용됨으로써 HMD를 통해 내부가 밀폐되는 어두운 상황에서도 사용자의 눈(구체적으로, 눈동자)의 움직임이 감지될 수 있다.According to an aspect, the HMD 120 may include a camera and generate gaze information of a user using the camera. For example, the camera may be an infrared camera, and by using an infrared camera, the movement of the user's eye (specifically, the pupil) may be detected even in a dark situation in which the inside is sealed through the HMD.

추가적으로, HMD(120)는 뇌파 센서를 더 포함하고, 뇌파 센서를 이용하여 사용자의 뇌파 정보를 생성할 수 있다.In addition, the HMD 120 may further include an EEG sensor, and may generate EEG information of the user using the EEG sensor.

서버(110)는 사용자 장치(120)로부터 시선 정보 및 뇌파 정보를 획득하고, 이에 기초하여 사용자의 집중력의 레벨을 결정한다.The server 110 obtains gaze information and brain wave information from the user device 120, and determines the level of concentration of the user based on the gaze information and the brain wave information.

서버(110)는 시선 정보, 뇌파 정보 및 집중력의 레벨을 분석 단말(130)로 전송할 수 있다. 예를 들어, 분석 단말(130)의 사용자는 의사일 수 있고, 의사는 전송된 정보들에 기초하여 사용자에게 제공되는 컨텐츠의 내용을 조정하거나, 집중력의 레벨을 결정하는 알고리즘을 조정할 수 있다. 예를 들어, 정보들에 기초하여 의사가 진단한 집중력의 레벨에 비해, 알고리즘을 통해 결정된 집중력의 레벨이 높은 경우, 사용자(또는 의사)는 집중력의 레벨이 낮춰지도록 알고리즘을 조정할 수 있다.The server 110 may transmit the gaze information, the EEG information, and the level of concentration to the analysis terminal 130. For example, the user of the analysis terminal 130 may be a doctor, the doctor may adjust the content of the content provided to the user based on the transmitted information, or adjust the algorithm for determining the level of concentration. For example, if the level of concentration determined through the algorithm is higher than the level of concentration determined by the doctor based on the information, the user (or doctor) may adjust the algorithm to lower the level of concentration.

아래에서 도 2 내지 15를 참조하여 사용자의 집중력의 레벨을 결정하는 방법이 상세하게 설명된다.Hereinafter, a method of determining the level of concentration of the user will be described in detail with reference to FIGS. 2 to 15.

도 2는 일 실시예에 따른 서버의 구성도이다.2 is a block diagram of a server according to an exemplary embodiment.

서버(200)는 통신부(210), 프로세서(220) 및 메모리(230)를 포함한다. 예를 들어, 서버(200)는 도 1을 참조하여 전술된 서버(110)일 수 있다.The server 200 includes a communication unit 210, a processor 220, and a memory 230. For example, the server 200 may be the server 110 described above with reference to FIG. 1.

통신부(210)는 프로세서(220) 및 메모리(230)와 연결되어 데이터를 송수신한다. 통신부(210)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.The communication unit 210 is connected to the processor 220 and the memory 230 to transmit and receive data. The communication unit 210 may be connected to another external device to transmit and receive data. Hereinafter, the expression “transmitting / receiving“ A ”may refer to transmitting / receiving“ information or data indicating A ”.

통신부(210)는 서버(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(210)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(210)는 서버(200)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(210)는 인터페이스(interface)일 수 있다. 통신부(210)는 외부의 장치로부터 데이터를 수신하여, 프로세서(220) 및 메모리(230)에 데이터를 전송할 수 있다.The communication unit 210 may be implemented as a circuit in the server 200. For example, the communication unit 210 may include an internal bus and an external bus. As another example, the communication unit 210 may be an element connecting the server 200 and an external device. The communication unit 210 may be an interface. The communication unit 210 may receive data from an external device and transmit data to the processor 220 and the memory 230.

프로세서(220)는 통신부(210)가 수신한 데이터 및 메모리(230)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.The processor 220 processes data received by the communication unit 210 and data stored in the memory 230. A "processor" may be a data processing device implemented in hardware having circuitry having a physical structure for performing desired operations. For example, desired operations may include code or instructions included in a program. For example, data processing devices implemented in hardware may include a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , An application-specific integrated circuit (ASIC), and a field programmable gate array (FPGA).

프로세서(220)는 메모리(예를 들어, 메모리(230))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(220)에 의해 유발된 인스트럭션들을 실행한다.The processor 220 executes computer readable code (eg, software) stored in the memory (eg, memory 230) and instructions caused by the processor 220.

메모리(230)는 통신부(210)가 수신한 데이터 및 프로세서(220)가 처리한 데이터를 저장한다. 예를 들어, 메모리(230)는 프로그램(또는 어플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 사용자의 집중력의 레벨을 결정할 수 있도록 코딩되어 프로세서(220)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.The memory 230 stores data received by the communication unit 210 and data processed by the processor 220. For example, the memory 230 may store a program (or an application or software). The stored program may be a set of syntaxes that are coded to determine the level of concentration of the user and executable by the processor 220.

일 측면에 따르면, 메모리(230)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.According to one aspect, the memory 230 may include one or more volatile memory, nonvolatile memory and random access memory (RAM), flash memory, hard disk drive, and optical disk drive.

메모리(230)는 서버(200)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 서버(200)를 동작 시키는 명령어 세트는 프로세서(220)에 의해 실행된다.The memory 230 stores a set of instructions (eg, software) for operating the server 200. The instruction set for operating the server 200 is executed by the processor 220.

통신부(210), 프로세서(220) 및 메모리(230)에 대해, 아래에서 도 3 내지 도 14를 참조하여 상세히 설명된다.The communication unit 210, the processor 220, and the memory 230 will be described in detail with reference to FIGS. 3 to 14 below.

도 3은 일 실시예에 따른 사용자의 집중력의 레벨을 결정하는 방법의 흐름도이다.3 is a flowchart of a method of determining a level of concentration of a user according to an embodiment.

아래의 단계들(310 내지 330)은 도 2를 참조하여 전술된 서버(200)에 의해 수행된다.Steps 310 to 330 below are performed by the server 200 described above with reference to FIG.

단계(310)에서, 서버(200)는 사용자 장치를 통해 사용자에게 컨텐츠를 제공한다. 예를 들어, 사용자 장치의 HMD를 통해 사용자에게 컨텐츠가 제공될 수 있다. 사용자 장치는 컨텐츠가 사용자에게 제공되는 동안, 컨텐츠에 대한 사용자의 반응을 획득할 수 있다. 사용자의 반응은 뇌파 정보 및 시선 정보일 수 있다. 사용자의 집중력을 테스트하기 위한 다양한 컨텐츠들이 미리 제작되고, 사용자에게 제공될 수 있다In step 310, the server 200 provides content to the user through the user device. For example, content may be provided to the user through the HMD of the user device. The user device may obtain the user's response to the content while the content is provided to the user. The response of the user may be brain wave information and gaze information. Various contents for testing the concentration of the user may be pre-produced and provided to the user

도 4는 일 예에 따른 사용자의 집중력에 오브젝트가 변화하는 컨텐츠를 도시한다.4 illustrates content in which an object changes in a user's concentration according to an example.

일 측면에 따르면, 컨텐츠는 디스플레이된 오브젝트를 변화시키는 컨텐츠일 수 있다. 예를 들어, 컨텐츠는 제1 오브젝트(411) 위에 놓여진 제2 오브젝트(412)의 위치를 변화시키는 컨텐츠일 수 있다. 사용자에게 초기 제공되는 컨텐츠의 제1 상태(410)에서, 사용자는 제2 오브젝트(412)를 움직이게 하기 위해 제2 오브젝트(412)에 집중할 수 있다. 사용자의 집중은 사용자의 뇌파를 변화시키고, 사용자의 시선이 제2 오브젝트(412)를 향한다. 사용자가 집중한 것으로 결정된 경우, 제2 오브젝트(412)의 위치가 변화되는 제2 상태(420)가 제공될 수 있다. 제2 상태(420)에서 제2 오브젝트(412)의 위치는 사용자의 집중의 정도에 따라 달라질 수 있다.According to one aspect, the content may be content that changes the displayed object. For example, the content may be content that changes the position of the second object 412 placed on the first object 411. In the first state 410 of the content initially provided to the user, the user may focus on the second object 412 to move the second object 412. The concentration of the user changes the brain waves of the user, and the gaze of the user is directed toward the second object 412. If it is determined that the user has focused, a second state 420 may be provided in which the position of the second object 412 is changed. The position of the second object 412 in the second state 420 may vary depending on the degree of concentration of the user.

일 측면에 따라, 컨텐츠 내의 오브젝트의 위치가 변화하는 실시예가 도시되었으나, 다른 예로, 사용자가 날아다니는 컨텐츠, 물건을 옮기는 컨텐츠, 발화하는 컨텐츠, 오브젝트 투시 컨텐츠 등과 같이 초능력을 사용하는 컨텐츠가 고려될 수 있고, 기재된 실시예로 한정되지 않는다.According to an aspect, an embodiment of changing the position of an object in the content is illustrated, but as another example, content using super powers such as content that a user flies, content moving, speech content, and object perspective content may be considered. It is not limited to the described embodiment.

다른 일 측면에 따라, 컨텐츠는 순차 기억 컨텐츠, 숫자 기억 컨텐츠, 패턴 기억 컨텐츠, 얼굴 기억 컨텐츠 등일 수 있다. 컨텐츠에는 사용자의 기억을 방해하는 요소가 추가될 수 있다. 예를 들어, 소리, 플래시 라이트가 방해 요소로서 추가될 수 있다.According to another aspect, the content may be sequential memory content, numeric memory content, pattern memory content, face memory content, or the like. The content may be added to obstruct the user's memory. For example, sound, flash light can be added as a disturbing element.

또 다른 일 측면에 따라, 컨텐츠는 제시된 문구의 사이에 조건에 맞는 카드를 찾는 컨텐츠일 수 있다. 상기의 컨텐츠는 논리적 추론이 요구되고, 사용자의 시선 추적을 통해 사용자의 논리 추론의 개인적 패턴이 도출될 수 있다. 상기의 컨텐츠를 통해 사용자가 어려워하는 부분이 파악될 수 있고, 그에 따른 인덱스가 수립될 수 있다.According to another aspect, the content may be content that finds a card meeting a condition among the presented phrases. The above content requires logical reasoning, and a personal pattern of logical reasoning of the user may be derived through tracking the eyes of the user. Through the above contents, a portion of the user's difficulty can be identified, and an index can be established accordingly.

또 다른 일 측면에 따라, 컨텐츠는 공간 지각을 위한 컨텐츠일 수 있다. 난이도에 따라 공간의 복잡도가 증가될 수 있다.According to another aspect, the content may be content for spatial perception. Depending on the difficulty, the complexity of the space may increase.

또 다른 일 측면에 따라, 컨텐츠는 사용자에게 가상 현실을 제공하는 컨텐츠일 수 있다. 예를 들어, 컨텐츠 내의 상황이 교실 수업, 시험 시간과 같은 특별한 상황으로 설정되고, 상황 내에서 문제를 해결하는 컨텐츠가 제공될 수 있다. 설정된 상황을 통해 문제를 해결함으로써 현실에서의 적응력을 높일 수 있다.또 다른 일 측면에 따라, 컨텐츠는 퀴즈와 같이 문제를 해결하는 방식으로 사용자에게 제공될 수 있다. 예를 들어, 복수 개의 오브젝트들이 사용자에게 출력되고, 사용자에게 출력된 오브젝트들의 순서를 배열하도록 요구하는 컨텐츠가 제공될 수 있다. 사용자는 복수 개의 오브젝트들의 배열 순서를 집중하여 관찰하고, 시선에 따른 선택을 통해 오브젝트를 배열할 수 있다. 추가적으로, 시선에 따른 오브젝트의 선택은 사용자로부터 획득된 뇌파 정보를 통해 발생한다. 예를 들어, 시선이 오브젝트에 대응하더라도, 뇌파 정보를 통해 집중력 레벨이 일정 수준 이상이 되지 않으면 오브젝트의 선택은 발생하지 않을 수 있다. 퀴즈와 같은 문제를 해결하는 방식을 제공하는 컨텐츠는 기재된 실시예로 한정되지 않고, 다양한 방식으로 제작될 수 있다.According to another aspect, the content may be content that provides a virtual reality to the user. For example, a situation within the content may be set to a special situation, such as a classroom lesson or a test time, and content that solves the problem within the situation may be provided. It is possible to increase adaptability in reality by solving a problem through a set situation. According to another aspect, content may be provided to a user in a way of solving a problem such as a quiz. For example, a plurality of objects may be output to the user and content may be provided to request the user to arrange the order of the output objects. The user may concentrate and observe the arrangement order of the plurality of objects, and arrange the objects through selection according to the line of sight. In addition, the selection of the object according to the gaze occurs through the EEG information obtained from the user. For example, even if the gaze corresponds to the object, selection of the object may not occur if the concentration level does not exceed a predetermined level through the EEG information. Content providing a way of solving a problem such as a quiz is not limited to the described embodiments, but may be produced in various ways.

사용자는 HMD를 통해 출력되는 오브젝트들만 시청하므로, 컨텐츠 이외의 다른 외부 환경에 영향을 덜 받을 수 있다. 또한, 컨텐츠가 1인칭 시점으로 제작되므로 사용자의 체감도 및 몰입도가 향상된다.Since the user views only objects output through the HMD, the user may be less affected by external environments other than the content. In addition, since the content is produced in the first-person view, the user's feeling and immersion are improved.

다시 도 3을 참조하면, 단계(320)에서, 서버(200)는 사용자의 뇌파 정보 및 시선 정보를 획득한다. 예를 들어, 서버(200)는 사용자 장치가 생성한 뇌파 정보 및 시선 정보를 사용자 장치로부터 수신할 수 있다. 사용자의 뇌파 정보 및 시선 정보를 획득하는 방법에 대해, 아래에서 도 5 내지 도 8을 참조하여 상세히 설명된다.Referring back to FIG. 3, in step 320, the server 200 acquires brain wave information and gaze information of the user. For example, the server 200 may receive brain wave information and gaze information generated by the user device from the user device. A method of obtaining brain wave information and gaze information of a user will be described in detail with reference to FIGS. 5 to 8 below.

도 5는 일 예에 따른 오브젝트의 변화에 기초하여 뇌파 정보 및 시선 정보를 획득하는 방법의 흐름도이다. 일 측면에 따르면, 단계(320)는 아래의 단계들(510 및 520)을 포함할 수 있다.5 is a flowchart illustrating a method of acquiring EEG information and gaze information based on a change of an object according to an example. According to one aspect, step 320 may include steps 510 and 520 below.

단계(510)에서, 서버(200)는 뇌파 정보 및 시선 정보에 기초하여 컨텐츠 내의 오브젝트를 변화시킬 수 있다. 획득된 뇌파 정보 및 시선 정보가 컨텐츠에 대해 미리 설정된 조건들에 부합하는 경우, 그 정도에 따라 오브젝트가 변화될 수 있다. 오브젝트를 변화시키는 방법에 대해, 아래에서 도 6을 참조하여 상세히 설명된다.In operation 510, the server 200 may change an object in the content based on the EEG information and the gaze information. When the acquired EEG information and the gaze information satisfy the conditions preset for the content, the object may change according to the degree. A method of changing an object is described in detail with reference to FIG. 6 below.

다른 일 측면에 따르면, 사용자의 시선이 대응하는 오브젝트가 컨텐츠의 미리 설정된 위치(예를 들어, 출력되는 컨텐츠의 화면의 중앙)에 위치하도록 컨텐츠가 제공될 수 있다. 즉, 화면에 출력된 오브젝트들이 복수 개이고, 사용자가 복수의 오브젝트들 중 제1 오브젝트에 시선을 집중하는 경우, 제1 오브젝트가 화면의 중앙에 출력되도록 컨텐츠의 화면이 변형될 수 있다. 즉, 사용자의 시선에 따라 컨텐츠의 화면이 다르게 렌더링될 수 있다.According to another aspect, the content may be provided such that an object corresponding to the user's gaze is located at a preset position of the content (for example, the center of the screen of the outputted content). That is, when there are a plurality of objects output on the screen, and the user focuses the gaze on the first object of the plurality of objects, the screen of the content may be modified so that the first object is output at the center of the screen. That is, the screen of the content may be rendered differently according to the eyes of the user.

단계(520)에서, 서버(200)는 오브젝트의 변화가 미리 설정된 변화에 대응하는 경우 컨텐츠의 제공을 중단한다. 예를 들어, 오브젝트가 미리 설정된 위치로 이동한 경우, 컨텐츠가 종료될 수 있다. 사용자가 빠르고, 강하게 집중할수록 컨텐츠가 빨리 종료될 수 있다. 컨텐츠의 제공 시간이 사용자의 집중력 레벨을 결정하기 위해 이용될 수 있다.In operation 520, the server 200 stops providing content when the change of the object corresponds to a preset change. For example, when the object moves to a preset position, the content may be terminated. The faster and more intensely focused the user is, the faster content can be terminated. The presentation time of the content may be used to determine the concentration level of the user.

도시되지는 않았지만, 단계(320)는 오브젝트의 변화가 미리 설정된 변화에 대응하지 않더라도 컨텐츠에 대해 미리 설정된 타이머가 종료되는 경우 컨텐츠의 제공을 중단할 수 있다. 즉, 시간 내에 컨텐츠의 목표에 도달하지 못한 경우 컨텐츠가 종료될 수 있다.Although not shown, step 320 may stop providing the content when the preset timer for the content expires even if the change of the object does not correspond to the preset change. That is, the content may be terminated when the goal of the content is not reached within the time.

도 6은 일 예에 따른 시선 정보에 기초하여 컨텐츠 내의 오브젝트를 변화시키는 방법의 흐름도이다. 일 측면에 따르면, 단계(510)는 아래의 단계들(610 및 620)을 포함할 수 있다.6 is a flowchart of a method of changing an object in content based on eye gaze information according to an example. According to one aspect, step 510 may include steps 610 and 620 below.

단계(610)에서, 서버(200)는 시선 정보에 기초하여 사용자의 시선이 컨텐츠의 복수의 오브젝트들 중 오브젝트에 대응하는지 여부를 결정한다. 도 4의 예에서, 사용자의 시선이 복수의 오브젝트들(411 및 412) 중 제2 오브젝트(412)에 대응하는지가 결정될 수 있다. 시선 정보에 기초하여 사용자의 시선이 컨텐츠의 복수의 오브젝트들 중 오브젝트에 대응하는지 여부를 결정하는 방법에 대해 아래에서 도 7을 참조하여 상세히 설명된다.In operation 610, the server 200 determines whether the user's gaze corresponds to an object among a plurality of objects of the content based on the gaze information. In the example of FIG. 4, it may be determined whether a user's gaze corresponds to the second object 412 of the plurality of objects 411 and 412. A method of determining whether a user's gaze corresponds to an object among a plurality of objects of content based on the gaze information will be described in detail with reference to FIG. 7 below.

단계(620)에서, 서버(200)는 시선이 오브젝트에 대응하는 경우 오브젝트를 변화시킨다. 예를 들어, 시선이 오브젝트에 대응하고, 뇌파 정보에 기초하여 사용자가 집중한 것으로 결정된 경우 오브젝트가 변화될 수 있다.In operation 620, the server 200 changes the object when the gaze corresponds to the object. For example, the object may be changed when the gaze corresponds to the object and it is determined that the user concentrates based on the brain wave information.

도 7은 일 예에 따른 컨텐츠를 시청하는 사용자의 시선 정보를 나타낸다.7 illustrates gaze information of a user who views content according to an example.

예를 들어, 시선 정보(710)는 컨텐츠를 시청하는 사용자의 게이즈 플랏(gaze plot) 또는 히트 맵(heat map)일 수 있다. 게이즈 플랏(gaze plot)은 컨텐츠의 특정 위치에서 머무른 시선의 위치, 수선, 시간 등을 나타낼 수 있다. 시간은 원의 크기로 나타날 수 있다. 히트 맵은 컨텐츠의 시선이 어떻게 분포하는지가 나타날 수 있다.For example, the gaze information 710 may be a gaze plot or heat map of a user who views content. The gaze plot may indicate the position of the gaze stayed at a specific position of the content, repair, time, and the like. Time can be represented by the size of a circle. The heat map may indicate how the gaze of the content is distributed.

예를 들어, 사용자가 복수의 오브젝트들 중 타겟 오브젝트(712)에 시선을 집중하는 경우, 타겟 오브젝트(712)를 중심으로 기록들(713)이 집중될 수 있다. 기록들(713)의 집중도가 미리 설정된 값 이상인 경우, 사용자의 시선이 타겟 오브젝트(712)에 대응하는 것으로 결정될 수 있다.For example, when the user focuses the gaze on the target object 712 of the plurality of objects, the records 713 may be concentrated around the target object 712. When the concentration of the records 713 is equal to or greater than a preset value, the gaze of the user may be determined to correspond to the target object 712.

도 8은 일 예에 따른 뇌파 정보 및 뇌파 정보에 기초하여 복수의 주파수 대역들의 분할된 뇌파 신호들을 도시한다.8 illustrates divided EEG signals of a plurality of frequency bands based on EEG information and EEG information according to an example.

사용자 장치의 뇌파 센서를 통해 생성된 뇌파 정보(810)는 아날로그 신호일 수 있다. 뇌파의 특징을 추출하기 위해서는 뇌파 정보(810)의 처리가 필요하다. 예를 들어, 뇌파 정보(810)를 푸리에 변환(Fourier transform)함으로써 복수의 주파수 대역들로 뇌파 신호들(820)이 분할될 수 있다.The EEG information 810 generated by the EEG sensor of the user device may be an analog signal. In order to extract the features of the EEG, processing of the EEG information 810 is required. For example, the EEG signals 820 may be divided into a plurality of frequency bands by Fourier transforming the EEG information 810.

뇌파의 특징은 특정 주파수에서 나타나는 성분(또는 파워(power))의 크기로 나타날 수 있다. 1 ~ 4 Hz의 주파수 대역은 델타(δ) 유형이고, 수면(sleeping), 휴식(repair), 복잡한 문제가 해결된 시(complex problem solving)에 나타나는 특징일 수 있다. 4 ~ 8 Hz의 주파수 대역은 쎄타(θ) 유형이고, 창의성(creativity), 인싸이트(insight), 깊은 상태(deep states) 시에 나타나는 특징일 수 있다. 8 ~ 12 Hz의 주파수 대역은 알파(α) 유형이고, 명상(meditation) 시에 나타나는 특징일 수 있다. 13 ~ 21 Hz의 주파수 대역은 베타(β) 유형이고, 생각(thinking), 집중(focusing) 시에 나타나는 특징일 수 있다. 12 ~ 15 Hz의 주파수 대역은 SMR 유형이고, 정신적 조심성(mental alertness), 육체적 긴장이완(physical relaxation) 시에 나타내는 특징일 수 있다. 20 ~ 32 Hz의 주파수 대역은 감마(γ) 유형이고, 인지적 처리(Cognitive processing), 배움(learning) 시에 나타나는 특징일 수 있다.An EEG characteristic can be expressed by the magnitude of the component (or power) that appears at a particular frequency. The frequency band of 1 to 4 Hz is of delta type and may be a characteristic of sleeping, repairing, and complex problem solving. The frequency band of 4 to 8 Hz is theta type and may be a feature that appears in creativity, insight, and deep states. The frequency band of 8 to 12 Hz is of alpha type and may be a feature that appears during meditation. The frequency band of 13 to 21 Hz is a beta (β) type and may be a feature that appears when thinning and focusing. The frequency band of 12-15 Hz is of SMR type and may be a characteristic manifested in mental alertness, physical relaxation. The frequency band of 20 to 32 Hz is a gamma (γ) type and may be a feature that appears during cognitive processing and learning.

일 실시예에 따른, 뇌파 집중력 지표가 아래의 [수학식 1]로 계산될 수 있다.According to an embodiment, the EEG concentration index may be calculated by Equation 1 below.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

[수학식 1]에서, T는 집중력 지표이고, SMR은 뇌파 신호들(820) 중 SMR 유형에 대한 성분의 크기, β는 베타 유형에 대한 성분의 크기, 쎄타 유형에 대한 성분의 크기일 수 있다.In Equation 1, T is an concentration indicator, SMR may be the size of the component for the SMR type of the EEG signals 820, β may be the size of the component for the beta type, the size of the component for theta type .

사용자에게 컨텐츠가 제공되는 집중력 지표가 실시간적으로 계산될 수 있고, 집중력 지표에 따라 컨텐츠 내의 오브젝트가 변화될 수 있다. 예를 들어, 집중력 지표가 큰 경우, 오브젝트가 크게 변화될 수 있다. 집중력 지표가 미리 설정된 값 이상인 경우, 컨텐츠의 목표가 달성되고, 컨텐츠가 종료될 수 있다.The concentration index for providing the content to the user may be calculated in real time, and the object in the content may change according to the concentration index. For example, when the concentration indicator is large, the object may change greatly. When the concentration indicator is greater than or equal to a preset value, the goal of the content is achieved, and the content may end.

도 9는 일 예에 따른 사용자에게 제2 컨텐츠를 제공하고, 사용자의 제2 뇌파 및 제2 시선 정보를 획득하는 방법의 흐름도이다.9 is a flowchart illustrating a method of providing second content to a user and obtaining second brain wave and second gaze information of the user, according to an exemplary embodiment.

일 측면에 따르면, 아래의 단계들(910 및 920)는 도 3을 참조하여 전술된 단계(320)가 수행된 후 추가로 수행될 수 있다.According to one aspect, steps 910 and 920 below may be further performed after step 320 described above with reference to FIG. 3 is performed.

단계(910)에서, 서버(200)는 제1 컨텐츠의 제공이 중단(또는 종료)된 경우 사용자에게 제2 컨텐츠를 제공한다. 예를 들어, 제2 컨텐츠는 제1 컨텐츠와 동일한 유형일 수 있다. 다른 예로, 제2 컨텐츠는 제1 컨텐츠와 상이한 유형일 수 있다. 제1 컨텐츠 및 제2 컨텐츠는 도 4를 참조하여 설명된 컨텐츠들일 수 있으나, 기재된 실시예로 한정되지 않는다.In operation 910, when the provision of the first content is stopped (or terminated), the server 200 provides the second content to the user. For example, the second content may be the same type as the first content. As another example, the second content may be of a different type from the first content. The first content and the second content may be contents described with reference to FIG. 4, but are not limited to the described embodiment.

단계(920)에서, 서버(200)는 사용자의 제2 뇌파 정보 및 제2 시선 정보를 획득한다.In operation 920, the server 200 acquires second brain wave information and second gaze information of the user.

도시되지는 않았으나, 일 예에 따르면, 제2 컨텐츠의 제공이 중단된 경우에도 추가적인 컨텐츠들이 연속적으로 제공될 수 있다. 사용자의 집중력의 레벨을 결정하기 위해 필요한 개수의 컨텐츠들이 제공될 수 있다.Although not shown, according to an example, additional contents may be continuously provided even when the provision of the second contents is stopped. The required number of contents may be provided to determine the level of concentration of the user.

다시 도 3을 참조하면, 단계(330)에서, 서버(200)는 뇌파 정보 및 시선 정보에 기초하여 사용자의 집중력 레벨을 결정한다. 뇌파 정보 및 시선 정보에 기초하여 사용자의 집중력 레벨을 결정하는 방법에 대해, 아래에서 도 10 내지 14를 참조하여 상세히 설명된다.Referring back to FIG. 3, in step 330, the server 200 determines the concentration level of the user based on the EEG information and the gaze information. A method of determining the concentration level of the user based on the EEG information and the gaze information will be described in detail with reference to FIGS. 10 to 14 below.

일 측면에 따르면, 미리 설정된 복수의 레벨들 중 어느 하나의 레벨이 결정될 수 있다. 예를 들어, 복수의 레벨들은 중증 ADHD 환자 레벨, 경증 ADHD 환자 레벨, 주의 레벨, 및 정상 레벨을 포함할 수 있고, 기재된 실시예로 한정되지 않는다.According to an aspect, any one level among a plurality of preset levels may be determined. For example, the plurality of levels may include severe ADHD patient level, mild ADHD patient level, attention level, and normal level, and are not limited to the described embodiments.

결정된 집중력 레벨에 따라 사용자의 현재 상태를 판단할 수 있으며, 사용자가 반복적으로 컨텐츠를 이용하는 경우, 집중력 레벨이 좋은 방향으로 향상될 수 있다. 즉, 사용자는 제공되는 컨텐츠를 통해 집중력을 훈련할 수 있다.The current state of the user may be determined according to the determined concentration level, and when the user repeatedly uses the content, the concentration level may be improved in a good direction. In other words, the user can train the concentration through the provided content.

도 10은 일 예에 따른 뇌파 신호들에 기초하여 집중력 레벨을 계산하는 방법의 흐름도이다.10 is a flowchart of a method of calculating a concentration level based on brain wave signals according to an example.

일 측면에 따르면, 도 3을 참조하여 전술된 단계(330)는 아래의 단계들(1010 및 1020)을 포함할 수 있다.According to one aspect, step 330 described above with reference to FIG. 3 may include steps 1010 and 1020 below.

단계(1010)에서, 서버(200)는 뇌파 정보를 복수의 주파수 대역들의 뇌파 신호들로 분할한다. 예를 들어, 도 8을 참조하여 설명된 바와 같이, 뇌파 정보(810)를 푸리에 변환함으로써 복수의 주파수 대역들로 뇌파 신호들(820)이 분할될 수 있다.In step 1010, the server 200 divides the EEG information into the EEG signals of the plurality of frequency bands. For example, as described with reference to FIG. 8, the EEG signals 820 may be divided into a plurality of frequency bands by Fourier transforming the EEG information 810.

단계(1020)에서, 서버(200)는 뇌파 신호들 중 타겟 뇌파 신호에 기초하여 집중력 레벨을 계산한다. 예를 들어, 타겟 뇌파 신호는 도 8을 참조하여 전술된 뇌파 신호들(820) 중 SMR 유형, 베타 유형 및 쎄타 유형을 포함할 수 있다.In operation 1020, the server 200 calculates a concentration level based on the target EEG signal among the EEG signals. For example, the target EEG signal may include an SMR type, a beta type, and theta type among the EEG signals 820 described above with reference to FIG. 8.

일 측면에 따르면, 타겟 뇌파 신호에 기초하여 미리 설정된 복수의 레벨들 중 어느 하나의 레벨이 결정될 수 있다. 예를 들어, 복수의 레벨들은 중증 ADHD 환자 레벨, 경도 ADHD 환자 레벨, 주의 레벨, 및 정상 레벨을 포함할 수 있고, 기재된 실시예로 한정되지 않는다.According to an aspect, any one level among a plurality of preset levels may be determined based on the target EEG signal. For example, the plurality of levels may include severe ADHD patient level, mild ADHD patient level, attention level, and normal level, and are not limited to the described embodiments.

일 실시예에 따르면, 집중력 레벨은 집중력 레벨을 계산하기 위해 미리 훈련된 신경망 또는 알고리즘을 통해 계산될 수 있다. 예를 들어, 집중력 레벨을 계산하기 위해 가중 퍼지 소속함수 기반 심층 신경망(Neural Network with Weighted Fuzzy Membership Function: NEWFM)이 이용될 수 있다. NEWFM는 제1 뇌파 정보 및 제1 시선 정보 중 적어도 하나를 입력으로 하여 집중력 레벨을 출력으로서 계산할 수 있다. NEWFM은 제1 뇌파 정보 및 제1 시선 정보 중 적어도 하나를 수신한 경우, 타카기-수게노 역 퍼지 값들(takagi-sugeno defuzzification values), 타카기-수게노 역 퍼지 값들의 클래스를 분류한 결과 및 가중 퍼지 소속함수를 출력함으로써 집중력 레벨을 계산할 수 있다.According to one embodiment, the concentration level may be calculated through a neural network or algorithm that has been previously trained to calculate the concentration level. For example, a Neural Network with Weighted Fuzzy Membership Function (NEWFM) may be used to calculate the concentration level. The NEWFM can calculate the concentration level as an output by using at least one of the first brain wave information and the first gaze information as an input. When NEWFM receives at least one of the first EEG information and the first gaze information, the result of classifying the Takagi-Sugeno defuzzification values, the class of Takagi-Sugeno inverse fuzzy values, and The concentration level can be calculated by outputting the weighted fuzzy membership function.

NEWFM를 통한 클래스 분류 방법 및 NEWFM의 구조에 대해 아래에서 도 11 내지 도 14를 참조하여 상세히 설명된다.The class classification method through NEWFM and the structure of NEWFM are described in detail with reference to FIGS. 11 to 14 below.

도 11은 일 예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법의 흐름도이다.11 is a flowchart illustrating a class classification method using a weighted fuzzy membership function based deep neural network, according to an embodiment.

일 측면에 따르면, 도 10을 참조하여 전술된 단계(1020)는 아래의 단계들(1110 내지 1160)을 포함할 수 있다. 즉, 단계들(1110 내지 1160)이 수행됨으로써 단계(1020)가 수행될 수 있다.According to one aspect, step 1020 described above with reference to FIG. 10 may include steps 1110 to 1160 below. That is, step 1020 may be performed by performing steps 1110 to 1160.

단계(1110)에서, 서버(200)는 입력 데이터들을 NEWFM에 입력한다. 예를 들어, 입력 데이터들은 타겟 뇌파 신호들을 포함할 수 있다. 또한, 입력 데이터들은 시선 정보를 더 포함할 수 있다.In step 1110, the server 200 inputs input data into the NEWFM. For example, the input data can include target EEG signals. In addition, the input data may further include gaze information.

NEWFM은 n개의 입력 데이터들을 수신하고, 입력 데이터들에 대한 타카기-수게노 역퍼지 값들(takagi-sugeno defuzzification values), 타카기-수게노 역 퍼지값들의 클래스를 분류한 결과 및 가중 퍼지 소속함수를 출력한다. 예를 들어, 입력 데이터들 I1 내지 I10이 NEWFM에 입력되면, NEWFM의 출력 결과로 분류한 I1 내지 I10의 클래스, I1 내지 I10에 대한 타카기-수게노 역 퍼지 값들 및 가중 퍼지 소속함수를 출력한다.NEWFM receives n input data, classifies Takagi-Sugeno defuzzification values, Takagi-Sugeno inverse fuzzy values for the input data, and weighted fuzzy membership function. Outputs For example, the input data of the I 1 to I 10 a is input to the NEWFM, of I 1 to I 10 classified in the output of NEWFM class, Takagi for I 1 to I 10 - can halogeno station fuzzy values and weighting Output the fuzzy membership function.

단계(1120)에서, 서버(200)는 출력 데이터들을 복수의 그룹들로 분류한다.In operation 1120, the server 200 classifies the output data into a plurality of groups.

서버(200)는 입력 데이터들의 레코드들의 클래스와 단계(1110)의 결과로 출력된 출력 데이터들의 레코드들의 클래스들을 비교하여, 출력 데이터들을 복수의 그룹들로 분류한다. 출력 데이터들 즉, 출력된 타카기-수게노 퍼지 값들에 대해 분류된 클래스가 대응되는 입력 데이터들의 레코드들의 클래스와 일치하는지 여부에 따라서 출력 데이터들이 제1 및 제2 그룹으로 분류될 수 있다. 여기서, 출력 데이터들은 입력 데이터들에 대응되는 타카기-수게노 역 퍼지 값들이며, 출력 데이터들의 레코드들의 클래스는 NEWFM의 학습과정에서 입력 데이터들의 레코드들에 기반하여 출력된 타카기-수게노 역 퍼지 값들의 클래스를 분류한 결과이다. 예를 들어, 입력 데이터들 I1 내지 I10 중 I1 및 I10의 레코드들의 클래스가 출력 데이터들 중 I1 및 I10에 대응되는 출력 데이터들의 레코드들의 클래스와 상이한 경우, I1 및 I10은 제1 그룹으로 분류되고, I2 내지 I9는 제2 그룹으로 분류될 수 있다. 즉, 제1 그룹은 출력 데이터들의 레코드들의 클래스들 중 레코드의 클래스가 대응되는 입력 데이터들의 각 레코드의 클래스와 상이한 그룹이고, 제2 그룹은 출력 데이터들의 레코드들 중 레코드의 클래스가 대응되는 입력 데이터들의 레코드의 클래스와 동일한 그룹일 수 있다.The server 200 compares the class of records of the input data with the classes of the records of the output data output as a result of step 1110, and classifies the output data into a plurality of groups. The output data may be classified into the first and second groups according to whether the class classified for the output data, that is, the output Takagi-Sugeno fuzzy values matches the class of records of the corresponding input data. Here, the output data are the Takagi-Sugeno inverse fuzzy values corresponding to the input data, and the class of the records of the output data is the Takagi-Sugeno inverse fuzzy output based on the records of the input data in the learning process of NEWFM. The result of classifying a class of values. For example, if the class of records of I 1 and I 10 of the input data I 1 to I 10 is different from the class of records of output data corresponding to I 1 and I 10 of the output data, I 1 and I 10. Are classified into a first group, and I 2 to I 9 may be classified into a second group. That is, the first group is a group different from the class of each record of the input data to which the class of the record corresponds among the classes of records of the output data, and the second group is the input data to which the class of the record among the records of the output data corresponds. Can be the same group as the class of the record.

단계(1130)에서, 서버(200)는 복수의 그룹들에 포함된 출력 데이터들을 NEWFM에 입력한다. 복수의 그룹들에 포함된 출력 데이터들이 그룹별로 각각 NEWFM들에 입력함으로써, 각 그룹에 대응되는 가중 퍼지 소속함수들이 출력될 수 있다.In operation 1130, the server 200 inputs output data included in the plurality of groups into the NEWFM. Since output data included in the plurality of groups is inputted to the NEWFMs for each group, the weighted fuzzy membership functions corresponding to each group may be output.

단계(1130)에서 제1 및 제2 그룹에 포함된 출력 데이터들이 입력되는 NEWFM은, 단계(1110)에서 입력 데이터들이 입력되는 NEWFM과 동일하지만, NEWFM에 입력되는 데이터들이 입력 데이터들 및 출력 데이터들의 그룹들로 각각 상이하기 때문에 출력되는 결과들이 동일하지 않다.The NEWFM to which the output data included in the first and second groups are input in step 1130 is the same as the NEWFM to which the input data are input in step 1110, but the data input to the NEWFM is the input data and the output data. Because the results are different in groups, the output results are not the same.

단계(1140)에서, 서버(200)는 입력 데이터들의 레코드들의 클래스 분류의 정확도를 산출한다.In step 1140, server 200 calculates the accuracy of class classification of records of input data.

단계(1130)의 결과로 제1 및 제2 그룹 각각에 대한 가중 퍼지 소속함수들이 출력되고, 출력된 가중 퍼지 소속함수들에 대해 단계(1110)의 입력 데이터들을 대응시킴으로써, 입력 데이터들에 대한 클래스들이 분류될 수 있다.As a result of step 1130, the weighted fuzzy membership functions for each of the first and second groups are output, and by matching the input data of step 1110 with the output weighted fuzzy membership functions, the class for the input data. Can be classified.

분류된 입력 데이터들의 레코드들의 클래스들과 입력 데이터들의 실제 클래스들을 비교함으로써 분류된 입력 데이터들의 레코드들에 대한 클래스들의 정확도가 산출될 수 있다. 예를 들어, 입력 데이터들 I1 내지 I10의 레코드들의 클래스들과 단계(1130)의 결과로 출력된 I1 내지 I10에 대해 분류된 레코드들의 클래스들을 비교한 결과가 제1 정확도로 산출될 수 있다.By comparing the classes of records of the sorted input data with the actual classes of the input data, the accuracy of the classes for the records of the sorted input data can be calculated. For example, a result of comparing classes of records of input data I 1 to I 10 with classes of records classified for I 1 to I 10 output as a result of step 1130 may be calculated with a first accuracy. Can be.

단계(1150)에서, 서버(200)는 입력 데이터들 및 복수의 그룹들에 대응되는 NEWFM들 각각에서 출력된 가중 퍼지 소속함수들을 출력한다. 즉, 서버(200)는 단계(1140) 이후, 단계(1110)에서의 입력에 따라 NEWFM에서 출력된 가중 퍼지 소속함수 및 단계(1130)에서의 그룹들에 대응되는 NEWFM들 각각에서 출력된 가중 퍼지 소속함수들을 출력한다. 예를 들어, 출력된 각 가중 퍼지 소속함수는 새로운 데이터들이 입력되는 경우, 각 단계별 함수로 이용되어 새로운 데이터들의 레코드들의 클래스를 높은 정확도로 분류할 수 있다.In operation 1150, the server 200 outputs the weighted fuzzy membership functions output from each of the input data and the NEWFMs corresponding to the plurality of groups. That is, after step 1140, the server 200 performs the weighted fuzzy membership function output from the NEWFM according to the input in step 1110 and the weighted fuzzy output from each of the NEWFMs corresponding to the groups in step 1130. Print membership functions. For example, each weighted fuzzy membership function output may be used as a step function when new data is input to classify the class of records of the new data with high accuracy.

단계(1150)가 반복 수행되는 경우, 단계(1150)의 결과로 산출된 정확도, 즉, 가장 마지막으로 산출된 정확도가 직전에 산출된 정확도와 동일한 경우에는 가장 마지막으로 산출된 정확도가 입력 데이터들에 대한 최종 정확도이므로, 이 최종 정확도가 출력될 수 있다.When step 1150 is repeatedly performed, if the accuracy calculated as a result of step 1150, that is, the last calculated accuracy is equal to the last calculated accuracy, the last calculated accuracy is applied to the input data. This final accuracy can be output, since

단계(1160)에서, 서버(200)는 단계(1150)에서 산출된 정확도가 기설정된 조건을 만족하는 경우, 단계(1130)의 결과로 출력된 출력 데이터들을 입력 데이터들로 정의한다. 정의된 입력 데이터가 다시 단계(1110)로 입력됨으로써 단계들(1110 내지 1150)이 반복 수행될 수 있다.In operation 1160, when the accuracy calculated in operation 1150 satisfies a preset condition, the server 200 defines output data output as a result of operation 1130 as input data. Steps 1110 to 1150 may be repeatedly performed by inputting the defined input data back to step 1110.

단계(1160)는 입력 데이터들의 레코드들의 클래스 분류의 정확도를 높이기 위한 단계로서, 단계(1140)에서 산출된 정확도가 가장 높아질 때까지 반복하여 수행될 수 있다.Step 1160 is to increase the accuracy of class classification of records of the input data, and may be repeatedly performed until the accuracy calculated in step 1140 is the highest.

단계(1160)는 단계(1140)에서 정확도를 산출하기 이전에 정확도가 산출된 적이 없는 경우, 또는 단계(1150)의 결과로 산출된 입력 데이터들의 레코드들의 클래스 분류에 대한 정확도가 직전에 산출된 정확도 미만인 경우에 수행될 수 있다. 예를 들어, 단계(1140)를 통해 입력 데이터들 I1 내지 I10의 레코드들의 클래스 분류에 대한 제1차 정확도가 산출되었다면, 제1차 정확도를 산출하기 이전에 정확도가 산출된 적이 없는 경우이므로, 단계(1130)의 결과로 산출된 타카기-수게노 역 퍼지 값들을 입력 데이터들로 취급하여, 단계들(1110 내지 1150)가 수행될 수 있다.Step 1160 is the accuracy of which the accuracy has not been calculated before calculating the accuracy in step 1140, or the accuracy of the class classification of the records of the input data calculated as a result of step 1150 immediately before the calculation. If less than. For example, if the first order accuracy for class classification of the records of the input data I 1 to I 10 is calculated through step 1140, since the accuracy has not been calculated before calculating the first order accuracy, Steps 1110 to 1150 may be performed by treating the Takagi-Sugeno inverse purge values calculated as a result of step 1130 as input data.

또한, 단계(1160)를 통해 산출된 제2차 정확도가 제1차 정확도를 초과하더라도, 산출된 제2차 정확도가 가장 높은 정확도인지 여부는 모르는 상태이기 때문에, 제3차 정확도를 산출하기 위하여 단계들(1110 내지 1150)이 다시 수행될 수 있다.In addition, even if the second degree of accuracy calculated through step 1160 exceeds the first degree of accuracy, it is not known whether the calculated second degree of accuracy is the highest accuracy. 1110 to 1150 may be performed again.

만일, 산출된 제3차 정확도가 제2차 정확도가 동일한 경우, 제2차 및 제3차 정확도가 가장 높은 정확도로 간주되고, 제3차 정확도가 입력 데이터들의 레코드들에 대한 클래스 분류의 최종 정확도로서 출력될 수 있다.If the calculated third degree of accuracy is the same as the second degree of accuracy, the second and third degree of accuracy are regarded as the highest accuracy, and the third degree of accuracy is the final accuracy of class classification for the records of the input data. Can be output as

예를 들어, 실제 ADHD 환자의 뇌파 정보(더욱 구체적으로, 타겟 뇌파 신호들)을 NEWFM을 이용한 클래스 분류 방법의 입력 데이터들로 사용하여, 가중 퍼지 소속함수들이 추출될 경우, 추출된 가중 퍼지 소속함수들은 ADHD 환자에 대한 뇌파 정보에 대해서는 높은 정확도를 가지고 있는 함수들이므로, 클래스가 정의되지 않은 ADHD 환자에 대한 뇌파 정보의 클래스를 분류하기 위한 함수들로써 이용될 수 있다.For example, when the weighted fuzzy membership functions are extracted using the EEG information (more specifically, target EEG signals) of the actual ADHD patient as input data of the class classification method using NEWFM, the extracted weighted fuzzy membership function is extracted. Since these are functions having high accuracy with respect to EEG information for ADHD patients, they can be used as functions for classifying classes of EEG information for ADHD patients whose classes are not defined.

도 12 및 14는 일 예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 도시한다.12 and 14 illustrate a weighted fuzzy membership function based deep neural network according to an example.

구체적으로, 도 12는 일 예에 따른 NEWFM을 이용한 클래스 분류 방법의 전체적인 흐름도를 간략히 도시하고, 도 13은 제1차 단계들(1110 내지 1130)의 흐름도를 도시하고, 도 14는 단계(1140)의 흐름도를 도시한다.Specifically, FIG. 12 briefly illustrates an overall flowchart of a class classification method using NEWFM according to an example, FIG. 13 illustrates a flowchart of first steps 1110 to 1130, and FIG. 14 illustrates step 1140. Shows a flow chart of.

아래의 [표 1]은 입력 데이터들(1201)의 값들 및 클래스를 나타내고, [표 2]는 NEWFM(1203)을 통해 출력된 타카기-수게노 역 퍼지 값들에 대한 클래스를 나타내고, [표 3]은 제1 그룹(1205)에 포함된 타카기-수게노 역 퍼지 값들을 나타내고, [표 4]는 제2 그룹(1207)에 포함된 타카기-수게노 역 퍼지 값들을 나타낸다.Table 1 below shows the values and class of input data 1201, Table 2 shows the class for Takagi-Sugeno inverse fuzzy values output via NEWFM 1203, and Table 3 ] Shows the Takagi-Sugeno inverse purge values included in the first group 1205, and [Table 4] shows the Takagi-Sugeno inverse purge values included in the second group 1207.

input 1input 1 input 2input 2 ...... classclass 1One 1111 1One 22 1212 1One 33 1313 22 44 1414 1One 55 1515 22 66 1616 22 77 1717 1One 88 1818 1One 99 1919 1One 1010 2020 22

1One 22 1One 1One 22 1One 1One 22 1One 1One

input 1input 1 input 2input 2 ...... classclass 22 1212 1One 33 1313 22 66 1616 22 88 1818 1One 1010 2020 22

input 1input 1 input 2input 2 ...... classclass 1One 1111 1One 44 1414 1One 55 1515 22 77 1717 1One 99 1919 1One

도 12 내지 14 및 [표 1] 내지 [표 4]를 참조하면, 입력 데이터들(1201)이 NEWFM(1203)에 입력된다.12 to 14 and Tables 1 to 4, input data 1201 is input to the NEWFM 1203.

NEWFM(1203)은 입력 데이터들(1201 및 [표 1])에 대응되는 타카기-수게노 역 퍼지 값들, 타카기-수게노 역 퍼지 값들의 레코드별 클래스 분류 결과([표 2]) 및 가중 퍼지 소속함수를 출력할 수 있다.The NEWFM 1203 is a weighted class classification result of the Takagi-Sugeno inverse fuzzy values, Takagi-Sugeno inverse fuzzy values corresponding to the input data 1201 and [Table 1], and the weighting. Output fuzzy membership function.

레코드별 클래스 분류 결과([표 2])와 입력 데이터들(1201 및 [표 1])의 클래스를 비교한 결과, 입력 데이터들(1201 및 [표 1])에 대한 클래스와 상이한 클래스로 분류된 타카기-수게노 역 퍼지 값들은 제1 그룹(1205 및 [표 3])으로 분류되고, 입력 데이터들(1201 및 [표 1])에 대한 클래스와 상이한 클래스로 분류된 타카기-수게노 역 퍼지 값들은 제2 그룹(1207 및 [표 4])으로 분류된다.As a result of comparing the class classification result by record ([Table 2]) and the class of the input data 1201 and [Table 1], it was classified into a class different from the class for the input data 1201 and [Table 1]. Takagi-Sugeno inverse fuzzy values are classified into a first group 1205 and [Table 3] and classified into a class different from the class for input data 1201 and [Table 1]. Fuzzy values are classified into a second group 1207 and Table 4.

예를 들어, 입력 데이터들(1201 및 [표 1])의 첫 번째 레코드의 실제 클래스와 타카기-수게노 역 퍼지 값들의 첫 번째 레코드의 분류된 클래스가 동일하므로, 타키기-수게노 역 퍼지 값들의 첫 번째 레코드는 제2 그룹(1207 및 [표 4])으로 분류될 수 있다.For example, since the actual class of the first record of input data 1201 and [Table 1] and the classified class of the first record of Takagi-Sugeno inverse fuzzy values are the same, the Takagi-Sugeno inverse fuzzy The first record of values may be classified into a second group 1207 and Table 4.

다만, 입력 데이터들(1201 및 [표 1])의 두 번째 레코드의 실제 클래스와 타카기-수게노 역 퍼지 값들의 두 번째 레코드의 분류된 클래스가 상이하므로, 타키기-수게노 역 퍼지 값들의 두 번째 레코드는 제1 그룹(1207 및 [표 4])으로 분류될 수 있다.However, since the actual class of the second record of the input data 1201 and [Table 1] differs from the classified class of the second record of the Takagi-Sugeno inverse fuzzy values, the Taggi-Sugeno inverse fuzzy values of The second record may be classified into the first group 1207 and Table 4.

제1 그룹(1205 및 [표 3]) 및 제2 그룹(1207 및 [표 4])에 포함된 타카기-수게노 역 퍼지 값들을 각 그룹별로 NEWFM(1203)에 입력함으로써, 제1 그룹(1205 및 [표 3])에 대응되는 가중 퍼지 소속함수 및 제2 그룹(1207 및 [표 4])에 대응되는 가중 퍼지 소속함수가 출력될 수 있다.By inputting the Takagi-Sugeno inverse purge values included in the first group 1205 and Table 3 and the second group 1207 and Table 4 into the NEWFM 1203 for each group, the first group ( 1205 and the weighted fuzzy membership function corresponding to [Table 3] and the weighted fuzzy membership function corresponding to the second group 1207 and [Table 4] may be output.

입력 데이터들(1201 및 [표 1])을 제1 그룹(1205 및 [표 3])에 대응되는 가중 퍼지 소속함수 및 제2 그룹(1207 및 [표 4])에 대응되는 가중 퍼지 소속함수에 각각 대입함으로써, 입력 데이터들(1201 및 [표 1])의 클래스 분류에 대한 정확도가 산출될 수 있다.The input data 1201 and [Table 1] are assigned to the weighted fuzzy membership function corresponding to the first group 1205 and [Table 3] and the weighted fuzzy membership function corresponding to the second group 1207 and [Table 4]. By substituting for each, the accuracy for class classification of the input data 1201 and [Table 1] can be calculated.

산출된 정확도가 기설정된 조건을 만족하는 경우, 단계(1160)를 통해 단계들(1110 내지 1150)이 반복적으로 수행될 수 있다.When the calculated accuracy satisfies the preset condition, steps 1110 to 1150 may be repeatedly performed through step 1160.

단계들(1110 내지 1150)이 반복 수행되는 경우, 제1 그룹(1205 및 [표 3]) 및 제2 그룹(1207 및 [표 4])에 포함된 타카기-수게노 역 퍼지 값들을 각 그룹별로 NEWFM(1203)에 입력한 결과로 출력된 타카기-수게노 역 퍼지 값들이 입력 데이터들(1201 및 [표 1])로 취급될 수 있다.When the steps 1110 to 1150 are repeated, the Takagi-Sugeno inverse purge values included in the first group 1205 and Table 3 and the second group 1207 and Table 4 are each grouped. The Takagi-Sugeno inverse purge values output as a result of inputting to NEWFM 1203 may be treated as input data 1201 and [Table 1].

도 15는 일 예에 따른 사용자 장치의 구성도이다.15 is a block diagram illustrating a user device according to one embodiment.

일 측면에 따르면, 사용자 장치(1500)는 통신부(1510), 프로세서(1520), 메모리(1530), 뇌파 센서(1540) 및 카메라(1550)를 포함할 수 있다. 사용자 장치(1500)는 도 1을 참조하여 설명된 사용자 장치(120)에 대응할 수 있다. 예를 들어, 사용자 장치(1500)는 HMD일 수 있다.According to an aspect, the user device 1500 may include a communication unit 1510, a processor 1520, a memory 1530, an EEG sensor 1540, and a camera 1550. The user device 1500 may correspond to the user device 120 described with reference to FIG. 1. For example, the user device 1500 may be an HMD.

통신부(1510)는 프로세서(1520), 메모리(1530), 뇌파 센서(1540) 및 카메라(1550)와 연결되어 데이터를 송수신한다. 통신부(1510)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다.The communication unit 1510 is connected to the processor 1520, the memory 1530, the EEG sensor 1540, and the camera 1550 to transmit and receive data. The communication unit 1510 may be connected to another external device to transmit and receive data.

통신부(1510)는 사용자 장치(1500) 내의 회로망으로 구현될 수 있다. 예를 들어, 통신부(1510)는 내부 버스 및 외부 버스를 포함할 수 있다. 다른 예로, 통신부(1510)는 사용자 장치(1500)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(1510)는 인터페이스일 수 있다. 통신부(1510)는 외부의 장치로부터 데이터를 수신하여, 프로세서(1520) 및 메모리(1530)에 데이터를 전송할 수 있다.The communicator 1510 may be implemented as a circuit in the user device 1500. For example, the communication unit 1510 may include an internal bus and an external bus. As another example, the communication unit 1510 may be an element connecting the user device 1500 and an external device. The communication unit 1510 may be an interface. The communication unit 1510 may receive data from an external device and transmit data to the processor 1520 and the memory 1530.

프로세서(1520)는 통신부(1510)가 수신한 데이터 및 메모리(1530)에 저장된 데이터를 처리한다. 프로세서(1520)는 메모리(예를 들어, 메모리(1530))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(1520)에 의해 유발된 인스트럭션들을 실행한다.The processor 1520 processes the data received by the communication unit 1510 and data stored in the memory 1530. The processor 1520 executes instructions dictated by the processor 1520 and computer readable code (eg, software) stored in the memory (eg, memory 1530).

메모리(1530)는 통신부(1510)가 수신한 데이터 및 프로세서(1520)가 처리한 데이터를 저장한다. 예를 들어, 메모리(1530)는 프로그램(또는 어플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 사용자에게 컨텐츠를 제공하고, 뇌파 정보 및 시선 정보를 획득할 수 있도록 코딩되어 프로세서(1520)에 의해 실행 가능한 신텍스들의 집합일 수 있다.The memory 1530 stores data received by the communication unit 1510 and data processed by the processor 1520. For example, the memory 1530 may store a program (or an application or software). The stored program may be a set of syntaxes that are coded to provide content to a user and obtain brain wave information and gaze information, and may be executed by the processor 1520.

일 측면에 따르면, 메모리(1530)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM, 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.According to one aspect, memory 1530 may include one or more volatile memory, nonvolatile memory and RAM, flash memory, hard disk drive, and optical disk drive.

메모리(1530)는 사용자 장치(1500)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 사용자 장치(1500)를 동작 시키는 명령어 세트는 프로세서(1520)에 의해 실행된다.The memory 1530 stores a set of instructions (eg, software) for operating the user device 1500. The instruction set for operating the user device 1500 is executed by the processor 1520.

뇌파 센서(1540)는 사용자 장치(1500)가 사용자의 머리 부분에 밀착되는 경우, 사용자의 뇌파 정보를 획득할 수 있도록 사용자 장치(1500)에 위치할 수 있다. 구체적으로, 사용자가 사용자 장치(1500)를 착용한 경우, 뇌파 센서(1540)가 사용자의 이마 부위에 위치되도록 사용자 장치(1500)에 배치될 수 있다.The EEG sensor 1540 may be located in the user device 1500 to acquire the EEG information of the user when the user device 1500 is in close contact with the head of the user. In detail, when the user wears the user device 1500, the EEG sensor 1540 may be disposed on the user device 1500 to be positioned at the user's forehead.

카메라(1550)는 사용자의 눈을 촬영할 수 있는 영상 장치일 수 있다. 카메라(1550)에 의해 생성된 영상에 의해 사용자의 동공의 위치가 결정될 수 있다. 사용자의 동공의 위치에 기초하여 사용자의 시선이 결정될 수 있다. 사용자가 사용자 장치(1500)를 착용한 경우, 사용자의 눈을 촬영할 수 있도록 사용자 카메라(1550)가 사용자 장치(1500)에 배치될 수 있다.The camera 1550 may be an imaging device capable of capturing an eye of a user. The position of the pupil of the user may be determined based on the image generated by the camera 1550. The gaze of the user may be determined based on the position of the pupil of the user. When the user wears the user device 1500, the user camera 1550 may be disposed on the user device 1500 to capture the eyes of the user.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments may be, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable arrays (FPAs), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Method according to the embodiment is implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine code, such as produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different manner than the described method, or other components. Or even if replaced or replaced by equivalents, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims which follow.

100: 시스템
110: 서버
120: 사용자 장치
130: 분석 단말
100: system
110: server
120: user device
130: analysis terminal

Claims (16)

HMD(head mounted display)를 통해 사용자에게 제1 컨텐츠를 제공하는 단계;
상기 HMD를 통해 상기 제1 컨텐츠를 시청하는 상기 사용자의 제1 뇌파 정보 및 제1 시선 정보 중 적어도 하나를 획득하는 단계; 및
상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나에 기초하여 상기 사용자의 집중력 레벨을 결정하는 단계
를 포함하는,
집중력 레벨 결정 방법.
Providing first content to a user via a head mounted display (HMD);
Acquiring at least one of first brain wave information and first gaze information of the user who views the first content through the HMD; And
Determining a concentration level of the user based on at least one of the first EEG information and the first gaze information;
Including,
How to determine your level of concentration.
제1항에 있어서,
상기 HMD를 통해 상기 제1 컨텐츠를 시청하는 상기 사용자의 제1 뇌파 정보 및 제1 시선 정보 중 적어도 하나를 획득하는 단계는,
상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나에 기초하여 상기 제1 컨텐츠 내의 오브젝트를 변화시키는 단계; 및
상기 오브젝트의 변화가 미리 설정된 변화에 대응하는 경우 상기 제1 컨텐츠의 제공을 중단하는 단계
를 포함하는,
집중력 레벨 결정 방법.
The method of claim 1,
Acquiring at least one of first brain wave information and first gaze information of the user who views the first content through the HMD,
Changing an object in the first content based on at least one of the first brain wave information and the first gaze information; And
Stopping providing the first content when the change of the object corresponds to a preset change;
Including,
How to determine your level of concentration.
제2항에 있어서,
상기 오브젝트의 변화는,
상기 오브젝트의 형태 및 상기 오브젝트의 위치 중 적어도 하나가 변화하는,
집중력 레벨 결정 방법.
The method of claim 2,
The change of the object,
At least one of the shape of the object and the position of the object is changed,
How to determine your level of concentration.
제2항에 있어서,
상기 제1 컨텐츠 내의 오브젝트를 변화시키는 단계는,
상기 제1 시선 정보에 기초하여 상기 사용자의 시선이 상기 제1 컨텐츠의 복수의 오브젝트들 중 상기 오브젝트에 대응하는지 여부를 결정하는 단계; 및
상기 시선이 상기 오브제트에 대응하는 경우 상기 오브젝트를 변화시키는 단계
를 포함하는,
집중력 레벨 결정 방법.
The method of claim 2,
Changing the object in the first content,
Determining whether the gaze of the user corresponds to the object among a plurality of objects of the first content based on the first gaze information; And
Changing the object when the gaze corresponds to the object
Including,
How to determine your level of concentration.
제2항에 있어서.
상기 HMD를 통해 상기 제1 컨텐츠를 시청하는 상기 사용자의 뇌파 정보 및 시선 정보 중 적어도 하나를 획득하는 단계는,
상기 오브젝트의 변화가 미리 설정된 변화에 대응하지 않더라도 상기 제1 컨텐츠에 대해 미리 설정된 타이머가 종료되는 경우 상기 제1 컨텐츠의 제공을 중단하는 단계
를 더 포함하는,
집중력 레벨 결정 방법.
The method of claim 2.
Acquiring at least one of brain wave information and gaze information of the user who views the first content through the HMD,
Stopping providing of the first content when the timer set for the first content expires even if the change of the object does not correspond to a preset change;
Further comprising,
How to determine your level of concentration.
제2항에 있어서,
상기 제1 컨텐츠의 제공이 중단된 경우, 상기 사용자에게 제2 컨텐츠를 제공하는 단계; 및
상기 HMD를 통해 상기 제2 컨텐츠를 시청하는 상기 사용자의 제2 뇌파 정보 및 제2 시선 정보 중 적어도 하나를 획득하는 단계
를 더 포함하고,
상기 사용자의 집중력 레벨을 계산하는 단계는,
상기 사용자의 제2 뇌파 정보 및 제2 시선 정보 중 적어도 하나에 기초하여 상기 집중력 레벨을 계산하는 단계
를 포함하는,
집중력 레벨 결정 방법.
The method of claim 2,
Providing second content to the user when the first content is stopped; And
Acquiring at least one of second brain wave information and second gaze information of the user who views the second content through the HMD;
More,
Calculating the concentration level of the user,
Calculating the concentration level based on at least one of the second brain wave information and the second gaze information of the user.
Including,
How to determine your level of concentration.
제1항에 있어서,
상기 사용자의 집중력 레벨을 계산하는 단계는,
상기 제1 뇌파 정보를 복수의 주파수 대역들의 뇌파 신호들로 분할하는 단계; 및
상기 뇌파 신호들 중 타겟 뇌파 신호에 기초하여 상기 집중력 레벨을 계산하는 단계
를 포함하는,
집중력 레벨 결정 방법.
The method of claim 1,
Calculating the concentration level of the user,
Dividing the first EEG information into EEG signals of a plurality of frequency bands; And
Calculating the concentration level based on a target EEG signal among the EEG signals
Including,
How to determine your level of concentration.
제1항에 있어서,
상기 사용자의 집중력 레벨을 계산하는 단계는,
상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나를 입력으로 하는 가중 퍼지 소속함수 기반 심층 신경망(Neural Network with Weighted Fuzzy Membership Function, NEWFM)을 이용하여 상기 집중력 레벨을 계산하는 단계
를 포함하는,
집중력 레벨 결정 방법.
The method of claim 1,
Calculating the concentration level of the user,
Calculating the concentration level using a Neural Network with Weighted Fuzzy Membership Function (NEWFM) based on at least one of the first EEG information and the first gaze information;
Including,
How to determine your level of concentration.
제8항에 있어서,
상기 NEWFM은 상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나를 수신한 경우, 타카기-수게노 역 퍼지 값들(takagi-sugeno defuzzification values), 타카기-수게노 역 퍼지 값들의 클래스를 분류한 결과 및 가중 퍼지 소속함수를 출력함으로써 상기 집중력 레벨을 계산하는,
집중력 레벨 결정 방법.
The method of claim 8,
The NEWFM classifies a class of Takagi-Sugeno defuzzification values and Takagi-Sugeno inverse fuzzy values when receiving at least one of the first EEG information and the first gaze information. Calculating the concentration level by outputting a result and a weighted fuzzy membership function,
How to determine your level of concentration.
제1항 내지 제9항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
A computer-readable recording medium containing a program for performing the method of any one of claims 1 to 9.
사용자의 집중력 레벨을 결정하는 서버는,
사용자의 집중력 레벨을 결정하는 프로그램이 기록된 메모리; 및
상기 프로그램을 수행하는 프로세서
를 포함하고,
상기 프로그램은,
HMD(head mounted display)를 통해 사용자에게 제1 컨텐츠를 제공하는 단계;
상기 HMD를 통해 상기 제1 컨텐츠를 시청하는 상기 사용자의 제1 뇌파 정보 및 제1 시선 정보 중 적어도 하나를 획득하는 단계;
상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나에 기초하여 상기 사용자의 집중력 레벨을 결정하는 단계
를 수행하는,
서버.
The server that determines the level of concentration of the user,
A memory in which a program for determining a concentration level of a user is recorded; And
A processor that executes the program
Including,
The program,
Providing first content to a user via a head mounted display (HMD);
Acquiring at least one of first brain wave information and first gaze information of the user who views the first content through the HMD;
Determining a concentration level of the user based on at least one of the first EEG information and the first gaze information;
To do,
server.
제11항에 있어서,
상기 HMD를 통해 상기 제1 컨텐츠를 시청하는 상기 사용자의 제1 뇌파 정보 및 제1 시선 정보 중 적어도 하나를 획득하는 단계는,
상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나에 기초하여 상기 제1 컨텐츠 내의 오브젝트를 변화시키는 단계; 및
상기 오브젝트의 변화가 미리 설정된 변화에 대응하는 경우 상기 제1 컨텐츠의 제공을 중단하는 단계
를 포함하는,
서버.
The method of claim 11,
Acquiring at least one of first brain wave information and first gaze information of the user who views the first content through the HMD,
Changing an object in the first content based on at least one of the first brain wave information and the first gaze information; And
Stopping providing the first content when the change of the object corresponds to a preset change;
Including,
server.
제12항에 있어서,
상기 제1 컨텐츠 내의 오브젝트를 변화시키는 단계는,
상기 제1 시선 정보에 기초하여 상기 사용자의 시선이 상기 제1 컨텐츠의 복수의 오브젝트들 중 상기 오브젝트에 대응하는지 여부를 결정하는 단계; 및
상기 시선이 상기 오브제트에 대응하는 경우 상기 오브젝트를 변화시키는 단계
를 포함하는,
집중력 레벨 결정 방법.
The method of claim 12,
Changing the object in the first content,
Determining whether the gaze of the user corresponds to the object among a plurality of objects of the first content based on the first gaze information; And
Changing the object when the gaze corresponds to the object
Including,
How to determine your level of concentration.
제11항에 있어서,
상기 사용자의 집중력 레벨을 계산하는 단계는,
상기 제1 뇌파 정보를 복수의 주파수 대역들의 뇌파 신호들로 분할하는 단계; 및
상기 뇌파 신호들 중 타겟 뇌파 신호에 기초하여 상기 집중력 레벨을 계산하는 단계
를 포함하는,
집중력 레벨 결정 방법.
The method of claim 11,
Calculating the concentration level of the user,
Dividing the first EEG information into EEG signals of a plurality of frequency bands; And
Calculating the concentration level based on a target EEG signal among the EEG signals
Including,
How to determine your level of concentration.
제11항에 있어서,
상기 사용자의 집중력 레벨을 계산하는 단계는,
상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나를 입력으로 하는 가중 퍼지 소속함수 기반 심층 신경망(Neural Network with Weighted Fuzzy Membership Function, NEWFM)을 이용하여 상기 집중력 레벨을 계산하는 단계
를 포함하는,
집중력 레벨 결정 방법.
The method of claim 11,
Calculating the concentration level of the user,
Calculating the concentration level using a Neural Network with Weighted Fuzzy Membership Function (NEWFM) based on at least one of the first EEG information and the first gaze information;
Including,
How to determine your level of concentration.
제15항에 있어서,
상기 NEWFM은 상기 제1 뇌파 정보 및 상기 제1 시선 정보 중 적어도 하나를 수신한 경우, 타카기-수게노 역 퍼지 값들(takagi-sugeno defuzzification values), 타카기-수게노 역 퍼지 값들의 클래스를 분류한 결과 및 가중 퍼지 소속함수를 출력함으로써 상기 집중력 레벨을 계산하는,
집중력 레벨 결정 방법.
The method of claim 15,
The NEWFM classifies a class of Takagi-Sugeno defuzzification values and Takagi-Sugeno inverse fuzzy values when receiving at least one of the first EEG information and the first gaze information. Calculating the concentration level by outputting a result and a weighted fuzzy membership function,
How to determine your level of concentration.
KR1020190069297A 2018-06-12 2019-06-12 Method and apparatus for determining concentration level of user KR102085693B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180067326 2018-06-12
KR20180067326 2018-06-12

Publications (2)

Publication Number Publication Date
KR20190140864A true KR20190140864A (en) 2019-12-20
KR102085693B1 KR102085693B1 (en) 2020-03-06

Family

ID=69063142

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190069297A KR102085693B1 (en) 2018-06-12 2019-06-12 Method and apparatus for determining concentration level of user

Country Status (1)

Country Link
KR (1) KR102085693B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102383793B1 (en) * 2021-12-08 2022-04-11 주식회사 세븐포인트원 Method, apparatus and system for managing and controlling concentration of user of registered extended reality device
WO2022080551A1 (en) * 2020-10-12 2022-04-21 주식회사 비주얼캠프 Eyeline-based cheating detection method using object recognition, and computing device and system for performing same method
KR102545747B1 (en) * 2022-05-26 2023-06-21 주식회사 아이디어빈스 Method and apparatus for determining degree of attention of user
KR102548507B1 (en) * 2022-10-25 2023-06-28 주식회사 프레임 Apparatus and method for providing user interface of game content using brain wave data
US11995779B2 (en) 2021-12-08 2024-05-28 Sevenpointone Inc. Method, device, and system for managing and controlling concentration of user of registered extended reality device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100883185B1 (en) * 2007-06-29 2009-02-13 장형종 System and Method for Detecting Abnormality of Biosignal using Neural Network with Weighted Fuzzy Membership Funtions
KR101723841B1 (en) * 2015-12-17 2017-04-18 주식회사 룩시드랩스 Apparatus for eye-brain interface and method for controlling the same
KR101731471B1 (en) * 2015-11-17 2017-04-28 고려대학교 산학협력단 Neurofeedback apparatus and method for attention improvement

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100883185B1 (en) * 2007-06-29 2009-02-13 장형종 System and Method for Detecting Abnormality of Biosignal using Neural Network with Weighted Fuzzy Membership Funtions
KR101731471B1 (en) * 2015-11-17 2017-04-28 고려대학교 산학협력단 Neurofeedback apparatus and method for attention improvement
KR101723841B1 (en) * 2015-12-17 2017-04-18 주식회사 룩시드랩스 Apparatus for eye-brain interface and method for controlling the same

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022080551A1 (en) * 2020-10-12 2022-04-21 주식회사 비주얼캠프 Eyeline-based cheating detection method using object recognition, and computing device and system for performing same method
KR102383793B1 (en) * 2021-12-08 2022-04-11 주식회사 세븐포인트원 Method, apparatus and system for managing and controlling concentration of user of registered extended reality device
WO2023106555A1 (en) * 2021-12-08 2023-06-15 주식회사 세븐포인트원 Method, device, and system for managing and controlling concentration level of user of registered extended reality device
US11995779B2 (en) 2021-12-08 2024-05-28 Sevenpointone Inc. Method, device, and system for managing and controlling concentration of user of registered extended reality device
KR102545747B1 (en) * 2022-05-26 2023-06-21 주식회사 아이디어빈스 Method and apparatus for determining degree of attention of user
KR102548507B1 (en) * 2022-10-25 2023-06-28 주식회사 프레임 Apparatus and method for providing user interface of game content using brain wave data

Also Published As

Publication number Publication date
KR102085693B1 (en) 2020-03-06

Similar Documents

Publication Publication Date Title
KR102085693B1 (en) Method and apparatus for determining concentration level of user
Vogelsang et al. Potential downside of high initial visual acuity
Nourbakhsh et al. Detecting users’ cognitive load by galvanic skin response with affective interference
Nierhaus et al. Immediate brain plasticity after one hour of brain–computer interface (BCI)
US11627903B2 (en) Method for diagnosing cognitive disorder, and computer program
Schurger et al. Cortical activity is more stable when sensory stimuli are consciously perceived
CN110840455B (en) System and method for brain activity resolution
Phelps et al. Emotion facilitates perception and potentiates the perceptual benefits of attention
Mühlberger et al. Early cortical processing of natural and artificial emotional faces differs between lower and higher socially anxious persons
Schacht et al. Association with positive outcome induces early effects in event-related brain potentials
Naseri et al. Human discrimination of translational accelerations
Sakaki et al. Association learning for emotional harbinger cues: When do previous emotional associations impair and when do they facilitate subsequent learning of new associations?
KR102379132B1 (en) device and method for providing digital therapeutics information
Dovgialo et al. Assessment of statistically significant command-following in pediatric patients with disorders of consciousness, based on visual, auditory and tactile event-related potentials
Khan et al. Game induced emotion analysis using electroencephalography
D’Hondt et al. Explicit and implicit emotional processing in peripheral vision: A saccadic choice paradigm
US10046162B1 (en) Transcranial intervention to weaken traumatic memories
JPWO2019235458A1 (en) Recollection image estimation device, recall image estimation method, control program, recording medium
Rezaee et al. A direct classification approach to recognize stress levels in virtual reality therapy for patients with multiple sclerosis
Brooks et al. Differential functionality of right and left parietal activity in controlling a motor vehicle
KR102235716B1 (en) Learning disorder diagnosing/cure apparatus and method using virtual reality
Zumer et al. The neural mechanisms of audiotactile binding depend on asynchrony
Gena et al. The BciAi4SLA project: towards a user-centered BCI
Arbel et al. Face shape processing via visual-to-auditory sensory substitution activates regions within the face processing networks in the absence of visual experience
Kalampratsidou et al. Body-brain-avatar interface: a tool to study sensory-motor integration and neuroplasticity

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant