KR20220029850A - Method and apparatus for supporting user's learning concentration - Google Patents

Method and apparatus for supporting user's learning concentration Download PDF

Info

Publication number
KR20220029850A
KR20220029850A KR1020200110447A KR20200110447A KR20220029850A KR 20220029850 A KR20220029850 A KR 20220029850A KR 1020200110447 A KR1020200110447 A KR 1020200110447A KR 20200110447 A KR20200110447 A KR 20200110447A KR 20220029850 A KR20220029850 A KR 20220029850A
Authority
KR
South Korea
Prior art keywords
user
concentration
output
intensity
electronic device
Prior art date
Application number
KR1020200110447A
Other languages
Korean (ko)
Other versions
KR102467774B1 (en
Inventor
임세라
이동익
배희기
Original Assignee
주식회사 마블러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 마블러스 filed Critical 주식회사 마블러스
Priority to KR1020200110447A priority Critical patent/KR102467774B1/en
Publication of KR20220029850A publication Critical patent/KR20220029850A/en
Priority to KR1020220149816A priority patent/KR102528595B1/en
Priority to KR1020220149817A priority patent/KR102531002B1/en
Application granted granted Critical
Publication of KR102467774B1 publication Critical patent/KR102467774B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02444Details of sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B7/00Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
    • G08B7/06Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/04Heartbeat characteristics, e.g. ECG, blood pressure modulation
    • A61M2230/06Heartbeat rate only

Abstract

The present invention relates to a method and apparatus for supporting the learning concentration of a user. Specifically, the present invention relates to a method and apparatus for obtaining and analyzing biometric information while a user is watching learning content, outputting a ventilation sequence when the concentration and immersion of the user are low, and adaptively adjusting the intensity of the ventilation sequence and an output element type according to a change in the concentration of the user.

Description

사용자의 학습 집중력을 지원하기 위한 방법 및 장치 {METHOD AND APPARATUS FOR SUPPORTING USER'S LEARNING CONCENTRATION}METHOD AND APPARATUS FOR SUPPORTING USER'S LEARNING CONCENTRATION

본 발명은 사용자의 학습 집중력을 지원하기 위한 방법 및 장치에 관한 것이다. 구체적으로, 본 발명은 사용자가 학습 컨텐츠를 시청하는 동안 생체 정보를 획득 및 분석하고, 사용자의 집중도 및 몰입도가 떨어진 경우 환기 시퀀스를 출력하며, 사용자의 집중도 변화에 따라서 환기 시퀀스의 강도 및 출력 요소 종류를 적응적으로 조정하기 위한 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for supporting a user's learning concentration. Specifically, the present invention obtains and analyzes biometric information while the user is watching learning content, outputs a ventilation sequence when the user's concentration and immersion are low, and according to the change in the concentration of the user, the intensity and output elements of the ventilation sequence It relates to a method and apparatus for adaptively adjusting a type.

최근 코로나 19 바이러스의 유행 등으로 인하여 그룹 모임 학습이 줄어들고 각 사용자가 혼자 공부하면서 공부 영상을 타임 랩스(time lapse) 형식으로 남기거나 또는 SNS(social network service)로 공유하는 추세이다. 이와 같이 혼자 공부하는 방식은 타인과 함께 공부를 하는 것이 아니기 때문에 사용자 본인이 스스로 집중 및 몰입 여부를 확인하기 어렵다.Recently, due to the outbreak of the Corona 19 virus, group meeting learning has decreased, and each user is studying alone while leaving a study video in a time lapse format or sharing it via social network service (SNS). In this way of studying alone, it is difficult for the user to check whether he or she is concentrating and immersed by himself because he does not study with others.

전자 장치를 이용하여 비대면으로 사용자의 학습 중 집중도 및 몰입도를 포함한 생체 정보를 획득하고 집중도 하락이 감지되는 경우 UI/UX(user interface/user experience)에 특수 효과 시퀀스를 출력할 수 있다면, 사용자에게 학습 의욕을 다시금 고취시킴으로써 전체적인 학습 집중도를 향상시킬 수 있다.If biometric information including concentration and immersion during user learning is acquired non-face-to-face using an electronic device and a special effect sequence can be output to a user interface/user experience (UI/UX) when a decrease in concentration is detected, the user It can improve the overall concentration of learning by reinvigorating students' motivation to learn.

따라서, 사용자의 집중도가 떨어진 경우 환기 시퀀스를 출력하며, 사용자의 집중도 및 몰입도 변화에 따라서 시퀀스의 강도 및 출력 요소 종류를 적응적으로 조정하기 위한 방법 및 장치가 필요한 실정이다.Accordingly, there is a need for a method and apparatus for outputting a ventilation sequence when the user's concentration level is low and adaptively adjusting the intensity of the sequence and the type of output element according to the change in the user's concentration and immersion level.

대한민국 등록 특허번호 제10-1656072호 (2020.03.30.) (유아보육환경 내의 집중도 향상을 위한 다감각 서비스 시스템 및 이를 이용한 다감각 서비스 방법)Republic of Korea Patent No. 10-1656072 (2020.03.30.) (Multisensory service system and multisensory service method using the same for improving concentration in the childcare environment)

본 발명은 전술한 문제점을 해결하기 위하여 다음과 같은 해결 과제를 목적으로 한다.The present invention aims to solve the following problems in order to solve the above problems.

본 발명은 심전도 정보, 집중도, 몰입도 등 비언어적 요소에 따른 생체 정보를 파악함으로써 사용자가 직접 표현하지 않더라도 정확한 생체 정보를 파악하고, 이에 기반하여 학습 집중력을 지원하기 위한 환기 시퀀스를 제공하는 것을 목적으로 한다.The present invention recognizes biometric information according to non-verbal factors such as electrocardiogram information, concentration level, and immersion level, so that accurate biometric information is identified even if the user does not directly express it, and based on this, to provide a ventilation sequence to support learning concentration do.

본 발명은 사용자의 집중도가 떨어진 경우 환기 시퀀스를 출력하며, 사용자의 집중도 및 몰입도 변화에 따라서 시퀀스의 강도 및 출력 요소 종류를 적응적으로 조정하기 위한 방법 및 장치를 제공하는 것을 목적으로 한다.An object of the present invention is to provide a method and apparatus for outputting a ventilation sequence when the user's concentration level is low, and adaptively adjusting the intensity of the sequence and the type of output element according to the change of the user's concentration and immersion level.

본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당해 기술분야에 있어서의 통상의 지식을 가진 자가 명확하게 이해할 수 있을 것이다.The problems to be solved of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

본 발명의 다양한 실시 예들에 따르면, 사용자의 학습 집중력을 지원하기 위한 전자 장치의 동작 방법이 제공된다. 상기 전자장치는 카메라, 출력장치, 메모리, 송수신기 및 적어도 하나의 프로세서를 포함하며, 상기 출력장치는 디스플레이 및 스피커 중 하나 이상을 포함한다. 상기 동작 방법은, 컨텐츠를 출력하는 과정과, 사용자의 얼굴을 포함하는 상반신에 대한 화상 이미지를 획득하는 과정과, 상기 화상 이미지에서 상기 사용자의 얼굴 미세 움직임으로부터 하나 이상의 심장 반응 유효 변수를 포함하는 생체 정보를 획득하는 과정과, 상기 하나 이상의 심장 반응 유효 변수로부터 상기 사용자의 집중도 수치 및 몰입도 수치를 획득하는 과정과, 상기 사용자의 상기 집중도 수치의 분당 평균 값이 임계 집중도 수치 이하로 떨어지는지 여부 및 상기 몰입도 수치의 분당 평균 값이 임계 몰입도 수치 이하로 떨어지는지 여부에 기반하여 환기 시퀀스의 출력 여부를 결정하는 과정과, 상기 환기 시퀀스는 복수의 요소들로 구성되며, 상기 환기 시퀀스의 출력을 결정한 경우, 상기 환기 시퀀스를 초기 설정된 강도 및 출력 요소 종류로 출력하는 과정과, 상기 출력 요소 종류는 상기 복수의 요소들 중 출력되는 하나 이상의 요소이며, 상기 집중도 수치의 변화에 기반하여 상기 환기 시퀀스의 강도 및 상기 출력 요소 종류를 조정하는 과정과, 상기 집중도 수치의 분당 평균 값 및 상기 몰입도 수치의 분당 평균 값이 상기 임계 집중도 수치 및 상기 임계 몰입도 수치 이상으로 회복된 경우, 상기 환기 시퀀스의 출력을 중단하는 과정을 포함한다.According to various embodiments of the present disclosure, a method of operating an electronic device for supporting a user's learning concentration is provided. The electronic device includes a camera, an output device, a memory, a transceiver, and at least one processor, and the output device includes at least one of a display and a speaker. The operation method includes a process of outputting content, a process of acquiring a video image of an upper body including a user's face, and a living body including one or more cardiac response effective variables from micro-movements of the user's face in the video image a process of acquiring information; a process of acquiring the concentration value and the concentration value of the user from the one or more cardiac response effective variables; whether the average value per minute of the concentration value of the user falls below a threshold concentration value; and The process of determining whether to output a ventilation sequence based on whether the average value per minute of the engagement value falls below a threshold engagement value, wherein the ventilation sequence is composed of a plurality of elements, and the output of the ventilation sequence is When it is determined, the process of outputting the ventilation sequence as an initially set intensity and an output element type, the output element type is at least one output element among the plurality of elements, and based on a change in the concentration value, The process of adjusting the intensity and the type of the output element, and when the average value per minute of the concentration value and the average value per minute of the engagement value are restored to more than the threshold concentration value and the threshold engagement value, the output of the ventilation sequence including the process of stopping

본 발명의 다양한 실시 예들에 따르면, 사용자의 학습 집중력을 지원하기 위한 전자 장치가 제공된다. 상기 전자 장치는, 카메라, 출력장치, 메모리, 송수신기 및 적어도 하나의 프로세서를 포함하고, 상기 프로세서는, 본 발명의 다양한 실시 예들에 따른 사용자의 학습 집중력을 지원하기 위한 전자 장치의 동작 방법을 수행하도록 구성된다.According to various embodiments of the present disclosure, an electronic device for supporting a user's learning concentration is provided. The electronic device includes a camera, an output device, a memory, a transceiver, and at least one processor, and the processor performs an operating method of the electronic device for supporting a user's learning concentration according to various embodiments of the present disclosure. is composed

본 발명의 다양한 실시 예들에 따르면, 사용자의 학습 집중력을 지원하기 위한 전자 장치의 동작 방법을 수행하도록 구성되며, 컴퓨터 판독 가능한 저장 매체에 기록된 컴퓨터 프로그램이 제공된다.According to various embodiments of the present disclosure, there is provided a computer program configured to perform an operating method of an electronic device for supporting a user's learning concentration and recorded in a computer-readable storage medium.

본 발명은 심전도 정보, 집중도, 몰입도 등 비언어적 요소에 따른 생체 정보를 파악함으로써 사용자가 직접 표현하지 않더라도 정확한 생체 정보를 파악하고, 이에 기반하여 학습 집중력을 지원하기 위한 환기 시퀀스를 제공할 수 있다.The present invention recognizes biometric information according to non-verbal factors such as electrocardiogram information, concentration, and immersion, so that the user does not directly express biometric information, and based on this, it is possible to provide a ventilation sequence to support learning concentration.

본 발명은 사용자의 집중도가 떨어진 경우 환기 시퀀스를 출력하며, 사용자의 집중도 및 몰입도 변화에 따라서 시퀀스의 강도 및 출력 요소 종류를 적응적으로 조정하기 위한 방법 및 장치를 제공할 수 있다.The present invention may provide a method and apparatus for outputting a ventilation sequence when the user's concentration level is low, and adaptively adjusting the intensity of the sequence and the type of output element according to the change in the user's concentration and immersion level.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당해 기술분야에 있어서의 통상의 지식을 가진 자가 명확하게 이해할 수 있을 것이다.Effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

도 1은 본 발명의 다양한 실시 예들에 따른 통신 시스템을 도시한다.
도 2는 본 발명의 다양한 실시 예들에 따른 전자 장치의 구성에 대한 블록도를 도시한다.
도 3은 본 발명의 다양한 실시 예들에 따른 서버의 구성에 대한 블록도를 도시한다.
도 4는 본 발명의 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시한다.
도 5는 본 발명의 다양한 실시 예들에 따른 생체 정보 획득 과정의 일 예를 도시한다.
도 6은 본 발명의 다양한 실시 예들에 따른 사용자의 화상 이미지로부터 얼굴 포인트들을 검출하는 과정의 일 예를 도시한다.
도 7은 본 발명의 다양한 실시 예들에 따른 사용자의 화상 이미지에 기반하여 심장 반응 정보 및 사용자 표정 정보를 인식하는 과정의 일 예를 도시한다.
도 8은 본 발명의 다양한 실시 예들에 따라서, 사용자의 생체 정보를 수집하고 서비스 솔루션을 제공하는 과정을 도시한다.
도 9는 본 발명의 다양한 실시 예들에 따른 생체 정보의 일 예를 도시한다.
도 10은 본 발명의 다양한 실시 예들에 따라서 집중도(focus) 몰입도(engagement)의 관계를 도시한다.
1 illustrates a communication system according to various embodiments of the present invention.
2 is a block diagram illustrating a configuration of an electronic device according to various embodiments of the present disclosure.
3 is a block diagram illustrating a configuration of a server according to various embodiments of the present disclosure.
4 illustrates a method of operating an electronic device according to various embodiments of the present disclosure.
5 illustrates an example of a biometric information acquisition process according to various embodiments of the present disclosure.
6 illustrates an example of a process of detecting face points from a user's video image according to various embodiments of the present disclosure.
7 illustrates an example of a process of recognizing heart response information and user expression information based on a user's image according to various embodiments of the present disclosure.
8 illustrates a process of collecting user's biometric information and providing a service solution, according to various embodiments of the present disclosure.
9 illustrates an example of biometric information according to various embodiments of the present disclosure.
10 illustrates a relationship between focus and engagement according to various embodiments of the present disclosure.

이하, 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement them. The present invention may be implemented in several different forms and is not limited to the embodiments described herein.

도 1은 본 발명의 다양한 실시 예들에 따른 통신 시스템을 도시한다.1 illustrates a communication system according to various embodiments of the present invention.

도 1을 참고하면, 본 발명의 다양한 실시 예들에 따른 통신 시스템은 전자 장치(110), 유/무선 통신 네트워크(120), 서버(130)를 포함한다. 전자 장치(110)는 사용자(100)의 생체 정보를 획득하고, 사용자(100)에게 시청각 컨텐츠를 출력한다.Referring to FIG. 1 , a communication system according to various embodiments of the present disclosure includes an electronic device 110 , a wired/wireless communication network 120 , and a server 130 . The electronic device 110 obtains biometric information of the user 100 and outputs audiovisual content to the user 100 .

전자 장치(110)는, 유/무선 통신 네트워크(120)를 통하여 서버(130)로부터 사용자의 집중도 수치와 환기 시퀀스의 강도 및 환기 시퀀스 중 출력 요소 종류에 대한 시계열 맵핑 정보를 수신하고, 서버(130)에게 사용자의 새로 획득된 집중도 및 몰입도 수치의 정보를 전송할 수 있는 단말 장치이다. 전자 장치(110)는 퍼스널 컴퓨터, 셀룰러 폰, 스마트 폰 및 태블릿 컴퓨터 등과 같이, 정보를 저장할 수 있는 메모리, 정보의 송수신을 수행할 수 있는 송수신부, 정보의 연산을 수행할 수 있는 적어도 하나의 프로세서를 포함하는 전자 장치일 수 있다.The electronic device 110 receives, from the server 130 through the wired/wireless communication network 120 , the time series mapping information for the user's concentration level, the intensity of the ventilation sequence, and the type of output element in the ventilation sequence, and the server 130 ) is a terminal device capable of transmitting information on the newly acquired concentration and immersion level of the user. The electronic device 110 includes a memory capable of storing information, a transceiver capable of transmitting and receiving information, and at least one processor capable of performing an operation of information, such as a personal computer, a cellular phone, a smart phone, and a tablet computer. It may be an electronic device including

유/무선 통신 네트워크(120)는, 전자 장치(110) 및 서버(130)가 서로 신호 및 데이터를 송수신할 수 있는 통신 경로를 제공한다. 유/무선 통신 네트워크(120)는 특정한 통신 프로토콜에 따른 통신 방식에 한정되지 않으며, 구현 예에 따라 적절한 통신 방식이 사용될 수 있다. 예를 들어, 인터넷 프로토콜(IP) 기초의 시스템으로 구성되는 경우 유/무선 통신 네트워크(120)는 유무선 인터넷망으로 구현될 수 있으며, 전자 장치(110) 및 서버(130)가 이동 통신 단말로서 구현되는 경우 유/무선 통신 네트워크(120)는 셀룰러 네트워크 또는 WLAN(wireless local area network) 네트워크와 같은 무선망으로 구현될 수 있다.The wired/wireless communication network 120 provides a communication path through which the electronic device 110 and the server 130 can transmit and receive signals and data to each other. The wired/wireless communication network 120 is not limited to a communication method according to a specific communication protocol, and an appropriate communication method may be used according to an implementation example. For example, when configured as an Internet Protocol (IP)-based system, the wired/wireless communication network 120 may be implemented as a wired/wireless Internet network, and the electronic device 110 and the server 130 are implemented as mobile communication terminals. In this case, the wired/wireless communication network 120 may be implemented as a wireless network such as a cellular network or a wireless local area network (WLAN) network.

서버(130)는, 유/무선 통신 네트워크(120)를 통하여 전자 장치(110)에게 사용자의 집중도 수치와 환기 시퀀스의 강도 및 환기 시퀀스 중 출력 요소 종류에 대한 시계열 맵핑 정보를 전송하고, 전자 장치(110)로부터 사용자의 새로 획득된 집중도 및 몰입도 수치의 정보를 수신할 수 있는 단말 장치이다. 서버(130)는 정보를 저장할 수 있는 메모리, 정보의 송수신을 수행할 수 있는 송수신부, 정보의 연산을 수행할 수 있는 적어도 하나의 프로세서를 포함하는 전자 장치일 수 있다.The server 130 transmits, to the electronic device 110 through the wired/wireless communication network 120 , time series mapping information for the user's concentration level, the intensity of the ventilation sequence, and the type of output element in the ventilation sequence, and the electronic device ( 110) is a terminal device capable of receiving information on the newly acquired concentration and immersion level of the user. The server 130 may be an electronic device including a memory capable of storing information, a transceiver capable of transmitting and receiving information, and at least one processor capable of performing an operation of information.

도 2는 본 발명의 다양한 실시 예들에 따른 전자 장치의 구성에 대한 블록도를 도시한다.2 is a block diagram illustrating a configuration of an electronic device according to various embodiments of the present disclosure.

도 2를 참고하면, 본 발명의 다양한 실시 예들에 따른 전자 장치(110)는 메모리(111), 송수신부(112), 프로세서(113), 카메라(114) 및 출력장치(115)를 포함한다.Referring to FIG. 2 , an electronic device 110 according to various embodiments of the present disclosure includes a memory 111 , a transceiver 112 , a processor 113 , a camera 114 , and an output device 115 .

메모리(111)는, 송수신부(112)와 연결되고 통신을 통해 서버(130)로부터 수신한 사용자의 집중도 수치와 환기 시퀀스의 강도 및 환기 시퀀스 중 출력 요소 종류에 대한 시계열 맵핑 정보, 환기 시퀀스 데이터 등을 저장할 수 있다. 또한, 메모리(111)는, 프로세서(113)와 연결되고 프로세서(113)의 동작을 위한 기본 프로그램, 응용 프로그램, 설정 정보, 프로세서(113)의 연산에 의하여 생성된 정보 등의 데이터를 저장할 수 있다. 메모리(111)는 휘발성 메모리, 비휘발성 메모리 또는 휘발성 메모리와 비휘발성 메모리의 조합으로 구성될 수 있다. 그리고, 메모리(111)는 프로세서(113)의 요청에 따라 저장된 데이터를 제공할 수 있다. The memory 111 is connected to the transceiver 112 and received from the server 130 through communication, the intensity of the ventilation sequence, and time series mapping information for the type of output element in the ventilation sequence, ventilation sequence data, etc. can be saved. In addition, the memory 111 is connected to the processor 113 and may store data such as a basic program for the operation of the processor 113 , an application program, setting information, and information generated by the operation of the processor 113 . . The memory 111 may be configured as a volatile memory, a non-volatile memory, or a combination of a volatile memory and a non-volatile memory. In addition, the memory 111 may provide stored data according to the request of the processor 113 .

송수신부(112)는, 프로세서(113)와 연결되고 신호를 전송 및/또는 수신한다. 송수신부(113)의 전부 또는 일부는 송신기(transmitter), 수신기(receiver), 또는 송수신기(transceiver)로 지칭될 수 있다. 송수신기(112)는 유선 접속 시스템 및 무선 접속 시스템들인 IEEE(institute of electrical and electronics engineers) 802.xx 시스템, IEEE Wi-Fi 시스템, 3GPP(3rd generation partnership project) 시스템, 3GPP LTE(long term evolution) 시스템, 3GPP 5G NR(new radio) 시스템, 3GPP2 시스템, 블루투스(bluetooth) 등 다양한 무선 통신 규격 중 적어도 하나를 지원할 수 있다.The transceiver 112 is connected to the processor 113 and transmits and/or receives a signal. All or part of the transceiver 113 may be referred to as a transmitter, a receiver, or a transceiver. The transceiver 112 is a wired access system and wireless access systems, such as an Institute of Electrical and Electronics Engineers (IEEE) 802.xx system, an IEEE Wi-Fi system, a 3rd generation partnership project (3GPP) system, and a 3GPP long term evolution (LTE) system. , 3GPP 5G NR (new radio) system, 3GPP2 system, may support at least one of various wireless communication standards such as Bluetooth (bluetooth).

프로세서(113)는, 본 발명에서 제안한 절차 및/또는 방법들을 구현하도록 구성될 수 있다. 프로세서(113)는 사용자의 학습 집중력을 지원하기 위한 전자 장치(110)의 전반적인 동작들을 제어한다. 예를 들어, 프로세서(113)는 송수신부(112)를 통해 정보 등을 전송 또는 수신한다. 또한, 프로세서(113)는 메모리(111)에 데이터를 기록하고, 읽는다. 프로세서(113)는 적어도 하나의 프로세서(processor)를 포함할 수 있다.The processor 113 may be configured to implement the procedures and/or methods proposed in the present invention. The processor 113 controls overall operations of the electronic device 110 to support the user's learning concentration. For example, the processor 113 transmits or receives information through the transceiver 112 . In addition, the processor 113 writes data to and reads data from the memory 111 . The processor 113 may include at least one processor.

카메라(114)는, 사용자의 얼굴을 포함하는 상반신에 대한 화상 이미지를 획득하도록 구성될 수 있다. 카메라(114)에 의하여 획득된 화상 이미지는 메모리(111)에 저장될 수 있고 프로세서(113)에 의하여 분석될 수 있다.The camera 114 may be configured to acquire a video image of the upper body including the user's face. The image image acquired by the camera 114 may be stored in the memory 111 and analyzed by the processor 113 .

출력 장치(115)는, 디스플레이 및 스피커 중 하나 이상을 포함한다. 출력 장치(115)는 프로세서(113)의 제어에 따라서 컨텐츠를 출력하거나 또는 환기 시퀀스를 출력하도록 구성될 수 있다.The output device 115 includes one or more of a display and a speaker. The output device 115 may be configured to output content or output a ventilation sequence under the control of the processor 113 .

도 3은 본 발명의 다양한 실시 예들에 따른 서버의 구성에 대한 블록도를 도시한다.3 is a block diagram illustrating a configuration of a server according to various embodiments of the present disclosure.

도 3을 참고하면, 본 발명의 다양한 실시 예들에 따른 서버(130)는 메모리(131), 송수신부(132) 및 프로세서(133)를 포함한다.Referring to FIG. 3 , the server 130 according to various embodiments of the present disclosure includes a memory 131 , a transceiver 132 , and a processor 133 .

서버(130)는 사용자의 컨텐츠 시청에 따른 생체 정보 변화와 컨텐츠 정보의 맵핑에 대한 누적 데이터를 저장하고, 전자 장치(110)의 요청에 따라서 컨텐츠의 데이터를 전송할 수 있는 서버를 의미한다.The server 130 refers to a server capable of storing accumulated data for mapping of content information and changes in biometric information according to a user's content viewing, and transmitting content data according to a request from the electronic device 110 .

메모리(131)는, 송수신부(132)와 연결되고 통신을 통해 수신한 정보 등을 저장할 수 있다. 또한, 메모리(131)는, 프로세서(133)와 연결되고 프로세서(133)의 동작을 위한 기본 프로그램, 응용 프로그램, 설정 정보, 프로세서(133)의 연산에 의하여 생성된 정보 등의 데이터를 저장할 수 있다. 메모리(131)는 휘발성 메모리, 비휘발성 메모리 또는 휘발성 메모리와 비휘발성 메모리의 조합으로 구성될 수 있다. 그리고, 메모리(131)는 프로세서(133)의 요청에 따라 저장된 데이터를 제공할 수 있다. The memory 131 is connected to the transceiver 132 and may store information received through communication and the like. Also, the memory 131 may be connected to the processor 133 and store data such as a basic program for the operation of the processor 133 , an application program, setting information, and information generated by the operation of the processor 133 . . The memory 131 may be configured as a volatile memory, a non-volatile memory, or a combination of a volatile memory and a non-volatile memory. In addition, the memory 131 may provide stored data according to the request of the processor 133 .

송수신부(132)는, 프로세서(133)와 연결되고 신호를 전송 및/또는 수신한다. 송수신부(132)의 전부 또는 일부는 송신기(transmitter), 수신기(receiver), 또는 송수신기(transceiver)로 지칭될 수 있다. 송수신기(132)는 유선 접속 시스템 및 무선 접속 시스템들인 IEEE(institute of electrical and electronics engineers) 802.xx 시스템, IEEE Wi-Fi 시스템, 3GPP(3rd generation partnership project) 시스템, 3GPP LTE(long term evolution) 시스템, 3GPP 5G NR(new radio) 시스템, 3GPP2 시스템, 블루투스(bluetooth) 등 다양한 무선 통신 규격 중 적어도 하나를 지원할 수 있다.The transceiver 132 is connected to the processor 133 and transmits and/or receives a signal. All or part of the transceiver 132 may be referred to as a transmitter, a receiver, or a transceiver. The transceiver 132 is a wired access system and wireless access systems, which are an Institute of Electrical and Electronics Engineers (IEEE) 802.xx system, an IEEE Wi-Fi system, a 3rd generation partnership project (3GPP) system, and a 3GPP long term evolution (LTE) system. , 3GPP 5G NR (new radio) system, 3GPP2 system, may support at least one of various wireless communication standards such as Bluetooth (bluetooth).

프로세서(133)는, 본 발명에서 제안한 절차 및/또는 방법들을 구현하도록 구성될 수 있다. 프로세서(133)는 사용자의 학습 집중력을 지원하기 위하여 서버(130)의 전반적인 동작들을 제어한다. 예를 들어, 프로세서(133)는 송수신부(132)를 통해 정보 등을 전송 또는 수신한다. 또한, 프로세서(133)는 메모리(131)에 데이터를 기록하고, 읽는다. 프로세서(135)는 적어도 하나의 프로세서(processor)를 포함할 수 있다.The processor 133 may be configured to implement the procedures and/or methods proposed in the present invention. The processor 133 controls overall operations of the server 130 in order to support the user's concentration on learning. For example, the processor 133 transmits or receives information and the like through the transceiver 132 . In addition, the processor 133 writes data to and reads data from the memory 131 . The processor 135 may include at least one processor.

도 4는 본 발명의 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시한다. 도 4의 실시 예에서, 전자 장치는 카메라, 출력 장치, 메모리, 송수신기 및 적어도 하나의 프로세서를 포함하며, 상기 출력 장치는 디스플레이 및 스피커 중 하나 이상을 포함한다.4 illustrates a method of operating an electronic device according to various embodiments of the present disclosure. 4 , the electronic device includes a camera, an output device, a memory, a transceiver, and at least one processor, and the output device includes one or more of a display and a speaker.

도 4를 참조하면, S401 단계에서, 전자 장치는 출력 장치를 통해 컨텐츠를 출력한다.Referring to FIG. 4 , in step S401 , the electronic device outputs content through an output device.

S402 단계에서, 전자 장치는 카메라를 통해 사용자의 얼굴을 포함하는 상반신에 대한 화상 이미지를 획득한다.In step S402 , the electronic device acquires an image of the upper body including the user's face through the camera.

S403 단계에서, 전자 장치는 프로세서를 통해 화상 이미지에서 상기 사용자의 얼굴 미세 움직임으로부터 하나 이상의 심장 반응 유효 변수를 포함하는 생체 정보를 획득한다.In step S403 , the electronic device acquires biometric information including one or more cardiac response effective variables from the micro-movement of the user's face in the image image through the processor.

본 발명의 다양한 실시 예들에 따르면, S403 단계는, 상기 화상 이미지에서 상기 사용자의 얼굴 특징 영역을 검출하는 과정과, 상기 얼굴 특징 영역에서 무의식적 얼굴 미세 떨림 데이터를 추출하고 의식적 움직임으로 인한 노이즈의 제거를 수행하는 과정과, 상기 무의식적 얼굴 미세 떨림 데이터로부터 상기 사용자의 심박수 및 진폭 정보를 획득하는 과정을 포함할 수 있다.According to various embodiments of the present disclosure, in step S403, the process of detecting the facial feature region of the user from the image image, extracting unconscious facial microtremor data from the facial feature region, and removing noise due to conscious movement It may include the process of performing the process, and the process of acquiring the heart rate and amplitude information of the user from the unconscious facial micro-tremor data.

S404 단계에서, 전자 장치는 프로세서를 통해 하나 이상의 심장 반응 유효 변수로부터 상기 사용자의 집중도 수치 및 몰입도 수치를 획득한다.In step S404 , the electronic device obtains the user's concentration level and immersion level from one or more cardiac response effective variables through the processor.

본 발명의 다양한 실시 예들에 따르면, S404 단계는, 상기 사용자의 심박수 및 진폭 정보를 포함하는 상기 하나 이상의 심장 반응 유효 변수로부터 상기 사용자의 집중도 수치를 획득하는 과정과, 상기 집중도 수치의 임계 값 이상 유지 정도에 따라서 상기 몰입도 수치를 획득하는 과정을 포함할 수 있다.According to various embodiments of the present disclosure, in step S404, the process of obtaining the concentration value of the user from the one or more cardiac response effective variables including the heart rate and amplitude information of the user, and maintaining the concentration value above a threshold value It may include a process of acquiring the level of immersion according to the degree.

S405 단계에서, 전자 장치는 프로세서를 통해 사용자의 상기 집중도 수치의 분당 평균 값이 임계 집중도 수치 이하로 떨어지는지 여부 및 상기 몰입도 수치의 분당 평균 값이 임계 몰입도 수치 이하로 떨어지는지 여부에 기반하여 환기 시퀀스의 출력 여부를 결정한다. 상기 환기 시퀀스는 복수의 요소들로 구성된다.In step S405, the electronic device, through the processor, based on whether the average value per minute of the concentration value of the user falls below the threshold concentration value and whether the average value per minute of the engagement value falls below the threshold concentration value, based on whether Determines whether the ventilation sequence is output or not. The ventilation sequence consists of a plurality of elements.

본 발명의 다양한 실시 예들에 따르면, 환기 시퀀스를 구성하는 상기 복수의 요소들은 학습 휴식의 권고 메시지 출력, 스트레칭 동영상의 출력, 휴식 시간의 카운팅 표시 출력, 상기 학습 컨텐츠를 출력하는 화면의 배경 색깔 변화 출력, 비프 사운드(beep sound)의 출력, 백색 소음의 출력을 포함하고, 상기 환기 시퀀스의 강도는, 상기 환기 시퀀스의 단위 시간 당 출력 빈도, 상기 환기 시퀀스의 시청각적 출력 강도 중 적어도 하나와 관련될 수 있다.According to various embodiments of the present disclosure, the plurality of elements constituting the ventilation sequence output a recommendation message of a learning break, an output of a stretching video, a counting display output of a break time, a background color change output of the screen outputting the learning content , an output of a beep sound, an output of white noise, wherein the intensity of the ventilation sequence may be related to at least one of an output frequency per unit time of the ventilation sequence and an audiovisual output intensity of the ventilation sequence there is.

S406 단계에서, 전자 장치는 환기 시퀀스의 출력을 결정한 경우, 출력 장치를 통해 상기 환기 시퀀스를 초기 설정된 강도 및 출력 요소 종류로 출력한다. 상기 출력 요소 종류는 상기 복수의 요소들 중 출력되는 하나 이상의 요소이다.In step S406, when the output of the ventilation sequence is determined, the electronic device outputs the ventilation sequence with an initially set intensity and an output element type through the output device. The output element type is at least one output element among the plurality of elements.

S407 단계에서, 전자 장치는 프로세서를 통해 집중도 수치의 변화에 기반하여 상기 환기 시퀀스의 강도 및 상기 출력 요소 종류를 조정한다.In step S407, the electronic device adjusts the intensity of the ventilation sequence and the type of the output element based on the change in the concentration value through the processor.

본 발명의 다양한 실시 예들에 따르면, S407 단계는, 집중도 수치가 상기 임계 집중도 수치에서 하락하는 경우, 상기 비프 사운드의 출력 강도를 조정하는 과정과, 상기 집중도 수치가 상기 임계 집중도 수치 이하에서 상승하는 경우, 상기 백색 소음의 출력 강도를 조정하는 과정을 포함할 수 있다.According to various embodiments of the present disclosure, in step S407, when the concentration level falls from the threshold concentration level, adjusting the output intensity of the beep sound, and when the concentration level rises below the threshold concentration level , adjusting the output intensity of the white noise.

본 발명의 다양한 실시 예들에 따르면, S407 단계는, 복수의 요소들 중 상기 출력 요소 종류의 개수를 상기 집중도 수치의 구간 및 하락 기울기에 따라서 조정하는 과정을 포함할 수 있다.According to various embodiments of the present disclosure, step S407 may include adjusting the number of types of the output element among a plurality of elements according to a section and a downward slope of the concentration value.

본 발명의 다양한 실시 예들에 따르면, 도 4의 실시 예는, 집중도 수치의 변화, 상기 환기 시퀀스의 강도 및 상기 출력 요소 종류에 대한 시계열 맵핑 정보를 저장하는 과정과, 상기 시계열 맵핑 정보를 서버에게 송신하는 과정과, 상기 서버로부터 누적된 시계열 맵핑 정보를 수신하는 과정을 더 포함할 수 있으며, S407 단계는 상기 누적된 맵핑 정보에 기반하여 수행될 수 있다.According to various embodiments of the present disclosure, in the embodiment of FIG. 4 , a process of storing time series mapping information for a change in concentration level, the intensity of the ventilation sequence, and the type of the output element, and transmitting the time series mapping information to a server and receiving accumulated time series mapping information from the server, and step S407 may be performed based on the accumulated mapping information.

본 발명의 다양한 실시 예들에 따르면, S407 단계는, 상기 누적된 맵핑 정보에 기반하여 상기 환기 시퀀스의 강도 및 상기 출력 요소 종류의 조정 전후 상기 집중도 수치가 하락에서 상승으로 전환된 강도 및 출력 요소 종류 중 가장 낮은 강도 및 상기 출력 요소 종류부터 순서대로 적용함으로써 수행될 수 있다. 이와 같은 동작을 통해, 집중도 및 몰입도가 떨어졌더라도, 필요 이상의 강도 또는 필요 이상의 많은 종류의 출력 요소를 출력하기 보다는, 집중도 및 몰입도의 상승이라는 목적을 달성할 수 있는 최소의 강도 또는 최소의 종류의 출력 요소를 출력할 수 있다.According to various embodiments of the present disclosure, in step S407, based on the accumulated mapping information, the intensity of the ventilation sequence before and after adjustment of the intensity of the ventilation sequence and the type of the output element is among the intensity and the output element type in which the concentration value is converted from falling to rising This can be done by applying in order starting with the lowest intensity and the type of the output element. Through such an operation, even if concentration and immersion are lowered, rather than outputting more than necessary intensity or many types of output elements that are more than necessary, the minimum intensity or minimum intensity that can achieve the purpose of increasing concentration and immersion It can output any kind of output element.

S408 단계에서, 전자 장치는 프로세서를 통해 집중도 수치의 분당 평균 값 및 상기 몰입도 수치의 분당 평균 값이 상기 임계 집중도 수치 및 상기 임계 몰입도 수치 이상으로 회복되었는지 여부를 결정한다.In step S408 , the electronic device determines, through the processor, whether the average value per minute of the concentration level and the average value per minute of the level of immersion are restored to greater than or equal to the threshold level of concentration and the threshold level of engagement.

S409 단계에서, 전자 장치는 집중도 수치의 분당 평균 값 및 상기 몰입도 수치의 분당 평균 값이 상기 임계 집중도 수치 및 상기 임계 몰입도 수치 이상으로 회복된 경우, 출력 장치를 통해 상기 환기 시퀀스의 출력을 중단한다.In step S409, the electronic device stops the output of the ventilation sequence through the output device when the average value per minute of the concentration value and the average value per minute of the immersion value are restored to more than the threshold concentration value and the threshold immersion value do.

도 5는 본 발명의 다양한 실시 예들에 따른 생체 정보 획득 과정의 일 예를 도시한다.5 illustrates an example of a biometric information acquisition process according to various embodiments of the present disclosure.

도 5를 참조하면, 사용자의 얼굴을 포함하는 상반신에 대한 화상 이미지로부터 사용자의 생체 정보를 획득하는 과정의 일 예를 도시한다.Referring to FIG. 5 , an example of a process of obtaining biometric information of a user from an image image of an upper body including a user's face is shown.

구체적으로, 전자 장치는 화상 이미지 중 얼굴 내 특정 감정 점들의 패턴, 상반신 내 특정 움직임 점들의 패턴을 분석함으로써 사용자의 감정 종류, 감정 비율의 정보를 획득할 수 있다. 보다 상세하게는, 사용자로부터 기본 표정(무표정)과 이에 비교되는 다수의 감정상태에 따르는 감정 표정의 안면 영상을 획득하고, 기본 표정 또는 감정 표현의 안면 영상에, 안면 부위별 기준 정점을 정의하는 표준 모델을 마스킹(매칭)하여 사용자의 안면 영상에 안면 부위별로 다수의 정점들을 맵핑한 이후에 기본 표정과 감정 표현의 안면 영상에서 동일 안면 부위에서의 정점간의 좌표 변화 값을 추출하고 상기 정점들을 인체 안면에 정의되어 있는 표정단위(Action Unit)으로 별로 그룹화하고, 표정단위 그룹별 정점들의 중점(Centroid)의 변화 값을 포함하는 표정단위 안면 움직임 정보를 추출하고 추출한 안면 움직임 정보를 데이터 베이스화 하여 사용자의 생체 정보를 획득할 수 있다.Specifically, the electronic device may acquire information on the user's emotion type and emotion ratio by analyzing a pattern of specific emotion points in the face and a pattern of specific movement points in the upper body of the image image. More specifically, a standard for obtaining a facial image of a basic facial expression (non-expression) from a user and an emotional expression according to a plurality of emotional states compared thereto, and defining a reference vertex for each facial region in the facial image of the basic facial expression or emotional expression After mapping a number of vertices for each facial region on the user's facial image by masking (matching) the model, the coordinate change value between vertices in the same facial region is extracted from the facial image of the basic expression and emotion expression, and the vertices are applied to the human face It is grouped by expression unit defined in information can be obtained.

도 6은 본 발명의 다양한 실시 예들에 따른 사용자의 화상 이미지로부터 얼굴 포인트들을 검출하는 과정의 일 예를 도시한다.6 illustrates an example of a process of detecting face points from a user's video image according to various embodiments of the present disclosure.

구체적으로, 도 6은 사용자의 얼굴을 포함한 상반신에 대한 화상 이미지로부터 얼굴 이미지 데이터를 추출하는 과정을 도시한다.Specifically, FIG. 6 illustrates a process of extracting face image data from an image image of the upper body including the user's face.

우선, 전자 장치는 Haar 특징 추출을 수행한다. 구체적으로, 전자 장치는 눈, 코와 같은 얼굴 특징에 해당하는 커널을 이용해 이미지의 각 부분을 픽셀 단위로 비교하여 입력 영상 이미지로부터 얼굴이 존재할 확률을 계산한다. 전자 장치는 입력 영상에서 검정 영역과 흰색 영역에 해당하는 밝기 값을 빼서 임계 값 이상인 것을 찾는다.First, the electronic device performs Haar feature extraction. Specifically, the electronic device calculates the probability of the presence of a face from the input image image by comparing each part of the image in units of pixels using kernels corresponding to facial features such as eyes and nose. The electronic device subtracts brightness values corresponding to the black region and the white region from the input image to find one that is greater than or equal to the threshold value.

다음으로, 전자 장치는 캐스케이드(cascade) 분류를 수행한다. 구체적으로, 전자 장치는 Haar 특징으로 얼굴 여부를 인식할 수 있는 캐스케이드 분류기를 사용하여 얼굴을 검출한다. 도 6의 실시 예에서는 미리 트레이닝된 Frontalface_alt2 모델을 적용하였다. 전자 장치는 눈과 같은 확실한 Haar 특징으로부터 후보를 축소한 후, 자세한 얼굴 요소의 Haar 특징으로 최종 얼굴을 검출한다.Next, the electronic device performs cascade classification. Specifically, the electronic device detects a face by using a cascade classifier capable of recognizing whether a face is a face by the Haar feature. In the embodiment of FIG. 6 , a pre-trained Frontalface_alt2 model is applied. The electronic device reduces candidates from certain Haar features such as eyes, and then detects the final face with Haar features of detailed face elements.

다음으로, 전자 장치는 랜드마크를 검출한다. 도 6의 실시 예에서는, 전자 장치가 iBUG 300-W 데이터셋으로 트레이닝 된 DLIB 기반 Regression Trees 앙상블 모델을 적용하였다. Haar 모델로부터 검출된 정면 얼굴에 대해 눈, 코, 입, 눈썹, 턱 등에 대한 얼굴 포인트 68개를 검출한다. 각 얼굴 포인트는 2차원 공간에서 x, y 좌표 값을 지니고 있다.Next, the electronic device detects the landmark. In the example of FIG. 6 , the DLIB-based Regression Trees ensemble model trained on the iBUG 300-W dataset is applied to the electronic device. For the front face detected from the Haar model, 68 face points for eyes, nose, mouth, eyebrows, and chin are detected. Each face point has an x, y coordinate value in 2D space.

다음으로, 전자 장치는 좌표계 정규화를 수행한다. 구체적으로, 검출된 얼굴 포인트는 화면의 왼쪽 상단을 원점으로 하는 좌표계에 위치하고 있다. 이는 동일한 표정임에도 불구하고 얼굴의 위치에 따라 다른 값을 보일 수 있어 노이즈로 작용한다. 따라서 미간을 원점으로 하는 상대좌표계로 정규화하여 이러한 문제를 해결할 수 있다.Next, the electronic device performs coordinate system normalization. Specifically, the detected face point is located in a coordinate system having the upper left corner of the screen as the origin. Although it is the same expression, different values may be displayed depending on the position of the face, which acts as noise. Therefore, this problem can be solved by normalizing it to a relative coordinate system with the forehead as the origin.

도 7은 본 발명의 다양한 실시 예들에 따른 사용자의 화상 이미지에 기반하여 심장 반응 정보 및 사용자 표정 정보를 인식하는 과정의 일 예를 도시한다.7 illustrates an example of a process of recognizing heart response information and user expression information based on a user's image according to various embodiments of the present disclosure.

구체적으로, 도 7은 본 발명의 다양한 실시 예들에 따른 비접촉 영상 기반 센싱 기술을 도시한다.Specifically, FIG. 7 illustrates a non-contact image-based sensing technology according to various embodiments of the present disclosure.

본 발명의 다양한 실시 예들에 따르면, 전자 장치는 영상 기반 비접촉으로 사용자의 내면 반응을 실시간으로 센싱하고, 영상에서 감지된 얼굴의 미세 떨림에 기반하여 사용자의 심장 반응, 감정 반응을 분석할 수 있다.According to various embodiments of the present disclosure, the electronic device may sense the user's inner reaction in real time through image-based non-contact, and analyze the user's heart reaction and emotional reaction based on the micro-tremor of the face detected in the image.

도 7을 참조하면, 1 단계로, 전자 장치는 영상 기반 비접촉 실시간 얼굴 이미지를 검출 및 추적할 수 있다. 전자 장치는 영상 기반 비접촉식 얼굴 특징 영역을 검출할 수 있다. 전자 장치는 사용자의 얼굴 특징 영역 별 실시간 신호를 추적해서 분석할 수 있다.Referring to FIG. 7 , in step 1, the electronic device may detect and track an image-based non-contact real-time face image. The electronic device may detect the image-based non-contact facial feature region. The electronic device may track and analyze a real-time signal for each facial feature area of the user.

2 단계로, 전자 장치는 얼굴 미세 떨림 추출 및 의식적 움직임 노이즈 제거를 수행할 수 있다. 구체적으로, 전자 장치는 1 단계에서 분석한 신호에 대하여 주파수 스펙트럼을 분석하고, 움직임을 노이즈 필터링하여, 사용자의 무의식적인 미세 움직임을 추출할 수 있다.In a second step, the electronic device may perform facial micro-tremor extraction and conscious motion noise removal. Specifically, the electronic device may analyze a frequency spectrum of the signal analyzed in step 1, noise-filter the motion, and extract the user's unconscious fine motion.

3 단계로, 전자 장치는 사용자의 무의식적 미세 떨림에 기반하여 사용자의 심장 반응을 분석할 수 있다. 구체적으로, 사용자의 무의식적 미세 움직임 데이터에 기반하여 ECG(electrocardiogram), RRI(R-R interval)을 추출하고, ECG, RRI에 대한 시간 도메인 분석하며, ECG, RRI를 주파수 파워 스펙트럼 변환 후 주파수 도메인 분석함으로써, 심장 반응의 유효 변수들을 추출할 수 있다. 전자 장치는 심장 반응의 유효 변수들에 기반하여 사용자의 심장 반응을 분석할 수 있다.In step 3, the electronic device may analyze the user's heart response based on the user's subconscious minute tremors. Specifically, by extracting an electrocardiogram (ECG) and RRI (RR interval) based on the user's unconscious fine movement data, analyzing the time domain for ECG and RRI, and analyzing the frequency domain after converting the frequency power spectrum to ECG and RRI, Effective parameters of cardiac response can be extracted. The electronic device may analyze the user's cardiac response based on effective parameters of the cardiac response.

4 단계로, 전자 장치는 사용자의 무의식적 미세 떨림에 기반하여 사용자의 표정을 분석할 수 있다. 구체적으로, 전자 장치는 얼굴 이미지 내 AU(action units)-특징점을 맵핑하고, 모든 AU에 대하여 프레임 평균을 도출하며, 임계 값에 기반하여 모든 AU 후보 중 특정 AU를 선택하고, 선택된 AU로부터 표정 유효 변수들을 추출할 수 있다. 전자 장치는 표정 유효 변수들에 기반하여 사용자의 감정을 분석할 수 있다.In step 4, the electronic device may analyze the user's facial expression based on the user's subconscious minute tremors. Specifically, the electronic device maps the AU (action units)-feature points in the face image, derives a frame average for all AUs, selects a specific AU from among all AU candidates based on a threshold value, and uses an expression from the selected AU variables can be extracted. The electronic device may analyze the user's emotion based on the effective expression variables.

본 발명의 다양한 실시 예들에 따른 전자 장치는 카메라에 기반하여 사용자의 심장 반응, 표정, 시선, 음성 등 여러 변수들의 유기적인 관계를 고려하여 사용자의 내면 반응을 비접촉으로 분석할 수 있다.The electronic device according to various embodiments of the present disclosure may non-contact analyze the user's inner reaction based on the camera in consideration of the organic relationship of various variables such as the user's heart reaction, facial expression, gaze, and voice.

전자 장치는 화상 이미지 중 얼굴의 미세 떨림 정보를 이용하여 심박수 정보 및 진폭 정보를 포함하는 심전도 정보를 획득할 수 있다. 이 때, 비접촉 형태의 카메라를 이용하여 영상으로부터 미세한 움직임 정보를 추출하여 이로부터 심전도 정보를 획득할 수 있다. 구체적으로, 아래와 같은 방법으로 심전도 정보를 획득할 수 있다.The electronic device may obtain electrocardiogram information including heart rate information and amplitude information by using the facial microtremor information in the image image. In this case, microscopic motion information may be extracted from the image using a non-contact type camera, and electrocardiogram information may be obtained therefrom. Specifically, the electrocardiogram information can be obtained in the following way.

1) (영상 획득) 사용자의 얼굴이 포함되는 상반신 화상 이미지로부터 연속적인 영상 데이터를 생성한다. 1) (Image Acquisition) Continuous image data is generated from the upper body image including the user's face.

2) (안면 트랙킹-Face Tracking) 인체의 미세한 움직임을 머리에서 추출하기 위하여 OpenCV를 이용한 안면인식을 통하여 영상정보를 분리한다. OpenCV에 기반을 둔 안면인식시스템(facial recognition system)은 디지털 이미지를 통해 각 사람을 자동으로 식별하는 컴퓨터 지원 응용 프로그램을 말하며, 이는 화상 이미지에 나타나는 선택된 얼굴 특징과 안면 데이터베이스를 서로 비교함으로써 이루어진다. 도 6의 원본 영상에 나타나는 사각형이 안면부분의 트랙킹 영역을 나타낸다. 이것은 사용자의 움직임에 대응하여 안면 부분에 대한 트랙킹이 수행된다. 2) (Face Tracking) To extract minute movements of the human body from the head, image information is separated through face recognition using OpenCV. A facial recognition system based on OpenCV is a computer-aided application that automatically identifies each person through a digital image, by comparing selected facial features appearing in the video image with a facial database. A rectangle appearing in the original image of FIG. 6 indicates the tracking area of the face. In response to the user's movement, tracking of the facial part is performed.

3) (공간 분리-Spatial Decomposition) 잘 알려진 영상의 공간 분리 기법으로 가우시안(Gaussian blur)와 다운 샘플링(down sample)을 통하여 각 주파수(Frequency)별 공간을 분리한다.3) (Spatial Decomposition) A well-known image spatial separation technique that separates the space for each frequency through Gaussian blur and down sampling.

4) (미세움직임 정보 추출) 생체신호간 상관성이 있는 주파수 대역을 선정하고 그 선정된 대역의 미세움직임 정보를 취득한다. 4) (Extraction of fine motion information) Select a frequency band with correlation between biosignals and acquire fine motion information in the selected band.

5) (시간 처리-Temporal Processing) 상기 추출된 미세움직임 정보를 시간처리를 이용해 시간의 흐름에 따른 미세움직임 정보와 관련된 주파수 대역의 데이터를 추출하고 추출된 데이터를 증폭한다.5) (Temporal Processing) Using temporal processing of the extracted fine motion information, data of a frequency band related to the fine motion information according to the passage of time is extracted and the extracted data is amplified.

6) (심전도 정보 추출) 미세움직임 정보와 관련된 주파수 대역의 데이터 값을 매 일정 시간마다 측정되는 영상의 움직임 데이터의 1프레임의 평균의 차이 값을 계산하여 이전 상태와 현 상태의 평균적으로 움직임의 차이 값을 계산하여 미세 움직임의 양을 추출하여 이를 심전도 정보로 변환할 수 있다. 6) (Extraction of electrocardiogram information) The difference between the average of the average of one frame of the motion data of the image measured every predetermined time for the data value of the frequency band related to the micro-motion information is calculated, and the average difference between the previous and current motions By calculating the value, the amount of micro-movement can be extracted and converted into ECG information.

나아가, 전자 장치는 심전도 정보인 심박수 및 진폭 정보에 기반하여 사용자의 집중도 수치에 대한 정보를 획득할 수 있다.Furthermore, the electronic device may acquire information on the concentration value of the user based on heart rate and amplitude information, which are electrocardiogram information.

일 예로, 사용자는 게임과 같은 흥미로운 컨텐츠를 통해 자극을 받게 되는데, 이때 퀘스트 등이 주어지는 경우 교감적 활성화가 나타내게 되고, 집중도 수준에 따라 심박과 진폭 간의 특정 관계가 도출될 수 있다. For example, the user is stimulated through interesting content such as a game. In this case, when a quest is given, sympathetic activation is indicated, and a specific relationship between heart rate and amplitude can be derived according to the concentration level.

즉, 일반적으로 사용자에게 자극이 적은 중립상태에서는 서맥(느린 맥박) 범위에서는 심박 빠르기가 느리며 이에 따라 1회 심박출량이 커져야 하는 반면에, 고몰입(High Engagement) 및 저몰입(Low Engagement)에서는 중립상태에 비해 상대적으로 심박수가 높아지고 진폭이 작아지는 패턴을 보이게 된다. That is, in general, in a neutral state with less stimulation to the user, the heart rate is slow in the bradycardia (slow pulse) range, and the stroke volume should increase accordingly, whereas in High Engagement and Low Engagement it is neutral. It shows a pattern in which the heart rate is relatively high and the amplitude is small compared to the state.

구체적으로, 심박수와 진폭의 상호작용의 룰을 분석하여 집중도를 정량적으로 해석할 수 있으며, 특정 자극에 대해 집중하고 있는 사용자의 심전도 신호를 검출하고, 심전도 신호로부터 심박수(BPM)과 실제 진폭(actual amplitude) 데이터를 검출한다. 검출된 데이터를 분석하여 심박수와 실제 진폭 간의 상관관계를 통해 집중도를 도출해 낼 수 있다.Specifically, it is possible to quantitatively interpret concentration by analyzing the rules of the interaction between heart rate and amplitude, detect the user's ECG signal concentrating on a specific stimulus, and extract the heart rate (BPM) and actual amplitude (actual) from the ECG signal. amplitude) data is detected. By analyzing the detected data, it is possible to derive the concentration through the correlation between the heart rate and the actual amplitude.

본 발명의 다양한 실시 예들에 따르면, 전자 장치는, 화상 이미지를 획득하면서 동시에 추가적으로 사용자의 음성 정보를 획득할 수 있다. 전자 장치는 음성 정보 내 운율 특성, 음성 스펙트럼 특성을 분석함으로써 사용자의 감정 종류, 감정 비율의 정보를 획득할 수 있다. 즉, 전자 장치는 화상 이미지 중 얼굴 내 특정 감정 점들의 패턴, 상반신 내 특정 움직임 점들의 패턴과 함께 음성 정보 내 운율 특성, 음성 스펙트럼 특성에 기반하여 사용자의 감정 종류, 감정 비율의 정보를 획득할 수 있다.According to various embodiments of the present disclosure, the electronic device may additionally acquire user voice information while acquiring a video image. The electronic device may acquire information on the user's emotion type and emotion ratio by analyzing a prosody characteristic and a voice spectrum characteristic in the voice information. That is, the electronic device can obtain information on the user's emotion type and emotion ratio based on the prosody characteristic and the voice spectrum characteristic in the voice information along with the pattern of specific emotional points in the face and the pattern of specific movement points in the upper body in the image image. there is.

한편, 본 발명의 다른 실시예에서 전자 장치는 웨어러블 디바이스로부터 수신한 심전도 정보, 영상정보 및 음성정보에 따라 사용자의 생체정보를 획득할 수 있다. 즉, 사용자가 스마트 와치(smart watch)와 같은 웨어러블 장치를 착용하고, 웨어러블 장치가 사용자의 신체와 접촉하면서 심전도 정보를 측정할 수 있다. 이 경우, 전자 장치는 웨어러블 장치로부터 블루투스 등의 무선 통신을 통해 측정된 심전도 정보를 수신할 수 있다. 전자 장치는 수신한 심전도 정보에 기반하여 사용자의 심박수, 집중도 등의 생체 정보를 산출할 수 있다. 또한, 전자 장치는 상술한 화상 이미지와 웨어러블 장치로부터 수신한 심전도 정보를 함께 고려하여 사용자의 심박수, 집중도 등의 생체 정보를 산출할 수 있다.Meanwhile, in another embodiment of the present invention, the electronic device may acquire the user's biometric information according to the electrocardiogram information, the image information, and the voice information received from the wearable device. That is, the user wears a wearable device such as a smart watch, and the wearable device may measure the electrocardiogram information while the wearable device comes into contact with the user's body. In this case, the electronic device may receive measured ECG information from the wearable device through wireless communication such as Bluetooth. The electronic device may calculate biometric information such as the user's heart rate and concentration based on the received electrocardiogram information. In addition, the electronic device may calculate the user's biometric information, such as a heart rate and concentration, by considering both the above-described image image and the electrocardiogram information received from the wearable device.

도 8은 본 발명의 다양한 실시 예들에 따라서, 사용자의 생체 정보를 수집하고 서비스 솔루션을 제공하는 과정을 도시한다.8 illustrates a process of collecting user's biometric information and providing a service solution, according to various embodiments of the present disclosure.

본 발명의 다양한 실시 예들에 따르면, 전자 장치는 메모리에 저장된 프로그램 및 프로세서의 구동을 통하여 비대면 학습 시 발생하는 학습자의 비언어적 표현, 학습매체와의 상호작용 등을 인공지능 기술로 분석하여 사용자 감정 및 인지 상태를 정량적으로 측정하는 감정인식 엔진을 구현할 수 있다. 예를 들어, 전자 장치는 i) 카메라 및 마이크 기반 사용자의 영상 및/또는 음성 데이터를 수집 및 축적하고, ii) 얼굴의 반응 요소(표정, 시선 처리), 생체 반응 요소(몰입도, 긴장도, 집중도), 음성 반응 요소(운율 특성, 스펙트럼 특성, 음가/음질 특성, 강세, 발음, 억양)를 추출 및 분석하며, iii) 반응 요소 별 데이터를 처리 및 가공(반응 요소 별 측정 값 통합, 유효 변수 분석, 유효 변수 별 감정 인식 판별, 필터링 및 통합 분석, 멀티 모달 데이터 정제 및 가공)하며, iv) 감정 데이터를 분석 및 연동 연계(감정 분석 결과 기반 리포트 생성, 맞춤형 활동 교수 설계 및 추천)를 할 수 있다.According to various embodiments of the present disclosure, an electronic device analyzes a learner's non-verbal expression and interaction with a learning medium that occurs during non-face-to-face learning through driving a program and a processor stored in a memory using artificial intelligence technology to analyze user emotions and It is possible to implement an emotion recognition engine that quantitatively measures the cognitive state. For example, the electronic device i) collects and accumulates camera and microphone-based user's video and/or audio data, ii) facial response elements (expression, gaze processing), biometric response elements (immersion, tension, concentration) ), extract and analyze voice response elements (rhythmic characteristics, spectral characteristics, sound/sound quality characteristics, stress, pronunciation, intonation), and iii) process and process data for each response element (integration of measurement values for each response element, analysis of effective variables) , emotion recognition discrimination by effective variable, filtering and integrated analysis, multi-modal data purification and processing), and iv) analysis and interlocking of emotional data (creating reports based on emotion analysis results, designing and recommending customized activity professors) .

도 9는 본 발명의 다양한 실시 예들에 따른 생체 정보의 일 예를 도시한다.9 illustrates an example of biometric information according to various embodiments of the present disclosure.

도 9의 그래프들은 본 발명의 다양한 실시 예들에 따라서 획득한 사용자의 생체 정보 중 심박수(heart rate, HR), 집중도(focus), 몰입도(engagement)에 대한 정보를 나타낸다.The graphs of FIG. 9 show information on heart rate (HR), focus, and engagement among the user's biometric information obtained according to various embodiments of the present disclosure.

도 9의 좌측 그래프는 사용자의 시간별 심박수(heart rate, HR), 집중도(focus), 몰입도(engagement)의 평균 값 대비 시간별 상대적 변화를 도시한다. 구체적으로, y축은 심박수, 집중도의 평균 값을 50으로 하였을 때 시간 별 상대적 수치를 도시하며, x 축은 시간을 나타낸다. 도 9의 좌측 그래프에 따르면, 집중(focused) 상태가 일정 시간 지속되면 몰입(engagement) 상태가 나타남을 알 수 있다. 즉, 집중도가 증가하고 유지가 되어야 일정 시간 후 몰입도가 상승한다.The graph on the left of FIG. 9 shows relative changes over time compared to average values of a user's heart rate (HR), focus, and engagement over time. Specifically, the y-axis shows relative values for each time when the average value of heart rate and concentration is 50, and the x-axis shows time. According to the graph on the left of FIG. 9 , it can be seen that an engagement state appears when the focused state continues for a predetermined time. In other words, the level of concentration increases after a certain period of time when the level of concentration is increased and maintained.

도 9의 우측 그래프는 사용자의 시간별 집중도를 나타낸다. 구체적으로, y축은 집중도의 수치를 나타내며, x 축은 시간을 나타낸다. y 축에서 2는 가장 높은 집중도를 의미하고, 0은 가장 낮은 집중도를 의미한다. y 축 값에 대하여, 0은 노말(normal), 1은 집중(focus), 2는 몰입(engage)을 의미할 수 있다. 예를 들어, 0의 노말 상태에서 집중도가 높아지면 사용자는 집중 상태에 들어가고, 사용자의 집중도가 집중 상태에서 더 높아져 2에 이르면 몰입 상태에 들어갈 수 있다.The graph on the right of FIG. 9 shows the user's concentration by time. Specifically, the y-axis represents the numerical value of concentration, and the x-axis represents time. On the y-axis, 2 means the highest concentration, and 0 means the lowest concentration. With respect to the y-axis value, 0 may indicate normal, 1 may indicate focus, and 2 may indicate engagement. For example, when the concentration increases from the normal state of 0, the user enters the concentration state, and when the concentration of the user becomes higher from the concentration state and reaches 2, the user enters the immersion state.

본 발명의 다양한 실시 예들은, 도 9의 그래프들과 같이 추출한 사용자의 집중도를 높이는 것을 목적으로 한다.Various embodiments of the present invention aim to increase the concentration of the extracted user as shown in the graphs of FIG. 9 .

도 10은 본 발명의 다양한 실시 예들에 따라서 집중도(focus) 몰입도(engagement)의 관계를 도시한다.10 illustrates a relationship between focus and engagement according to various embodiments of the present disclosure.

본 발명의 다양한 실시 예들에 따르면, 전자 장치는 심장 반응 기반 감정 인식을 수행할 수 있다. 본 발명의 다양한 실시 예들에 따른 심장 반응 메커니즘은 다음과 같다. 심박수(heart rate, HR)는 동방결절의 심박 조율 세포의 자발성에 자율 신경계가 영향을 줌으로써 결정된다. 동방 결절은 자율 신경계(autonomic nervous system)의 교감 신경계(sympathetic)와 부교감 신경계(parasympathetic)의 균형 상태에 의해 심박 수를 결정한다. 교감 신경계는 각성 상태로 향하게 하는 반면, 부교감 신경계는 신체를 조용하고 이완 상태로 향하게 하는 특징을 보인다. 본 발명의 다양한 실시 예들에 따른 심장 반응과 감정의 분석은 다음과 같다. 호흡, 혈압, 호르몬, 감정 등에 대한 반응으로 심장의 변동성이 발생하고, 그에 따른 심박수의 상승이 이루어지면 교감 신경계 반응을 통한 각성 상태인 집중(focused)으로 판단한다. 이러한 집중 상태가 일정 시간 지속되면, 몰입(engagement) 상태로 판단한다. 따라서, 전자 장치는 i) 카메라를 이용한 사용자의 얼굴을 포함한 상반신 영상 입력, ii) 영상을 통한 사용자의 심박수 추출, iii) 심박수 기반 감정 인식을 통해, 심장 반응을 통한 감정 인식을 수행할 수 있다.According to various embodiments of the present disclosure, the electronic device may perform emotion recognition based on a heart response. A cardiac response mechanism according to various embodiments of the present invention is as follows. Heart rate (HR) is determined by the autonomic nervous system's influence on the spontaneity of pacemaker cells in the sinus node. The sinus node determines the heart rate by the balance of the sympathetic and parasympathetic nervous systems of the autonomic nervous system. The sympathetic nervous system directs the body to an aroused state, while the parasympathetic nervous system tends to direct the body to a calm and relaxed state. The analysis of heart reactions and emotions according to various embodiments of the present invention is as follows. When heart variability occurs in response to respiration, blood pressure, hormones, emotions, etc. and the heart rate rises accordingly, it is determined as focused, which is an awakening state through a sympathetic nervous system response. When this concentration state continues for a certain period of time, it is determined as an engagement state. Accordingly, the electronic device may perform emotion recognition through a heart response through i) input of an upper body image including a user's face using a camera, ii) extraction of a user's heart rate through an image, and iii) heart rate-based emotion recognition.

몰입(engagement)이란 헝가리 심리학자인 Csikszentmihalyi Mihaly에 의해 정의되었으며, 주위의 모든 잡념, 방해물들을 차단하고 원하는 어느 한 곳에 자신의 모든 정신을 집중하는 일을 의미한다. 몰입은 활동에 의해 만들어지는 어떤 즐거움과 관련이 있으며, 이런 감정이 동기 부여를 유발해 활동을 다시 하도록 유도하는 것이다. 따라서, 몰입의 상태는 즐거움(enjoyment) 및 주의력 집중(focused attention)과 밀접한 연관이 있다.Engagement is defined by the Hungarian psychologist Csikszentmihalyi Mihaly, and it means to cut off all distractions and distractions around you and to focus all your mind on one desired place. Immersion has to do with the pleasure created by the activity, and it is this emotion that motivates you to do the activity again. Therefore, the state of immersion is closely related to enjoyment and focused attention.

심리적 몰입의 상태에서 신체 반응은 다음과 같다. 사람의 감정은 신체적 무의식적 생리 반응을 유발하여, 관찰과 측정이 가능하다. 역-U 이론(Inverted-U theory)에 따르면, 각성 상태를 통해 작업 효율(performance)을 높일 수 있다. 따라서, 몰입은 각성으로 인해 평상시보다 집중이 이루어지는 상태로 정의할 수 있다. 도 10의 우측 그래프에 따르면, 집중(focused) 상태가 일정 시간 지속되면 몰입(engagement) 상태가 나타남을 알 수 있다.In the state of psychological immersion, the body reaction is as follows. Human emotions induce physical and unconscious physiological responses, which can be observed and measured. According to the Inverted-U theory, it is possible to increase work performance (performance) through arousal state. Therefore, immersion can be defined as a state in which concentration is made more than usual due to awakening. According to the graph on the right of FIG. 10 , it can be seen that an engagement state appears when the focused state continues for a predetermined time.

본 발명의 다양한 실시 예들에 따르면, 전자 장치는 심박수, 집중도, 몰입도 등 비언어적 요소에 따라 감성 데이터와 집중 데이터를 수집한다. 전자 장치는 심박수 등의 생체 정보 인식을 통해 획득한 집중도, 몰입도 등의 생체 정보 데이터를 누적하여 사용자의 반응도가 높은 환기 시퀀스를 분석 및 매칭할 수 있다.According to various embodiments of the present disclosure, the electronic device collects emotional data and concentration data according to non-verbal factors such as heart rate, concentration, and immersion. The electronic device may analyze and match a ventilation sequence in which a user's responsiveness is high by accumulating bio-information data such as concentration and immersion obtained through bio-information recognition such as heart rate.

본 발명의 다양한 실시 예들에 따르면, 전자 장치는 사용자의 활동 중 심박수와 같은 바이오 로그를 데이터로 수집하여 사용자의 집중도 및 몰입도가 높은 시점과 낮은 시점을 분석하고, 사용자의 집중도 및 몰입도가 떨어졌을 때 등 적절한 환기 시퀀스를 제공할 수 있다.According to various embodiments of the present disclosure, the electronic device collects biologs such as heart rate during a user's activity as data, analyzes a point in time when a user's concentration and immersion is high and a point in time when the user's concentration is low, It is possible to provide an appropriate ventilation sequence, such as when

본 발명의 다양한 실시 예들에 따르면, 전자 장치는 사용자의 집중도 및 몰입도가 임계 집중도 및 임계 몰입도 이상을 일정 시간 이상 지속할 경우, 높은 집중 상태 및 몰입 상태가 지속되고 있음을 알리는 메시지를 출력함으로써, 사용자에게 집중 상태 및 몰입 상태를 계속하여 지속시킬 수 있는 동기를 유발할 수 있다. 이와 같은 메시지는 일종의 응원 메시지와 같이 사용자에게 학습 집중 및 몰입을 더욱 유지하도록 할 수 있다. 일 실시 예에 따르면, 사용자의 집중도 및 몰입도가 임계 집중도 및 임계 몰입도 이상을 지속하는 동안 정해진 시간 도과 후, 또는 정해진 주기마다 집중 상태 및 몰입 상태를 얼마나 유지하고 있는지를 알리는 메시지를 출력할 수 있다. 또한, 사용자가 집중 상태 및 몰입 상태에 돌입한 경우 출력 장치의 학습 컨텐츠 부분 외 UI/UX의 배경 이미지 또는 색을 변경함으로써, 사용자 스스로 학습 컨텐츠를 보면서 자신이 집중 상태 및 몰입 상태에 돌입하였다는 사실을 인지하도록 할 수 있다. 또한, 사용자가 집중 상태 및 몰입 상태에 돌입한 경우 출력 장치의 학습 컨텐츠 부분 외 UI/UX의 배경 이미지 또는 색을 변경함으로써, 사용자 스스로 학습 컨텐츠를 보면서 자신의 집중도 및 몰입도가 임계 집중도 및 임계 몰입도 이하로 떨어졌다는 사실을 인지하도록 할 수 있다.According to various embodiments of the present disclosure, the electronic device outputs a message indicating that the high concentration and immersion states are continuing when the user's concentration and immersion levels continue to exceed the critical concentration and immersion levels for a predetermined period of time or longer. , may motivate the user to continue to maintain the state of concentration and immersion. Such a message, like a kind of cheering message, can further keep the user focused and immersed in learning. According to an embodiment, a message indicating how much the concentration and immersion state is maintained may be output after a predetermined time elapses or at every predetermined period while the user's concentration and immersion levels are greater than or equal to the threshold concentration and immersion. there is. In addition, when the user enters the concentration and immersion state, by changing the background image or color of UI/UX other than the learning content part of the output device, the user himself enters the concentration and immersion state while viewing the learning content can make you aware of In addition, when the user enters the concentration state and immersion state, by changing the background image or color of UI/UX other than the learning content part of the output device, the user's own concentration and immersion while viewing the learning content on their own are the critical concentration and critical immersion It can be made to recognize the fact that it has fallen below the degree.

본 발명의 다양한 실시 예들에 따르면, 전자 장치는 사용자의 감정 및 인지 상태에 대한 생체 정보를 실시간으로 분석하고, 일정 구간 집중이 높은 경우 사용자가 어떤 활동 또는 컨텐츠를 즐기고 있는지에 대한 데이터를 누적하여 저장할 수 있다.According to various embodiments of the present disclosure, the electronic device analyzes biometric information on the user's emotional and cognitive state in real time, and accumulates and stores data on which activity or content the user is enjoying when the concentration is high in a certain section. can

본 발명의 다양한 실시 예들에 따른 전자 장치를 아동 학습 서비스 애플리케이션 분야에 적용할 경우, 전자 장치는 사용자의 학습 중 평균 집중도가 일정 수치 이하로 낮아질 때 미리 준비해둔 환기 시퀀스를 무작위로 제공하고 흥미도를 체크할 수 있다. 전자 장치는 누적된 데이터에 기반하여 높은 흥미도를 달성한 카테고리에 맞는 환기 시퀀스를 노출함으로써 사용자의 평균 집중도를 향상시킬 수 있다.When the electronic device according to various embodiments of the present disclosure is applied to the field of a child learning service application, the electronic device randomly provides a previously prepared ventilation sequence when the user's average concentration during learning falls below a certain value and increases the level of interest. can check The electronic device may improve the average concentration of the user by exposing a ventilation sequence suitable for a category that has achieved a high degree of interest based on the accumulated data.

본 발명의 다양한 실시 예들에 따르면, 전자 장치는 사용자의 컨텐츠 별 데이터가 장기적으로 쌓이면 기계 학습을 통해 빅데이터 분석을 하여 컨텐츠 조정 후 예상되는 사용자의 생체 정보 반응을 도출하고 사용자의 현재 생태 정보에 미루어 긍정적 변화가 높은 확률로 예상되는 환기 시퀀스를 제공할 수 있다.According to various embodiments of the present disclosure, when data for each user's content is accumulated over a long period of time, the electronic device analyzes big data through machine learning to derive the user's biometric information response expected after content adjustment, and based on the user's current ecological information, It is possible to provide a ventilation sequence in which positive changes are expected with high probability.

하드웨어를 이용하여 본 발명의 실시 예를 구현하는 경우에는, 본 발명을 수행하도록 구성된 ASICs(application specific integrated circuits) 또는 DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays) 등이 본 발명의 프로세서에 구비될 수 있다.When implementing the embodiment of the present invention using hardware, ASICs (application specific integrated circuits) or DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices) configured to perform the present invention , FPGAs (field programmable gate arrays), etc. may be provided in the processor of the present invention.

한편, 상술한 방법은, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터 판독 가능한 저장 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 코드를 포함하는 저장 디바이스를 설명하기 위해 사용될 수 있는 프로그램 저장 디바이스들은, 반송파(carrier waves)나 신호들과 같이 일시적인 대상들은 포함하는 것으로 이해되지는 않아야 한다. 상기 컴퓨터 판독 가능한 저장 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, DVD 등)와 같은 저장 매체를 포함한다.Meanwhile, the above-described method can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable medium. In addition, the structure of data used in the above-described method may be recorded in a computer-readable storage medium through various means. Program storage devices that may be used to describe a storage device comprising executable computer code for performing the various methods of the present invention should not be construed as including transitory objects such as carrier waves or signals. do. The computer-readable storage medium includes a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optically readable medium (eg, a CD-ROM, a DVD, etc.).

이상에서 설명된 실시 예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시 예를 구성하는 것도 가능하다. 발명의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시 예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시 예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The embodiments described above are those in which elements and features of the present invention are combined in a predetermined form. Each component or feature should be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form that is not combined with other components or features. In addition, it is also possible to configure an embodiment of the present invention by combining some elements and/or features. The order of operations described in embodiments of the present invention may be changed. Some configurations or features of one embodiment may be included in other embodiments, or may be replaced with corresponding configurations or features of other embodiments. It is obvious that claims that are not explicitly cited in the claims can be combined to form an embodiment or included as a new claim by amendment after filing.

본 발명이 본 발명의 기술적 사상 및 본질적인 특징을 벗어나지 않고 다른 형태로 구체화될 수 있음은 본 발명이 속한 분야 통상의 기술자에게 명백할 것이다. 따라서, 상기 실시 예는 제한적인 것이 아니라 예시적인 모든 관점에서 고려되어야 한다. 본 발명의 권리범위는 첨부된 청구항의 합리적 해석 및 본 발명의 균등한 범위 내 가능한 모든 변화에 의하여 결정되어야 한다.It will be apparent to those skilled in the art that the present invention can be embodied in other forms without departing from the spirit and essential characteristics of the present invention. Accordingly, the above embodiments should be considered in all respects as illustrative and not restrictive. The scope of the present invention should be determined by a reasonable interpretation of the appended claims and all possible changes within the equivalent scope of the present invention.

100: 사용자 110: 전자 장치
111: 메모리 112: 송수신부
113: 프로세서 114: 카메라
115: 출력 장치 120: 유/무선 네트워크
130: 서버 131: 메모리
132: 송수신부 133: 프로세서
100: user 110: electronic device
111: memory 112: transceiver unit
113: processor 114: camera
115: output device 120: wired/wireless network
130: server 131: memory
132: transceiver 133: processor

Claims (10)

사용자의 학습 집중력을 지원하기 위한 전자 장치의 동작 방법에 있어서, 상기 전자장치는 카메라, 출력장치, 메모리, 송수신기 및 적어도 하나의 프로세서를 포함하며, 상기 출력장치는 디스플레이 및 스피커 중 하나 이상을 포함하고,
컨텐츠를 출력하는 과정과,
사용자의 얼굴을 포함하는 상반신에 대한 화상 이미지를 획득하는 과정과,
상기 화상 이미지에서 상기 사용자의 얼굴 미세 움직임으로부터 하나 이상의 심장 반응 유효 변수를 포함하는 생체 정보를 획득하는 과정과,
상기 하나 이상의 심장 반응 유효 변수로부터 상기 사용자의 집중도 수치 및 몰입도 수치를 획득하는 과정과,
상기 사용자의 상기 집중도 수치의 분당 평균 값이 임계 집중도 수치 이하로 떨어지는지 여부 및 상기 몰입도 수치의 분당 평균 값이 임계 몰입도 수치 이하로 떨어지는지 여부에 기반하여 환기 시퀀스의 출력 여부를 결정하는 과정과, 상기 환기 시퀀스는 복수의 요소들로 구성되며,
상기 환기 시퀀스의 출력을 결정한 경우, 상기 환기 시퀀스를 초기 설정된 강도 및 출력 요소 종류로 출력하는 과정과, 상기 출력 요소 종류는 상기 복수의 요소들 중 출력되는 하나 이상의 요소이며,
상기 집중도 수치의 변화에 기반하여 상기 환기 시퀀스의 강도 및 상기 출력 요소 종류를 조정하는 과정과,
상기 집중도 수치의 분당 평균 값 및 상기 몰입도 수치의 분당 평균 값이 상기 임계 집중도 수치 및 상기 임계 몰입도 수치 이상으로 회복된 경우, 상기 환기 시퀀스의 출력을 중단하는 과정을 포함하는,
동작 방법.
A method of operating an electronic device for supporting a user's learning concentration, wherein the electronic device includes a camera, an output device, a memory, a transceiver, and at least one processor, the output device includes at least one of a display and a speaker, ,
the process of outputting the content; and
A process of obtaining an image image of the upper body including the user's face;
obtaining biometric information including at least one cardiac response effective variable from the micro-movement of the user's face in the image image;
obtaining the user's concentration level and immersion level from the one or more cardiac response effective variables;
The process of determining whether to output a ventilation sequence based on whether the average value per minute of the concentration value of the user falls below a threshold concentration value and whether the average value per minute of the immersion value falls below a threshold concentration value And, the ventilation sequence consists of a plurality of elements,
When the output of the ventilation sequence is determined, the process of outputting the ventilation sequence with an initially set intensity and an output element type, wherein the output element type is at least one output element among the plurality of elements,
adjusting the intensity of the ventilation sequence and the type of the output element based on the change in the concentration value;
When the average value per minute of the concentration value and the average value per minute of the immersion value are restored to more than the threshold concentration value and the threshold immersion value, stopping the output of the ventilation sequence comprising the step of,
how it works.
청구항 1에 있어서,
상기 화상 이미지에서 상기 사용자의 얼굴 미세 움직임으로부터 상기 하나 이상의 심장 반응 유효 변수를 포함하는 상기 생체 정보를 획득하는 과정은,
상기 화상 이미지에서 상기 사용자의 얼굴 특징 영역을 검출하는 과정과,
상기 얼굴 특징 영역에서 무의식적 얼굴 미세 떨림 데이터를 추출하고 의식적 움직임으로 인한 노이즈의 제거를 수행하는 과정과,
상기 무의식적 얼굴 미세 떨림 데이터로부터 상기 사용자의 심박수 및 진폭 정보를 획득하는 과정을 포함하는,
동작 방법.
The method according to claim 1,
The process of obtaining the biometric information including the one or more cardiac response effective variables from the micro-movement of the user's face in the image image,
detecting the facial feature region of the user from the image image;
The process of extracting unconscious facial micro-tremor data from the facial feature area and removing noise due to conscious movement;
Including the process of obtaining the heart rate and amplitude information of the user from the unconscious facial microtremor data,
how it works.
청구항 1에 있어서,
상기 하나 이상의 심장 반응 유효 변수로부터 상기 사용자의 집중도 수치 및 몰입도 수치를 획득하는 과정은,
상기 사용자의 심박수 및 진폭 정보를 포함하는 상기 하나 이상의 심장 반응 유효 변수로부터 상기 사용자의 집중도 수치를 획득하는 과정과,
상기 집중도 수치의 임계 값 이상 유지 정도에 따라서 상기 몰입도 수치를 획득하는 과정을 포함하는,
방법.
The method according to claim 1,
The process of obtaining the user's concentration level and immersion level from the one or more cardiac response effective variables includes:
obtaining a concentration value of the user from the one or more cardiac response effective variables including heart rate and amplitude information of the user;
Comprising the process of obtaining the level of immersion according to the degree of maintaining more than the threshold value of the level of concentration,
method.
청구항 1에 있어서,
상기 환기 시퀀스를 구성하는 상기 복수의 요소들은 학습 휴식의 권고 메시지 출력, 스트레칭 동영상의 출력, 휴식 시간의 카운팅 표시 출력, 상기 학습 컨텐츠를 출력하는 화면의 배경 색깔 변화 출력, 비프 사운드(beep sound)의 출력, 백색 소음의 출력을 포함하고,
상기 환기 시퀀스의 강도는, 상기 환기 시퀀스의 단위 시간 당 출력 빈도, 상기 환기 시퀀스의 시청각적 출력 강도 중 적어도 하나와 관련되는,
동작 방법.
The method according to claim 1,
The plurality of elements constituting the ventilation sequence are output of a learning break recommendation message, output of a stretching video, a counting display output of a break time, an output of a background color change of a screen outputting the learning content, and a beep sound. output, including the output of white noise;
The intensity of the ventilation sequence is related to at least one of an output frequency per unit time of the ventilation sequence and an audiovisual output intensity of the ventilation sequence,
how it works.
청구항 4에 있어서,
상기 집중도 수치의 변화에 기반하여 상기 환기 시퀀스의 강도를 조정하는 과정은,
상기 집중도 수치가 상기 임계 집중도 수치에서 하락하는 경우, 상기 비프 사운드의 출력 강도를 조정하는 과정과,
상기 집중도 수치가 상기 임계 집중도 수치 이하에서 상승하는 경우, 상기 백색 소음의 출력 강도를 조정하는 과정을 포함하는,
동작 방법.
5. The method according to claim 4,
The process of adjusting the intensity of the ventilation sequence based on the change in the concentration value,
adjusting the output intensity of the beep sound when the concentration level falls from the threshold concentration level;
and adjusting the output intensity of the white noise when the concentration level rises below the threshold concentration level.
how it works.
청구항 1에 있어서,
상기 집중도 수치의 변화에 기반하여 상기 환기 시퀀스의 상기 출력 요소 종류를 조정하는 과정은,
상기 복수의 요소들 중 상기 출력 요소 종류의 개수를 상기 집중도 수치의 구간 및 하락 기울기에 따라서 조정하는 과정을 포함하는,
동작 방법.
The method according to claim 1,
The process of adjusting the type of the output element of the ventilation sequence based on the change in the concentration value comprises:
Comprising the process of adjusting the number of the types of the output element among the plurality of elements according to the section and the falling slope of the concentration value,
how it works.
청구항 1에 있어서,
상기 집중도 수치의 변화, 상기 환기 시퀀스의 강도 및 상기 출력 요소 종류에 대한 시계열 맵핑 정보를 저장하는 과정과,
상기 시계열 맵핑 정보를 서버에게 송신하는 과정과,
상기 서버로부터 누적된 시계열 맵핑 정보를 수신하는 과정을 더 포함하고,
상기 집중도 수치의 변화에 기반하여 상기 환기 시퀀스의 강도 및 상기 출력 요소 종류를 조정하는 과정은 상기 누적된 맵핑 정보에 기반하여 수행되는,
동작 방법.
The method according to claim 1,
The process of storing time series mapping information for the change of the concentration value, the intensity of the ventilation sequence, and the type of the output element;
The process of transmitting the time series mapping information to a server;
Further comprising the step of receiving the accumulated time series mapping information from the server,
The process of adjusting the intensity of the ventilation sequence and the type of output element based on the change in the concentration value is performed based on the accumulated mapping information,
how it works.
청구항 7에 있어서,
상기 환기 시퀀스의 강도 및 상기 출력 요소 종류를 조정하는 과정은,
상기 누적된 맵핑 정보에 기반하여 상기 환기 시퀀스의 강도 및 상기 출력 요소 종류의 조정 전후 상기 집중도 수치가 하락에서 상승으로 전환된 강도 및 출력 요소 종류 중 가장 낮은 강도 및 상기 출력 요소 종류부터 순서대로 적용함으로써 수행되는,
동작 방법.
8. The method of claim 7,
The process of adjusting the intensity of the ventilation sequence and the type of the output element comprises:
Based on the accumulated mapping information, before and after the adjustment of the intensity of the ventilation sequence and the type of output element, by applying the lowest intensity and the output element type of the intensity and output element type in which the concentration value is converted from falling to rising in order performed,
how it works.
사용자의 학습 집중력을 지원하기 위한 전자 장치에 있어서,
카메라, 출력장치, 메모리, 송수신기 및 적어도 하나의 프로세서를 포함하고,
상기 프로세서는, 제1 항 내지 제8 항 중 어느 한 항에 따른 동작 방법을 수행하도록 구성된,
전자 장치.
An electronic device for supporting a user's learning concentration, comprising:
a camera, an output device, a memory, a transceiver, and at least one processor;
The processor is configured to perform the method of operation according to any one of claims 1 to 8,
electronic device.
제1 항 내지 제8 항 중 어느 한 항에 따른 전자 장치의 동작 방법을 수행하도록 구성되며, 컴퓨터 판독 가능한 저장 매체에 기록된 컴퓨터 프로그램.A computer program configured to perform the method of operating an electronic device according to any one of claims 1 to 8, and recorded in a computer-readable storage medium.
KR1020200110447A 2020-08-31 2020-08-31 Method and apparatus for supporting user's learning concentration KR102467774B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200110447A KR102467774B1 (en) 2020-08-31 2020-08-31 Method and apparatus for supporting user's learning concentration
KR1020220149816A KR102528595B1 (en) 2020-08-31 2022-11-10 Method and apparatus for supporting user's learning concentration based on analysis of user's voice
KR1020220149817A KR102531002B1 (en) 2020-08-31 2022-11-10 Method and apparatus for supporting user's learning concentration using werable device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200110447A KR102467774B1 (en) 2020-08-31 2020-08-31 Method and apparatus for supporting user's learning concentration

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020220149816A Division KR102528595B1 (en) 2020-08-31 2022-11-10 Method and apparatus for supporting user's learning concentration based on analysis of user's voice
KR1020220149817A Division KR102531002B1 (en) 2020-08-31 2022-11-10 Method and apparatus for supporting user's learning concentration using werable device

Publications (2)

Publication Number Publication Date
KR20220029850A true KR20220029850A (en) 2022-03-10
KR102467774B1 KR102467774B1 (en) 2022-11-17

Family

ID=80816500

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020200110447A KR102467774B1 (en) 2020-08-31 2020-08-31 Method and apparatus for supporting user's learning concentration
KR1020220149817A KR102531002B1 (en) 2020-08-31 2022-11-10 Method and apparatus for supporting user's learning concentration using werable device
KR1020220149816A KR102528595B1 (en) 2020-08-31 2022-11-10 Method and apparatus for supporting user's learning concentration based on analysis of user's voice

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020220149817A KR102531002B1 (en) 2020-08-31 2022-11-10 Method and apparatus for supporting user's learning concentration using werable device
KR1020220149816A KR102528595B1 (en) 2020-08-31 2022-11-10 Method and apparatus for supporting user's learning concentration based on analysis of user's voice

Country Status (1)

Country Link
KR (3) KR102467774B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102616230B1 (en) * 2023-01-26 2023-12-20 (주)대교씨엔에스 Method for determining user's concentration based on user's image and operating server performing the same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090092642A (en) * 2008-02-27 2009-09-01 주식회사 글맥학원 Desk type apparatus for studying and method for studying using it
JP2013097311A (en) * 2011-11-04 2013-05-20 Zenrin Datacom Co Ltd Learning support device, learning support method and learning support program
KR101656072B1 (en) 2014-01-22 2016-09-09 공주대학교 산학협력단 Multi-Sensory System for the Improvement of Concentration in the Child Care Environment of Infant and Multi-Sensory Method using The Same
KR20160123572A (en) * 2015-04-16 2016-10-26 상명대학교서울산학협력단 evaluation method and system for user flow or engagement by using body micro-movement
JP2019143955A (en) * 2018-02-23 2019-08-29 パナソニックIpマネジメント株式会社 Environment control system, environment control method, and program
KR20200038146A (en) * 2018-10-02 2020-04-10 상명대학교산학협력단 The Recognition Method and Apparatus for Focus level using ECG

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9031293B2 (en) * 2012-10-19 2015-05-12 Sony Computer Entertainment Inc. Multi-modal sensor based emotion recognition and emotional interface
CN108883335A (en) * 2015-04-14 2018-11-23 约翰·詹姆斯·丹尼尔斯 The more sensory interfaces of wearable electronics for people and machine or person to person
EP3834716A1 (en) 2019-12-11 2021-06-16 Koninklijke Philips N.V. Wearable sensor device and a sensing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090092642A (en) * 2008-02-27 2009-09-01 주식회사 글맥학원 Desk type apparatus for studying and method for studying using it
JP2013097311A (en) * 2011-11-04 2013-05-20 Zenrin Datacom Co Ltd Learning support device, learning support method and learning support program
KR101656072B1 (en) 2014-01-22 2016-09-09 공주대학교 산학협력단 Multi-Sensory System for the Improvement of Concentration in the Child Care Environment of Infant and Multi-Sensory Method using The Same
KR20160123572A (en) * 2015-04-16 2016-10-26 상명대학교서울산학협력단 evaluation method and system for user flow or engagement by using body micro-movement
JP2019143955A (en) * 2018-02-23 2019-08-29 パナソニックIpマネジメント株式会社 Environment control system, environment control method, and program
KR20200038146A (en) * 2018-10-02 2020-04-10 상명대학교산학협력단 The Recognition Method and Apparatus for Focus level using ECG

Also Published As

Publication number Publication date
KR102528595B1 (en) 2023-05-08
KR102467774B1 (en) 2022-11-17
KR20220155562A (en) 2022-11-23
KR102531002B1 (en) 2023-05-12
KR20220155561A (en) 2022-11-23

Similar Documents

Publication Publication Date Title
CN109464130B (en) Sleep assisting method, system and readable storage medium
Zenonos et al. HealthyOffice: Mood recognition at work using smartphones and wearable sensors
CN109585021B (en) Mental state evaluation method based on holographic projection technology
Canento et al. Multimodal biosignal sensor data handling for emotion recognition
US20190138096A1 (en) Method for detecting facial expressions and emotions of users
CN108366732A (en) Sleepy starting detection
CN105105771B (en) The cognition index analysis method of latent energy value test
KR20160095464A (en) Contents Recommend Apparatus For Digital Signage Using Facial Emotion Recognition Method And Method Threof
Yoon et al. Emotion recognition of serious game players using a simple brain computer interface
CN108904163A (en) wheelchair control method and system
CN108652648A (en) A kind of depressed monitoring device for the elderly's depression
KR102531002B1 (en) Method and apparatus for supporting user's learning concentration using werable device
Ryu et al. Dynamic digital biomarkers of motor and cognitive function in Parkinson's disease
JP2011143059A (en) Face movement estimating device and face movement estimating method
Chen et al. NeuroBiometric: An eye blink based biometric authentication system using an event-based neuromorphic vision sensor
KR102285482B1 (en) Method and apparatus for providing content based on machine learning analysis of biometric information
Zhuang et al. Real-time emotion recognition system with multiple physiological signals
KR20220001875A (en) Method for providing cognitive training contents using assignment allocation for prevention of dementia
Liakopoulos et al. CNN-based stress and emotion recognition in ambulatory settings
Yosi et al. Emotion recognition using electroencephalogram signal
KR20230134118A (en) Monitoring biometric data to determine mental state and input commands
Uluyagmur-Ozturk et al. ADHD and ASD classification based on emotion recognition data
Vettivel et al. System for detecting student attention pertaining and alerting
Mantri et al. Real time multimodal depression analysis
KR20220075908A (en) Method and apparatus for supporting online virtual classroom learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent