KR20190140767A - Method and Apparatus for Measuring Degree of Immersion - Google Patents

Method and Apparatus for Measuring Degree of Immersion Download PDF

Info

Publication number
KR20190140767A
KR20190140767A KR1020180067704A KR20180067704A KR20190140767A KR 20190140767 A KR20190140767 A KR 20190140767A KR 1020180067704 A KR1020180067704 A KR 1020180067704A KR 20180067704 A KR20180067704 A KR 20180067704A KR 20190140767 A KR20190140767 A KR 20190140767A
Authority
KR
South Korea
Prior art keywords
score
user
face
immersion
unit
Prior art date
Application number
KR1020180067704A
Other languages
Korean (ko)
Other versions
KR102174345B1 (en
Inventor
이찬수
김민현
김진철
Original Assignee
영남대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 영남대학교 산학협력단 filed Critical 영남대학교 산학협력단
Priority to KR1020180067704A priority Critical patent/KR102174345B1/en
Publication of KR20190140767A publication Critical patent/KR20190140767A/en
Application granted granted Critical
Publication of KR102174345B1 publication Critical patent/KR102174345B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Developmental Disabilities (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Veterinary Medicine (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Disclosed are an immersion level measurement device and a method thereof. According to an embodiment of the present invention, the immersion level measurement device inputs image information collected from an image photographing device to an expression recognition model learned by a user to calculate an interest level score, and aggregates the number of blink and a ratio of face front stare of the user to calculate a concentration level score, thereby consequently determining an immersion level for an interest part of the user.

Description

몰입도 측정장치 및 방법{Method and Apparatus for Measuring Degree of Immersion}Immersion degree measuring apparatus and method {Method and Apparatus for Measuring Degree of Immersion}

본 실시예는 몰입도 측정장치 및 방법에 관한 것이다. 더욱 상세하게는, 컴퓨터를 기반으로 하는 다중지능 평가 시스템에 이용하기 위한 것으로서, 얼굴 분석을 이용한 몰입도 측정장치 및 방법에 관한 것이다.This embodiment relates to an immersion measurement apparatus and method. More specifically, the present invention relates to an apparatus and method for immersion measurement using face analysis, for use in a computer-based multi-intelligence evaluation system.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section merely provide background information on the present embodiment and do not constitute a prior art.

사람의 지능을 측정하는 보편적인 방법으로 IQ 테스트가 있다. 사람의 지능은 다양한 지적 특성을 기반으로 측정되어야 하지만, IQ 테스트는 언어능력 및 수학능력에 비중을 두고 평가한다는 단점이 있다. 하워드 가드너(Howard Gardner) 교수는 인간의 지능을 8가지 영역으로 분리하고, 각 영역에 대한 검사를 수행하는 다중지능 이론을 발표하였고, 이를 기반으로 사용자의 지능을 다양한 측면에서 평가하는 다중지능 평가시스템이 개발되고 있다. The IQ test is a common way to measure human intelligence. Human intelligence should be measured on the basis of various intellectual characteristics, but IQ test has a disadvantage of focusing on language ability and math ability. Professor Howard Gardner presented a multi-intelligence theory that separates human intelligence into eight domains and tests each domain. Based on this, a multi-intelligent evaluation system that evaluates the user's intelligence in various aspects Is being developed.

다중지능 평가의 방법으로, 일정한 문제를 제한시간 내에 해결하는 정도를 검사하는 방법이 일반적이다. 그러나 많은 연구결과에 따르면 다중지능을 획일적인 방법으로 측정해서는 정확한 다중지능을 측정할 수 없다는 것이 밝혀지고, 인간의 다양한 영역별로 분리하여 검사해야 한다는 의견이 많아지고 있다. 따라서 영역별로 분리검사를 수행하기 위해, 설문조사 또는 상담을 진행하는 검사자가 영역별로 설문조사 또는 상담을 하고, 피검사자의 답변을 분석하는 방법이 사용되고 있다. As a method of multi-intelligence evaluation, it is common to check the degree to which a certain problem is solved within a time limit. However, many studies have shown that measuring multi-intelligence in a uniform way cannot measure accurate multi-intelligence, and many opinions have to be separated and tested in various areas of human beings. Therefore, in order to perform a separate test for each area, a method of analyzing a questionnaire or a questionnaire by an inspector conducting a questionnaire or consultation and analyzing an examinee's answer is used.

그러나 이와 같은 설문조사 방식은 다중지능 평가 과정에서 검사자의 경험과 같은 주관적 요소가 개입될 여지가 많고, 다중지능 평가를 위한 많은 수의 전문가, 시간 및 비용이 필요하다. 또한, 언어능력이 채 발달하지 않은 유아에 대해서는 설문조사의 문항에 관한 답변이 일정하지 않아 검사결과의 신뢰도가 낮다는 문제점이 있다.However, such a survey method may involve subjective factors such as the examiner's experience in the multi-intelligence evaluation process, and requires a large number of experts, time, and cost for the multi-intelligence evaluation. In addition, there is a problem in that the reliability of the test results is low because the answer about the questionnaire of the questionnaire is not constant for infants with less developed language ability.

본 발명의 실시예는, 영상 촬영장치로부터 수집된 영상정보를 사용자에 의해 학습된 표정인식 모델에 입력하여 흥미도 점수를 산출하고, 눈깜빡임 횟수와 사용자의 얼굴 정면응시 비율을 종합하여 집중도 점수를 산출하여 결과적으로 사용자의 관심 분야에 대한 몰입도를 판단하도록 하는 몰입도 측정장치 및 방법을 제공하는 데 주 목적이 있다.In an embodiment of the present invention, by inputting the image information collected from the image capturing apparatus to the facial expression recognition model learned by the user to calculate the interest score, the concentration score is calculated by combining the number of eye blinks and the front face gaze ratio of the user The main object of the present invention is to provide an immersion measuring apparatus and method for calculating and consequently determining the degree of immersion of a user's interest.

본 실시예는, 영상 촬영장치가 촬영한 사용자의 영상정보를 수신하여 상기 영상정보로부터 얼굴 영역을 특정하고, 상기 얼굴 영역 내에서 얼굴표정을 감지하여 모션데이터(motion data)를 생성하는 영상처리부; 기 학습된 표정인식 모델 및 상기 모션데이터를 기반으로 상기 사용자의 흥미도 점수를 산출하여 출력하는 흥미도 판별부; 상기 얼굴 영역을 기반으로 얼굴데이터를 추출하여 상기 사용자의 집중도 점수를 산출하여 출력하는 집중도 판별부; 및 상기 흥미도 점수와 상기 집중도 점수 중 적어도 어느 하나에 기반하여 상기 사용자의 몰입도 점수를 산출하여 출력하는 몰입도 판별부를 포함하는 것을 특징으로 하는 몰입도 측정장치를 제시한다.According to the present embodiment, an image processing unit is configured to receive image information of a user photographed by an image capturing apparatus, specify a face region from the image information, and detect motion of a facial expression within the face region to generate motion data; An interest determination unit configured to calculate and output an interest score of the user based on a previously learned facial expression recognition model and the motion data; A concentration determination unit for extracting face data based on the face area to calculate and output a concentration score of the user; And an immersion determination unit for calculating and outputting an immersion score of the user based on at least one of the interest score and the concentration score.

본 실시예의 다른 측면에 의하면, 영상 촬영장치가 촬영한 사용자의 영상정보를 수신하여 상기 영상정보로부터 얼굴 영역을 특정하고, 상기 얼굴 영역 내에서 얼굴표정을 감지하여 모션데이터(motion data)를 생성하는 과정; 기 학습된 표정인식 모델 및 상기 모션데이터를 기반으로 상기 사용자의 흥미도 점수를 산출하여 출력하는 과정; 상기 얼굴 영역을 기반으로 얼굴데이터를 추출하여 상기 사용자의 집중도 점수를 산출하여 출력하는 과정; 및 상기 흥미도 점수와 상기 집중도 점수 중 적어도 어느 하나에 기반하여 상기 사용자의 몰입도 점수를 산출하여 출력하는 과정을 포함하는 것을 특징으로 하는 몰입도 측정방법을 제시한다.According to another aspect of the present embodiment, the image capturing apparatus receives image information of a user, specifies a face region from the image information, and detects facial expression within the face region to generate motion data. process; Calculating and outputting an interest score of the user based on a previously learned facial expression model and the motion data; Extracting face data based on the face area to calculate and output a concentration score of the user; And calculating and outputting an immersion score of the user based on at least one of the interest score and the concentration score.

이상에서 설명한 바와 같이 본 실시예에 의하면, 사용자의 흥미도 및 집중도를 기반으로 사용자의 관심 분야에 대한 몰입도를 측정하여 다중지능 평가에 이용할 수 있다. 사용자의 영상정보를 이용하여 몰입도를 측정함으로써, 다중지능 평가를 실시할 때 언어능력의 발달이 부족한 유아에게도 이용할 수 있다. As described above, according to the present embodiment, the immersion degree for the user's interest field may be measured and used for the multi-intelligence evaluation based on the user's interest and concentration. By measuring the degree of immersion using the user's image information, it can be used even for infants who lack the development of language ability when performing multi-intelligence evaluation.

본 실시예에 의한 몰입도 측정장치는 컴퓨터를 기반으로 하는 다중지능 평가 시스템에 이용될 수 있으며, 상담원의 능력 또는 경험 등 주관적인 요소가 개입되지 않아 객관성 및 신뢰성을 확보할 수 있는 효과가 있다.The immersion measuring apparatus according to the present embodiment can be used in a computer-based multi-intelligence evaluation system, and it is possible to secure objectivity and reliability because subjective factors such as the ability or experience of a counselor are not involved.

도 1은 본 실시예에 따른 몰입도 측정장치를 개략적으로 나타낸 블록 구성도이다.
도 2는 본 실시예에 따른 흥미도 판별부가 사용자의 얼굴표정에 상응하는 흥미도 점수를 산출하기 위해 예시적으로 나타낸 도면이다.
도 3은 본 실시예에 따른 눈깜빡임 산출부가 눈깜빡임 횟수를 점수로 환산하기 위해 예시적으로 나타낸 도면이다.
도 4는 본 실시예에 따라 흥미도 점수를 산출하기 위한 순서도이다.
도 5는 본 실시예에 따라 집중도 점수를 산출하기 위한 순서도이다.
도 6은 본 실시예에 따른 몰입도 측정방법을 설명하기 위한 예시도이다.
도 7의 (a) 및 (b)는 본 실시예에 따른 몰입도 측정 결과화면을 도시한 예시도이다.
1 is a block diagram schematically showing an immersion measurement apparatus according to the present embodiment.
FIG. 2 is a diagram exemplarily illustrating an interest level determining unit according to an exemplary embodiment to calculate an interest level score corresponding to a facial expression of a user.
3 is a diagram illustrating an example of an eye blink calculation unit for converting a number of eye blinks into a score according to an exemplary embodiment.
4 is a flowchart for calculating an interest score according to the present embodiment.
5 is a flowchart for calculating a concentration score according to this embodiment.
6 is an exemplary view for explaining a immersion measurement method according to the present embodiment.
7 (a) and 7 (b) are exemplary views illustrating a immersion measurement result screen according to the present embodiment.

이하, 본 실시예들을 예시적인 도면을 이용하여 상세하게 설명한다. 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the present embodiments will be described in detail with reference to exemplary drawings. In describing the present embodiments, when it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easily understanding the embodiments disclosed herein, the technical spirit disclosed in the specification by the accompanying drawings are not limited, and all changes included in the spirit and scope of the present invention. It should be understood to include equivalents and substitutes.

본 실시예에서 '포함'이라는 용어는 명세서 상에 기재된 구성요소, 특징, 단계 또는 이들을 조합한 것이 존재한다는 것이지, 하나 또는 복수 개의 구성요소나 다른 특징, 단계 또는 이들을 조합한 것의 존재 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.In the present embodiment, the term 'comprising' means that there is a component, a feature, a step, or a combination thereof described in the specification, and excludes in advance the possibility of the existence of one or a plurality of components or other features, steps, or a combination thereof. It should be understood that it does not.

본 실시예에서 '얼굴데이터'라는 용어는 영상정보에서 사용자의 표정, 눈깜빡임 및 얼굴 정면응시를 파악하기 위한 얼굴정보로서 특징점을 포함하는 개념이다. In the present embodiment, the term 'face data' refers to a concept including feature points as face information for grasping a user's expression, eye blink, and face gaze in the image information.

본 실시예에서 '몰입도'라는 용어는 사용자의 흥미도 및 집중도를 종합한 것으로서, 통상의 기술자로 하여금 본 실시예를 쉽게 이해하도록 하기 위해 '몰입도'로 표기한다.In the present embodiment, the term 'immersion' is a combination of interests and concentrations of the user, and is referred to as 'immersion' for a person skilled in the art to easily understand the present embodiment.

첨부된 도면을 참조하여 본 실시예를 상세하게 설명한다.With reference to the accompanying drawings will be described in detail this embodiment.

도 1은 본 실시예에 따른 몰입도 측정장치를 개략적으로 나타낸 블록 구성도이다.1 is a block diagram schematically showing an immersion measurement apparatus according to the present embodiment.

본 실시예에 따른 몰입도 측정장치(100)는 영상처리부(110), 흥미도 판별부(120), 집중도 판별부(130) 및 몰입도 판별부(140)를 포함한다.The immersion measuring apparatus 100 according to the present exemplary embodiment includes an image processor 110, an interest determining unit 120, a concentration determining unit 130, and an immersion determining unit 140.

영상처리부(110)는 촬영장치(112), 얼굴특정부(114) 및 모션데이터 생성부(116)를 포함한다. 영상처리부(110)는 사용자의 영상정보를 획득 및 가공하는데, 더욱 상세하게는, 촬영장치(112)로부터 사용자의 영상정보를 획득하고, 이를 기반으로 얼굴특정부(114)에서 사용자의 얼굴 영역을 특정한 뒤 모션데이터 생성부(116)에서 모션데이터를 생성한다. The image processor 110 includes a photographing apparatus 112, a face specifying unit 114, and a motion data generator 116. The image processor 110 acquires and processes the user's image information. More specifically, the image processor 110 acquires the user's image information from the photographing apparatus 112, and based on the image information, the face region 114 of the user is determined. The motion data generation unit 116 generates a specific motion data.

모션데이터(motion data)는 촬영된 영상 상에서 사용자의 얼굴표정을 감지하기 위한 정보로서, 조밀 모션 플로우(dense motion flow)를 기반으로 한다. 조밀 모션 플로우는 옵티컬 플로우(optical flow)를 기반으로 하여 얼굴 움직임을 감지하는 데 용이하도록 변형된 것을 말한다. 촬영장치(112)는 카메라를 포함하여 사용자의 얼굴을 촬영할 수 있는 모든 장치를 말한다. 얼굴특정부(114)는 촬영장치(112)에서 획득한 영상정보를 사용자의 표정 변화를 감지하기 용이하도록 사용자의 얼굴 영역을 특정해서 추출한다.Motion data is information for detecting a facial expression of a user on a captured image and is based on dense motion flow. Dense motion flow refers to a modification that is easy to detect facial movement based on an optical flow. The photographing apparatus 112 refers to any device capable of photographing a user's face, including a camera. The face specifying unit 114 specifically extracts the face region of the user to easily detect the change in the expression of the user from the image information acquired by the photographing apparatus 112.

흥미도 판별부(120)는 얼굴표정 데이터베이스(122), 표정인식 모델학습부(124) 및 흥미도점수 출력부(126)를 포함한다. 흥미도 판별부(120)는 영상처리부(110)가 생성한 모션데이터를 표정인식 모델에 입력하여 흥미도 점수를 산출한다. 더욱 상세하게는, 다양한 얼굴표정을 저장한 데이터베이스로 표정인식 모델을 학습하고, 생성된 모션데이터를 학습된 표정인식 모델에 입력하여 사용자의 얼굴표정에 상응하는 흥미도 점수를 산출한다.The interest determining unit 120 includes a facial expression database 122, an expression recognition model learning unit 124, and an interest score output unit 126. The interest determination unit 120 inputs motion data generated by the image processor 110 to the facial expression recognition model to calculate an interest score. More specifically, the facial recognition model is trained using a database storing various facial expressions, and the generated motion data is input to the learned facial expression model to calculate an interest score corresponding to the facial expression of the user.

얼굴표정 데이터베이스(122)는 다양한 얼굴표정을 저장하고, 표정인식 모델학습 부(124)는 저장된 얼굴표정을 기반으로 표정인식 모델을 학습한다. 더욱 자세하게는, 얼굴표정을 학습하여 얼굴표정을 부정적인 표정, 중립적인 표정 또는 긍정적인 표정의 카테고리로 구분하고, 각각의 카테고리를 적어도 하나 이상의 단계로 구분한다. 예를 들어, 부정적인 표정은 화남, 공포, 슬픔 등 다양한 표정이 존재하므로, 부정적인 표정을 화남, 공포, 슬픔 등으로 얼굴 표정의 모션데이터 강도에 따라 구분된다. 표정인식 모델은 회귀 모델(regression model)로서, 얼굴표정 데이터베이스(122)를 이용하여 CNN(Convolutional Neural Network)으로 학습되나 반드시 이에 한정되는 것은 아니다. 한편, 흥미도점수 출력부(126)는 학습된 표정의 단계마다 저장된 점수를 기반으로, 모션데이터를 표정인식 모델에 입력하여 분석된 표정의 점수를 산출한다. The facial expression database 122 stores various facial expressions, and the expression recognition model learning unit 124 learns an expression recognition model based on the stored facial expressions. More specifically, the facial expressions are learned to classify the facial expressions into categories of negative facial expressions, neutral facial expressions, or positive facial expressions, and each category is divided into at least one or more stages. For example, since negative expressions include various expressions such as anger, fear, and sadness, negative expressions are classified according to motion data intensity of facial expressions as anger, fear, and sadness. The facial expression recognition model is a regression model, which is trained by a convolutional neural network (CNN) using the facial expression database 122, but is not limited thereto. On the other hand, the interest score output unit 126 calculates the score of the analyzed facial expression by inputting motion data into the facial expression recognition model based on the score stored for each step of the learned facial expression.

집중도 판별부(130)는 눈깜빡임 산출부(132), 정면비율 산출부(134) 및 집중도점수 출력부(136)를 포함한다. 집중도 판별부(130)는 사용자의 눈깜빡임과 얼굴의 정면응시 비율을 종합하여 집중도 점수를 산출한다. 더욱 상세하게는, 사용자의 집중도를 판단할 때 눈깜빡임 및 얼굴의 정면응시 비율이라는 두 가지 요소를 고려하고, 특정 시간 동안 눈깜빡임이 적을수록 또한 얼굴의 정면응시 비율이 높을수록 집중도가 높다고 판단한다.The concentration determining unit 130 includes a blinking unit 132, a front ratio calculating unit 134, and a concentration score output unit 136. The concentration determining unit 130 calculates a concentration score by combining the eye blink of the user and the front gaze ratio of the face. More specifically, in determining the concentration of the user, two factors, eye blinking and face-to-eye ratio, are considered, and it is determined that the less eye blink for a certain time and the higher the face-to-face ratio, the higher the concentration. .

눈깜빡임 산출부(132)는 조건부 신경 모델을 이용하여 특정된 얼굴 영역에 특징점을 추출하고, 특징점으로부터 사용자의 눈, 코의 위치를 추정하고 모양을 평균화하여 회전 효과(rotational effect) 및 스케일링 효과(scaling effect)를 제거한다. 히스토그램(Histogram)을 이용하여 표준화된 얼굴에서 동작 단위를 검출하고, 이를 기반으로 사용자의 눈깜빡임을 추정한다. 여기서 동작 단위란, 모션데이터가 움직인 동작의 일 단위를 말한다. 한편, 특정 시간 동안 사용자의 최소, 최대 및 평균 눈깜빡임 횟수를 추정하여 복수 개의 구간으로 나누고, 눈깜빡임이 적을수록 점수를 높게 산정한다. 점수 산정에 관해서는 도 3 및 도 5와 관련하여 후술한다. The blinking unit 132 extracts a feature point in a specified face region by using a conditional neural model, estimates the position of the user's eyes and nose from the feature point, and averages the shape to produce a rotational effect and a scaling effect ( remove the scaling effect. A histogram is used to detect motion units in a standardized face and to estimate the blinking of the user based on the motion unit. Herein, the operation unit refers to one unit of operation in which motion data is moved. On the other hand, the minimum, maximum and average number of blinks of the user during the specific time is estimated and divided into a plurality of sections, the smaller the blinks are calculated to the higher score. The score calculation will be described later with reference to FIGS. 3 and 5.

정면비율 산출부(134)는 얼굴의 정면응시 여부를 판단하기 위해 피치(pitch), 롤(roll), 요(yaw)의 범위를 정의한다. 한편, 피치, 롤, 요의 방법으로 한정하는 아니고 얼굴의 정면응시 여부를 판단할 수 있는 다른 방법도 포함한다고 이해되어야 할 것이다. 정면비율 산출부(134)는 매 프레임 별로 얼굴의 정면 응시 여부를 판단하고, 특정 시간 동안 영상정보의 전체 프레임 중 사용자 얼굴의 정면응시 프레임 비율을 계산한 뒤 이를 점수로 환산한다. 점수 산정에 관해서는 도 5와 관련하여 후술한다.The front ratio calculator 134 defines a range of pitch, roll, and yaw in order to determine whether the face is stared at the face. On the other hand, it should be understood that the present invention is not limited to the pitch, roll and yaw method, but also includes other methods for determining the face gaze. The front ratio calculator 134 determines whether the face gazes at each face in each frame, calculates a ratio of the front gaze frame of the user's face among all frames of the image information for a specific time, and converts it to a score. The score calculation will be described later with reference to FIG. 5.

집중도점수 출력부(136)는 눈깜빡임 산출부(132)가 산출한 점수와 정면비율 산출부(134)가 산출한 점수를 종합할 때, 정면비율 점수에 가중치를 두고 집중도 점수를 산출한다. 이는 얼굴의 정면응시를 이용할 때 눈깜빡임을 이용할 때보다 집중도를 더 정확하게 판단할 수 있는 점을 고려한 것이다. 즉, 눈깜빡임은 집중도 평가에 도움을 주는 요소이기는 하지만 정면응시 비율보다 안구 건조와 같은 개인적이고 환경적인 요인을 많이 받는다.The concentration score output unit 136 calculates the concentration score by weighting the front ratio score when the score calculated by the blinking unit 132 and the score calculated by the front ratio calculator 134 are combined. This takes into account the fact that the concentration can be judged more accurately when using the face gaze than when using eye blink. In other words, eye blinking is a factor that helps in assessing concentration, but it takes more personal and environmental factors such as eye dryness than frontal gaze ratio.

몰입도 판별부(140)는 산출된 흥미도 점수 및 집중도 점수 중 적어도 어느 하나를 기반으로 몰입도 점수를 산출한다. 더욱 자세하게는, 흥미도-집중도 종합부(142)가 흥미도 점수 및 집중도 점수를 종합하고, 몰입도 출력부(144)는 사용자에 의해 기 설정된 몰입도 단계를 기준으로 종합된 흥미도-집중도 점수에 상응하는 몰입도 단계를 판단한다. 몰입도 단계는 몰입도를 판단할 수 있는 지표로서, 사용자에 의해 정의될 수 있다.The immersion degree determination unit 140 calculates an immersion score based on at least one of the calculated interest score and concentration score. More specifically, the interest-concentration synthesis unit 142 synthesizes the interest score and the concentration score, and the immersion output unit 144 is the interest-concentration score synthesized based on the immersion level preset by the user. Determine the immersion level corresponding to. The immersion level is an index for determining the immersion degree and may be defined by the user.

도 2는 본 실시예에 따른 흥미도 판별부가 사용자의 얼굴표정에 상응하는 흥미도 점수를 산출하기 위해 예시적으로 나타낸 도면이다.FIG. 2 is a diagram exemplarily illustrating an interest level determining unit according to an exemplary embodiment to calculate an interest score corresponding to a facial expression of a user.

도 2를 참조하면, 표정인식 모델학습부(124)는 얼굴표정 데이터베이스(122)를 기반으로 하여 학습되고, 학습된 얼굴표정을 3가지의 얼굴표정 카테고리로 분류한다. 3가지의 얼굴표정 카테고리는 부정적인 표정, 중립적인 표정 또는 긍정적인 표정으로 구성되고, 각 카테고리는 세부적인 얼굴표정 종류로 각각 나누어진다. 예컨대, 세부적인 얼굴표정 종류는 화남, 공포, 슬픔, 놀람, 무표정, 행복 등이 있을 수 있다. 표정인식 모델학습부(124)는 학습의 결과로서 얼굴표정 종류에 상응하는 학습표정을 저장하고, 모션데이터를 입력받는다. Referring to FIG. 2, the expression recognition model learning unit 124 is trained based on the facial expression database 122, and classifies the learned facial expressions into three facial expression categories. The three facial expression categories consist of negative facial expressions, neutral facial expressions, or positive facial expressions, and each category is divided into detailed facial expression categories. For example, the detailed facial expression types may include anger, fear, sadness, surprise, expressionlessness, happiness, and the like. The facial expression recognition model learning unit 124 stores a learning expression corresponding to the type of facial expression as a result of learning and receives motion data.

흥미도점수 출력부(126)는 얼굴표정 종류마다 흥미도 점수를 저장하고, 입력받은 모션데이터와 표정인식 모델학습부(124)의 학습표정을 비교하여 그에 상응하는 흥미도 점수를 출력한다. 얼굴표정 종류에 관한 흥미도 점수는 얼굴데이터의 강도(intensity) 세기를 기반으로 하여 설정된다. 더욱 상세하게는, 도 2에 예시된 바와 같이 중립적인 표정을 기준점으로 하여 긍정적인 표정과 부정적인 표정을 얼굴표정의 강도에 따라 차등하여 점수를 설정한다. 특정 시간 동안 촬영한 영상정보에서 프레임마다 부정적인 표정의 최저값은 -10점, 중립적인 표정은 0점 및 긍정적인 표정의 최고값은 10점으로 차등 설정된 점수를 추출하고, 이를 기반으로 평균점수를 계산하여 결과적으로 흥미도 점수를 산출한다. 집중도 점수와 동등한 비율로 몰입도 점수를 산출하고자 평균점수는 최저 -5점에서 최대 5점까지 10점의 차이가 나도록 계산된다. 한편, 카테고리, 얼굴표정 종류 및 흥미도 점수는 사용자에 의해 다르게 정의될 수 있다.The interest score output unit 126 stores the interest score for each type of facial expression, compares the received motion data with the learning expression of the facial expression recognition model learning unit 124, and outputs the corresponding interest score. The interest score for the facial expression type is set based on the intensity of facial data. More specifically, as illustrated in FIG. 2, a score is set by differentially positive and negative facial expressions according to the strength of facial expressions with a neutral facial expression as a reference point. In the image information taken for a specific time, the lowest value of negative expression is -10 points for each frame, 0 points for neutral expressions and 10 points for positive expressions, and the average score is extracted. As a result, the interest score is calculated. In order to calculate the immersion score at the same rate as the concentration score, the average score is calculated so that there is a difference of 10 points from the minimum -5 to the maximum 5 points. Meanwhile, categories, facial expression types, and interest scores may be differently defined by a user.

도 3은 본 실시예에 따른 눈깜빡임 산출부가 눈깜빡임 횟수를 점수로 환산하기 위해 예시적으로 나타낸 도면이다.3 is a diagram illustrating an example of an eye blink calculation unit for converting a number of eye blinks into a score according to an exemplary embodiment.

도 3을 참조하면, 눈깜빡임 산출부(132)는 눈깜빡임 횟수를 측정하여 이에 상응하는 점수로 환산한다. 더욱 자세하게는, 특정 시간 동안 사용자의 눈깜빡이는 횟수를 카운트하여 눈깜빡임의 최소, 최대 및 평균값을 계산한 뒤, 이를 기반으로 눈깜빡임 횟수 구간을 적어도 하나 이상으로 나눈다. 복수의 구간으로 나눌 때는 최소, 최대 및 평균값 외에도 최소와 평균값의 중간값을 기준점으로 설정할 수 있다. 예를 들어, 최솟값은 0, 최댓값은 63.43 및 평균값은 6.43이고, 0과 6.47의 중간값인 3.23, 6.47과 63.43의 중간값은 34.95로, 0, 3.23, 6.47, 34.95 및 63.43 값이 기준이 된다. 복수의 구간설정은 사용자에 따라 다르게 정의될 수 있다. 눈깜빡임 산출부(132)는 눈깜빡임 횟수 구간에 따른 눈깜빡임 횟수 환산점수를 설정하여 눈깜빡임 점수로 환산한다. 눈깜빡임 점수는 최저 0점에서 최대 3점이 부여될 수 있다. 눈깜빡임 점수와 얼굴 정면응시 점수의 종합은 도 5와 관련하여 후술한다.Referring to FIG. 3, the blinking unit 132 measures the number of blinks and converts the score into a corresponding score. More specifically, the minimum, maximum, and average value of eye blinks are counted by counting the number of blinks of the user for a specific time period, and then divided into at least one blink interval. When dividing into a plurality of sections, in addition to the minimum, maximum, and average values, a middle value between the minimum and average values may be set as a reference point. For example, the minimum value is 0, the maximum value is 63.43, and the average value is 6.43, and the median value of 3.23, 6.47, and 63.43, which is the median of 0 and 6.47, is 34.95, and the values 0, 3.23, 6.47, 34.95, and 63.43 are the reference. . The plurality of section settings may be defined differently according to the user. The blinking unit 132 sets the number of blinking points according to the number of blinking intervals and converts the score to the blinking points. The blink score can be given from a minimum of zero to a maximum of three. The combination of the blinking score and the face front gaze score will be described later with reference to FIG. 5.

도 4는 본 실시예에 따라 흥미도 점수를 산출하기 위한 순서도이다. 4 is a flowchart for calculating an interest score according to the present embodiment.

도 4에 도시한 바와 같이, 몰입도 측정장치(100)는 촬영장치(112)를 이용하여 사용자를 촬영하게 하고, 촬영된 영상정보에서 사용자의 얼굴 영역을 특정한다(S402). 모션 플로우(motion flow)를 기반으로 특정된 얼굴 영역에서 사용자의 얼굴 움직임을 감지하여 모션데이터를 생성한다(S404). 여기서 모션 플로우는, 대상의 움직임을 감지하기 위해 옵티컬 플로우(optical flow)를 변형한 것으로서, 본 실시예는 사용자의 얼굴 표정의 움직임을 감지하기 위한 조밀 모션 플로우(dense motion flow)를 기반으로 한다. 몰입도 측정장치(100)는 얼굴표정 데이터베이스(122)를 이용하여 학습한 표정인식 모델에 생성된 모션데이터를 입력한다(S406). 얼굴표정 데이터베이스(122)는 피촬영자의 다양한 표정을 저장하고, 표정인식 모델은 CNN을 기반으로 학습된다. S408에서 몰입도 측정장치(100)는 입력된 모션데이터에 상응하는 얼굴표정 종류를 특정하고, 얼굴표정 종류와 매칭되는 흥미도 점수를 출력한다. 흥미도 점수는 사용자에 의해 기 설정되고, 표정인식 모델의 실측 자료(ground truth data)로 사용된다. 흥미도 점수는 집중도 점수와의 동등한 비율로 반영되기 위해 최고점과 최저점의 차이가 10점이 나도록 설정된다. As illustrated in FIG. 4, the immersion measurement apparatus 100 allows the user to photograph the image using the photographing apparatus 112 and specifies the face region of the user from the photographed image information (S402). Motion data is generated by detecting a user's face movement in a specified face region based on a motion flow (S404). Here, the motion flow is a modification of the optical flow to detect the movement of the object, and the present embodiment is based on a dense motion flow for detecting the movement of the facial expression of the user. The immersion measurement apparatus 100 inputs the generated motion data to the facial expression recognition model trained using the facial expression database 122 (S406). The facial expression database 122 stores various expressions of the photographic subject, and the facial expression recognition model is trained based on the CNN. In operation S408, the immersion measurement apparatus 100 specifies a facial expression type corresponding to the input motion data and outputs an interest score that matches the facial expression type. The interest score is preset by the user and used as ground truth data of the facial expression recognition model. The interest score is set so that the difference between the highest point and the lowest point is 10 points in order to be reflected at an equal ratio with the concentration point.

도 4에서는 단계 S402 내지 단계 S408을 순차적으로 진행하는 것으로 기재되어 있으나, 이는 본 발명의 일 실시예의 기술적 사상을 예시적으로 설명한 것에 불과한 것이다. 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서, 단계 S402 내지 단계 S408 중 하나 이상의 단계를 병렬적으로 실행하는 등 다양하게 수정 및 변형하여 적용 가능하다.In FIG. 4, steps S402 to S408 are described in order, but this is merely illustrative of the technical spirit of the exemplary embodiment of the present invention. Various modifications and variations can be applied, such as executing one or more of steps S402 to S408 in parallel, without departing from the essential characteristics of one embodiment of the present invention.

도 5는 본 실시예에 따라 집중도 점수를 산출하기 위한 순서도이다.5 is a flowchart for calculating a concentration score according to this embodiment.

도 5에 도시한 바와 같이, 몰입도 측정장치(100)는 촬영장치(112)를 이용하여 사용자를 촬영하고, 촬영된 영상정보에서 사용자의 얼굴 영역을 특정하고(S502), 특정된 얼굴 영역에서 특징점을 추출한다(S504). 특징점이 추출되지 않는다면 단계 S502를 반복한다. 특징점은 조건부 지역 신경필드 모델을 사용하여 추출된다. 특징점은 도 7의 (a) 및 도 7의 (b)에 도시되어 있다.As illustrated in FIG. 5, the immersion measuring apparatus 100 captures a user using the photographing apparatus 112, specifies a face region of the user from the captured image information (S502), and determines a specified face region. The feature point is extracted (S504). If the feature point is not extracted, step S502 is repeated. Feature points are extracted using a conditional local neural field model. The feature points are shown in Figs. 7A and 7B.

S506에서 특징점을 이용하여 사용자 또는 피촬영자의 얼굴이 정면을 응시하고 있는지 여부를 판단한다. 추출된 특징점을 기반으로 눈깜빡임 횟수와 사용자의 얼굴 정면 비율을 점수로 환산한다. 눈깜빡임 횟수를 측정하기 위해서는 사용자 얼굴의 눈, 코, 입의 추정이 선행되어야 한다. S508에서 몰입도 측정장치(100)는 특징점을 이용하여 사용자의 눈, 코, 입의 위치를 추정하고, 모양을 정규화하여 회전효과 및 스케일링 효과를 제거한다. 정규화된 얼굴 모양에서 추출된 히스토그램을 기반으로 특정 시간 동안 동작 단위로 사용자의 눈깜빡임 여부를 판단하고, 눈깜빡임 횟수를 카운트한다(S512). 여기서 동작 단위란, 모션데이터가 움직인 동작의 일 단위를 말한다.In operation S506, the feature point is used to determine whether the face of the user or the photographer is staring at the front. Based on the extracted feature points, the number of blinks and the front face ratio of the user are converted into scores. In order to measure the number of blinks, the estimation of eyes, nose and mouth of the user's face must be performed first. In operation S508, the immersion measurement apparatus 100 estimates the position of the user's eyes, nose, and mouth using the feature points, and normalizes the shape to remove the rotation effect and the scaling effect. Based on the histogram extracted from the normalized face shape, it is determined whether the user blinks in motion units for a specific time and counts the number of blinks (S512). Herein, the operation unit refers to one unit of operation in which motion data is moved.

추출된 특징점을 기반으로, 사용자 또는 피촬영자가 정면을 응시하고 있는지 여부를 판단한다(S510). 사용자 또는 피촬영자가 정면을 응시하지 않는다면 단계 S502로 되돌아가고, 정면을 응시한다면 추출된 특징점을 기반으로 사용자 또는 피촬영자의 얼굴이 정면을 보고 있는 프레임을 카운트한다(S514). 사용자의 얼굴이 정면 응시하고 있는지 여부를 판단함에 있어 롤링(rolling), 피칭(pitching), 요잉(yawing)의 범위를 정의하고, 프레임 별로 얼굴의 정면응시 여부를 판단한다. S516에서 특정 시간이 경과하면 눈깜빡임 카운트와 얼굴 정면 응시 프레임 카운트 검사를 종료한다(S516).Based on the extracted feature points, it is determined whether the user or the photographer is staring at the front (S510). If the user or the photographer does not stare at the front face, the process returns to step S502. If the user or the photographer stares at the front face, the frame on which the face of the user or the photographer is looking at the front face is counted based on the extracted feature point (S514). In determining whether the user's face is facing front, a range of rolling, pitching, and yawing is defined, and whether or not the face is stared at each frame is determined. When a specific time elapses in S516, the blinking count and the face front gaze frame count test are finished (S516).

카운트된 눈깜빡임 횟수와 얼굴 정면 응시 프레임은 각각 점수로 환산된다(S518). 카운트된 눈깜빡임 횟수는 도 3과 관련하여 전술한 것과 같이 점수로 환산된다(S520). 몰입도 측정장치(100)는 특정 시간 동안 영상정보의 전체 프레임 중에서 얼굴의 정면응시 프레임의 비율을 계산하고, 이를 기반으로 점수로 환산한다(S522). 여기서 프레임이란 영상정보를 구성하는 정지된 각각의 이미지 데이터를 의미한다. 예를 들어, 특정 시간 동안 전체 프레임이 100장이고 정면 응시 프레임이 20장이라면 1/5의 비율을 점수로 환산하는 것을 말한다. The counted number of blinks and the face front gaze frame are respectively converted into scores (S518). The counted number of blinks is converted into a score as described above with reference to FIG. 3 (S520). The immersion measuring apparatus 100 calculates a ratio of the front gaze frame of the face among the entire frames of the image information for a specific time, and converts it into a score based on this (S522). In this case, the frame refers to each of the still image data constituting the image information. For example, if a total of 100 frames and 20 frontal gaze frames during a specific time period, the ratio of 1/5 to a score.

S524에서 몰입도 측정장치(100)는 눈깜빡임 점수와 얼굴 정면응시 점수를 합산하여 집중도 점수를 산출한다. 더욱 자세하게는, 두 점수의 단순 합이 아닌 얼굴 정면응시 점수에 가중치를 두고 집중도 점수를 산출한다. 이는 집중도 점수의 신뢰성을 높이기 위한 것으로, 집중도를 판단할 때 눈깜빡임 요소보다 얼굴 정면응시 비율이 더 높은 신뢰성을 보이는 것을 고려한 것이다. 즉, 눈깜빡임은 안구 건조 또는 미세먼지 등 개인적이거나 외부 환경적 요인이 작용하기 용이하므로 얼굴 정면응시 점수에 가중치를 둔다. 도 3을 다시 참조하면, 얼굴 정면응시 점수에 가중치를 두기 위해서 집중도 점수 총 10점 중 눈깜빡임 점수의 최고점을 3점으로 하고, 얼굴 정면응시 점수의 최고점은 7점으로 한다. 가중치를 두는 이러한 방법은 단순한 예시에 불과할 뿐, 눈깜빡임 점수와 얼굴 정면응시 점수의 차등을 줄 수 있는 방법을 모두 포함하는 것으로 이해되어야 할 것이다. 집중도 점수는 몰입도 판별 시 흥미도 점수와 동등한 비율로 반영되기 위해 흥미도 점수와 마찬가지로 10점의 차이를 둔다. In S524, the immersion measuring apparatus 100 calculates the concentration score by summing the eye blink score and the face front gaze score. More specifically, the concentration score is calculated by weighting the face front gaze score, not the simple sum of the two scores. This is to enhance the reliability of the concentration score, which is considered to have a higher reliability of face front gaze than the blinking element when determining concentration. In other words, the blinking of the eye is weighted to the face frontal gaze, since personal or external environmental factors such as dry eye or fine dust are easy to act. Referring to FIG. 3 again, in order to weight the face front gaze score, the highest point of the blinking score of the total 10 points of concentration scores is 3 points, and the highest point of the face front gaze score is 7 points. It is to be understood that this method of weighting is merely a mere example, and includes both methods of giving a difference between the blink score and the face-to-face score. The concentration score is set to 10 points as well as the interest score in order to be reflected in the ratio equal to the interest score in the determination of immersion.

도 6은 본 실시예에 따른 몰입도 측정방법을 설명하기 위한 예시도이다.6 is an exemplary view for explaining a immersion measurement method according to the present embodiment.

도 6을 참조하면, 디스플레이(600) 앞에 사용자가 위치하고, 촬영장치(112)가 사용자를 촬영한다. 디스플레이(600)는 사용자의 몰입도를 측정하기 위한 영상 또는 문항을 출력한다. 각각의 영상 또는 문항은 출력되는 시간이 다르므로, 각각의 영상 또는 문항에 관한 몰입도를 동일한 기준으로 판단하기 위해 흥미도 점수 및 집중도 점수는 동일한 특정 시간을 기준으로 산정한다. 예를 들어, 한 문항에 대해서는 30초에 눈을 2번 깜빡이고, 다른 문항에 대해서는 1분에 눈을 4번 깜빡였다면, 두 문항의 눈깜빡임 점수는 동일하다고 할 수 있다. Referring to FIG. 6, the user is positioned in front of the display 600, and the photographing apparatus 112 photographs the user. The display 600 outputs an image or item for measuring the user's immersion degree. Since each image or item has a different output time, the interest score and the concentration score are calculated based on the same specific time in order to determine the immersion level for each image or item based on the same criteria. For example, if one item blinks twice in 30 seconds for one question and four times blinks per minute for the other item, the scores for the two blinks are the same.

도 7의 (a) 및 (b)는 본 실시예에 따른 몰입도 측정 결과화면을 도시한 예시도이다. 7 (a) and 7 (b) are exemplary views illustrating a immersion measurement result screen according to the present embodiment.

도 7의 (a)에 도시한 바와 같이, 사용자를 촬영한 결과 화면(710)에는 사용자의 얼굴에 특징점이 표시되고, 결과 화면(710)의 오른쪽 하단에는 상태표시(720)를 출력하는 부분이 존재한다. 이 특징점을 이용하여 눈깜빡임, 얼굴의 정면응시 등을 판단한다. 한편, 상태표시를 출력하는 상태 표시창(720)은 얼굴이 정면을 응시하고 있는지 여부 및 얼굴표정에 대한 정보를 포함한다. As shown in FIG. 7A, a feature point is displayed on a face of a user on a result screen 710 of photographing a user, and a portion for outputting a status display 720 is displayed on a lower right side of the result screen 710. exist. The feature points are used to determine eye blinking, face gaze, and the like. On the other hand, the status display window 720 for outputting the status display includes information on whether the face is staring at the front and facial expression.

도 7의 (b)를 참조하면, 몰입도 측정장치(100)는 얼굴의 특징점을 이용하여 사용자에 의해 기 설정된 피치, 롤, 요의 범위를 벗어난 경우 정면을 응시하지 않는다고 판단한다. 특정 시간 동안 영상의 전체 프레임 중에서 도면과 같이 정면을 응시하지 않는 프레임을 제외한 나머지 프레임은 정면을 응시하는 프레임이므로, 정면응시 비율을 계산하여 점수를 환산한다.Referring to FIG. 7B, the immersion measurement apparatus 100 determines that the front face is not stared when the pitch, roll, or yaw is out of a range preset by the user using the feature points of the face. Since the remaining frames, except for the frame that does not stare at the front side, as shown in the drawing, are frames that stare at the front side of the entire frame of the image for a specific time, the score is calculated by calculating the front gaze ratio.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 실시예들은 본 실시예의 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술적 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구항에 의해 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present embodiment, and those skilled in the art will appreciate that various modifications and changes can be made without departing from the essential characteristics of the present embodiment. Therefore, the exemplary embodiments are not intended to limit the technical spirit of the present exemplary embodiment but to describe the exemplary embodiments, and the scope of the technical spirit of the present exemplary embodiment is not limited by the exemplary embodiments. The scope of protection of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present embodiment.

100: 몰입도 측정장치 110: 영상처리부
112: 촬영장치 114: 얼굴특정부
116: 모션데이터 생성부 120: 흥미도 판별부
122: 얼굴표정 데이터베이스 124: 표정인식 모델학습부
126: 흥미도점수 출력부 130: 집중도 판별부
132: 눈깜빡임 산출부 134: 정면비율 산출부
136: 집중도점수 출력부 140: 몰입도 판별부
142: 흥미도-집중도 종합부 144: 몰입도 출력부
600: 디스플레이 710: 결과 화면
720: 상태 표시창
100: immersion measurement device 110: image processing unit
112: photographing apparatus 114: face special government
116: motion data generation unit 120: interest degree determination unit
122: facial expression database 124: facial expression recognition model learning unit
126: interest score output unit 130: concentration determination unit
132: eye blink calculation unit 134: front ratio calculation unit
136: concentration score output unit 140: immersion determination unit
142: interest-concentration synthesis unit 144: immersion output unit
600: display 710: results screen
720: status display window

Claims (17)

영상 촬영장치가 촬영한 사용자의 영상정보를 수신하여 상기 영상정보로부터 얼굴 영역을 특정하고, 상기 얼굴 영역 내에서 얼굴표정을 감지하여 모션데이터(motion data)를 생성하는 영상처리부;
기 학습된 표정인식 모델 및 상기 모션데이터를 기반으로 상기 사용자의 흥미도 점수를 산출하여 출력하는 흥미도 판별부;
상기 얼굴 영역을 기반으로 얼굴데이터를 추출하여 상기 사용자의 집중도 점수를 산출하여 출력하는 집중도 판별부; 및
상기 흥미도 점수와 상기 집중도 점수 중 적어도 어느 하나에 기반하여 상기 사용자의 몰입도 점수를 산출하여 출력하는 몰입도 판별부
를 포함하는 것을 특징으로 하는 몰입도 측정장치.
An image processor for receiving a user's image information captured by the image capturing apparatus, specifying a face region from the image information, and detecting motion of a face expression within the face region to generate motion data;
An interest determination unit configured to calculate and output an interest score of the user based on a previously learned facial expression recognition model and the motion data;
A concentration determination unit for extracting face data based on the face area to calculate and output a concentration score of the user; And
An immersion degree determination unit for calculating and outputting an immersion score of the user based on at least one of the interest score and the concentration score.
Immersion degree measuring device comprising a.
제 1항에 있어서,
상기 흥미도 판별부는,
얼굴표정의 데이터베이스를 기반으로 상기 표정인식 모델을 학습하여 학습된 출력값을 저장한 표정인식 모델학습부; 및
상기 표정인식 모델에 상기 모션데이터를 입력하여 상기 얼굴표정을 판단하고, 상기 얼굴표정에 상응하는 점수로 출력하는 흥미도점수 출력부
를 포함하는 것을 특징으로 하는 몰입도 측정장치.
The method of claim 1,
The interest degree determination unit,
An expression recognition model learning unit which stores the output value learned by learning the expression recognition model based on a database of facial expressions; And
The interest score output unit for inputting the motion data to the facial expression recognition model to determine the facial expression and output the score corresponding to the facial expression.
Immersion degree measuring device comprising a.
제 2항에 있어서,
상기 표정인식 모델학습부는,
상기 데이터베이스를 기반으로 상기 표정인식 모델을 학습하여 학습된 출력값을 복수의 카테고리로 나누고, 상기 카테고리는 적어도 둘 이상의 단계로 구분되는 것을 특징으로 하는 몰입도 측정장치.
The method of claim 2,
The expression recognition model learning unit,
The immersion measurement apparatus, characterized in that for learning the facial expression recognition model based on the database divided the learned output value into a plurality of categories, the category is divided into at least two steps.
제 3항에 있어서,
상기 카테고리는,
부정적인 표정, 중립적인 표정 및 긍정적인 표정 중 어느 하나인 것을 특징으로 하는 몰입도 측정장치.
The method of claim 3, wherein
The category,
Immersion degree measuring device, characterized in that any one of a negative expression, a neutral expression and a positive expression.
제 2항에 있어서,
상기 흥미도점수 출력부는,
상기 표정인식 모델이 구분한 단계에 상응하는 점수를 설정하고, 상기 모션데이터를 상기 표정인식 모델에 입력하여 대응되는 상기 단계의 점수를 산출하는 것을 특징으로 하는 몰입도 측정장치.
The method of claim 2,
The interest score output unit,
And setting scores corresponding to the steps classified by the facial expression recognition model and inputting the motion data into the facial expression recognition model to calculate the scores of the corresponding steps.
제 1항에 있어서,
상기 집중도 판별부는,
상기 사용자의 눈깜빡임 횟수를 카운트하고 점수화하여 눈깜빡임 점수를 산출하는 눈깜빡임 산출부;
상기 사용자가 정면을 보고 있는 비율을 계산하고 점수화하여 정면비율 점수를 산출하는 정면비율 산출부; 및
상기 눈깜빡임 산출부와 상기 정면비율 산출부가 산출한 점수를 합산하는 집중도점수 출력부
를 포함하는 것을 특징으로 하는 몰입도 측정장치.
The method of claim 1,
The concentration determination unit,
An eye blink calculation unit for counting and scoring the number of eye blinks of the user to calculate an eye blink score;
A front ratio calculation unit configured to calculate and score a ratio of the user looking at the front to calculate a front ratio score; And
A concentration score output unit for adding up the scores calculated by the blinking unit and the front ratio calculator.
Immersion degree measuring device comprising a.
제 6항에 있어서,
상기 집중도점수 출력부는,
상기 눈깜빡임 점수 및 상기 정면비율 점수를 합산하여 상기 집중도 점수를 산출할 때, 상기 정면비율 점수에 특정 가중치를 적용하여 상기 집중도 점수를 산출하는 것을 특징으로 하는 몰입도 측정장치.
The method of claim 6,
The concentration score output unit,
And when calculating the concentration score by adding the eye blink score and the front ratio score, the concentration score is calculated by applying a specific weight to the front ratio score.
제 6항에 있어서,
상기 눈깜빡임 산출부는,
상기 얼굴 영역으로부터 적어도 하나의 특징점을 추출하여 상기 사용자의 얼굴 모양을 분석하고, 동작 단위를 이용하여 눈깜빡임 여부를 판단하고, 상기 사용자의 눈깜빡임 횟수를 카운트하여 점수로 환산하되, 상기 동작 단위는 상기 특징점의 움직임 단위인 것을 특징으로 하는 몰입도 측정장치.
The method of claim 6,
The eye blink calculation unit,
The user extracts at least one feature point from the face area to analyze the shape of the user's face, determines whether the user blinks by using an operation unit, counts the number of eye blinks of the user, and converts the score into a score. Immersion measuring device, characterized in that the movement unit of the feature point.
제 8항에 있어서,
상기 눈깜빡임 산출부는,
상기 눈깜빡임 횟수의 최솟값, 최댓값 및 평균값을 기준으로 복수 개의 단계로 구분하고, 상기 눈깜빡임 횟수가 적을수록 높은 점수를 획득하도록 설정하는 것을 특징으로 하는 몰입도 측정장치.
The method of claim 8,
The eye blink calculation unit,
And dividing the light into a plurality of stages based on the minimum, maximum, and average values of the number of blinks, and setting a higher score to obtain a higher score as the number of blinks decreases.
제 8항에 있어서,
상기 정면비율 산출부는,
상기 특징점을 분석하여 상기 사용자의 얼굴이 정면인지 여부를 판단하고, 촬영된 영상의 전체 프레임 중 정면이 위치하는 비율을 계산하여 점수로 환산하되, 상기 프레임은 영상정보를 구성하는 정지된 각각의 이미지 데이터인 것을 특징으로 하는 몰입도 측정장치.
The method of claim 8,
The front ratio calculation unit,
The feature point is analyzed to determine whether the user's face is in front, and the ratio of the front position of the entire frames of the photographed image is calculated and converted into a score, wherein each frame constitutes image information. Immersion degree measuring device, characterized in that the data.
제 10항에 있어서,
상기 정면비율 산출부는,
상기 영상정보의 전체 프레임을 기준으로 상기 사용자의 얼굴이 정면을 향하는 프레임을 카운트하여 평균점수로 환산하는 것을 특징으로 하는 몰입도 측정장치.
The method of claim 10,
The front ratio calculation unit,
An immersion measuring apparatus, characterized in that the frame of the user's face is counted and converted into an average score based on the entire frame of the image information.
제 1항에 있어서,
상기 영상처리부는,
상기 영상정보를 획득하기 위한 촬영장치;
상기 영상정보를 기반으로 상기 얼굴 영역을 특정하는 얼굴특정부; 및
상기 얼굴특정부로부터 움직임을 감지하여 상기 모션데이터를 생성하는 모션데이터 생성부
를 포함하는 것을 특징으로 하는 몰입도 측정장치.
The method of claim 1,
The image processor,
A photographing apparatus for obtaining the image information;
Face specificity specifying the face region based on the image information; And
Motion data generation unit for generating the motion data by detecting the motion from the face specific portion
Immersion degree measuring device comprising a.
제 12항에 있어서,
상기 얼굴특정부는,
상기 영상정보를 픽셀(pixel) 단위로 분류하고, 상기 픽셀 단위로부터 상기 사용자의 얼굴 부위에 해당하는 얼굴 영역을 추출하는 것을 특징으로 하는 몰입도 측정장치.
The method of claim 12,
The face special government,
And dividing the image information into a pixel unit and extracting a face region corresponding to a face part of the user from the pixel unit.
제 12항에 있어서,
상기 모션데이터 생성부는,
상기 얼굴 영역에서 조밀 모션 플로우(dense motion flow)를 기반으로 상기 모션데이터를 생성하는 것을 특징으로 하는 몰입도 측정장치.
The method of claim 12,
The motion data generator,
The immersion measurement apparatus, characterized in that for generating the motion data based on dense motion flow in the face area.
제 1항에 있어서,
상기 몰입도 판별부는,
상기 흥미도 점수와 상기 집중도 점수 중 적어도 하나에 기반하여 상기 몰입도 점수를 산출하여 출력하는 것을 특징으로 하는 몰입도 측정장치.
The method of claim 1,
The immersion degree determination unit,
And an immersion score is calculated based on at least one of the interest score and the concentration score.
영상 촬영장치가 촬영한 사용자의 영상정보를 수신하여 상기 영상정보로부터 얼굴 영역을 특정하고, 상기 얼굴 영역 내에서 얼굴표정을 감지하여 모션데이터(motion data)를 생성하는 과정;
기 학습된 표정인식 모델 및 상기 모션데이터를 기반으로 상기 사용자의 흥미도 점수를 산출하여 출력하는 과정;
상기 얼굴 영역을 기반으로 얼굴데이터를 추출하여 상기 사용자의 집중도 점수를 산출하여 출력하는 과정; 및
상기 흥미도 점수와 상기 집중도 점수 중 적어도 어느 하나에 기반하여 상기 사용자의 몰입도 점수를 산출하여 출력하는 과정
을 포함하는 것을 특징으로 하는 몰입도 측정방법.
Receiving image information of a user photographed by the image capturing apparatus, specifying a face region from the image information, and detecting motion of a face expression within the face region to generate motion data;
Calculating and outputting an interest score of the user based on a previously learned facial expression model and the motion data;
Extracting face data based on the face area to calculate and output a concentration score of the user; And
Calculating and outputting an immersion score of the user based on at least one of the interest score and the concentration score
Immersion degree measurement method comprising a.
제 16항에 있어서,
상기 흥미도 점수를 산출하여 출력하는 과정은,
얼굴표정의 데이터베이스를 기반으로 상기 표정인식 모델을 학습하여 학습된 출력값을 저장하고, 상기 표정인식 모델에 상기 모션데이터를 입력하여 상기 얼굴표정을 판단하여 상기 얼굴표정에 상응하는 점수로 출력하는 것을 특징으로 하는 몰입도 측정방법.
The method of claim 16,
The process of calculating and outputting the interest score,
Learning the facial expression recognition model based on a database of facial expressions, storing the learned output value, inputting the motion data to the facial expression recognition model, determining the facial expression, and outputting the score corresponding to the facial expression; Immersion degree measurement method.
KR1020180067704A 2018-06-12 2018-06-12 Method and Apparatus for Measuring Degree of Immersion KR102174345B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180067704A KR102174345B1 (en) 2018-06-12 2018-06-12 Method and Apparatus for Measuring Degree of Immersion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180067704A KR102174345B1 (en) 2018-06-12 2018-06-12 Method and Apparatus for Measuring Degree of Immersion

Publications (2)

Publication Number Publication Date
KR20190140767A true KR20190140767A (en) 2019-12-20
KR102174345B1 KR102174345B1 (en) 2020-11-04

Family

ID=69062871

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180067704A KR102174345B1 (en) 2018-06-12 2018-06-12 Method and Apparatus for Measuring Degree of Immersion

Country Status (1)

Country Link
KR (1) KR102174345B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114999646A (en) * 2022-06-01 2022-09-02 北京大学 Newborn exercise development assessment system, method, device and storage medium
KR20230016448A (en) 2021-07-26 2023-02-02 한국전자통신연구원 Apparatus and method for surpporting attention test based on attention map and attention movement map
KR102512468B1 (en) * 2022-11-09 2023-03-22 주식회사 제로투원파트너스 Apparatus and method for analyzing viewers' responses to video content

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102222747B1 (en) * 2018-11-30 2021-03-04 오당찬 Method for operating an immersion level and electronic device supporting the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005208850A (en) 2004-01-21 2005-08-04 Nippon Hoso Kyokai <Nhk> Face image recognition device and face image recognition program
JP2011237970A (en) * 2010-05-10 2011-11-24 Nippon Hoso Kyokai <Nhk> Facial expression variation measurement device, program thereof and broadcast interest level measurement device
KR20120124772A (en) * 2011-05-04 2012-11-14 경북대학교 산학협력단 Apparatus for analysing focus and nonfocus states and method therof
JP2014178358A (en) 2013-03-13 2014-09-25 Casio Comput Co Ltd Learning support device, learning support method, learning support program, learning support system and server device, and terminal device
KR20150089482A (en) * 2014-01-28 2015-08-05 영남대학교 산학협력단 Method and apparatus of recognizing facial expression using motion dictionary

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005208850A (en) 2004-01-21 2005-08-04 Nippon Hoso Kyokai <Nhk> Face image recognition device and face image recognition program
JP2011237970A (en) * 2010-05-10 2011-11-24 Nippon Hoso Kyokai <Nhk> Facial expression variation measurement device, program thereof and broadcast interest level measurement device
KR20120124772A (en) * 2011-05-04 2012-11-14 경북대학교 산학협력단 Apparatus for analysing focus and nonfocus states and method therof
JP2014178358A (en) 2013-03-13 2014-09-25 Casio Comput Co Ltd Learning support device, learning support method, learning support program, learning support system and server device, and terminal device
KR20150089482A (en) * 2014-01-28 2015-08-05 영남대학교 산학협력단 Method and apparatus of recognizing facial expression using motion dictionary

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230016448A (en) 2021-07-26 2023-02-02 한국전자통신연구원 Apparatus and method for surpporting attention test based on attention map and attention movement map
CN114999646A (en) * 2022-06-01 2022-09-02 北京大学 Newborn exercise development assessment system, method, device and storage medium
KR102512468B1 (en) * 2022-11-09 2023-03-22 주식회사 제로투원파트너스 Apparatus and method for analyzing viewers' responses to video content

Also Published As

Publication number Publication date
KR102174345B1 (en) 2020-11-04

Similar Documents

Publication Publication Date Title
KR102174345B1 (en) Method and Apparatus for Measuring Degree of Immersion
JP6993027B2 (en) Image analysis methods, equipment and computer programs
KR20160029655A (en) Identification appartus and control method for identification appartus
JP2017093760A (en) Device and method for measuring periodic variation interlocking with heart beat
JP2019058625A (en) Emotion reading device and emotion analysis method
CN111887867A (en) Method and system for analyzing character formation based on expression recognition and psychological test
WO2019137538A1 (en) Emotion representative image to derive health rating
WO2021068781A1 (en) Fatigue state identification method, apparatus and device
Landowska Uncertainty in emotion recognition
Szankin et al. Long distance vital signs monitoring with person identification for smart home solutions
Uluyagmur-Ozturk et al. ADHD and ASD classification based on emotion recognition data
Diniz et al. Face attributes as cues for deep face recognition understanding
Arif et al. An evaluation of a modified Haar-like features based classifier method for face mask detection in the COVID-19 spread prevention
KR20200061016A (en) Depression Index Estimation Method Using Skin Image
KR102565852B1 (en) Autism spectrum disorder evaluation method based on facial expression analysis
Ahmed et al. Assisting the autistic with improved facial expression recognition from mixed expressions
Khanal et al. Individual’s neutral emotional expression tracking for physical exercise monitoring
Ahmed et al. Automatic Region of Interest Extraction from Finger Nail Images for Measuring Blood Hemoglobin Level
KR101971602B1 (en) Reasoning Method and System of Empathic Emotion Based on Video Analysis
Lunerti et al. Sensing movement on smartphone devices to assess user interaction for face verification
Thiojaya et al. Classification of Human Gender Through Machine Learning Analysis of Gait
JP7204785B2 (en) Blood pressure measuring device, model setting device, and blood pressure measuring method
Nuha et al. Predicting the Air Pollution Level and Creating an Awareness Platform
Manner et al. Determining child orientation from overhead video: a multiple kernel learning approach
Henry et al. AUTOMATED ANAEMIA DETECTION FROM CONJUNCTIVA IMAGES: A MACHINE LEARNING APPROACH FOR ANDROID APPLICATION

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant