KR20190140767A - Method and Apparatus for Measuring Degree of Immersion - Google Patents
Method and Apparatus for Measuring Degree of Immersion Download PDFInfo
- Publication number
- KR20190140767A KR20190140767A KR1020180067704A KR20180067704A KR20190140767A KR 20190140767 A KR20190140767 A KR 20190140767A KR 1020180067704 A KR1020180067704 A KR 1020180067704A KR 20180067704 A KR20180067704 A KR 20180067704A KR 20190140767 A KR20190140767 A KR 20190140767A
- Authority
- KR
- South Korea
- Prior art keywords
- score
- user
- face
- immersion
- unit
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/168—Evaluating attention deficit, hyperactivity
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Developmental Disabilities (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Social Psychology (AREA)
- Psychology (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Educational Technology (AREA)
- Child & Adolescent Psychology (AREA)
- Veterinary Medicine (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
본 실시예는 몰입도 측정장치 및 방법에 관한 것이다. 더욱 상세하게는, 컴퓨터를 기반으로 하는 다중지능 평가 시스템에 이용하기 위한 것으로서, 얼굴 분석을 이용한 몰입도 측정장치 및 방법에 관한 것이다.This embodiment relates to an immersion measurement apparatus and method. More specifically, the present invention relates to an apparatus and method for immersion measurement using face analysis, for use in a computer-based multi-intelligence evaluation system.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section merely provide background information on the present embodiment and do not constitute a prior art.
사람의 지능을 측정하는 보편적인 방법으로 IQ 테스트가 있다. 사람의 지능은 다양한 지적 특성을 기반으로 측정되어야 하지만, IQ 테스트는 언어능력 및 수학능력에 비중을 두고 평가한다는 단점이 있다. 하워드 가드너(Howard Gardner) 교수는 인간의 지능을 8가지 영역으로 분리하고, 각 영역에 대한 검사를 수행하는 다중지능 이론을 발표하였고, 이를 기반으로 사용자의 지능을 다양한 측면에서 평가하는 다중지능 평가시스템이 개발되고 있다. The IQ test is a common way to measure human intelligence. Human intelligence should be measured on the basis of various intellectual characteristics, but IQ test has a disadvantage of focusing on language ability and math ability. Professor Howard Gardner presented a multi-intelligence theory that separates human intelligence into eight domains and tests each domain. Based on this, a multi-intelligent evaluation system that evaluates the user's intelligence in various aspects Is being developed.
다중지능 평가의 방법으로, 일정한 문제를 제한시간 내에 해결하는 정도를 검사하는 방법이 일반적이다. 그러나 많은 연구결과에 따르면 다중지능을 획일적인 방법으로 측정해서는 정확한 다중지능을 측정할 수 없다는 것이 밝혀지고, 인간의 다양한 영역별로 분리하여 검사해야 한다는 의견이 많아지고 있다. 따라서 영역별로 분리검사를 수행하기 위해, 설문조사 또는 상담을 진행하는 검사자가 영역별로 설문조사 또는 상담을 하고, 피검사자의 답변을 분석하는 방법이 사용되고 있다. As a method of multi-intelligence evaluation, it is common to check the degree to which a certain problem is solved within a time limit. However, many studies have shown that measuring multi-intelligence in a uniform way cannot measure accurate multi-intelligence, and many opinions have to be separated and tested in various areas of human beings. Therefore, in order to perform a separate test for each area, a method of analyzing a questionnaire or a questionnaire by an inspector conducting a questionnaire or consultation and analyzing an examinee's answer is used.
그러나 이와 같은 설문조사 방식은 다중지능 평가 과정에서 검사자의 경험과 같은 주관적 요소가 개입될 여지가 많고, 다중지능 평가를 위한 많은 수의 전문가, 시간 및 비용이 필요하다. 또한, 언어능력이 채 발달하지 않은 유아에 대해서는 설문조사의 문항에 관한 답변이 일정하지 않아 검사결과의 신뢰도가 낮다는 문제점이 있다.However, such a survey method may involve subjective factors such as the examiner's experience in the multi-intelligence evaluation process, and requires a large number of experts, time, and cost for the multi-intelligence evaluation. In addition, there is a problem in that the reliability of the test results is low because the answer about the questionnaire of the questionnaire is not constant for infants with less developed language ability.
본 발명의 실시예는, 영상 촬영장치로부터 수집된 영상정보를 사용자에 의해 학습된 표정인식 모델에 입력하여 흥미도 점수를 산출하고, 눈깜빡임 횟수와 사용자의 얼굴 정면응시 비율을 종합하여 집중도 점수를 산출하여 결과적으로 사용자의 관심 분야에 대한 몰입도를 판단하도록 하는 몰입도 측정장치 및 방법을 제공하는 데 주 목적이 있다.In an embodiment of the present invention, by inputting the image information collected from the image capturing apparatus to the facial expression recognition model learned by the user to calculate the interest score, the concentration score is calculated by combining the number of eye blinks and the front face gaze ratio of the user The main object of the present invention is to provide an immersion measuring apparatus and method for calculating and consequently determining the degree of immersion of a user's interest.
본 실시예는, 영상 촬영장치가 촬영한 사용자의 영상정보를 수신하여 상기 영상정보로부터 얼굴 영역을 특정하고, 상기 얼굴 영역 내에서 얼굴표정을 감지하여 모션데이터(motion data)를 생성하는 영상처리부; 기 학습된 표정인식 모델 및 상기 모션데이터를 기반으로 상기 사용자의 흥미도 점수를 산출하여 출력하는 흥미도 판별부; 상기 얼굴 영역을 기반으로 얼굴데이터를 추출하여 상기 사용자의 집중도 점수를 산출하여 출력하는 집중도 판별부; 및 상기 흥미도 점수와 상기 집중도 점수 중 적어도 어느 하나에 기반하여 상기 사용자의 몰입도 점수를 산출하여 출력하는 몰입도 판별부를 포함하는 것을 특징으로 하는 몰입도 측정장치를 제시한다.According to the present embodiment, an image processing unit is configured to receive image information of a user photographed by an image capturing apparatus, specify a face region from the image information, and detect motion of a facial expression within the face region to generate motion data; An interest determination unit configured to calculate and output an interest score of the user based on a previously learned facial expression recognition model and the motion data; A concentration determination unit for extracting face data based on the face area to calculate and output a concentration score of the user; And an immersion determination unit for calculating and outputting an immersion score of the user based on at least one of the interest score and the concentration score.
본 실시예의 다른 측면에 의하면, 영상 촬영장치가 촬영한 사용자의 영상정보를 수신하여 상기 영상정보로부터 얼굴 영역을 특정하고, 상기 얼굴 영역 내에서 얼굴표정을 감지하여 모션데이터(motion data)를 생성하는 과정; 기 학습된 표정인식 모델 및 상기 모션데이터를 기반으로 상기 사용자의 흥미도 점수를 산출하여 출력하는 과정; 상기 얼굴 영역을 기반으로 얼굴데이터를 추출하여 상기 사용자의 집중도 점수를 산출하여 출력하는 과정; 및 상기 흥미도 점수와 상기 집중도 점수 중 적어도 어느 하나에 기반하여 상기 사용자의 몰입도 점수를 산출하여 출력하는 과정을 포함하는 것을 특징으로 하는 몰입도 측정방법을 제시한다.According to another aspect of the present embodiment, the image capturing apparatus receives image information of a user, specifies a face region from the image information, and detects facial expression within the face region to generate motion data. process; Calculating and outputting an interest score of the user based on a previously learned facial expression model and the motion data; Extracting face data based on the face area to calculate and output a concentration score of the user; And calculating and outputting an immersion score of the user based on at least one of the interest score and the concentration score.
이상에서 설명한 바와 같이 본 실시예에 의하면, 사용자의 흥미도 및 집중도를 기반으로 사용자의 관심 분야에 대한 몰입도를 측정하여 다중지능 평가에 이용할 수 있다. 사용자의 영상정보를 이용하여 몰입도를 측정함으로써, 다중지능 평가를 실시할 때 언어능력의 발달이 부족한 유아에게도 이용할 수 있다. As described above, according to the present embodiment, the immersion degree for the user's interest field may be measured and used for the multi-intelligence evaluation based on the user's interest and concentration. By measuring the degree of immersion using the user's image information, it can be used even for infants who lack the development of language ability when performing multi-intelligence evaluation.
본 실시예에 의한 몰입도 측정장치는 컴퓨터를 기반으로 하는 다중지능 평가 시스템에 이용될 수 있으며, 상담원의 능력 또는 경험 등 주관적인 요소가 개입되지 않아 객관성 및 신뢰성을 확보할 수 있는 효과가 있다.The immersion measuring apparatus according to the present embodiment can be used in a computer-based multi-intelligence evaluation system, and it is possible to secure objectivity and reliability because subjective factors such as the ability or experience of a counselor are not involved.
도 1은 본 실시예에 따른 몰입도 측정장치를 개략적으로 나타낸 블록 구성도이다.
도 2는 본 실시예에 따른 흥미도 판별부가 사용자의 얼굴표정에 상응하는 흥미도 점수를 산출하기 위해 예시적으로 나타낸 도면이다.
도 3은 본 실시예에 따른 눈깜빡임 산출부가 눈깜빡임 횟수를 점수로 환산하기 위해 예시적으로 나타낸 도면이다.
도 4는 본 실시예에 따라 흥미도 점수를 산출하기 위한 순서도이다.
도 5는 본 실시예에 따라 집중도 점수를 산출하기 위한 순서도이다.
도 6은 본 실시예에 따른 몰입도 측정방법을 설명하기 위한 예시도이다.
도 7의 (a) 및 (b)는 본 실시예에 따른 몰입도 측정 결과화면을 도시한 예시도이다. 1 is a block diagram schematically showing an immersion measurement apparatus according to the present embodiment.
FIG. 2 is a diagram exemplarily illustrating an interest level determining unit according to an exemplary embodiment to calculate an interest level score corresponding to a facial expression of a user.
3 is a diagram illustrating an example of an eye blink calculation unit for converting a number of eye blinks into a score according to an exemplary embodiment.
4 is a flowchart for calculating an interest score according to the present embodiment.
5 is a flowchart for calculating a concentration score according to this embodiment.
6 is an exemplary view for explaining a immersion measurement method according to the present embodiment.
7 (a) and 7 (b) are exemplary views illustrating a immersion measurement result screen according to the present embodiment.
이하, 본 실시예들을 예시적인 도면을 이용하여 상세하게 설명한다. 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the present embodiments will be described in detail with reference to exemplary drawings. In describing the present embodiments, when it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easily understanding the embodiments disclosed herein, the technical spirit disclosed in the specification by the accompanying drawings are not limited, and all changes included in the spirit and scope of the present invention. It should be understood to include equivalents and substitutes.
본 실시예에서 '포함'이라는 용어는 명세서 상에 기재된 구성요소, 특징, 단계 또는 이들을 조합한 것이 존재한다는 것이지, 하나 또는 복수 개의 구성요소나 다른 특징, 단계 또는 이들을 조합한 것의 존재 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.In the present embodiment, the term 'comprising' means that there is a component, a feature, a step, or a combination thereof described in the specification, and excludes in advance the possibility of the existence of one or a plurality of components or other features, steps, or a combination thereof. It should be understood that it does not.
본 실시예에서 '얼굴데이터'라는 용어는 영상정보에서 사용자의 표정, 눈깜빡임 및 얼굴 정면응시를 파악하기 위한 얼굴정보로서 특징점을 포함하는 개념이다. In the present embodiment, the term 'face data' refers to a concept including feature points as face information for grasping a user's expression, eye blink, and face gaze in the image information.
본 실시예에서 '몰입도'라는 용어는 사용자의 흥미도 및 집중도를 종합한 것으로서, 통상의 기술자로 하여금 본 실시예를 쉽게 이해하도록 하기 위해 '몰입도'로 표기한다.In the present embodiment, the term 'immersion' is a combination of interests and concentrations of the user, and is referred to as 'immersion' for a person skilled in the art to easily understand the present embodiment.
첨부된 도면을 참조하여 본 실시예를 상세하게 설명한다.With reference to the accompanying drawings will be described in detail this embodiment.
도 1은 본 실시예에 따른 몰입도 측정장치를 개략적으로 나타낸 블록 구성도이다.1 is a block diagram schematically showing an immersion measurement apparatus according to the present embodiment.
본 실시예에 따른 몰입도 측정장치(100)는 영상처리부(110), 흥미도 판별부(120), 집중도 판별부(130) 및 몰입도 판별부(140)를 포함한다.The
영상처리부(110)는 촬영장치(112), 얼굴특정부(114) 및 모션데이터 생성부(116)를 포함한다. 영상처리부(110)는 사용자의 영상정보를 획득 및 가공하는데, 더욱 상세하게는, 촬영장치(112)로부터 사용자의 영상정보를 획득하고, 이를 기반으로 얼굴특정부(114)에서 사용자의 얼굴 영역을 특정한 뒤 모션데이터 생성부(116)에서 모션데이터를 생성한다. The
모션데이터(motion data)는 촬영된 영상 상에서 사용자의 얼굴표정을 감지하기 위한 정보로서, 조밀 모션 플로우(dense motion flow)를 기반으로 한다. 조밀 모션 플로우는 옵티컬 플로우(optical flow)를 기반으로 하여 얼굴 움직임을 감지하는 데 용이하도록 변형된 것을 말한다. 촬영장치(112)는 카메라를 포함하여 사용자의 얼굴을 촬영할 수 있는 모든 장치를 말한다. 얼굴특정부(114)는 촬영장치(112)에서 획득한 영상정보를 사용자의 표정 변화를 감지하기 용이하도록 사용자의 얼굴 영역을 특정해서 추출한다.Motion data is information for detecting a facial expression of a user on a captured image and is based on dense motion flow. Dense motion flow refers to a modification that is easy to detect facial movement based on an optical flow. The photographing
흥미도 판별부(120)는 얼굴표정 데이터베이스(122), 표정인식 모델학습부(124) 및 흥미도점수 출력부(126)를 포함한다. 흥미도 판별부(120)는 영상처리부(110)가 생성한 모션데이터를 표정인식 모델에 입력하여 흥미도 점수를 산출한다. 더욱 상세하게는, 다양한 얼굴표정을 저장한 데이터베이스로 표정인식 모델을 학습하고, 생성된 모션데이터를 학습된 표정인식 모델에 입력하여 사용자의 얼굴표정에 상응하는 흥미도 점수를 산출한다.The
얼굴표정 데이터베이스(122)는 다양한 얼굴표정을 저장하고, 표정인식 모델학습 부(124)는 저장된 얼굴표정을 기반으로 표정인식 모델을 학습한다. 더욱 자세하게는, 얼굴표정을 학습하여 얼굴표정을 부정적인 표정, 중립적인 표정 또는 긍정적인 표정의 카테고리로 구분하고, 각각의 카테고리를 적어도 하나 이상의 단계로 구분한다. 예를 들어, 부정적인 표정은 화남, 공포, 슬픔 등 다양한 표정이 존재하므로, 부정적인 표정을 화남, 공포, 슬픔 등으로 얼굴 표정의 모션데이터 강도에 따라 구분된다. 표정인식 모델은 회귀 모델(regression model)로서, 얼굴표정 데이터베이스(122)를 이용하여 CNN(Convolutional Neural Network)으로 학습되나 반드시 이에 한정되는 것은 아니다. 한편, 흥미도점수 출력부(126)는 학습된 표정의 단계마다 저장된 점수를 기반으로, 모션데이터를 표정인식 모델에 입력하여 분석된 표정의 점수를 산출한다. The
집중도 판별부(130)는 눈깜빡임 산출부(132), 정면비율 산출부(134) 및 집중도점수 출력부(136)를 포함한다. 집중도 판별부(130)는 사용자의 눈깜빡임과 얼굴의 정면응시 비율을 종합하여 집중도 점수를 산출한다. 더욱 상세하게는, 사용자의 집중도를 판단할 때 눈깜빡임 및 얼굴의 정면응시 비율이라는 두 가지 요소를 고려하고, 특정 시간 동안 눈깜빡임이 적을수록 또한 얼굴의 정면응시 비율이 높을수록 집중도가 높다고 판단한다.The
눈깜빡임 산출부(132)는 조건부 신경 모델을 이용하여 특정된 얼굴 영역에 특징점을 추출하고, 특징점으로부터 사용자의 눈, 코의 위치를 추정하고 모양을 평균화하여 회전 효과(rotational effect) 및 스케일링 효과(scaling effect)를 제거한다. 히스토그램(Histogram)을 이용하여 표준화된 얼굴에서 동작 단위를 검출하고, 이를 기반으로 사용자의 눈깜빡임을 추정한다. 여기서 동작 단위란, 모션데이터가 움직인 동작의 일 단위를 말한다. 한편, 특정 시간 동안 사용자의 최소, 최대 및 평균 눈깜빡임 횟수를 추정하여 복수 개의 구간으로 나누고, 눈깜빡임이 적을수록 점수를 높게 산정한다. 점수 산정에 관해서는 도 3 및 도 5와 관련하여 후술한다. The
정면비율 산출부(134)는 얼굴의 정면응시 여부를 판단하기 위해 피치(pitch), 롤(roll), 요(yaw)의 범위를 정의한다. 한편, 피치, 롤, 요의 방법으로 한정하는 아니고 얼굴의 정면응시 여부를 판단할 수 있는 다른 방법도 포함한다고 이해되어야 할 것이다. 정면비율 산출부(134)는 매 프레임 별로 얼굴의 정면 응시 여부를 판단하고, 특정 시간 동안 영상정보의 전체 프레임 중 사용자 얼굴의 정면응시 프레임 비율을 계산한 뒤 이를 점수로 환산한다. 점수 산정에 관해서는 도 5와 관련하여 후술한다.The
집중도점수 출력부(136)는 눈깜빡임 산출부(132)가 산출한 점수와 정면비율 산출부(134)가 산출한 점수를 종합할 때, 정면비율 점수에 가중치를 두고 집중도 점수를 산출한다. 이는 얼굴의 정면응시를 이용할 때 눈깜빡임을 이용할 때보다 집중도를 더 정확하게 판단할 수 있는 점을 고려한 것이다. 즉, 눈깜빡임은 집중도 평가에 도움을 주는 요소이기는 하지만 정면응시 비율보다 안구 건조와 같은 개인적이고 환경적인 요인을 많이 받는다.The concentration
몰입도 판별부(140)는 산출된 흥미도 점수 및 집중도 점수 중 적어도 어느 하나를 기반으로 몰입도 점수를 산출한다. 더욱 자세하게는, 흥미도-집중도 종합부(142)가 흥미도 점수 및 집중도 점수를 종합하고, 몰입도 출력부(144)는 사용자에 의해 기 설정된 몰입도 단계를 기준으로 종합된 흥미도-집중도 점수에 상응하는 몰입도 단계를 판단한다. 몰입도 단계는 몰입도를 판단할 수 있는 지표로서, 사용자에 의해 정의될 수 있다.The immersion
도 2는 본 실시예에 따른 흥미도 판별부가 사용자의 얼굴표정에 상응하는 흥미도 점수를 산출하기 위해 예시적으로 나타낸 도면이다.FIG. 2 is a diagram exemplarily illustrating an interest level determining unit according to an exemplary embodiment to calculate an interest score corresponding to a facial expression of a user.
도 2를 참조하면, 표정인식 모델학습부(124)는 얼굴표정 데이터베이스(122)를 기반으로 하여 학습되고, 학습된 얼굴표정을 3가지의 얼굴표정 카테고리로 분류한다. 3가지의 얼굴표정 카테고리는 부정적인 표정, 중립적인 표정 또는 긍정적인 표정으로 구성되고, 각 카테고리는 세부적인 얼굴표정 종류로 각각 나누어진다. 예컨대, 세부적인 얼굴표정 종류는 화남, 공포, 슬픔, 놀람, 무표정, 행복 등이 있을 수 있다. 표정인식 모델학습부(124)는 학습의 결과로서 얼굴표정 종류에 상응하는 학습표정을 저장하고, 모션데이터를 입력받는다. Referring to FIG. 2, the expression recognition
흥미도점수 출력부(126)는 얼굴표정 종류마다 흥미도 점수를 저장하고, 입력받은 모션데이터와 표정인식 모델학습부(124)의 학습표정을 비교하여 그에 상응하는 흥미도 점수를 출력한다. 얼굴표정 종류에 관한 흥미도 점수는 얼굴데이터의 강도(intensity) 세기를 기반으로 하여 설정된다. 더욱 상세하게는, 도 2에 예시된 바와 같이 중립적인 표정을 기준점으로 하여 긍정적인 표정과 부정적인 표정을 얼굴표정의 강도에 따라 차등하여 점수를 설정한다. 특정 시간 동안 촬영한 영상정보에서 프레임마다 부정적인 표정의 최저값은 -10점, 중립적인 표정은 0점 및 긍정적인 표정의 최고값은 10점으로 차등 설정된 점수를 추출하고, 이를 기반으로 평균점수를 계산하여 결과적으로 흥미도 점수를 산출한다. 집중도 점수와 동등한 비율로 몰입도 점수를 산출하고자 평균점수는 최저 -5점에서 최대 5점까지 10점의 차이가 나도록 계산된다. 한편, 카테고리, 얼굴표정 종류 및 흥미도 점수는 사용자에 의해 다르게 정의될 수 있다.The interest
도 3은 본 실시예에 따른 눈깜빡임 산출부가 눈깜빡임 횟수를 점수로 환산하기 위해 예시적으로 나타낸 도면이다.3 is a diagram illustrating an example of an eye blink calculation unit for converting a number of eye blinks into a score according to an exemplary embodiment.
도 3을 참조하면, 눈깜빡임 산출부(132)는 눈깜빡임 횟수를 측정하여 이에 상응하는 점수로 환산한다. 더욱 자세하게는, 특정 시간 동안 사용자의 눈깜빡이는 횟수를 카운트하여 눈깜빡임의 최소, 최대 및 평균값을 계산한 뒤, 이를 기반으로 눈깜빡임 횟수 구간을 적어도 하나 이상으로 나눈다. 복수의 구간으로 나눌 때는 최소, 최대 및 평균값 외에도 최소와 평균값의 중간값을 기준점으로 설정할 수 있다. 예를 들어, 최솟값은 0, 최댓값은 63.43 및 평균값은 6.43이고, 0과 6.47의 중간값인 3.23, 6.47과 63.43의 중간값은 34.95로, 0, 3.23, 6.47, 34.95 및 63.43 값이 기준이 된다. 복수의 구간설정은 사용자에 따라 다르게 정의될 수 있다. 눈깜빡임 산출부(132)는 눈깜빡임 횟수 구간에 따른 눈깜빡임 횟수 환산점수를 설정하여 눈깜빡임 점수로 환산한다. 눈깜빡임 점수는 최저 0점에서 최대 3점이 부여될 수 있다. 눈깜빡임 점수와 얼굴 정면응시 점수의 종합은 도 5와 관련하여 후술한다.Referring to FIG. 3, the blinking
도 4는 본 실시예에 따라 흥미도 점수를 산출하기 위한 순서도이다. 4 is a flowchart for calculating an interest score according to the present embodiment.
도 4에 도시한 바와 같이, 몰입도 측정장치(100)는 촬영장치(112)를 이용하여 사용자를 촬영하게 하고, 촬영된 영상정보에서 사용자의 얼굴 영역을 특정한다(S402). 모션 플로우(motion flow)를 기반으로 특정된 얼굴 영역에서 사용자의 얼굴 움직임을 감지하여 모션데이터를 생성한다(S404). 여기서 모션 플로우는, 대상의 움직임을 감지하기 위해 옵티컬 플로우(optical flow)를 변형한 것으로서, 본 실시예는 사용자의 얼굴 표정의 움직임을 감지하기 위한 조밀 모션 플로우(dense motion flow)를 기반으로 한다. 몰입도 측정장치(100)는 얼굴표정 데이터베이스(122)를 이용하여 학습한 표정인식 모델에 생성된 모션데이터를 입력한다(S406). 얼굴표정 데이터베이스(122)는 피촬영자의 다양한 표정을 저장하고, 표정인식 모델은 CNN을 기반으로 학습된다. S408에서 몰입도 측정장치(100)는 입력된 모션데이터에 상응하는 얼굴표정 종류를 특정하고, 얼굴표정 종류와 매칭되는 흥미도 점수를 출력한다. 흥미도 점수는 사용자에 의해 기 설정되고, 표정인식 모델의 실측 자료(ground truth data)로 사용된다. 흥미도 점수는 집중도 점수와의 동등한 비율로 반영되기 위해 최고점과 최저점의 차이가 10점이 나도록 설정된다. As illustrated in FIG. 4, the
도 4에서는 단계 S402 내지 단계 S408을 순차적으로 진행하는 것으로 기재되어 있으나, 이는 본 발명의 일 실시예의 기술적 사상을 예시적으로 설명한 것에 불과한 것이다. 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서, 단계 S402 내지 단계 S408 중 하나 이상의 단계를 병렬적으로 실행하는 등 다양하게 수정 및 변형하여 적용 가능하다.In FIG. 4, steps S402 to S408 are described in order, but this is merely illustrative of the technical spirit of the exemplary embodiment of the present invention. Various modifications and variations can be applied, such as executing one or more of steps S402 to S408 in parallel, without departing from the essential characteristics of one embodiment of the present invention.
도 5는 본 실시예에 따라 집중도 점수를 산출하기 위한 순서도이다.5 is a flowchart for calculating a concentration score according to this embodiment.
도 5에 도시한 바와 같이, 몰입도 측정장치(100)는 촬영장치(112)를 이용하여 사용자를 촬영하고, 촬영된 영상정보에서 사용자의 얼굴 영역을 특정하고(S502), 특정된 얼굴 영역에서 특징점을 추출한다(S504). 특징점이 추출되지 않는다면 단계 S502를 반복한다. 특징점은 조건부 지역 신경필드 모델을 사용하여 추출된다. 특징점은 도 7의 (a) 및 도 7의 (b)에 도시되어 있다.As illustrated in FIG. 5, the
S506에서 특징점을 이용하여 사용자 또는 피촬영자의 얼굴이 정면을 응시하고 있는지 여부를 판단한다. 추출된 특징점을 기반으로 눈깜빡임 횟수와 사용자의 얼굴 정면 비율을 점수로 환산한다. 눈깜빡임 횟수를 측정하기 위해서는 사용자 얼굴의 눈, 코, 입의 추정이 선행되어야 한다. S508에서 몰입도 측정장치(100)는 특징점을 이용하여 사용자의 눈, 코, 입의 위치를 추정하고, 모양을 정규화하여 회전효과 및 스케일링 효과를 제거한다. 정규화된 얼굴 모양에서 추출된 히스토그램을 기반으로 특정 시간 동안 동작 단위로 사용자의 눈깜빡임 여부를 판단하고, 눈깜빡임 횟수를 카운트한다(S512). 여기서 동작 단위란, 모션데이터가 움직인 동작의 일 단위를 말한다.In operation S506, the feature point is used to determine whether the face of the user or the photographer is staring at the front. Based on the extracted feature points, the number of blinks and the front face ratio of the user are converted into scores. In order to measure the number of blinks, the estimation of eyes, nose and mouth of the user's face must be performed first. In operation S508, the
추출된 특징점을 기반으로, 사용자 또는 피촬영자가 정면을 응시하고 있는지 여부를 판단한다(S510). 사용자 또는 피촬영자가 정면을 응시하지 않는다면 단계 S502로 되돌아가고, 정면을 응시한다면 추출된 특징점을 기반으로 사용자 또는 피촬영자의 얼굴이 정면을 보고 있는 프레임을 카운트한다(S514). 사용자의 얼굴이 정면 응시하고 있는지 여부를 판단함에 있어 롤링(rolling), 피칭(pitching), 요잉(yawing)의 범위를 정의하고, 프레임 별로 얼굴의 정면응시 여부를 판단한다. S516에서 특정 시간이 경과하면 눈깜빡임 카운트와 얼굴 정면 응시 프레임 카운트 검사를 종료한다(S516).Based on the extracted feature points, it is determined whether the user or the photographer is staring at the front (S510). If the user or the photographer does not stare at the front face, the process returns to step S502. If the user or the photographer stares at the front face, the frame on which the face of the user or the photographer is looking at the front face is counted based on the extracted feature point (S514). In determining whether the user's face is facing front, a range of rolling, pitching, and yawing is defined, and whether or not the face is stared at each frame is determined. When a specific time elapses in S516, the blinking count and the face front gaze frame count test are finished (S516).
카운트된 눈깜빡임 횟수와 얼굴 정면 응시 프레임은 각각 점수로 환산된다(S518). 카운트된 눈깜빡임 횟수는 도 3과 관련하여 전술한 것과 같이 점수로 환산된다(S520). 몰입도 측정장치(100)는 특정 시간 동안 영상정보의 전체 프레임 중에서 얼굴의 정면응시 프레임의 비율을 계산하고, 이를 기반으로 점수로 환산한다(S522). 여기서 프레임이란 영상정보를 구성하는 정지된 각각의 이미지 데이터를 의미한다. 예를 들어, 특정 시간 동안 전체 프레임이 100장이고 정면 응시 프레임이 20장이라면 1/5의 비율을 점수로 환산하는 것을 말한다. The counted number of blinks and the face front gaze frame are respectively converted into scores (S518). The counted number of blinks is converted into a score as described above with reference to FIG. 3 (S520). The
S524에서 몰입도 측정장치(100)는 눈깜빡임 점수와 얼굴 정면응시 점수를 합산하여 집중도 점수를 산출한다. 더욱 자세하게는, 두 점수의 단순 합이 아닌 얼굴 정면응시 점수에 가중치를 두고 집중도 점수를 산출한다. 이는 집중도 점수의 신뢰성을 높이기 위한 것으로, 집중도를 판단할 때 눈깜빡임 요소보다 얼굴 정면응시 비율이 더 높은 신뢰성을 보이는 것을 고려한 것이다. 즉, 눈깜빡임은 안구 건조 또는 미세먼지 등 개인적이거나 외부 환경적 요인이 작용하기 용이하므로 얼굴 정면응시 점수에 가중치를 둔다. 도 3을 다시 참조하면, 얼굴 정면응시 점수에 가중치를 두기 위해서 집중도 점수 총 10점 중 눈깜빡임 점수의 최고점을 3점으로 하고, 얼굴 정면응시 점수의 최고점은 7점으로 한다. 가중치를 두는 이러한 방법은 단순한 예시에 불과할 뿐, 눈깜빡임 점수와 얼굴 정면응시 점수의 차등을 줄 수 있는 방법을 모두 포함하는 것으로 이해되어야 할 것이다. 집중도 점수는 몰입도 판별 시 흥미도 점수와 동등한 비율로 반영되기 위해 흥미도 점수와 마찬가지로 10점의 차이를 둔다. In S524, the
도 6은 본 실시예에 따른 몰입도 측정방법을 설명하기 위한 예시도이다.6 is an exemplary view for explaining a immersion measurement method according to the present embodiment.
도 6을 참조하면, 디스플레이(600) 앞에 사용자가 위치하고, 촬영장치(112)가 사용자를 촬영한다. 디스플레이(600)는 사용자의 몰입도를 측정하기 위한 영상 또는 문항을 출력한다. 각각의 영상 또는 문항은 출력되는 시간이 다르므로, 각각의 영상 또는 문항에 관한 몰입도를 동일한 기준으로 판단하기 위해 흥미도 점수 및 집중도 점수는 동일한 특정 시간을 기준으로 산정한다. 예를 들어, 한 문항에 대해서는 30초에 눈을 2번 깜빡이고, 다른 문항에 대해서는 1분에 눈을 4번 깜빡였다면, 두 문항의 눈깜빡임 점수는 동일하다고 할 수 있다. Referring to FIG. 6, the user is positioned in front of the
도 7의 (a) 및 (b)는 본 실시예에 따른 몰입도 측정 결과화면을 도시한 예시도이다. 7 (a) and 7 (b) are exemplary views illustrating a immersion measurement result screen according to the present embodiment.
도 7의 (a)에 도시한 바와 같이, 사용자를 촬영한 결과 화면(710)에는 사용자의 얼굴에 특징점이 표시되고, 결과 화면(710)의 오른쪽 하단에는 상태표시(720)를 출력하는 부분이 존재한다. 이 특징점을 이용하여 눈깜빡임, 얼굴의 정면응시 등을 판단한다. 한편, 상태표시를 출력하는 상태 표시창(720)은 얼굴이 정면을 응시하고 있는지 여부 및 얼굴표정에 대한 정보를 포함한다. As shown in FIG. 7A, a feature point is displayed on a face of a user on a
도 7의 (b)를 참조하면, 몰입도 측정장치(100)는 얼굴의 특징점을 이용하여 사용자에 의해 기 설정된 피치, 롤, 요의 범위를 벗어난 경우 정면을 응시하지 않는다고 판단한다. 특정 시간 동안 영상의 전체 프레임 중에서 도면과 같이 정면을 응시하지 않는 프레임을 제외한 나머지 프레임은 정면을 응시하는 프레임이므로, 정면응시 비율을 계산하여 점수를 환산한다.Referring to FIG. 7B, the
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 실시예들은 본 실시예의 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술적 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구항에 의해 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present embodiment, and those skilled in the art will appreciate that various modifications and changes can be made without departing from the essential characteristics of the present embodiment. Therefore, the exemplary embodiments are not intended to limit the technical spirit of the present exemplary embodiment but to describe the exemplary embodiments, and the scope of the technical spirit of the present exemplary embodiment is not limited by the exemplary embodiments. The scope of protection of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present embodiment.
100: 몰입도 측정장치
110: 영상처리부
112: 촬영장치
114: 얼굴특정부
116: 모션데이터 생성부
120: 흥미도 판별부
122: 얼굴표정 데이터베이스
124: 표정인식 모델학습부
126: 흥미도점수 출력부
130: 집중도 판별부
132: 눈깜빡임 산출부
134: 정면비율 산출부
136: 집중도점수 출력부
140: 몰입도 판별부
142: 흥미도-집중도 종합부
144: 몰입도 출력부
600: 디스플레이
710: 결과 화면
720: 상태 표시창100: immersion measurement device 110: image processing unit
112: photographing apparatus 114: face special government
116: motion data generation unit 120: interest degree determination unit
122: facial expression database 124: facial expression recognition model learning unit
126: interest score output unit 130: concentration determination unit
132: eye blink calculation unit 134: front ratio calculation unit
136: concentration score output unit 140: immersion determination unit
142: interest-concentration synthesis unit 144: immersion output unit
600: display 710: results screen
720: status display window
Claims (17)
기 학습된 표정인식 모델 및 상기 모션데이터를 기반으로 상기 사용자의 흥미도 점수를 산출하여 출력하는 흥미도 판별부;
상기 얼굴 영역을 기반으로 얼굴데이터를 추출하여 상기 사용자의 집중도 점수를 산출하여 출력하는 집중도 판별부; 및
상기 흥미도 점수와 상기 집중도 점수 중 적어도 어느 하나에 기반하여 상기 사용자의 몰입도 점수를 산출하여 출력하는 몰입도 판별부
를 포함하는 것을 특징으로 하는 몰입도 측정장치.An image processor for receiving a user's image information captured by the image capturing apparatus, specifying a face region from the image information, and detecting motion of a face expression within the face region to generate motion data;
An interest determination unit configured to calculate and output an interest score of the user based on a previously learned facial expression recognition model and the motion data;
A concentration determination unit for extracting face data based on the face area to calculate and output a concentration score of the user; And
An immersion degree determination unit for calculating and outputting an immersion score of the user based on at least one of the interest score and the concentration score.
Immersion degree measuring device comprising a.
상기 흥미도 판별부는,
얼굴표정의 데이터베이스를 기반으로 상기 표정인식 모델을 학습하여 학습된 출력값을 저장한 표정인식 모델학습부; 및
상기 표정인식 모델에 상기 모션데이터를 입력하여 상기 얼굴표정을 판단하고, 상기 얼굴표정에 상응하는 점수로 출력하는 흥미도점수 출력부
를 포함하는 것을 특징으로 하는 몰입도 측정장치.The method of claim 1,
The interest degree determination unit,
An expression recognition model learning unit which stores the output value learned by learning the expression recognition model based on a database of facial expressions; And
The interest score output unit for inputting the motion data to the facial expression recognition model to determine the facial expression and output the score corresponding to the facial expression.
Immersion degree measuring device comprising a.
상기 표정인식 모델학습부는,
상기 데이터베이스를 기반으로 상기 표정인식 모델을 학습하여 학습된 출력값을 복수의 카테고리로 나누고, 상기 카테고리는 적어도 둘 이상의 단계로 구분되는 것을 특징으로 하는 몰입도 측정장치.The method of claim 2,
The expression recognition model learning unit,
The immersion measurement apparatus, characterized in that for learning the facial expression recognition model based on the database divided the learned output value into a plurality of categories, the category is divided into at least two steps.
상기 카테고리는,
부정적인 표정, 중립적인 표정 및 긍정적인 표정 중 어느 하나인 것을 특징으로 하는 몰입도 측정장치.The method of claim 3, wherein
The category,
Immersion degree measuring device, characterized in that any one of a negative expression, a neutral expression and a positive expression.
상기 흥미도점수 출력부는,
상기 표정인식 모델이 구분한 단계에 상응하는 점수를 설정하고, 상기 모션데이터를 상기 표정인식 모델에 입력하여 대응되는 상기 단계의 점수를 산출하는 것을 특징으로 하는 몰입도 측정장치.The method of claim 2,
The interest score output unit,
And setting scores corresponding to the steps classified by the facial expression recognition model and inputting the motion data into the facial expression recognition model to calculate the scores of the corresponding steps.
상기 집중도 판별부는,
상기 사용자의 눈깜빡임 횟수를 카운트하고 점수화하여 눈깜빡임 점수를 산출하는 눈깜빡임 산출부;
상기 사용자가 정면을 보고 있는 비율을 계산하고 점수화하여 정면비율 점수를 산출하는 정면비율 산출부; 및
상기 눈깜빡임 산출부와 상기 정면비율 산출부가 산출한 점수를 합산하는 집중도점수 출력부
를 포함하는 것을 특징으로 하는 몰입도 측정장치.The method of claim 1,
The concentration determination unit,
An eye blink calculation unit for counting and scoring the number of eye blinks of the user to calculate an eye blink score;
A front ratio calculation unit configured to calculate and score a ratio of the user looking at the front to calculate a front ratio score; And
A concentration score output unit for adding up the scores calculated by the blinking unit and the front ratio calculator.
Immersion degree measuring device comprising a.
상기 집중도점수 출력부는,
상기 눈깜빡임 점수 및 상기 정면비율 점수를 합산하여 상기 집중도 점수를 산출할 때, 상기 정면비율 점수에 특정 가중치를 적용하여 상기 집중도 점수를 산출하는 것을 특징으로 하는 몰입도 측정장치.The method of claim 6,
The concentration score output unit,
And when calculating the concentration score by adding the eye blink score and the front ratio score, the concentration score is calculated by applying a specific weight to the front ratio score.
상기 눈깜빡임 산출부는,
상기 얼굴 영역으로부터 적어도 하나의 특징점을 추출하여 상기 사용자의 얼굴 모양을 분석하고, 동작 단위를 이용하여 눈깜빡임 여부를 판단하고, 상기 사용자의 눈깜빡임 횟수를 카운트하여 점수로 환산하되, 상기 동작 단위는 상기 특징점의 움직임 단위인 것을 특징으로 하는 몰입도 측정장치.The method of claim 6,
The eye blink calculation unit,
The user extracts at least one feature point from the face area to analyze the shape of the user's face, determines whether the user blinks by using an operation unit, counts the number of eye blinks of the user, and converts the score into a score. Immersion measuring device, characterized in that the movement unit of the feature point.
상기 눈깜빡임 산출부는,
상기 눈깜빡임 횟수의 최솟값, 최댓값 및 평균값을 기준으로 복수 개의 단계로 구분하고, 상기 눈깜빡임 횟수가 적을수록 높은 점수를 획득하도록 설정하는 것을 특징으로 하는 몰입도 측정장치.The method of claim 8,
The eye blink calculation unit,
And dividing the light into a plurality of stages based on the minimum, maximum, and average values of the number of blinks, and setting a higher score to obtain a higher score as the number of blinks decreases.
상기 정면비율 산출부는,
상기 특징점을 분석하여 상기 사용자의 얼굴이 정면인지 여부를 판단하고, 촬영된 영상의 전체 프레임 중 정면이 위치하는 비율을 계산하여 점수로 환산하되, 상기 프레임은 영상정보를 구성하는 정지된 각각의 이미지 데이터인 것을 특징으로 하는 몰입도 측정장치.The method of claim 8,
The front ratio calculation unit,
The feature point is analyzed to determine whether the user's face is in front, and the ratio of the front position of the entire frames of the photographed image is calculated and converted into a score, wherein each frame constitutes image information. Immersion degree measuring device, characterized in that the data.
상기 정면비율 산출부는,
상기 영상정보의 전체 프레임을 기준으로 상기 사용자의 얼굴이 정면을 향하는 프레임을 카운트하여 평균점수로 환산하는 것을 특징으로 하는 몰입도 측정장치.The method of claim 10,
The front ratio calculation unit,
An immersion measuring apparatus, characterized in that the frame of the user's face is counted and converted into an average score based on the entire frame of the image information.
상기 영상처리부는,
상기 영상정보를 획득하기 위한 촬영장치;
상기 영상정보를 기반으로 상기 얼굴 영역을 특정하는 얼굴특정부; 및
상기 얼굴특정부로부터 움직임을 감지하여 상기 모션데이터를 생성하는 모션데이터 생성부
를 포함하는 것을 특징으로 하는 몰입도 측정장치.The method of claim 1,
The image processor,
A photographing apparatus for obtaining the image information;
Face specificity specifying the face region based on the image information; And
Motion data generation unit for generating the motion data by detecting the motion from the face specific portion
Immersion degree measuring device comprising a.
상기 얼굴특정부는,
상기 영상정보를 픽셀(pixel) 단위로 분류하고, 상기 픽셀 단위로부터 상기 사용자의 얼굴 부위에 해당하는 얼굴 영역을 추출하는 것을 특징으로 하는 몰입도 측정장치.The method of claim 12,
The face special government,
And dividing the image information into a pixel unit and extracting a face region corresponding to a face part of the user from the pixel unit.
상기 모션데이터 생성부는,
상기 얼굴 영역에서 조밀 모션 플로우(dense motion flow)를 기반으로 상기 모션데이터를 생성하는 것을 특징으로 하는 몰입도 측정장치.The method of claim 12,
The motion data generator,
The immersion measurement apparatus, characterized in that for generating the motion data based on dense motion flow in the face area.
상기 몰입도 판별부는,
상기 흥미도 점수와 상기 집중도 점수 중 적어도 하나에 기반하여 상기 몰입도 점수를 산출하여 출력하는 것을 특징으로 하는 몰입도 측정장치.The method of claim 1,
The immersion degree determination unit,
And an immersion score is calculated based on at least one of the interest score and the concentration score.
기 학습된 표정인식 모델 및 상기 모션데이터를 기반으로 상기 사용자의 흥미도 점수를 산출하여 출력하는 과정;
상기 얼굴 영역을 기반으로 얼굴데이터를 추출하여 상기 사용자의 집중도 점수를 산출하여 출력하는 과정; 및
상기 흥미도 점수와 상기 집중도 점수 중 적어도 어느 하나에 기반하여 상기 사용자의 몰입도 점수를 산출하여 출력하는 과정
을 포함하는 것을 특징으로 하는 몰입도 측정방법.Receiving image information of a user photographed by the image capturing apparatus, specifying a face region from the image information, and detecting motion of a face expression within the face region to generate motion data;
Calculating and outputting an interest score of the user based on a previously learned facial expression model and the motion data;
Extracting face data based on the face area to calculate and output a concentration score of the user; And
Calculating and outputting an immersion score of the user based on at least one of the interest score and the concentration score
Immersion degree measurement method comprising a.
상기 흥미도 점수를 산출하여 출력하는 과정은,
얼굴표정의 데이터베이스를 기반으로 상기 표정인식 모델을 학습하여 학습된 출력값을 저장하고, 상기 표정인식 모델에 상기 모션데이터를 입력하여 상기 얼굴표정을 판단하여 상기 얼굴표정에 상응하는 점수로 출력하는 것을 특징으로 하는 몰입도 측정방법.The method of claim 16,
The process of calculating and outputting the interest score,
Learning the facial expression recognition model based on a database of facial expressions, storing the learned output value, inputting the motion data to the facial expression recognition model, determining the facial expression, and outputting the score corresponding to the facial expression; Immersion degree measurement method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180067704A KR102174345B1 (en) | 2018-06-12 | 2018-06-12 | Method and Apparatus for Measuring Degree of Immersion |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180067704A KR102174345B1 (en) | 2018-06-12 | 2018-06-12 | Method and Apparatus for Measuring Degree of Immersion |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190140767A true KR20190140767A (en) | 2019-12-20 |
KR102174345B1 KR102174345B1 (en) | 2020-11-04 |
Family
ID=69062871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180067704A KR102174345B1 (en) | 2018-06-12 | 2018-06-12 | Method and Apparatus for Measuring Degree of Immersion |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102174345B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114999646A (en) * | 2022-06-01 | 2022-09-02 | 北京大学 | Newborn exercise development assessment system, method, device and storage medium |
KR20230016448A (en) | 2021-07-26 | 2023-02-02 | 한국전자통신연구원 | Apparatus and method for surpporting attention test based on attention map and attention movement map |
KR102512468B1 (en) * | 2022-11-09 | 2023-03-22 | 주식회사 제로투원파트너스 | Apparatus and method for analyzing viewers' responses to video content |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102222747B1 (en) * | 2018-11-30 | 2021-03-04 | 오당찬 | Method for operating an immersion level and electronic device supporting the same |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005208850A (en) | 2004-01-21 | 2005-08-04 | Nippon Hoso Kyokai <Nhk> | Face image recognition device and face image recognition program |
JP2011237970A (en) * | 2010-05-10 | 2011-11-24 | Nippon Hoso Kyokai <Nhk> | Facial expression variation measurement device, program thereof and broadcast interest level measurement device |
KR20120124772A (en) * | 2011-05-04 | 2012-11-14 | 경북대학교 산학협력단 | Apparatus for analysing focus and nonfocus states and method therof |
JP2014178358A (en) | 2013-03-13 | 2014-09-25 | Casio Comput Co Ltd | Learning support device, learning support method, learning support program, learning support system and server device, and terminal device |
KR20150089482A (en) * | 2014-01-28 | 2015-08-05 | 영남대학교 산학협력단 | Method and apparatus of recognizing facial expression using motion dictionary |
-
2018
- 2018-06-12 KR KR1020180067704A patent/KR102174345B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005208850A (en) | 2004-01-21 | 2005-08-04 | Nippon Hoso Kyokai <Nhk> | Face image recognition device and face image recognition program |
JP2011237970A (en) * | 2010-05-10 | 2011-11-24 | Nippon Hoso Kyokai <Nhk> | Facial expression variation measurement device, program thereof and broadcast interest level measurement device |
KR20120124772A (en) * | 2011-05-04 | 2012-11-14 | 경북대학교 산학협력단 | Apparatus for analysing focus and nonfocus states and method therof |
JP2014178358A (en) | 2013-03-13 | 2014-09-25 | Casio Comput Co Ltd | Learning support device, learning support method, learning support program, learning support system and server device, and terminal device |
KR20150089482A (en) * | 2014-01-28 | 2015-08-05 | 영남대학교 산학협력단 | Method and apparatus of recognizing facial expression using motion dictionary |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230016448A (en) | 2021-07-26 | 2023-02-02 | 한국전자통신연구원 | Apparatus and method for surpporting attention test based on attention map and attention movement map |
CN114999646A (en) * | 2022-06-01 | 2022-09-02 | 北京大学 | Newborn exercise development assessment system, method, device and storage medium |
KR102512468B1 (en) * | 2022-11-09 | 2023-03-22 | 주식회사 제로투원파트너스 | Apparatus and method for analyzing viewers' responses to video content |
Also Published As
Publication number | Publication date |
---|---|
KR102174345B1 (en) | 2020-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102174345B1 (en) | Method and Apparatus for Measuring Degree of Immersion | |
JP6993027B2 (en) | Image analysis methods, equipment and computer programs | |
KR20160029655A (en) | Identification appartus and control method for identification appartus | |
JP2017093760A (en) | Device and method for measuring periodic variation interlocking with heart beat | |
JP2019058625A (en) | Emotion reading device and emotion analysis method | |
CN111887867A (en) | Method and system for analyzing character formation based on expression recognition and psychological test | |
WO2019137538A1 (en) | Emotion representative image to derive health rating | |
WO2021068781A1 (en) | Fatigue state identification method, apparatus and device | |
Landowska | Uncertainty in emotion recognition | |
Szankin et al. | Long distance vital signs monitoring with person identification for smart home solutions | |
Uluyagmur-Ozturk et al. | ADHD and ASD classification based on emotion recognition data | |
Diniz et al. | Face attributes as cues for deep face recognition understanding | |
Arif et al. | An evaluation of a modified Haar-like features based classifier method for face mask detection in the COVID-19 spread prevention | |
KR20200061016A (en) | Depression Index Estimation Method Using Skin Image | |
KR102565852B1 (en) | Autism spectrum disorder evaluation method based on facial expression analysis | |
Ahmed et al. | Assisting the autistic with improved facial expression recognition from mixed expressions | |
Khanal et al. | Individual’s neutral emotional expression tracking for physical exercise monitoring | |
Ahmed et al. | Automatic Region of Interest Extraction from Finger Nail Images for Measuring Blood Hemoglobin Level | |
KR101971602B1 (en) | Reasoning Method and System of Empathic Emotion Based on Video Analysis | |
Lunerti et al. | Sensing movement on smartphone devices to assess user interaction for face verification | |
Thiojaya et al. | Classification of Human Gender Through Machine Learning Analysis of Gait | |
JP7204785B2 (en) | Blood pressure measuring device, model setting device, and blood pressure measuring method | |
Nuha et al. | Predicting the Air Pollution Level and Creating an Awareness Platform | |
Manner et al. | Determining child orientation from overhead video: a multiple kernel learning approach | |
Henry et al. | AUTOMATED ANAEMIA DETECTION FROM CONJUNCTIVA IMAGES: A MACHINE LEARNING APPROACH FOR ANDROID APPLICATION |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |