KR20180107576A - Learning achievement prediction method and system using visual behavior of learner watching to learning video - Google Patents

Learning achievement prediction method and system using visual behavior of learner watching to learning video Download PDF

Info

Publication number
KR20180107576A
KR20180107576A KR1020170036062A KR20170036062A KR20180107576A KR 20180107576 A KR20180107576 A KR 20180107576A KR 1020170036062 A KR1020170036062 A KR 1020170036062A KR 20170036062 A KR20170036062 A KR 20170036062A KR 20180107576 A KR20180107576 A KR 20180107576A
Authority
KR
South Korea
Prior art keywords
learning
learner
visual
visual behavior
gaze
Prior art date
Application number
KR1020170036062A
Other languages
Korean (ko)
Inventor
조일현
김민선
Original Assignee
이화여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이화여자대학교 산학협력단 filed Critical 이화여자대학교 산학협력단
Priority to KR1020170036062A priority Critical patent/KR20180107576A/en
Publication of KR20180107576A publication Critical patent/KR20180107576A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Marketing (AREA)
  • Educational Technology (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The present invention relates to a study achievement prediction method using visual behaviors of a learner viewing a learning video and a study achievement prediction apparatus. The study achievement prediction method predicts study achievement for a learning video due to learning immersion from visual behaviors of a leaner viewing a learning video. The study achievement prediction method comprises the steps of: collecting visual behaviors of a learner viewing a learning video; generating behavior data for each visual behavior; generating a graph for generation frequency for each visual behavior of the learner; setting a peak section due to the generation frequency; and predicting a study achievement degree of the leaner.

Description

학습 동영상을 시청하는 학습자의 시각 행동을 이용한 학업 성취 예측 방법 및 학업 성취 예측 시스템{LEARNING ACHIEVEMENT PREDICTION METHOD AND SYSTEM USING VISUAL BEHAVIOR OF LEARNER WATCHING TO LEARNING VIDEO}TECHNICAL FIELD [0001] The present invention relates to a learning achievement prediction method and a learning achievement prediction system using a visual activity of a learner watching a learning video,

본 발명은 학습 동영상을 시청하는 학습자의 시각 행동을 이용한 학업 성취 예측 방법에 관한 것으로, 보다 구체적으로는 학습 동영상을 시청하는 학습자의 시각 행동으로부터 학습 몰입에 따른 학습 동영상에 대한 학업 성취를 예측하기 위한 학업 성취 예측 방법에 관한 것이다.The present invention relates to a method for predicting academic achievement using a visual activity of a learner who watches a learning video, and more particularly, to a method for predicting an academic achievement of a learning video according to a learning commitment from a visual activity of a learner watching a learning video And how to predict academic achievement.

최근에는 물리적 공간에만 국한되지 않으며, 언제 어디서나 본인이 소유한 디바이스를 가지고 학습할 수 있는 환경 속에서 다양한 학습에 대한 습득이 가능하다. 이러한 온라인을 통한 학습은 정보 기술의 발달과 함께 빠르게 성장하여, 학교 교육에서 활용될뿐 아니라, 비용 효율적 장점을 살려 산업 현장에서도 활발하게 진행되고 있다.Recently, it is not limited to physical space, and it is possible to acquire various learning in an environment where students can learn with their own devices anytime and anywhere. Such online learning is rapidly growing along with the development of information technology, and is utilized not only in school education, but also in the industrial field, taking advantage of cost-effective advantages.

흔히들 온라인 교육을 이러닝이라 부르며, 이러한 이러닝 교육 과정들은 오프라인 교육 과정을 설계하듯이, 교수 설계 이론에 기반하여 분석, 설계, 개발의 과정을 거쳐 다수의 학습자에게 배포된다. 또한, 오프라인에서 이루어지는 면대면 교육의 경우, 설계자와 교수자가 동일한 경우가 많아 현장에서 교육을 실행하면서 교육과정에 대한 학습자들의 즉각적인 반응을 통해 이를 평가하고 보완할 수 있는 기회가 주어진다.E-learning is often called e-learning, and these e-learning courses are distributed to a large number of learners through the process of analysis, design, and development based on instructional design theory as they design offline courses. In the case of offline face-to-face education, designers and instructors are often the same, giving the opportunity to assess and supplement them through immediate response of learners to the curriculum while practicing on-site.

반면, 온라인 교육의 경우, 한 번 배포된 이러닝 과정에 대한 학습자의 반응은 과정에 대한 만족도와 성취도 결과로만 짐작하게 되는 것이 현실이다. 교수 설계의 교과서적 모델인 ADDIE 모형의 순환적 흐름이 단절된, 공급자에 의한 일방적인 전달과 수용이 만연되어 있다고 할 수 있다.On the other hand, in the case of online education, the learner 's reaction to the e - learning process once deployed is only a result of the satisfaction and achievement of the process. It can be said that the unidirectional transmission and acceptance by the supplier, in which the cyclical flow of ADDIE model, which is a textbook model of instructional design, is disconnected.

이러한 현실적 여건 하에 최근 사회 전반적으로 빅 데이터에 대한 관심이 증폭되면서, 교육 분야에도 이를 적용하고자 하는 시도가 이루어지고 있다. 개인 학습자가 온라인 학습환경에 남긴 무수히 많은 디지털 발자국들이 데이터 분석 기술의 발달로 재조명되고 있으며, 학습자의 학습 과정을 객관적으로 이해하는데 활용하기 위한 시도들이 계속되고 있다.As the interest in big data has been increased in the society in general under the realistic conditions, there is an attempt to apply it to the education field. Numerous digital footprints left by individual learners in the online learning environment are being reexamined by the development of data analysis techniques, and attempts have been made to use them to objectively understand the learners' learning process.

이러한 시도는 학습분석학이라는 새로운 학문 분야로 자리잡게 되었다. 학습분석학은 학습이 일어나는 맥락을 보다 잘 이해하여 학습을 최적화하려는 것으로, ‘테크놀로지가 매개하는 학습환경에서 일어나는 학습 행동과 맥락에서 발생하는 데이터를 측정, 수집, 분석, 예측하여, 증거에 기반한 교수학습적 의사결정을 지원하는 융합학문학'으로 정의할 수 있다.These attempts have become a new discipline of learning analysis. Learning analytics is an attempt to optimize learning by better understanding the context in which learning takes place. It measures, collects, analyzes, and predicts data that occurs in context of learning behaviors and contexts that occur in technology-mediated learning environments, And the 'convergence science literature supporting the decision making of the enemy'.

이러한 학습분석학은 데이터 분석을 통한 예측에 그치지 않고, 개인화된 학습, 학습 설계와의 연계, 교수자 지원 도구 설계 등 처방을 위한 다양한 범위로 연구 흐름과 관심이 확장되고 있다. 최근 학습분석학 흐름의 또 다른 특징으로는 타학문과의 융합으로, 분석 대상으로 삼는 데이터 범주가 확장되고 있다는 것이다.These learning analytics are not limited to forecasting through data analysis, but are expanding the research flow and interest to a wide range of prescriptions, such as personalized learning, linkage with learning design, and design of teacher support tools. Another feature of the recent flow of learning analysis is the convergence with other disciplines, expanding the scope of the data to be analyzed.

또한, 이러한 심리적 현상의 객관적 측정을 위하여 신체 데이터를 사용하는 생리심리학 분야가 부각되고 있다. 그러나 이러한 연구는 몰입도 주의 집중(focused attention)과 관련하여 뇌 활성도, 심박, 시선고정 비율, 동공 반응 등을 통해 측정하는 연구가 진행된 바 있으나 학습 맥락에서 학습자의 시각 행동에 대한 연구가 이루어지지 않은 상태이다.In addition, the field of physiological psychology using body data has been highlighted for the objective measurement of such psychological phenomena. However, these studies have been conducted to measure focused attention with brain activity, heart rate, gaze fixation ratio, pupil response, etc. However, there is no research on visual behavior of learners in learning context State.

본 발명은 인체 감각 기간 중 하나인 눈으로부터 학습자의 심리에 따른 시선의 움직임, 동공의 크기 변화를 포함하는 시각 행동을 이용함으로써, 학습자의 학습 맥락에서의 몰입 정도를 평가하는 학업 성취 예측 방법을 제공한다.The present invention provides an academic achievement prediction method for evaluating the degree of immersion in a learning context of a learner by using a visual action including a movement of a line of sight according to a learner's psychology and a change in the size of a pupil from one eye during a human sense period do.

본 발명은 학습자의 시각 행동을 통해 학습 맥락에서의 몰입 정도를 평가함으로써, 평가된 몰입 정도로부터 학습자의 학업 성취도를 예측하기 위한 학업 성취 예측 방법을 제공한다.The present invention provides an academic achievement prediction method for predicting a learner's academic achievement from an evaluated degree of engagement by assessing the degree of engagement in a learning context through a learner's visual behavior.

일실시예에 따른 학업 성취 예측 방법은 학습 동영상을 시청하는 학습자의 시각 행동을 수집하는 단계; 상기 학습자의 시각 행동 별 시각 행동 데이터를 생성하는 단계; 상기 시각 행동 데이터를 이용하여 학습자의 시각 행동 별 발생 빈도에 대한 그래프를 생성하는 단계; 상기 생성된 그래프를 이용하여 상기 학습 동영상의 전체 구간 내 발생 빈도에 따른 피크 구간을 설정하는 단계; 및 상기 설정된 피크 구간에서의 학습자의 시각 행동을 분석하여 상기 학습자의 학업 성취 정도를 예측하는 단계를 포함할 수 있다.A method for predicting an academic achievement according to an embodiment includes collecting visual behaviors of a learner watching a learning video; Generating visual activity data for each of the learner's visual behaviors; Generating a graph of an occurrence frequency of each learner's visual behavior using the visual behavior data; Setting a peak interval according to an occurrence frequency in the entire section of the learning moving picture using the generated graph; And analyzing the visual behavior of the learner in the set peak period to predict the degree of academic achievement of the learner.

일실시예에 따른 시각 행동 데이터를 생성하는 단계는 상기 학습 동영상의 시간 흐름에 따라 제공되는 강의 화면 내 교수자의 지도 행동 또는 학습 자료 중 적어도 하나의 학습 자극에 의해 반응한 학습자의 시각 행동을 이용할 수 있다.The step of generating visual action data according to an exemplary embodiment may use a visual action of a learner responded to by at least one learning stimulus of a teaching action or a learning material in a lecture screen provided in accordance with a time flow of the learning moving picture have.

일실시예에 따른 시각 행동 데이터를 생성하는 단계는 1) 학습자의 좌우 안구 운동의 지속시간으로 결정되는 시선 고정 빈도 및 시선 도약 빈도, 2) 학습자의 평균적인 학습 구간에서의 동공 지름에 기초한 좌우 동공의 크기, 3) 학습 동영상의 강의 화면 내 학습이 시선이 위치한 시점에서의 좌표값, 및 4) 원근의 변화를 고려한 학습자의 눈과 학습 동영상이 표시되는 화면과의 거리 중 적어도 하나의 시각 행동을 고려할 수 있다.The steps of generating the visual behavior data according to an embodiment include: 1) a gaze fixation frequency and gaze hopping frequency determined by the duration of the left and right eye movements of a learner; 2) a left and right pupil based on pupil diameters in an average learning period of a learner 3) the coordinate value of the lecture screen of the learning video at the time the gaze is located, and 4) the distance between the eyes of the learner considering the change of the perspective and the screen on which the learning video is displayed. Can be considered.

일실시예에 따른 좌우 동공의 크기는 상기 학습 동영상을 통해 제공되는 학습 자료의 제시 형태와 제시 방식에 의해 발생하는 학습자의 인지 부하 또는 정서 변화에 의해 결정될 수 있다.The sizes of the left and right pupils according to the embodiment can be determined by the presentation style of the learning data provided through the learning animation and the cognitive load or emotion change of the learner caused by the presentation method.

일실시예에 따른 그래프를 생성하는 단계는 상기 학습 동영상의 강의 흐름을 기준으로 상기 시선 고정 빈도의 지속 시간, 시선 도약 빈도의 지속시간 및 좌우 동공의 크기에 대한 평균값 각각에 대응하는 그래프를 생성할 수 있다.The generating of the graph according to an embodiment generates a graph corresponding to each of the average values of the duration of the gaze fixation frequency, the duration of the gaze hopping frequency, and the size of the left and right pupils based on the lecture flow of the learning moving image .

일실시예에 따른 피크 구간을 설정하는 단계는 상기 그래프를 기준으로 상기 전체 구간 내 특정 시간대들을 설정하고, 특정 시간대들 각각에서의 시각 행동 별 발생 빈도가 높게 나타낸 지점을 각각의 피크 구간으로 설정할 수 있다.The step of setting a peak interval according to an exemplary embodiment may set specific time zones within the entire interval based on the graph and may set a point indicating a high occurrence frequency of each of the specific time zones to each peak interval have.

본 발명의 일실시예에 의하면, 학업 성취 예측 방법은 인체 감각 기간 중 하나인 눈으로부터 학습자의 심리에 따른 시선의 움직임, 동공의 크기 변화를 포함하는 시각 행동을 이용함으로써, 학습자의 학습 맥락에서의 몰입 정도를 평가할 수 있다.According to one embodiment of the present invention, the method for predicting the academic achievement uses visual behaviors including eye movements according to the learner's psychology and pupil size change from the eye, which is one of the human sense periods, The degree of immersion can be evaluated.

본 발명의 일실시예에 의하면, 학업 성취 예측 방법은 학습자의 시각 행동을 통해 학습 맥락에서의 몰입 정도를 평가함으로써, 평가된 몰입 정도로부터 학습자의 학업 성취도를 예측할 수 있다.According to one embodiment of the present invention, the academic achievement prediction method can predict the academic achievement level of the learner from the evaluated degree of immersion by evaluating the degree of immersion in the learning context through the visual behavior of the learner.

도 1은 일실시예에 따른 학습자의 학업 성취도를 예측하기 위한 전체 구성도를 도시한 도면이다.
도 2는 일실시예에 따른 학업 성취 예측 장치의 세부적인 구성을 설명하기 위한 도면이다.
도 3은 일실시예에 따른 학습 동영상을 구성하는 학습 자료와 교수자의 행동에 따른 학습자의 시각 행동을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 시각 행동 별 그래프를 생성하는 방법을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 전체 구간 내 발생 빈도에 따른 피크 구간을 설정하는 방법을 설명하기 위한 도면이다.
도 6은 일실시예에 따른 학업 성취도를 예측하는 과정을 설명하기 위한 도면이다.
도 7은 일실시예에 따른 학업 성취 예측 방법을 설명하기 위한 흐름도이다.
FIG. 1 is a diagram illustrating an overall configuration for predicting a learner's academic achievement according to an exemplary embodiment of the present invention.
FIG. 2 is a diagram for explaining a detailed configuration of an academic achievement prediction apparatus according to an embodiment.
FIG. 3 is a diagram for explaining learning data constituting a learning moving picture according to an embodiment and visual behavior of a learner according to a behavior of a teacher.
4 is a diagram for explaining a method of generating a graph of visual behavior according to an embodiment.
FIG. 5 is a view for explaining a method of setting a peak interval according to the occurrence frequency in the entire section according to an embodiment.
FIG. 6 is a diagram for explaining a process of predicting an academic achievement according to an embodiment.
7 is a flowchart for explaining a method of predicting an academic achievement according to an embodiment.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일실시예에 따른 학습자의 학업 성취도를 예측하기 위한 전체 구성도를 도시한 도면이다.FIG. 1 is a diagram illustrating an overall configuration for predicting a learner's academic achievement according to an exemplary embodiment of the present invention.

도 1을 참고하면, 학업 성취 예측 장치(101)는 학습 동영상(103)을 디스플레이 하기 위한 사용자 단말(102)과 연동하여, 학습자(106)의 시각 행동(107)에 따른 학습 성취도를 예측할 수 있다. 여기서, 학습 동영상(103)은 학습자가 정보를 제공하기 위한 학습 자료(105)와 교수자(104)를 포함한 영상일 수 있다.1, the learning achievement predicting apparatus 101 can predict the learning achievement according to the visual behavior 107 of the learner 106 in cooperation with the user terminal 102 for displaying the learning moving picture 103 . Here, the learning moving image 103 may be an image including the learning data 105 and the instructor 104 for the learner to provide information.

보다 구체적으로, 학업 성취 예측 장치(101)는 학습 동영상(103)을 시청하는 학습자(106)의 시각 행동(107)을 수집할 수 있다. 이를 위해, 학업 성취 예측 장치(101)는 학습 동영상(103)에 의한 외부 자극에 대한 시지각(visual perception)과 관련된 신체 기관으로 학습자(106)의 시각 행동(107)을 수집할 수 있다. 이 때, 시각 행동(107)은 1) 능동적이며, 선택적으로 외부 자극을 받아들이기 위한 의식적 행동과 2) 자율신경계에 의한 수동적이며, 무의식적인 행동을 포괄할 수 있다. 이를 통해 학업 성취 예측 장치(101)는 의식적 행동 및 무의식적 행동에 따른 학습자(106)의 안구 운동(eye movement), 동공 반응(pupillary response), 깜빡임(blink)을 포함하는 시각 행동을 수집할 수 있다.More specifically, the learning achievement predicting device 101 can collect the visual behavior 107 of the learner 106 who watches the learning video 103. To this end, the academic achievement prediction apparatus 101 may collect the visual behavior 107 of the learner 106 as a body organ associated with visual perception of the external stimulus by the learning animation 103. At this time, visual behavior (107) can be 1) active, selectively involving conscious actions to accept external stimuli, and 2) passive and unconscious actions by autonomic nervous system. The learning achievement prediction apparatus 101 can collect visual behaviors including eye movement, pupillary response, and blink of the learner 106 according to conscious behavior and unconscious behavior .

여기서, 안구 운동은 외부 환경을 자세하고, 선명하게 받아들이기 위해 물체의 상을 중심와(fovea)에 안정되게 유지하는 것으로, 안구 운동의 움직임은 크게 1) 물체가 망막의 중심와에 잘 머물러 있도록 주시를 안정(gaze stabilization)시키는 시선 고정(fixation)과 2) 관심 있는 물체를 향하여 눈을 움직여 물체가 중심와에 맺히도록 주시를 이동(gaze shift)시키는 시선 도약(saccade)으로 나뉠 수 있다.Here, the eye movement stably maintains the image of the object on the fovea in order to capture the external environment in detail, and the motion of the eye movement is largely determined by 1) keeping the object well in the center of the retina Gaze stabilization (gaze stabilization), and gaze shifting (gaze shift) to move the eye toward the object of interest to form the center of the object.

동공은 눈으로 들어오는 빛의 양을 조절하는 기능을 가진, 홍채의 중심에 위치한 원모양의 빈 공간을 칭하는 것으로, 동공 반응은 홍채에 있는 두 개의 근육인 동공조임근과 동공확대근이 수축함에 따라 크기가 변화하는 것을 의미할 수 있다. 여기서, 동공조임근이 부교감신경의 자극에 의해 수축할 때 동공의 크기는 작아지고 동공확대근이 교감신경의 자극으로 수축할 때 동공의 크기는 커질 수 있다. 이러한, 동공의 확장과 수축은 각각 독립적인 신경이 관여하고 있기 때문에 반응을 나타내게 된 심리생리학적 원인을 비교적 쉽게 찾을 수 있다. 더욱이, 동공의 크기는 인지 부하 수준, 자극에 대한 긍정/부정/중립 반응으로 표현됨에 따라 학습자의 집중 정도를 파악할 수 있는 좌표로 사용이 가능할 수 있다.The pupil is a circle-shaped hollow space at the center of the iris, which has the function of controlling the amount of light coming into the eye. The pupil reaction is caused by the contraction of the two muscles of the iris It can mean that the size changes. Here, when pupil contraction is contracted by the stimulation of parasympathetic nerve, the size of the pupil becomes smaller and the pupil size becomes larger when the pupil dilator shrinks by stimulation of the sympathetic nerve. This is because the expansion and contraction of the pupil are independent of each other, and thus the psychophysiological cause of the reaction can be relatively easily found. Moreover, the size of the pupil can be used as a coordinate to grasp the degree of concentration of the learners as the cognitive load level is expressed as positive / negative / neutral response to the stimulus.

결국, 학업 성취 예측 장치(101)는 학습자(106)로 하여금 학습 동영상(103)의 강의 내용에 얼마나 집중하고 있는지를 확인하기 위하여 인간의 시각 처리 특성에 따른 시선을 추적함으로써, 학습자(106)의 시각 행동(107)을 수집할 수 있다. 일례로, 학업 성취 예측 장치(101)는 학습자(106)의 눈에 투사된 적외선이 수정체에서 반사되어 나오는 것을 잡아 눈의 위치, 움직인 거리 등을 포함하는 시각 행동(107)을 수집할 수 있다. 이 때, 동공 측정(pupilometry)은 정신적 활동(mental activity)의 강도(intensity)와 정신 상태(mental states)의 변화를 추정할 수 있으며, 평균 동공 지름 대비 변화 정도와 동공의 크기 조절 속도 등을 측정할 수 있다.The learning achievement predicting apparatus 101 traces the gaze according to the human visual processing characteristic in order to confirm how much the learner 106 concentrates on the lecture contents of the learning video 103, The visual behavior 107 can be collected. For example, the academic achievement prediction apparatus 101 may capture the visual behavior 107 including the position of the eyes, the moving distance, etc. by capturing the infrared rays projected on the eyes of the learner 106 reflected from the lens . Pupilometry can be used to estimate the intensity and mental states of mental activity and to measure changes in pupil diameter and pupil size can do.

즉, 본 발명은 시선 추적을 통해 시각 행동(107)을 측정하기 위해 (1)안구 운동의 유형(시선고정, 시선도약, 혼합)과 (2)측정의 척도(시간, 공간, 빈도)등에 대한 시각 행동(107)을 측정할 수 있다. 여기서, 시간적 척도는 특정 영역에서의 지속시간 등을 의미하는 것으로, 인지적 처리를 ‘언제’, ‘얼마 동안’ 하는 지를 나타낼 수 있다. 그리고, 공간적 척도는 시선고정과 시선도약의 위치, 거리, 방향, 순서를 측정하는 것으로, ‘어디에서’, ‘어떻게’ 하는 지를 나타낼 수 있다. 빈도에 대한 척도는 시간적 척도와 높은 상관 관계를 나타내는 것으로 얼마나 발생하였는지를 나타낼 수 있다.That is, in order to measure visual behavior 107 through eye tracking, the present invention can be used to measure (1) type of eye movement (gaze fixation, gaze jump, mixing) and (2) The visual behavior 107 can be measured. Here, the temporal scale means a duration in a specific area, and can indicate 'when' and 'how long' the cognitive processing is performed. And, the spatial scale measures the position, distance, direction and order of gaze fixation and gaze jump, and can show 'where' and 'how'. The measure of frequency can indicate how high it is to show a high correlation with the temporal scale.

그리고, 학업 성취 예측 장치(101)는 학습자(106)의 시각 행동(107) 별 시각 행동 데이터를 생성한 후, 생성된 시각 행동 데이터를 이용해 학습자의 시각 행동 별 발생 빈도에 대한 그래프를 생성할 수 있다. 여기서, 그래프는 학습 동영상의 시간 흐름에 따라 선형으로 표현되는 그래프 일 수 있다. 자세한 구성은 도 4를 통해 설명하도록 한다.The learning achievement prediction apparatus 101 generates visual behavior data for each visual behavior 107 of the learner 106 and then generates a graph of the occurrence frequency of the visual activity of the learner using the generated visual behavior data have. Here, the graph may be a graph that is linearly expressed according to the temporal flow of the learning moving picture. The detailed configuration will be described with reference to FIG.

학업 성취 예측 장치(101)는 그래프를 이용하여 학습 동영상의 전체 구간 내 발생 빈도에 따른 피크 구간을 설정할 수 있다. 자세한 구성은 도 5를 통해 설명하도록 한다. 그리고, 학업 성취 예측 장치(101)는 설정된 피크 구간에서의 학습자(106)의 시각 행동(107)을 분석하여 학습자(106)의 학업 성취 정도를 예측할 수 있다.The academic achievement prediction apparatus 101 can set a peak interval according to the occurrence frequency in the entire section of the learning moving picture using the graph. The detailed configuration will be described with reference to FIG. The learning achievement predicting device 101 can predict the degree of achievement of the learner 106 by analyzing the visual behavior 107 of the learner 106 at the set peak period.

보다 구체적으로, 학업 성취 예측 장치(101)는 시각 행동(107)을 통해 학습자(106)의 학습 몰입에 대한 정도를 측정할 수 있다. 상세하게, 학습 몰입은 학습 동영상을 구성하는 학습 과제를 해결하기 위해 최상의 집중을 수행하는 것을 의미하는 것으로 이를 추정하기 위해서는 1) 시각 왜곡, 2) 집중, 3) 즐거움, 4) 통제감, 5) 호기심 등의 상태를 이용할 수 있다. 구체적으로, 학습 몰입은 지루함과 불안의 경계 사이에서 도전과 기술이 균형을 이룰 때 나타나는 것으로, 학습 행위와 학습 인식 간에 일체감(action-awareness merge)이 발생할 때를 의미할 수 있다.More specifically, the learning achievement predicting device 101 can measure the degree of the learning commitment of the learner 106 through the visual behavior 107. In order to estimate this, it is necessary to 1) visual distortion, 2) concentration, 3) pleasure, 4) control feeling, 5) Curiosity and the like can be used. Specifically, learning commitment occurs when challenges and techniques balance between the borders of boredom and anxiety, which can mean when an action-awareness merge occurs between learning behavior and learning perception.

또한, 학습 몰입은 몰입 방법에 따라 1) 참여, 2) 인지적 참여(cognitive engagement), 3) 인지적 몰입(Cognitive Absorption), 4) 몰두(immersion) 등의 개념으로 구분될 수 있으며, 높은 수준의 집중과 참여를 촉발시켜주는 심리적 기제로 활용됨에 따라 몰입 경험 자체가 만족감이 되어 학습자의 내재적 동기를 증진시킬 수 있다. 즉, 학습 몰입은 학습 환경의 전반에 걸쳐 학습에 대한 욕구를 높이고, 자발적이며, 참여적 활동을 촉진 시킴으로써, 학업 성취도를 향상시키고, 학습 결과에 영향을 미치는 정의적/심리적 요인일 수 있다.In addition, learning commitment can be divided into 1) participation, 2) cognitive engagement, 3) cognitive absorption, and 4) immersion according to the immersion method. And the intrinsic motivation of the learner can be enhanced by the satisfaction of the immersion experience itself as it is utilized as the psychological mechanism that triggers the concentration and participation of the learner. In other words, learning commitment can be a positive / psychological factor that improves academic achievement and affects learning outcomes by increasing the desire for learning throughout the learning environment, promoting voluntary and participatory activities.

이후, 본 발명은 시각 행동(107)을 통해 학습자(106)의 학습 몰입에 대한 정도로부터 학습자(106)의 학업 성취를 예측할 수 있다. 상세하게, 학업 성취는 학습 동영상(103)을 시청하는 학습자들이 일련의 학습과정을 수행한 이후에 습득하게 되는 결과물로써, 학습자들의 목표 도달 정보를 의미할 수 있다. 이 때, 본 발명은 학업 성취도를 측정하기 위하여 학습자를 대상으로 동형 감사로 제작된 사전 검사와 사후 검사를 실시하였으며, 학습 후 지식의 향상 정보를 사전 검사와 사후 검사 간의 점수 차이를 통해 계산할 수 있다.Thereafter, the present invention can predict the academic achievement of the learner 106 from the degree of learning commitment of the learner 106 through the visual behavior 107. In detail, the academic achievement is the result obtained after the learner who watches the learning video 103 performs a series of learning process, which may mean the goal reaching information of the learner. At this time, in the present invention, in order to measure the academic achievement, the pre-test and the post-test made by the same kind of learner were conducted, and the improvement information of the post-learning knowledge can be calculated through the score difference between the pre- .

이를 통해, 본 발명은 학습 동영상(103)을 시청하는 학습자(106)의 시각 행동(107) 및 몰입 정도로부터 학습 동영상에 포함된 정보에 대한 학습자의 학업 성취에 대한 정도를 예측할 수 있다.Accordingly, the present invention can predict the degree of the learner's academic achievement of the information included in the learning moving image from the visual behavior 107 and the immersion level of the learner 106 viewing the learning animation 103. [

도 2는 일실시예에 따른 학업 성취 예측 장치의 세부적인 구성을 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining a detailed configuration of an academic achievement prediction apparatus according to an embodiment.

도 2를 참고하면, 학업 성취 예측 장치(201)는 시각 행동 수집부(202), 시각 행동 데이터 생성부(203), 그래프 생성부(204), 피크 구간 설정부(205) 및 학업 성취 정도 예측부(206)를 포함할 수 있다.2, the academic achievement prediction apparatus 201 includes a visual behavior collecting unit 202, a visual behavior data generating unit 203, a graph generating unit 204, a peak interval setting unit 205, (206). ≪ / RTI >

시각 행동 수집부(202)는 학습 동영상을 시청하는 학습자의 시각 행동을 수집할 수 있다. 시각 행동 수집부(202)는 학습 동영상을 통해 학습자에게 제공되는 학습 자극에 의해 반응한 학습자의 시각 행동을 수집할 수 있다. 보다 구체적으로, 학습 동영상은 1) 학습 내용을 제시하는 슬라이드 영역과 2) 학습 내용을 설명하는 교수자 영역, 3) 학습 내용의 설명에 따른 판서가 화면 내에 포함될 수 있다.The visual behavior collecting unit 202 can collect visual behaviors of the learner who watches the learning video. The visual action collecting unit 202 can collect visual behaviors of the learner responding to the learning stimulus provided to the learner through the learning animation. More specifically, the learning video may include 1) a slide area for presenting the learning contents, 2) a teaching area for describing the learning contents, and 3) a writing according to the description of the learning contents.

그리고, 시각 행동 수집부(202)는 학습 동영상을 시청하는 동안 학습자의 시각 행동뿐만 아니라, 필기구를 통한 입력 정보를 수집할 수 있다. 다시 말해, 시각 행동 수집부(202)는 하드웨어 구성으로 아이트래커, 웹캠, 테블릿 펜을 사용하고, 소프트웨어 구성으로 Tobii Pro Studio와 Morae를 사용하여 학습자에 관한 정보를 수집할 수 있다.The visual action collecting unit 202 can collect not only the visual behavior of the learner but also the input information through the writing instrument while watching the learning video. In other words, the visual action collecting unit 202 can use an eye tracker, a webcam and a tablet pen in a hardware configuration, and can collect information about a learner using Tobii Pro Studio and Morae in a software configuration.

구체적으로, 시각 행동 수집부(202)는 학습자의 눈의 특징을 측정하고, 화면세 제시되는 빨간색 원을 학습자가 시선으로 따라가도록 함으로써, 학습자의 시각 행동 데이터를 측정하기 위한 칼리브레이션을 수행할 수 있다. 이후, 시각 행동 수집부(202)는 학습 동영상을 학습하는 학습자의 시선에 따른 시선을 추적하고, 이를 통한 시각 행동을 수집할 수 있다.Specifically, the visual action collecting unit 202 may measure the characteristics of the learner's eyes and calibrate the visual activity data of the learner by allowing the learner to observe the red circle presented by the screen . Thereafter, the visual action collecting unit 202 can track the eyes according to the eyes of the learner who learns the learning video, and can collect visual behaviors through the eyes.

1) 아이트래커는 학습자의 시각 행동을 비간섭적으로 측정하는 하는 아이트래커를 이용하여 학습자와 관련된 타임스탬프, 동공 크기(mm), 안구 운동의 종류(fixation/saccade), 시선 위치 등의 데이터를 획득할 수 있다. 이 때, 아이트래커는 Tobii Pro Studio를 통해 시각 행동을 수집하고, 수집한 데이터를 추출할 수 있다.1) EyeTracker uses EyeTracker, which is a non-intrusive measure of learner's visual behavior, to generate data such as time stamp, pupil size (mm), type of eye movement (fixation / saccade) Can be obtained. At this time, EyeTracker can collect visual activity through Tobii Pro Studio and extract the collected data.

2) 웹캠은 회상 자극 인터뷰를 진행하기 위하여 학습 동영상을 시청하는 학습자의 모습을 녹화하여 학습자의 학습 영상을 획득할 수 있다. 이 때, 웹캠은 Morae를 통해 학습자의 얼굴을 녹화하며, 학습자에게 질문이 필요한 구간을 미리 선장할 수 있다.2) The webcam can record the learner's learning image by recording the learner watching the learning video in order to conduct the recall stimulus interview. At this time, the webcam records the face of the learner through Morae, and can captain the learner in advance of the section requiring the question.

여기서, 회상 자극 인터뷰는 학습 동영상을 학습하는 학습자의 얼굴이 녹화된 화면 및 학습자가 학습한 강의 영상을 구성하는 하나의 영상을 자극자로 제공받아, 해당 영상으로부터 학습자가 떠오르는 학습 당시의 생각이나 느낌을 발화하는 인터뷰일 수 있다. 이 때, 본 발명은 학습자의 시선 이동 또는 표정 변화에 따른 시점을 마킹한 후, 마킹된 영상을 학습자에게 자극자로 제공할 수 있다.Here, the recall stimulus interview is a process in which a learner's face on which the learner's face is recorded and the learner's lecture image are provided as stimuli, and the learner's thoughts and feelings It can be a talking interview. At this time, the present invention can mark the point of time according to the learner's movement or change of the facial expression, and then provide the marked image to the learner as a stimulus.

3) 태블릿 펜은 학습자의 시선을 추적하기 위해, 학습자가 사용자 단말의 디스플레이 내 입력 정보를 획득할 수 있다.3) The tablet pen can acquire the input information in the display of the user terminal in order to track the learner's gaze.

시각 행동 데이터 생성부(203)는 학습자의 시각 행동 별 시각 행동 데이터를 생성할 수 있다. 시각 행동 데이터 생성부(203)는 학습자의 시각 행동을 시선 고정, 시선 도약, 좌우 동공의 크기, 시선에 대한 좌표값, 눈과 화면과의 거리 등으로 구분할 수 있다. 여기서, 시선에 대한 좌표값은 좌우 시선의 X, Y 좌표값으로 학습자의 시선이 학습 동영상의 학습 영역 내부에 위치해 있는 시간으로 계산할 수 있다. 즉, 본 발명은 단순히 학습자의 시선이 이동하는 것을 토대로 시선에 대한 좌표값을 측정하는 것이 아니라, 학습자가 일정 영역에 시선이 고정된 위치에서의 해당 시선이 머무른 시간을 고려하여 학습자의 시선이 이동한 좌표값을 측정할 수 있다. The visual behavior data generation unit 203 can generate visual behavior data for each learner's visual behavior. The visual behavior data generation unit 203 can classify the visual behaviors of the learner by eye gaze fixation, visual jump, size of the left and right pupils, coordinate values of the eyes, and distance between the eyes and the screen. Here, the coordinate values for the visual line can be calculated as the X and Y coordinate values of the left and right eyes, and the time at which the learner's eyes are located inside the learning region of the learning video. That is, the present invention does not measure coordinate values for the line of sight based on merely the movement of the learner's gaze, but rather measures the learner's gaze in consideration of the time at which the gaze at the position where the learner fixed the gaze is fixed One coordinate value can be measured.

일례로, 시각 행동 데이터 생성부(203)는 시선이 학습영역 내에 머무른 절대시간을 비교함으로써, 학습자의 몰입 정도를 측정할 수 있다. 다시 말해, 학습자는 학습 내용에 몰두할수록, 학습 동영상 내 시선이 머무르는 시간이 길어질 수 있으며, 시선이 머무르는 시간이 길어진다는 것은 시간에 비례하여 몰입도가 높다고 판단할 수 있다. 따라서, 시각 행동 데이터 생성부(203)는 학습 동영상 내 시선이 머무르는 시간을 이용하여 학습자의 몰입 정도를 파악할 수 있다.For example, the visual behavior data generation unit 203 can measure the degree of immersion of the learner by comparing the absolute time that the line of sight stays in the learning area. In other words, the longer the learner is immersed in the learning contents, the longer the time for the gaze to stay in the learning video may become longer, and the longer the gaze stay time is, the higher the immersion is in proportion to the time. Therefore, the visual behavior data generation unit 203 can grasp the degree of immersion of the learner using the time during which the visual line in the learning moving picture stays.

또한, 시각 행동 데이터 생성부(203)는 학습자의 시선이 학습 동영상 내 머무른 시간을 파악할 뿐만 아니라, 전체 학습영역 중에서 교수자가 특히 강조하고 있는 부분이나 설명하고 있는 특정 영역에 시선이 위치하였는지를 확인할 수 있다. 자세하게, 시각 행동 데이터 생성부(203)는 교수자가 화면 내 학습 동영상의 일부분을 지시하고 있는 시점에, 지시하고 있는 대상과 시선이 머무른 영역이 일치하는 정도가 높을수록 몰입한 정도가 높다고 판단할 수 있다.Further, the visual behavior data generation unit 203 can not only grasp the linger time of the learner in the learning video, but also check whether the lecturer is particularly emphasized in the entire learning area or whether the visual line is located in the specified area . In detail, the visual behavior data generation unit 203 can determine that the degree of immersion is higher as the degree to which the instructed object and the area in which the visual line stays coincides with the point at which the instructor indicates a part of the on- have.

일례로, 시각 행동 데이터 생성부(203)는 교수자가 학습 동영상의 학습 내용을 설명하기 위해 지시한 시점의 좌표값에 대응하여 학습자의 시선이 머무른 좌표값을 비교하여 해당 좌표값 간에 오차범위가 작을수록 학습자의 몰입 정도가 높다고 판단할 수 있다.For example, the visual behavior data generation unit 203 compares the coordinate values of the learner's gaze with the coordinate values at the time point instructed by the instructor to explain the learning contents of the learning video, and the error range between the coordinate values is small It can be judged that the degree of immersion of learners is high.

그리고, 시각 행동 데이터 생성부(203)는 시각 행동 별 각각에 대응하여 평균 시선 고정 지속시간, 평균 시선 도약 지속 시간, 베이스라인 대비 평균 동공 크기, 학습 영역 내 평균 시선 지속시간, 학습 전 구간 대비 눈과 화면 거리 등의 시각 행동 데이터를 생성할 수 있다.Then, the visual behavior data generation unit 203 generates a visual behavior data for each of the visual behaviors in accordance with the average eye fixation duration, the average eye jump duration, the average pupil size relative to the baseline, the average eye duration in the learning area, And visual distance data such as a screen distance can be generated.

여기서, 평균 시선 고정 지속시간은 1초간 시선 고정 빈도 / 초당 프레임 개수에 의해 결정될 수 있다. 평균 시선 도약 지속 시간은 1초간 시선 도약 빈도 / 초당 프레임 개수에 의해 결정될 수 있다. 베이스라인 대비 평균 동공 크기는 좌우 동공 지름 평균 / 베이스라인 동공 지름 평균에 의해 결정될 수 있다. 이 때, 좌우 동공 지름의 경우는 개별 학습자의 평상시 동공 크기를 뺀 값을 베이스라인으로 계산한 후, 베이스 라인에 대비한 동공의 크기 변화를 확인할 수 있다.Here, the average eye fixed duration can be determined by the eye fixation frequency per second / the number of frames per second. The average eye jump duration can be determined by the frequency of gaze hop per second / number of frames per second. The mean pupil size versus baseline can be determined by the mean of the left and right pupil diameter / the mean of the baseline pupil diameter. In this case, in the case of the left and right pupil diameters, it is possible to calculate the change in the size of the pupil relative to the baseline after calculating the baseline by subtracting the pupil size of the individual learner from the normal pupil.

다시 말해, 본 발명은 기저반응 측정을 위해서, 화면 중앙에 표시된 "X" 기호에 시선을 고정할 수 있도록 학습자를 유도할 수 있다. 이 때, 본 발명은 "X" 기호를 화면에 한번 10초씩 제시하며, 10초의 간격을 두고 총 5회간 제시할 수 있다. 그리고, 본 발명은 화면에 제시한 "X" 기호의 지점을 학습자가 고정적으로 바라보도록 유도함으로써 눈의 조정 반응(accommodation responses)을 최소화할 수 있다. 그리고, 본 발명은 이렇게 측정된 눈의 조정 반응을 기반으로 측정한 50초 동안의 동공 지름의 평균으로 베이스라인을 설정할 수 있다.In other words, the present invention can induce a learner to fix the line of sight to the "X" In this case, the present invention can present the symbol "X" once every 10 seconds on the screen, and present a total of 5 times at intervals of 10 seconds. The present invention can minimize the accommodation responses of the eyes by inducing the learner to look at the point of the "X" symbol presented on the screen. The present invention can set the baseline as an average of the pupil diameter for 50 seconds measured based on the thus measured eye coordination reaction.

일례로, 본 발명은 학습 동영상을 학습하기 이전/이후, 시청 중간 중 어느 한 시점에서의 화면에 제시된 "X" 기호에 의한 자극에 대응하는 눈의 현상 또는 눈의 행동에 따른 눈의 조정 반응을 확인하고, 눈의 조정 반응에 따른 베이스라인을 설정할 수 있다.For example, the present invention relates to a method for adjusting an eye according to a phenomenon of an eye corresponding to a stimulus by an "X" symbol displayed on a screen at a certain point in time before or after learning a moving image, , And can set the baseline according to the adjustment reaction of the eyes.

학습 영역 내 평균 시선 지속시간은 1초간 학습 영역 내에 위치한 시선 횟수 합 / 초당 프레임 개수에 의해 결정될 수 있다. 학습 전 구간 대비 눈과 화면 거리는 (좌우 평균 눈과 화면 거리 - 학습 전 구간 눈과 화면 거리) / 초당 프레임 개수에 의해 결정될 수 있다.The average visual line duration in the learning area can be determined by the sum of the number of visual lines located within the learning area per second / the number of frames per second. The eye and the screen distance relative to the pre-learning interval can be determined by the number of frames per second (the average eye and the screen distance between the left and right eyes, the distance between the eyes and the screen before the learning), and the number of frames per second.

그래프 생성부(204)는 시각 행동 데이터를 이용하여 학습자의 시각 행동 별 발생 빈도에 대한 그래프를 생성할 수 있다. 그래프 생성부(204)는 학습 동영상의 강의 흐름을 기준으로 상기 시선 고정 빈도의 지속 시간, 시선 도약 빈도의 지속시간 및 좌우 동공의 크기에 대한 평균값 각각에 대응하는 그래프를 생성할 수 있다.The graph generating unit 204 may generate a graph of the occurrence frequency of each learner's visual behavior using the visual behavior data. The graph generating unit 204 may generate a graph corresponding to each of the average values of the duration of the gaze fixation frequency, the duration of the gaze hopping frequency, and the size of the left and right pupils based on the stream of the learning moving image.

피크 구간 설정부(205)는 생성된 그래프를 이용하여 학습 동영상의 전체 구간 내 발생 빈도에 따른 피크 구간을 설정할 수 있다. 피크 구간 설정부(205)는 그래프를 기준으로 상기 전체 구간 내 특정 시간대들을 설정하고, 특정 시간대들 각각에서의 시각 행동 별 발생 빈도가 높게 나타낸 지점을 각각의 피크 구간으로 설정할 수 있다. 여기서, 특정 시간대는 시각 행동 별로 각 학습자의 초 단위 값이 전체 구간 대비 +ISD 이상에 해당하는 시간대를 의미할 수 있다.The peak interval setting unit 205 can set a peak interval according to the occurrence frequency of the learning moving picture in the entire interval using the generated graph. The peak interval setting unit 205 may set specific time zones within the entire interval based on the graph and may set a point indicating a high occurrence frequency of each of the specific time zones to each peak interval. Here, the specific time zone may be a time zone in which the seconds value of each learner corresponds to more than the ISD + ISD per visual activity.

구체적으로, 피크 구간 설정부(205)는 학습 동영상을 시청한 모든 학습자들을 대상으로 모든 학습자별, 학습 동영상에 대한 전체 학습 시간에 대응하는 시각 행동의 평균과 표준편차값을 구할 수 있다. 여기서, 각 학습자들은 개인마다 서로 다른 평균과 표준편차값을 가질 수 있다. 피크 구간 설정부(205)는 각 학습자별로 구해진 표준편차값을 기준으로, 학생 당 본인의 표준편차값 이상을 드러낸 학습 구간이 어디인지를 초단위로 확인할 수 있으며, 학습자마다 개인별 피크 구간(1SD) 이상의 값을 보인 시간대는 모두 다르게 나타날 수 있다.Specifically, the peak section setting unit 205 can obtain an average and a standard deviation of visual behaviors corresponding to the total learning time for all learners and for all the learners, for all learners who have viewed the learning videos. Here, each learner can have different mean and standard deviation values for each individual. The peak interval setting unit 205 can determine, in seconds, the number of seconds of the learning interval in which the standard deviation value of each student is revealed based on the standard deviation value obtained for each learner, and the individual peak interval (1SD) The time zone in which the above values are shown may be all different.

이후, 피크 구간 설정부(205)는 각 학습별로 구해진 개인별 피크 구간을 중심으로 전체 학습자들에 대한 전체 피크 구간을 분석할 수 있다. 다시 말해, 피크 구간 설정부(205)는 각 학습자들의 개인 피크 구간을 통합하여, 학습자별 개인 피크 구간이 자주 발생한 전체 피크 구간을 확인하는 것으로 다수의 학습자들이 피크값을 보인 시간 및 구간이 어디인지를 파악할 수 있다. 그리고, 피크 구간 설정부(205)는 학습 동영상을 초단위로 몇 명의 학습자가 피크값을 보였는지 합산하여, 가장 많은 학생이 피크값을 나타낸 것으로 산정된 상위 10%의 시간대를 피크 구간으로 설정할 수 있다.Thereafter, the peak interval setting unit 205 can analyze the entire peak interval for all learners based on individual peak intervals obtained for each learning. In other words, the peak interval setting unit 205 integrates the individual peak periods of the learners to check the entire peak interval in which individual learner-specific peak intervals occur frequently. . The peak interval setting unit 205 sets the peak time period of the top 10% of the highest number of students who have calculated the peak value as the peak value by summing how many learers have shown the peak value of the learning video in seconds have.

학업 성취 정도 예측부(206)는 설정된 피크 구간에서의 학습자의 시각 행동을 분석하여 학습자의 학업 성취 정도를 예측할 수 있다. 다시 말해, 학업 성취 정도 예측부(206)는 학습자의 시각 행동으로부터 학습 동영상에 대한 학습자의 학습 몰입에 대한 정보를 판단할 수 있다. 그리고, 학업 성취 정도 예측부(206)는 시각 행동과 학습 몰입에 대한 결과를 통해 학업 성취 정도를 예측할 수 있다.The academic achievement prediction unit 206 can predict the academic achievement level of the learner by analyzing the learner's visual behavior at the set peak interval. In other words, the learning achievement prediction unit 206 can determine information about the learning commitment of the learner with respect to the learning video from the learner's visual behavior. Then, the academic achievement prediction unit 206 can predict the degree of academic achievement through the results of visual behavior and learning commitment.

도 3은 일실시예에 따른 학습 동영상을 구성하는 학습 자료와 교수자의 행동에 따른 학습자의 시각 행동을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining learning data constituting a learning moving picture according to an embodiment and visual behavior of a learner according to a behavior of a teacher.

도 3을 참고하면, 학업 성취 예측 장치는 학습 동영상의 학습 환경에서의 시각 행동 데이터가 학습 동영상 내 어떤 학습 자극에 대해 반응하는 것인지를 확인할 수 있다. 구체적으로, 본 발명은 학습 동영상을 시청하는 동안 학습자에게 발생한 시각 행동의 특성과 발생 원인을 파악하기 위해 자극물로 사용된 강의 영상(학습 동영상)을 분석할 수 있다. 이에 본 발명은 강의 영상에서 학습자의 시각 행동에 영향을 미칠 수 있는 요인을 ①교수 행동과 ②학습 자료로 구분할 수 있다.Referring to FIG. 3, the learning achievement prediction device can confirm which learning stimulus in the learning video is responding to the visual behavior data in the learning environment of the learning video. Specifically, the present invention can analyze a lecture video (learning video) used as a stimulus to grasp the characteristics of a visual activity and a cause of a visual activity occurring to a learner while watching a learning video. Accordingly, the present invention can classify the factors that may affect the learner's visual behavior in the lecture image as (1) teaching behavior and (2) learning data.

도 3의 (a), (b)를 참고하면, 학습 동영상은 학습 자극으로써, 교수 행동(301)과 학습 자료(302)를 포함할 수 있다.3 (a) and 3 (b), a learning moving picture may include a teaching behavior 301 and learning data 302 as learning stimuli.

교수 행동(301)은 학습 동영상에서 학습 내용을 설명하는 교수자의 행동으로, 교수자가 설명하고자 하는 대상에 따라 서로 다른 특징적인 행동을 표현할 수 있다. 즉, 교수자는 학습 동영상을 학습자에게 설명하기 위하여 ‘객관적으로 확인 가능한 행동 변화’를 토대로 학습자에게 시각적인 자극물로 정보를 전달할 수 있다. 이에 따라, 본 발명은 학습 동영상의 타임스탬프에 따른 직관적인 동작으로부터 교수 행동(301)을 구분할 수 있으며, 이는 표 1과 같이 나타낼 수 있다.Instructional Behavior (301) is a behavior of instructor who describes learning contents in learning video, and can express different characteristic behaviors according to the object to be explained by the instructor. In other words, the instructor can convey the information to the learner with visual stimuli based on 'objectively identifiable behavior change' in order to explain the learning video to the learner. Accordingly, the present invention can distinguish the teaching behavior 301 from the intuitive operation according to the time stamp of the learning moving picture, which can be expressed as shown in Table 1.

[표 1][Table 1]

Figure pat00001
Figure pat00001

표 1은 학습 동영상의 타임스탬프를 1초 단위로 구분하고, 초 단위로 교수자의 행동을 표현할 수 있다. 또한, 본 발명은 교수 행동에 대한 각각의 항목으로 정리한 후, 표 2와 같이 나타낼 수 있다.Table 1 shows the time stamp of the learning video in units of 1 second and expresses the behavior of the instructor in seconds. In addition, the present invention can be expressed as shown in Table 2 after arranging the respective items for the teaching behavior.

[표 2][Table 2]

Figure pat00002
Figure pat00002

학습 자료(302)는 학습 동영상의 전반에서 일정 영역을 차지하고 있었으며, 학습 자료의 유형은 텍스트, 그래프, 표로 구성되어 사용자에게 자극물로 활용될 수 있다.The learning material (302) occupied a certain area in the whole of the learning video, and the type of the learning material is composed of text, graph, and table, and can be utilized as a stimulus to the user.

다시 말해, 본 발명은 학습자에게 제공되는 학습 동영상을 구성하는 교수 행동에 대한 패턴을 구분하고, 구분한 각 교수 행동의 패턴에 대응하는 학습 자료를 매핑할 수 있다. 그리고, 본 발명은 교수 행동에 대응하여 매핑된 학습 자료가 학습자에게 제공된 시점에서의 학습자의 시각 행동을 추출할 수 있다. 이후, 본 발명은 해당 시점에서의 학습자의 시각 행동으로부터 학습 동영상에 대한 학습자의 학습 몰입에 대한 정도를 분석할 수 있다.In other words, the present invention can classify patterns of teaching behaviors constituting learning videos provided to a learner, and map learning materials corresponding to patterns of respective teaching behaviors. In addition, the present invention can extract the visual behavior of a learner at a point of time when learning material mapped in response to a teaching behavior is provided to a learner. Thereafter, the present invention can analyze the degree of the learner's learning commitment to the learning video from the visual activity of the learner at the time point.

구체적으로, 도 3의 (c), (d)를 참고하면, 학업 성취 예측 장치는 교수 행동(301) 및 학습 자료(302)에 따른 시각 행동과의 연결 고리를 확인할 수 있다. 본 발명은 학습 동영상 내 교수 행동(301) 및 학습 자료(302)의 변화가 빈번하게 발생한 상위 10% 구간을 도출한 후, 교수 행동(301) 및 학습 자료(302)에 의한 학습자의 시각 행동을 확인할 수 있다.3 (c) and 3 (d), the learning achievement prediction device can confirm the link between the visual behavior based on the teaching behavior 301 and the learning data 302. The present invention is based on the assumption that the learner's visual behavior by the instructional action 301 and the learning material 302 after deriving the upper 10% Can be confirmed.

1) 시각 행동 중 시선 고정1) Eye fixation during visual action

시선 고정은 학습 동영상 내 일정 시간 동안 시선이 고정된 상태로, 이는 학습자가 특정 영역에 대하여 집중했을 때, 나타나는 상태일 수 있다. 일례로, 시선 고정은 응시 시간이 약 100~600mm로 정의되는 안구 운동으로, 시선 고정의 지속 시간은 정보를 처리하거나 또는 물체에 대한 인지 활동을 수행하는 시간으로, 정시적 또는 신체적으로 집중을 유지한 시간을 의미할 수 있다The gaze fixation is a state in which the gaze is fixed for a certain period of time in the learning video, which may be a state that appears when the learner concentrates on a specific region. For example, gaze fixation is an eye movement that is defined as a gaze time of about 100 to 600 mm. The duration of gaze fixation is the time to process information or perform cognitive activities on an object, Can mean one hour

이러한 시선 고정은 교수 행동과 대비하였을 때, 다음과 같은 구간에서 빈번하게 발생할 수 있다. 즉, 학습 동영상의 학습 환경에서 시선 고정이 빈번하게 나타난 구간에서 나타난 교수 행동은 판서, 학습 자료의 특정 부분 지시 등으로 교수자가 학습자로 하여금 특정 영역에 집중하도록 시선을 유도하는 행동을 취할 때 시선 고정이 빈번하게 발생하였다. 즉, 학습자는 이러한 교수 행동에 따라 학습 동영상을 실시간으로 시청하는 과정에서 교수자가 가르키는 시각 정보(학습 자료)에 시선을 집중하였으며, 본 발명은 시선 고정 지속 시간에 대응하여 집중 상태를 유지하고 있다는 것으로 해석할 수 있다. 이 때, 본 발명은 시선 고정 지속 시간에 따른 좌우 시선의 좌표값을 측정할 수 있다. 그리고, 이를 통해 학습자가 시선을 고정한 시점에서의 학습자가 주시한 대상이 무엇인지를 파악할 수 있다.This gaze fixation can occur frequently in the following sections when compared with teaching behavior. In other words, in the learning environment of the learning video, the teaching behaviors that appear in the section where the gaze fixation frequently occurs can be classified into the following: Occurred frequently. That is, the learner focuses on the visual information (learning material) pointed by the instructor in the course of watching the learning video in real time according to the teaching act, and the present invention maintains the concentrated state corresponding to the gaze fixed duration . At this time, the present invention can measure the coordinate values of the left and right eye lines according to the gaze fixation duration time. Then, it is possible to grasp what the learner observes at the time when the learner fixed the gaze.

2) 시각 행동 중 시선 도약2) Visual leap during visual action

시선 도약은 학습 동영상 내 관심 있는 대상으로 학습자의 시선이 이동한 후, 이동된 위치에서 시선 고정이 되는 하나의 과정을 의미하는 것으로, 이는 학습자가 학습 동영상에 관심이 있고, 이에 따라 집중의 전환이 발생한 상태일 수 있다. 일례로, 시선 도약은 시선이 한 곳을 응시했다가 빠르게 다음 목적지로 옮겨가는 것을 말하며, 평균 약 20~40ms로 초당 약 600°의 움직임이 나타나는 안구 운동으로, 시선 도약의 지속 시간은 인지 활동을 위한 집중의 전환이 발생한 시간을 의미할 수 있다.Eye-gaze leap refers to a process in which the learner's gaze moves to the interested subject in the learning video and then the gaze is fixed in the moved position. This means that the learner is interested in the learning video, It may be the state that occurred. For example, gaze leap refers to eye gazing at one place and moving quickly to the next destination. An eye movement that shows an average movement of about 600 ° per second with an average of about 20 to 40 ms. This can mean the time at which convergence for concentration occurs.

이러한 시선 도약은 집중의 전환이 발생하는 구간에서 많이 발생할 수 있다. 즉, 여기서, 시선도약이 일어나는 동안에는 시각적 정보처리가 거의 이루어지지 않는 상태로, 본 발명에서 시선 도약이 빈번한 때는 교수자가 학습 자료의 특정 부분을 지시할 때와 학습 자료의 화면이 전환될 때로 나타날 수 있다. 이 때, 교수자의 지시 행동이 시선 고정과 시선도약에 공통적으로 매치된 것으로 보아, 교수자가 지시 행동을 취하는 순간 학습자의 시선이 지시 영역으로 이동한 후, 안정화하여 시선고정으로 이어진다는 것을 짐작할 수 있다.Such a gaze jump can occur in a region where convergence occurs. That is, in the present invention, when visual leap is frequent, the visual information processing is hardly performed while the visual line leap occurs, and when the instructor indicates a specific part of the learning material and when the screen of the learning material is switched have. In this case, it can be assumed that the instructional behavior of the instructor is commonly matched to the gaze fixation and gaze leap, so that when the instructor takes the instruction action, the learner 's gaze moves to the indication region, stabilizes and leads to gaze fixation .

또한, 학습 자료 화면이 전환될 때와 화면에 제시된 자료 유형이 많을 때(텍스트 + 그래프), 시선 도약이 빈번하게 이루어 진다는 것을 확인할 수 있다. 이는 시선도약이 지속적으로 발생할 시, 시각적 정보처리가 이루어지지 않더라도, 동영상 학습환경에서 교수자의 특정 행동에서의 반응으로 학습자의 시선 도약이 발생한 경우, 학습자가 학습에 집중하고 있음을 드러내는 척도로 사용할 수 있다. 다시 말해, 학습자가 교수 행동에 따라 특정 부분으로의 시선 도약이 빈번하게 이루어진 다는 것은 교수자의 설명 순서에 따라 순차적으로 반응한다는 것을 확인할 수 있으며, 이러한 시선 도약은 학습 동영상의 학습 환경에서 활용 가능한 안구 운동의 특성이라 할 수 있다.In addition, it can be seen that when the learning data screen is switched and when the data types presented on the screen are large (text + graph), the visual gaze is frequent. This can be used as a measure to show that learners are concentrating on learning when there is continuous visual leap, visual information processing is not done, have. In other words, it can be seen that the learner responds to the instruction sequence in a sequential manner according to the instructor's order that the gaze jump to a specific part frequently occurs according to the instructional activity. .

3) 시각 행동 중 동공 크기의 변화3) Changes in pupil size during visual activity

동공 크기의 변화는 주로 인지부하 혹은 정서변화와 연결되는 것으로 학습자의 집중 정도에 따라 변화할 수 있다. 본 발명은 시선 고정, 시선 도약이 발생한 구간과 겹치지 않으며, 동공 크기의 변화가 심한 구간에만 추출할 수 있다.Changes in pupil size are mainly related to cognitive load or emotional changes, which can vary depending on the degree of learner concentration. The present invention can extract only the section where the gaze fixation and gaze jump do not overlap the section where the change of the pupil size is severe.

이는 교수자가 학습 강의 내 불필요한 제스처를 하거나 판서 내용을 몸으로 가리고 있어 잘 보이지 않는 경우에 동공 크기의 변화가 발생하였다. 이는 외재적 인지부하로, 즉, 학습 자료의 제시 형태와 방식에 의해 발생하는 불필요한 인지부하가 발생하였거나, 또는 부정적 정서변화로 인한 반응이 나타난 것으로 확인할 수 있다.This is because the pupil size changes when the teacher does unnecessary gestures in the teaching lecture or if the pupil contents are covered by the body and is invisible. This can be confirmed by the external cognitive load, that is, the unnecessary cognitive load caused by the way and manner of presentation of the learning data, or the negative emotional change.

결국, 본 발명은 시각 행동을 통한 학습자 심리 상태를 파악할 수 있으며, 이는 학습 동영상의 학습 환경에서 시각 행동을 일으키는 교수 행동과 학습 자료에 의해 결정될 수 있다.As a result, the present invention can grasp the learner's psychological state through visual behavior, which can be determined by teaching behavior and learning data that cause visual behavior in the learning environment of the learning video.

도 4는 일실시예에 따른 시각 행동 별 그래프를 생성하는 방법을 설명하기 위한 도면이다.4 is a diagram for explaining a method of generating a graph of visual behavior according to an embodiment.

도 4를 참고하면, 학업 성취 예측 장치는 학습 동영상을 듣는 동안 변화하는 학습자의 시각 행동에 대한 변화를 확인하기 위하여 시선고정 지속시간, 시선도약 지속시간, 동공크기의 초당 평균값을 이용하여 그래프를 생성할 수 있다.Referring to FIG. 4, the learning achievement predicting device generates a graph using the gaze fixed duration, the gaze hop duration, and the average value of the pupil size per second in order to confirm the change of the visual behavior of the learner while listening to the learning video can do.

도 4의 그래프를 살펴보면, 시선 고정은, 전반적으로 문제풀이 구간 대비 개념설명 구간에 보다 긴 지속시간을 갖는 것으로 드러났으며, 시선 도약은 시간이 지날수록 미세하게 증가하는 것을 확인할 수 있다. 또한, 동공 지름은, 주로 학습 초반에 큰 수치를 나타내다가 학습이 진행될수록 작아지는 경향을 확인할 수 있다. 그리고, 동공 지름은, 개념 설명의 마지막 구간에서 가장 낮은 수치를 기록하였다가, 이후 문제풀이 구간에서는 다소 증가하는 것을 확인할 수 있다.Referring to the graph of FIG. 4, it can be seen that the gaze fixation has a longer duration in the concept explanatory section than the problem solving section as a whole, and the gaze jump increases finerly over time. In addition, the pupil diameter shows a large value at the beginning of learning, and the pupil diameter tends to decrease as learning progresses. In addition, the pupil diameter is recorded at the lowest value in the last section of the concept explanation, and thereafter, it increases somewhat in the problem solution section.

이와 같은 전반적인 변화를 그래프로 확인한 후에, 각 시각 행동별 특징을 분석하기 위하여 본 발명은 시각 행동별 상위 10%에 해당하는 시점의 교수 행동과 교수 행동에 대응하여 제공된 학습 자료를 표 3과 같이 나타낼 수 있다.In order to analyze the characteristics of each visual behavior, the present invention displays the learning data provided in correspondence with the teaching behavior and teaching behavior at the time corresponding to the top 10% of the visual behavior as shown in Table 3 .

[표 3][Table 3]

Figure pat00003
Figure pat00003

표 3을 참고하면, 시선 고정은 교수자가 판서를 할 때(13초), 학습 자료의 특정 부분을 손으로 지시할 때(8초), 교수자의 시선이 이동할 때(4초) 순으로 발생한 것을 확인할 수 있다. 시선도약은 학습 자료의 특정 부분을 손으로 지시할 때(13초), 학습 자료 화면이 전환될 때(5초), 판서할 때(4초) 순으로 발생한 것을 확인할 수 있다. 마지막으로 동공 지름은 교수자가 설명을 하기 위한 제스처를 취할 때(8초), 교수자 시선이 이동할 때(7초), 학습 자료 특정 부분을 손으로 지시할 때(6초) 순으로 커진 것을 확인할 수 있다.As shown in Table 3, gaze fixation occurs in the order of the instructor (13 sec.), The instructor (8 sec.), The instructor's gaze (4 sec) Can be confirmed. It can be seen that the visual leap occurs in the order of (13 seconds) when instructing a specific part of the learning material by hand (5 seconds), and when writing (4 seconds). Finally, the pupil diameter was found to increase in order of gesture (8 sec.) For the instructor to explain, 7 sec for the gaze movement (6 sec) have.

이와 같은 결과로 시선고정 지속시간은 학습자가 학습 동영상 내 어떤 영역을 주목하여 살펴봐야할 때에 발생하였으며, 시선도약 지속시간은 집중의 전환이 필요할 때 주로 발생함을 확인할 수 있다. 또한, 동공지름은 시선 고정 혹은 시선 도약이 발생한 상위 구간의 교수 행동과 겹치는 내용이 많았으나, 동공지름 상위 구간에서만 특징적으로 나타난 교수 행동도 있었다.As a result, gaze fixation duration occurred when the learner had to pay attention to a certain area in the learning video, and gaze jump duration was found to occur mainly when concentration convergence was needed. In addition, the pupil diameter overlapped with the teaching behavior of the upper section where gaze fixation or gaze leap occurred, but there was also a teaching behavior characteristic only in the upper pupil diameter section.

이는 불필요한 제스처를 취하거나(2초), 교수자가 판서 내용을 가리고 있어 이를 잘 확인할 수 없을 때(1초)였는데, 해당 시간은 짧지만 동공 크기로만 파악할 수 있는 항목이며, 모두 학습에 방해되는 요인이라는 점이다. 일례로, 본 발명은 동공 크기가 확대될 때 인지부하가 큰 것으로 확인할 수 있다.This is the time when the teacher can not confirm the contents of the writing because it takes unnecessary gestures (2 seconds) and the teacher can not confirm the contents of the writing (1 second) . For example, the present invention can confirm that the perceived load is large when the pupil size is enlarged.

[표 4][Table 4]

Figure pat00004
Figure pat00004

표 4는 학습자의 시각 행동의 특징을 학습 동영상 내에세 제공한 학습 자료 화면 유형과 매치한 결과이다. 여기서, 시선 고정과 동공 지름은 텍스트 위주의 자료가 제시되었을 때 가장 많은 지속시간(25초, 44초)을 보인 것으로 나타났으며, 시선 도약은 그래프와 텍스트가 모두 포함되어 있는 화면에서 길어(47초)진 것을 확인할 수 있다. 이는 같은 화면에 제시되는 요소가 많을수록 시선의 움직임도 많아졌음을 표 4를 통해 확인할 수 있다.Table 4 shows the result of matching the learner's visual behavior characteristics with the learning data screen types provided in the learning video. The visual fixation and pupil diameter showed the longest duration (25 sec, 44 sec) when the text-oriented data were presented. The gaze leap was longer in the screen including the graph and the text (47 Second). It can be seen from Table 4 that the more the elements presented on the same screen, the more the eye movement becomes.

그래프 위주의 학습 자료 구간에서 시선고정 지속시간은 18초로 높게 나타났는데, 그 중 13초는 교수자가 판서할 때였다. 비교적 긴 시간 고정되어 있는 학습 자료보다, 시시각각 변화하는 교수자의 행동이 시각 행동에 보다 직접적인 영향을 미치는 요인이 될 수 있음을 짐작해 볼 수 있다,In the graph-based learning data section, the gaze fixation duration was 18 seconds, 13 seconds of which was when the professor was writing. It can be presumed that the behavior of a changing teacher can be a factor that has a more direct influence on visual behavior than a relatively long fixed learning material,

이상의 결과를 통해, 시각 행동과 교수 행동, 시각 행동과 학습 자료 사이의 관계를 확인할 수 있었다.Through the above results, we could confirm the relationship between visual behavior and teaching behavior, visual behavior and learning materials.

도 5는 일실시예에 따른 전체 구간 내 발생 빈도에 따른 피크 구간을 설정하는 방법을 설명하기 위한 도면이다.FIG. 5 is a view for explaining a method of setting a peak interval according to the occurrence frequency in the entire section according to an embodiment.

도 5를 참고하면, 학업 성취 예측 장치는 학습 동영상 내 특정 시각 행동이 빈번하게 발생하는 피크 구간을 설정하고, 설정한 피크 구간만의 시각 행동으로 학업 성취를 예측 수 있다. 다시 말해, 학업 성취 예측 장치는 특정 시각 행동이 학습자 전체에게 빈번하게 나타나는 피크 구간을 선정할 수 있다. 여기서, 피크 구간은 시각 행동 별로 각 학습자의 초 단위 값이 전체 구간 대비 +1SD 이상에 해당하는 시간대를 구하고, 이렇게 구한 각각의 시간대 중에서 빈도가 상위 10%에 해당하는 시간으로 계산할 수 있다.Referring to FIG. 5, the academic achievement prediction apparatus can set a peak period in which a specific visual action frequently occurs in a learning moving picture, and can predict the academic achievement by visual action only in the set peak period. In other words, the learning achievement prediction device can select a peak interval in which a particular visual behavior frequently appears to the entire learner. Here, the peak period can be calculated as the time corresponding to the upper 10% of the frequencies in each of the time zones obtained by calculating the seconds value of each learner in the visual action corresponding to + 1 SD or more over the whole interval.

일례로, 도 5를 참고하면, 본 발명은 피크 구간으로 선정한 시선고정 76초, 시선도약 96초, 동공지름 67초동안의 학습자별 1SD 이상 발생 빈도와 그 때의 값 평균을 계산하여 변수를 생성할 수 있다.For example, referring to FIG. 5, the present invention calculates a frequency of occurrence of 1SD or more for each learner in a peak interval of 76 seconds, a visual jump of 96 seconds, and a pupil diameter of 67 seconds, can do.

도 6은 일실시예에 따른 학업 성취도를 예측하는 과정을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining a process of predicting an academic achievement according to an embodiment.

도 6을 참고하면, 학업 성취 예측 장치는 학습 동영상을 시청하는 학습자의 시각 행동을 수집한 후, 학습자의 시각 행동 별 시각 행동 데이터를 생성할 수 있다. 그리고, 학업 성취 예측 장치는 시각 행동 데이터를 이용하여 학습자의 시각 행동 별 발생 빈도에 대한 그래프를 생성할 수 있으며, 이후, 특정 시각 행동이 빈번하게 발생하는 피크 구간을 설정한 후, 설정한 피크 구간에서의 시각 행동 별 시가 행동 데이터를 생성함으로써, 해당 시각 행동에 대한 값과 빈도를 계산할 수 있다.Referring to FIG. 6, the learning achievement prediction device may collect visual activity of a learner who watches a learning video, and then generate visual activity data of the learner's visual activity. The learning achievement predicting device can generate a graph of the occurrence frequency of each learner's visual behavior using visual behavior data. After setting a peak period in which a specific visual behavior frequently occurs, the set peak period The value and the frequency for the visual behavior can be calculated by generating the state behavior data for each visual behavior.

본 발명은 피크 구간에서의 시선 고정 지속 시간이 긴 경우, 학습자의 집중 상태가 유지되는 것으로 확인할 수 있으며, 시손 도약 지속 시간이 긴 경우, 학습자의 집중 전환이 유지되는 것으로 확인할 수 있다. 또한, 본 발명의 동공 크기의 지름이 클수록, 외재적 인지부하가 발생한 것으로 확인할 수 있다.The present invention can confirm that the learner's concentration state is maintained when the gaze fixation duration is long in the peak interval, and can be confirmed that the learner's concentration transition is maintained when the duration of the hazard jump is long. In addition, it can be confirmed that the larger the diameter of the pupil size of the present invention is, the more the external perception is generated.

여기서, 본 발명은 시각 행동 중 피크 구간에서의 시선고정 값과 동공지름 1SD 이상 발생 빈도를 고려하여 학업 성취를 예측할 수 있으며, 이 때, 본 발명은 피크 구간에서의 시선도약 값이 클수록 학업 성취가 높아지는 것을 확인할 수 있다. Here, the present invention can predict the academic achievement in consideration of the visual fixed value at the peak interval and the occurrence frequency of 1SD or more of the pupil diameter at the peak of the visual behavior. In this case, the present invention is characterized in that the larger the visual leap value in the peak interval, .

다시 말해, 본 발명은 시선 구간에서의 시선고정 값과 동공지름이 작을수록 학습자의 관심도가 높은 내용이 학습 동영상에 포함된 것으로 파악할 수 있으며, 이러한 시선고정 값과 동공 지름은 학습 동영상에 대한 학습자 반응 결과로 이는 학습 내용의 영역 및 학습 동영상의 체제에 의한 학습 집중도를 나타낸 지표일 수 있다. 따라서, 본 발명은 보다 학습 성취의 예측율을 향상시키며, 타당한 값을 도출하기 위하여 피크 구간에서의 시각 행동으로 성취를 예측할 수 있다.In other words, according to the present invention, as the eye fixed value and the pupil diameter in the sight line section become smaller, it can be understood that the contents of the learner's interest are included in the learning video, and the gaze fixed value and the pupil diameter As a result, it can be an index indicating the concentration of learning by the framework of learning contents and the area of learning contents. Thus, the present invention improves the predictability of learning achievement and predicts achievement with visual behavior in the peak period to derive a reasonable value.

일례로, 본 발명은 각 피크 구간에서의 결과를 토대로 동영상 전반에 걸친 학습자의 학업 성취를 예측할 수 있다. 다시 말해, 본 발명은 학습 동영상을 제작한 제공자 및 학습 동영상의 학습 내용을 지도한 학습자의 의도에 대응하여 학습 동영상을 통해 학습자의 학습 진행 상황이 의도하는 방향으로 진행되고 있음을 파악함으로써, 동영상 전반에 걸친 학습자의 학업 성취를 예측할 수 있다.For example, the present invention can predict a student's academic achievement over the entire video based on the results at each peak period. In other words, according to the present invention, in response to the intention of the learner who has taught the learning contents of the learning video and the provider who has produced the learning video, it is understood that the learning progress of the learner is proceeding in the direction intended by the learner, The learner's academic achievement can be predicted.

다른 일례로, 본 발명은 각 피크 구간 각각에 대응하는 주제별학습자의 학업 성취를 예측할 수 있다. 다시 말해, 본 발명은 학습 동영상을 시청하는 과정에서의 피크 구간에 대한 학습자의 시각 행동을 파악함으로써, 시각 행동에 의한 해당 크기 구간으로 소분류에 해당하는 개념설명, 문제 풀이 등 학습자의 역량을 파악할 수 있다. 또한, 본 발명은 학습 구간별 피크 구간으로 시각 행동을 더욱 세분화하여 분석함에 따라, 개념설명 중 구조체 개념이 설명한 시점에서 좀 더 집중력이 높아졌음을 파악할 수 있다. 즉, 본 발명은 학습 동영상을 1초 간격으로 피크 구간을 설정함에 따라 피크 구간 중 상위 10%에 해당하는 피크 구간에서의 학습 동영상의 학습 내용을 파악할 수 있으며, 이를 통해 학습자의 관심도 또는 집중도에 의한 학업 성취를 예측할 수 있다.As another example, the present invention can predict the academic achievement of the topic learner corresponding to each peak period. In other words, the present invention grasps a learner's visual behavior with respect to a peak period in the course of watching a learning video, and can grasp a learner's competence such as a concept description corresponding to a small classification, have. In addition, the present invention further analyzes the visual behavior as a peak section of each learning section and analyzes the visual behavior, and it can be understood that the concentration of the concept is more improved at the point of the concept of the structure explained. That is, according to the present invention, by setting a peak interval at intervals of 1 second, the learning contents of the learning video can be grasped at the peak interval corresponding to the top 10% of the peak interval, It is possible to predict academic achievement.

이를 토대로, 본 발명은 학습자의 학업 성취를 향상시키기 위하여 강의 영상 설계 시에 적절히 활용할 수 있다. 다시 말해, 본 발명은 학습자의 집중이 특히 요구되는 내용에서는 교수자가 제스처를 취한다거나, 판서를 하도록 학습 동영상을 구성할 수 있다. 또한, 본 발명은 이미 제작된 학습 동영상에 대한 예상되는 학습자의 심리 상태에 따라, 추가적인 자료를 제시하거나, 교수 방법을 개선함으로써, 학습 동영상의 품질을 향상시키고, 이를 통한 학업 성취도를 향상시킬 수 있다.Based on this, the present invention can be appropriately utilized in designing lecture images to improve learner's academic achievement. In other words, the present invention can constitute a learning video in which a teacher takes a gesture or writes in a written form in a context in which a learner's concentration is particularly required. Further, according to the present invention, it is possible to improve the quality of the learning video and improve the academic achievement by providing additional data or improving the teaching method according to the expected learner's psychological state of the prepared learning video .

또한, 본 발명은 학습 동영상 내 특정 시점, 특정 영역에 기대되는 바람직한 시각 행동을 설정해두고, 이를 기준으로 학습자의 학습 과정을 평가, 성취 예측에 활용할 수 있다. 다시 말해, 본 발명은 집중이 필요한 부분에 학습자가 시선을 얼마나 고정했는지, 교수자의 지시 행동과 시선도약이 얼마나 일치했는지 등을 모니터링함으로써, 학습 과정을 평가, 성취 예측에 활용할 수 있다.Further, the present invention sets desirable visual behaviors to be expected in a specific time and specific area in a learning moving picture, and can use the learning process of the learner as evaluation and achievement prediction on the basis thereof. In other words, the present invention can utilize the learning process for evaluation and achievement prediction by monitoring how much the learner has fixed his / her gaze on the part where concentration is required, and how the instructional action of the instructor agrees with the gaze leap.

본 발명은 미리 제작된 학습 동영상을 기반으로 학습자들의 피크 구간에 의한 학습 성취를 파악함으로써, 제작자 또는 지도자의 의도에 따라 학습 진행 상황이 진행되지 않는 학습자들을 대상으로 학습 동영상 내 문제점을 파악하고, 이를 통해 추가로 학습 지도 방식을 유도하거나 또는 주의 환기를 통한 집중도를 높이기 위한 학습 동영상을 수정할 수 있다.The present invention grasps the learning achievement by the peak period of the learners based on the pre-produced learning video, thereby grasping the problem in the learning video for the learners whose learning progress does not progress according to the intention of the producer or the leader, You can also modify your learning videos to drive additional learning instructional methods or to increase your concentration through attentional ventilation.

더욱이, 본 발명은 학습 동영상의 체계에 따른 학습 집중도 및 학업 성취를 파악함으로써, 학습자의 학습 집중도에 따라 학습 동영상의 난이도를 조정하여 학습자의 학습 집중도에 맞는 평가 문제를 통한 학습 효과를 증진시킬 수 있다.Further, the present invention can improve the learning effect through the evaluation problem according to the learning concentration of the learner by adjusting the difficulty of the learning video according to the learning concentration of the learner by grasping the learning concentration and the learning achievement according to the system of the learning video .

도 7은 일실시예에 따른 학업 성취 예측 방법을 설명하기 위한 흐름도이다.7 is a flowchart for explaining a method of predicting an academic achievement according to an embodiment.

단계(701)에서 학업 성취 예측 장치는 학습 동영상을 시청하는 학습자의 시각 행동을 수집할 수 있다. 여기서, 학업 성취 예측 장치는 학습 동영상을 시청하는 학습자의 눈의 움직임, 동공의 변화 등에 대한 시각 행동을 수집할 수 있다.In step 701, the learning achievement prediction device may collect visual behaviors of the learner who watches the learning video. Here, the learning achievement predicting device can collect visual behaviors regarding the movement of the eyes of the learner watching the learning video, the change of the pupil, and the like.

단계(702)에서 학업 성취 예측 장치는 학습자의 시각 행동 별 시각 행동 데이터를 생성할 수 있다. 구체적으로, 학업 성취 예측 장치는 학습 동영상의 시간 흐름에 따라 제공되는 강의 화면 내 교수자의 지도 행동 또는 학습 자료 중 적어도 하나의 학습 자극에 의해 반응한 학습자의 시각 행동을 이용할 수 있다.In step 702, the learning achievement prediction device may generate visual behavior data for each learner's visual behavior. Specifically, the learning achievement prediction apparatus can utilize the visual behavior of the learner responding to at least one of the instructional instruction of the instructor in the lecture screen or the learning material provided according to the time stream of the learning video.

이 때, 학업 성취 예측 장치는 1) 학습자의 좌우 안구 운동의 지속시간으로 결정되는 시선 고정 빈도 및 시선 도약 빈도, 2) 학습자의 평균적인 학습 구간에서의 동공 지름에 기초한 좌우 동공의 크기, 3) 학습 동영상의 강의 화면 내 학습이 시선이 위치한 시점에서의 좌표값, 및 4) 원근의 변화를 고려한 학습자의 눈과 학습 동영상이 표시되는 화면과의 거리 중 적어도 하나의 시각 행동을 고려할 수 있다. 이 때, 좌우 동공의 크기는 상기 학습 동영상을 통해 제공되는 학습 자료의 제시 형태와 제시 방식에 의해 발생하는 학습자의 인지 부하 또는 정서 변화에 의해 결정될 수 있다.2) the pupil size based on the pupil diameter in the average learning segment of the learner; and 3) the size of the left and right pupils based on the pupil diameter in the average learning segment of the learner. 3) A coordinate value at the time of the lecture screen in the lecture screen of the learning video, and 4) a distance between the learner's eye considering the change of the perspective and the screen on which the learning video is displayed. At this time, the size of the left and right pupils can be determined by the presentation style of the learning data provided through the learning animation and the cognitive load or emotion change of the learner caused by the presentation method.

단계(703)에서 학업 성취 예측 장치는 시각 행동 데이터를 이용하여 학습자의 시각 행동 별 발생 빈도에 대한 그래프를 생성할 수 있다. 자세하게, 학업 성취 예측 장치는 학습 동영상의 강의 흐름을 기준으로 상기 시선 고정 빈도의 지속 시간, 시선 도약 빈도의 지속시간 및 좌우 동공의 크기에 대한 평균값 각각에 대응하는 그래프를 생성할 수 있다.In step 703, the learning achievement prediction device can generate a graph of the occurrence frequency of the learner's visual behavior using visual behavior data. In detail, the learning achievement prediction apparatus can generate a graph corresponding to each of the average values of the duration of the gaze fixation frequency, the duration of the gaze hopping frequency, and the size of the left and right pupils based on the lecture flow of the learning moving image.

단계(704)에서 학업 성취 예측 장치는 생성된 그래프를 이용하여 상기 학습 동영상의 전체 구간 내 발생 빈도에 따른 피크 구간을 설정할 수 있다. 여기서, 학업 성취 예측 장치는 그래프를 기준으로 상기 전체 구간 내 특정 시간대들을 설정하고, 특정 시간대들 각각에서의 시각 행동 별 발생 빈도가 높게 나타낸 지점을 각각의 피크 구간으로 설정할 수 있다.In step 704, the academic achievement prediction apparatus can set a peak period according to the occurrence frequency in the entire section of the learning moving image using the generated graph. Here, the academic achievement prediction apparatus may set specific time zones within the entire interval based on a graph, and may set a point indicating a high occurrence frequency of each of the specific time zones to each peak interval.

단계(705)에서 학업 성취 예측 장치는 설정된 피크 구간에서의 학습자의 시각 행동을 분석하여 상기 학습자의 학업 성취 정도를 예측할 수 있다.In step 705, the learning achievement prediction apparatus can predict the degree of achievement of the learner by analyzing the learner's visual behavior in the set peak period.

한편, 본 발명에 따른 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성되어 마그네틱 저장매체, 광학적 판독매체, 디지털 저장매체 등 다양한 기록 매체로도 구현될 수 있다.Meanwhile, the method according to the present invention may be embodied as a program that can be executed by a computer, and may be embodied as various recording media such as a magnetic storage medium, an optical reading medium, and a digital storage medium.

본 명세서에 설명된 각종 기술들의 구현들은 디지털 전자 회로조직으로, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어로, 또는 그들의 조합들로 구현될 수 있다. 구현들은 데이터 처리 장치, 예를 들어 프로그램가능 프로세서, 컴퓨터, 또는 다수의 컴퓨터들의 동작에 의한 처리를 위해, 또는 이 동작을 제어하기 위해, 컴퓨터 프로그램 제품, 즉 정보 캐리어, 예를 들어 기계 판독가능 저장 장치(컴퓨터 판독가능 매체) 또는 전파 신호에서 유형적으로 구체화된 컴퓨터 프로그램으로서 구현될 수 있다. 상술한 컴퓨터 프로그램(들)과 같은 컴퓨터 프로그램은 컴파일된 또는 인터프리트된 언어들을 포함하는 임의의 형태의 프로그래밍 언어로 기록될 수 있고, 독립형 프로그램으로서 또는 모듈, 구성요소, 서브루틴, 또는 컴퓨팅 환경에서의 사용에 적절한 다른 유닛으로서 포함하는 임의의 형태로 전개될 수 있다. 컴퓨터 프로그램은 하나의 사이트에서 하나의 컴퓨터 또는 다수의 컴퓨터들 상에서 처리되도록 또는 다수의 사이트들에 걸쳐 분배되고 통신 네트워크에 의해 상호 연결되도록 전개될 수 있다.Implementations of the various techniques described herein may be implemented in digital electronic circuitry, or in computer hardware, firmware, software, or combinations thereof. Implementations may be implemented in a computer program product, such as an information carrier, e.g., a machine readable storage device, such as a computer readable storage medium, for example, for processing by a data processing apparatus, Apparatus (computer readable medium) or as a computer program tangibly embodied in a propagation signal. A computer program, such as the computer program (s) described above, may be written in any form of programming language, including compiled or interpreted languages, and may be stored as a stand-alone program or in a module, component, subroutine, As other units suitable for use in the present invention. A computer program may be deployed to be processed on one computer or multiple computers at one site or distributed across multiple sites and interconnected by a communications network.

컴퓨터 프로그램의 처리에 적절한 프로세서들은 예로서, 범용 및 특수 목적 마이크로프로세서들 둘 다, 및 임의의 종류의 디지털 컴퓨터의 임의의 하나 이상의 프로세서들을 포함한다. 일반적으로, 프로세서는 판독 전용 메모리 또는 랜덤 액세스 메모리 또는 둘 다로부터 명령어들 및 데이터를 수신할 것이다. 컴퓨터의 요소들은 명령어들을 실행하는 적어도 하나의 프로세서 및 명령어들 및 데이터를 저장하는 하나 이상의 메모리 장치들을 포함할 수 있다. 일반적으로, 컴퓨터는 데이터를 저장하는 하나 이상의 대량 저장 장치들, 예를 들어 자기, 자기-광 디스크들, 또는 광 디스크들을 포함할 수 있거나, 이것들로부터 데이터를 수신하거나 이것들에 데이터를 송신하거나 또는 양쪽으로 되도록 결합될 수도 있다. 컴퓨터 프로그램 명령어들 및 데이터를 구체화하는데 적절한 정보 캐리어들은 예로서 반도체 메모리 장치들, 예를 들어, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 롬(ROM, Read Only Memory), 램(RAM, Random Access Memory), 플래시 메모리, EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 등을 포함한다. 프로세서 및 메모리는 특수 목적 논리 회로조직에 의해 보충되거나, 이에 포함될 수 있다.Processors suitable for processing a computer program include, by way of example, both general purpose and special purpose microprocessors, and any one or more processors of any kind of digital computer. Generally, a processor will receive instructions and data from a read-only memory or a random access memory or both. The elements of a computer may include at least one processor for executing instructions and one or more memory devices for storing instructions and data. Generally, a computer may include one or more mass storage devices for storing data, such as magnetic, magneto-optical disks, or optical disks, or may receive data from them, transmit data to them, . ≪ / RTI > Information carriers suitable for embodying computer program instructions and data include, for example, semiconductor memory devices, for example, magnetic media such as hard disks, floppy disks and magnetic tape, compact disk read only memory A magneto-optical medium such as a floppy disk, an optical disk such as a DVD (Digital Video Disk), a ROM (Read Only Memory), a RAM , Random Access Memory), a flash memory, an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and the like. The processor and memory may be supplemented or included by special purpose logic circuitry.

또한, 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용매체일 수 있고, 컴퓨터 저장매체 및 전송매체를 모두 포함할 수 있다.In addition, the computer-readable medium can be any available media that can be accessed by a computer, and can include both computer storage media and transmission media.

본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.While the specification contains a number of specific implementation details, it should be understood that they are not to be construed as limitations on the scope of any invention or claim, but rather on the description of features that may be specific to a particular embodiment of a particular invention Should be understood. Certain features described herein in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment may also be implemented in multiple embodiments, either individually or in any suitable subcombination. Further, although the features may operate in a particular combination and may be initially described as so claimed, one or more features from the claimed combination may in some cases be excluded from the combination, Or a variant of a subcombination.

마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 장치 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 장치들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징 될 수 있다는 점을 이해하여야 한다.Likewise, although the operations are depicted in the drawings in a particular order, it should be understood that such operations must be performed in that particular order or sequential order shown to achieve the desired result, or that all illustrated operations should be performed. In certain cases, multitasking and parallel processing may be advantageous. Also, the separation of the various device components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and devices will generally be integrated together into a single software product or packaged into multiple software products It should be understood.

한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.It should be noted that the embodiments of the present invention disclosed in the present specification and drawings are only illustrative of specific examples for the purpose of understanding and are not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

101: 학업 성취 예측 방법.
102: 사용자 단말
103; 학습 동영상
104: 교수자
105: 학습 자료
106: 학습자
107: 시각 행동
101: How to predict academic achievement.
102: user terminal
103; Learning videos
104: Instructor
105: Learning Resources
106: Learners
107: Visual behavior

Claims (12)

학습 동영상을 시청하는 학습자의 시각 행동을 수집하는 단계;
상기 학습자의 시각 행동 별 시각 행동 데이터를 생성하는 단계;
상기 시각 행동 데이터를 이용하여 학습자의 시각 행동 별 발생 빈도에 대한 그래프를 생성하는 단계;
상기 생성된 그래프를 이용하여 상기 학습 동영상의 전체 구간 내 발생 빈도에 따른 피크 구간을 설정하는 단계; 및
상기 설정된 피크 구간에서의 학습자의 시각 행동을 분석하여 상기 학습자의 학업 성취 정도를 예측하는 단계;
를 포함하는 학업 성취 예측 방법.
Collecting a visual activity of a learner watching a learning video;
Generating visual activity data for each of the learner's visual behaviors;
Generating a graph of an occurrence frequency of each learner's visual behavior using the visual behavior data;
Setting a peak interval according to an occurrence frequency in the entire section of the learning moving picture using the generated graph; And
Analyzing a visual activity of a learner in the set peak period and predicting a degree of academic achievement of the learner;
A method for predicting academic achievement.
제1항에 있어서,
상기 시각 행동 데이터를 생성하는 단계는,
상기 학습 동영상의 시간 흐름에 따라 제공되는 강의 화면 내 교수자의 지도 행동 또는 학습 자료 중 적어도 하나의 학습 자극에 의해 반응한 학습자의 시각 행동을 이용하는 학업 성취 예측 방법.
The method according to claim 1,
Wherein the step of generating the visual behavior data comprises:
And a visual behavior of the learner responding to at least one of the instructional instruction of the instructor in the lecture screen or the learning material provided according to the time flow of the learning video.
제1항에 있어서,
상기 시각 행동 데이터를 생성하는 단계는,
1) 학습자의 좌우 안구 운동의 지속시간으로 결정되는 시선 고정 빈도 및 시선 도약 빈도, 2) 학습자의 평균적인 학습 구간에서의 동공 지름에 기초한 좌우 동공의 크기, 3) 학습 동영상의 강의 화면 내 학습이 시선이 위치한 시점에서의 좌표값, 및 4) 원근의 변화를 고려한 학습자의 눈과 학습 동영상이 표시되는 화면과의 거리 중 적어도 하나의 시각 행동을 고려하는 학업 성취 예측 방법.
The method according to claim 1,
Wherein the step of generating the visual behavior data comprises:
2) the size of the left and right pupils based on the pupil diameter in the average learning segment of the learner; and 3) the learning on the screen of the lecture screen of the learning video. A coordinate value at the time the gaze is located, and 4) a distance between the learner's eye considering the change of perspective and the screen on which the learning video is displayed.
제3항에 있어서,
상기 좌우 동공의 크기는,
상기 학습 동영상을 통해 제공되는 학습 자료의 제시 형태와 제시 방식에 의해 발생하는 학습자의 인지 부하 또는 정서 변화에 의해 결정되는 학업 성취 예측 방법
The method of claim 3,
The size of the left and right pupils is,
The learning achievement prediction method determined by the learner's cognitive load or emotional change caused by the presentation style and the presentation style of the learning material provided through the learning video
제3항에 있어서,
상기 그래프를 생성하는 단계는,
상기 학습 동영상의 강의 흐름을 기준으로 상기 시선 고정 빈도의 지속 시간, 시선 도약 빈도의 지속시간 및 좌우 동공의 크기에 대한 평균값 각각에 대응하는 그래프를 생성하는 학업 성취 예측 방법.
The method of claim 3,
Wherein generating the graph comprises:
And generating a graph corresponding to each of the average values of the duration of the gaze fixation frequency, the duration of the gaze hopping frequency, and the size of the left and right pupils based on the stream of the learning moving image.
제1항에 있어서,
상기 피크 구간을 설정하는 단계는,
상기 그래프를 기준으로 상기 전체 구간 내 특정 시간대들을 설정하고, 특정 시간대들 각각에서의 시각 행동 별 발생 빈도가 높게 나타낸 지점을 각각의 피크 구간으로 설정하는 학업 성취 예측 방법.
The method according to claim 1,
Wherein the setting of the peak interval comprises:
And setting a specific time zone in the whole section based on the graph and setting a point showing a high occurrence frequency of each visual behavior in each of the specific time zones to each peak period.
학업 성취 예측 시스템에 있어서,
프로세서를 포함하고,
상기 프로세서는,
학습 동영상을 시청하는 학습자의 시각 행동을 수집하고,
상기 학습자의 시각 행동 별 시각 행동 데이터를 생성하고,
상기 시각 행동 데이터를 이용하여 학습자의 시각 행동 별 발생 빈도에 대한 그래프를 생성하고,
상기 생성된 그래프를 이용하여 상기 학습 동영상의 전체 구간 내 발생 빈도에 따른 피크 구간을 설정하고,
상기 설정된 피크 구간에서의 학습자의 시각 행동을 분석하여 상기 학습자의 학업 성취 정도를 예측하는 학업 성취 예측 시스템.
In the academic achievement prediction system,
A processor,
The processor comprising:
The visual activity of the learner who watches the learning video is collected,
Generates visual behavior data for each learner's visual behavior,
Generating a graph of occurrence frequency of each learner's visual behavior using the visual behavior data,
Setting a peak interval according to occurrence frequency in the entire section of the learning moving picture using the generated graph,
And analyzing a learner's visual behavior in the set peak period to predict the academic achievement level of the learner.
제7항에 있어서,
상기 프로세서는,
상기 학습 동영상의 시간 흐름에 따라 제공되는 강의 화면 내 교수자의 지도 행동 또는 학습 자료 중 적어도 하나의 학습 자극에 의해 반응한 학습자의 시각 행동을 이용하는 학업 성취 예측 시스템.
8. The method of claim 7,
The processor comprising:
And a visual behavior of the learner responding to at least one of the instructional instruction of the instructor in the lecture screen or the learning material provided according to the time flow of the learning video.
제7항에 있어서,
상기 프로세서는,
1) 학습자의 좌우 안구 운동의 지속시간으로 결정되는 시선 고정 빈도 및 시선 도약 빈도, 2) 학습자의 평균적인 학습 구간에서의 동공 지름에 기초한 좌우 동공의 크기, 3) 학습 동영상의 강의 화면 내 학습이 시선이 위치한 시점에서의 좌표값, 및 4) 원근의 변화를 고려한 학습자의 눈과 학습 동영상이 표시되는 화면과의 거리 중 적어도 하나의 시각 행동을 고려하는 학업 성취 예측 시스템.
8. The method of claim 7,
The processor comprising:
2) the size of the left and right pupils based on the pupil diameter in the average learning segment of the learner; and 3) the learning on the screen of the lecture screen of the learning video. A coordinate value at the time the gaze is located, and 4) a distance between the eye of the learner considering the change of the perspective and the screen on which the learning video is displayed.
제9항에 있어서,
상기 좌우 동공의 크기는,
상기 학습 동영상을 통해 제공되는 학습 자료의 제시 형태와 제시 방식에 의해 발생하는 학습자의 인지 부하 또는 정서 변화에 의해 결정되는 학업 성취 예측 시스템.
10. The method of claim 9,
The size of the left and right pupils is,
The learning achievement prediction system determined by the learner's cognitive load or emotional change caused by the presentation form and presentation method of the learning material provided through the learning video.
제9항에 있어서,
상기 프로세서는,
상기 학습 동영상의 강의 흐름을 기준으로 상기 시선 고정 빈도의 지속 시간, 시선 도약 빈도의 지속시간 및 좌우 동공의 크기에 대한 평균값 각각에 대응하는 그래프를 생성하는 학업 성취 예측 시스템.
10. The method of claim 9,
The processor comprising:
And generates a graph corresponding to each of the average values of the duration of the gaze fixation frequency, the duration of the gaze hopping frequency, and the size of the left and right pupils based on the lecture flow of the learning moving picture.
제7항에 있어서,
상기 프로세서는,
상기 그래프를 기준으로 상기 전체 구간 내 특정 시간대들을 설정하고, 특정 시간대들 각각에서의 시각 행동 별 발생 빈도가 높게 나타낸 지점을 각각의 피크 구간으로 설정하는 학업 성취 예측 시스템.
8. The method of claim 7,
The processor comprising:
Setting a specific time zone within the entire section based on the graph and setting a point showing a high occurrence frequency of each visual behavior in each of the specific time zones to each peak section.
KR1020170036062A 2017-03-22 2017-03-22 Learning achievement prediction method and system using visual behavior of learner watching to learning video KR20180107576A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170036062A KR20180107576A (en) 2017-03-22 2017-03-22 Learning achievement prediction method and system using visual behavior of learner watching to learning video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170036062A KR20180107576A (en) 2017-03-22 2017-03-22 Learning achievement prediction method and system using visual behavior of learner watching to learning video

Publications (1)

Publication Number Publication Date
KR20180107576A true KR20180107576A (en) 2018-10-02

Family

ID=63863758

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170036062A KR20180107576A (en) 2017-03-22 2017-03-22 Learning achievement prediction method and system using visual behavior of learner watching to learning video

Country Status (1)

Country Link
KR (1) KR20180107576A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110264008A (en) * 2019-06-24 2019-09-20 林子翀 A kind of behavior prediction monitoring system
WO2020235730A1 (en) * 2019-05-23 2020-11-26 이화여자대학교 산학협력단 Learning performance prediction method based on scan pattern of learner in video learning environment
KR20200137484A (en) * 2019-05-30 2020-12-09 이화여자대학교 산학협력단 Apparatus and method for predicting academic achievement using cognitive load indicator variables
KR102266476B1 (en) * 2021-01-12 2021-06-17 (주)이루미에듀테크 Method, device and system for improving ability of online learning using eye tracking technology
KR102266479B1 (en) * 2021-01-12 2021-06-17 (주)이루미에듀테크 Method, device and system for eye tracking for analyzing ability of online learning
KR102319328B1 (en) 2020-11-12 2021-10-29 이종우 Method of Evaluating Learning Attitudes Using Video Images of Non-face-to-face Learners, and Management Server Used Therein
CN113792577A (en) * 2021-07-29 2021-12-14 何泽仪 Method and system for detecting attention state of students in online class and storage medium
WO2022065575A1 (en) * 2020-09-25 2022-03-31 주식회사 비주얼캠프 Gaze-based contents education method using object recognition and system for executing the method
KR20220061384A (en) * 2020-11-06 2022-05-13 주식회사 쉬모스랩 Apparatus and method for detecting learners' participation in an untact online class
KR20220157587A (en) * 2021-05-21 2022-11-29 이화여자대학교 산학협력단 Method and Apparatus for Determining the Type of Cognitive Load
KR20220157643A (en) * 2021-05-21 2022-11-29 이화여자대학교 산학협력단 Problem-solving result prediction method for predicting problem-solving result using the learner's cognitive state, and computing apparatus that performs the method
KR20220157632A (en) * 2021-05-21 2022-11-29 이화여자대학교 산학협력단 Learner classification method for classifying learners using learner's gaze path, and a computing apparatus that performs the method
KR102511588B1 (en) 2022-02-22 2023-03-20 크로노그래프 주식회사 Apparatus for calculating untact learning concentraition

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020235730A1 (en) * 2019-05-23 2020-11-26 이화여자대학교 산학협력단 Learning performance prediction method based on scan pattern of learner in video learning environment
KR20200134751A (en) * 2019-05-23 2020-12-02 이화여자대학교 산학협력단 Learning performance prediction method based on learner's scan pattern in video learning environment
KR20200137484A (en) * 2019-05-30 2020-12-09 이화여자대학교 산학협력단 Apparatus and method for predicting academic achievement using cognitive load indicator variables
CN110264008A (en) * 2019-06-24 2019-09-20 林子翀 A kind of behavior prediction monitoring system
WO2022065575A1 (en) * 2020-09-25 2022-03-31 주식회사 비주얼캠프 Gaze-based contents education method using object recognition and system for executing the method
KR20220061384A (en) * 2020-11-06 2022-05-13 주식회사 쉬모스랩 Apparatus and method for detecting learners' participation in an untact online class
KR102319328B1 (en) 2020-11-12 2021-10-29 이종우 Method of Evaluating Learning Attitudes Using Video Images of Non-face-to-face Learners, and Management Server Used Therein
KR102266479B1 (en) * 2021-01-12 2021-06-17 (주)이루미에듀테크 Method, device and system for eye tracking for analyzing ability of online learning
KR102266476B1 (en) * 2021-01-12 2021-06-17 (주)이루미에듀테크 Method, device and system for improving ability of online learning using eye tracking technology
KR20220157587A (en) * 2021-05-21 2022-11-29 이화여자대학교 산학협력단 Method and Apparatus for Determining the Type of Cognitive Load
KR20220157643A (en) * 2021-05-21 2022-11-29 이화여자대학교 산학협력단 Problem-solving result prediction method for predicting problem-solving result using the learner's cognitive state, and computing apparatus that performs the method
KR20220157632A (en) * 2021-05-21 2022-11-29 이화여자대학교 산학협력단 Learner classification method for classifying learners using learner's gaze path, and a computing apparatus that performs the method
CN113792577A (en) * 2021-07-29 2021-12-14 何泽仪 Method and system for detecting attention state of students in online class and storage medium
KR102511588B1 (en) 2022-02-22 2023-03-20 크로노그래프 주식회사 Apparatus for calculating untact learning concentraition

Similar Documents

Publication Publication Date Title
KR20180107576A (en) Learning achievement prediction method and system using visual behavior of learner watching to learning video
Parong et al. Learning about history in immersive virtual reality: does immersion facilitate learning?
Chang et al. How attention level and cognitive style affect learning in a MOOC environment? Based on the perspective of brainwave analysis
McBride et al. Cognitive psychology: Theory, process, and methodology
Kok et al. Before your very eyes: The value and limitations of eye tracking in medical education
Webster et al. Emotions and emotion regulation in undergraduate studying: Examining students’ reports from a self-regulated learning perspective
Derakshan et al. Anxiety, inhibition, efficiency, and effectiveness: An investigation using the antisaccade task
Szafir et al. ARTFul: adaptive review technology for flipped learning
Shadiev et al. A review study on eye-tracking technology usage in immersive virtual reality learning environments
Ciman et al. Serious games to support cognitive development in children with cerebral visual impairment
KR20160109913A (en) Learning content provision system for performing customized learning feedback method
Hsu et al. Peer assessment of webpage design: behavioral sequential analysis based on eye tracking evidence
KR20190021752A (en) Method and apparatus of cognitive load decision using the prior knowledge and psychophysiological responses
Giannakos et al. Sensing-based analytics in education: The rise of multimodal data enabled learning systems
Thomas et al. Integrating technology to enhance athlete development: A literature review
Charoenpit et al. Exploring emotion in an e-learning system using eye tracking
KR20180111216A (en) Cognitive load measurement method and system using pupil dilation of learner
Olugbade et al. What cognitive and affective states should technology monitor to support learning?
JP6824105B2 (en) Information processing equipment, information processing methods and information processing programs
Anisimov et al. OkenReader: ML-based classification of the reading patterns using an Apple iPad
Šola et al. Enhancing the motivation and learning performance in an online classroom with the use of neuromarketing
Kuklick et al. Developing physical educators’ knowledge of opaque and transparent technologies and its implications for student learning
Coelho et al. Enhancing Learning Experiences Through Artificial Intelligence: Classroom 5.0
Zhao et al. Regulating Distance to the Screen While Engaging in Difficult Tasks.
Cai et al. Modeling Cognitive Load and Affect to Support Adaptive Online Learning

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
E601 Decision to refuse application
E801 Decision on dismissal of amendment
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2018101003470; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20180820

Effective date: 20191030