KR20220061384A - Apparatus and method for detecting learners' participation in an untact online class - Google Patents

Apparatus and method for detecting learners' participation in an untact online class Download PDF

Info

Publication number
KR20220061384A
KR20220061384A KR1020200147291A KR20200147291A KR20220061384A KR 20220061384 A KR20220061384 A KR 20220061384A KR 1020200147291 A KR1020200147291 A KR 1020200147291A KR 20200147291 A KR20200147291 A KR 20200147291A KR 20220061384 A KR20220061384 A KR 20220061384A
Authority
KR
South Korea
Prior art keywords
class
gaze
learners
face
learner
Prior art date
Application number
KR1020200147291A
Other languages
Korean (ko)
Other versions
KR102515987B1 (en
Inventor
황성우
이귀영
방아람
Original Assignee
주식회사 쉬모스랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 쉬모스랩 filed Critical 주식회사 쉬모스랩
Priority to KR1020200147291A priority Critical patent/KR102515987B1/en
Publication of KR20220061384A publication Critical patent/KR20220061384A/en
Application granted granted Critical
Publication of KR102515987B1 publication Critical patent/KR102515987B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Educational Administration (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Educational Technology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Emergency Management (AREA)
  • Operations Research (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

Disclosed are an apparatus and method for detecting the participation of a learner in a non-face-to-face online class to detect whether a learner taking a non-face-to-face online class is participating in accordance with the progress of the online class with a personal electronic device equipped with a gaze tracking device. According to one embodiment of the present invention, the apparatus comprises: a data collection unit receiving gaze tracking data acquired by a gaze tracking device from a personal electronic device of each learner participating in an online class; a calculation unit using the gaze tracking data collected by the data collection unit to calculate a gaze fixation point which is a location where each gaze of the learners is fixed; and a class participation state determination unit using the distribution of the gaze fixation points of the learners calculated by the calculation unit to determine whether each of the learners participates in the class.

Description

학습자의 비대면 온라인수업 참여 탐지 장치 및 방법{Apparatus and method for detecting learners' participation in an untact online class}{Apparatus and method for detecting learners' participation in an untact online class}

본 발명은 학습자의 수업 참여 여부를 탐지하는 기술에 관한 것으로, 시선추적(eye tracking) 데이터를 활용하여 학습자가 비대면 온라인수업에 참여하고 있는지를 탐지하고 또한 탐지된 결과를 활용하는 기술에 관한 것이다. The present invention relates to a technology for detecting whether a learner participates in a class, and to a technology for detecting whether a learner is participating in a non-face-to-face online class using eye tracking data and using the detected result .

최근 코로나 19로 인하여, 온라인 개학이 실시되고 또한 비대면 산업에 대한 관심이 증가하고 있다. 이에 따라, 에듀테크, 즉 교육과 정보통신(ICT) 기술이 접목된 교육 산업으로의 트렌드 변화가 일어나고 있으며, 비대면 온라인수업은 학교뿐만 아니라 다양한 국공립 교육 기관과 사설 교육 기관 등에서 진행되고 있거나 또는 추진되고 있다.Due to the recent Corona 19, online schools are being opened and interest in the non-face-to-face industry is increasing. Accordingly, there is a change in the trend towards the education industry in which education and information and communication (ICT) technology are grafted, in other words, Edu-Tech is taking place, and non-face-to-face online classes are being conducted or promoted not only in schools, but also in various national and public educational institutions and private educational institutions. is becoming

현행의 비대면 온라인수업은, 교사의 감시나 감독하에 있지 않은 학습자의 자발적인 참여를 전제하고 진행되고 있으며, 교사가 수업 상황에 대한 통제가 불가능한 경우가 많다. 뿐만 아니라, 학습자는 온라인수업 중이라도 스마트 폰이나 게임기 또는 컴퓨터 등을 사용할 수 있는 환경에 노출되어 있기 쉬운데, 이 경우에 학습자는 자신도 모르게 다른 것을 하게 되어 학업에 집중하기 힘든 경험을 하게 되기도 한다. 그 결과, 비대면 온라인수업에서는 학습자들의 학습 참여율이 낮아지는 문제가 대두되고 있다.Current non-face-to-face online classes are conducted on the premise of the voluntary participation of learners who are not under the supervision or supervision of the teacher, and in many cases the teacher cannot control the class situation. In addition, learners are easily exposed to environments where they can use smartphones, game consoles, or computers even during online classes. As a result, in non-face-to-face online classes, the problem that learners' participation in learning is lowered is emerging.

이러한 문제를 해결하기 위하여, 비대면 온라인수업에서 학습자들이 정상적으로 참여하고 있는지를 탐지하기 위하여 다양한 기술에 제안되고 있다. To solve this problem, various technologies have been proposed to detect whether learners are normally participating in non-face-to-face online classes.

일례로, 학습자의 화면에 특정 응답을 입력할 수 있는 인터페이스가 표시되도록 하고, 이 인터페이스에 소정의 시간 내에 정확한 응답이 입력되는지에 따라 학습 참여 여부를 판단하는 방법이 있다. 하지만, 이러한 방법은 해당 인터페이스가 표시되는 시간에만 참여 여부를 탐지하는 것으로, 교사에 의하여 수업 상황에 대한 통제가 이루어진다고 보기 어렵다. 또한, 수업 콘텐츠 상에 표시되는 인터페이스로 인하여 온라인수업 진행에 방해가 되기도 하며, 경우에 따라서는 수업 콘텐츠의 내용과 무관한 인터페이스가 표시되기도 한다.As an example, there is a method of displaying an interface for inputting a specific response on a learner's screen and determining whether or not to participate in learning according to whether an accurate response is inputted to the interface within a predetermined time. However, in this method, participation is detected only when the corresponding interface is displayed, and it is difficult to see that the teacher controls the class situation. In addition, the interface displayed on the class content interferes with the progress of the online class, and in some cases, an interface unrelated to the content of the class content is displayed.

다른 예로, 시선 추적 기술을 활용하여 학습자가 비대면 온라인수업에 정상적으로 참여하고 있는지를 판단하는 방법도 있다. 예를 들어, 한국공개특허 제10-2014-0146750호, "시선 기반 교육 콘텐츠 실행 시스템"(특허문헌 1)에서는, 학습자의 시선정보에 기초하여 주시하는 지점을 산출하고, 산출된 학습자의 시선 위치가 교육 콘텐츠 영상(예컨대, 콘텐츠가 디스플레이되고 있는 화면)인지에 따라서 수업 콘텐츠 영상의 계속적인 진행 여부를 제어하는 기술이 개시되어 있다. 하지만, 이 방법은 학습자가 항상 해당 콘텐츠를 주시하고 있어야만 수업에 정상적으로 참여하고 있는 것으로 판단하므로, 학습자가 진행되고 있는 수업의 흐름에 맞게 참여하고 있는지를 정확하게 판단하기 어렵다. 예컨대, 상기 특허문헌 1의 방법에 의하면, 학습자가 교재를 보거나 또는 메모 등의 필기는 하면서 콘텐츠를 주시하지 않는 동안에는 수업에 참여하지 않는 것으로 판단하거나 또는 교재를 보고 있는 대부분의 학습자와 달리 혼자서만 콘텐츠를 보고 있는 경우에는, 대부분의 학습자는 수업에 참여하지 않지만 혼자서만 수업에 참여하는 것으로 판단할 수 있다. 또한, 학습자가 전체 영상 중에서 해당 시점에 강의되고 있지 부분(콘텐츠가 표시되는 영역)이 아닌 다른 부분을 응시하고 있는 경우라도, 해당 학습자가 수업에 참여하고 있는 것으로 판단할 수도 있다.As another example, there is a method of determining whether a learner is normally participating in a non-face-to-face online class using eye tracking technology. For example, in Korean Patent Application Laid-Open No. 10-2014-0146750, "Gaze-based educational content execution system" (Patent Document 1), the point of gaze is calculated based on the gaze information of the learner, and the calculated gaze position of the learner is Disclosed is a technology for controlling whether or not to continue the progress of the instructional content image according to whether the educational content image (eg, a screen on which the content is displayed). However, in this method, it is difficult to accurately determine whether the learner is participating in the current class flow because it is judged that the learner is participating in the class normally only when the learner is always watching the corresponding content. For example, according to the method of Patent Document 1, it is determined that the learner does not participate in the class while not watching the content while viewing the textbook or taking notes while taking notes, or unlike most learners who are viewing the textbook, the content is viewed alone. In the case of watching, it can be judged that most learners do not participate in class but participate in class alone. In addition, even if the learner is gazing at a part other than the part that is not being lectured (the area where the content is displayed) at the time of the entire video, it may be determined that the learner is participating in the class.

또 다른 예로, 카메라로 촬영한 영상을 이용하여 학습자가 비대면 온라인수업에 정상적으로 참여하고 있는지를 판단하는 방법도 있다. 예를 들어, 한국공개특허 제10-2020-0050281호, "인공지능 기반 증강 현실과 가상 현실을 이용한 학습 지원 시스템 및 방법"(특허문헌 2)에서는, 교사의 음성 정보와 함께 교사 시점에 의한 영상과, 학생의 음성 정보와 함께 학생 시점에 의한 영상을 이용하여 생성된 가상 현실 기반 학습 영상에 기초하여 학생의 학습 상태를 판단하는 기술이 개시되어 있다. 하지만, 이 방법은 교사의 영상과 학생 영상을 각각 획득하여 합쳐서 가상 현실 기반 학습 영상을 생성해야 하므로 데이터 처리양이 많다. 뿐만 아니라, 수업 중에 수집되는 학생의 모션 정보를 기초로 학생의 학습 상태에 대한 정보를 산출한다고 개시되어 있을 뿐, 학생의 학습 상태를 판단하는 구체적인 기준에 대해서는 개시하고 있지 않다. As another example, there is a method of determining whether a learner is normally participating in a non-face-to-face online class using an image captured by a camera. For example, in Korean Patent Application Laid-Open No. 10-2020-0050281, "Learning support system and method using artificial intelligence-based augmented reality and virtual reality" (Patent Document 2), the video from the teacher's point of view together with the teacher's voice information And, a technology for judging a student's learning state based on a virtual reality-based learning image generated using an image from a student's point of view together with the student's voice information is disclosed. However, this method requires a large amount of data processing because it is necessary to generate a virtual reality-based learning image by acquiring the teacher's image and the student image, respectively, and combining them. In addition, it is disclosed that information on the student's learning state is calculated based on the student's motion information collected during class, but does not disclose specific standards for judging the student's learning state.

그리고 시선 움직임과 관련하여 온라인 학습 참여 여부를 감지하는 연구로서 비특허문헌 1과 비특허문헌 2가 있으며, 학습자들의 학습 참여 행태에 관한 연구로서 비특허문헌 3 내지 비특허문헌 5가 있다. In addition, there are Non-Patent Document 1 and Non-Patent Document 2 as a study for detecting participation in online learning in relation to gaze movement, and Non-Patent Document 3 to Non-Patent Document 5 as a study on the learning participation behavior of learners.

한국공개특허 제10-2014-0146750호Korean Patent Publication No. 10-2014-0146750 한국공개특허 제10-2020-0050281호Korean Patent Publication No. 10-2020-0050281

S. Aslan, Z. Cataltepe, I. Diner, O. Dundar, A.A. Esme, R. Ferens, M. Yener, Learner Engagement Measurement and Classification in 1:1 Learning (International Conference on Machine Learning and Applications, Detroit, 2014) S. Aslan, Z. Cataltepe, I. Diner, O. Dundar, A. A. Esme, R. Ferens, M. Yener, Learner Engagement Measurement and Classification in 1:1 Learning (International Conference on Machine Learning and Applications, Detroit, 2014) L.B. Krithika, P.G.G. Lakshmi, Student emotion recognition system (SERS) for e-learning improvement based on learner concentration metric. Procedia Computer Science 85, 767-776 (2016) L.B. Krithika, P.G.G. Lakshmi, Student emotion recognition system (SERS) for e-learning improvement based on learner concentration metric. Procedia Computer Science 85, 767-776 (2016) N. Bosch, Detecting Student Engagement: Human Versus Machine (Conference on User Modeling Adaptation and Personalization, Halifax, 2016) N. Bosch, Detecting Student Engagement: Human Versus Machine (Conference on User Modeling Adaptation and Personalization, Halifax, 2016) N. Bosch, S.K. D'Mello, R.S. Baker, J. Ocumpaugh, V. Shute, M. Ventura, W. Zhao, Detecting Student Emotions in ComputerEnabled Classrooms (International Joint Conference on Artificial Intelligence, New York, 2016) N. Bosch, S. K. D'Mello, R.S. Baker, J. Ocumpaugh, V. Shute, M. Ventura, W. Zhao, Detecting Student Emotions in ComputerEnabled Classrooms (International Joint Conference on Artificial Intelligence, New York, 2016) J.A. Fredrick, P.C. Blumenfeld, A.H. Paris, School engagement: Potential of the concept, state of the evidence. Rev. Educ. Res. 74(1), 59-109 (2004) J.A. Fredrick, P.C. Blumenfeld, A. H. Paris, School engagement: Potential of the concept, state of the evidence. Rev. Educ. Res. 74(1), 59-109 (2004)

본 발명이 해결하고자 하는 하나의 과제는, 비대면 실시간 온라인수업을 실시하는 상황에서, 학습자의 시선추적 데이터를 활용하여 학습자의 학습 참여 상태를 보다 정확하게 판단할 수 있는, 학습자의 비대면 온라인수업 참여 탐지 장치 및 방법을 제공하는 것이다.One problem to be solved by the present invention is that learners' participation in non-face-to-face online classes can be more accurately determined by using the learner's eye tracking data in a situation where non-face-to-face real-time online classes are conducted. To provide a detection device and method.

본 발명이 해결하고자 하는 다른 하나의 과제는, 비대면 실시간 온라인수업을 실시하는 상황에서, 수업의 진행 상황에 맞게 학습자의 학습 참여 상태를 적응적으로 판단할 수 있는, 학습자의 비대면 온라인수업 참여 탐지 장치 및 방법을 제공하는 것이다.Another problem to be solved by the present invention is the learner's participation in the non-face-to-face online class, in which the learner's learning participation status can be adaptively determined according to the progress of the class in a situation where the non-face-to-face real-time online class is conducted. To provide a detection device and method.

상기한 과제를 해결하기 위한 본 발명의 일 실시예는, 시선 추적 장치를 구비한 개인용 전자 기기로 비대면 온라인수업을 받는 학습자가 상기 온라인수업의 진행에 맞춰서 참여하고 있는지를 탐지하기 위한 장치로서, 상기 시선 추적 장치로 획득한 시선추적 데이터를 상기 온라인수업에 참여하는 학습자들 각각의 상기 개인용 전자 기기로부터 수신하는 데이터 수집부, 상기 데이터 수집부가 수집한 상기 시선추적 데이터를 이용하여, 상기 학습자들 각각의 시선이 고정된 위치인 시선 고정점을 산출하는 산출부 및 상기 산출부가 산출한 상기 학습자들의 상기 시선 고정점의 분포를 이용하여, 상기 학습자들 각각의 수업 참여 여부를 판단하는 수업 참여 상태 판단부를 포함한다. An embodiment of the present invention for solving the above problem is a device for detecting whether a learner receiving a non-face-to-face online class with a personal electronic device equipped with an eye tracking device is participating in accordance with the progress of the online class, A data collection unit that receives the eye tracking data obtained by the eye tracking device from the personal electronic device of each of the learners participating in the online class, and each of the learners using the eye tracking data collected by the data collection unit A calculation unit that calculates a gaze fixation point, which is a fixed position of the gaze of , and a class participation state determination unit that determines whether each of the learners participate in a class by using the distribution of the gaze fixation points of the learners calculated by the calculation unit include

상기 실시예의 일 측면에 의하면, 상기 수업 참여 상태 판단부는, 상기 학습자들 각각의 시선 고정점 중에서 가장 많은 학습자가 해당되는 시선 고정점을 주시 영역으로 결정한 다음, 특정 학습자의 시선 고정점이 상기 주시 영역에 포함되는지에 기초하여 해당 학습자의 수업 참여 여부를 판단할 수 있다. According to one aspect of the embodiment, the class participation state determination unit determines the gaze fixation point corresponding to the most learners among the gaze fixation points of each of the learners as the gaze area, and then the gaze fixation point of the specific learner is in the gaze area Based on the inclusion, it is possible to determine whether the learner participates in the class.

상기 실시예의 다른 측면에 의하면, 상기 산출부는 상기 학습자들 각각의 상기 시선 고정점에서의 고정시간도 함께 산출하고, 상기 수업 참여 상태 판단부는 상기 시선 고정점과 상기 고정시간에 의한 시선 움직임 정보를 이용하여, 상기 학습자들 각각의 수업 참여 여부를 판단한다. 이 경우에, 상기 수업 참여 상태 판단부는, 수업 과목의 종류 및 실행 시간을 포함하는 상기 온라인수업의 콘텐츠 정보도 같이 이용하여, 상기 학습자들 각각의 수업 참여 여부를 판단할 수 있다. According to another aspect of the embodiment, the calculation unit also calculates the fixed time at the gaze fixation point of each of the learners together, and the class participation state determination unit uses the gaze movement information by the gaze fixation point and the fixation time. Thus, it is determined whether each of the learners participates in the class. In this case, the class participation state determination unit may determine whether each of the learners participates in the class by using the content information of the online class including the type of class and the execution time as well.

그리고 상기 수업 참여 상태 판단부는 비지도 학습 인공지능 기반의 온라인수업 참여도 탐지 모델을 이용하여 구현될 수 있다. And the class participation state determination unit may be implemented using an online class participation detection model based on unsupervised learning artificial intelligence.

상기 실시예의 또 다른 측면에 의하면, 상기 수업 참여 상태 판단부가 수업에 참여하고 있지 않은 것으로 판단한 학습자의 상기 개인용 전자 기기로 알림 메시지를 전송하기 위한 피드백부를 더 포함할 수 있다. According to another aspect of the embodiment, the class participation state determination unit may further include a feedback unit for transmitting a notification message to the personal electronic device of the learner who is determined not to participate in the class.

상기한 과제를 해결하기 위한 본 발명의 다른 실시예는 시선 추적 장치를 구비한 개인용 전자 기기로 비대면 온라인수업을 받는 학습자가 상기 온라인수업의 진행에 맞춰서 참여하고 있는지를 탐지하기 위한 방법으로서, 상기 시선 추적 장치로 획득한 시선추적 데이터를 상기 온라인수업에 참여하는 학습자들 각각의 상기 개인용 전자 기기로부터 수신하는 단계, 상기 수집 단계에서 수집한 상기 시선추적 데이터를 이용하여, 상기 학습자들 각각의 시선이 고정된 위치인 시선 고정점을 산출하는 단계 및 상기 산출 단계에서 산출한 상기 학습자들의 상기 시선 고정점의 분포를 이용하여, 상기 학습자들 각각의 수업 참여 여부를 판단하는 단계를 포함한다. Another embodiment of the present invention for solving the above problem is a method for detecting whether a learner receiving a non-face-to-face online class with a personal electronic device equipped with an eye tracking device is participating in accordance with the progress of the online class, Receiving the eye tracking data obtained with the eye tracking device from the personal electronic device of each of the learners participating in the online class, using the eye tracking data collected in the collecting step, the gaze of each of the learners Calculating a fixed gaze fixation point, which is a fixed position, and determining whether each of the learners participates in a class by using the distribution of the gaze fixation points of the learners calculated in the calculating step.

전술한 본 발명의 실시예에 의하면, 학습자의 시선추적 데이터에 기초하여 산출한 학습자들 각각의 시선의 고정점이나 해당 고정점에서의 고정시간 등을 포함한 시선의 움직임을 활용하기 때문에, 학습자의 학습 참여 상태를 보다 정확하게 판단할 수 있다. 특히, 특정 시간 범위에서 학습자들의 시선 고정점의 분포를 이용하여, 일부 시선 고정점이 대부분의 학습자와 상이하거나 또는 시선의 움직임이 통상적인 범위를 벗어나는지를 기준으로 각 학습자의 학습 참여 상태를 판단하므로, 보다 정확하고 적응적인 판단이 가능하다. 또한, 이러한 판단 결과를 이용하여 학생이나 교사에게 적절한 피드백을 제공함으로써, 비대면 온라인수업에 대한 학습자들의 참여율을 향상시킬 수 있다. According to the above-described embodiment of the present invention, since the movement of the gaze including the fixing point of each gaze of the learners calculated based on the gaze tracking data of the learner or the fixing time at the fixing point is utilized, the learner's learning Participation status can be judged more accurately. In particular, by using the distribution of learners' gaze fixation points in a specific time range, each learner's learning participation status is determined based on whether some gaze fixation points are different from most learners or their gaze movement is outside the normal range, More accurate and adaptive judgment is possible. In addition, by providing appropriate feedback to students or teachers using the judgment results, it is possible to improve the participation rate of learners in non-face-to-face online classes.

도 1은 본 발명의 일 실시예에 따른 비대면 온라인수업 참여 탐지 장치의 개략적인 구성을 모식적으로 보여 주는 블록도이다.
도 2는 시선 좌표값을 이용하여 시선의 고정 위치를 산출하는 방법의 일례를 설명하기 위한 모식적인 도면이다.
도 3은 특정 학습자의 시선의 움직임 패턴을 도식적으로 도시한 도면의 일례이다.
1 is a block diagram schematically showing the schematic configuration of a non-face-to-face online class participation detection device according to an embodiment of the present invention.
2 is a schematic diagram for explaining an example of a method of calculating a fixed position of a gaze using a gaze coordinate value.
3 is an example of a diagram schematically illustrating a movement pattern of a specific learner's gaze.

이하, 도면을 참조하여 본 발명의 바람직한 실시형태 및 실시예를 설명한다. 다만, 이하의 실시형태 및 실시예는 본 발명의 바람직한 구성을 예시적으로 나타내는 것일 뿐이며, 본 발명의 범위는 이들 구성에 한정되지 않는다. 그리고 이하의 설명에 있어서, 장치의 하드웨어 구성 및 소프트웨어 구성, 처리 흐름, 제조조건, 크기, 재질, 형상 등은, 특히 특정적인 기재가 없는 한, 본 발명의 범위를 이것으로 한정하려는 취지인 것은 아니다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments and examples of the present invention will be described with reference to the drawings. However, the following embodiments and examples are merely illustrative of preferred configurations of the present invention, and the scope of the present invention is not limited to these configurations. And in the following description, the hardware configuration and software configuration of the device, processing flow, manufacturing conditions, size, material, shape, etc. are not intended to limit the scope of the present invention to these unless specifically stated otherwise. .

본 발명에 의하면, 비대면 온라인수업에 참여하는 학습자들의 시선추적 데이터를 기반으로, 각 학습자가 온라인수업에 정상적으로 참여하고 있는지를 판단한다. 통상적으로 학습자의 시선의 상태(고정 여부, 고정점의 위치, 고정시간, 움직임 패턴 등)는 시각적 운동 뿐만 아니라 문제의 해결을 위한 선택적이고 능동적인 지각을 의미하기 때문에, 시선의 위치나 움직임을 통하여 학습자의 인지 과정을 이해할 수 있는 정보를 얻을 수 있다. 특히, 시선이 응시하는 지점과 함께 해당 지점에서의 고정시간을 알면, 어떤 학습 내용에 얼마나 오랫동안 주의를 기울이는지, 읽지 않고 넘어가는지와 같은 정보를 실시간으로 추론할 수가 있다. According to the present invention, based on eye tracking data of learners participating in the non-face-to-face online class, it is determined whether each learner is normally participating in the online class. In general, the state of the learner's gaze (whether fixed or not, the position of the fixed point, fixed time, movement pattern, etc.) means not only visual movement but also selective and active perception for problem-solving. It is possible to obtain information that can understand the learner's cognitive process. In particular, if you know the fixed time at the point along with the point at which the gaze gazes, information such as how long to pay attention to which learning content and whether to skip reading can be inferred in real time.

다만, 콘텐츠의 내용이나 강사(교사)의 수업 방식 등에 따라서, 학습자가 응시해야 하는 지점(시선 고정점)이나 응시시간(고정시간)은 달라질 수 있다. 예를 들어, 강사가 콘텐츠에 포함된 내용에 대해서 설명할 경우에는 학습자는 디스플레이의 해당 콘텐츠 부분을 응시해야 하지만, 강사가 교재를 참조하여 설명할 경우나 또는 학습자에게 문제 풀이나 노트 필기를 시킬 경우 등에는, 학습자는 디스플레이되는 콘텐츠가 아닌 책상 위에 있는 교재나 노트를 응시해야, 수업의 진행에 맞춰서 참여하고 있다고 볼 수 있다. 즉, 디스플레이 화면을 응시하고 있더라도 강사가 설명하는 부분과는 상관없는 다른 위치의 콘텐츠를 응시하거나, 반대로 교재나 노트를 응시해야 함에도 불구하고 디스플레이 화면이나 제3의 위치를 응시하는 경우에는, 학습자가 온라인수업의 진행에 맞춰서 참여하고 있다고 보기 어렵다.However, depending on the content of the content or the teaching method of the instructor (teacher), the point (fixed point of gaze) or time (fixed time) at which the learner should take the test may vary. For example, when the instructor explains what is included in the content, the learner must stare at the corresponding content part of the display, but when the instructor explains with reference to the textbook, or when the learner solves problems or takes notes On the other hand, the learner has to gaze at the textbook or notes on the desk rather than the displayed content, so that it can be seen that the learner is participating in accordance with the progress of the class. That is, even if the learner is gazing at the display screen, if the learner is gazing at content from a different location that is not related to the part being explained by the instructor, or if the learner is gazing at the display screen or a third location despite having to gaze at the textbook or notes, the learner It is difficult to see that they are participating in the online class.

그런데, 소정의 시간 동안 지속되는 온라인수업은, 수업의 진행 정도, 강사의 수업 방식, 디스플레이되는 콘텐츠의 내용 등에 따라서, 학습자가 응시해야 하는 위치(시선의 고정점)와 함께 고정시간은 달라질 수 있다. 만일 녹화된 강의 영상으로 온라인수업을 진행하는 경우에는, 콘텐츠 내용이나 강의 내용을 참조하여 특정 시간에 학습자가 응시해야 하는 위치를 미리 결정하는 것이 가능할 수도 있지만, 비대면 온라인수업을 실시간으로 진행할 경우에는, 온라인수업이 진행되는 동안 학습자가 응시해야 하는 위치는 유동적이어서, 특정 시간에 학습자의 시선의 고정점과 함께 고정시간을 미리 결정해두는 것은 거의 불가능하다. However, in the online class lasting for a predetermined time, the fixed time and the location where the learner should gaze (fixed point of gaze) may vary depending on the progress of the class, the instructor's class method, the content of displayed content, etc. . If an online class is conducted with recorded lecture video, it may be possible to determine in advance where the learner should take the exam at a specific time by referring to the contents or lecture contents. However, when conducting non-face-to-face online classes in real time , while the online class is in progress, the position where the learner should gaze is flexible, so it is almost impossible to predetermine the fixed time together with the fixed point of the learner's gaze at a specific time.

후술하는 본 발명의 실시예에서는, 비대면 실시간 온라인수업이 갖는 이러한 특성을 고려하여, 특정 시간에 온라인수업에 참여하는 학습자들 중에서 수업의 진행에 맞춰서 참여하고 있는 학습자가 통상적으로 다수를 차지할 것이라는 전제하에, 다수의 시선 움직임에 대응하는 학습자는 수업에 참여하고 있는 것으로 판단하지만, 다수의 시선 움직임에 벗어나는 학습자는 수업에 참여하고 있지 않은 것으로 판단하는 방식으로, 학습자의 수업 참여 상태를 기본적으로 판단한다. In the embodiment of the present invention, which will be described later, in consideration of these characteristics of non-face-to-face real-time online classes, it is premised that learners who participate in accordance with the progress of the class will usually occupy the majority among learners participating in the online class at a specific time. In this way, it is judged that the learner who responds to multiple gaze movements is participating in the class, but the learner who deviates from the multiple gaze movements is judged not to be participating in the class. .

보다 구체적으로, 본 발명의 실시예에서는, 시선의 고정점에서의 학습자의 분포(즉, 해당 고정점에 몇 명의 학습자가 해당되는지)를 이용하여, 특정 학습자가 온라인수업에 참여하고 있는지를 판단한다. 예컨대, 소정 집단(예컨대, 30명)의 학습자 중에서 절반 이상, 바람직하게는 2/3 이상의 학습자가 같은 지점을 응시하는 경우에, 해당 지점을 응시하는 학습자는 수업에 정상적으로 참여하는 것으로 판단하지만, 다른 지점을 응시하는 학습자는 수업에 참여하지 않은 것으로 판단할 수 있다. 또는, 실시 형태에 따라서는, 판단 기준으로 해당 지점에 대한 응시시간(시선의 고정시간)도 판단 기준으로 추가로 활용할 수도 있다. 또는, 복수의 시선의 고정점, 각 고정점에서의 고정시간 및 이의 경시적 변화 등을 모두 고려한 시선의 움직임을 판단 기준으로 활용할 수 있다. More specifically, in an embodiment of the present invention, it is determined whether a specific learner is participating in an online class by using the distribution of learners at the fixed point of gaze (that is, how many learners correspond to the fixed point). . For example, if more than half, preferably 2/3 or more, of the learners of a predetermined group (eg, 30 people) stare at the same point, it is determined that the learner staring at the point is normally participating in the class, but A learner staring at a branch may be judged not to have participated in the class. Alternatively, depending on the embodiment, the gaze time (fixed time of the gaze) for the corresponding point as the judgment criterion may be additionally used as the judgment criterion. Alternatively, the movement of the gaze in consideration of the fixed points of the plurality of gazes, the fixing time at each fixing point, and the temporal change thereof, etc. may be used as a criterion for determination.

다만, 이러한 판단에 있어서는, 학습 콘텐츠의 내용이나 강사(교사)의 수업 방식 등과 같은 것도 추가로 고려될 수 있다. 그리고 이러한 판단은 인공지능을 기반으로 한 소정의 모델(예컨대, 수업 참여도 탐지 모델)을 이용하여 수행할 수 있다. 후술하는 본 발명의 실시예에 의하면, 수업 참여도 탐지 모델은 비지도 학습 기반으로 비슷한 상황의 상태들을 클러스터링하고, 새로운 경험에 적응해서 클러스터의 수정(업데이트)를 반복하여 분류된 최적을 값을 얻는 방법으로 강화학습을 수행하는 것일 수 있다.However, in this determination, the content of the learning content or the teaching method of the instructor (teacher) may be additionally considered. And this determination may be performed using a predetermined model (eg, class participation detection model) based on artificial intelligence. According to an embodiment of the present invention, which will be described later, the class participation detection model clusters states of similar situations based on unsupervised learning and repeats the modification (update) of the cluster by adapting to a new experience to obtain a classified optimal value. It may be to perform reinforcement learning as a method.

이하, 첨부 도면을 참조하여, 본 발명의 바람직한 실시예에 대해서 설명한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 비대면 온라인수업 참여 탐지 장치의 개략적인 구성을 모식적으로 보여 주는 블록도이다. 도 1을 참조하면, 비대면 온라인수업 참여 탐지 장치(100, 이하, '탐지 장치'라 함)는 데이터 수집부(110), 산출부(120) 및 수업 참여 상태 판단부(130)을 포함한다. 그리고 탐지 장치(100)는 피드백부(140)를 더 포함할 수 있다. 1 is a block diagram schematically showing the schematic configuration of a non-face-to-face online class participation detection device according to an embodiment of the present invention. Referring to FIG. 1 , the non-face-to-face online class participation detection device 100 (hereinafter, referred to as 'detection device') includes a data collection unit 110 , a calculation unit 120 , and a class participation state determination unit 130 . . In addition, the detection apparatus 100 may further include a feedback unit 140 .

이러한 탐지 장치(100)는, 예컨대 컴퓨터 프로세서에서 실행가능한 컴퓨터용 프로그램 및 이 프로그램이 저장된 기록매체(즉, 컴퓨터 판독가능한 기록매체)를 통하여 구현될 수 있다. 컴퓨터용 프로그램이 저장되는 기록매체의 종류에는 특별한 제한이 없으며, 해당 매체에 영구적으로 저장되어 있거나 또는 일시적으로 저장될 수도 있다. 그리고 탐지 장치(100)를 구성하는 개별 구성요소들은 각각의 기능에 기초하여 논리적으로 구분한 것으로서, 각각 별개의 기능 모듈로 구현되거나 또는 둘 이상의 구성요소들이 하나의 기능 모듈로 구현될 수도 있다.The detection apparatus 100 may be implemented through, for example, a computer program executable by a computer processor and a recording medium storing the program (ie, a computer readable recording medium). There is no particular limitation on the type of recording medium in which the computer program is stored, and it may be permanently or temporarily stored in the corresponding medium. In addition, individual components constituting the detection apparatus 100 are logically divided based on their respective functions, and may be implemented as separate function modules, or two or more components may be implemented as a single function module.

그리고 탐지 장치(100)는 각 구성요소로 입력되는 데이터 및/또는 각 구성요소에서의 처리 결과로 생성되는 데이터들을 저장하기 위한 데이터베이스(미도시)를 더 포함할 수 있다. 또는, 탐지 장치(100)는 이를 실행하는 컴퓨터 프로세서가 설치되어 있는 컴퓨터의 저장 수단을 데이터베이스로 이용할 수도 있다. 따라서 도 1에서 화살표로 표시된 데이터의 흐름은 단지 본 발명의 기술적 특징을 직관적으로 이해하기 위한 것으로서, 실질적으로는 각 구성요소와 데이터베이스 사이에서 일어나는 데이터의 입출력을 통하여, 도 1에 화살표로 표시된 데이터의 흐름이 구현될 수 있다.In addition, the detection apparatus 100 may further include a database (not shown) for storing data input to each component and/or data generated as a result of processing in each component. Alternatively, the detection apparatus 100 may use as a database a storage means of a computer in which a computer processor that executes this is installed. Therefore, the flow of data indicated by the arrows in FIG. 1 is only for intuitively understanding the technical features of the present invention, and actually through the input/output of data that occurs between each component and the database, the data indicated by the arrows in FIG. A flow can be implemented.

도 1의 탐지 장치(100)는 소정의 수업 참여 인원(N명, 예컨대 N은 30, 100 등과 같이 동일한 온라인수업에 참여하는 소정 집단의 인원수이다)이 특정 온라인수업(예컨대, 콘텐츠 1 등)의 진행에 맞춰 참여하고 있는지, 즉 수업 참여 상태를 탐지하기 위한 장치이다. 여기서, 학습자들은 각각 모니터와 일체화되거나 또는 모니터에 연결될 수 있는 퍼스널 컴퓨터, 노트북 컴퓨터, 테블릿 컴퓨터, 스마트 폰 등과 같은 개인용 전자 기기를 이용하여 비대면 온라인수업에 참여한다. 그리고 개인용 전자 기기에는 하나 이상의 카메라와 함께 시선 추적 장치(예컨대, 개인용 전자 기기에 설치될 수 있는 어플리케이션일 수 있다)가 설치되어 있다. The detection device 100 of FIG. 1 indicates that a predetermined number of class participants (N, for example, N is the number of members of a predetermined group participating in the same online class such as 30, 100, etc.) of a specific online class (eg, content 1, etc.) It is a device for detecting whether you are participating according to the progress, that is, the state of participation in the class. Here, learners participate in non-face-to-face online classes by using personal electronic devices such as personal computers, notebook computers, tablet computers, smart phones, etc. that can be integrated with or connected to the monitor, respectively. In addition, an eye tracking device (eg, an application that can be installed in the personal electronic device) is installed in the personal electronic device together with one or more cameras.

시선 추적 장치는 개인용 전자 기기의 카메라로 획득한 영상으로부터 학습자의 시선이 향하는 지점의 좌표(이하, '시선 좌표')를 산출할 수 있는 수단이다. 시선 추적 장치는, 예컨대 학습자의 개인용 전자 기기의 디스플레이를 주시하고 있는 학습자 시선의 위치(즉, 주시되고 있는 디스플레이 상의 시선 위치)를 좌표값으로 출력할 수 있다. 그리고 학습자의 시선이 디스플레이가 아닌 다른 곳을 향하는 경우에는, 디스플레이를 기준으로 한 상대적인 위치를 좌표값으로 출력할 수 있다.The gaze tracking device is a means capable of calculating coordinates (hereinafter, 'gay coordinates') of a point to which a learner's gaze is directed from an image acquired by a camera of a personal electronic device. The gaze tracking apparatus may output, for example, the position of the learner's gaze (ie, the gaze position on the gazed display), which is gazing at the display of the learner's personal electronic device, as a coordinate value. In addition, when the learner's gaze is directed to a place other than the display, a relative position with respect to the display may be output as a coordinate value.

본 발명의 실시예에 의하면, 시선 추적 장치의 종류나 이의 시선 추적 방법에는 특별한 제한이 없으며, 카메라 영상으로부터 학습자의 시선 좌표를 출력으로 생성할 수 있는 수단이면 된다. 시선 추적 장치는, 예를 들면 덴마크의 IT University에서 배포하는 ITU Gaze Tracker일 수 있다. ITU Gaze Tracker는 시선 추적에 동공 및 각막광 추적을 이용하는 것으로, 저비용의 아이트레킹 시스템 구축을 위한 오픈소스 프로젝트로 개발된 시선 추적 프로그램이다. 하지만, 이것은 예시적인 것으로, 현재 상용화되어 사용되고 있는 다른 종류의 시선 추적 장치이거나 또는 시선 추적을 위하여 추후에 새롭게 개발되어 사용되는 보다 개선된 장치이어도 된다.According to the embodiment of the present invention, there is no particular limitation on the type of the gaze tracking device or the gaze tracking method thereof, and any means capable of generating the gaze coordinates of the learner from the camera image as an output is sufficient. The gaze tracking device may be, for example, ITU Gaze Tracker distributed by IT University in Denmark. ITU Gaze Tracker is a gaze tracking program developed as an open source project for building a low-cost eye tracking system that uses pupil and corneal light tracking for gaze tracking. However, this is an example, and may be another type of gaze tracking device that is currently commercialized and used, or a more improved device that is newly developed and used later for gaze tracking.

데이터 수집부(110)는 온라인수업에 참여하는 N명의 학습자 각각에 대한 시선추적 데이터를 수신한다. 보다 구체적으로, 데이터 수집부(110)는 N명의 학습자 각각의 개인용 전자 기기에 설치되어 있는 시선 추적 장치로 획득한 시선추적 데이터를 개인용 전자 기기로부터 수신한다. 여기서, 시선추적 데이터는 시선 추적 장치가 획득한 학습자의 시선 위치에 대한 경시적인 좌표값들의 집합을 가리킨다. 즉, 시선추적 데이터는 소정의 시간 간격으로 측정된 시선 위치에 대한 일련의 좌표값들을 가리키는데, 측정 시간 간격의 크기에는 특별한 제한이 없다. 또한, 시간 간격이 온라인 수업의 진행되는 동안에 항상 일정할 필요도 없으며, 수업 진행 상황에 따라 변동될 수도 있다.The data collection unit 110 receives eye tracking data for each of the N learners participating in the online class. More specifically, the data collection unit 110 receives, from the personal electronic device, the eye tracking data acquired by the eye tracking device installed in the personal electronic device of each of the N learners. Here, the eye tracking data refers to a set of temporal coordinate values for the gaze position of the learner obtained by the gaze tracking device. That is, the eye tracking data indicates a series of coordinate values for the gaze position measured at a predetermined time interval, and there is no particular limitation on the size of the measurement time interval. In addition, the time interval does not always need to be constant during the course of the online class, and may be changed according to the progress of the class.

산출부(120)는 데이터 수집부(120)가 수집한 시선추적 데이터를 이용하여 학습자 각각의 시선이 고정된 위치인 시선 고정점을 산출한다. 이것은 시선의 위치를 통하여 학습자가 콘텐츠를 주시하고 있는지 및/또는 학습자가 콘텐츠의 어떤 부분을 주시하고 있는지 등과 같이 학습자가 학습하고 있는 영역을 파악하기 위한 것이다. 본 실시예의 일 측면에 의하면, 산출부(120)는 시선추적 데이터에 포함되어 있는 시선 좌표값이, 소정의 시간 동안(예컨대, 시간 연속적인 소정 개수의 시선 좌표값)에 소정의 영역 이내에 포함되어 있는 경우에, 해당 영역을 시선 고정점으로 결정할 수 있다. The calculation unit 120 calculates a gaze fixation point, which is a position at which each learner's gaze is fixed, by using the gaze tracking data collected by the data collection unit 120 . This is to identify the area in which the learner is learning, such as whether the learner is watching the content and/or what part of the content, etc., through the position of the gaze. According to one aspect of the present embodiment, the calculator 120 includes the gaze coordinate values included in the gaze tracking data within a predetermined area for a predetermined time (eg, a predetermined number of time-continuous gaze coordinate values). If there is, the corresponding area may be determined as the gaze fixation point.

도 2는 시선 좌표값을 이용하여 시선의 고정 위치를 산출하는 방법의 일례를 설명하기 위한 모식적인 도면이다. 도 2에서 숫자 ① ~ ⑭는 데이터 수집부(110)가 순차적으로 수집한 시선 고정점의 위치를 가리킨다.2 is a schematic diagram for explaining an example of a method of calculating a fixed position of a gaze using a gaze coordinate value. In FIG. 2 , numbers ① to ⑭ indicate positions of gaze fixation points sequentially collected by the data collection unit 110 .

도 2를 참조하면, 우선 직사각형의 디스플레이 내에서 소정 크기(예컨대, 30×30 픽셀 크기)의 정사각형에 4개의 연속적인 시선 좌표값(① ~ ④)이 포함되는 경우에, 해당 영역을 시선 고정점으로 결정한다. 여기서, 4개는 예시적인 것이며, 그 갯수는 달라질 수 있다. 그리고 이후의 시선 좌표값(⑤ ~ ⑭)이 해당 시선 고정점을 벗어난 새로운 위치인 경우에, 현재 시선 고정점의 위치를 포함하는 확장 영역(예컨대, 50×50 픽셀 크기)에 시선 좌표값(⑤ ~ ⑦, ⑩)이 포함되면, 이들 새로운 위치는 현재 시선 고정점에 병합되어 확장 영역이 새로운 시선 고정점이 된다. 반면, 현재 시선 고정점의 위치를 포함하는 확장 영역(예컨대, 50×50 픽셀 크기)에 시선 좌표값(⑧, ⑨, ⑪ ~ ⑭)이 포함되지 않으면, 이들 새로운 위치는 무시(⑧, ⑨)하거나 또는 연속된 4개의 시선 고정점이 소정 크기, 즉 30×30 픽셀 크기의 새로운 정사각형 내에 위치하는 경우에는, 이 새로운 정사각형을 새로운 시선 고정점을 위한 기준(⑪ ~ ⑭)으로 활용한다.Referring to FIG. 2 , first, when four consecutive gaze coordinate values (① to ④) are included in a square of a predetermined size (eg, 30×30 pixel size) in a rectangular display, the corresponding area is defined as a gaze fixation point. to decide Here, four are exemplary, and the number may vary. And when the subsequent gaze coordinate values (⑤ to ⑭) are new positions outside the corresponding gaze fixation point, the gaze coordinate values (⑤ ~ ⑦, ⑩), these new positions are merged into the current gaze anchor point, and the extension area becomes the new gaze anchor point. On the other hand, if the gaze coordinate values (⑧, ⑨, ⑪ ~ ⑭) are not included in the extended area (eg, 50×50 pixel size) including the position of the current gaze fixation point, these new positions are ignored (⑧, ⑨) Alternatively, when four consecutive eye fixation points are located within a new square of a predetermined size, that is, 30×30 pixels, this new square is used as a reference (⑪ to ⑭) for a new eye fixation point.

본 실시예의 일 측면에 의하면, 산출부(120)는 데이터 수집부(120)가 수집한 시선추적 데이터를 이용하여 각 시선 고정점에서의 고정 시간도 함께 산출할 수도 있다. 고정 시간은 학습자가 해당 시선 고정점(해당 영역의 콘텐츠)을 주시한 시간을 나타내는 것으로, 학습자의 주의 정도나 학습 상태 등을 파악하는데 활용될 수 있다. According to an aspect of the present embodiment, the calculator 120 may also calculate the fixation time at each gaze fixation point by using the eye tracking data collected by the data collection unit 120 . The fixed time indicates the time the learner looked at the corresponding gaze fixation point (content in the corresponding area), and it can be used to grasp the learner's attention level or learning state.

또한, 고정 시간은 시선의 움직임 패턴을 파악하는데도 도움이 된다. 도 3은 특정 학습자의 시선의 움직임 패턴을 도식적으로 도시한 도면의 일례이다. 도 3을 참조하면, 시선의 움직임 패턴을 보이기 위하여, 각 시선 고정점에서의 시선의 고정시간은 원의 크기로 도시되어 있다. 즉, 원의 크기가 클수록 고정시간은 길어진다. In addition, the fixation time helps to understand the movement pattern of the gaze. 3 is an example of a diagram schematically illustrating a movement pattern of a specific learner's gaze. Referring to FIG. 3 , in order to show the movement pattern of the gaze, the fixing time of the gaze at each gaze fixation point is shown in the size of a circle. That is, the larger the size of the circle, the longer the fixing time.

이러한 시선의 움직임 패턴을 이용하는 것은, 시선 정보 중에서 고정점의 수와 고정시간이 학습자의 학습 정도 및 인지 부하와 깊은 상관 관계를 보이고 있다는 것을 이용하는 것이다. 따라서 시선의 움직임 패턴을 이용하면, 학습자의 학습 상태를 파악하는 요소로 활용할 수 있으며, 이를 통하여 콘텐츠의 해당 영역에 대한 학습자의 시각적 주의 정도를 파악할 수가 있다. Using this gaze movement pattern is to use the fact that the number of fixation points and the fixation time among gaze information show a deep correlation with the learner's learning degree and cognitive load. Therefore, if the movement pattern of the gaze is used, it can be used as an element to grasp the learning state of the learner, and through this, the degree of the learner's visual attention to the corresponding area of the content can be grasped.

수업 참여 상태 판단부(130)는 산출부(120)가 산출한 학습자들의 시선 고정점의 분포를 이용하여, 학습자들 각각이 수업의 진행에 맞춰서 정상적으로 참여하고 있는지를 판단한다. The class participation state determination unit 130 determines whether each of the learners is normally participating in accordance with the progress of the class by using the distribution of the fixed gaze points of the learners calculated by the calculation unit 120 .

여기서, '학습자들의 시선 고정점의 분포'란 임의의 시간에 얻어지는 각 시선 고정점에서의 학습자의 수'를 가리킨다. 보다 구체적으로, 산출부(120)는 특정 시간에 N명의 학습자 각각에 대하여 시선 고정점을 산출한다. 이 때, N명의 학습자 각각의 시선 고정점은 일부 또는 전부가 중복되기도 하고, 일부 학습자의 시선 고정점은 다른 학습자와는 중복되지 않을 수도 있다. 여기서, '학습자들의 시선 고정점의 분포'는 산출부(120)에서 얻어지는 시선 고정점들 각각에 몇 명의 학습자가 해당되는지를 가리키는 통계 데이터이다.Here, 'distribution of learners' gaze fixation points' refers to the number of learners at each gaze fixation point obtained at an arbitrary time. More specifically, the calculator 120 calculates a gaze fixation point for each of the N learners at a specific time. In this case, some or all of the gaze fixation points of each of the N learners may overlap, and the gaze fixation points of some learners may not overlap with other learners. Here, the 'distribution of the gaze fixation points of the learners' is statistical data indicating how many learners correspond to each of the gaze fixation points obtained by the calculator 120 .

일례로, 수업 참여 상태 판단부(130)는, 소정 집단의 학습자(예컨대, N명의 학습자) 중에서 특정 영역에 시선 고정점이 해당되는 학습자가 상대적으로 많은 경우에, 이 영역을 주시 영역으로 결정한 다음, 각 학습자의 시선 고정점이 주시 영역에 해당되는지에 기초하여, 해당 학습자의 수업 참여 상태를 판단할 수 있다. 즉, 특정 학습자의 시선 고정점이 주시 영역에 해당될 경우에는 수업에 정상적으로 참여하고 있는 것으로 판단하지만, 시선 고정점이 주시 영역에 해당되지 않는 경우에는 수업에 정상적으로 참여하지 않는 것으로 판단할 수 있다. 이 경우에, 시선 고정점이 산출되지 않는 학습자도 수업에 정상적으로 참여하지 않는 것으로 판단할 수 있으나, 이것은 단지 예시적인 것이다.As an example, the class participation state determination unit 130 determines that this area is a gaze area when there are relatively many learners whose gaze fixation point corresponds to a specific area among a group of learners (eg, N learners); Based on whether the gaze fixation point of each learner corresponds to the gaze region, the class participation state of the corresponding learner may be determined. That is, when the gaze fixation point of a specific learner falls under the gaze area, it is determined that the learner is normally participating in the class, but when the gaze fixation point does not correspond to the gaze area, it can be determined that the learner does not normally participate in the class. In this case, it may be determined that a learner whose gaze fixation point is not calculated does not normally participate in the class, but this is only an example.

본 발명의 실시예에 의하면, 주시 영역을 결정하기 위하여 몇 명의 학습자가 해당 영역이 시선 고정점이 되어야 하는지에는 특별한 제한이 없다. 예를 들어, 전체 N명의 학습자 중에서 절반 이상의 학습자가 같은 영역을 응시(즉, 시선 고정점이 일치 또는 중첩)하거나 또는 바람직하게는 2/3 이상 또는 3/4 이상의 학습자가 같은 영역을 응시하는 경우에, 해당 영역을 주시 영역으로 결정할 수 있다. According to an embodiment of the present invention, there is no particular limitation on how many learners the corresponding area should be the gaze fixation point in order to determine the gaze area. For example, if more than half of the total N learners stare at the same area (ie, the gaze fixation points coincide or overlap), or preferably 2/3 or more or 3/4 or more of the learners stare at the same area , the corresponding area may be determined as the gaze area.

다른 예로, 수업 참여 상태 판단부(130)는 학습자들의 시선 고정점의 분포와 함께 해당 시선 고정점에서의 고정시간도 수업 참여 상태의 판단에 이용할 수도 있다. 이 경우에, 수업 참여 상태 판단부(130)는 각 학습자의 시선의 고정점이 주시 영역에 해당되는지는 물론 주시 영역에 시선이 고정되는 고정시간을 종합적으로 고려하여, 해당 학생의 수업 참여 상태를 판단할 수도 있다.As another example, the class participation state determination unit 130 may use the distribution of the learners' gaze fixation points and the fixed time at the corresponding gaze fixation points to determine the class participation status. In this case, the class participation state determination unit 130 determines the class participation state of the student by comprehensively considering whether the fixed point of each learner's gaze corresponds to the gaze region, as well as the fixed time for which the gaze is fixed in the gaze region. You may.

또 다른 예로, 수업 참여 상태 판단부(130)는 학습자들의 시선 고정점의 분포와 함께, 해당 시선 고정점에서의 고정시간 및 이의 경시적 변화도 수업 참여 상태의 판단에 이용할 수도 있다. 이 경우에, 수업 참여 상태 판단부(130)는 각 학습자의 시선의 고정점이 주시 영역에 해당되는지, 주시 영역에 시선이 고정되는 고정시간 및 시선 고정점의 변화 등과 같은 학습자의 시선의 움직임을 고려하여, 해당 학생의 수업 참여 상태를 판단할 수도 있다.As another example, the class participation state determination unit 130 may use, along with the distribution of the learner's gaze fixation points, the fixed time at the corresponding gaze fixation point and its change over time to determine the class participation status. In this case, the class participation state determination unit 130 considers the movement of the learner's gaze, such as whether the fixed point of each learner's gaze corresponds to the gaze region, the fixation time at which the gaze is fixed in the gaze region, and the change of the gaze fixation point. Thus, it is possible to determine the student's class participation status.

본 실시예의 일 측면에 의하면, 수업 참여 상태 판단부(130)는 학습자의 수업 참여 상태를 판단하기 위하여, 화면에 표출되는 온라인수업 콘텐츠 정보를 함께 이용할 수도 있다. 이를 위하여, 수업 참여 상태 판단부(130)는 온라인수업에 사용되는 콘텐츠에 대한 콘텐츠 정보를 외부로부터 수신하거나 또는 화면에 표출되는 데이터로부터 콘텐츠 정보를 수집할 수도 있다. 이러한 콘텐츠 정보는 과목, 실행(강의) 시간, 콘텐츠 아이디 등일 수 있으며, 여기에 한정되지 않는다. 그리고 하나의 화면에 여러 개의 콘텐츠가 혼합되어 구성된 경우에는, 화면의 개별 영역(학습 영역) 단위로 각각의 콘텐츠 정보를 수집할 수도 있다. 이에 의하면, 학습자의 수업 참여 상태를 판단함에 있어서, 콘텐츠 정보도 함께 고려함으로써, 수업 과목의 종류나 학령 등에 맞춰서 보다 적응적으로 수업 참여 상태를 판단하는 것이 가능하다.According to one aspect of the present embodiment, the class participation state determination unit 130 may also use the online class content information displayed on the screen to determine the class participation state of the learner. To this end, the class participation state determination unit 130 may receive content information about content used in an online class from the outside or collect content information from data displayed on the screen. Such content information may be a subject, execution (lecture) time, content ID, etc., but is not limited thereto. In addition, when a plurality of contents are mixed on one screen, information on each content may be collected in units of individual areas (learning areas) of the screen. Accordingly, in determining the class participation state of the learner, by considering the content information together, it is possible to more adaptively determine the class participation state according to the type of class subject, school age, or the like.

이러한 수업 상태 참여 판단부(130)는 비지도 학습 인공지능 기반의 온라인 수업 참여도 탐지 모델을 이용하여 구현될 수도 있다. 이에 의하면, 수업 상태 참여 판단에 인공지능 기술을 활용하므로 보다 효과적이고 정확한 판단이 가능하다. 그리고 비지도 학습을 이용하기 때문에, 인공지능의 학습을 위하여 상당히 많은 양의 학습 데이터를 미리 준비할 필요도 없을 뿐만 아니라 초기화하기 위한 사전 지식이 필요 없고, 유사한 상태들의 중심값만을 저장하므로 데이터의 크기도 작다. 또한, 실제 수행된 판단 자료를 가지고 해당 모델을 업데이트할 수 있기 때문에, 실제 사용을 계속함에 따라 보다 정확한 판단이 가능하다.The class state participation determination unit 130 may be implemented using an online class participation detection model based on unsupervised learning artificial intelligence. According to this, more effective and accurate judgment is possible because AI technology is used to judge class status participation. And, since unsupervised learning is used, there is no need to prepare a considerable amount of training data in advance for artificial intelligence learning, and no prior knowledge for initialization is required. also small In addition, since the corresponding model can be updated with the actually performed judgment data, more accurate judgment is possible as the actual use continues.

비지도 학습 인공지능 기반의 온라인 수업 참여도 탐지 모델을 구축하기 위하여, 우선 비지도 학습 기반 수업 참여도 맵을 생성한다. 수업 참여도 맵은 비지도 학습을 이용하여 비대면 온라인수업에 참여하는 학습자들의 다양한 학습 참여 행태를 생성해낼 수 있는 핵심 알고리즘이다. 이를 위하여, 우선 비지도 학습 기반으로 수업 참여도 패턴을 생성하는데, SOM(Self-Organizing Map), GAN(Generative Adversarial Networks) 등과 같은 비지도 학습 알고리즘을 이용할 수 있다. 이에 의하면, 우선 획득된 데이터들로부터 후보 변수에 대한 특징값을 추출한 다음, 추출한 특징값을 각각의 수업 과목 분류별 비대면 온라인 수업 참여 행태에 따라 클러스터링하여 수업 참여도 맵을 생성할 수 있다. 이에 의하면, 데이터베이스 생성 비용을 줄일 수 있다.To construct an online class participation detection model based on unsupervised learning artificial intelligence, first, an unsupervised learning-based class participation map is created. The class participation map is a key algorithm that can generate various learning participation behaviors of learners participating in non-face-to-face online classes using unsupervised learning. To this end, first, a class participation pattern is generated based on unsupervised learning, and unsupervised learning algorithms such as Self-Organizing Map (SOM) and Generative Adversarial Networks (GAN) can be used. Accordingly, it is possible to generate a class participation map by first extracting feature values for candidate variables from the acquired data, and then clustering the extracted feature values according to the non-face-to-face online class participation behavior for each class subject classification. Accordingly, it is possible to reduce the cost of creating a database.

특징 추출 단계에서는 시선 고정점의 위치, 시선의 고정시간, 콘텐츠 응시 빈도, 시선 고정 여부 등 수집된 데이터로부터 획득한 후보 변수에 대하여 특징값을 추출하는데, 이 경우에 수업 과목 분류를 토대로 각각의 특징값을 추출할 수 있다. 이 때, 산출된 측정값들은 최대값과 최소값의 비율이 서로 다르고 또한 그 값이 매우 클 수 있기 때문에 [-1, 1] 또는 [0, 1]의 범위로 정규화한다. 이에 의하여, 정규화된 측정값들은 최대값과 최소값의 비율이 표준화되고 또한 해당 범위를 벗어나는 측정값은 오류로 판별할 수 있어서, 데이터 노이즈 제거에 도움이 된다. In the feature extraction step, feature values are extracted from the candidate variables obtained from the collected data, such as the location of the gaze fixation point, the gaze fixation time, the content gaze frequency, and whether the gaze is fixed. value can be extracted. At this time, the calculated measured values are normalized to a range of [-1, 1] or [0, 1] because the ratio of the maximum value and the minimum value is different from each other and the value may be very large. Accordingly, in the normalized measured values, the ratio of the maximum value to the minimum value is standardized, and the measured value out of the corresponding range can be determined as an error, which helps to remove data noise.

그리고 특징값들의 중복 제거 및 차원 축소 과정이 수행된다. 보다 구체적으로, 특징들 중에는 시선 움직임 특징에 관련이 없거나 또는 서로 상관성이 높은 특징들이 혼재되어 있을 수 있기 때문에, 선택된 후보 변수(특징)의 중복을 제거함으로써 차원을 축소한다. 이 때, 복수의 특징 중에서 핵심 특징을 추출하기 위해, 주성분 분석(Pricipal Component Analysis, PCA) 등과 같은 차원 축소 알고리즘을 활용하거나 또는 주성분 분석과 특징 선택 알고리즘을 조합할 수도 있다. Then, the process of removing duplicates of the feature values and reducing the dimension is performed. More specifically, since features that are not related to the gaze movement feature or highly correlated with each other may be mixed among the features, the dimension is reduced by removing duplicates of the selected candidate variables (features). In this case, in order to extract a core feature from among the plurality of features, a dimension reduction algorithm such as principal component analysis (PCA) may be used, or a principal component analysis and a feature selection algorithm may be combined.

그리고 SOM이나 GAN을 포함하는 비지도 학습 알고리즘을 이용하여, 추출된 특징값을 각각의 수업과목 분류별 비대면 온라인수업 참여 행태에 따라 클러스터링하여 '비지도 학습 기반 수업 참여도 맵'을 생성하여 강화 학습을 수행한다. 강화 학습을 하는 동안, 여러 에피소드들을 경험해야 하는데, 목표 상태는 한 에피소드의 끝으로 다음 상태로 전이되지 않기 때문에, 클러스터링된 다른 상태와 같이 다룰 수 없으므로, 목표 상태를 중심으로 갖는 클러스터를 추가하여, '비지도 학습 기반 수업 참여도 맵'을 구성하는 노드의 수는 "클러스터의 수×가능한 행동의 수 + 1"이 된다. 강화 학습에 의하여 기존에 생성된 비지도 학습 기반 수업 참여도 맵과의 비교를 통해 해당 모델을 계속 업데이트함으로써 판단의 정확도를 높일 수 있다. And, using an unsupervised learning algorithm including SOM or GAN, the extracted feature values are clustered according to the non-face-to-face online class participation behavior for each class class, and an 'unsupervised learning-based class participation map' is created for reinforcement learning. carry out During reinforcement learning, several episodes must be experienced, and since the target state does not transition to the next state at the end of one episode, it cannot be treated like other clustered states, so by adding a cluster centered on the goal state, The number of nodes constituting the 'unsupervised learning-based class participation map' becomes "the number of clusters × the number of possible actions + 1". By continuously updating the model through comparison with the previously generated unsupervised learning-based class participation map by reinforcement learning, it is possible to increase the accuracy of judgment.

피드백부(140)는 수업 참여 상태 판단부(130)의 판단 결과에 기초하여, 학습자들에게 알림 메시지 등을 피드백을 제공한다. 예를 들어, 피드백부(140)는 수업 참여 상태 판단부(130)가 수업에 참여하지 않고 있는 판단한 학습자에게만 주의 기울임 경고, 현재 상태, 페널티 정보 등의 내용이 포함된 알림 메시지를 전송할 수 있다. 이 경우, 알림 메시지는 해당 학습자가 온라인 수업용으로 사용하고 있는 개인용 전자 기기로 전송되어서 화면에 팝업 형태로 표시되거나 또는 해당 학습자의 스마트 폰과 같은 휴대 단말로 전송될 수도 있다. 실시 형태에 따라서는, 피드백부(140)는 학습자 개개인에게 뿐만 아니라 교사(강사)나 학부모 등에게도 알림 메시지와 같은 수업 참여 상태 판단부(130)의 판단 결과를 소정의 메시지 형태로 전송할 수 있다. The feedback unit 140 provides feedback, such as a notification message, to learners based on the determination result of the class participation state determination unit 130 . For example, the feedback unit 140 may transmit a notification message including contents such as an attention warning, current status, and penalty information only to learners determined by the class participation status determination unit 130 not to participate in the class. In this case, the notification message may be transmitted to a personal electronic device used by the learner for online class and displayed in a pop-up form on the screen or may be transmitted to a mobile terminal such as a smart phone of the learner. Depending on the embodiment, the feedback unit 140 may transmit the determination result of the class participation status determination unit 130 such as a notification message not only to individual learners but also to teachers (instructors) or parents in the form of a predetermined message.

이상의 설명은 실시예에 불과할 뿐이며 이에 의하여 한정되는 것으로 해석되어서는 안된다. 본 발명의 기술 사상은 후술하는 특허청구범위에 기재된 발명에 의해서만 특정되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다. 따라서 전술한 실시예가 다양한 형태로 변형되어 구현될 수 있다는 것은 통상의 기술자에게 자명하다.The above description is merely an example and should not be construed as being limited thereto. The technical idea of the present invention should be specified only by the invention described in the claims to be described later, and all technical ideas within an equivalent range should be interpreted as being included in the scope of the present invention. Therefore, it is apparent to those skilled in the art that the above-described embodiment can be modified and implemented in various forms.

Claims (7)

시선 추적 장치를 구비한 개인용 전자 기기로 비대면 온라인수업을 받는 학습자가 상기 온라인수업의 진행에 맞춰서 참여하고 있는지를 탐지하기 위한 장치에 있어서,
상기 시선 추적 장치로 획득한 시선추적 데이터를 상기 온라인수업에 참여하는 학습자들 각각의 상기 개인용 전자 기기로부터 수신하는 데이터 수집부;
상기 데이터 수집부가 수집한 상기 시선추적 데이터를 이용하여, 상기 학습자들 각각의 시선이 고정된 위치인 시선 고정점을 산출하는 산출부; 및
상기 산출부가 산출한 상기 학습자들의 상기 시선 고정점의 분포를 이용하여, 상기 학습자들 각각의 수업 참여 여부를 판단하는 수업 참여 상태 판단부를 포함하는 비대면 온라인수업 참여 탐지 장치.
In the device for detecting whether a learner receiving a non-face-to-face online class with a personal electronic device having a gaze tracking device is participating in accordance with the progress of the online class,
a data collection unit for receiving the eye tracking data obtained by the eye tracking device from the personal electronic device of each of the learners participating in the online class;
a calculation unit for calculating a gaze fixation point, which is a position at which the gaze of each of the learners is fixed, by using the gaze tracking data collected by the data collection unit; and
and a class participation state determination unit configured to determine whether each of the learners participates in a class by using the distribution of the gaze fixation points of the learners calculated by the calculation unit.
제1항에 있어서,
상기 수업 참여 상태 판단부는, 상기 학습자들 각각의 시선 고정점 중에서 가장 많은 학습자가 해당되는 시선 고정점을 주시 영역으로 결정한 다음, 특정 학습자의 시선 고정점이 상기 주시 영역에 포함되는지에 기초하여 해당 학습자의 수업 참여 여부를 판단하는 것을 특징으로 하는 비대면 온라인수업 참여 탐지 장치.
The method of claim 1,
The class participation state determination unit determines the gaze fixation point corresponding to the most learners among the gaze fixation points of each of the learners as the gaze area, and then, based on whether the gaze fixation point of a specific learner is included in the gaze area, the learner's A non-face-to-face online class participation detection device, characterized in that it is determined whether or not to participate in the class.
제1항에 있어서,
상기 산출부는 상기 학습자들 각각의 상기 시선 고정점에서의 고정시간도 함께 산출하고,
상기 수업 참여 상태 판단부는 상기 시선 고정점과 상기 고정시간에 의한 시선 움직임 정보를 이용하여, 상기 학습자들 각각의 수업 참여 여부를 판단하는 것을 특징으로 하는 비대면 온라인수업 참여 탐지 장치.
The method of claim 1,
The calculation unit also calculates the fixation time at the gaze fixation point of each of the learners together,
The class participation state determination unit, a non-face-to-face online class participation detection device, characterized in that it determines whether the class participation of each of the learners by using the gaze movement information according to the gaze fixation point and the fixed time.
제3항에 있어서,
상기 수업 참여 상태 판단부는, 수업 과목의 종류 및 실행 시간을 포함하는 상기 온라인수업의 콘텐츠 정보도 같이 이용하여, 상기 학습자들 각각의 수업 참여 여부를 판단하는 것을 특징으로 하는 비대면 온라인수업 참여 탐지 장치.
4. The method of claim 3,
The class participation state determination unit, non-face-to-face online class participation detection device, characterized in that by using the content information of the online class including the type of class and the execution time as well to determine whether each of the learners participate in the class .
제4항에 있어서,
상기 수업 참여 상태 판단부는 비지도 학습 인공지능 기반의 온라인수업 참여도 탐지 모델을 이용하여 구현되는 것을 특징으로 하는 비대면 온라인수업 참여 탐지 장치.
5. The method of claim 4,
The class participation state determination unit is a non-face-to-face online class participation detection device, characterized in that it is implemented using an online class participation detection model based on unsupervised learning artificial intelligence.
제1항에 있어서,
상기 수업 참여 상태 판단부가 수업에 참여하고 있지 않은 것으로 판단한 학습자의 상기 개인용 전자 기기로 알림 메시지를 전송하기 위한 피드백부를 더 포함하는 것을 특징으로 하는 비대면 온라인수업 참여 탐지 장치.
The method of claim 1,
Non-face-to-face online class participation detection device, characterized in that it further comprises a feedback unit for transmitting a notification message to the personal electronic device of the learner who has determined that the class participation status determination unit is not participating in the class.
시선 추적 장치를 구비한 개인용 전자 기기로 비대면 온라인수업을 받는 학습자가 상기 온라인수업의 진행에 맞춰서 참여하고 있는지를 탐지하기 위한 방법에 있어서,
상기 시선 추적 장치로 획득한 시선추적 데이터를 상기 온라인수업에 참여하는 학습자들 각각의 상기 개인용 전자 기기로부터 수신하는 단계;
상기 수집 단계에서 수집한 상기 시선추적 데이터를 이용하여, 상기 학습자들 각각의 시선이 고정된 위치인 시선 고정점을 산출하는 단계; 및
상기 산출 단계에서 산출한 상기 학습자들의 상기 시선 고정점의 분포를 이용하여, 상기 학습자들 각각의 수업 참여 여부를 판단하는 단계를 포함하는 비대면 온라인수업 참여 탐지 방법.
In the method for detecting whether a learner receiving a non-face-to-face online class with a personal electronic device having an eye tracking device is participating in accordance with the progress of the online class,
receiving the eye tracking data obtained by the eye tracking device from the personal electronic device of each of the learners participating in the online class;
calculating a gaze fixation point, which is a position at which the gaze of each of the learners is fixed, by using the gaze tracking data collected in the collecting step; and
and determining whether each of the learners participates in a class by using the distribution of the gaze fixation points of the learners calculated in the calculating step.
KR1020200147291A 2020-11-06 2020-11-06 Apparatus and method for detecting learners' participation in an untact online class KR102515987B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200147291A KR102515987B1 (en) 2020-11-06 2020-11-06 Apparatus and method for detecting learners' participation in an untact online class

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200147291A KR102515987B1 (en) 2020-11-06 2020-11-06 Apparatus and method for detecting learners' participation in an untact online class

Publications (2)

Publication Number Publication Date
KR20220061384A true KR20220061384A (en) 2022-05-13
KR102515987B1 KR102515987B1 (en) 2023-03-31

Family

ID=81583275

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200147291A KR102515987B1 (en) 2020-11-06 2020-11-06 Apparatus and method for detecting learners' participation in an untact online class

Country Status (1)

Country Link
KR (1) KR102515987B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102642267B1 (en) 2022-12-09 2024-02-29 김철중 Segmentation of lecture content and purchase platform service method, device and system for segmented lecture content
WO2024090830A1 (en) * 2022-10-27 2024-05-02 한국 한의학 연구원 Cognitive training method and system based on eye tracking

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130065880A (en) * 2011-12-06 2013-06-20 경북대학교 산학협력단 Learning monitering device and method for monitering of learning
KR20140146750A (en) 2013-06-18 2014-12-29 장현철 Method and system for gaze-based providing education content
KR20180107576A (en) * 2017-03-22 2018-10-02 이화여자대학교 산학협력단 Learning achievement prediction method and system using visual behavior of learner watching to learning video
KR20200050281A (en) 2018-11-01 2020-05-11 유엔젤주식회사 Learning Support System And Method Using Augmented Reality And Virtual reality based on Artificial Intelligence

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130065880A (en) * 2011-12-06 2013-06-20 경북대학교 산학협력단 Learning monitering device and method for monitering of learning
KR20140146750A (en) 2013-06-18 2014-12-29 장현철 Method and system for gaze-based providing education content
KR20180107576A (en) * 2017-03-22 2018-10-02 이화여자대학교 산학협력단 Learning achievement prediction method and system using visual behavior of learner watching to learning video
KR20200050281A (en) 2018-11-01 2020-05-11 유엔젤주식회사 Learning Support System And Method Using Augmented Reality And Virtual reality based on Artificial Intelligence

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
J.A. Fredrick, P.C. Blumenfeld, A.H. Paris, School engagement: Potential of the concept, state of the evidence. Rev. Educ. Res. 74(1), 59-109 (2004)
L.B. Krithika, P.G.G. Lakshmi, Student emotion recognition system (SERS) for e-learning improvement based on learner concentration metric. Procedia Computer Science 85, 767-776 (2016)
N. Bosch, Detecting Student Engagement: Human Versus Machine (Conference on User Modeling Adaptation and Personalization, Halifax, 2016)
N. Bosch, S.K. D'Mello, R.S. Baker, J. Ocumpaugh, V. Shute, M. Ventura, W. Zhao, Detecting Student Emotions in ComputerEnabled Classrooms (International Joint Conference on Artificial Intelligence, New York, 2016)
S. Aslan, Z. Cataltepe, I. Diner, O. Dundar, A.A. Esme, R. Ferens, M. Yener, Learner Engagement Measurement and Classification in 1:1 Learning (International Conference on Machine Learning and Applications, Detroit, 2014)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024090830A1 (en) * 2022-10-27 2024-05-02 한국 한의학 연구원 Cognitive training method and system based on eye tracking
KR102642267B1 (en) 2022-12-09 2024-02-29 김철중 Segmentation of lecture content and purchase platform service method, device and system for segmented lecture content

Also Published As

Publication number Publication date
KR102515987B1 (en) 2023-03-31

Similar Documents

Publication Publication Date Title
US10643487B2 (en) Communication and skills training using interactive virtual humans
Rho et al. An experiential learning approach to learning manual communication through a virtual reality environment
Almohammadi et al. A type-2 fuzzy logic recommendation system for adaptive teaching
CN110674664A (en) Visual attention recognition method and system, storage medium and processor
Hieu et al. Identifying learners’ behavior from videos affects teaching methods of lecturers in Universities
KR102515987B1 (en) Apparatus and method for detecting learners' participation in an untact online class
Frank et al. Engagement detection in meetings
US20220309947A1 (en) System and method for monitoring and teaching children with autistic spectrum disorders
CN112287767A (en) Interaction control method, device, storage medium and electronic equipment
Faisal et al. Towards a reference model for sensor-supported learning systems
TWI642026B (en) Psychological and behavioral assessment and diagnostic methods and systems
US20220160227A1 (en) Autism treatment assistant system, autism treatment assistant device, and program
Hernández et al. Affective modeling for an intelligent educational environment
CN111681142A (en) Method, system, equipment and storage medium based on education video virtual teaching
JP2018060375A (en) Information processing system, information processing device and program
WO2022070747A1 (en) Assist system, assist method, and assist program
Sassi et al. Video traffic analysis for real-time emotion recognition and visualization in online learning
CN112005248A (en) Computing device attention determination
MežA et al. Towards automatic real-time estimation of observed learner’s attention using psychophysiological and affective signals: The touch-typing study case
Jiang et al. Predicting when teachers look at their students in 1-on-1 tutoring sessions
Ahmad et al. Towards a Low‐Cost Teacher Orchestration Using Ubiquitous Computing Devices for Detecting Student’s Engagement
Shenoy et al. A Study on various Applications of Computer Vision for Teaching Learning in Classroom
KR102383457B1 (en) Active artificial intelligence tutoring system that support teaching and learning and method for controlling the same
Horvat et al. Quantitative measures for classification of human upper body posture in video signal to improve online learning
Nuño-Maganda et al. Smartphone-Based Remote Monitoring Tool for e-Learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant