KR102622115B1 - Method for grouping students in real time video communication system for education - Google Patents

Method for grouping students in real time video communication system for education Download PDF

Info

Publication number
KR102622115B1
KR102622115B1 KR1020210089728A KR20210089728A KR102622115B1 KR 102622115 B1 KR102622115 B1 KR 102622115B1 KR 1020210089728 A KR1020210089728 A KR 1020210089728A KR 20210089728 A KR20210089728 A KR 20210089728A KR 102622115 B1 KR102622115 B1 KR 102622115B1
Authority
KR
South Korea
Prior art keywords
learner
video education
learning
terminal
learners
Prior art date
Application number
KR1020210089728A
Other languages
Korean (ko)
Other versions
KR20230009099A (en
Inventor
김보은
김민지
Original Assignee
주식회사 유비온
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유비온 filed Critical 주식회사 유비온
Priority to KR1020210089728A priority Critical patent/KR102622115B1/en
Publication of KR20230009099A publication Critical patent/KR20230009099A/en
Application granted granted Critical
Publication of KR102622115B1 publication Critical patent/KR102622115B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Technology (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Library & Information Science (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

실시간 화상 교육 시스템에서의 학습자 그루핑 방법이 개시된다. 본 발명에 따른 학습자 그루핑 방법은, 학습자 단말 및 교수자 단말과 네트워크를 통해 연결되며 화상 교육을 제공하는 화상 교육 서버가, 화상 교육이 진행되는 동안, 학습자 단말을 통해 화상 교육을 수강하는 학습자들의 학습 태도를 트래킹하는 단계; 트래킹되는 학습 태도를 분석하여 각 학습자의 학습 성실도를 판정하는 단계; 판정되는 학습 성실도에 따라 화상 교육을 수강하는 학습자들을 복수의 그룹으로 분류하는 단계; 및 그루핑 결과를 교수자 단말에 표시하는 단계;를 포함할 수 있다.A learner grouping method in a real-time video education system is disclosed. The learner grouping method according to the present invention is a video education server that is connected to the learner terminal and the instructor terminal through a network and provides video education, and while video education is in progress, the learning attitude of learners who take video education through the learner terminal tracking; Analyzing the tracked learning attitude to determine each learner's learning sincerity; Classifying learners taking video education into a plurality of groups according to the determined learning sincerity; and displaying the grouping results on the instructor terminal.

Description

실시간 화상 교육 시스템에서의 학습자 그루핑 방법 {Method for grouping students in real time video communication system for education}Method for grouping students in real time video communication system for education}

본 발명은 실시간 화상 교육 시스템에 대한 것으로, 보다 구체적으로는 실시간 화상 교육 시스템을 통해 수업을 진행하는 동안 학습자들의 수업 태도에 따라 복수의 그룹으로 나누어 표시하는 화상 교육 시스템에서의 학습자 그루핑 방법에 대한 것이다.The present invention relates to a real-time video education system, and more specifically, to a method of grouping learners in a video education system that divides learners into a plurality of groups according to their class attitudes while teaching through a real-time video education system. .

팬데믹 상황 등으로 교실에서의 면대면(face to face) 수업 대신 온라인 수업 실행이 증가되는 추세이다. 특히 실시간 쌍방향 수업의 경우 비실시간 수업에 비해 학습자와 교사(교수자)와의 원활한 상호작용이 가능하기에 주요하게 활용되며 주로 화상 회의 시스템(예: 줌(Zoom), 웹엑스(Webex), 스카이프(Skype))이 이용되고 있다.Due to the pandemic situation, online classes are increasingly being conducted instead of face-to-face classes in classrooms. In particular, real-time interactive classes are mainly used because they enable smoother interaction between learners and teachers (instructors) than non-real-time classes, and are mainly used in video conferencing systems (e.g. Zoom, Webex, Skype). ) is being used.

화상 회의 솔루션은 문자 그대로 온라인 회의 목적으로 활용되는 도구로 실시간 쌍방향 수업의 교육적 목적에 최적화되어 있지는 않다. 특히, 기존 화상 회의 솔루션의 경우, 교수자가 강의를 진행함과 동시에 학습자들의 수업 참여도를 점검 및 확인하기 위하여 학습자의 반응을 요구하거나 학습자들의 영상을 점검하면서 참여 여부를 일일이 확인해야 한다.Video conferencing solutions are literally tools used for online meetings and are not optimized for the educational purpose of real-time interactive classes. In particular, in the case of existing video conferencing solutions, the instructor must conduct the lecture and simultaneously check and confirm the learners' participation in the class by requesting responses from the learners or checking the learners' videos to check their participation one by one.

실시간 화상 교육에서는 물리적 공간의 한계로 인해 오프라인 수업에 비하여 학생들의 집중도(누가 집중하는지, 누가 집중하지 않는지), 학습에 대한 이해도(누가 강의 내용을 이해하는지, 누가 강의 내용을 이해하지 못하는지) 그리고 자신의 강의 진행 속도에 대한 피드백을 받는데 다소 제약이 있다.In real-time video education, compared to offline classes due to limitations in physical space, students' concentration (who is concentrating and who is not), understanding of learning (who understands the lecture content, who does not understand the lecture content), and There are some limitations in receiving feedback on the pace of one's course progress.

본 발명은 상기와 같은 종래 기술의 문제점을 해소하기 위한 것으로, 실시간 화상 교육을 진행하는 동안 학습자들의 태도를 모니터링하여 수업에 집중하는 학습자와 그렇지 못한 학습자를 자동으로 분류하고 교수자에게 그루핑 결과를 제공하는 화상 교육 시스템을 제공하는 것을 목적으로 한다.The present invention is intended to solve the problems of the prior art as described above. It monitors the attitude of learners during real-time video education, automatically classifies learners who are concentrating on class and those who are not, and provides grouping results to the instructor. The purpose is to provide a video education system.

상기와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 실시간 화상 교육 시스템에서의 학습자 그루핑 방법은, 학습자 단말 및 교수자 단말과 네트워크를 통해 연결되며 화상 교육을 제공하는 화상 교육 서버가, 상기 화상 교육이 진행되는 동안, 상기 학습자 단말을 통해 상기 화상 교육을 수강하는 학습자들의 학습 태도를 트래킹하는 단계; 상기 트래킹되는 학습 태도를 분석하여 각 학습자의 학습 성실도를 판정하는 단계; 상기 판정되는 학습 성실도에 따라 상기 화상 교육을 수강하는 학습자들을 복수의 그룹으로 분류하는 단계; 및 상기 그루핑 결과를 상기 교수자 단말에 표시하는 단계;를 포함할 수 있다.In order to achieve the above object, the learner grouping method in a real-time video education system according to an embodiment of the present invention includes a video education server that is connected to a learner terminal and an instructor terminal through a network and provides video education. While video education is in progress, tracking the learning attitude of learners taking the video education through the learner terminal; Analyzing the tracked learning attitude to determine each learner's learning sincerity; classifying learners taking the video education into a plurality of groups according to the determined learning sincerity; and displaying the grouping result on the instructor terminal.

상기 학습자 그루핑 방법은, 상기 학습 성실도를 판정하는 기준이 되는 요건을 하나 이상 설정할 수 있는 사용자 인터페이스를 상기 교수자 단말에 제공하는 단계;를 더 포함할 수 있다.The learner grouping method may further include providing the instructor terminal with a user interface that can set one or more requirements that serve as criteria for determining learning sincerity.

상기 학습 태도를 트래킹하는 단계는, 교수자의 발화 내용을 인식하여 학습자에 대한 피드백 요구를 감지하는 단계; 및 상기 교수자가 요구하는 방식에 따라 각 학습자가 피드백을 입력하는지 추적하는 모니터링 데이터를 해당 학습자 단말로부터 수집하는 단계;를 포함할 수 있다.The step of tracking the learning attitude includes recognizing a request for feedback from the learner by recognizing the content of the instructor's speech; and collecting monitoring data that tracks whether each learner inputs feedback according to the method requested by the instructor from the corresponding learner terminal.

상기 학습 태도를 트래킹하는 단계는, 각 학습자의 카메라 조작 히스토리, 각 학습자의 영상 인식 여부, 각 학습자의 학습자 단말을 통한 작업 내역 및 상기 학습자 단말에서의 어플리케이션 실행 정보 중 하나 이상을 포함하는 모니터링 데이터를 해당 학습자 단말로부터 수집하는 단계;를 포함할 수 있다.The step of tracking the learning attitude includes monitoring data including one or more of each learner's camera operation history, each learner's image recognition status, each learner's work history through the learner terminal, and application execution information on the learner terminal. It may include a step of collecting information from the corresponding learner terminal.

상기 학습 성실도를 판정하는 단계는, 상기 학습자 단말로부터 수집되는 모니터링 데이터를 이용하여 각 학습자의 수업 집중도를 산정하는 단계; 상기 화상 교육의 강의안 정보를 독출하는 단계; 교수자의 발화 내용을 인식하고 키워드 정보를 추출하는 단계; 상기 독출된 강의안 정보 및 상기 추출된 키워드 정보를 매핑하여 상기 화상 교육을 가중치가 높은 구간과 낮은 구간으로 분류하여 가중치를 설정하는 단계; 및 상기 산정된 수업 집중도를 이용하여 해당 학습자의 학습 성실도를 판정할 때 해당 화상 교육 구간에 따른 가중치를 적용하는 단계;를 포함할 수 있다.The step of determining the learning sincerity includes calculating the class concentration of each learner using monitoring data collected from the learner terminal; Reading lesson plan information of the video education; Recognizing the contents of the instructor's speech and extracting keyword information; setting weights by mapping the read lesson plan information and the extracted keyword information to classify the video education into high-weight sections and low-weight sections; and applying a weight according to the video education section when determining the learning sincerity of the learner using the calculated class concentration.

상기 그루핑 결과를 표시하는 단계는, 학습자들의 영상을 그리드 형태로 표시하는 학습자 화면에서 상기 학습 성실도가 소정의 값 이하인 학습자 그룹을 구분되도록 표시하는 단계;를 포함할 수 있다.The step of displaying the grouping result may include the step of displaying learner groups whose learning fidelity is less than or equal to a predetermined value on a learner screen that displays the learners' images in a grid form.

본 발명의 일 실시예에 따른 화상 교육 시스템은 학습자 단말 및 교수자 단말과 네트워크를 통해 연결되며 화상 교육을 제공하는 화상 교육 서버를 구비하고, 상기 화상 교육 서버는, 상기 화상 교육이 진행되는 동안, 상기 학습자 단말을 통해 상기 화상 교육을 수강하는 학습자들의 학습 태도를 트래킹하는 트래킹 모듈; 상기 트래킹되는 학습 태도를 분석하여 각 학습자의 학습 성실도를 판정하는 성실도 판정 모듈; 및 상기 판정되는 학습 성실도에 따라 상기 화상 교육을 수강하는 학습자들을 복수의 그룹으로 분류하고, 상기 그루핑 결과를 상기 교수자 단말에 그리드를 이용하여 표시하는 그루핑 모듈;을 포함할 수 있다.The video education system according to an embodiment of the present invention is connected to a learner terminal and an instructor terminal through a network and includes a video education server that provides video education, and the video education server provides video education while the video education is in progress. a tracking module that tracks the learning attitude of learners taking the video education through a learner terminal; a sincerity determination module that determines the learning sincerity of each learner by analyzing the tracked learning attitude; and a grouping module that classifies learners taking the video education into a plurality of groups according to the determined learning fidelity and displays the grouping results on the instructor terminal using a grid.

본 발명에 의하면, 실시간 화상 교육을 진행하는 동안 학습자들에 대한 모니터링(예: 학습태도, 집중도)을 통해 하위 그룹의 학습자를 자동으로 분류하여 교수자에게 그리드 형태로 제시한다. 이를 통해 교수자는 실시간 수업 중 자동화된 학습자 모니터링을 통해 학습자에 대한 적절한 처방 및 피드백을 제시할 수 있게 된다. According to the present invention, during real-time video education, learners are automatically classified into subgroups through monitoring (e.g., learning attitude, concentration) and presented to the instructor in a grid format. Through this, instructors can provide appropriate prescriptions and feedback to learners through automated learner monitoring during real-time classes.

궁극적으로 교수자 입장에서는 학습 시간 적정화를 통한 수업의 질 향상 제고, 학습자 입장에서는 학습 과정에 대한 적시적인 피드백을 받을 수 있게 됨으로써 학습 참여도 향상 및 학습 효과를 극대화할 수 있다.Ultimately, from the instructor's perspective, the quality of classes can be improved by optimizing learning time, and from the learner's perspective, learning participation can be improved and learning effectiveness can be maximized by receiving timely feedback on the learning process.

도 1은 본 발명의 일 실시예에 따른 화상 교육 시스템의 네트워크 구성을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 화상 교육 서버를 설명하기 위한 기능 블록도이다.
도 3은 본 발명의 일 실시예에 따른 실시간 화상 교육 시스템에서의 학습자 그루핑 방법을 설명하기 위한 순서도이다.
도 4는 본 발명의 일 실시예에 따른 학습자 그루핑 서비스를 구현한 화면을 예시한 것이다.
Figure 1 is a diagram for explaining the network configuration of a video education system according to an embodiment of the present invention.
Figure 2 is a functional block diagram for explaining a video education server according to an embodiment of the present invention.
Figure 3 is a flowchart for explaining a learner grouping method in a real-time video education system according to an embodiment of the present invention.
Figure 4 illustrates a screen implementing a learner grouping service according to an embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly explained, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention are general terms that are currently widely used as much as possible while considering the function in the present invention, but this may vary depending on the intention or precedent of a person working in the art, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...수단", "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a part "includes" a certain element throughout the specification, this means that, unless specifically stated to the contrary, it does not exclude other elements but may further include other elements. In addition, terms such as "...means", "...part", and "module" used in the specification mean a unit that processes at least one function or operation, which is implemented in hardware or software, or is implemented in hardware and software. It can be implemented by combining .

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

도 1은 본 발명의 일 실시예에 따른 화상 교육 시스템의 네트워크 구성을 설명하기 위한 도면이고, 도 2는 본 발명의 일 실시예에 따른 화상 교육 서버를 설명하기 위한 기능 블록도이다.FIG. 1 is a diagram for explaining the network configuration of a video education system according to an embodiment of the present invention, and FIG. 2 is a functional block diagram for explaining a video education server according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 화상 교육 시스템은 인터넷 등의 네트워크를 통해 실시간 화상 교육 플랫폼을 제공하는 화상 교육 서버(100), 화상 교육 서버(100)에 접속하여 실시간 화상 교육에 참여하는 학생 사용자(학습자)가 이용하는 학습자 단말(110), 및 화상 교육 서버(100)를 통해 실시간 화상 교육을 설계하고 진행하는 교사 사용자(교수자)가 이용하는 교수자 단말(120)로 구성될 수 있다.The video education system according to an embodiment of the present invention includes a video education server 100 that provides a real-time video education platform through a network such as the Internet, and a student user participating in real-time video education by accessing the video education server 100 ( It may be composed of a learner terminal 110 used by a learner, and an instructor terminal 120 used by a teacher user (instructor) who designs and conducts real-time video education through the video education server 100.

학습자는 학습자 단말(110)에 설치되는 실시간 화상 교육 전용 애플리케이션 또는 웹 브라우저를 통해 화상 교육 서버(100)가 제공하는 실시간 화상 교육을 수강할 수 있다.Learners can take real-time video education provided by the video education server 100 through a web browser or a real-time video education-specific application installed on the learner terminal 110.

교수자는 교수자 단말(120)에 설치되는 실시간 화상 교육 전용 애플리케이션 또는 웹 브라우저를 통해 화상 교육 서버(100)가 제공하는 실시간 화상 교육 플랫폼을 이용하여 실시간 화상 교육을 설계 및 관리하고 화상 교육에 참여하는 학습자들과 함께 실시간 화상 교육을 진행한다.The instructor designs and manages real-time video education using a real-time video education platform provided by the video education server 100 through a web browser or an application dedicated to real-time video education installed on the instructor terminal 120, and learners who participate in the video education We conduct real-time video training with the participants.

학습자 단말(110)과 교수자 단말(120)은 소정의 네트워크를 통해 화상 교육 서버(100)와 통신 가능한 개인용 컴퓨터나, 스마트폰, PDA(Personal Digital Assistants), 휴대용 컴퓨터 등의 컴퓨팅 장치이다.The learner terminal 110 and the instructor terminal 120 are computing devices such as personal computers, smartphones, PDAs (Personal Digital Assistants), and portable computers that can communicate with the video education server 100 through a predetermined network.

화상 교육 서버(100)는 웹 서버 기반 또는 전용 애플리케이션 방식의 실시간 화상 교육 플랫폼을 제공하기 위한 소프트웨어 및/또는 하드웨어 구성요소를 구비한 컴퓨팅 시스템으로, 통신망을 통해 사용자 단말(110, 120)에 연결되어 있고, 또한 데이터베이스(130)와 연결되어 있다.The video education server 100 is a computing system equipped with software and/or hardware components to provide a real-time video education platform based on a web server or a dedicated application, and is connected to the user terminals 110 and 120 through a communication network. and is also connected to the database 130.

데이터베이스(130)는 화상 교육 서버(100)가 본 발명에 따른 실시간 화상 교육 플랫폼을 제공하는데 필요한 정보를 저장하며, 교수자가 설계 및 저작한 실시간 화상 교육, 각 실시간 화상 교육의 강의안, 강의 시간, 강의 자료, 강의를 수강할 학습자 등 실시간 화상 교육에 대한 각종 정보를 저장하는 수업 정보 DB(131), 실시간 화상 교육 진행중 트래킹한 학습자의 카메라 영상, 학습 활동, 피드백 입력, 로그인 및 로그아웃 등 학습자의 행동 전반에 관련된 정보를 저장하는 학습자 행동 정보 DB(132), 그리고 실시간 화상 교육 플랫폼에 가입한 교수자 회원과 학습자 회원의 개인 정보, 인증 정보, 권한 정보, 수업 출석 이력, 과제물 제출 이력 등 사용자에 대한 정보를 저장한 사용자 정보 DB(133)를 포함할 수 있다.The database 130 stores information necessary for the video education server 100 to provide a real-time video education platform according to the present invention, including real-time video education designed and authored by the instructor, lesson plans, lecture times, and lectures for each real-time video education. Class information DB (131), which stores various information about real-time video education such as materials and learners who will take the lecture, learner's camera images tracked during real-time video education, learning activities, feedback input, login and logout, etc. Learner behavior information DB 132, which stores overall related information, and user information such as personal information, authentication information, authority information, class attendance history, and assignment submission history of instructor members and learner members who have joined the real-time video education platform. It may include a user information DB 133 that stores .

화상 교육 서버(100)는, 실시간 화상 교육에 참여하는 학습자들의 영상을 그리드 형태로 제공하여 교수자와 학습자들이 수강중인 이용자들의 모습을 생생하게 보면서 수업할 수 있도록 한다.The video education server 100 provides images of learners participating in real-time video education in a grid format so that instructors and learners can take classes while vividly seeing users taking the course.

실시간 화상 교육시 수업에 집중하고 잘 따라오는 학습자는 크게 신경쓸 필요가 없으나, 그렇지 않은 학습자에 대해서는 해당 사실을 인지하고 이를 해결하도록 노력을 기울일 필요가 있다.During real-time video education, there is no need to worry too much about learners who concentrate and follow the class well, but for learners who do not, there is a need to be aware of this fact and make efforts to resolve the issue.

본 발명의 일 실시예에 따른 화상 교육 서버(100)는 트래킹 모듈(101), 성실도 판정 모듈(102) 및 그루핑 모듈(103)을 포함하고, 학습자들의 학습 태도를 지속적으로 트래킹하여 성실도가 떨어지는 학습자와 성실한 학습자를 분류하고 불성실한 학습자들에 대응하는 그리드를 별도 표시하여 교수자 단말(120)에 제공함으로써, 교수자가 자신의 강의에 대한 학습자들의 학습 태도를 한눈에 확인하고 주의를 요하는 학습자들을 바로 알 수 있도록 한다.The video education server 100 according to an embodiment of the present invention includes a tracking module 101, a sincerity determination module 102, and a grouping module 103, and continuously tracks the learning attitude of learners to determine the level of sincerity. By classifying failing learners and faithful learners and separately displaying a grid corresponding to the disloyal learners and providing it to the instructor terminal 120, the instructor can check at a glance the learning attitude of the learners toward his/her lecture and identify learners who require attention. Make sure you know them right away.

구체적으로, 트래킹 모듈(101)은 실시간 화상 교육이 진행되는 동안 학습자 단말(110)을 통해 화상 교육을 수강하는 학습자들의 학습 태도를 트래킹한다. 트래킹 대상이 되는 학습자의 행동은 카메라를 끄고 있는지 여부, 대화에 참여하고 있는지 여부, 학습자가 교수의 요청에 따라 피드백을 입력하는지 여부, 학습자가 단말(110) 앞에서 수업을 듣고 있는지 즉 학습자의 모습이 카메라를 통해 보이는지 여부, 학습자의 시선 방향, 학습자가 단말(110)에서 다른 작업을 하고 있는지 여부 등 학습자가 화상 교육 진행중에 할 수 있는 행동들을 포함할 수 있다.Specifically, the tracking module 101 tracks the learning attitude of learners taking video education through the learner terminal 110 while real-time video education is in progress. The learner's actions subject to tracking include whether the camera is turned off, whether the learner is participating in a conversation, whether the learner is entering feedback according to the professor's request, and whether the learner is taking a class in front of the terminal 110, that is, the learner's appearance. It may include actions that the learner can perform during video training, such as whether it is visible through the camera, the direction of the learner's gaze, and whether the learner is doing other work on the terminal 110.

학습자가 자신의 단말(110)을 이용하여 화상 교육을 들으면서 단말(110)에서 어떤 작업을 하는지를 해당 단말(110)에서 실행되는 실시간 화상 교육 클라이언트가 수집하여 화상 교육 서버(100)로 전송하고, 화상 교육 서버(100)는 이 정보를 수신하여 해당 학습자의 학습 상황을 트래킹할 수 있다.The real-time video education client running on the terminal 110 collects what the learner does on the terminal 110 while listening to video education using his or her terminal 110 and transmits it to the video education server 100, and transmits the video to the video education server 100. The education server 100 can receive this information and track the learning situation of the learner.

화상 교육 서버(100)는 학습자 단말(110)이 촬영하여 보내오는 카메라 영상을 분석하여 학습자가 단말(110) 앞에서 강의를 듣고 있는지 아니면 부재중인지 여부를 추적하거나, 학습자의 시선을 분석하여 단말(110)의 화면이 아닌 다른 곳을 보고 있거나 졸고 있지 않은지 모니터링할 수 있다.The video education server 100 analyzes the camera image captured and sent by the learner terminal 110 to track whether the learner is listening to a lecture in front of the terminal 110 or is absent, or analyzes the learner's gaze to determine whether the learner is listening to a lecture in front of the terminal 110. ) You can monitor whether you are looking somewhere other than the screen or dozing off.

학습자 단말(110)에서 실행되고 있는 다른 어플리케이션을 통한 학습자의 타이핑 여부 또는 타이핑 내용을 실시간 화상 교육 클라이언트가 추적하여 화상 교육 서버(100)로 해당 정보를 보내면, 화상 교육 서버(100)는 이 정보를 수신하여 다른 학습자들은 타이핑하고 있지 않은데 특정 학습자가 화상 교육의 수업 맥락과 관련 없는 내용을 타이핑하고 있는지 여부를 모니터링할 수 있다.When the real-time video education client tracks whether the learner is typing or the content of the typing through another application running on the learner terminal 110 and sends the corresponding information to the video education server 100, the video education server 100 sends this information to the video education server 100. By receiving the information, you can monitor whether a specific learner is typing content unrelated to the class context of video education while other learners are not typing.

학습자 단말(110)에서 화상 교육을 위한 클라이언트가 자신 이외에 실행중인 다른 어플리케이션에 대한 정보 및 다른 어플리케이션에 관련된 사용자 입력에 대한 정보를 추적하여 화상 교육 서버(100)로 보내면, 화상 교육 서버(100)는 수신되는 정보를 분석하여 해당 학습자가 수업에 집중하지 않고 다른 어플리케이션을 사용하고 있거나 다른 어플리케이션에 지속적인 입력을 수행하고 있는지 여부를 모니터링할 수 있다. 예컨대, 실행중인 화상 교육 클라이언트 옆에 유투브 창을 열고 보고 있는 경우 이를 트래킹하여 학습자의 성실도 판정에 적용할 수 있다.When the client for video education in the learner terminal 110 tracks information about other applications running in addition to itself and information about user input related to other applications and sends them to the video education server 100, the video education server 100 By analyzing the information received, it is possible to monitor whether the learner is using another application instead of concentrating on the class or is continuously inputting into another application. For example, if a YouTube window is opened and viewed next to a running video education client, this can be tracked and applied to determining the learner's sincerity.

트래킹 모듈(101)이 어떤 행동을 트래킹할지 여부는 학습 성실도 판단 기준으로 설정된 하나 이상의 항목에 따라 달라질 수 있다. 판단 기준의 설정은 미리 기본값이 설정되거나 교수자에 의해 설정 또는 변경될 수 있다.Whether or not the tracking module 101 tracks a behavior may vary depending on one or more items set as a criterion for determining learning sincerity. The setting of the judgment criteria may be set to default values in advance or may be set or changed by the instructor.

예를 들어, 화면을 끈 학습자를 불성실한 학습자로 판단하도록 기준이 설정된 경우, 트래킹 모듈(101)은 화상 교육 진행중 학습자가 단말(110)의 카메라를 조작하는 행동을 모니터링할 것이다. 대화의 참여도가 낮은 학습자를 학습 태도가 나쁜 학습자로 분류하도록 기준이 설정된 경우, 트래킹 모듈(101)은 각 학습자의 마이크나 대화창을 통한 대화 입력을 모니터링할 것이다.For example, if a standard is set to determine that a learner who turns off the screen is an insincere learner, the tracking module 101 will monitor the learner's actions in manipulating the camera of the terminal 110 during video training. If a standard is set to classify a learner with a low level of participation in conversation as a learner with a bad learning attitude, the tracking module 101 will monitor the conversation input through each learner's microphone or conversation window.

성실도 판정 모듈(102)은 트래킹되는 학습자의 학습 태도 정보를 분석하여 각 학습자의 학습 성실도를 판정한다.The sincerity determination module 102 analyzes the tracked learner's learning attitude information and determines the learning sincerity of each learner.

그루핑 모듈(103)은 학습 성실도에 따라 화상 교육을 수강하는 학습자들을 복수의 그룹으로 분류하고, 그루핑 결과를 강의중인 교수자의 단말(120)에 그리드를 이용하여 표시하도록 제어한다. 예컨대, 성실한 학습자 그룹과 불성실한 학습자 그룹으로 나누어 이들 그룹이 구분되도록 한다.The grouping module 103 classifies learners taking video education into a plurality of groups according to learning sincerity, and controls the grouping results to be displayed using a grid on the terminal 120 of the instructor giving the lecture. For example, divide into a group of sincere learners and a group of insincere learners so that these groups are distinguished.

학습자의 학습 태도 트래킹, 학습 성실도 판정, 그리고 학습 성실도를 기준으로한 학습자의 그루핑은 화상 교육이 진행되는 동안 지속적으로 또는 주기적으로 실행될 수 있으며, 이에 따라 교수자 단말(120)에 그리드 형태로 표시되는 학습자들의 그루핑은 동적으로 변경될 수 있다. 예컨대, 불성실하다고 판단되는 학습자가 교수자의 지적에 의해 학습 태도를 바꾼 경우는 불성실한 학습자 그룹에서 제거되고 성실한 학습자 그룹으로 이동되어 표시될 수 있다.Tracking the learner's learning attitude, determining learning sincerity, and grouping of learners based on learning sincerity can be performed continuously or periodically while video education is in progress, and are displayed in a grid form on the instructor terminal 120 accordingly. The grouping of learners can be changed dynamically. For example, if a learner who is judged to be insincere changes his/her learning attitude due to the instructor's comments, he/she may be removed from the disloyal learner group and moved to the conscientious learner group.

도 3은 본 발명의 일 실시예에 따른 실시간 화상 교육 시스템에서의 학습자 그루핑 방법을 상세히 설명하기 위한 순서도이다.Figure 3 is a flowchart for explaining in detail the learner grouping method in the real-time video education system according to an embodiment of the present invention.

교수자는 수업 시간, 대상 학생, 강의안, 수업 자료 등을 입력하여 실시간 화상 교육을 설계할 수 있으며, 해당 시간에 교수자가 화상 교육 서버(100)에 접속하여 화상 교육을 시작하며 학습자들 역시 화상 교육 서버(100)에 접속하여 화상 교육을 수강할 수 있다.Instructors can design real-time video education by entering class time, target students, lecture plans, class materials, etc., and at that time, the instructor connects to the video education server 100 to start video education, and learners also access the video education server 100. You can access video training by accessing (100).

화상 교육 서버(100)는 각 화상 교육에 대해 학습 성실도를 판정하는 기준이 되는 요건을 하나 이상 설정할 수 있으며, 교수자가 이를 설정하는 실시예에서는 판정 기준 및/또는 각 기준의 가중치를 설정할 수 있는 사용자 인터페이스를 교수자 단말(120)에 제공하고, 교수자의 입력에 따라 각 화상 교육에 대한 학습 성실도 판단 기준 및/또는 각 기준의 가중치를 저장하여 이용할 것이다.The video education server 100 may set one or more requirements that serve as a standard for determining learning sincerity for each video education, and in an embodiment where the instructor sets this, the judgment standard and/or the weight of each standard may be set. A user interface will be provided to the instructor terminal 120, and the learning sincerity judgment criteria for each video education and/or the weight of each criterion will be stored and used according to the instructor's input.

단계 S31에서는, 화상 교육이 진행되는 동안 학습자 단말(110)을 통해 화상 교육을 수강하는 학습자들의 학습 태도를 트래킹한다.In step S31, while the video education is in progress, the learning attitude of learners taking the video education is tracked through the learner terminal 110.

각 학습자의 학습 태도 트래킹을 위해 학습자 단말(110)로부터 모니터링 데이터를 수집하여 이용할 수 있다. 모니터링 데이터에는 각 학습자의 카메라 조작 히스토리, 각 학습자의 피드백 입력 정보, 각 학습자의 영상 인식 여부, 각 학습자의 학습자 단말(110)을 통한 작업 내역 및 상기 학습자 단말(110)에서의 어플리케이션 실행 정보 등 학습자의 학습 상황을 트래킹할 수 있는 데이터 중 하나 이상이 포함될 수 있다.Monitoring data can be collected and used from the learner terminal 110 to track each learner's learning attitude. Monitoring data includes each learner's camera operation history, each learner's feedback input information, whether each learner recognizes the image, each learner's work history through the learner terminal 110, and application execution information on the learner terminal 110. One or more of the data that can track the learning situation of may be included.

각 학습자의 카메라 조작 히스토리를 트래킹하기 위해, 화상 교육 서버(100)는 화상 교육이 진행되는 동안 카메라가 꺼진 학습자에 대해서는 온라인 상태이면서 카메라가 꺼진 시간과 횟수를 카운트하여 기록할 수 있다. In order to track each learner's camera operation history, the video education server 100 may count and record the time and number of times the camera was turned off while being online for learners whose cameras were turned off while video education was in progress.

각 학습자의 영상 인식 여부를 트래킹하기 위해, 화상 교육 서버(100)는 화상 교육이 진행되는 동안 학습자의 카메라가 켜져 있으나 해당 영상에 인물 인식이 되지 않으면, 즉 카메라를 켜둔채 자리를 비운 상태이면 부재중으로 판단하고 부재중인 시간과 횟수를 카운트하여 기록할 수 있다.In order to track whether or not each learner's image is recognized, the video education server 100 is set to absent if the learner's camera is turned on while video education is in progress but a person is not recognized in the video, that is, if the learner is away with the camera turned on. The time and number of absences can be counted and recorded.

각 학습자의 피드백 입력을 트래킹하기 위해, 먼저 교수자가 피드백을 요구한 시점과 교수자가 요구하는 피드백 방법을 인식하고, 학습자가 화상 교육에 집중하고 있어 교수자가 요구하는 시점에 정확한 방법으로 피드백을 입력했는지 추적할 수 있다.In order to track each learner's feedback input, first recognize when the instructor requested feedback and the method of feedback requested by the instructor, and check whether the learner is concentrating on the video education and entered feedback in the correct manner at the time requested by the instructor. You can track it.

화상 교육 서버(100)는 피드백 요구 시점 및 방법의 인식을 위해 교수자의 발화 내용을 인식하여 학습자에 대한 피드백 요구를 감지하고, 교수자가 요구하는 방식에 따라 각 학습자가 피드백을 입력하는지 추적하는 모니터링 데이터를 해당 학습자 단말(110)로부터 수집할 수 있다.The video education server 100 detects a request for feedback for a learner by recognizing the contents of the instructor's speech to recognize the timing and method of requesting feedback, and monitors data to track whether each learner inputs feedback according to the method requested by the instructor. Can be collected from the corresponding learner terminal 110.

화상 교육 서버(100)는 교수자의 발화 데이터를 텍스트로 변환한 후 이를 분석하여 학습자에게 음성으로 대답을 요구하였는지 입력 장치를 이용한 피드백을 요구하였는지 판단하고, 교수자가 요구하는 시점 또는 강의가 재개될 때까지 각 학습자의 학습자 단말(110)에 구비되는 마이크나 입력 장치를 통해 피드백이 입력되었는지 여부를 트래킹할 것이다. 예를 들어, 교수자가 음성으로 질문을 하고 학습자들에게 대화창을 통해 답변을 입력하라고 했다면 각 학습자가 대화창에 뭔가를 입력했는지 모니터링한다.The video education server 100 converts the instructor's speech data into text and analyzes it to determine whether the learner is requested to respond by voice or feedback using an input device, and when the instructor requests or when the lecture resumes. Until then, it will be tracked whether feedback is input through the microphone or input device provided on the learner terminal 110 of each learner. For example, if the instructor asks a question by voice and asks learners to enter answers through a chat window, monitor whether each learner entered something in the chat window.

단계 S32에서는, 트래킹되는 학습 태도를 분석하여 각 학습자의 학습 성실도를 판정한다.In step S32, the tracked learning attitude is analyzed to determine each learner's learning sincerity.

화상 교육 서버(100)는 학습 태도 트래킹 단계에서 수집한 모니터링 데이터를 이용하여 각 학습자의 수업 집중도를 산정하고 이를 이용하여 학습 성실도를 판정할 것이다. The video education server 100 will calculate each learner's class concentration level using the monitoring data collected in the learning attitude tracking stage and use this to determine learning sincerity.

수업 집중도의 산정에는 소정의 수식이 이용될 수 있다. 예컨대 학습 성실도를 판정하는 기준이 되는 요건들에 대한 트래킹 결과를 점수로 환산하고 각 요건에 대한 가중치를 두는 수식을 생성하여 집중도 산정에 이용할 수 있다.A certain formula can be used to calculate class concentration. For example, the tracking results for the requirements that become the standard for determining learning sincerity can be converted into scores and a formula that assigns weight to each requirement can be created and used to calculate concentration.

산정된 수업 집중도에 따라 해당 학습자의 학습 성실도가 판정될 것이다. 예컨대, 집중도 점수에 따라 각 학습자를 성실한 학습자 또는 불성실한 학습자로 분류할 수 있다.The learner's learning sincerity will be judged according to the calculated class concentration. For example, each learner can be classified as a conscientious learner or an insincere learner according to the concentration score.

단계 S33에서는 학습 성실도에 따라 화상 교육을 수강하는 학습자들을 복수의 그룹으로 분류하고, 단계 S34에서는 그루핑 결과를 교수자 단말(120)에 그리드를 이용하여 표시한다.In step S33, learners taking video education are classified into a plurality of groups according to their learning fidelity, and in step S34, the grouping results are displayed on the instructor terminal 120 using a grid.

화상 교육 서버(100)는 화상 교육에 출석한 각 학습자의 학습 태도를 트래킹하고 트래킹 정보를 소정의 수식에 의해 연산하여 수업 집중도를 계산한 후, 집중도 결과값이 소정의 범위에 해당하는 학습자들은 학습 태도가 불량하여 주의가 요구되는 것으로 성실도를 판정할 수 있으며, 이들 불성실한 학습자들을 자동으로 그루핑하여 그리드 형태로 별도로 표시할 수 있다.The video education server 100 tracks the learning attitude of each learner who attends the video education, calculates the class concentration by calculating the tracking information using a predetermined formula, and then learners whose concentration results fall within a predetermined range can learn. Conscientiousness can be judged as having a poor attitude and requiring caution, and these unfaithful learners can be automatically grouped and displayed separately in a grid format.

화상 교육 서버(100)는 학습자들의 영상을 그리드 형태로 표시하는 학습자 화면에서 학습 성실도가 소정의 값 이하인 학습자 그룹이 시각적으로 구분되도록 교수자 단말(120)의 클라이언트를 제어할 수 있다.The video education server 100 may control the client of the instructor terminal 120 so that learner groups whose learning fidelity is below a predetermined value are visually distinguished on the learner screen that displays the learners' images in a grid format.

이에 따라 화상 강의중인 교수자가 불성실한 학습자들을 직접 판정하여 체크하지 않아도 되며, 화상 교육 서버(100)가 불성실한 학습자들을 실시간으로 자동 감지하여 그리드 형태의 가상 교실의 윗줄에 모아 놓는 등의 방법으로 교수자가 한눈에 요주의 학습자들을 볼 수 있도록 제어할 수 있다.Accordingly, the instructor giving the video lecture does not have to directly judge and check the insincere learners, and the video education server 100 automatically detects the insincere learners in real time and collects them in the top row of the grid-shaped virtual classroom for teaching. You can control it so that you can see learners of interest at a glance.

도 4는 학습자 그루핑 서비스를 구현한 화면을 예시한 것이다.Figure 4 illustrates a screen implementing the learner grouping service.

도 4를 참조하면, 화상 교육을 수강하고 있는 학습자들 중 일부가 불성실한 학습자 그룹(41)으로 분류되어 화면의 상단에 이동된 것을 알 수 있다.Referring to Figure 4, it can be seen that some of the learners taking video education have been classified into the disloyal learner group 41 and moved to the top of the screen.

일 실시예에서, 학습자의 학습 성실도를 판정할 때 화상 교육 구간에 따라 가중치를 달리하여 성실도를 판단할 수 있다. 이때, 화상 교육 전체에서 복수의 화상 교육 구간을 인식하기 위해, 화상 교육 서버(100)는 화상 교육의 강의안 정보를 독출하여 이용할 수 있다.In one embodiment, when determining a learner's learning sincerity, the sincerity may be determined by varying the weight depending on the video education section. At this time, in order to recognize a plurality of video education sections in the entire video education, the video education server 100 can read and use the lesson plan information of the video education.

먼저, 화상 교육 서버(100)는 화상 교육중 교수자의 발화 내용을 텍스트로 변환하고 인식하여 이로부터 키워드 정보를 추출한다. 다음으로, 강의안 정보 및 키워드 정보를 매핑하여 화상 교육을 가중치가 높은 구간과 낮은 구간으로 분류하여 동적인 가중치를 설정할 것이다. 산정된 수업 집중도를 이용하여 해당 학습자의 학습 성실도를 판정할 때 해당 화상 교육 구간에 따른 가중치를 적용하게 된다.First, the video education server 100 converts and recognizes the contents of the instructor's speech during video education into text and extracts keyword information from it. Next, by mapping lesson plan information and keyword information, we will classify video education into high-weight sections and low-weight sections and set dynamic weights. When determining the learner's learning sincerity using the calculated class concentration, a weight according to the video education section is applied.

예컨대, 강의 토픽과 다음 토픽 상의 구간은 강의 내용 가운데 잠시 빈 구간이므로 학습자의 성실도를 판정할 때 해당 구간의 집중도에 낮은 가중치를 적용하고, 강의가 연속적으로 진행되고 있는 동안에는 학습자의 성실도 판정시 해당 구간의 집중도에 높은 가중치를 적용할 수 있다.For example, since the section on the lecture topic and the next topic is a temporary blank section in the lecture content, a low weight is applied to the concentration of that section when determining the learner's sincerity, and while the lecture is running continuously, when determining the learner's sincerity A high weight can be applied to the concentration of the corresponding section.

본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and constructed for the present invention or may be known and usable by those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements made by those skilled in the art using the basic concept of the present invention defined in the following claims are also possible. falls within the scope of rights.

100: 화상 교육 서버
110: 학습자 단말
120: 교수자 단말
101: 트래킹 모듈
102: 성실도 판정 모듈
103: 그루핑 모듈
130: 데이터베이스
131: 수업 정보 DB
132: 학습자 행동 정보 DB
133: 사용자 정보 DB
100: Video training server
110: Learner terminal
120: Instructor terminal
101: Tracking module
102: Sincerity judgment module
103: Grouping module
130: database
131: Class information DB
132: Learner behavior information DB
133: User information DB

Claims (5)

컴퓨팅 장치인 학습자 단말 및 교수자 단말과 네트워크를 통해 연결되는 컴퓨팅 시스템의 화상 교육 서버가 화상 교육을 제공하는 방법으로서,
상기 화상 교육 서버의 트래킹모듈에서, 상기 화상 교육이 진행되는 동안, 상기 학습자 단말을 통해 상기 화상 교육을 수강하는 학습자들의 학습 태도를 트래킹하는 단계;
상기 화상 교육 서버의 성실도 판정 모듈에서, 성실도 상기 트래킹되는 학습 태도를 분석하여 각 학습자의 학습 성실도를 판정하는 단계; 및
상기 화상 교육 서버의 그루핑 모듈에서, 상기 판정되는 학습 성실도에 따라 상기 화상 교육을 수강하는 학습자들을 복수의 그룹으로 분류하는 단계;를 포함하며,

상기 트래킹의 대상 및 상기 학습 성실도의 판단 기준은 교수자에 의해 설정 또는 변경되며,

상기 학습 태도를 트래킹하는 단계는,
교수자의 발화 내용을 인식하여 학습자에 대한 피드백 요구를 감지하는 단계; 및
상기 교수자가 요구하는 방식에 따라 각 학습자가 실시간으로 피드백을 입력하는지 추적하는 모니터링 데이터를 해당 학습자 단말로부터 수집하는 단계;를 포함하며,

상기 학습 성실도를 판정하는 단계는,
상기 학습자 단말로부터 수집되는 모니터링 데이터를 이용하여 각 학습자의 수업 집중도를 산정하는 단계;
상기 화상 교육의 강의안 정보를 독출하는 단계;
교수자의 발화 내용을 인식하고 키워드 정보를 추출하는 단계;
상기 독출된 강의안 정보 및 상기 추출된 키워드 정보를 매핑하여 상기 화상 교육의 구간을 두 가지로 구분하여 서로 다른 가중치를 설정하는 단계; 및
상기 산정된 수업 집중도를 이용하여 해당 학습자의 학습 성실도를 판정할 때 해당 화상 교육 구간에 상기 설정된 가중치를 적용하는 단계;를 포함하며,

학습자들을 복수의 그룹으로 분류하는 단계에서,
상기 학습 성실도를 기준으로 한 학습자의 그루핑은 화상 교육이 진행되는 동안 지속적으로 또는 주기적으로 실행되어 학습자들의 그루핑을 동적으로 변경하는 것을 특징으로 하는, 실시간 화상 교육 시스템에서의 학습자 그루핑 방법.
A method in which a video education server of a computing system connected to a learner terminal and an instructor terminal, which are computing devices, through a network provides video education, comprising:
Tracking, in the tracking module of the video education server, the learning attitude of learners taking the video education through the learner terminal while the video education is in progress;
In the sincerity determination module of the video education server, determining the learning sincerity of each learner by analyzing the tracked learning attitude; and
In the grouping module of the video education server, classifying learners taking the video education into a plurality of groups according to the determined learning sincerity,

The tracking target and the criteria for judging learning sincerity are set or changed by the instructor,

The step of tracking the learning attitude is,
Recognizing the content of the instructor's utterance and detecting a request for feedback to the learner; and
Comprising: collecting monitoring data from the learner's terminal to track whether each learner inputs feedback in real time according to the method requested by the instructor;

The step of determining the learning sincerity is,
Calculating each learner's class concentration level using monitoring data collected from the learner terminal;
Reading lesson plan information of the video education;
Recognizing the contents of the instructor's speech and extracting keyword information;
mapping the read lesson plan information and the extracted keyword information to divide the video education section into two and set different weights; and
Comprising: applying the set weight to the corresponding video education section when determining the learner's learning sincerity using the calculated class concentration,

In the step of classifying learners into multiple groups,
A learner grouping method in a real-time video education system, characterized in that the grouping of learners based on the learning fidelity is performed continuously or periodically while video education is in progress to dynamically change the grouping of learners.
삭제delete 삭제delete 제1항에 있어서,
상기 학습 태도를 트래킹하는 단계는,
각 학습자의 카메라 조작 히스토리, 각 학습자의 영상 인식 여부, 각 학습자의 학습자 단말을 통한 작업 내역 및 상기 학습자 단말에서의 어플리케이션 실행 정보 중 하나 이상을 포함하는 모니터링 데이터를 해당 학습자 단말로부터 수집하는 단계;를 더 포함하는 것을 특징으로 하는, 실시간 화상 교육 시스템에서의 학습자 그루핑 방법.
According to paragraph 1,
The step of tracking the learning attitude is,
Collecting monitoring data including one or more of each learner's camera operation history, each learner's image recognition status, each learner's work history through the learner terminal, and application execution information on the learner terminal from the learner terminal; Learner grouping method in a real-time video education system, characterized in that it further includes.
삭제delete
KR1020210089728A 2021-07-08 2021-07-08 Method for grouping students in real time video communication system for education KR102622115B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210089728A KR102622115B1 (en) 2021-07-08 2021-07-08 Method for grouping students in real time video communication system for education

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210089728A KR102622115B1 (en) 2021-07-08 2021-07-08 Method for grouping students in real time video communication system for education

Publications (2)

Publication Number Publication Date
KR20230009099A KR20230009099A (en) 2023-01-17
KR102622115B1 true KR102622115B1 (en) 2024-01-09

Family

ID=85111446

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210089728A KR102622115B1 (en) 2021-07-08 2021-07-08 Method for grouping students in real time video communication system for education

Country Status (1)

Country Link
KR (1) KR102622115B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102650585B1 (en) * 2023-02-23 2024-03-26 우송대학교 산학협력단 Method for a learning management system based on virtual lecture space using learner-digital twin generation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036690A (en) * 2016-08-29 2018-03-08 米澤 朋子 One-versus-many communication system, and program
JP2018205638A (en) * 2017-06-08 2018-12-27 大和ハウス工業株式会社 Concentration ratio evaluation mechanism

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080092485A (en) * 2007-04-12 2008-10-16 주식회사 제이니스 Harmfulness site and program interception system for online lecture and thereof
KR20150110449A (en) * 2015-09-15 2015-10-02 주식회사 테라클 Server and method for learning management
KR102119468B1 (en) * 2018-08-20 2020-06-05 주식회사 부뜰정보시스템 System and method for learning counseling chatter robot based on counceling contents of counselor
KR20200144890A (en) * 2019-06-19 2020-12-30 오종현 E-learning concentration enhancing system and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036690A (en) * 2016-08-29 2018-03-08 米澤 朋子 One-versus-many communication system, and program
JP2018205638A (en) * 2017-06-08 2018-12-27 大和ハウス工業株式会社 Concentration ratio evaluation mechanism

Also Published As

Publication number Publication date
KR20230009099A (en) 2023-01-17

Similar Documents

Publication Publication Date Title
Nonthamand Guideline to develop an instructional design model using video conference in open learning
KR101899038B1 (en) on-line study and authoring system for eduction contents using analysis of big data
Li et al. Using iPad-based mobile learning to teach creative engineering within a problem-based learning pedagogy
Nagro et al. Reflection activities within clinical experiences: An important component of field-based teacher education
Caballé Towards a multi-modal emotion-awareness e-Learning system
Masry-Herzallah Teachers' Perceived Effectiveness in Online Teaching during COVID-19 Crisis: Comparing Jewish/Arab Teachers in Israel.
KR102622115B1 (en) Method for grouping students in real time video communication system for education
Conceição et al. Students’ perceptions about online support services: Institutional, instructional, and self-care implications
KR20220032460A (en) Remote lecturing method and system
Hasan et al. Learning continuity during COVID-19 pandemic using the virtual classroom–a cross-border experimental multi case approach
Armstrong Online Learning Design and Implementation Models:-A Model Validation Study Using Expert Instructional Designers
Sompakdee et al. Applying the Matrix Model in an English for Presentation Online Class during COVID-19 Pandemic: A Case Study of an Undergraduate Class in Thailand.
KR20180076372A (en) E-learning server, e-learnig system and its service method including the same
KR20160020924A (en) Estimation system for multimedia learning
CN111311134B (en) Wisdom education cloud platform
Adewale et al. Development of a myers-briggs type indicator based personalised e-learning system
Zakopoulos et al. Controlling Attrition in Blended Courses by Identifying Students at Risk: A Case Study on MS-Teams
KR102600353B1 (en) Method for checking attendance at real time video communication system for education
Sharma et al. Augmenting Online Classes with an Attention Tracking Tool May Improve Student Engagement
Hossain et al. Technologies and Student Feedback Collection and Analysis
Limjap et al. Gearing K to 12 Philippine Science for National Development and ASEAN Competitiveness
Bodnar et al. Online training of specialists in the energy industry
Ahmet RETHINKING FOREIGN LANGUAGE ASSESSMENT IN THE LIGHT OF RECENT IMPROVEMENTS IN ARTIFICIAL INTELLIGENCE
Jebadurai et al. Relevancy of Artificial Intelligence in Education: A Conceptual Review
Alrazooqi Virtual Training in the Police Domain

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right