KR102622115B1 - Method for grouping students in real time video communication system for education - Google Patents
Method for grouping students in real time video communication system for education Download PDFInfo
- Publication number
- KR102622115B1 KR102622115B1 KR1020210089728A KR20210089728A KR102622115B1 KR 102622115 B1 KR102622115 B1 KR 102622115B1 KR 1020210089728 A KR1020210089728 A KR 1020210089728A KR 20210089728 A KR20210089728 A KR 20210089728A KR 102622115 B1 KR102622115 B1 KR 102622115B1
- Authority
- KR
- South Korea
- Prior art keywords
- learner
- video education
- learning
- terminal
- learners
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000004891 communication Methods 0.000 title description 2
- 238000012544 monitoring process Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 206010033307 Overweight Diseases 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/75—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/7867—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Educational Technology (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Library & Information Science (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
실시간 화상 교육 시스템에서의 학습자 그루핑 방법이 개시된다. 본 발명에 따른 학습자 그루핑 방법은, 학습자 단말 및 교수자 단말과 네트워크를 통해 연결되며 화상 교육을 제공하는 화상 교육 서버가, 화상 교육이 진행되는 동안, 학습자 단말을 통해 화상 교육을 수강하는 학습자들의 학습 태도를 트래킹하는 단계; 트래킹되는 학습 태도를 분석하여 각 학습자의 학습 성실도를 판정하는 단계; 판정되는 학습 성실도에 따라 화상 교육을 수강하는 학습자들을 복수의 그룹으로 분류하는 단계; 및 그루핑 결과를 교수자 단말에 표시하는 단계;를 포함할 수 있다.A learner grouping method in a real-time video education system is disclosed. The learner grouping method according to the present invention is a video education server that is connected to the learner terminal and the instructor terminal through a network and provides video education, and while video education is in progress, the learning attitude of learners who take video education through the learner terminal tracking; Analyzing the tracked learning attitude to determine each learner's learning sincerity; Classifying learners taking video education into a plurality of groups according to the determined learning sincerity; and displaying the grouping results on the instructor terminal.
Description
본 발명은 실시간 화상 교육 시스템에 대한 것으로, 보다 구체적으로는 실시간 화상 교육 시스템을 통해 수업을 진행하는 동안 학습자들의 수업 태도에 따라 복수의 그룹으로 나누어 표시하는 화상 교육 시스템에서의 학습자 그루핑 방법에 대한 것이다.The present invention relates to a real-time video education system, and more specifically, to a method of grouping learners in a video education system that divides learners into a plurality of groups according to their class attitudes while teaching through a real-time video education system. .
팬데믹 상황 등으로 교실에서의 면대면(face to face) 수업 대신 온라인 수업 실행이 증가되는 추세이다. 특히 실시간 쌍방향 수업의 경우 비실시간 수업에 비해 학습자와 교사(교수자)와의 원활한 상호작용이 가능하기에 주요하게 활용되며 주로 화상 회의 시스템(예: 줌(Zoom), 웹엑스(Webex), 스카이프(Skype))이 이용되고 있다.Due to the pandemic situation, online classes are increasingly being conducted instead of face-to-face classes in classrooms. In particular, real-time interactive classes are mainly used because they enable smoother interaction between learners and teachers (instructors) than non-real-time classes, and are mainly used in video conferencing systems (e.g. Zoom, Webex, Skype). ) is being used.
화상 회의 솔루션은 문자 그대로 온라인 회의 목적으로 활용되는 도구로 실시간 쌍방향 수업의 교육적 목적에 최적화되어 있지는 않다. 특히, 기존 화상 회의 솔루션의 경우, 교수자가 강의를 진행함과 동시에 학습자들의 수업 참여도를 점검 및 확인하기 위하여 학습자의 반응을 요구하거나 학습자들의 영상을 점검하면서 참여 여부를 일일이 확인해야 한다.Video conferencing solutions are literally tools used for online meetings and are not optimized for the educational purpose of real-time interactive classes. In particular, in the case of existing video conferencing solutions, the instructor must conduct the lecture and simultaneously check and confirm the learners' participation in the class by requesting responses from the learners or checking the learners' videos to check their participation one by one.
실시간 화상 교육에서는 물리적 공간의 한계로 인해 오프라인 수업에 비하여 학생들의 집중도(누가 집중하는지, 누가 집중하지 않는지), 학습에 대한 이해도(누가 강의 내용을 이해하는지, 누가 강의 내용을 이해하지 못하는지) 그리고 자신의 강의 진행 속도에 대한 피드백을 받는데 다소 제약이 있다.In real-time video education, compared to offline classes due to limitations in physical space, students' concentration (who is concentrating and who is not), understanding of learning (who understands the lecture content, who does not understand the lecture content), and There are some limitations in receiving feedback on the pace of one's course progress.
본 발명은 상기와 같은 종래 기술의 문제점을 해소하기 위한 것으로, 실시간 화상 교육을 진행하는 동안 학습자들의 태도를 모니터링하여 수업에 집중하는 학습자와 그렇지 못한 학습자를 자동으로 분류하고 교수자에게 그루핑 결과를 제공하는 화상 교육 시스템을 제공하는 것을 목적으로 한다.The present invention is intended to solve the problems of the prior art as described above. It monitors the attitude of learners during real-time video education, automatically classifies learners who are concentrating on class and those who are not, and provides grouping results to the instructor. The purpose is to provide a video education system.
상기와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 실시간 화상 교육 시스템에서의 학습자 그루핑 방법은, 학습자 단말 및 교수자 단말과 네트워크를 통해 연결되며 화상 교육을 제공하는 화상 교육 서버가, 상기 화상 교육이 진행되는 동안, 상기 학습자 단말을 통해 상기 화상 교육을 수강하는 학습자들의 학습 태도를 트래킹하는 단계; 상기 트래킹되는 학습 태도를 분석하여 각 학습자의 학습 성실도를 판정하는 단계; 상기 판정되는 학습 성실도에 따라 상기 화상 교육을 수강하는 학습자들을 복수의 그룹으로 분류하는 단계; 및 상기 그루핑 결과를 상기 교수자 단말에 표시하는 단계;를 포함할 수 있다.In order to achieve the above object, the learner grouping method in a real-time video education system according to an embodiment of the present invention includes a video education server that is connected to a learner terminal and an instructor terminal through a network and provides video education. While video education is in progress, tracking the learning attitude of learners taking the video education through the learner terminal; Analyzing the tracked learning attitude to determine each learner's learning sincerity; classifying learners taking the video education into a plurality of groups according to the determined learning sincerity; and displaying the grouping result on the instructor terminal.
상기 학습자 그루핑 방법은, 상기 학습 성실도를 판정하는 기준이 되는 요건을 하나 이상 설정할 수 있는 사용자 인터페이스를 상기 교수자 단말에 제공하는 단계;를 더 포함할 수 있다.The learner grouping method may further include providing the instructor terminal with a user interface that can set one or more requirements that serve as criteria for determining learning sincerity.
상기 학습 태도를 트래킹하는 단계는, 교수자의 발화 내용을 인식하여 학습자에 대한 피드백 요구를 감지하는 단계; 및 상기 교수자가 요구하는 방식에 따라 각 학습자가 피드백을 입력하는지 추적하는 모니터링 데이터를 해당 학습자 단말로부터 수집하는 단계;를 포함할 수 있다.The step of tracking the learning attitude includes recognizing a request for feedback from the learner by recognizing the content of the instructor's speech; and collecting monitoring data that tracks whether each learner inputs feedback according to the method requested by the instructor from the corresponding learner terminal.
상기 학습 태도를 트래킹하는 단계는, 각 학습자의 카메라 조작 히스토리, 각 학습자의 영상 인식 여부, 각 학습자의 학습자 단말을 통한 작업 내역 및 상기 학습자 단말에서의 어플리케이션 실행 정보 중 하나 이상을 포함하는 모니터링 데이터를 해당 학습자 단말로부터 수집하는 단계;를 포함할 수 있다.The step of tracking the learning attitude includes monitoring data including one or more of each learner's camera operation history, each learner's image recognition status, each learner's work history through the learner terminal, and application execution information on the learner terminal. It may include a step of collecting information from the corresponding learner terminal.
상기 학습 성실도를 판정하는 단계는, 상기 학습자 단말로부터 수집되는 모니터링 데이터를 이용하여 각 학습자의 수업 집중도를 산정하는 단계; 상기 화상 교육의 강의안 정보를 독출하는 단계; 교수자의 발화 내용을 인식하고 키워드 정보를 추출하는 단계; 상기 독출된 강의안 정보 및 상기 추출된 키워드 정보를 매핑하여 상기 화상 교육을 가중치가 높은 구간과 낮은 구간으로 분류하여 가중치를 설정하는 단계; 및 상기 산정된 수업 집중도를 이용하여 해당 학습자의 학습 성실도를 판정할 때 해당 화상 교육 구간에 따른 가중치를 적용하는 단계;를 포함할 수 있다.The step of determining the learning sincerity includes calculating the class concentration of each learner using monitoring data collected from the learner terminal; Reading lesson plan information of the video education; Recognizing the contents of the instructor's speech and extracting keyword information; setting weights by mapping the read lesson plan information and the extracted keyword information to classify the video education into high-weight sections and low-weight sections; and applying a weight according to the video education section when determining the learning sincerity of the learner using the calculated class concentration.
상기 그루핑 결과를 표시하는 단계는, 학습자들의 영상을 그리드 형태로 표시하는 학습자 화면에서 상기 학습 성실도가 소정의 값 이하인 학습자 그룹을 구분되도록 표시하는 단계;를 포함할 수 있다.The step of displaying the grouping result may include the step of displaying learner groups whose learning fidelity is less than or equal to a predetermined value on a learner screen that displays the learners' images in a grid form.
본 발명의 일 실시예에 따른 화상 교육 시스템은 학습자 단말 및 교수자 단말과 네트워크를 통해 연결되며 화상 교육을 제공하는 화상 교육 서버를 구비하고, 상기 화상 교육 서버는, 상기 화상 교육이 진행되는 동안, 상기 학습자 단말을 통해 상기 화상 교육을 수강하는 학습자들의 학습 태도를 트래킹하는 트래킹 모듈; 상기 트래킹되는 학습 태도를 분석하여 각 학습자의 학습 성실도를 판정하는 성실도 판정 모듈; 및 상기 판정되는 학습 성실도에 따라 상기 화상 교육을 수강하는 학습자들을 복수의 그룹으로 분류하고, 상기 그루핑 결과를 상기 교수자 단말에 그리드를 이용하여 표시하는 그루핑 모듈;을 포함할 수 있다.The video education system according to an embodiment of the present invention is connected to a learner terminal and an instructor terminal through a network and includes a video education server that provides video education, and the video education server provides video education while the video education is in progress. a tracking module that tracks the learning attitude of learners taking the video education through a learner terminal; a sincerity determination module that determines the learning sincerity of each learner by analyzing the tracked learning attitude; and a grouping module that classifies learners taking the video education into a plurality of groups according to the determined learning fidelity and displays the grouping results on the instructor terminal using a grid.
본 발명에 의하면, 실시간 화상 교육을 진행하는 동안 학습자들에 대한 모니터링(예: 학습태도, 집중도)을 통해 하위 그룹의 학습자를 자동으로 분류하여 교수자에게 그리드 형태로 제시한다. 이를 통해 교수자는 실시간 수업 중 자동화된 학습자 모니터링을 통해 학습자에 대한 적절한 처방 및 피드백을 제시할 수 있게 된다. According to the present invention, during real-time video education, learners are automatically classified into subgroups through monitoring (e.g., learning attitude, concentration) and presented to the instructor in a grid format. Through this, instructors can provide appropriate prescriptions and feedback to learners through automated learner monitoring during real-time classes.
궁극적으로 교수자 입장에서는 학습 시간 적정화를 통한 수업의 질 향상 제고, 학습자 입장에서는 학습 과정에 대한 적시적인 피드백을 받을 수 있게 됨으로써 학습 참여도 향상 및 학습 효과를 극대화할 수 있다.Ultimately, from the instructor's perspective, the quality of classes can be improved by optimizing learning time, and from the learner's perspective, learning participation can be improved and learning effectiveness can be maximized by receiving timely feedback on the learning process.
도 1은 본 발명의 일 실시예에 따른 화상 교육 시스템의 네트워크 구성을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 화상 교육 서버를 설명하기 위한 기능 블록도이다.
도 3은 본 발명의 일 실시예에 따른 실시간 화상 교육 시스템에서의 학습자 그루핑 방법을 설명하기 위한 순서도이다.
도 4는 본 발명의 일 실시예에 따른 학습자 그루핑 서비스를 구현한 화면을 예시한 것이다.Figure 1 is a diagram for explaining the network configuration of a video education system according to an embodiment of the present invention.
Figure 2 is a functional block diagram for explaining a video education server according to an embodiment of the present invention.
Figure 3 is a flowchart for explaining a learner grouping method in a real-time video education system according to an embodiment of the present invention.
Figure 4 illustrates a screen implementing a learner grouping service according to an embodiment of the present invention.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly explained, and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention are general terms that are currently widely used as much as possible while considering the function in the present invention, but this may vary depending on the intention or precedent of a person working in the art, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than simply the name of the term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...수단", "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a part "includes" a certain element throughout the specification, this means that, unless specifically stated to the contrary, it does not exclude other elements but may further include other elements. In addition, terms such as "...means", "...part", and "module" used in the specification mean a unit that processes at least one function or operation, which is implemented in hardware or software, or is implemented in hardware and software. It can be implemented by combining .
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.
도 1은 본 발명의 일 실시예에 따른 화상 교육 시스템의 네트워크 구성을 설명하기 위한 도면이고, 도 2는 본 발명의 일 실시예에 따른 화상 교육 서버를 설명하기 위한 기능 블록도이다.FIG. 1 is a diagram for explaining the network configuration of a video education system according to an embodiment of the present invention, and FIG. 2 is a functional block diagram for explaining a video education server according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 화상 교육 시스템은 인터넷 등의 네트워크를 통해 실시간 화상 교육 플랫폼을 제공하는 화상 교육 서버(100), 화상 교육 서버(100)에 접속하여 실시간 화상 교육에 참여하는 학생 사용자(학습자)가 이용하는 학습자 단말(110), 및 화상 교육 서버(100)를 통해 실시간 화상 교육을 설계하고 진행하는 교사 사용자(교수자)가 이용하는 교수자 단말(120)로 구성될 수 있다.The video education system according to an embodiment of the present invention includes a
학습자는 학습자 단말(110)에 설치되는 실시간 화상 교육 전용 애플리케이션 또는 웹 브라우저를 통해 화상 교육 서버(100)가 제공하는 실시간 화상 교육을 수강할 수 있다.Learners can take real-time video education provided by the
교수자는 교수자 단말(120)에 설치되는 실시간 화상 교육 전용 애플리케이션 또는 웹 브라우저를 통해 화상 교육 서버(100)가 제공하는 실시간 화상 교육 플랫폼을 이용하여 실시간 화상 교육을 설계 및 관리하고 화상 교육에 참여하는 학습자들과 함께 실시간 화상 교육을 진행한다.The instructor designs and manages real-time video education using a real-time video education platform provided by the
학습자 단말(110)과 교수자 단말(120)은 소정의 네트워크를 통해 화상 교육 서버(100)와 통신 가능한 개인용 컴퓨터나, 스마트폰, PDA(Personal Digital Assistants), 휴대용 컴퓨터 등의 컴퓨팅 장치이다.The
화상 교육 서버(100)는 웹 서버 기반 또는 전용 애플리케이션 방식의 실시간 화상 교육 플랫폼을 제공하기 위한 소프트웨어 및/또는 하드웨어 구성요소를 구비한 컴퓨팅 시스템으로, 통신망을 통해 사용자 단말(110, 120)에 연결되어 있고, 또한 데이터베이스(130)와 연결되어 있다.The
데이터베이스(130)는 화상 교육 서버(100)가 본 발명에 따른 실시간 화상 교육 플랫폼을 제공하는데 필요한 정보를 저장하며, 교수자가 설계 및 저작한 실시간 화상 교육, 각 실시간 화상 교육의 강의안, 강의 시간, 강의 자료, 강의를 수강할 학습자 등 실시간 화상 교육에 대한 각종 정보를 저장하는 수업 정보 DB(131), 실시간 화상 교육 진행중 트래킹한 학습자의 카메라 영상, 학습 활동, 피드백 입력, 로그인 및 로그아웃 등 학습자의 행동 전반에 관련된 정보를 저장하는 학습자 행동 정보 DB(132), 그리고 실시간 화상 교육 플랫폼에 가입한 교수자 회원과 학습자 회원의 개인 정보, 인증 정보, 권한 정보, 수업 출석 이력, 과제물 제출 이력 등 사용자에 대한 정보를 저장한 사용자 정보 DB(133)를 포함할 수 있다.The
화상 교육 서버(100)는, 실시간 화상 교육에 참여하는 학습자들의 영상을 그리드 형태로 제공하여 교수자와 학습자들이 수강중인 이용자들의 모습을 생생하게 보면서 수업할 수 있도록 한다.The
실시간 화상 교육시 수업에 집중하고 잘 따라오는 학습자는 크게 신경쓸 필요가 없으나, 그렇지 않은 학습자에 대해서는 해당 사실을 인지하고 이를 해결하도록 노력을 기울일 필요가 있다.During real-time video education, there is no need to worry too much about learners who concentrate and follow the class well, but for learners who do not, there is a need to be aware of this fact and make efforts to resolve the issue.
본 발명의 일 실시예에 따른 화상 교육 서버(100)는 트래킹 모듈(101), 성실도 판정 모듈(102) 및 그루핑 모듈(103)을 포함하고, 학습자들의 학습 태도를 지속적으로 트래킹하여 성실도가 떨어지는 학습자와 성실한 학습자를 분류하고 불성실한 학습자들에 대응하는 그리드를 별도 표시하여 교수자 단말(120)에 제공함으로써, 교수자가 자신의 강의에 대한 학습자들의 학습 태도를 한눈에 확인하고 주의를 요하는 학습자들을 바로 알 수 있도록 한다.The
구체적으로, 트래킹 모듈(101)은 실시간 화상 교육이 진행되는 동안 학습자 단말(110)을 통해 화상 교육을 수강하는 학습자들의 학습 태도를 트래킹한다. 트래킹 대상이 되는 학습자의 행동은 카메라를 끄고 있는지 여부, 대화에 참여하고 있는지 여부, 학습자가 교수의 요청에 따라 피드백을 입력하는지 여부, 학습자가 단말(110) 앞에서 수업을 듣고 있는지 즉 학습자의 모습이 카메라를 통해 보이는지 여부, 학습자의 시선 방향, 학습자가 단말(110)에서 다른 작업을 하고 있는지 여부 등 학습자가 화상 교육 진행중에 할 수 있는 행동들을 포함할 수 있다.Specifically, the
학습자가 자신의 단말(110)을 이용하여 화상 교육을 들으면서 단말(110)에서 어떤 작업을 하는지를 해당 단말(110)에서 실행되는 실시간 화상 교육 클라이언트가 수집하여 화상 교육 서버(100)로 전송하고, 화상 교육 서버(100)는 이 정보를 수신하여 해당 학습자의 학습 상황을 트래킹할 수 있다.The real-time video education client running on the
화상 교육 서버(100)는 학습자 단말(110)이 촬영하여 보내오는 카메라 영상을 분석하여 학습자가 단말(110) 앞에서 강의를 듣고 있는지 아니면 부재중인지 여부를 추적하거나, 학습자의 시선을 분석하여 단말(110)의 화면이 아닌 다른 곳을 보고 있거나 졸고 있지 않은지 모니터링할 수 있다.The
학습자 단말(110)에서 실행되고 있는 다른 어플리케이션을 통한 학습자의 타이핑 여부 또는 타이핑 내용을 실시간 화상 교육 클라이언트가 추적하여 화상 교육 서버(100)로 해당 정보를 보내면, 화상 교육 서버(100)는 이 정보를 수신하여 다른 학습자들은 타이핑하고 있지 않은데 특정 학습자가 화상 교육의 수업 맥락과 관련 없는 내용을 타이핑하고 있는지 여부를 모니터링할 수 있다.When the real-time video education client tracks whether the learner is typing or the content of the typing through another application running on the
학습자 단말(110)에서 화상 교육을 위한 클라이언트가 자신 이외에 실행중인 다른 어플리케이션에 대한 정보 및 다른 어플리케이션에 관련된 사용자 입력에 대한 정보를 추적하여 화상 교육 서버(100)로 보내면, 화상 교육 서버(100)는 수신되는 정보를 분석하여 해당 학습자가 수업에 집중하지 않고 다른 어플리케이션을 사용하고 있거나 다른 어플리케이션에 지속적인 입력을 수행하고 있는지 여부를 모니터링할 수 있다. 예컨대, 실행중인 화상 교육 클라이언트 옆에 유투브 창을 열고 보고 있는 경우 이를 트래킹하여 학습자의 성실도 판정에 적용할 수 있다.When the client for video education in the
트래킹 모듈(101)이 어떤 행동을 트래킹할지 여부는 학습 성실도 판단 기준으로 설정된 하나 이상의 항목에 따라 달라질 수 있다. 판단 기준의 설정은 미리 기본값이 설정되거나 교수자에 의해 설정 또는 변경될 수 있다.Whether or not the
예를 들어, 화면을 끈 학습자를 불성실한 학습자로 판단하도록 기준이 설정된 경우, 트래킹 모듈(101)은 화상 교육 진행중 학습자가 단말(110)의 카메라를 조작하는 행동을 모니터링할 것이다. 대화의 참여도가 낮은 학습자를 학습 태도가 나쁜 학습자로 분류하도록 기준이 설정된 경우, 트래킹 모듈(101)은 각 학습자의 마이크나 대화창을 통한 대화 입력을 모니터링할 것이다.For example, if a standard is set to determine that a learner who turns off the screen is an insincere learner, the
성실도 판정 모듈(102)은 트래킹되는 학습자의 학습 태도 정보를 분석하여 각 학습자의 학습 성실도를 판정한다.The sincerity determination module 102 analyzes the tracked learner's learning attitude information and determines the learning sincerity of each learner.
그루핑 모듈(103)은 학습 성실도에 따라 화상 교육을 수강하는 학습자들을 복수의 그룹으로 분류하고, 그루핑 결과를 강의중인 교수자의 단말(120)에 그리드를 이용하여 표시하도록 제어한다. 예컨대, 성실한 학습자 그룹과 불성실한 학습자 그룹으로 나누어 이들 그룹이 구분되도록 한다.The
학습자의 학습 태도 트래킹, 학습 성실도 판정, 그리고 학습 성실도를 기준으로한 학습자의 그루핑은 화상 교육이 진행되는 동안 지속적으로 또는 주기적으로 실행될 수 있으며, 이에 따라 교수자 단말(120)에 그리드 형태로 표시되는 학습자들의 그루핑은 동적으로 변경될 수 있다. 예컨대, 불성실하다고 판단되는 학습자가 교수자의 지적에 의해 학습 태도를 바꾼 경우는 불성실한 학습자 그룹에서 제거되고 성실한 학습자 그룹으로 이동되어 표시될 수 있다.Tracking the learner's learning attitude, determining learning sincerity, and grouping of learners based on learning sincerity can be performed continuously or periodically while video education is in progress, and are displayed in a grid form on the
도 3은 본 발명의 일 실시예에 따른 실시간 화상 교육 시스템에서의 학습자 그루핑 방법을 상세히 설명하기 위한 순서도이다.Figure 3 is a flowchart for explaining in detail the learner grouping method in the real-time video education system according to an embodiment of the present invention.
교수자는 수업 시간, 대상 학생, 강의안, 수업 자료 등을 입력하여 실시간 화상 교육을 설계할 수 있으며, 해당 시간에 교수자가 화상 교육 서버(100)에 접속하여 화상 교육을 시작하며 학습자들 역시 화상 교육 서버(100)에 접속하여 화상 교육을 수강할 수 있다.Instructors can design real-time video education by entering class time, target students, lecture plans, class materials, etc., and at that time, the instructor connects to the
화상 교육 서버(100)는 각 화상 교육에 대해 학습 성실도를 판정하는 기준이 되는 요건을 하나 이상 설정할 수 있으며, 교수자가 이를 설정하는 실시예에서는 판정 기준 및/또는 각 기준의 가중치를 설정할 수 있는 사용자 인터페이스를 교수자 단말(120)에 제공하고, 교수자의 입력에 따라 각 화상 교육에 대한 학습 성실도 판단 기준 및/또는 각 기준의 가중치를 저장하여 이용할 것이다.The
단계 S31에서는, 화상 교육이 진행되는 동안 학습자 단말(110)을 통해 화상 교육을 수강하는 학습자들의 학습 태도를 트래킹한다.In step S31, while the video education is in progress, the learning attitude of learners taking the video education is tracked through the
각 학습자의 학습 태도 트래킹을 위해 학습자 단말(110)로부터 모니터링 데이터를 수집하여 이용할 수 있다. 모니터링 데이터에는 각 학습자의 카메라 조작 히스토리, 각 학습자의 피드백 입력 정보, 각 학습자의 영상 인식 여부, 각 학습자의 학습자 단말(110)을 통한 작업 내역 및 상기 학습자 단말(110)에서의 어플리케이션 실행 정보 등 학습자의 학습 상황을 트래킹할 수 있는 데이터 중 하나 이상이 포함될 수 있다.Monitoring data can be collected and used from the
각 학습자의 카메라 조작 히스토리를 트래킹하기 위해, 화상 교육 서버(100)는 화상 교육이 진행되는 동안 카메라가 꺼진 학습자에 대해서는 온라인 상태이면서 카메라가 꺼진 시간과 횟수를 카운트하여 기록할 수 있다. In order to track each learner's camera operation history, the
각 학습자의 영상 인식 여부를 트래킹하기 위해, 화상 교육 서버(100)는 화상 교육이 진행되는 동안 학습자의 카메라가 켜져 있으나 해당 영상에 인물 인식이 되지 않으면, 즉 카메라를 켜둔채 자리를 비운 상태이면 부재중으로 판단하고 부재중인 시간과 횟수를 카운트하여 기록할 수 있다.In order to track whether or not each learner's image is recognized, the
각 학습자의 피드백 입력을 트래킹하기 위해, 먼저 교수자가 피드백을 요구한 시점과 교수자가 요구하는 피드백 방법을 인식하고, 학습자가 화상 교육에 집중하고 있어 교수자가 요구하는 시점에 정확한 방법으로 피드백을 입력했는지 추적할 수 있다.In order to track each learner's feedback input, first recognize when the instructor requested feedback and the method of feedback requested by the instructor, and check whether the learner is concentrating on the video education and entered feedback in the correct manner at the time requested by the instructor. You can track it.
화상 교육 서버(100)는 피드백 요구 시점 및 방법의 인식을 위해 교수자의 발화 내용을 인식하여 학습자에 대한 피드백 요구를 감지하고, 교수자가 요구하는 방식에 따라 각 학습자가 피드백을 입력하는지 추적하는 모니터링 데이터를 해당 학습자 단말(110)로부터 수집할 수 있다.The
화상 교육 서버(100)는 교수자의 발화 데이터를 텍스트로 변환한 후 이를 분석하여 학습자에게 음성으로 대답을 요구하였는지 입력 장치를 이용한 피드백을 요구하였는지 판단하고, 교수자가 요구하는 시점 또는 강의가 재개될 때까지 각 학습자의 학습자 단말(110)에 구비되는 마이크나 입력 장치를 통해 피드백이 입력되었는지 여부를 트래킹할 것이다. 예를 들어, 교수자가 음성으로 질문을 하고 학습자들에게 대화창을 통해 답변을 입력하라고 했다면 각 학습자가 대화창에 뭔가를 입력했는지 모니터링한다.The
단계 S32에서는, 트래킹되는 학습 태도를 분석하여 각 학습자의 학습 성실도를 판정한다.In step S32, the tracked learning attitude is analyzed to determine each learner's learning sincerity.
화상 교육 서버(100)는 학습 태도 트래킹 단계에서 수집한 모니터링 데이터를 이용하여 각 학습자의 수업 집중도를 산정하고 이를 이용하여 학습 성실도를 판정할 것이다. The
수업 집중도의 산정에는 소정의 수식이 이용될 수 있다. 예컨대 학습 성실도를 판정하는 기준이 되는 요건들에 대한 트래킹 결과를 점수로 환산하고 각 요건에 대한 가중치를 두는 수식을 생성하여 집중도 산정에 이용할 수 있다.A certain formula can be used to calculate class concentration. For example, the tracking results for the requirements that become the standard for determining learning sincerity can be converted into scores and a formula that assigns weight to each requirement can be created and used to calculate concentration.
산정된 수업 집중도에 따라 해당 학습자의 학습 성실도가 판정될 것이다. 예컨대, 집중도 점수에 따라 각 학습자를 성실한 학습자 또는 불성실한 학습자로 분류할 수 있다.The learner's learning sincerity will be judged according to the calculated class concentration. For example, each learner can be classified as a conscientious learner or an insincere learner according to the concentration score.
단계 S33에서는 학습 성실도에 따라 화상 교육을 수강하는 학습자들을 복수의 그룹으로 분류하고, 단계 S34에서는 그루핑 결과를 교수자 단말(120)에 그리드를 이용하여 표시한다.In step S33, learners taking video education are classified into a plurality of groups according to their learning fidelity, and in step S34, the grouping results are displayed on the
화상 교육 서버(100)는 화상 교육에 출석한 각 학습자의 학습 태도를 트래킹하고 트래킹 정보를 소정의 수식에 의해 연산하여 수업 집중도를 계산한 후, 집중도 결과값이 소정의 범위에 해당하는 학습자들은 학습 태도가 불량하여 주의가 요구되는 것으로 성실도를 판정할 수 있으며, 이들 불성실한 학습자들을 자동으로 그루핑하여 그리드 형태로 별도로 표시할 수 있다.The
화상 교육 서버(100)는 학습자들의 영상을 그리드 형태로 표시하는 학습자 화면에서 학습 성실도가 소정의 값 이하인 학습자 그룹이 시각적으로 구분되도록 교수자 단말(120)의 클라이언트를 제어할 수 있다.The
이에 따라 화상 강의중인 교수자가 불성실한 학습자들을 직접 판정하여 체크하지 않아도 되며, 화상 교육 서버(100)가 불성실한 학습자들을 실시간으로 자동 감지하여 그리드 형태의 가상 교실의 윗줄에 모아 놓는 등의 방법으로 교수자가 한눈에 요주의 학습자들을 볼 수 있도록 제어할 수 있다.Accordingly, the instructor giving the video lecture does not have to directly judge and check the insincere learners, and the
도 4는 학습자 그루핑 서비스를 구현한 화면을 예시한 것이다.Figure 4 illustrates a screen implementing the learner grouping service.
도 4를 참조하면, 화상 교육을 수강하고 있는 학습자들 중 일부가 불성실한 학습자 그룹(41)으로 분류되어 화면의 상단에 이동된 것을 알 수 있다.Referring to Figure 4, it can be seen that some of the learners taking video education have been classified into the
일 실시예에서, 학습자의 학습 성실도를 판정할 때 화상 교육 구간에 따라 가중치를 달리하여 성실도를 판단할 수 있다. 이때, 화상 교육 전체에서 복수의 화상 교육 구간을 인식하기 위해, 화상 교육 서버(100)는 화상 교육의 강의안 정보를 독출하여 이용할 수 있다.In one embodiment, when determining a learner's learning sincerity, the sincerity may be determined by varying the weight depending on the video education section. At this time, in order to recognize a plurality of video education sections in the entire video education, the
먼저, 화상 교육 서버(100)는 화상 교육중 교수자의 발화 내용을 텍스트로 변환하고 인식하여 이로부터 키워드 정보를 추출한다. 다음으로, 강의안 정보 및 키워드 정보를 매핑하여 화상 교육을 가중치가 높은 구간과 낮은 구간으로 분류하여 동적인 가중치를 설정할 것이다. 산정된 수업 집중도를 이용하여 해당 학습자의 학습 성실도를 판정할 때 해당 화상 교육 구간에 따른 가중치를 적용하게 된다.First, the
예컨대, 강의 토픽과 다음 토픽 상의 구간은 강의 내용 가운데 잠시 빈 구간이므로 학습자의 성실도를 판정할 때 해당 구간의 집중도에 낮은 가중치를 적용하고, 강의가 연속적으로 진행되고 있는 동안에는 학습자의 성실도 판정시 해당 구간의 집중도에 높은 가중치를 적용할 수 있다.For example, since the section on the lecture topic and the next topic is a temporary blank section in the lecture content, a low weight is applied to the concentration of that section when determining the learner's sincerity, and while the lecture is running continuously, when determining the learner's sincerity A high weight can be applied to the concentration of the corresponding section.
본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and constructed for the present invention or may be known and usable by those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements made by those skilled in the art using the basic concept of the present invention defined in the following claims are also possible. falls within the scope of rights.
100: 화상 교육 서버
110: 학습자 단말
120: 교수자 단말
101: 트래킹 모듈
102: 성실도 판정 모듈
103: 그루핑 모듈
130: 데이터베이스
131: 수업 정보 DB
132: 학습자 행동 정보 DB
133: 사용자 정보 DB100: Video training server
110: Learner terminal
120: Instructor terminal
101: Tracking module
102: Sincerity judgment module
103: Grouping module
130: database
131: Class information DB
132: Learner behavior information DB
133: User information DB
Claims (5)
상기 화상 교육 서버의 트래킹모듈에서, 상기 화상 교육이 진행되는 동안, 상기 학습자 단말을 통해 상기 화상 교육을 수강하는 학습자들의 학습 태도를 트래킹하는 단계;
상기 화상 교육 서버의 성실도 판정 모듈에서, 성실도 상기 트래킹되는 학습 태도를 분석하여 각 학습자의 학습 성실도를 판정하는 단계; 및
상기 화상 교육 서버의 그루핑 모듈에서, 상기 판정되는 학습 성실도에 따라 상기 화상 교육을 수강하는 학습자들을 복수의 그룹으로 분류하는 단계;를 포함하며,
상기 트래킹의 대상 및 상기 학습 성실도의 판단 기준은 교수자에 의해 설정 또는 변경되며,
상기 학습 태도를 트래킹하는 단계는,
교수자의 발화 내용을 인식하여 학습자에 대한 피드백 요구를 감지하는 단계; 및
상기 교수자가 요구하는 방식에 따라 각 학습자가 실시간으로 피드백을 입력하는지 추적하는 모니터링 데이터를 해당 학습자 단말로부터 수집하는 단계;를 포함하며,
상기 학습 성실도를 판정하는 단계는,
상기 학습자 단말로부터 수집되는 모니터링 데이터를 이용하여 각 학습자의 수업 집중도를 산정하는 단계;
상기 화상 교육의 강의안 정보를 독출하는 단계;
교수자의 발화 내용을 인식하고 키워드 정보를 추출하는 단계;
상기 독출된 강의안 정보 및 상기 추출된 키워드 정보를 매핑하여 상기 화상 교육의 구간을 두 가지로 구분하여 서로 다른 가중치를 설정하는 단계; 및
상기 산정된 수업 집중도를 이용하여 해당 학습자의 학습 성실도를 판정할 때 해당 화상 교육 구간에 상기 설정된 가중치를 적용하는 단계;를 포함하며,
학습자들을 복수의 그룹으로 분류하는 단계에서,
상기 학습 성실도를 기준으로 한 학습자의 그루핑은 화상 교육이 진행되는 동안 지속적으로 또는 주기적으로 실행되어 학습자들의 그루핑을 동적으로 변경하는 것을 특징으로 하는, 실시간 화상 교육 시스템에서의 학습자 그루핑 방법.A method in which a video education server of a computing system connected to a learner terminal and an instructor terminal, which are computing devices, through a network provides video education, comprising:
Tracking, in the tracking module of the video education server, the learning attitude of learners taking the video education through the learner terminal while the video education is in progress;
In the sincerity determination module of the video education server, determining the learning sincerity of each learner by analyzing the tracked learning attitude; and
In the grouping module of the video education server, classifying learners taking the video education into a plurality of groups according to the determined learning sincerity,
The tracking target and the criteria for judging learning sincerity are set or changed by the instructor,
The step of tracking the learning attitude is,
Recognizing the content of the instructor's utterance and detecting a request for feedback to the learner; and
Comprising: collecting monitoring data from the learner's terminal to track whether each learner inputs feedback in real time according to the method requested by the instructor;
The step of determining the learning sincerity is,
Calculating each learner's class concentration level using monitoring data collected from the learner terminal;
Reading lesson plan information of the video education;
Recognizing the contents of the instructor's speech and extracting keyword information;
mapping the read lesson plan information and the extracted keyword information to divide the video education section into two and set different weights; and
Comprising: applying the set weight to the corresponding video education section when determining the learner's learning sincerity using the calculated class concentration,
In the step of classifying learners into multiple groups,
A learner grouping method in a real-time video education system, characterized in that the grouping of learners based on the learning fidelity is performed continuously or periodically while video education is in progress to dynamically change the grouping of learners.
상기 학습 태도를 트래킹하는 단계는,
각 학습자의 카메라 조작 히스토리, 각 학습자의 영상 인식 여부, 각 학습자의 학습자 단말을 통한 작업 내역 및 상기 학습자 단말에서의 어플리케이션 실행 정보 중 하나 이상을 포함하는 모니터링 데이터를 해당 학습자 단말로부터 수집하는 단계;를 더 포함하는 것을 특징으로 하는, 실시간 화상 교육 시스템에서의 학습자 그루핑 방법.According to paragraph 1,
The step of tracking the learning attitude is,
Collecting monitoring data including one or more of each learner's camera operation history, each learner's image recognition status, each learner's work history through the learner terminal, and application execution information on the learner terminal from the learner terminal; Learner grouping method in a real-time video education system, characterized in that it further includes.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210089728A KR102622115B1 (en) | 2021-07-08 | 2021-07-08 | Method for grouping students in real time video communication system for education |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210089728A KR102622115B1 (en) | 2021-07-08 | 2021-07-08 | Method for grouping students in real time video communication system for education |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230009099A KR20230009099A (en) | 2023-01-17 |
KR102622115B1 true KR102622115B1 (en) | 2024-01-09 |
Family
ID=85111446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210089728A KR102622115B1 (en) | 2021-07-08 | 2021-07-08 | Method for grouping students in real time video communication system for education |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102622115B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102650585B1 (en) * | 2023-02-23 | 2024-03-26 | 우송대학교 산학협력단 | Method for a learning management system based on virtual lecture space using learner-digital twin generation |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018036690A (en) * | 2016-08-29 | 2018-03-08 | 米澤 朋子 | One-versus-many communication system, and program |
JP2018205638A (en) * | 2017-06-08 | 2018-12-27 | 大和ハウス工業株式会社 | Concentration ratio evaluation mechanism |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080092485A (en) * | 2007-04-12 | 2008-10-16 | 주식회사 제이니스 | Harmfulness site and program interception system for online lecture and thereof |
KR20150110449A (en) * | 2015-09-15 | 2015-10-02 | 주식회사 테라클 | Server and method for learning management |
KR102119468B1 (en) * | 2018-08-20 | 2020-06-05 | 주식회사 부뜰정보시스템 | System and method for learning counseling chatter robot based on counceling contents of counselor |
KR20200144890A (en) * | 2019-06-19 | 2020-12-30 | 오종현 | E-learning concentration enhancing system and method |
-
2021
- 2021-07-08 KR KR1020210089728A patent/KR102622115B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018036690A (en) * | 2016-08-29 | 2018-03-08 | 米澤 朋子 | One-versus-many communication system, and program |
JP2018205638A (en) * | 2017-06-08 | 2018-12-27 | 大和ハウス工業株式会社 | Concentration ratio evaluation mechanism |
Also Published As
Publication number | Publication date |
---|---|
KR20230009099A (en) | 2023-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nonthamand | Guideline to develop an instructional design model using video conference in open learning | |
KR101899038B1 (en) | on-line study and authoring system for eduction contents using analysis of big data | |
Li et al. | Using iPad-based mobile learning to teach creative engineering within a problem-based learning pedagogy | |
Nagro et al. | Reflection activities within clinical experiences: An important component of field-based teacher education | |
Caballé | Towards a multi-modal emotion-awareness e-Learning system | |
Masry-Herzallah | Teachers' Perceived Effectiveness in Online Teaching during COVID-19 Crisis: Comparing Jewish/Arab Teachers in Israel. | |
KR102622115B1 (en) | Method for grouping students in real time video communication system for education | |
Conceição et al. | Students’ perceptions about online support services: Institutional, instructional, and self-care implications | |
KR20220032460A (en) | Remote lecturing method and system | |
Hasan et al. | Learning continuity during COVID-19 pandemic using the virtual classroom–a cross-border experimental multi case approach | |
Armstrong | Online Learning Design and Implementation Models:-A Model Validation Study Using Expert Instructional Designers | |
Sompakdee et al. | Applying the Matrix Model in an English for Presentation Online Class during COVID-19 Pandemic: A Case Study of an Undergraduate Class in Thailand. | |
KR20180076372A (en) | E-learning server, e-learnig system and its service method including the same | |
KR20160020924A (en) | Estimation system for multimedia learning | |
CN111311134B (en) | Wisdom education cloud platform | |
Adewale et al. | Development of a myers-briggs type indicator based personalised e-learning system | |
Zakopoulos et al. | Controlling Attrition in Blended Courses by Identifying Students at Risk: A Case Study on MS-Teams | |
KR102600353B1 (en) | Method for checking attendance at real time video communication system for education | |
Sharma et al. | Augmenting Online Classes with an Attention Tracking Tool May Improve Student Engagement | |
Hossain et al. | Technologies and Student Feedback Collection and Analysis | |
Limjap et al. | Gearing K to 12 Philippine Science for National Development and ASEAN Competitiveness | |
Bodnar et al. | Online training of specialists in the energy industry | |
Ahmet | RETHINKING FOREIGN LANGUAGE ASSESSMENT IN THE LIGHT OF RECENT IMPROVEMENTS IN ARTIFICIAL INTELLIGENCE | |
Jebadurai et al. | Relevancy of Artificial Intelligence in Education: A Conceptual Review | |
Alrazooqi | Virtual Training in the Police Domain |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |