KR20240085722A - Apparatus and method for supporting teaching and learning based on virtual helper - Google Patents

Apparatus and method for supporting teaching and learning based on virtual helper Download PDF

Info

Publication number
KR20240085722A
KR20240085722A KR1020220170899A KR20220170899A KR20240085722A KR 20240085722 A KR20240085722 A KR 20240085722A KR 1020220170899 A KR1020220170899 A KR 1020220170899A KR 20220170899 A KR20220170899 A KR 20220170899A KR 20240085722 A KR20240085722 A KR 20240085722A
Authority
KR
South Korea
Prior art keywords
user terminals
content
teaching
processor
instructor
Prior art date
Application number
KR1020220170899A
Other languages
Korean (ko)
Inventor
설순욱
정규성
임찬형
부라윤
이해찬
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020220170899A priority Critical patent/KR20240085722A/en
Publication of KR20240085722A publication Critical patent/KR20240085722A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6156Network physical structure; Signal processing specially adapted to the upstream path of the transmission network

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Multimedia (AREA)
  • Primary Health Care (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 개시의 일 실시 예에 따른 교수 학습 지원 방법은 각 단계가 프로세서에 의해 수행되는 방법으로서 복수의 사용자 단말 및 교수자 단말기의 접속 절차를 처리하는 단계, 복수의 사용자 단말에 컨텐츠를 전송하는 단계, 가상 오브젝트를 생성하여 복수의 사용자 단말 또는 교수자 단말기에서 가상 오브젝트를 표시하도록 요청하는 제어 신호를 복수의 사용자 단말 또는 교수자 단말기에 전송하는 단계, 복수의 사용자 단말 중 적어도 일부에서 수집한 정보, 컨텐츠 및 교수자 단말기에서 수신한 음성 데이터 중 적어도 하나에 기반하여 부가 컨텐츠를 생성하는 단계 및 복수의 사용자 단말 또는 교수자 단말기에서 가상 오브젝트가 부가 컨텐츠를 표시하도록 요청하는 제어 신호를 복수의 사용자 단말 또는 교수자 단말기에 전송하는 단계를 포함할 수 있다.The teaching and learning support method according to an embodiment of the present disclosure is a method in which each step is performed by a processor, including processing a connection procedure for a plurality of user terminals and an instructor terminal, transmitting content to a plurality of user terminals, and virtual Generating an object and transmitting a control signal requesting to display a virtual object on a plurality of user terminals or instructor terminals to a plurality of user terminals or instructor terminals, including information, content, and instructor terminals collected from at least some of the plurality of user terminals. Generating additional content based on at least one of the voice data received from and transmitting a control signal requesting that a virtual object display additional content from a plurality of user terminals or instructor terminals to a plurality of user terminals or instructor terminals. may include.

Description

가상 도우미에 기반한 교수 학습 지원 방법 및 장치{APPARATUS AND METHOD FOR SUPPORTING TEACHING AND LEARNING BASED ON VIRTUAL HELPER}Method and device for supporting teaching and learning based on virtual assistant {APPARATUS AND METHOD FOR SUPPORTING TEACHING AND LEARNING BASED ON VIRTUAL HELPER}

본 개시는 교수 학습을 지원하는 장치 및 방법에 관한 것으로서, 더욱 상세하게는 가상 도우미에 기반하여 교수 및 학습을 지원하는 장치 및 방법에 관한 것이다.This disclosure relates to an apparatus and method for supporting teaching and learning, and more specifically, to an apparatus and method for supporting teaching and learning based on a virtual assistant.

언택트(untact)로 대변되는 비대면 기술이 점차 발전하고 있으며, 특히 원격을 통한 화상 회의, 화상 강의 시장도 커지고 있다.Non-face-to-face technology, represented by untact, is gradually developing, and in particular, the market for remote video conferencing and video lectures is also growing.

현재의 화상 회의, 화상 강의 기술은 주로 단순하게 컨텐츠를 표시하는 수준에 그치고 있다.Current video conferencing and video lecture technologies are mainly limited to simply displaying content.

이에 선행기술 1은 학습자의 학습정보는 물론, 학습자의 생체정보를 활용하는 구성을 제시하고 있다.Accordingly, prior art 1 proposes a configuration that utilizes the learner's learning information as well as the learner's biometric information.

하지만, 현재의 화상 회의, 화상 강의 기술은 교수자(발언자)의 일방적인 전달과 학습자(청취자)의 수동적인 모습을 변화시키는 방법은 제공하지 못하는 문제점이 있다.However, current video conferencing and video lecture technologies have the problem of not providing a way to change the one-sided delivery of the instructor (speaker) and the passive appearance of the learner (listener).

선행기술 1: 한국 등록특허공보 제 10-2383457호(2022.04.08. 공고)Prior Art 1: Korean Patent Publication No. 10-2383457 (announced on April 8, 2022)

본 개시의 일 실시 예는 학습자 또는 청취자의 수동적인 상황을 개선하는 교수 학습 지원 장치 및 방법을 제공한다. One embodiment of the present disclosure provides a teaching and learning support device and method that improves the passive situation of learners or listeners.

본 개시의 다른 실시 예는 컨텐츠로부터 부가 컨텐츠를 생성함으로써 교수자/발언자와 학습자/청취자의 강의 및 이해를 향상시킬 수 있는 교수 학습 지원 장치 및 방법을 제공한다.Another embodiment of the present disclosure provides a teaching and learning support device and method that can improve lectures and understanding of instructors/speakers and learners/listeners by generating additional content from content.

본 개시의 일 실시 예에 따른 교수 학습 지원 방법은 각 단계가 프로세서에 의해 수행되는 방법으로서 복수의 사용자 단말 및 교수자 단말기의 접속 절차를 처리하는 단계, 복수의 사용자 단말에 컨텐츠를 전송하는 단계, 가상 오브젝트를 생성하여 복수의 사용자 단말 또는 교수자 단말기에서 가상 오브젝트를 표시하도록 요청하는 제어 신호를 복수의 사용자 단말 또는 교수자 단말기에 전송하는 단계, 복수의 사용자 단말 중 적어도 일부에서 수집한 정보, 컨텐츠 및 교수자 단말기에서 수신한 음성 데이터 중 적어도 하나에 기반하여 부가 컨텐츠를 생성하는 단계 및 복수의 사용자 단말 또는 교수자 단말기에서 가상 오브젝트가 부가 컨텐츠를 표시하도록 요청하는 제어 신호를 복수의 사용자 단말 또는 교수자 단말기에 전송하는 단계를 포함할 수 있다.The teaching and learning support method according to an embodiment of the present disclosure is a method in which each step is performed by a processor, including processing a connection procedure for a plurality of user terminals and an instructor terminal, transmitting content to a plurality of user terminals, and virtual Generating an object and transmitting a control signal requesting to display a virtual object on a plurality of user terminals or instructor terminals to a plurality of user terminals or instructor terminals, including information, content, and instructor terminals collected from at least some of the plurality of user terminals. Generating additional content based on at least one of the voice data received from and transmitting a control signal requesting that a virtual object display additional content from a plurality of user terminals or instructor terminals to a plurality of user terminals or instructor terminals. may include.

본 개시의 다른 실시 예에 따른 교수 학습 지원 방법은 각 단계가 프로세서에 의해 수행되는 방법으로서, 복수의 사용자 단말의 접속 절차를 처리하는 단계, 제1 디스플레이 장치에 교수자가 제공한 컨텐츠를 표시하는 단계, 복수의 사용자 단말 중 적어도 일부에서 수집한 정보, 컨텐츠 및 교수자의 음성 데이터 중 적어도 하나에 기반하여 부가 컨텐츠를 생성하는 단계 및 제2 디스플레이 장치에 부가 컨텐츠를 표시하는 단계를 포함할 수 있다.A teaching and learning support method according to another embodiment of the present disclosure is a method in which each step is performed by a processor, including processing a connection procedure of a plurality of user terminals and displaying content provided by an instructor on a first display device. , generating additional content based on at least one of information collected from at least some of a plurality of user terminals, content, and voice data of the instructor, and displaying the additional content on the second display device.

본 개시의 일 실시 예에 따른 교수 학습 지원 장치는 프로세서 및 프로세서와 전기적으로 연결되고, 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고, 메모리는 프로세서를 통해 실행될 때 프로세서가, 복수의 사용자 단말 및 교수자 단말기의 접속 절차를 처리하고, 복수의 사용자 단말에 컨텐츠를 전송하고, 오브젝트를 생성하여 복수의 사용자 단말 또는 교수자 단말기에서 가상 오브젝트를 표시하도록 요청하는 제어 신호를 복수의 사용자 단말 또는 교수자 단말기에 전송하고, 복수의 사용자 단말 중 적어도 일부에서 수집한 정보, 컨텐츠 및 교수자 단말기에서 수신한 음성 데이터 중 적어도 하나에 기반하여 부가 컨텐츠를 생성하고, 복수의 사용자 단말 또는 교수자 단말기에서 가상 오브젝트가 부가 컨텐츠를 표시하도록 요청하는 제어 신호를 복수의 사용자 단말 또는 교수자 단말기에 전송하도록 야기하는 코드를 저장할 수 있다.A teaching and learning support device according to an embodiment of the present disclosure includes a processor and a memory that is electrically connected to the processor and stores at least one code to be executed by the processor, and the memory is such that when executed through the processor, the processor , Processing the connection procedures of multiple user terminals and instructor terminals, transmitting content to multiple user terminals, creating objects, and sending control signals requesting display of virtual objects on multiple user terminals or instructor terminals to multiple users. transmits to a terminal or instructor terminal, creates additional content based on at least one of information collected from at least some of the plurality of user terminals, content, and voice data received from the instructor terminal, and generates additional content based on at least one of the voice data received from the instructor terminal, and Code that causes the object to transmit a control signal requesting to display additional content to a plurality of user terminals or instructor terminals may be stored.

본 개시의 다른 실시 예에 따른 교수 학습 지원 장치는 프로세서 및 프로세서와 전기적으로 연결되고, 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고, 메모리는 프로세서를 통해 실행될 때 프로세서가, 복수의 사용자 단말의 접속 절차를 처리하고, 제1 디스플레이 장치에 교수자가 제공한 컨텐츠를 표시하고, 복수의 사용자 단말 중 적어도 일부에서 수집한 정보, 컨텐츠 및 교수자의 음성 데이터 중 적어도 하나에 기반하여 부가 컨텐츠를 생성하고, 제2 디스플레이 장치에 부가 컨텐츠를 표시하도록 야기하는 코드를 저장할 수 있다.A teaching and learning support device according to another embodiment of the present disclosure includes a processor and a memory that is electrically connected to the processor and stores at least one code to be executed by the processor, and the memory is such that when executed through the processor, the processor , Processing the connection procedure of a plurality of user terminals, displaying content provided by the instructor on the first display device, based on at least one of information collected from at least some of the plurality of user terminals, content, and voice data of the instructor. Code that creates additional content and causes the additional content to be displayed on the second display device may be stored.

본 개시의 실시 예에 따른 교수 학습 지원 장치 및 방법은 교수자/발언자와 학습자/청취자의 쌍방향의 능동적인 회의 또는 학습 환경을 제공할 수 있다.The teaching and learning support device and method according to an embodiment of the present disclosure can provide an interactive, active meeting or learning environment between instructor/speaker and learner/listener.

본 개시의 실시 예에 따른 교수 학습 지원 장치 및 방법은 학습자의 학습 능률을 향상시킬 수 있다.The teaching and learning support device and method according to the embodiment of the present disclosure can improve the learning efficiency of learners.

도 1은 본 개시의 일 실시 예에 따른 교수 학습 지원 방법에 따른 인터페이스의 일 실시 예를 도시하는 도면이다.
도 2는 본 개시의 일 실시 예에 따른 교수 학습 지원 방법을 수행하거나 교수 학습 지원 장치가 구동하기 위한 환경을 나타낸 도면이다.
도 3은 본 개시의 다른 실시 예에 따른 교수 학습 지원 방법을 수행하거나 교수 학습 지원 장치가 구동하기 위한 환경을 나타낸 도면이다.
도 4는 본 개시의 일 실시 예에 따른 교수 학습 지원 장치의 구성을 나타낸 블록도이다.
도 5는 본 개시의 일 실시 예에 따른 교수 학습 지원 방법을 설명하기 위한 순서도이다.
도 6은 본 개시의 일 실시 예에 따른 부가 컨텐츠를 생성하는 방법 및 부가 컨텐츠의 전송 시점을 결정하는 방법을 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 학습자 또는 청취자의 집중도 또는 이해도를 판단하는 방법을 설명하기 위한 도면이다.
1 is a diagram illustrating an example of an interface according to a teaching and learning support method according to an embodiment of the present disclosure.
Figure 2 is a diagram showing an environment for performing a teaching and learning support method or running a teaching and learning support device according to an embodiment of the present disclosure.
Figure 3 is a diagram showing an environment for performing a teaching and learning support method or running a teaching and learning support device according to another embodiment of the present disclosure.
Figure 4 is a block diagram showing the configuration of a teaching and learning support device according to an embodiment of the present disclosure.
Figure 5 is a flowchart for explaining a teaching and learning support method according to an embodiment of the present disclosure.
FIG. 6 is a diagram illustrating a method of generating additional content and a method of determining a transmission time of the additional content according to an embodiment of the present disclosure.
Figure 7 is a diagram for explaining a method of determining the concentration or understanding of a learner or listener according to an embodiment of the present disclosure.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

도 1을 참조하여 본 개시의 일 실시 예에 따른 교수 학습 지원 방법에 따른 인터페이스의 일 실시 예를 설명한다.An example of an interface according to a method for supporting teaching and learning according to an embodiment of the present disclosure will be described with reference to FIG. 1 .

도 1은 교수 학습 지원 방법에 의한 사용자 단말(200)의 인터페이스의 일 실시 예를 도시한다.Figure 1 shows an example of an interface of the user terminal 200 according to a teaching and learning support method.

본 명세서에서 원격 강의를 실시 예로서 설명하지만, 이는 원격 화상 회의에도 적용 가능하고, 본 명세서의 교수자는 원격 화상 회의의 발언자를 포함하는 개념이고, 학습자는 원격 화상 회의의 청취자, 사용자를 포함하는 개념이다. 따라서, 본 명세서의 실시 예들은 원격 강의에만 국한되는 것으로 이해되지 말아야 한다.In this specification, a remote lecture is described as an example, but it is also applicable to remote video conferencing, and the instructor in this specification is a concept that includes the speaker of the remote video conference, and the learner is a concept that includes listeners and users of the remote video conference. am. Therefore, the embodiments of this specification should not be understood as being limited to remote lectures.

사용자 단말은 교수자가 제공한 컨텐츠(101)를 표시하는 영역과, 선택적으로 교수자 단말(300)로부터 교수자의 모습을 전송 받아 표시하는 영역 및 복수의 사용자 단말(200)로부터 사용자(학습자)의 모습을 전송 받아 표시하는 영역이 존재할 수 있다.The user terminal has an area for displaying the content 101 provided by the instructor, an area for selectively receiving and displaying the instructor's appearance from the instructor terminal 300, and an area for displaying the appearance of the user (learner) from a plurality of user terminals 200. There may be an area where transmission is received and displayed.

교수 학습 지원 장치(100)는 특정 영역에 가상의 오브젝트를 표시하도록 교수자 단말(300) 및 사용자 단말(200)에 제어 신호를 전송할 수 있다. 가상의 오브젝트는 특정 형태가 아닌 도형이거나, 가상의 학생 모습일 수 있다. 특정 영역은 이와 달리 가상의 오브젝트가 없이 부가 컨텐츠를 표시하는 공백의 영역일 수 있다.The teaching and learning support device 100 may transmit a control signal to the instructor terminal 300 and the user terminal 200 to display a virtual object in a specific area. The virtual object may be a shape rather than a specific shape, or it may be a virtual student. In contrast, the specific area may be a blank area that displays additional content without any virtual objects.

교수 학습 지원 장치(100)는 복수의 사용자 단말(200) 중 적어도 일부에서 수집한 정보, 강의 진행에 따라 변화하는 컨텐츠(101) 및 교수자 단말(300)에서 수신한 음성 데이터 중 적어도 하나에 기반하여 부가 컨텐츠를 생성하여 가상의 오브젝트 또는 상기 특정 영역에 표시하도록 사용자 단말(200) 및 교수자 단말(300)에 제어신호를 전송할 수 있다. 이 때, 사용자 단말(200) 및 교수자 단말(300)에 표시되는 부가 컨텐츠는 서로 다를 수 있고, 어느 하나에만 표시될 수도 있다.The teaching and learning support device 100 is based on at least one of information collected from at least some of the plurality of user terminals 200, content 101 that changes as the lecture progresses, and voice data received from the instructor terminal 300. A control signal can be transmitted to the user terminal 200 and the instructor terminal 300 to create additional content and display it on a virtual object or in the specific area. At this time, the additional content displayed on the user terminal 200 and the instructor terminal 300 may be different from each other and may be displayed on only one of the content.

도 2를 참조하여 본 개시의 일 실시 예에 따른 교수 학습 지원 방법을 수행하거나 교수 학습 지원 장치가 구동하기 위한 환경의 일 실시 예를 설명한다.Referring to FIG. 2 , an example of an environment for performing a teaching and learning support method or running a teaching and learning support device according to an embodiment of the present disclosure will be described.

일 실시 예에서, 교수 학습 지원 장치(100)는 강의 플랫폼(100a)과 내부의 교수 학습 지원부(100b)를 포함할 수 있다. 강의 플랫폼(100a)은 사용자 단말(200) 및 교수자 단말(300)과의 접속 과정을 처리하고, 교수자 단말(300)에서 업로드된 컨텐츠를 사용자 단말(200)로 배포하며, 교수자 단말(300)의 실시간 강의 데이터(음성, 필기 등)를 사용자 단말(200)로 배포할 수 있다. 교수 학습 지원부(100b)는 사용자 단말(200) 및 교수자 단말(300)에 가상 오브젝트를 표시하도록 제어하고, 사용자 단말(200) 및 교수자 단말(300)에서 수집한 정보, 교수자 단말(300)에서 업로드된 컨텐츠, 교수자 단말(300)의 실시간 강의 데이터(음성, 필기 등)에 기반하여 부가 컨텐츠를 생성할 수 있다. In one embodiment, the teaching and learning support device 100 may include a lecture platform 100a and an internal teaching and learning support unit 100b. The lecture platform 100a processes the connection process between the user terminal 200 and the instructor terminal 300, distributes the content uploaded from the instructor terminal 300 to the user terminal 200, and Real-time lecture data (voice, handwriting, etc.) can be distributed to the user terminal 200. The teaching and learning support unit 100b controls the display of virtual objects on the user terminal 200 and the instructor terminal 300, and uploads the information collected from the user terminal 200 and the instructor terminal 300 and the instructor terminal 300. Additional content can be created based on the content and real-time lecture data (voice, handwriting, etc.) of the instructor terminal 300.

다른 실시 예에서, 강의 플랫폼(100a)과 교수 학습 지원 장치는 별도의 장치로 구성될 수 있고, 이 경우 교수 학습 지원 장치는 강의 플랫폼(100a)과 연계하여 강의 플랫폼(100)을 통해 가상 오브젝트 및 생성된 부가 컨텐츠를 사용자 단말(200) 및 교수자 단말(300)에 배포하도록 요청할 수 있다. 또한, 부가 컨텐츠 생성을 위하여 사용자 단말(200) 및 교수자 단말(300)에서 수집한 정보, 교수자 단말(300)에서 업로드된 컨텐츠, 교수자 단말(300)의 실시간 강의 데이터(음성, 필기 등)을 강의 플랫폼(100a)으로부터 수신할 수 있다.In another embodiment, the teaching platform 100a and the teaching and learning support device may be configured as separate devices. In this case, the teaching and learning support device is linked to the teaching platform 100a and provides virtual objects and learning through the teaching platform 100. It may be requested to distribute the generated additional content to the user terminal 200 and the instructor terminal 300. In addition, in order to create additional content, information collected from the user terminal 200 and the instructor terminal 300, content uploaded from the instructor terminal 300, and real-time lecture data (voice, handwriting, etc.) from the instructor terminal 300 are used in the lecture. It can be received from the platform 100a.

도 3을 참조하여 본 개시의 다른 실시 예에 따른 교수 학습 지원 방법을 수행하거나 교수 학습 지원 장치가 구동하기 위한 환경의 일 실시 예를 설명한다.Referring to FIG. 3 , an example of an environment for performing a teaching and learning support method or running a teaching and learning support device according to another embodiment of the present disclosure will be described.

도 2를 참조하여 설명한 실시 예는 원격 화상 회의를 통한 교수 학습 지원 기술이나, 도 3을 참조하여 설명하는 실시 예는 대면 수업 등의 오프라인에 기반한 강의, 회의 등의 경우 교수 학습을 지원하는 기술이다. 아래에서는 강의 플랫폼(100a)과 내부의 교수 학습 지원부(100b)가 하나의 장치에 구성된 것을 전제로 설명하지만, 도 2와 마찬가지로 별도의 장치로 구성될 수 있다.The embodiment described with reference to FIG. 2 is a technology to support teaching and learning through remote video conferencing, while the embodiment described with reference to FIG. 3 is a technology to support teaching and learning in the case of offline-based lectures and meetings, such as face-to-face classes. . Below, the description will be made on the assumption that the lecture platform 100a and the internal teaching and learning support unit 100b are configured in one device, but as in FIG. 2, they may be configured as separate devices.

교수 학습 지원 장치(100)는 복수의 사용자 단말(201)의 접속 절차를 처리하고, 교수자(301)가 업로드한 컨텐츠를 제1 디스플레이 장치(101)에 표시한다. 교수 학습 지원 장치(100)는 교수자(301)의 음성 데이터를 수집하거나, 복수의 사용자 단말(201) 및 교수자(301)가 업로드한 컨텐츠에 기반하여 부가 컨텐츠를 생성한 후 제2 디스플레이 장치(103)에 부가 컨텐츠를 표시할 수 있다. 부가 컨텐츠는 제2 디스플레이 장치(103)에 표시되는 가상의 학생, 가상의 오브젝트 등으로 사운드 또는 시각화 요소로서 표시할 수 있다. 도 3의 실시 예는 제2 디스플레이 장치(103)에 가상의 학생이 3차원 홀로그램으로 표시되거나 2차원 디스플레이 장치에 표시될 수 있다.The teaching and learning support device 100 processes the connection procedure of the plurality of user terminals 201 and displays content uploaded by the instructor 301 on the first display device 101. The teaching and learning support device 100 collects the voice data of the instructor 301 or generates additional content based on the content uploaded by the plurality of user terminals 201 and the instructor 301 and then displays the second display device 103. ), additional content can be displayed. Additional content may be displayed as a sound or visualization element such as a virtual student or virtual object displayed on the second display device 103. In the embodiment of FIG. 3, the virtual student may be displayed as a 3D hologram on the second display device 103 or may be displayed on a 2D display device.

본 명세서에서 표시, 디스플레이는 반드시 시각화 요소로 표출하는 것 이외에도 사운드, LED 등 외부에 시각적, 청각적 요소로 표출하는 모든 방식을 포함하는 개념이다. In this specification, sign and display are concepts that include all methods of expressing externally as visual and auditory elements, such as sound and LED, in addition to necessarily expressing them as visual elements.

도 4를 참조하여 본 개시의 일 실시 예에 따른 교수 학습 지원 장치(100)의 구성을 설명한다.The configuration of the teaching and learning support device 100 according to an embodiment of the present disclosure will be described with reference to FIG. 4 .

교수 학습 지원 장치(100)는 사용자 단말(200) 및 교수자 단말(300)의 접속 처리를 수행하거나 사용자 단말(200)의 질문 정보를 수신하거나, 사용자 단말(200)의 선택 정보를 수신하거나, 교수자 단말(300)의 음성을 수신하거나, 사용자 단말(200) 및 교수자 단말(300)의 카메라에서 획득한 영상 정보 또는 영상 정보를 처리한 눈동자 위치 정보 등을 수신하는 통신부(110), 프로세서(130)의 수행을 처리하도록 지시하는 코드(code) 또는 컨텐츠 등을 저장하는 메모리(120)를 포함할 수 있다. 교수 학습 지원 장치(100)는 사용자 단말(200) 및 교수자 단말(300)의 카메라에서 획득한 영상 정보를 딥러닝 기반의 학습 모델에 입력하여 표정을 판단하거나 음성 정보로부터 키워드를 추출하는 학습 모델(150) 및 딥러닝 기반의 프로세스를 가속화하는 딥러닝 프로세서(140)를 포함할 수 있다. 교수 학습 지원 장치(100)는 관리자 등의 사용자 인터페이싱을 위한 인터페이스(150) 및 디스플레이(170)를 포함할 수 있다.The teaching and learning support device 100 performs connection processing between the user terminal 200 and the instructor terminal 300, receives question information from the user terminal 200, receives selection information from the user terminal 200, or performs connection processing between the user terminal 200 and the instructor terminal 300. A communication unit 110 and a processor 130 that receive voice from the terminal 300, image information acquired from the camera of the user terminal 200 and the instructor terminal 300, or eye position information obtained by processing the image information. It may include a memory 120 that stores code or content that instructs the execution of . The teaching and learning support device 100 inputs image information acquired from the cameras of the user terminal 200 and the instructor terminal 300 into a deep learning-based learning model to determine facial expressions or extract keywords from voice information (a learning model ( 150) and a deep learning processor 140 that accelerates deep learning-based processes. The teaching and learning support device 100 may include an interface 150 and a display 170 for user interface, such as administrators.

일 실시 예에서, 교수 학습 지원 장치(100)의 통신부(110)는 통신 인터페이스로서 무선 통신부 또는 유선 통신부를 포함할 수 있다.In one embodiment, the communication unit 110 of the teaching and learning support device 100 may include a wireless communication unit or a wired communication unit as a communication interface.

무선 통신부는, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.The wireless communication unit may include at least one of a mobile communication module, a wireless Internet module, a short-range communication module, and a location information module.

이동통신 모듈은, 이동통신을 위한 통신방식인 LTE(Long Term Evolution) 등에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. The mobile communication module transmits and receives wireless signals with at least one of a base station, an external terminal, and a server on a mobile communication network built according to LTE (Long Term Evolution), a communication method for mobile communication.

무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈로서, 교수 학습 지원 장치(100)에 내장되거나 외장될 수 있고, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance) 등이 사용될 수 있다.The wireless Internet module is a module for wireless Internet access and can be built into or external to the teaching and learning support device 100, and supports WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), and Wi-Fi (Wireless Fidelity) Direct. , DLNA (Digital Living Network Alliance), etc. may be used.

근거리 통신 모듈은 근거리 통신을 통하여 데이터 송수신을 위한 모듈로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication) 등을 사용할 수 수 있다.The short-range communication module is a module for transmitting and receiving data through short-distance communication, including Bluetooth™, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, and NFC (Near Field). Communication), etc. can be used.

위치정보 모듈은 교수 학습 지원 장치(100)의 위치를 획득하기 위한 모듈로서, 위성 항법 기술에 기반한 GPS(Global Positioning System) 모듈이거나, 무선 통신 기지국, 무선 액세스 포인트와의 무선 통신에 기반하여 위치를 획득하는 모듈일 수 있다. 위치정보 모듈은 WiFi 모듈을 포함할 수 있다.The location information module is a module for acquiring the location of the teaching and learning support device 100, and is either a GPS (Global Positioning System) module based on satellite navigation technology, or a location information module based on wireless communication with a wireless communication base station or wireless access point. It may be a module that is acquired. The location information module may include a WiFi module.

일 실시 예에서, 교수 학습 지원 장치(100)는 사용자의 입력을 위한 입력부 또는 출력부를 포함할 수 있다.In one embodiment, the teaching and learning support device 100 may include an input unit or an output unit for user input.

입력부는 마이크로폰, 사용자로부터 정보를 입력 받기 위한 터치 인터페이스를 포함하는 사용자 인터페이스(UI: User Interface)를 포함하고, 사용자 인터페이스는 마우스, 키보드뿐만 아니라 장치에 구현된 기계식, 전자식 인터페이스 등을 포함할 수 있고 사용자의 명령을 입력 가능한 것이라면 특별히 그 방식과 형태를 한정하지 않는다. 전자식 인터페이스는 터치 입력 가능한 디스플레이를 포함한다.The input unit includes a user interface (UI: User Interface) including a microphone and a touch interface for receiving information from the user, and the user interface may include a mouse, a keyboard, as well as mechanical and electronic interfaces implemented in the device. As long as the user's command can be input, the method and form are not particularly limited. The electronic interface includes a display capable of touch input.

디스플레이(170)는 교수 학습 지원 장치(100)의 출력을 외부에 표출하여 사용자에게 정보를 전달하기 위한 것으로서, 시각적 출력, 청각적 출력 또는 촉각적 출력을 표출하기 위한 디스플레이, LED, 스피커 등을 포함할 수 있다.The display 170 is used to deliver information to the user by displaying the output of the teaching and learning support device 100 to the outside, and includes a display, LED, speaker, etc. for displaying visual output, auditory output, or tactile output. can do.

교수 학습 지원 장치(100)는 다양한 종류의 연결된 외부 기기와의 데이터 전송을 위한 주변 장치 인터페이스(160)를 포함할 수 있고, 메모리 카드(memory card) 포트, 외부 장치 I/O(Input/Output) 포트(port) 등을 포함할 수 있다. The teaching and learning support device 100 may include a peripheral device interface 160 for data transmission with various types of connected external devices, a memory card port, and external device I/O (Input/Output). It may include ports, etc.

딥러닝 기반의 학습 모델은 학습 모델은 CNN 또는 R-CNN(Region based CNN), C-RNN(Convolutional Recursive Neural Network), Fast R-CNN, Faster R-CNN, R-FCN(Region based Fully Convolutional Network), YOLO(You Only Look Once) 또는 SSD(Single Shot Multibox Detector), RNN(Recursive neural network), LSTM(Long Short-Term Memory)구조의 신경망을 포함할 수 있다.Deep learning-based learning models include CNN or R-CNN (Region based CNN), C-RNN (Convolutional Recursive Neural Network), Fast R-CNN, Faster R-CNN, and R-FCN (Region based Fully Convolutional Network). ), YOLO (You Only Look Once) or SSD (Single Shot Multibox Detector), RNN (Recursive neural network), and LSTM (Long Short-Term Memory) structures may be included.

학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있으며, 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어는 메모리에 저장될 수 있다.The learning model may be implemented in hardware, software, or a combination of hardware and software. If part or all of the learning model is implemented in software, one or more instructions constituting the learning model may be stored in memory.

도 5를 참조하여 본 개시의 일 실시 예에 따른 교수 학습 지원 장치(100)의 교수 학습 지원 방법을 설명한다.A teaching and learning support method of the teaching and learning support device 100 according to an embodiment of the present disclosure will be described with reference to FIG. 5 .

앞에서 설명한 것처럼, 본 방법은 사용자 단말(200) 및 교수자 단말(300)의 접속 절차를 처리하거나 컨텐츠를 배포하는 강의 플랫폼(100a)이 하나의 장치로 구성된 것을 전제로 하여 설명하지만, 서로 별개로 구성된 것을 배제하지 않는다.As described above, this method is explained on the premise that the lecture platform 100a, which processes the connection procedure of the user terminal 200 and the instructor terminal 300 or distributes content, is configured as a single device, but is configured separately from each other. do not rule out

교수 학습 지원 장치(100)는 사용자 단말(200) 및 교수자 단말(300)의 접속 절차를 처리한다(S110). 교수 학습 지원 장치(100)가 강의 지원 장치인 경우 사용자 단말(200)은 학습자 단말일 수 있다.The teaching and learning support device 100 processes the connection procedure of the user terminal 200 and the instructor terminal 300 (S110). If the teaching and learning support device 100 is a lecture support device, the user terminal 200 may be a learner terminal.

교수 학습 지원 장치(100)는 접속 절차가 완료된 사용자 단말(200)에 교수자 단말(300)이 미리 또는 실시간으로 업로드하는 컨텐츠를 전송한다(S120).The teaching and learning support device 100 transmits content uploaded by the instructor terminal 300 in advance or in real time to the user terminal 200 for which the connection procedure has been completed (S120).

교수 학습 지원 장치(100)는 사용자 단말(200) 및 교수자 단말(300)에 가상 오브젝트를 표시하도록 제어 신호를 전송한다(S130). 가상 오브젝트는 이후의 부가 컨텐츠를 표시할 때, 표시의 주체로서 디스플레이에 표시되는 객체로서, 인물의 형태인 가상의 인물이거나, 특별히 그 형태를 한정하지 않는다.The teaching and learning support device 100 transmits a control signal to display a virtual object to the user terminal 200 and the instructor terminal 300 (S130). A virtual object is an object displayed on the display as the subject of display when displaying additional content later, and is a virtual character in the form of a person or is not particularly limited in its form.

이후, 교수 학습 지원 장치(100)는 사용자 단말(200) 및 교수자 단말(300)에서 수집한 정보, 교수자 단말(300)에서 업로드된 컨텐츠, 교수자 단말(300)의 실시간 강의 데이터(음성, 필기 등) 등에 기반하여 부가 컨텐츠를 생성하고(S140), 사용자 단말(200) 및 교수자 단말(300) 중 적어도 하나에 부가 컨텐츠를 표시하도록 제어 신호를 전송한다(S150).Afterwards, the teaching and learning support device 100 collects information collected from the user terminal 200 and the instructor terminal 300, content uploaded from the instructor terminal 300, and real-time lecture data (voice, handwriting, etc.) of the instructor terminal 300. ), etc., generate additional content (S140), and transmit a control signal to display the additional content on at least one of the user terminal 200 and the instructor terminal 300 (S150).

사용자 단말(200)에서 수집한 정보는 컨텐츠에 대한 사용자(학습자)들의 피드백 정보일 수 있다. 예를 들어, 사용자 단말(200) 에 현재 컨텐츠의 이해 정도에 대한 피드백이 가능한 인터페이스가 표시되고, 이에 대한 사용자들의 선택 입력(예를 들면, '이해가 안됨'이라는 버튼 또는 5점 척도에서의 척도 값에 대한 선택 등)일 수 있다. 다른 예로서, 피드백 정보는 사용자들의 질문이거나, 특정 사용자의 질문에 대한 동의 선택일 수 있다. 예를 들어, 사용자 단말(200)들로부터 수집된 질문들이 피드백 정보이거나 수집된 질문들을 사용자 단말(200)에 표시하고, 그에 대한 각 사용자 단말(200)의 동의 또는 선택 여부를 수집한 정보가 피드백 정보일 수 있다.Information collected by the user terminal 200 may be feedback information from users (learners) about the content. For example, an interface that allows feedback on the degree of understanding of the current content is displayed on the user terminal 200, and users select input in response to this (for example, a button saying 'I do not understand' or a scale on a 5-point scale) selection of values, etc.). As another example, the feedback information may be questions from users or a consent selection for a specific user's question. For example, the questions collected from the user terminals 200 are feedback information, or the collected questions are displayed on the user terminal 200, and the information collected about whether each user terminal 200 agrees or selects them is feedback information. It could be information.

아래의 실시 예들은 피드백 정보가 질문 정보인 것을 전제로 하여 설명한다.The following embodiments are explained on the assumption that the feedback information is question information.

도 6을 참조하여, 부가 컨텐츠의 실시 예 및 부가 컨텐츠를 표시하도록 제어 신호를 전송하는 시점을 결정하는 방법의 실시 예를 설명한다.Referring to FIG. 6, an embodiment of additional content and an embodiment of a method for determining when to transmit a control signal to display additional content will be described.

일 실시 예에서, 교수 학습 지원 장치(100)는 사용자 단말기(200)의 적어도 일부에서 컨텐츠에 관한 복수의 질문 정보를 수신하고, 복수의 질문 정보에 기반하여 부가 컨텐츠를 생성할 수 있다. 예를 들어, 복수의 사용자 단말기(200)로부터 복수의 질문을 수신한 후, 수신된 복수의 질문을 리스트화하여 사용자 단말기(200)에 전송하고, 사용자 단말기(200)의 선택(선호도)에 따라 복수의 질문을 우선 순위화 한 후, 그 중 일부의 질문을 선택하여 부가 컨텐츠로 생성하여, 사용자 단말기(200) 및 교수자 단말기(300)에 결정된 질문을 표시하도록 제어 신호를 전송할 수 있다. 이러한 부가 컨텐츠를 확인한 교수자는 가상 오브젝트를 통하여 표시된 질문에 대하여 추가적인 설명을 진행한 후 다음 내용으로 이어갈 수 있다.In one embodiment, the teaching and learning support device 100 may receive a plurality of question information regarding content from at least a portion of the user terminal 200 and generate additional content based on the plurality of question information. For example, after receiving a plurality of questions from a plurality of user terminals 200, the plurality of questions received are listed and transmitted to the user terminal 200, and the questions are answered according to the selection (preference) of the user terminal 200. After prioritizing a plurality of questions, some of the questions may be selected and created as additional content, and a control signal may be transmitted to display the determined questions on the user terminal 200 and the instructor terminal 300. After checking this additional content, the instructor can provide additional explanations for the questions displayed through virtual objects and then move on to the next content.

이 경우, 다수의 학습자들의 공통된 질문으로 많은 시간을 소비하거나, 능동적으로 강의에 참여하기 어려운 학생들이 간접적인 방식으로 강의에 능동적으로 참여할 수 있는 방법을 제공하고, 학습자들의 강의 이해를 돕는 효과가 있다.In this case, it provides a way for students who spend a lot of time asking common questions from multiple learners or have difficulty actively participating in the lecture to actively participate in the lecture in an indirect way, and has the effect of helping learners understand the lecture. .

일 실시 예에서, 교수 학습 지원 장치(100)는 교수자 단말기(300) 또는 교수자(301)의 음성 데이터를 수신하고, 음성 데이터를 텍스트 데이터로 변환한 후, 텍스트 데이터를 딥러닝에 기반한 학습 모델, 또는 단어를 추출하고 추출된 단어 중 현출된 빈도 수에 기반하여 워드 클라우드(word cloud) 형식(610)으로 부가 컨텐츠를 생성할 수 있다. In one embodiment, the teaching and learning support device 100 receives voice data from the instructor terminal 300 or the instructor 301, converts the voice data into text data, and converts the text data into a learning model based on deep learning, Alternatively, words may be extracted and additional content may be created in a word cloud format 610 based on the frequencies that appear among the extracted words.

일 실시 예에서, 교수 학습 지원 장치(100)는 교수자 단말기(300)에서 업로드 된 컨텐츠에 포함된 단어(키워드)를 기준으로 워드 클라우드를 형성하거나, 단순히 교수자의 음성 데이터에 기반하여 워드 클라우드를 형성할 수 있다. 교수 학습 지원 장치(100)는 미리 설정된 시간 간격 또는 워드 클라우드에 포함된 단어의 빈도 수에 따라 현출 순위가 변경되는 경우에 워드 클라우드 내용을 변경하여 표시하도록 제어 신호를 전송함으로써, 컨텐츠의 진행에 따라 학습자들이 중요한 강의 내용을 시의 적절하게 시각적으로 이해할 수 있는 효과가 있다. 따라서, 학습자의 학습 능률을 향상시킬 수 있다. In one embodiment, the teaching and learning support device 100 forms a word cloud based on words (keywords) included in content uploaded from the instructor terminal 300, or simply forms a word cloud based on the instructor's voice data. can do. The teaching and learning support device 100 transmits a control signal to change and display the word cloud content when the salience rank changes according to a preset time interval or the frequency of words included in the word cloud, so that the content changes according to the progress of the content. It has the effect of allowing learners to visually understand important lecture content in a timely manner. Therefore, the learner's learning efficiency can be improved.

예를 들어, 교수자 단말기(300)에서 업로드 된 컨텐츠에 포함된 단어(키워드)를 기준으로 워드 클라우드를 형성하는 경우, 컨텐츠 표시가 시작된 이후부터 현재까지의 컨텐츠 내용으로 워드 클라우드를 형성할 수 있다. 또는, 복수의 사용자 단말에서 컨텐츠의 현재 표시되는 페이지로부터 미리 설정된 범위 이내의 컨텐츠에 포함된 단어(키워드)를 기준으로 워드 클라우드를 형성할 수 있다. 미리 설정된 범위는 컨텐츠가 페이지로 구성된 경우 현재 표시되는 페이지로부터 일정 페이지 범위 앞 및/또는 뒤의 컨텐츠에 기반하여 워드 클라우드를 형성할 수 있다. 따라서, 컨텐츠의 진행에 따라 학습자들이 중요한 강의 내용을 시의 적절하게 시각적으로 이해할 수 있는 효과를 배가시킬 수 있다. For example, when forming a word cloud based on words (keywords) included in content uploaded from the instructor terminal 300, the word cloud can be formed with the contents of the content from the start of content display to the present. Alternatively, a word cloud may be formed based on words (keywords) included in the content within a preset range from the page currently displaying the content on a plurality of user terminals. When the content consists of pages, the preset range can form a word cloud based on content before and/or after a certain page range from the currently displayed page. Therefore, the effect of allowing learners to visually understand important lecture content in a timely manner can be doubled as the content progresses.

일 실시 예에서, 교수 학습 지원 장치(100)는 교수자 단말기(300)에서 수신한 음성 데이터에서 현출된 빈도수가 높은 키워드, 컨텐츠를 분석하여 현출된 빈도수가 높은 키워드 및 워드 클라우드의 키워드들 중 적어도 하나와 사용자 단말(200)에 현재 표시 중인 컨텐츠에 포함된 단어를 비교하여, 키워드와 일치하는 것으로 판단된 일부 단어를 다른 단어와 다르게 표시할 수 있고, 이는 단어의 형태적 크기가 다르거나 색깔을 다르게 표시하는 것일 수 있다. 예를 들어, 음성 데이터에 현출된 단어의 빈도 수에 기반하여 단어의 형태적 크기가 다르게 표시하면서도, 컨텐츠에 포함된 단어인 경우(유사어 포함) 색을 다르게 표시하도록 부가 컨텐츠를 생성할 수 있다. 혹은 그 반대로, 교수자 단말기(300)에서 업로드 된 컨텐츠 중에서 워드 클라우드에 포함된 일정 빈도 수 이상의 단어들을 색이나 형태를 다르게 표시하도록 컨텐츠를 수정함으로써, 학습자들이 중요한 강의 내용을 시의 적절하게 시각적으로 이해하도록 도움을 줄 수 있다.In one embodiment, the teaching and learning support device 100 includes at least one of a keyword with a high frequency that emerges from the voice data received from the instructor terminal 300, a keyword with a high frequency that emerges by analyzing the content, and a keyword in a word cloud. By comparing words included in the content currently being displayed on the user terminal 200, some words determined to match the keyword may be displayed differently from other words, which may include words having different morphological sizes or different colors. It may be indicated. For example, additional content can be created to display words with different morphological sizes based on the frequency of words that appear in the voice data, while displaying words included in the content (including similar words) in different colors. Or vice versa, by modifying the content to display words with a certain frequency or higher in the word cloud among the content uploaded from the instructor terminal 300 in different colors or shapes, learners can visually understand important lecture content in a timely manner. can help you do this.

교수 학습 지원 장치(100)는 생성한 부가 컨텐츠를 표시하도록 요청하는 제어 신호를 생성 시점에 사용자 단말(200) 및 교수자 단말(300) 중 적어도 어느 하나에 전송하는 것이 아니라, 전송할 시점을 결정할 수 있다(620). 이러한 방식으로, 교수자의 강의 또는 발표 흐름을 방해하지 않거나, 학습자들의 이해가 부족한 경우를 교수자가 놓치지 않도록 함으로써 학습 능률을 향상시킬 수 있다.The teaching and learning support device 100 may determine when to transmit a control signal requesting to display the generated additional content rather than transmitting it to at least one of the user terminal 200 and the instructor terminal 300 at the time of creation. (620). In this way, learning efficiency can be improved by not interrupting the flow of the instructor's lecture or presentation or by ensuring that the instructor does not miss cases where learners lack understanding.

일 실시 예에서, 교수 학습 지원 장치(100)는 복수의 사용자 단말(200)로부터 수신한 복수의 질문 정보에 기반하여 부가 컨텐츠를 표시하도록 요청하는 제어 신호를 전송하는 시점을 결정할 수 있다. 예를 들어, 복수의 질문 정보에 포함된 단어의 현출 빈도를 산출하여 특정 단어의 현출 빈도가 일정 횟수를 넘어서거나, 복수의 질문 정보에 대한 사용자 단말(200)의 선호도 정보가 특정 질문 정보의 경우 일정 횟수를 넘어서는 경우, 학습자들이 컨텐츠 이해도가 부족한 것으로 판단하여 부가 컨텐츠를 표시하도록 요청하는 제어 신호를 전송할 수 있다.In one embodiment, the teaching and learning support device 100 may determine when to transmit a control signal requesting to display additional content based on a plurality of question information received from a plurality of user terminals 200. For example, if the frequency of occurrence of words included in a plurality of question information is calculated and the frequency of occurrence of a specific word exceeds a certain number of times, or if the preference information of the user terminal 200 for a plurality of question information is in the specific question information, If the number exceeds a certain number of times, it is determined that the learners lack understanding of the content, and a control signal requesting display of additional content may be transmitted.

다른 실시 예에서, 교수 학습 지원 장치(100)는 교수자 단말기(300)에서 수신한 음성 데이터 또는 컨텐츠의 컨텍스트(context)에 기반하여 부가 컨텐츠를 표시하도록 요청하는 제어 신호를 전송하는 시점을 결정할 수 있다. 예를 들어, 교수 학습 지원 장치(100)는 교수자 단말기(300)에서 수신한 음성 데이터 중 강의를 설명하는 내용과 질문을 독려하는 내용을 구분하여 질문을 독려하는 내용이라고 판단하는 경우 부가 컨텐츠를 표시하도록 요청하는 제어 신호를 전송할 수 있다. 다른 예로서, 교수 학습 지원 장치(100)는 교수자가 제공한 컨텐츠에 대한 교수자 단말기(300)의 컨텐츠 표시 제어 신호에 따른 컨텐츠 변경을 모니터링 하면서, 컨텐츠의 전후 변경이 큰 시점(예를 들면, 챕터의 변경)을 판단하고 해당 시점에 부가 컨텐츠를 표시하도록 요청하는 제어 신호를 전송할 수 있다. 이 경우, 컨텐츠의 각 페이지를 특정 챕터의 내용인지 다음 챕터의 시작인지를 레이블링한 훈련 데이터로 학습한 딥러닝 기반의 학습 모델에 컨텐츠의 진행에 따른 화면 이지미를 입력하여 전후 변경이 큰 시점을 판단할 수 있다. 또는, 컨텐츠의 챕터 표시에 해당하는 텍스트를 비교함으로써 전후 변경이 큰 시점을 판단할 수 있다.In another embodiment, the teaching and learning support device 100 may determine when to transmit a control signal requesting to display additional content based on the context of the voice data or content received from the instructor terminal 300. . For example, the teaching and learning support device 100 distinguishes between content explaining the lecture and content encouraging questions among the voice data received from the instructor terminal 300, and displays additional content when it determines that the content encourages questions. A control signal requesting to do so may be transmitted. As another example, the teaching and learning support device 100 monitors content changes according to the content display control signal of the instructor terminal 300 for content provided by the instructor, and detects changes at a time when the content has a large change before and after (for example, chapter change) and transmit a control signal requesting that additional content be displayed at that time. In this case, screen images according to the progress of the content are entered into a deep learning-based learning model learned with training data that labels each page of content as whether it is the content of a specific chapter or the start of the next chapter to determine the point in time when there is a large change before and after. can do. Alternatively, it is possible to determine when there is a significant change before and after by comparing the text corresponding to the chapter indication of the content.

도 7을 참조하여, 부가 컨텐츠의 실시 예 및 부가 컨텐츠를 표시하도록 제어 신호를 전송하는 시점을 결정하는 방법의 다른 실시 예를 설명한다.Referring to FIG. 7, another embodiment of an embodiment of additional content and a method of determining when to transmit a control signal to display additional content will be described.

일 실시 예에서, 교수 학습 지원 장치(100)는 사용자 단말기(200) 및 교수자 단말기(300)에서 획득한 영상 정보 혹은 영상 정보로부터 획득한 사용자와 교수자의 눈동자 움직임에 기반하여 부가 컨텐츠를 표시하도록 제어 신호를 전송하는 시점을 결정할 수 있다.In one embodiment, the teaching and learning support device 100 is controlled to display additional content based on the image information acquired from the user terminal 200 and the instructor terminal 300 or the eye movements of the user and the instructor obtained from the image information. You can decide when to transmit the signal.

예를 들어, 교수 학습 지원 장치(100)는 교수자 단말기(300)의 교수자 눈동자 움직임으로부터 현재 교수자가 설명하는 컨텐츠의 위치인 제1 위치 정보(710a, 710b)를 결정할 수 있다. 더불어, 교수 학습 지원 장치(100)는 사용자 단말기(200)의 학습자 눈동자 움직임으로부터 현재 학습자들이 주시하는 컨텐츠의 위치인 제2 위치 정보(720a, 720b)를 결정할 수 있다. 제1 위치 정보 및 제 2 위치 정보는 좌표로 결정될 수도 있고, 일정 시간 간격 동안의 눈동자 움직임에 기반한 영역으로 결정될 수도 있다. For example, the teaching and learning support device 100 may determine the first location information 710a and 710b, which is the location of the content currently explained by the instructor, from the instructor's eye movement of the instructor terminal 300. In addition, the teaching and learning support device 100 may determine the second location information 720a and 720b, which is the location of the content that the learners are currently focusing on, from the learner's eye movement of the user terminal 200. The first location information and the second location information may be determined as coordinates or as an area based on eye movement during a certain time interval.

이후 교수 학습 지원 장치(100)는 제1 위치 정보 및 제 2 위치 정보의 거리, 중첩 정도 등에 기반하여 학습자들이 교수자의 강의를 잘 이해하는 지 판단할 수 있다. 예를 들어, 도 7 (a)와 같이 제1 위치 정보 및 제 2 위치 정보가 영역으로 결정되고, 두 영역의 중첩 정도가 미리 설정된 기준을 넘어서는 경우, 교수자가 설명하는 내용을 학습자가 잘 이해하는 것으로 판단할 수 있다. 반대로, 도 7 (a)와 같이 제1 위치 정보 및 제 2 위치 정보가 영역으로 결정되고, 두 영역의 중심점의 거리가 미리 설정된 기준을 넘어서거나 중첩되는 부분이 없는 경우, 교수자가 설명하는 내용을 학습자가 잘 이해하지 못 하는 것으로 판단하여, 부가 컨텐츠를 표시하도록 제어 신호를 전송할 수 있다. 이 경우, 부가 컨텐츠로서 제2 위치 정보를 표시하면서 "학습자들이 이해하지 못하고 있습니다"라는 표시를 하거나, 사용자 단말기(200)들로부터 수신한 질문 정보를 부가 컨텐츠로서 표시할 수 있다.Thereafter, the teaching and learning support device 100 may determine whether the learners understand the instructor's lecture well based on the distance and degree of overlap between the first location information and the second location information. For example, as shown in Figure 7 (a), when the first location information and the second location information are determined as areas, and the degree of overlap between the two areas exceeds a preset standard, it is difficult for the learner to well understand what the instructor explains. It can be judged that On the other hand, as shown in Figure 7 (a), when the first location information and the second location information are determined as areas, and the distance between the center points of the two areas exceeds a preset standard or there is no overlap, the content explained by the instructor is If it is determined that the learner does not understand well, a control signal can be sent to display additional content. In this case, “Learners do not understand” may be displayed while displaying the second location information as additional content, or the question information received from the user terminals 200 may be displayed as additional content.

다른 실시예로서, 교수 학습 지원 장치(100)는 사용자 단말기(200)에서 획득한 영상 정보 혹은 영상 정보로부터 획득한 사용자의 표정에 기반하여 부가 컨텐츠를 표시하도록 제어 신호를 전송하는 시점을 결정할 수 있다. As another embodiment, the teaching and learning support device 100 may determine the timing of transmitting a control signal to display additional content based on the image information acquired from the user terminal 200 or the user's facial expression obtained from the image information. .

예를 들어, 사용자 단말기(200)에서 획득한 얼굴 이미지를 딥러닝 기반의 학습 모델에 입력하여 표정을 판단하여, 다수의 사용자가 이해하지 못하는 표정, 곤란한 표정 등의 부정적 이미지로 판단되는 경우 "학습자들이 이해하지 못하고 있습니다"라는 표시를 하거나, 사용자 단말기(200)들로부터 수신한 질문 정보를 부가 컨텐츠로서 표시할 수 있다.For example, the facial image obtained from the user terminal 200 is input to a deep learning-based learning model to determine the facial expression, and if it is judged to be a negative image such as an expression that many users do not understand or an expression that is difficult, the "Learner" “They do not understand” may be displayed, or question information received from the user terminals 200 may be displayed as additional content.

전술한 본 개시는, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 각 장치의 프로세서를 포함할 수도 있다.The present disclosure described above can be implemented as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is. Additionally, the computer may include a processor for each device.

한편, 상기 프로그램은 본 개시를 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수 있다. 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the program may be specially designed and configured for the present disclosure, or may be known and usable by those skilled in the art of computer software. Examples of programs may include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

본 개시의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 개시에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. In the specification (particularly in the claims) of the present disclosure, the use of the term “above” and similar referential terms may refer to both the singular and the plural. In addition, when a range is described in the present disclosure, the invention includes the application of individual values within the range (unless there is a statement to the contrary), and each individual value constituting the range is described in the detailed description of the invention. It's the same.

본 개시에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 개시가 한정되는 것은 아니다. 본 개시에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 개시를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 개시의 범위가 한정되는 것은 아니다. 또한, 통상의 기술자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 인자(factor)에 따라 구성될 수 있음을 알 수 있다.Unless there is an explicit order or description to the contrary regarding the steps constituting the method according to the present disclosure, the steps may be performed in any suitable order. The present disclosure is not necessarily limited by the order of description of the steps above. The use of any examples or illustrative terms (e.g., etc.) in the present disclosure is merely to describe the present disclosure in detail, and unless limited by the claims, the scope of the present disclosure is limited by the examples or illustrative terms. It doesn't work. In addition, those skilled in the art will recognize that various modifications, combinations and changes may be made according to design conditions and factors within the scope of the appended claims or their equivalents.

따라서, 본 개시의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 개시의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present disclosure should not be limited to the above-described embodiments, and the scope of the patent claims described below as well as all scopes equivalent to or equivalently changed from the claims are within the scope of the spirit of the present disclosure. It will be said to belong to

100: 교수 학습 지원 장치
101: 컨텐츠
103: 제2 디스플레이 장치
200: 사용자 단말
300: 교수자 단말
610: 워드 클라우드 부가 컨텐츠
620: 부가 컨텐츠 제공 시점
710: 제1 위치 정보
720: 제2 위치 정보
100: Teaching and learning support device
101: Content
103: second display device
200: user terminal
300: Instructor terminal
610: Word cloud additional content
620: Timing of additional content provision
710: First location information
720: Second location information

Claims (14)

각 단계가 프로세서에 의해 수행되는 방법으로서,
복수의 사용자 단말 및 교수자 단말기의 접속 절차를 처리하는 단계;
상기 복수의 사용자 단말에 컨텐츠를 전송하는 단계;
가상 오브젝트를 생성하여 상기 복수의 사용자 단말 또는 상기 교수자 단말기에서 상기 가상 오브젝트를 표시하도록 요청하는 제어 신호를 상기 복수의 사용자 단말 또는 상기 교수자 단말기에 전송하는 단계;
상기 복수의 사용자 단말 중 적어도 일부에서 수집한 정보, 상기 컨텐츠 및 상기 교수자 단말기에서 수신한 음성 데이터 중 적어도 하나에 기반하여 부가 컨텐츠를 생성하는 단계; 및
상기 복수의 사용자 단말 또는 상기 교수자 단말기에서 상기 가상 오브젝트가 상기 부가 컨텐츠를 표시하도록 요청하는 제어 신호를 상기 복수의 사용자 단말 또는 상기 교수자 단말기에 전송하는 단계를 포함하는,
교수 학습 지원 방법.
How each step is performed by a processor, comprising:
Processing a connection procedure for a plurality of user terminals and an instructor terminal;
Transmitting content to the plurality of user terminals;
Generating a virtual object and transmitting a control signal requesting the plurality of user terminals or the instructor terminal to display the virtual object to the plurality of user terminals or the instructor terminal;
generating additional content based on at least one of information collected from at least some of the plurality of user terminals, the content, and voice data received from the instructor terminal; and
Comprising the step of transmitting a control signal requesting that the virtual object display the additional content from the plurality of user terminals or the instructor terminal to the plurality of user terminals or the instructor terminal.
How to support teaching and learning.
각 단계가 프로세서에 의해 수행되는 방법으로서,
복수의 사용자 단말의 접속 절차를 처리하는 단계;
제1 디스플레이 장치에 교수자가 제공한 컨텐츠를 표시하는 단계;
상기 복수의 사용자 단말 중 적어도 일부에서 수집한 정보, 상기 컨텐츠 및 상기 교수자의 음성 데이터 중 적어도 하나에 기반하여 부가 컨텐츠를 생성하는 단계; 및
제2 디스플레이 장치에 상기 부가 컨텐츠를 표시하는 단계를 포함하는,
교수 학습 지원 방법.
How each step is performed by a processor, comprising:
Processing a connection procedure for a plurality of user terminals;
displaying content provided by an instructor on a first display device;
generating additional content based on at least one of information collected from at least some of the plurality of user terminals, the content, and the instructor's voice data; and
Including displaying the additional content on a second display device,
How to support teaching and learning.
프로세서; 및
상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고,
상기 메모리는 상기 프로세서를 통해 실행될 때 상기 프로세서가,
복수의 사용자 단말 및 교수자 단말기의 접속 절차를 처리하고, 상기 복수의 사용자 단말에 컨텐츠를 전송하고, 가상 오브젝트를 생성하여 상기 복수의 사용자 단말 또는 상기 교수자 단말기에서 상기 가상 오브젝트를 표시하도록 요청하는 제어 신호를 상기 복수의 사용자 단말 또는 상기 교수자 단말기에 전송하고, 상기 복수의 사용자 단말 중 적어도 일부에서 수집한 정보, 상기 컨텐츠 및 상기 교수자 단말기에서 수신한 음성 데이터 중 적어도 하나에 기반하여 부가 컨텐츠를 생성하고, 상기 복수의 사용자 단말 또는 상기 교수자 단말기에서 상기 가상 오브젝트가 상기 부가 컨텐츠를 표시하도록 요청하는 제어 신호를 상기 복수의 사용자 단말 또는 상기 교수자 단말기에 전송하도록 야기하는 코드를 저장하는,
교수 학습 지원 장치.
processor; and
A memory electrically connected to the processor and storing at least one code executed by the processor,
When the memory is executed through the processor, the processor
A control signal that processes connection procedures for a plurality of user terminals and instructor terminals, transmits content to the plurality of user terminals, creates a virtual object, and requests the plurality of user terminals or the instructor terminal to display the virtual object. transmitting to the plurality of user terminals or the instructor terminal, and generating additional content based on at least one of information collected from at least some of the plurality of user terminals, the content, and voice data received from the instructor terminal, Storing a code that causes the virtual object to transmit a control signal requesting the plurality of user terminals or the instructor terminal to display the additional content to the plurality of user terminals or the instructor terminal,
Teaching and learning support devices.
제3 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
상기 복수의 사용자 단말 중 적어도 일부에서 컨텐츠에 관한 복수의 피드백 정보를 수신하고, 상기 복수의 피드백 정보에 기반하여 상기 부가 컨텐츠를 생성하도록 야기하는 코드를 더 저장하는,
교수 학습 지원 장치.
According to clause 3,
The memory allows the processor to:
Receiving a plurality of feedback information about content from at least some of the plurality of user terminals, and further storing code that causes the additional content to be generated based on the plurality of feedback information,
Teaching and learning support devices.
제4 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
상기 복수의 사용자 단말 중 적어도 일부에서 강의에 관한 복수의 피드백 정보를 수신하여 상기 복수의 사용자 단말에 표시하도록 요청하는 제어 신호를 상기 복수의 사용자 단말에 전송하고, 상기 복수의 사용자 단말 중 적어도 일부에서 상기 복수의 피드백 정보에 대한 선호도 정보를 수신하고, 상기 선호도 정보에 기반하여 상기 복수의 피드백 정보의 우선 순위를 설정하고, 상기 우선 순위에 기반하여 상기 복수의 피드백 정보 중 적어도 일부를 상기 부가 컨텐츠로 생성하도록 야기하는 코드를 더 저장하는,
교수 학습 지원 장치.
According to clause 4,
The memory allows the processor to:
A control signal requesting to receive a plurality of feedback information about a lecture from at least some of the plurality of user terminals and display the information on the plurality of user terminals is transmitted to the plurality of user terminals, and at least some of the plurality of user terminals Receive preference information for the plurality of feedback information, set a priority of the plurality of feedback information based on the preference information, and convert at least some of the plurality of feedback information to the additional content based on the priority. storing more code that causes it to be generated,
Teaching and learning support devices.
제3 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
상기 부가 컨텐츠를 표시하도록 요청하는 제어 신호를 상기 복수의 사용자 단말 및 상기 교수자 단말기에 전송하는 시점을 결정하도록 야기하는 코드를 더 저장하는,
교수 학습 지원 장치.
According to clause 3,
The memory allows the processor to:
Further storing a code that causes determining when to transmit a control signal requesting to display the additional content to the plurality of user terminals and the instructor terminal,
Teaching and learning support devices.
제6 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
상기 교수자 단말기에서 수신한 상기 음성 데이터 또는 상기 컨텐츠 의 컨텍스트에 기반하여 상기 부가 컨텐츠를 상기 복수의 사용자 단말 및 상기 교수자 단말기에 전송하는 시점을 결정하도록 야기하는 코드를 더 저장하는,
교수 학습 지원 장치.
According to clause 6,
The memory allows the processor to:
Further storing a code that determines when to transmit the additional content to the plurality of user terminals and the instructor terminal based on the voice data received from the instructor terminal or the context of the content,
Teaching and learning support devices.
제6 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
상기 복수의 사용자 단말 중 적어도 일부에서 강의에 관한 복수의 질문 정보를 수신하고, 상기 복수의 질문 정보에 포함된 단어의 현출 빈도를 산출하고, 상기 현출 빈도에 기반하여 상기 부가 컨텐츠를 상기 복수의 사용자 단말 및 상기 교수자 단말기에 전송하는 시점을 결정하도록 야기하는 코드를 더 저장하는,
교수 학습 지원 장치.
According to clause 6,
The memory allows the processor to:
Receive a plurality of question information about a lecture from at least some of the plurality of user terminals, calculate a frequency of occurrence of words included in the plurality of question information, and distribute the additional content to the plurality of users based on the frequency of occurrence. Further storing code that causes the terminal and the instructor terminal to determine when to transmit,
Teaching and learning support devices.
제6 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
상기 교수자 단말기의 사용자의 눈동자 움직임에 기반하여 상기 컨텐츠에서 제1 위치 정보를 결정하고, 상기 복수의 사용자 단말 중 적어도 일부의 사용자의 눈동자 움직임에 기반하여 상기 컨텐츠에서 제2 위치 정보를 결정하고, 상기 제1 위치 정보와 상기 제2 위치 정보의 유사성에 기반하여 상기 부가 컨텐츠를 상기 복수의 사용자 단말 및 상기 교수자 단말기에 전송하는 시점을 결정하도록 야기하는 코드를 더 저장하는,
교수 학습 지원 장치.
According to clause 6,
The memory allows the processor to:
Determining first location information in the content based on the eye movement of the user of the instructor terminal, and determining second location information in the content based on the eye movement of the user of at least some of the plurality of user terminals, Further storing a code that causes determining a time to transmit the additional content to the plurality of user terminals and the instructor terminal based on the similarity of the first location information and the second location information,
Teaching and learning support devices.
제6 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
상기 복수의 사용자 단말 중 적어도 일부에서 상기 복수의 사용자 단말의 사용자들의 얼굴 이미지를 수신하고, 상기 복수의 사용자 단말의 사용자들의 얼굴 이미지를 딥러닝 기반의 학습 모델에 입력하여 표정을 판단하고, 상기 복수의 사용자 단말의 사용자들의 상기 표정에 기반하여 상기 부가 컨텐츠를 상기 복수의 사용자 단말 및 상기 교수자 단말기에 전송하는 시점을 결정하도록 야기하는 코드를 더 저장하는,
교수 학습 지원 장치.
According to clause 6,
The memory allows the processor to:
At least some of the plurality of user terminals receive face images of users of the plurality of user terminals, input facial images of the users of the plurality of user terminals into a deep learning-based learning model to determine facial expressions, and determine facial expressions of the users of the plurality of user terminals. Further storing a code that causes determining a time to transmit the additional content to the plurality of user terminals and the instructor terminal based on the facial expressions of the users of the user terminal,
Teaching and learning support devices.
제3 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
상기 교수자 단말기에서 수신한 음성 데이터 또는 상기 컨텐츠에 기반하여 워드 클라우드를 상기 부가 컨텐츠로서 생성하도록 야기하는 코드를 더 저장하고,
상기 워드 클라우드는 상기 컨텐츠의 진행에 따라 변경되는,
교수 학습 지원 장치.
According to clause 3,
The memory allows the processor to:
Further storing a code that causes a word cloud to be generated as the additional content based on voice data received from the instructor terminal or the content,
The word cloud changes according to the progress of the content,
Teaching and learning support devices.
제11 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
상기 교수자 단말기에서 수신한 음성 데이터에서 현출된 빈도수가 높은 키워드, 상기 컨텐츠를 분석하여 현출된 빈도수가 높은 키워드 및 상기 워드 클라우드에 포함된 키워드 중 적어도 하나를 상기 컨텐츠에서 판단하고, 상기 복수의 사용자 단말로 상기 키워드가 강조된 상기 컨텐츠를 전송하도록 야기하는 코드를 더 저장하는,
교수 학습 지원 장치.
According to claim 11,
The memory allows the processor to:
Determine in the content at least one of a keyword with a high frequency that appears in the voice data received from the instructor terminal, a keyword with a high frequency that appears by analyzing the content, and a keyword included in the word cloud, and the plurality of user terminals further storing code that causes the content to be transmitted with the keyword highlighted,
Teaching and learning support devices.
제11 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
상기 복수의 사용자 단말에서 상기 컨텐츠의 현재 표시되는 페이지로부터 미리 설정된 범위 이내의 상기 컨텐츠로부터 상기 워드 클라우드를 상기 부가 컨텐츠로서 생성하도록 야기하는 코드를 더 저장하는,
교수 학습 지원 장치.
According to claim 11,
The memory allows the processor to:
Further storing a code that causes the word cloud to be generated as the additional content from the content within a preset range from the currently displayed page of the content in the plurality of user terminals,
Teaching and learning support devices.
프로세서; 및
상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고,
상기 메모리는 상기 프로세서를 통해 실행될 때 상기 프로세서가,
복수의 사용자 단말의 접속 절차를 처리하고, 제1 디스플레이 장치에 교수자가 제공한 컨텐츠를 표시하고, 상기 복수의 사용자 단말 중 적어도 일부에서 수집한 정보, 상기 컨텐츠 및 상기 교수자의 음성 데이터 중 적어도 하나에 기반하여 부가 컨텐츠를 생성하고, 제2 디스플레이 장치에 상기 부가 컨텐츠를 표시하도록 야기하는 코드를 저장하는,
교수 학습 지원 장치.

processor; and
A memory electrically connected to the processor and storing at least one code executed by the processor,
When the memory is executed through the processor, the processor
Processes a connection procedure for a plurality of user terminals, displays content provided by an instructor on a first display device, and records information collected from at least some of the plurality of user terminals, the content, and the instructor's voice data. generating additional content based on the content and storing code that causes the additional content to be displayed on a second display device,
Teaching and learning support devices.

KR1020220170899A 2022-12-08 2022-12-08 Apparatus and method for supporting teaching and learning based on virtual helper KR20240085722A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220170899A KR20240085722A (en) 2022-12-08 2022-12-08 Apparatus and method for supporting teaching and learning based on virtual helper

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220170899A KR20240085722A (en) 2022-12-08 2022-12-08 Apparatus and method for supporting teaching and learning based on virtual helper

Publications (1)

Publication Number Publication Date
KR20240085722A true KR20240085722A (en) 2024-06-17

Family

ID=91714143

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220170899A KR20240085722A (en) 2022-12-08 2022-12-08 Apparatus and method for supporting teaching and learning based on virtual helper

Country Status (1)

Country Link
KR (1) KR20240085722A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102383457B1 (en) 2021-05-28 2022-04-08 주식회사 아이스크림에듀 Active artificial intelligence tutoring system that support teaching and learning and method for controlling the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102383457B1 (en) 2021-05-28 2022-04-08 주식회사 아이스크림에듀 Active artificial intelligence tutoring system that support teaching and learning and method for controlling the same

Similar Documents

Publication Publication Date Title
KR102341752B1 (en) Method for assisting lectures with avatar of metaverse space and apparatus thereof
CN113593351B (en) Working method of three-dimensional comprehensive teaching field system
US11410570B1 (en) Comprehensive three-dimensional teaching field system and method for operating same
AU2019262848B2 (en) Interactive application adapted for use by multiple users via a distributed computer-based system
US11069252B2 (en) Collaborative virtual environment
US12026948B2 (en) Techniques for presentation analysis based on audience feedback, reactions, and gestures
KR101899038B1 (en) on-line study and authoring system for eduction contents using analysis of big data
KR102507260B1 (en) Service server for generating lecturer avatar of metaverse space and mehtod thereof
CN113994385A (en) Virtual, augmented and augmented reality system
KR20130100817A (en) A cloud computing based n screen smart education system and the method thereof
Zarraonandia et al. Augmented presentations: Supporting the communication in presentations by means of augmented reality
CN112070865A (en) Classroom interaction method and device, storage medium and electronic equipment
JP2024507961A (en) Interactive avatar training system
US20240096227A1 (en) Content provision system, content provision method, and content provision program
CN114237540A (en) Intelligent classroom online teaching interaction method and device, storage medium and terminal
KR101044976B1 (en) Method for judging a the student's performance
KR20240085722A (en) Apparatus and method for supporting teaching and learning based on virtual helper
CN210072615U (en) Immersive training system and wearable equipment
KR101122188B1 (en) System and method for learning foreign language
CN113837010A (en) Education assessment system and method
Urueta et al. 3d vr180 livestreaming system for semi-synchronous distance learning in tefl applications
US20230237922A1 (en) Artificial intelligence-driven avatar-based personalized learning techniques
KR20230120761A (en) Method for educating in metaverse space using metahuman
KR20220115333A (en) Method, apparatus, and system for providing educational contents based on artificial intelligence
Sawadhakar et al. Design and Implementation of AR/VR (Mixed Reality) For Education.

Legal Events

Date Code Title Description
E902 Notification of reason for refusal