KR102561352B1 - Method and device for providing virtual lecture space - Google Patents

Method and device for providing virtual lecture space Download PDF

Info

Publication number
KR102561352B1
KR102561352B1 KR1020200131407A KR20200131407A KR102561352B1 KR 102561352 B1 KR102561352 B1 KR 102561352B1 KR 1020200131407 A KR1020200131407 A KR 1020200131407A KR 20200131407 A KR20200131407 A KR 20200131407A KR 102561352 B1 KR102561352 B1 KR 102561352B1
Authority
KR
South Korea
Prior art keywords
determined
avatar
student
movement
virtual
Prior art date
Application number
KR1020200131407A
Other languages
Korean (ko)
Other versions
KR20220048350A (en
Inventor
홍진기
Original Assignee
홍진기
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 홍진기 filed Critical 홍진기
Priority to KR1020200131407A priority Critical patent/KR102561352B1/en
Publication of KR20220048350A publication Critical patent/KR20220048350A/en
Application granted granted Critical
Publication of KR102561352B1 publication Critical patent/KR102561352B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Educational Technology (AREA)
  • Computer Hardware Design (AREA)
  • Educational Administration (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

가상의 강의 공간을 제공하는 방법에 있어서, 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타를 디스플레이하는 단계; 상기 강의자 계정의 로그인에 이용된 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면을 디스플레이하는 단계; 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타를 디스플레이하는 단계; 상기 수강자 계정의 로그인에 이용된 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면을 디스플레이하는 단계; 및 상기 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이하는 단계;를 포함하는, 방법이 개시된다.A method of providing a virtual lecture space, comprising: displaying a first avatar that operates in conjunction with a lecturer's account and operates by sensing a lecturer's movement; Displaying an execution screen of a first program executed in a first device used to log in the lecturer account; displaying a second avatar that operates in conjunction with the student's account and operates by sensing the student's movement; displaying an execution screen of a second program executed on a second device used to log in the student account; and displaying a virtual blackboard providing an image obtained based on the lecturer's motion.

Description

효율적인 소통 환경이 구현된 가상의 강의 공간을 제공하는 방법 및 디바이스{Method and device for providing virtual lecture space}Method and device for providing virtual lecture space in which an efficient communication environment is implemented

본 개시는 가상의 강의 공간을 제공하는 방법 및 디바이스에 관한 것이다. The present disclosure relates to a method and device for providing a virtual lecture space.

인터넷, 통신 기술의 발달과 함께 기존의 각종 강의, 회의, 학회, 실험, 실습 등 다자 간 상호 의사 소통이 필요한 환경에 대해 시간과 공간의 제약을 최소화하며 물리적 한계를 극복할 수 있는 가상 공간에 대한 니즈는 지속적으로 증대되어 왔으며, 그에 따른 다양한 기술의 개발 역시 활발하게 이루어지고 있다.Along with the development of the Internet and communication technology, we have developed a virtual space that can overcome physical limitations while minimizing time and space constraints for environments that require multilateral mutual communication such as various existing lectures, conferences, conferences, experiments, and practices. Needs have been continuously increasing, and various technologies are being actively developed accordingly.

이에 따라, 세계 여러 기업에서는 다자간 화상 통화를 이용하여 의사 소통을 수행할 수 있는 서비스를 제공하고 있으나, 이와 같은 종래의 서비스는 현재 자신의 영상을 다수의 사람들이 지켜보고 있는 환경에 따른 심리적 불안, 상대방의 비언어적 단서를 이해하기 위한 과도한 정신적 피로 및 기술적 통신 지연에 따른 집중도 하락 등 화상 통화 환경에서 발생되는 다양한 문제점들이 존재한다.Accordingly, many companies around the world are providing services for communication using multi-party video calls, but such conventional services are currently experiencing psychological anxiety due to the environment in which many people are watching their videos, There are various problems that occur in a video call environment, such as excessive mental fatigue to understand the other party's non-verbal cues and reduced concentration due to technical communication delays.

또한, 다자간 화상 통화와 같은 종래의 서비스를 이용 중에는, 진행 중인 강의 또는 회의 등에 관련된 자료(예: 참고 영상 또는 이미지 등)를 참여자들이 디스플레이하여 진행 중인 강의 또는 회의 등에 활용할 수 있는 기능 및 참여자들의 모션 또는 제스쳐 등을 센싱하여 결정된 현재 상태(예: 졸음 상태 또는 녹음 기능 실행 상태 등)를 디스플레이함으로써 참여자들의 현재 상태를 용이하게 파악할 수 있는 다양한 목적의 소통을 위한 기능들은 종래의 서비스를 통해 제공되고 있지 않아 참여자들 간 원활한 소통이 어렵다는 문제점이 존재한다.In addition, while using a conventional service such as a multiperson video call, a function that allows participants to display materials (eg, reference videos or images) related to an ongoing lecture or meeting to utilize the ongoing lecture or meeting, and participants' motions Alternatively, functions for communication for various purposes that can easily grasp the current state of participants by displaying the current state (eg, drowsy state or recording function execution state) determined by sensing a gesture, etc. are not provided through conventional services. There is a problem that it is difficult to communicate smoothly between participants.

이에 따라, 참여자들 간 관련 자료를 디스플레이하여 제공함으로써 더욱 효율적인 강의 또는 회의가 진행될 수 있고, 참여자들의 현재 상태와 관련된 이미지를 디스플레이함으로써 참여자들 간에 상호 현재 상태를 더욱 용이하게 인지할 수 있는 효율적인 소통 환경이 구현된 가상의 공간을 제공하는 방법 및 디바이스가 요구되고 있다.Accordingly, a more efficient lecture or conference can be conducted by displaying and providing related materials among participants, and an efficient communication environment in which participants can more easily recognize the current state of each other by displaying images related to the current state of the participants. There is a need for a method and device for providing this implemented virtual space.

이러한 종래의 문제점을 해결하기 위한 본 개시의 일 실시 예에 따른 목적은, 가상의 강의 공간에 참여한 다수의 참여자들의 움직임을 센싱하여 동작하는 아바타를 디스플레이하고, 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이 함으로써 실제 사용자의 화상 영상을 통해 참석하는 종래의 방법에서 유발되는 정신적/신체적 부담을 최소화하는 가상의 강의 공간을 제공하는 방법 및 디바이스를 제공하는 데에 있다.An object according to an embodiment of the present disclosure to solve these conventional problems is to display an avatar that operates by sensing the motions of a plurality of participants participating in a virtual lecture space, and to display an image obtained based on the lecturer's motion. It is an object of the present invention to provide a method and device for providing a virtual lecture space that minimizes the mental/physical burden caused by the conventional method of attending through a real user's video image by displaying a virtual blackboard provided.

본 개시의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재들로부터 명확하게 이해될 수 있을 것이다.The objects of the present disclosure are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood from the description below.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제 1 측면에 따르면, 가상의 강의 공간을 제공하는 방법에 있어서, 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타를 디스플레이하는 단계; 상기 강의자 계정의 로그인에 이용된 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면을 디스플레이하는 단계; 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타를 디스플레이하는 단계; 상기 수강자 계정의 로그인에 이용된 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면을 디스플레이하는 단계; 및 상기 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이하는 단계;를 포함하는, 방법을 제공할 수 있다.As a technical means for achieving the above-described technical problem, according to a first aspect of the present disclosure, in a method for providing a virtual lecture space, a first avatar that operates in conjunction with a lecturer's account and operates by sensing the lecturer's movement displaying; Displaying an execution screen of a first program executed in a first device used to log in the lecturer account; displaying a second avatar that operates in conjunction with the student's account and operates by sensing the student's movement; displaying an execution screen of a second program executed on a second device used to log in the student account; and displaying a virtual blackboard providing an image obtained based on the movement of the lecturer.

또한, 상기 제 2 디바이스에서 녹음 기능이 실행되는 경우, 상기 제 2 아바타와 인접한 영역에 상기 녹음 기능이 실행 중임을 나타내는 이미지를 디스플레이하는 단계;를 더 포함할 수 있다.The method may further include, when the recording function is executed in the second device, displaying an image indicating that the recording function is being executed in an area adjacent to the second avatar.

또한, 상기 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물을 디스플레이하는 단계; 및 상기 가상 실험용 대상물의 형상을 상기 강의자의 움직임 및 상기 수강자의 움직임에 따라 갱신하여 디스플레이하는 단계;를 더 포함할 수 있다.In addition, displaying a virtual experiment object generated based on the lecturer's motion; and updating and displaying the shape of the virtual experiment object according to the movement of the lecturer and the movement of the student.

또한, 상기 제 1 아바타, 상기 제 1 프로그램의 실행 화면, 상기 제 2 아바타, 상기 제 2 프로그램의 실행 화면 및 상기 가상 칠판은 상기 가상의 강의 공간이 제공되는 디바이스의 환경에 따라서 2D 또는 3D로 디스플레이될 수 있다.In addition, the first avatar, the execution screen of the first program, the second avatar, the execution screen of the second program, and the virtual blackboard are displayed in 2D or 3D according to the environment of the device in which the virtual lecture space is provided. It can be.

또한, 상기 제 1 프로그램은 상기 강의자의 움직임을 센싱하여 실행되고, 상기 제 2 프로그램은 상기 수강자의 움직임을 센싱하여 실행될 수 있다.Also, the first program may be executed by sensing the movement of the lecturer, and the second program may be executed by sensing the movement of the student.

또한, 상기 제 1 프로그램의 실행 화면은 상기 제 1 아바타와 연동하여 동작하는 제 1 아이템에서 디스플레이되고, 상기 제 2 프로그램의 실행 화면은 상기 제 2 아바타와 연동하여 동작하는 제 2 아이템에서 디스플레이될 수 있다.In addition, the execution screen of the first program may be displayed in a first item that operates in conjunction with the first avatar, and the execution screen of the second program may be displayed in a second item that operates in association with the second avatar. there is.

또한, 상기 가상의 강의 공간을 제공하는 제 3 디바이스의 이용자의 움직임에 따라 결정된 뷰 포인트에 기초하여 상기 제 1 아바타 또는 상기 제 2 아바타를 디스플레이하는 단계;를 더 포함할 수 있다.The method may further include displaying the first avatar or the second avatar based on a viewpoint determined according to a movement of a user of a third device providing the virtual lecture space.

또한, 상기 제 2 아바타를 디스플레이하는 단계는 상기 제 2 디바이스와 상기 제 3 디바이스가 실시간으로 송수신하는 데이터의 연속성에 기초하여 상기 제 2 아바타의 기설정 신체 부위의 반복적인 움직임을 디스플레이할 수 있다.In addition, the displaying of the second avatar may display repetitive movements of preset body parts of the second avatar based on continuity of data transmitted and received between the second device and the third device in real time.

또한, 상기 제 2 아바타를 디스플레이하는 단계는 상기 수강자의 안구 모니터링 결과에 따라 결정된 시선 방향에 기초하여 상기 제 2 아바타와 인접한 영역에 상기 수강자의 수강 상태를 나타내는 이미지를 디스플레이할 수 있다.In addition, in the displaying of the second avatar, an image representing the student's attendance status may be displayed in an area adjacent to the second avatar based on a gaze direction determined according to a result of eyeball monitoring of the student.

본 개시의 제 2 측면에 따르면, 가상의 강의 공간을 제공하는 디바이스에 있어서, 강의자 계정과 연동하여 동작하는 제 1 디바이스 및 수강자 계정과 연동하여 동작하는 제 2 디바이스로부터 강의 제공 데이터를 수신하여 처리하는 프로세서; 및 상기 강의 제공 데이터에 기초하여, 상기 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타, 상기 강의자 계정의 로그인에 이용된 상기 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면, 상기 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타, 상기 수강자 계정의 로그인에 이용된 상기 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면 및 상기 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이하는 디스플레이;를 포함하는, 디바이스를 제공할 수 있다.According to a second aspect of the present disclosure, in a device for providing a virtual lecture space, a first device operating in conjunction with a lecturer account and a second device operating in conjunction with a student account receive and process lecture provision data processor; And based on the lecture provision data, a first avatar that operates in conjunction with the lecturer's account and operates by sensing the lecturer's movement, and an execution screen of the first program executed on the first device used to log in the lecturer's account. , A second avatar that operates in conjunction with the student account and operates by sensing the student's movement, a second program running on the second device used to log in the student account, and based on the lecturer's movement It is possible to provide a device including; a display for displaying a virtual blackboard providing an acquired image.

또한, 상기 디스플레이는 상기 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물을 디스플레이하고, 상기 가상 실험용 대상물의 형상을 상기 강의자의 움직임 및 상기 수강자의 움직임에 따라 갱신하여 디스플레이할 수 있다.In addition, the display may display a virtual experiment object generated based on the lecturer's movement, and update and display the shape of the virtual experiment object according to the lecturer's movement and the student's movement.

또한, 상기 디스플레이는 상기 제 1 아바타, 상기 제 1 프로그램의 실행 화면, 상기 제 2 아바타, 상기 제 2 프로그램의 실행 화면 및 상기 가상 칠판은 상기 가상의 강의 공간이 제공되는 디바이스의 환경에 따라서 2D 또는 2D로 디스플레이할 수 있다.In addition, the display displays the first avatar, the execution screen of the first program, the second avatar, the execution screen of the second program, and the virtual blackboard in a 2D or 2D format according to the environment of the device in which the virtual lecture space is provided. It can be displayed in 2D.

또한, 상기 제 1 프로그램은 상기 강의자의 움직임을 센싱하여 실행되고, 상기 제 2 프로그램은 상기 수강자의 움직임을 센싱하여 실행될 수 있다.Also, the first program may be executed by sensing the movement of the lecturer, and the second program may be executed by sensing the movement of the student.

또한, 상기 제 1 프로그램의 실행 화면은 상기 제 1 아바타와 연동하여 동작하는 제 1 아이템에서 디스플레이되고, 상기 제 2 프로그램의 실행 화면은 상기 제 2 아바타와 연동하여 동작하는 제 2 아이템에서 디스플레이될 수 있다.In addition, the execution screen of the first program may be displayed in a first item that operates in conjunction with the first avatar, and the execution screen of the second program may be displayed in a second item that operates in association with the second avatar. there is.

또한, 상기 디스플레이는 상기 가상의 강의 공간을 제공하는 제 3 디바이스의 이용자의 움직임에 따라 결정된 뷰 포인트에 기초하여 상기 제 1 아바타 또는 상기 제 2 아바타를 디스플레이할 수 있다.Also, the display may display the first avatar or the second avatar based on a viewpoint determined according to a movement of a user of the third device providing the virtual lecture space.

또한, 상기 디스플레이는 상기 제 2 디바이스와 상기 제 3 디바이스가 실시간으로 송수신하는 데이터의 연속성에 기초하여 상기 제 2 아바타의 기설정 신체 부위의 반복적인 움직임을 디스플레이할 수 있다.Also, the display may display repetitive motions of preset body parts of the second avatar based on continuity of data transmitted and received between the second device and the third device in real time.

또한, 상기 디스플레이는 상기 수강자의 안구 모니터링 결과에 따라 결정된 시선 방향에 기초하여 상기 제 2 아바타와 인접한 영역에 상기 수강자의 수강 상태를 나타내는 이미지를 디스플레이할 수 있다.Also, the display may display an image representing the student's attendance status in an area adjacent to the second avatar based on a gaze direction determined according to a result of eyeball monitoring of the student.

본 개시의 제 3 측면에 따르면, 제 1 측면의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.According to the third aspect of the present disclosure, it is possible to provide a computer-readable recording medium on which a program for executing the method of the first aspect is recorded on a computer.

본 개시의 일 실시 예에 따르면, 참여자들의 움직임을 센싱하여 동작하는 아바타를 디스플레이할 수 있어 종래의 화상 통화 방식에 비해 심리적 불안감을 최소화할 수 있다.According to an embodiment of the present disclosure, it is possible to display avatars that operate by sensing motions of participants, thereby minimizing psychological anxiety compared to the conventional video call method.

또한, 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물을 디스플레이하고, 가상 실험용 대상물의 형상을 강의자 및 수강자의 움직임에 따라 갱신하여 디스플레이 함으로써 능동적이며 효율적인 가상 강의 기회를 제공할 수 있다.In addition, an active and efficient virtual lecture opportunity can be provided by displaying a virtual experiment object generated based on the lecturer's movement and updating and displaying the shape of the virtual experiment object according to the movement of the lecturer and the students.

또한, 수강자의 안구 모니터링 결과를 기초로 현재 수강자의 수강 상태를 나타내는 이미지를 디스플레이 함으로써In addition, by displaying an image representing the student's current class status based on the student's eye monitoring result,

본 개시의 효과는 상기한 효과로 한정되는 것은 아니며, 본 개시의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present disclosure are not limited to the above effects, and should be understood to include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present disclosure.

도 1은 본 개시의 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스의 구성을 개략적으로 도시한 블록도이다.
도 2는 본 개시의 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스를 통해 가상의 강의 공간이 제공되는 각 단계를 나타낸 흐름도이다.
도 3은 본 개시의 일 실시 예에 따라 가상의 강의 공간이 제공되는 일 예를 개략적으로 도시한 도면이다.
도 4는 본 개시의 일 실시 예에 따라 디스플레이되는 각 아바타의 일 예를 개략적으로 도시한 도면이다.
도 5는 본 개시의 일 실시 예에서 제 3 디바이스의 이용자의 움직임에 따라 각 아바타를 디스플레이하는 일 예를 개략적으로 도시한 도면이다.
도 6은 본 개시의 일 실시 예에 따라 가상 실험용 대상물을 디스플레이하는 일 예를 도시한 개략적으로 도면이다.
도 7은 본 개시의 일 실시 예에 따라 가상 실험용 대상물을 디스플레이하는 일 예를 도시한 개략적으로 도면이다.
도 8은 본 개시의 일 실시 예에 따른 가상의 강의 공간의 맞춤형 디자인을 개략적으로 도시한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 가상의 강의 공간의 맞춤형 디자인을 개략적으로 도시한 도면이다.
1 is a block diagram schematically illustrating the configuration of a device for providing a virtual lecture space according to an embodiment of the present disclosure.
2 is a flowchart illustrating each step of providing a virtual lecture space through a device for providing a virtual lecture space according to an embodiment of the present disclosure.
3 is a diagram schematically illustrating an example in which a virtual lecture space is provided according to an embodiment of the present disclosure.
4 is a diagram schematically illustrating an example of each avatar displayed according to an embodiment of the present disclosure.
5 is a diagram schematically illustrating an example of displaying each avatar according to a user's movement of a third device according to an embodiment of the present disclosure.
6 is a schematic diagram illustrating an example of displaying a virtual experiment object according to an embodiment of the present disclosure.
7 is a schematic diagram illustrating an example of displaying a virtual experiment object according to an embodiment of the present disclosure.
8 is a diagram schematically illustrating a customized design of a virtual lecture space according to an embodiment of the present disclosure.
9 is a diagram schematically illustrating a customized design of a virtual lecture space according to an embodiment of the present disclosure.

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시 예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention can be implemented in many different forms, and therefore is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "indirectly connected" with another member interposed therebetween. . In addition, when a part "includes" a certain component, it means that it may further include other components without excluding other components unless otherwise stated.

이하 첨부된 도면을 참고하여 본 발명의 실시 예들을 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

이하의 본 명세서에서는 가상의 강의 공간에서 수행되는 모든 활동들을 '강의'로 한정하여 실시 예들을 설명하지만, 반드시 이에 국한되지는 않는다. 예를 들어, 실시 예들에서 설명하는 가상의 강의 공간에서 수행되는 모든 활동은 강의 외에 회의, 업무, 학회, 세미나, 실험, 실습 등 다양한 활동들을 포함할 수 있다.In the following specification, all activities performed in a virtual lecture space are limited to 'lecture' to describe embodiments, but are not necessarily limited thereto. For example, all activities performed in the virtual lecture space described in the embodiments may include various activities such as meetings, work, conferences, seminars, experiments, and practice other than lectures.

도 1은 본 개시의 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)의 구성을 개략적으로 도시한 블록도이다.1 is a block diagram schematically illustrating a configuration of a device 100 for providing a virtual lecture space according to an embodiment of the present disclosure.

도 1을 참조하면, 가상의 강의 공간을 제공하는 디바이스(100)는 강의자 계정과 연동하여 동작하는 제 1 디바이스 및 수강자 계정과 연동하여 동작하는 제 2 디바이스로부터 강의 제공 데이터를 수신하여 처리하는 프로세서(110) 및 상기 강의 제공 데이터에 기초하여, 상기 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타(310), 상기 강의자 계정의 로그인에 이용된 상기 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면, 상기 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타(320), 상기 수강자 계정의 로그인에 이용된 상기 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면 및 상기 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이하는 디스플레이(120)를 포함할 수 있다.Referring to FIG. 1, a device 100 providing a virtual lecture space is a processor that receives and processes lecture provision data from a first device that operates in conjunction with a lecturer account and a second device that operates in conjunction with a student account ( 110) and a first avatar 310 that operates in conjunction with the lecturer's account and operates by sensing the lecturer's movement based on the lecture provision data, and a first that is executed on the first device used to log in the lecturer's account. Execution screen of 1 program, second avatar 320 operating in conjunction with the student's account and operating by sensing the student's movement, execution screen of the second program executed on the second device used to log in the student's account and a display 120 displaying a virtual blackboard providing an image obtained based on the lecturer's motion.

일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 가상의 강의 공간을 맞춤형 강의실 디자인으로 구현할 수 있다. 예를 들어, 도 8및 도 9를 참조하면 강의실 또는 회의실을 비롯한 임의의 장소의 6면에 대한 디지털 사진을 가상의 강의 공간에 적용함으로써 해당 장소를 가상의 강의 공간에서 구현할 수 있다. 그러나, 반드시 실재하는 장소의 이미지로 제한되는 것은 아니며, 가상의 강의 공간에서 표현될 수 있는 이미지로도 구현될 수 있다. 이에 따라, 효율적인 강의 환경을 위한 다양한 형태의 가상 강의실 제작이 가능해진다.The device 100 providing a virtual lecture space according to an embodiment may implement the virtual lecture space as a customized lecture room design. For example, referring to FIGS. 8 and 9 , by applying digital photos of 6 sides of an arbitrary place including a lecture room or conference room to a virtual lecture space, the corresponding place can be implemented in a virtual lecture space. However, it is not necessarily limited to an image of a real place, and may be implemented as an image that can be expressed in a virtual lecture space. Accordingly, it is possible to create various types of virtual classrooms for an efficient lecture environment.

일 실시 예에 따른 강의자 계정은 가상의 강의 공간에서 강의를 진행하기 위한 각종 권한(예: 강의자의 움직임에 기초하여 가상 실험용 대상물(610) 생성 및 변형 등)이 부여될 수 있으며, 이러한 권한은 수강자와 상이하게 부여될 수 있다. 가상의 강의 공간 내에서 강의를 진행하기 위한 강의자 권한으로 접속하는 데 이용될 수 있다. 또한, 강의자 계정은 강의를 진행하는 강의자의 움직임을 센싱하여 동작하는 제 1 아바타(310)와 연동될 수 있다. 이와 같은 강의자의 권한은 수강자와 상이하게 부여됨으로써 더욱 원활하고 효율적인 강의가 가능하다.According to an embodiment, a lecturer account may be granted various rights (eg, creation and modification of a virtual experiment object 610 based on a lecturer's movement) for conducting a lecture in a virtual lecture space, and these rights may be given to the lecturer. may be given differently from It can be used to access with a lecturer's authority to conduct a lecture within a virtual lecture space. In addition, the lecturer's account may be interlocked with the first avatar 310 that operates by sensing the movement of the lecturer conducting the lecture. As such, the lecturer's authority is granted differently from the learner's, so that more smooth and efficient lectures are possible.

일 실시 예에 따른 제 1 아바타(310)는 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작할 수 있다. 예를 들어, 제 1 아바타(310)는 센싱된 강의자의 형상을 통해3D 모델링된 아바타의 형태로 디스플레이될 수 있으며, 사람의 형상 외에도 동물 아바타, 만화 아바타 등 2D, 3D로 표현되는 아바타를 모두 포함하여 디스플레이될 수 있다. 다른 실시 예에서 가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 형상을 통해 3D 모델링된 아바타에 대한 선택 입력에 기초하여 3D 모델링 아바타를 커스터마이징할 수 있다. 이 경우 강의에 따른 아바타를 커스터마이징하거나 자신의 기호에 맞는 아바타를 커스터마이징할 수 있어 가상 강의의 활용 범위가 넓어질 수 있다.The first avatar 310 according to an embodiment may operate in conjunction with a lecturer's account and may operate by sensing a lecturer's movement. For example, the first avatar 310 can be displayed in the form of a 3D modeled avatar through the sensed shape of a lecturer, and includes all avatars expressed in 2D and 3D, such as animal avatars and cartoon avatars, in addition to human shapes so that it can be displayed. In another embodiment, the device 100 providing a virtual lecture space may customize the 3D modeling avatar based on the selection input for the 3D modeled avatar through the shape of the lecturer. In this case, it is possible to customize the avatar according to the lecture or customize the avatar suitable for one's own taste, so that the range of utilization of the virtual lecture can be widened.

또한, 제 1 아바타(310)는 VR 디바이스, AR 환경, 모션 센서 등 사람의 움직임을 센싱할 수 있는 통상의 수단을 통해 가상의 강의 공간을 제공하는 디바이스(100)로부터 강의자의 움직임이 센싱되어 동작할 수 있다. 이에 따라 가상의 강의 공간 내 강의자 및 수강자의 자연스러운 움직임 구현이 가능하다.In addition, the first avatar 310 operates by sensing the lecturer's movement from the device 100 that provides a virtual lecture space through a common means capable of sensing human movement, such as a VR device, an AR environment, or a motion sensor. can do. Accordingly, it is possible to implement natural movements of a lecturer and students in a virtual lecture space.

일 실시 예에 따른 제 1 디바이스는 강의자 계정의 로그인에 이용될 수 있으며, 또한 가상의 강의 공간에서 수행되는 다양한 활동(예: 가상 칠판 디스플레이, 동영상 재생 및 이미지 불러오기 등)에 이용될 수 있다. 즉, 가상의 강의 공간을 이용하기 위해 사용되는 PC, 스마트 디바이스 등일 수 있다.The first device according to an embodiment can be used to log in to a lecturer's account, and can also be used for various activities (eg, virtual blackboard display, video playback, image loading, etc.) performed in a virtual lecture space. That is, it may be a PC, a smart device, etc. used to use a virtual lecture space.

일 실시 예에 따른 제 1 프로그램은 제 1 디바이스에서 실행될 수 있고, 제 1 디바이스를 포함하는 가상의 강의 공간을 제공하는 디바이스(100)는 제 1 프로그램의 실행 화면을 디스플레이할 수 있다. 제 1 프로그램은, 예를 들어 Word 문서 작성 프로그램을 비롯한 문서 작성 프로그램, 영상 재생 프로그램, 이미지 로드 프로그램 등 PC 및 스마트 디바이스 등에서 사용되는 모든 소프트웨어 프로그램일 수 있다.The first program according to an embodiment may be executed in the first device, and the device 100 providing a virtual lecture space including the first device may display an execution screen of the first program. The first program may be, for example, any software program used in PCs and smart devices, such as a document creation program including a Word document creation program, a video playback program, and an image loading program.

일 실시 예에 따른 수강자 계정은 가상의 강의 공간에서 강의를 수강하기 위한 수강자의 계정일 수 있으며, 가상의 강의 공간에서 부여된 각종 권한(예: 강의자의 움직임에 기초하여 가상 실험용 대상물(610) 일부 변형)이 부여될 수 있다. 또한, 수강자 계정은 강의를 수강하는 수강자의 움직임을 센싱하여 동작하는 제 2 아바타(320)와 연동될 수 있다. 이와 같은 수강자의 권한은 강의자와 상이하게 부여됨으로써 강의에 더욱 협조적으로 적용될 수 있다.According to an embodiment, the student account may be a student account for taking a lecture in a virtual lecture space, and various rights granted in the virtual lecture space (eg, part of the virtual experiment object 610 based on the lecturer's movement). transformation) can be given. In addition, the student account may be interlocked with the second avatar 320 that operates by sensing the movement of the student taking the lecture. The authority of the student can be applied to the lecture more cooperatively by being granted differently from the lecturer.

일 실시 예에 따른 제 2 아바타(320)는 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작할 수 있다. 예를 들어, 제 2 아바타(320)는 센싱된 수강자의 형상을 통해3D 모델링된 아바타의 형태로 디스플레이될 수 있으며, 사람의 형상 외에도 동물 아바타, 만화 아바타 등 2D, 3D로 표현되는 아바타를 모두 포함하여 디스플레이될 수 있다. 다른 실시 예에서 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 형상을 통해 3D 모델링된 아바타에 대한 선택 입력에 기초하여 3D 모델링 아바타를 커스터마이징할 수 있다. 이 경우 강의에 따른 아바타를 커스터마이징하거나 자신의 기호에 맞는 아바타를 커스터마이징할 수 있어 가상 강의의 활용 범위가 넓어질 수 있다.The second avatar 320 according to an embodiment may operate in conjunction with a student account and may operate by sensing a student's movement. For example, the second avatar 320 can be displayed in the form of a 3D modeled avatar through the sensed student's shape, and includes all avatars expressed in 2D and 3D, such as animal avatars and cartoon avatars, in addition to human shapes. so that it can be displayed. In another embodiment, the device 100 providing a virtual lecture space may customize a 3D modeling avatar based on a selection input for a 3D modeled avatar through a student's shape. In this case, it is possible to customize the avatar according to the lecture or customize the avatar suitable for one's own taste, so that the range of utilization of the virtual lecture can be widened.

또한, 제 2 아바타(320)는 VR 디바이스, AR 환경, 모션 센서 등 사람의 움직임을 센싱할 수 있는 통상의 수단을 통해 가상의 강의 공간을 제공하는 디바이스(100)로부터 수강자의 움직임이 센싱되어 동작할 수 있다. 이에 따라 가상의 강의 공간 내 강의자 및 수강자의 자연스러운 움직임 구현이 가능하다.In addition, the second avatar 320 operates by sensing a student's movement from the device 100 providing a virtual lecture space through a common means capable of sensing a person's movement, such as a VR device, an AR environment, or a motion sensor. can do. Accordingly, it is possible to implement natural movements of a lecturer and students in a virtual lecture space.

일 실시 예에 따른 제 2 디바이스는 수강자 계정의 로그인에 이용될 수 있으며, 또한 가상의 강의 공간에서 수행되는 다양한 활동(예: 가상 칠판 디스플레이, 동영상 재생 및 이미지 불러오기 등)에 이용될 수 있다. 즉, 가상의 강의 공간을 이용하기 위해 사용되는 PC, 스마트폰 등일 수 있다.The second device according to an embodiment can be used to log in to a student account, and can also be used for various activities (eg, virtual blackboard display, video playback, image loading, etc.) performed in a virtual lecture space. That is, it may be a PC, a smartphone, etc. used to use a virtual lecture space.

일 실시 예에서, 제 1 디바이스 및 제 2 디바이스는 통신 환경(예: 와이파이, 블루투스 또는 각종 근/장거리 네트워크 환경 등)을 통해 상호 연결되어 통신할 수 있다.In one embodiment, the first device and the second device may be interconnected and communicate through a communication environment (eg, Wi-Fi, Bluetooth, or various local/long-range network environments).

일 실시 예에서, 제 1 아바타(310) 및 제 2 아바타(320)는 가상의 강의 공간 내에서 의사 소통을 위한 상호 작용을 수행할 수 있다. 예를 들어 상호 작용은 인사, 하이파이브, 고개 젓기 등을 포함하는 감정 표현부터 아바타 간 거리에 따른 대화 기능, 질의 요청 및 휴식 요청 등 강의 환경에서 필요한 상호 작용들을 모두 포함할 수 있다. 이에 따라, 강의자 및 수강자는 실제 강의 환경에서 수행되는 상호 작용을 수행함과 동시에 가상 현실에서 구현되는 상호 작용을 활용할 수 있어 더욱 효율적인 강의 환경이 제공될 수 있다.In one embodiment, the first avatar 310 and the second avatar 320 may perform interactions for communication within a virtual lecture space. For example, the interaction may include all interactions required in a lecture environment, such as emotional expressions including greetings, high fives, and head shaking, conversation functions according to the distance between avatars, inquiry requests, and break requests. Accordingly, a lecturer and students can utilize interactions implemented in virtual reality while performing interactions performed in a real lecture environment, so that a more efficient lecture environment can be provided.

일 실시 예에 따른 제 2 프로그램은 제 2 디바이스에서 실행될 수 있고, 제 2 디바이스를 포함하는 가상의 강의 공간을 제공하는 디바이스(100)는 제 2 프로그램의 실행 화면을 디스플레이할 수 있다. 제 2 프로그램은, 예를 들어 Word 문서 작성 프로그램을 비롯한 문서 작성 프로그램, 영상 재생 프로그램, 이미지 로드 프로그램 등 PC 및 스마트 디바이스 등에서 사용되는 모든 소프트웨어 프로그램일 수 있다.The second program according to an embodiment may be executed on the second device, and the device 100 providing a virtual lecture space including the second device may display an execution screen of the second program. The second program may be, for example, any software program used in PCs and smart devices, such as a document creation program including a Word document creation program, a video playback program, and an image loading program.

일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이할 수 있다. 이러한 가상 칠판은 가상의 강의 공간에서 강의자의 움직임에 기초하여 획득되는 이미지인 점, 선, 면, 입체 도형 등의 0, 1, 2, 3차원 이미지를 디스플레이할 수 있고, 제 1 프로그램의 실행 화면 및 제 1 디바이스에 대한 강의자의 터치 입력에 따라 획득된 이미지을 디스플레이할 수도 있다. 이외에도, 가상 칠판은 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면 및 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면을 디스플레이할 수 있다.The device 100 providing a virtual lecture space according to an embodiment may display a virtual blackboard providing images obtained based on a lecturer's movement. This virtual blackboard can display 0, 1, 2, and 3D images such as points, lines, planes, and three-dimensional figures, which are images acquired based on the lecturer's movements in a virtual lecture space, and display the execution screen of the first program. And an image obtained according to the lecturer's touch input to the first device may be displayed. In addition, the virtual blackboard may display an execution screen of a first program executed on a first device and an execution screen of a second program executed on a second device.

일 실시 예에 따르면, 가상의 강의 공간을 제공하는 디바이스(100)는 강의자 및 수강자를 포함하는 참여자들의 접속 현황과 접속 시간 정보를 강의자 계정에 제공할 수 있다. 또한, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자 계정의 숙제, 과제의 제출 및 관련 소통 시스템을 강의자 계정에 제공할 수 있다. 이에 따라, 강의자는 제공된 숙제, 과제의 제출 현황 및 제출 알림과 이에 대응하는 소통 시스템(예: 상세 과제 내용 전달)을 통해 용이한 가상 강의 관리가 가능해지며, 제공된 참여자들의 접속 현황 및 접속 시간 정보를 통해 강의자는 팀 프로젝트를 위한 회의실 및 토의실, 실험을 위한 실험실 운영 및 가상 강의실 운영을 보다 효율적으로 수행할 수 있다.According to an embodiment, the device 100 providing a virtual lecture space may provide access status and connection time information of participants including the lecturer and the students to the lecturer's account. In addition, the device 100 providing a virtual lecture space may provide homework, assignment submission, and a related communication system of a student's account to the lecturer's account. Accordingly, lecturers can easily manage virtual lectures through the provided homework, assignment status and notification of submission, and a corresponding communication system (e.g., delivery of detailed assignment details), and access status and access time information of provided participants. Through this, lecturers can more efficiently operate meeting rooms and discussion rooms for team projects, laboratory operations for experiments, and virtual classrooms.

일 실시 예에 따르면, 가상의 강의 공간을 제공하는 디바이스(100)는 이공계 실험 및 실습을 위한 특수 목적 강의실을 구축하여 제공할 수 있다. 구체적으로 도 6 및 도 7을 참조하면, 가상의 강의 공간을 제공하는 디바이스(100)는 각종 실험 및 실습을 위한 시뮬레이션 소프트웨어를 통해 특수 목적 강의실을 제공할 수 있다. 이에 필요한 실험 장치, 도구 등은 렌더링을 통해 구현하여 제공할 수 있다.According to an embodiment, the device 100 providing a virtual lecture space may build and provide a special purpose lecture room for science and engineering experiments and practices. Specifically, referring to FIGS. 6 and 7 , the device 100 providing a virtual lecture space may provide a special-purpose lecture room through simulation software for various experiments and practices. Experimental devices and tools necessary for this may be implemented and provided through rendering.

다른 실시 예에서, 가상의 강의 공간을 제공하는 디바이스(100)는 세미나 및 학회를 위한 가상 공간을 제공할 수 있다. 세미나 및 학회를 위한 가상 공간은 가상의 강의실에 제공되는 모든 기능(예: 가상 공간 맞춤형 디자인, 가상 칠판, 소프트웨어 프로그램 연계, 하드웨어 연계 및 참여자 정보 확인 등)을 활용할 수 있으며 투표, 포스터, 총회, 세미나, 실제 외부 장소 등에 대한 최적화된 공간(예: 세미나 및 행사장, 포스터 발표장, 토론 장소, 지역 컨벤션 센터, 후원사의 로고와 홍보를 기반으로 한 장소 등)을 구현하여 제공할 수 있다.In another embodiment, the device 100 providing a virtual lecture space may provide a virtual space for seminars and conferences. Virtual space for seminars and conferences can utilize all functions provided in virtual classrooms (e.g. virtual space custom design, virtual blackboard, software program linkage, hardware linkage and participant information check, etc.), and can be used for voting, posters, general meetings, seminars , It is possible to implement and provide optimized spaces for actual external venues (e.g., seminars and event halls, poster presentation halls, discussion halls, regional convention centers, venues based on sponsors' logos and promotions, etc.).

또한, 가상의 강의 공간을 제공하는 디바이스(100)는 세미나 및 학회 운영에 이용되는 회원제, 결제 시스템 및 로그인/아웃 기능을 통해 회원으로 등록된 참여자 계정만 해당 세미나 및 학회 등 행사에 참여하도록 할 수 있으며, 실시간 접속 참여자 정보, 질의 응답 및 소통 기능 및 기업 홍보 목적으로 가상 공간을 이용할 경우 이에 대한 가상 기업 홍보 부스 및 가상 모니터를 제공할 수 있다. 특히, 기업 홍보 목적의 가상 공간을 이용할 경우 홍보 기업들의 홍보 부스, 팜플렛, 제품 등을 3D 및 동영상으로 구현하여 제공할 수 있고, 3D 제품의 수와 동영상 모니터의 크기와 개수에 따라 참여 기업 부스의 크기 및 가격 조절이 가능하도록 구현할 수 있다.In addition, the device 100 providing a virtual lecture space allows only participant accounts registered as members to participate in events such as seminars and conferences through the membership system, payment system, and log-in/out function used for seminars and conferences. In addition, when using the virtual space for real-time access participant information, question and answer and communication functions, and corporate publicity purposes, a virtual company promotion booth and virtual monitor can be provided. In particular, when using a virtual space for corporate publicity purposes, promotional booths, pamphlets, products, etc. of promotional companies can be provided in 3D and video, and depending on the number of 3D products and the size and number of video monitors, the number of booths of participating companies It can be implemented so that size and price can be adjusted.

전술한 내용들은 아래의 도면들을 참조하여 보다 상세히 설명하도록 한다.The foregoing will be described in more detail with reference to the drawings below.

도 2는 본 개시의 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)를 통해 가상의 강의 공간이 제공되는 각 단계를 나타낸 흐름도이다.2 is a flowchart illustrating each step of providing a virtual lecture space through the device 100 for providing a virtual lecture space according to an embodiment of the present disclosure.

단계 S210에에 대해 도 3을 참조하면, 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타(310)를 도면에 도시된 바와 같이 디스플레이할 수 있다.Referring to FIG. 3 for step S210, the device 100 for providing a virtual lecture space according to an embodiment shows a first avatar 310 that operates in conjunction with a lecturer's account and operates by sensing the lecturer's movement. can be displayed as shown in

일 실시 예에 따르면, 가상의 강의 공간을 제공하는 디바이스(100)는 도3에 도시된 바와 같이 제 1 아바타(310)를 강의자의 실제 모습을 3D 렌더링하여 디스플레이할 수도 있지만, 도 4에 도시된 바와 같이 강의자의 실제 모습이 아닌 임의의 아바타를 디스플레이할 수 있다. 이러한 임의의 아바타는 강의자 계정 또는 수강자 계정을 통해 가상의 강의 공간을 제공하는 디바이스(100)에 등록된 아바타일 수 있으며, 가상의 강의 공간을 제공하는 디바이스(100)가 기본적으로 제공하는 기본 아바타일 수도 있다.According to an embodiment, the device 100 providing a virtual lecture space may display the first avatar 310 by 3D rendering the real appearance of the lecturer as shown in FIG. As shown, it is possible to display an arbitrary avatar that is not the actual appearance of the lecturer. This arbitrary avatar may be an avatar registered in the device 100 that provides a virtual lecture space through a lecturer account or a student account, and may be a basic avatar provided by the device 100 that provides a virtual lecture space. may be

일 실시 예에 따르면, 도 4에서 가상의 강의 공간을 제공하는 디바이스(100)는 제 1 아바타(310)가 강의자임을 나타내는 2차원 또는 3차원의 추과 외곽선(410)을 디스플레이할 수 있다. 이러한 추과 외곽선(410)은 제 1 아바타(310)의 외곽선을 따라 형성되며, 다른 수강자들이 제 1 아바타(310)가 강의자의 아바타임을 인지하기에 용이한 색상, 형태를 포함할 수 있다.According to an embodiment, the device 100 providing the virtual lecture space in FIG. 4 may display a 2D or 3D outline 410 indicating that the first avatar 310 is a lecturer. The additional outline 410 is formed along the outline of the first avatar 310, and may include a color and shape that are easy for other students to recognize that the first avatar 310 is the lecturer's avatar.

단계 S220에서 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 강의자 계정의 로그인에 이용된 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면을 디스플레이할 수 있다.In step S220, the device 100 providing a virtual lecture space according to an embodiment may display an execution screen of a first program executed on a first device used to log in a lecturer account.

이러한 제 1 프로그램은 강의자의 움직임을 센싱하여 실행될 수 있다. 구체적으로, 가상의 강의 공간을 제공하는 디바이스(100)는 VR 디바이스, AR 환경, 모션 센서 등 사람의 움직임을 센싱할 수 있는 통상의 수단을 통해 센싱된 강의자의 움직임을 획득할 수 있고, 획득된 강의자의 움직임(예: 제스쳐)을 통해 제 1 디바이스에서 실행되는 Word 문서 작성 프로그램을 비롯한 문서 작성 프로그램, 영상 재생 프로그램, 이미지 로드 프로그램 등 PC 및 스마트 디바이스 등에서 사용되는 모든 소프트웨어 프로그램을 포함하는 제 1 프로그램은 강의자의 움직임을 센싱하여 실행될 수 있다. 또한, 제 1 프로그램의 실행 화면은 가상 칠판을 포함하는 제 1 아이템(330)에서 디스플레이될 수 있다. 이에 따라, 수강자는 강의에 대한 내용을 참여자들에게 보다 용이하게 전달할 수 있다.This first program may be executed by sensing the movement of the lecturer. Specifically, the device 100 providing a virtual lecture space may acquire the motion of the lecturer sensed through a common means capable of sensing the motion of a person, such as a VR device, an AR environment, or a motion sensor. A first program that includes all software programs used in PCs and smart devices, such as a document creation program, video playback program, and image loading program, including a Word document creation program that is executed on the first device through the lecturer's movements (eg, gestures) may be executed by sensing the movement of the lecturer. Also, the execution screen of the first program may be displayed on the first item 330 including a virtual blackboard. Accordingly, the student can more easily convey the contents of the lecture to the participants.

또한, 제 1 프로그램의 실행 화면은 제 1 아바타(310)와 연동하여 동작하는 제 1 아이템(330)에서 디스플레이될 수 있다. 구체적으로, 일 실시 예에 따른 제 1 아이템(330)은 도 3에 도시된 바와 같이 가상 칠판을 포함하며, 가상 모니터 등 가상의 강의 공간에서 구현될 수 있는 아이템을 포함할 수 있으며, 강의자의 움직임을 센싱하여 생성되거나 삭제될 수 있다. 즉, 제 1 아이템(330)은 제 1 프로그램의 실행 화면을 디스플레이할 수 있는 형태의 가상 아이템일 수 있다.Also, the execution screen of the first program may be displayed in the first item 330 that operates in conjunction with the first avatar 310 . Specifically, the first item 330 according to an embodiment includes a virtual blackboard as shown in FIG. 3, may include items that can be implemented in a virtual lecture space, such as a virtual monitor, and the movement of the lecturer. It can be created or deleted by sensing. That is, the first item 330 may be a virtual item capable of displaying an execution screen of the first program.

단계 S230에서 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는, 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타(320)를 디스플레이할 수 있다.In step S230, the device 100 providing a virtual lecture space according to an embodiment may display a second avatar 320 that operates in conjunction with a student account and senses a student's movement.

일 실시 예에 따르면, 가상의 강의 공간을 제공하는 디바이스(100)는 도 3에 도시된 바와 같이 제 2 아바타(320)를 수강자의 실제 모습을 3D 렌더링하여 디스플레이할 수도 있지만, 도 4에 도시된 바와 같이 수강자의 실제 모습이 아닌 임의의 아바타를 디스플레이할 수 있다. 이러한 임의의 아바타는 수강자 계정을 통해 가상의 강의 공간을 제공하는 디바이스(100)에 등록된 아바타일 수 있으며, 가상의 강의 공간을 제공하는 디바이스(100)가 기본적으로 제공하는 기본 아바타일 수도 있다.According to an embodiment, the device 100 providing a virtual lecture space may display the second avatar 320 by 3D rendering the actual appearance of the student as shown in FIG. 3, but as shown in FIG. As shown, it is possible to display an arbitrary avatar that is not the student's actual appearance. Such an arbitrary avatar may be an avatar registered in the device 100 providing a virtual lecture space through a student's account, or may be a basic avatar basically provided by the device 100 providing a virtual lecture space.

일 실시 예에 따르면, 가상의 강의 공간을 제공하는 디바이스(100)는 가상의 강의 공간을 제공하는 제 3 디바이스를 더 포함할 수 있다. 이러한 제 3 디바이스는 수강자 계정의 로그인에 이용되는 디바이스일 수 있다.According to an embodiment, the device 100 providing a virtual lecture space may further include a third device providing a virtual lecture space. This third device may be a device used to log in to a student's account.

또한 일 실시 예에 따르면, 가상의 강의 공간을 제공하는 디바이스(100)는 제 3 디바이스의 이용자(510)의 움직임에 따라 결정된 뷰 포인트(520)에 기초하여 제 1 아바타(310) 또는 제 2 아바타(320)를 디스플레이할 수 있다.Also, according to an embodiment, the device 100 providing a virtual lecture space generates a first avatar 310 or a second avatar based on a viewpoint 520 determined according to the movement of the user 510 of the third device. (320) can be displayed.

구체적으로, 제 3 디바이스의 이용자(510)의 움직임에 따라 결정된 뷰 포인트(520)는 제 3 디바이스의 이용자(510)가 가상의 강의 공간에서 움직임(또는, 시점)에 기초하여 결정될 수 있다. 이에 대해 도 5를 참조하면, 뷰 포인트(520)는 도면에 도시된 바와 같이 제 3 디바이스의 이용자(510)의 시점인 1인칭 관찰자 시점으로 이해될 수 있으며, 제 3 디바이스의 이용자(510)의 움직임(1인칭 관찰자 시점의 움직임)에 따라 결정될 수 있고, 이러한 뷰 포인트(520)에 기초하여 제 1 아바타(310) 또는 제 2 아바타(320)가 디스플레이될 수 있다. Specifically, the viewpoint 520 determined according to the movement of the user 510 of the third device may be determined based on the movement (or viewpoint) of the user 510 of the third device in a virtual lecture space. In this regard, referring to FIG. 5 , the view point 520 can be understood as a first-person observer point of view, which is the point of view of the user 510 of the third device, as shown in the drawing, and the point of view of the user 510 of the third device. It may be determined according to the movement (movement of the first-person observer's point of view), and the first avatar 310 or the second avatar 320 may be displayed based on the viewpoint 520 .

일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 제 2 디바이스와 제 3 디바이스가 실시간으로 송수신하는 데이터의 연속성에 기초하여 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임을 디스플레이할 수 있다.The device 100 providing a virtual lecture space according to an embodiment repetitively moves a preset body part 420 of a second avatar based on continuity of data transmitted and received between a second device and a third device in real time. can display.

구체적으로, 도 4를 참조하면 가상의 강의 공간을 제공하는 디바이스(100)는 제 2 디바이스 및 제 3 디바이스로부터 연속적으로 데이터가 송수신되는지 여부에 기초하여 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임을 디스플레이할 수 있다. 예를 들면, 도면에 도시된 바와 같이 제 2 아바타(320)가 토끼 형상인 경우, 기설정 신체 부위인 토끼 귀의 움직임을 반복적으로 디스플레이함으로써 강의 중 침묵이 발생될 경우 제 2 아바타(320)의 반복적인 움직임을 통해 기술적인 문제 발생 여부를 판단할 수 있게 된다. 다른 예로, 제 2 아바타(320)가 수강자의 형상을 포함하는 사람의 형상인 경우, 기설정 신체 부위인 어깨의 움직임(숨을 쉴 때 나타나는 움직임)을 반복적으로 디스플레이할 수도 있다.Specifically, referring to FIG. 4 , the device 100 providing a virtual lecture space determines a preset body part 420 of the second avatar based on whether or not data is continuously transmitted and received from the second device and the third device. Repetitive movements can be displayed. For example, as shown in the drawing, when the second avatar 320 is in the shape of a rabbit, the movements of rabbit ears, which are preset body parts, are repeatedly displayed, and when silence occurs during a lecture, the second avatar 320 repeatedly displays the movement of rabbit ears. Through human movement, it is possible to determine whether a technical problem has occurred. As another example, if the second avatar 320 has a human shape including a student's shape, the movement of the shoulder, which is a predetermined body part, may be repeatedly displayed.

일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 안구 모니터링 결과에 따라 결정된 시선 방향에 기초하여 제 2 아바타(320)와 인접한 영역에 수강자의 수강 상태를 나타내는 이미지(360)를 디스플레이할 수 있다.The device 100 for providing a virtual lecture space according to an embodiment includes an image 360 indicating the student's class attendance status in an area adjacent to the second avatar 320 based on the gaze direction determined according to the student's eye monitoring result. can display.

구체적으로, 수강자의 안구 모니터링 결과는 제 2 디바이스 또는 가상의 강의 공간을 제공하는 디바이스(100)에 포함된 카메라로부터 획득될 수 있고, 획득된 안구 모니터링 결과에 따라 결정된 수강자의 시선 방향이 기설정 방향으로 결정된 경우, 수강자의 현재 상태는 강의에 대한 집중도가 비교적 낮은 것으로 이해될 수 있다. 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 안구 모니터링 결과에 따라 결정된 시선 방향에 기초하여 수강자의 수강 상태를 결정할 수 있고, 수강자의 수강 상태를 나타내는 이미지(360)를 제 2 아바타(320)와 인접한 영역에 디스플레이할 수 있다.Specifically, the student's eye monitoring result may be obtained from a second device or a camera included in the device 100 providing a virtual lecture space, and the student's gaze direction determined according to the obtained eyeball monitoring result is a preset direction. If it is determined as , it can be understood that the student's current state is relatively low in concentration on the lecture. The device 100 providing a virtual lecture space may determine the student's class attendance status based on the gaze direction determined according to the result of eyeball monitoring of the student, and display an image 360 representing the student's class attendance status as the second avatar 320. ) and can be displayed in an adjacent area.

더욱 자세하게, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 안구 모니터링 결과에 따라 결정된 수강자의 시선 방향이 기설정 방향으로 결정된 횟수인 기설정 횟수에 기초하여 제 2 아바타(320)의 수강 상태를 기설정 상태로 결정할 수 있고, 결정된 수강 상태에 기초하여 수강자의 수강 상태를 나타내는 이미지(360)를 디스플레이할 수 있다. 이를 통해 현재 수강자의 수강 상태를 다른 참여자가 용이하게 파악할 수 있다.In more detail, the device 100 for providing a virtual lecture space determines the class attendance status of the second avatar 320 based on a predetermined number of times, which is the number of times that the student's gaze direction determined according to the result of eyeball monitoring of the student is determined to be a predetermined direction. may be determined as a preset state, and an image 360 representing the student's attendance status may be displayed based on the determined class attendance status. Through this, other participants can easily grasp the current student's enrollment status.

예를 들면, 수강자의 시선 방향이 기설정 방향으로 결정된 횟수가 제 1 횟수 이하인 경우, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 수강 상태를 제 1 상태로 결정할 수 있다. 또한, 시선 방향이 기설정 방향으로 결정된 횟수가 제 2 횟수 이상 제 3 횟수 미만인 경우, 수강자의 수강 상태는 제 2 상태로 결정될 수 있고, 시선 방향이 기설정 방향으로 결정된 횟수가 제 3 횟수 이상인 경우, 수강자의 수강 상태는 제 3 상태로 결정될 수 있다. 여기서, 제 1 횟수는 제 2 횟수보다 작고 제 2 횟수는 제 3 횟수보다 작으며, 제 1 횟수는 0보다 큰 값일 수 있다. 또한, 제 1 상태는 예를 들어 해당 강의에 적절하게 집중하고 있는 상태일 수 있으며 그에 따라 '집중도 높음' 상태일 수 있다. 제 2 상태는 '집중도 높음' 상태에 비해 비교적 집중도가 낮은 상태일 수 있으며 그에 따라 '집중도 보통' 상태일 수 있고, 제 3 상태는 집중도가 '집중도 보통' 상태에 비해 비교적 집중도가 낮은 상태일 수 있어 그에 따라 '집중도 낮음' 상태를 나타낼 수 있다. For example, if the number of times that the student's gaze direction is determined as the preset direction is equal to or less than the first number of times, the device 100 providing a virtual lecture space may determine the student's attendance status as the first status. In addition, when the number of times the gaze direction is determined to be the preset direction is equal to or greater than the second number and is less than the third number, the student's attendance status may be determined to be the second status, and the number of times the gaze direction is determined to be the preset direction is equal to or greater than the third number. , the student's attendance status may be determined as the third status. Here, the first number may be smaller than the second number, the second number may be smaller than the third number, and the first number may be greater than zero. In addition, the first state may be, for example, a state in which the user is properly focused on the corresponding lecture, and thus may be a 'high level of concentration' state. The second state may be a relatively low level of concentration compared to the 'high level of concentration' state and thus may be a 'moderate level of concentration' state, and the third state may be a level of relatively low level of concentration compared to the level of 'normal level of concentration' state. Therefore, it can indicate a state of 'low concentration'.

즉, 수강자의 시선 방향이 기설정 방향으로 결정되는 횟수가 많을수록 수강자의 집중도는 낮은 상태로 이해될 수 있어, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 시선 방향이 기설정 방향으로 결정되는 횟수에 기초하여 수강자의 수강 상태를 기설정 상태로 결정할 수 있고, 결정된 수강자의 수강 상태에 기초하여, 수강자의 수강 상태를 나타내는 이미지(360)를 제 2 아바타(320)와 인접한 영역에 디스플레이할 수 있다.That is, as the number of times that the student's gaze direction is determined as the preset direction increases, the student's concentration can be understood as a low state, so the device 100 providing a virtual lecture space determines the student's gaze direction as the preset direction. Based on the number of occurrences, the student's attendance status may be determined as a preset status, and based on the determined student's attendance status, an image 360 representing the student's attendance status may be displayed in an area adjacent to the second avatar 320. can

다른 실시 예에서, 가상의 강의 공간을 제공하는 디바이스(100)는 강의자로부터 획득된 안구 모니터링 결과, 안구가 센싱되지 않는 시간이 기 설정된 시간 이상으로 결정된 경우, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 수강 상태를 '부재중' 상태로 결정할 수 있고, 이에 기초하여 제 2 아바타(320)와 인접한 영역에 부재중 상태를 나타내는 이미지를 디스플레이할 수 있다.In another embodiment, the device 100 providing a virtual lecture space is configured to provide a virtual lecture space when the eyeball monitoring result obtained from the lecturer determines that the time during which the eyes are not sensed is equal to or longer than a preset time. ) may determine the student's attendance status as 'absent', and based on this, an image representing the absence status may be displayed in an area adjacent to the second avatar 320 .

다른 실시 예에서, 수강자의 안구 모니터링 결과, 안구가 센싱되는 시간에 따른 패턴이 기설정 패턴으로 결정된 경우, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 수강 상태를 졸음 상태로 결정할 수 있다. 이러한 기설정 패턴은 안구의 깜빡임 패턴이 통상적인 졸음 상태에서 나타나는 패턴일 수 있다. 가상의 강의 공간을 제공하는 디바이스(100)는 안구 센싱 결과에 기초하여 수강자의 수강 상태를 결정할 수 있고, 결정된 수강자의 수강 상태에 기초하여 제 2 아바타(320)와 인접한 영역에 졸음 상태를 나타내는 이미지를 디스플레이할 수 있다.In another embodiment, as a result of monitoring the student's eyeballs, when a pattern according to the time in which the eyeballs are sensed is determined as a preset pattern, the device 100 providing a virtual lecture space may determine the student's student's student's student's sleepy state as a drowsy state. . Such a preset pattern may be a pattern in which an eyeball blink pattern appears in a typical drowsy state. The device 100 providing a virtual lecture space may determine the student's attendance status based on the eyeball sensing result, and based on the determined student's attendance status, an image indicating a drowsy state is displayed in an area adjacent to the second avatar 320 . can display.

일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 제 2 디바이스의 카메라에서 수강자의 안구를 모니터링 하고, 모니터링에 따라 결정된 시선 방향에 기초하여 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임의 속도(또는, 신체를 표현하는 부위의 움직임 속도)를 결정할 수 있다.The device 100 for providing a virtual lecture space according to an embodiment monitors the pupil's eyeballs with a camera of a second device, and generates a preset body part 420 of a second avatar based on a gaze direction determined according to the monitoring. It is possible to determine the speed of repetitive movement (or the speed of movement of parts representing the body).

구체적으로, 도 4를 참조하면, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 안구 모니터링 결과, 수강자가 제 2 디바이스(또는, 가상의 강의 공간 내 모니터, 가상 칠판, 제 1 아이템(330))를 바라보지 않는 경우, 즉, 수강자의 시선 방향이 강의와 관련도가 낮은 방향인 기설정 방향으로 결정된 시간이 기설정 시간 범위로 결정된 경우, 이에 기초하여 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임의 속도를 기설정 속도로 결정할 수 있다. 기설정 신체 부위(420)는 인간에게 존재하는 신체 부위(예: 어깨, 다리 등)일 수도 있으나, 인간에게 존재하지 않는 신체 부위(예: 꼬리)일 수도 있다. 인간에게 존재하지 않는 신체 부위를 기설정 신체 부위(420)를 로 이용하는 경우, 가상의 강의 공간을 제공하는 디바이스(100)는 보다 용이하고 흥미롭게 사용자의 집중 정도를 나타낼 수 있다.Specifically, referring to FIG. 4 , the device 100 for providing a virtual lecture space shows a student's eye monitoring result, a second device (or a monitor in the virtual lecture space, a virtual blackboard, a first item 330). )))), that is, when the student's gaze direction is determined in a preset direction, which is a direction with low relevance to the lecture, when the time determined is determined to be a preset time range, based on this, a preset body part of the second avatar ( 420) may determine the speed of the repetitive motion as a preset speed. The preset body part 420 may be a body part that exists in humans (eg, a shoulder, a leg, etc.) or may be a body part that does not exist in humans (eg, a tail). When a body part that does not exist in humans is used as the preset body part 420 as , the device 100 providing a virtual lecture space can more easily and interestingly indicate the degree of concentration of the user.

예를 들어, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 시선 방향이 기설정 방향으로 결정된 시간이 기설정 시간 범위인 제 1 시간 이상 제 2 시간 미만인 경우, 제 2 아바타의 기설정 신체 부위(420)(예: 어깨, 꼬리 등)의 반복적인 움직임의 속도를 제 1 속도로 결정할 수 있고, 수강자의 시선 방향이 기설정 방향으로 결정된 시간이 기설정 시간 범위인 제 2 시간 이상 제 3 시간 미만인 경우, 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임의 속도를 제 3 속도로 결정할 수 있고, 수강자의 시선 방향이 기설정 방향으로 결정된 시간이 기설정 시간 범위인 제 3 시간 이상인 경우, 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임의 속도를 제 3 속도로 결정할 수 있다. 여기서, 제 1 시간은 제 2 시간보다 작고, 제 2 시간은 제 3 시간보다 작으며, 제 1 시간은 0보다 큰 값일 수 있다. 또한, 제 1 속도는 제 2 속도보다 빠르고, 제 2 속도는 제 3 속도보다 빠를 수 있다.For example, the device 100 providing a virtual lecture space may perform a predetermined body movement of the second avatar when the time when the student's gaze direction is determined to be in the preset direction is greater than or equal to a first time and less than a second time, which is a preset time range. The speed of the repetitive movement of the part 420 (eg, shoulder, tail, etc.) may be determined as the first speed, and the time when the student's gaze direction is determined to be the preset direction is the preset time range of the second time or longer. If it is less than the time, the speed of the repetitive movement of the second avatar's preset body part 420 may be determined as the third speed, and the time when the student's gaze direction is determined to be the preset direction is the third time, which is the preset time range. In this case, the speed of the repetitive movement of the preset body part 420 of the second avatar may be determined as the third speed. Here, the first time may be less than the second time, the second time may be less than the third time, and the first time may be a value greater than zero. Also, the first speed may be higher than the second speed, and the second speed may be higher than the third speed.

즉, 수강자의 시선 방향이 기설정 방향으로 결정된 시간이 길수록 수강자의 현재 강의 집중 정도를 나타내는 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임의 속도를 느리게 결정함으로써 강의자가 수강자의 강의 집중 정도를 용이하게 인지할 수 있다.That is, the longer the time when the student's gaze direction is determined in the preset direction, the slower the speed of the repetitive movement of the preset body part 420 of the second avatar representing the degree of concentration of the student's current lecture is determined so that the lecturer can determine the student's concentration in the lecture. The degree can be easily recognized.

단계 S240에서 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 수강자 계정의 로그인에 이용된 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면을 디스플레이할 수 있다.In step S240, the device 100 providing a virtual lecture space according to an embodiment may display an execution screen of a second program executed on a second device used to log in a student account.

이러한 제 2 프로그램은 수강자의 움직임을 센싱하여 실행될 수 있다. 구체적으로, 가상의 강의 공간을 제공하는 디바이스(100)는 VR 디바이스, AR 환경, 모션 센서 등 사람의 움직임을 센싱할 수 있는 통상의 수단을 통해 센싱된 수강자의 움직임을 획득할 수 있고, 획득된 수강자의 움직임(예: 제스쳐)을 통해 제 2 디바이스에서 실행되는 Word 문서 작성 프로그램을 비롯한 문서 작성 프로그램, 영상 재생 프로그램, 이미지 로드 프로그램 등 PC 및 스마트 디바이스 등에서 사용되는 모든 소프트웨어 프로그램인 제 2 프로그램은 수강자의 움직임을 센싱하여 실행될 수 있다. 또한, 제 2 프로그램의 실행 화면은 가상 칠판을 포함하는 제 2 아이템(340)에서 디스플레이될 수 있다. 이에 따라, 수강자는 강의에 대한 발표 내용 등을 참여자들에게 움직임 만으로 제 2 아이템(340)에 디스플레이하여 제공할 수 있어, 불필요한 시간 지연 없는 효율적이고 효과적인 소통이 가능한 가상 강의가 이루어질 수 있다.This second program may be executed by sensing the movement of the student. Specifically, the device 100 that provides a virtual lecture space may acquire the motion of the student sensed through a common means capable of sensing the motion of a person, such as a VR device, an AR environment, or a motion sensor, and obtain the obtained The second program, which is all software programs used in PCs and smart devices, such as word document creation programs, document creation programs, video playback programs, image loading programs, etc. It can be executed by sensing the movement of Also, the execution screen of the second program may be displayed on the second item 340 including the virtual blackboard. Accordingly, the student can display and provide the contents of the presentation on the lecture on the second item 340 to the participants only by moving, so that a virtual lecture capable of efficient and effective communication without unnecessary time delay can be achieved.

또한, 제 2 프로그램의 실행 화면은 제 2 아바타(320)와 연동하여 동작하는 제 2 아이템(340)에서 디스플레이될 수 있다. 구체적으로, 일 실시 예에 따른 제 2 아이템(340)은 도 3에 도시된 바와 같이 가상 칠판을 포함하며, 가상 모니터 등 가상의 강의 공간에서 구현될 수 있는 아이템을 포함할 수 있으며, 수강자의 움직임을 센싱하여 생성되거나 삭제될 수 있다. 즉, 제 2 아이템(340)은 제 2 프로그램의 실행 화면을 디스플레이할 수 있는 형태의 가상 아이템일 수 있다.Also, the execution screen of the second program may be displayed in the second item 340 that operates in conjunction with the second avatar 320 . Specifically, the second item 340 according to an embodiment includes a virtual blackboard as shown in FIG. 3, may include an item that can be implemented in a virtual lecture space, such as a virtual monitor, and includes movements of students. It can be created or deleted by sensing. That is, the second item 340 may be a virtual item capable of displaying an execution screen of the second program.

일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 제 2 디바이스에서 녹음 기능이 실행되는 경우, 제 2 아바타(320)와 인접한 영역에 녹음 기능이 실행 중임을 나타내는 이미지(350)를 디스플레이할 수 있다.When a recording function is executed on the second device, the device 100 providing a virtual lecture space according to an embodiment displays an image 350 indicating that the recording function is being executed in an area adjacent to the second avatar 320. can be displayed.

구체적으로, 도 3을 참조하면, 제 2 아바타(320)와 인접한 영역에 녹음 기능이 실행 중임을 나타내는 이미지(350)는 도면에 도시된 바와 같이 디스플레이될 수 있다. 이에 따라, 강의자는 수강자가 현재 녹음 중인지 여부를 보다 용이하게 판단할 수 있게 된다.Specifically, referring to FIG. 3 , an image 350 indicating that a recording function is being executed may be displayed in an area adjacent to the second avatar 320 as shown in the drawing. Accordingly, the lecturer can more easily determine whether the student is currently recording.

단계 S250에서 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이할 수 있다.In step S250, the device 100 providing a virtual lecture space according to an embodiment may display a virtual blackboard providing an image obtained based on a lecturer's movement.

일 실시 예에 따른 가상 칠판은 가상의 강의 공간에서 강의자의 움직임에 기초하여 획득되는 이미지인 점, 선, 면, 입체 도형 등의 0, 1, 2, 3차원 이미지를 디스플레이할 수 있고, 제 1 프로그램의 실행 화면 및 제 1 디바이스에 대한 강의자의 터치 입력을 통해 획득되는 이미지를 디스플레이할 수 있다.According to an embodiment, the virtual blackboard may display 0, 1, 2, and 3D images such as points, lines, planes, and three-dimensional figures, which are images obtained based on a lecturer's motion in a virtual lecture space, and An image obtained through a program execution screen and a lecturer's touch input to the first device may be displayed.

일 실시 예에 따르면 제 1 아바타(310), 제 1 프로그램의 실행 화면, 제 2 아바타(320), 제 2 프로그램의 실행 화면 및 가상 칠판은 가상의 강의 공간이 제공되는 디바이스의 환경에 따라서 2D 또는 3D로 디스플레이될 수 있다. 이에 따라, 가상의 강의 공간이 제공되는 디바이스의 환경에 적절하도록 각 요소들이 디스플레이될 수 있다.According to an embodiment, the first avatar 310, the execution screen of the first program, the second avatar 320, the execution screen of the second program, and the virtual blackboard are 2D or 2D depending on the environment of the device in which the virtual lecture space is provided. It can be displayed in 3D. Accordingly, each element may be displayed appropriately to the environment of the device in which the virtual lecture space is provided.

일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물(610)을 디스플레이할 수 있고, 가상 실험용 대상물(610)의 형상을 강의자의 움직임 및 수강자의 움직임에 따라 갱신하여 디스플레이할 수 있다.The device 100 for providing a virtual lecture space according to an embodiment may display a virtual experiment object 610 generated based on a lecturer's movement, and the shape of the virtual experiment object 610 is determined by the lecturer's movement and It can be updated and displayed according to the student's movement.

구체적으로, 도 6 및 도 7을 참조하면, 가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물(610)에 대해 강의자의 움직임 및 수강자의 움직임에 따라 갱신하여 디스플레이할 수 있다. 예를 들어, 도 6에서는 강의자의 움직임에 기초하여 가상 실험용 대상물(610)인 분자 구조 모형이 생성되어 디스플레이되고, 강의자의 움직임에 따라 분자 구조 모형이 일부 변형되거나 분리되는 등 다양한 형태 변형에 따라 갱신되는 일 예가 도시되어 있다. 또한 도 7에서는 강의자의 움직임에 기초하여 생성된 분자 구조 모형인 가상 실험용 대상물(610)이 디스플레이 되고, 강의자 및 수강자의 움직임에 따라 회전, 이동 등 다양한 형태 변형에 따라 갱신되는 일 예가 도시되어 있다. 일 예로, 가상 실험용 대상물(610)은 확대, 축소, 분리, 결합과 같은 형태의 변형 외에도 복사, 편집, 시뮬레이션 등 가상 현실에서 구현 가능한 모든 변형이 가능할 수 있다.Specifically, referring to FIGS. 6 and 7 , the device 100 providing a virtual lecture space updates the virtual experiment object 610 generated based on the lecturer's movement according to the lecturer's movement and the student's movement. can be displayed. For example, in FIG. 6, a molecular structure model, which is a virtual experiment object 610, is generated and displayed based on the lecturer's movement, and updated according to various shape transformations, such as partial deformation or separation of the molecular structure model according to the lecturer's movement. An example of being is shown. In addition, in FIG. 7, an example in which a virtual experiment object 610, which is a molecular structure model generated based on the movement of a lecturer, is displayed and updated according to various shape transformations such as rotation and movement according to the movements of the lecturer and the students is shown. For example, the virtual experiment object 610 may be capable of all transformations that can be implemented in virtual reality, such as copying, editing, and simulation, in addition to transformations such as enlargement, reduction, separation, and combination.

또한, 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 가상 실험용 대상물(610)의 갱신 가능 범위를 강의자의 움직임 및 수강자의 움직임에 따라 각각 상이하도록 결정할 수 있다. 예를 들어, 강의자의 움직임에 따른 갱신 가능 범위는 가상 실험용 대상물(610)의 형상에 대한 전체 범위로 결정될 수 있으나, 수강자의 움직임에 따른 갱신 가능 범위는 가상 실험용 대상물(610)의 형상에 대한 기설정 범위로 결정될 수 있다. 이에 따라, 가상 실험용 대상물(610)을 이용한 강의자의 원활한 강의 및 실습 환경을 제공할 수 있다.In addition, the device 100 providing a virtual lecture space according to an embodiment may determine the updateable range of the virtual experiment object 610 to be different according to the movement of the lecturer and the movement of the student. For example, the updateable range according to the lecturer's movement may be determined as the entire range of the shape of the virtual experiment object 610, but the updateable range according to the student's movement is based on the shape of the virtual experiment object 610. It can be determined by the setting range. Accordingly, it is possible to provide a smooth lecture and practice environment for lecturers using the virtual experiment object 610 .

또한, 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 움직임에 따라 가상 실험용 대상물(610)의 형상을 갱신하는 동안 수강자의 움직임에 따라 가상 실험용 대상물(610)의 형상을 갱신하는 동작에 대한 허용 여부를 결정할 수 있다. 이러한 경우 강의자가 가상 실험용 대상물(610)을 이용한 강의 도중 수강자의 동작에 따라 가상 실험용 대상물(610)의 형상이 갱신되는 상황을 용이하게 제어할 수 있다.In addition, the device 100 providing a virtual lecture space according to an embodiment changes the shape of the virtual experiment object 610 according to the movement of the student while updating the shape of the virtual experiment object 610 according to the movement of the lecturer. It is possible to determine whether to allow an update operation. In this case, a lecturer can easily control a situation in which the shape of the virtual experiment object 610 is updated according to a student's motion during a lecture using the virtual experiment object 610 .

도 3은 본 개시의 일 실시 예에 따라 가상의 강의 공간이 제공되는 일 예를 개략적으로 도시한 도면이다.3 is a diagram schematically illustrating an example in which a virtual lecture space is provided according to an embodiment of the present disclosure.

일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 도면에 도시된 바와 같이, 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타(310), 강의자 계정의 로그인에 이용된 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면, 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타(320), 수강자 계정의 로그인에 이용된 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면 및 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이할 수 있다.As shown in the drawing, the device 100 for providing a virtual lecture space according to an embodiment includes a first avatar 310 that operates in conjunction with a lecturer's account and operates by sensing the lecturer's movement, and a login of the lecturer's account. The execution screen of the first program executed on the first device used for the program, the second avatar 320 that operates in conjunction with the student's account and operates by sensing the student's movement, and is executed on the second device used to log in the student's account. A virtual blackboard providing an execution screen of the second program and an image obtained based on the movement of the lecturer may be displayed.

또한, 가상의 강의 공간을 제공하는 디바이스(100)는 제 1 아바타(310)와 연동하여 동작하는 제 1 아이템(330)에서 제 1 프로그램의 실행 화면을 디스플레이할 수 있다.In addition, the device 100 providing a virtual lecture space may display the execution screen of the first program on the first item 330 that operates in conjunction with the first avatar 310 .

또한, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 수강 상태를 나타내는 이미지(360)를 제 2 아바타(320)의 인접한 영역에 디스플레이할 수 있고, 제 2 아바타(320)와 연동하여 동작하는 제 2 아이템(340)에서 제 2 프로그램의 실행 화면들 디스플레이할 수 있다.In addition, the device 100 providing a virtual lecture space may display an image 360 representing a student's class attendance status in an area adjacent to the second avatar 320, and operates in conjunction with the second avatar 320. Execution screens of the second program may be displayed in the second item 340 to be displayed.

실시 예들에서, 강의자 및 수강자는 1인칭 시점으로 가상의 강의 공간이 제공될 수 있으나, 도면에서는 이해를 돕기 위해 3인칭 관찰자 시점으로 표현되었다.In embodiments, a lecturer and students may be provided with a virtual lecture space from a first-person perspective, but in the drawings, a third-person observer perspective is used for better understanding.

도 4는 본 개시의 일 실시 예에 따라 디스플레이되는 각 아바타의 일 예를 개략적으로 도시한 도면이다.4 is a diagram schematically illustrating an example of each avatar displayed according to an embodiment of the present disclosure.

일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 실제 모습이 아닌 임의의 아바타를 디스플레이할 수 있다. 이러한 임의의 아바타는 강의자 계정 또는 수강자 계정을 통해 가상의 강의 공간을 제공하는 디바이스(100)에 등록된 아바타일 수 있으며, 가상의 강의 공간을 제공하는 디바이스(100)가 기본적으로 제공하는 기본 아바타일 수도 있다.The device 100 providing a virtual lecture space according to an embodiment may display an arbitrary avatar rather than a lecturer's actual appearance. This arbitrary avatar may be an avatar registered in the device 100 that provides a virtual lecture space through a lecturer account or a student account, and may be a basic avatar provided by the device 100 that provides a virtual lecture space. may be

일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 제 1 아바타(310)가 강의자임을 나타내는 2차원 또는 3차원의 추과 외곽선(410)을 디스플레이할 수 있다. 이러한 추과 외곽선(410)은 제 1 아바타(310)의 외곽선을 따라 형성되며, 다른 수강자들이 제 1 아바타(310)가 강의자의 아바타임을 인지하기에 용이한 색상, 형태를 포함할 수 있다.The device 100 providing a virtual lecture space according to an embodiment may display a 2-dimensional or 3-dimensional outline 410 indicating that the first avatar 310 is a lecturer. The additional outline 410 is formed along the outline of the first avatar 310, and may include a color and shape that are easy for other students to recognize that the first avatar 310 is the lecturer's avatar.

또한, 가상의 강의 공간을 제공하는 디바이스(100)는 제 2 디바이스 및 제 3 디바이스로부터 연속적으로 데이터가 송수신되는지 여부에 기초하여 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임을 디스플레이할 수 있다. 도면에 도시된 바와 같이, 제 2 아바타(320)가 토끼 형상인 경우, 기설정 신체 부위인 토끼 귀의 움직임을 반복적으로 디스플레이함으로써 강의 중 침묵이 발생될 경우 제 2 아바타(320)의 반복적인 움직임을 통해 기술적인 문제 발생 여부를 판단할 수 있게 된다. 다른 예로, 제 2 아바타(320)가 수강자의 형상을 포함하는 사람의 형상인 경우, 기설정 신체 부위인 어깨의 움직임(숨을 쉴 때 나타나는 움직임)을 반복적으로 디스플레이할 수도 있다.In addition, the device 100 providing a virtual lecture space may display repetitive movements of the preset body part 420 of the second avatar based on whether data is continuously transmitted and received from the second device and the third device. can As shown in the figure, when the second avatar 320 has a rabbit shape, the movement of rabbit ears, which are preset body parts, is repeatedly displayed to prevent repetitive movements of the second avatar 320 when silence occurs during a lecture. Through this, it is possible to determine whether a technical problem has occurred. As another example, if the second avatar 320 has a human shape including a student's shape, the movement of the shoulder, which is a predetermined body part, may be repeatedly displayed.

도 5는 본 개시의 일 실시 예에서 제 3 디바이스의 이용자(510)의 움직임에 따라 각 아바타를 디스플레이하는 일 예를 개략적으로 도시한 도면이다.5 is a diagram schematically illustrating an example of displaying each avatar according to the movement of the user 510 of the third device according to an embodiment of the present disclosure.

일 실시 예에서, 제 3 디바이스의 이용자(510)의 움직임에 따라 결정된 뷰 포인트(520)는 제 3 디바이스의 이용자(510)(또는, 제 2 아바타(320))가 가상의 강의 공간에서 움직임(또는, 시점)에 기초하여 결정될 수 있다. 이에 대해 도면을 참조하면, 뷰 포인트(520)는 도면에 도시된 바와 같이 제 3 디바이스의 이용자(510)의 시점인 1인칭 관찰자 시점으로 이해될 수 있으며, 제 3 디바이스의 이용자(510)의 움직임(1인칭 관찰자 시점의 움직임)에 따라 결정될 수 있고, 이러한 뷰 포인트(520)에 기초하여 제 1 아바타(310) 또는 제 2 아바타(320)가 디스플레이될 수 있다. In one embodiment, the viewpoint 520 determined according to the movement of the user 510 of the third device is such that the user 510 (or the second avatar 320) of the third device moves in a virtual lecture space ( Or, it may be determined based on the time point). Referring to the drawing, the view point 520 can be understood as a first-person observer's point of view, which is the point of view of the user 510 of the third device, as shown in the drawing, and the movement of the user 510 of the third device. (movement of the first-person observer's point of view), and the first avatar 310 or the second avatar 320 can be displayed based on the view point 520 .

도6 및 도 7은 본 개시의 일 실시 예에 따라 가상 실험용 대상물(610)을 디스플레이하는 일 예를 도시한 개략적으로 도면이다.6 and 7 are schematic diagrams illustrating an example of displaying a virtual experiment object 610 according to an embodiment of the present disclosure.

가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물(610)에 대해 강의자의 움직임 및 수강자의 움직임에 따라 갱신하여 디스플레이할 수 있다. 예를 들어, 도 6에서는 강의자의 움직임에 기초하여 가상 실험용 대상물(610)인 분자 구조 모형이 생성되어 디스플레이되고, 강의자의 움직임에 따라 분자 구조 모형이 일부 변형되거나 분리되는 등 다양한 형태 변형에 따라 갱신되는 일 예가 도시되어 있다. 또한 도 7에서는 강의자의 움직임에 기초하여 생성된 분자 구조 모형인 가상 실험용 대상물(610)이 디스플레이 되고, 강의자 및 수강자의 움직임에 따라 회전, 이동 등 다양한 형태 변형에 따라 갱신되는 일 예가 도시되어 있다. 일 예로, 가상 실험용 대상물(610)은 확대, 축소, 분리, 결합과 같은 형태의 변형 외에도 복사, 편집, 시뮬레이션 등 가상 현실에서 구현 가능한 모든 변형이 가능할 수 있다.The device 100 providing a virtual lecture space may update and display the virtual lab object 610 generated based on the lecturer's movement according to the lecturer's movement and the student's movement. For example, in FIG. 6, a molecular structure model, which is a virtual experiment object 610, is generated and displayed based on the lecturer's movement, and updated according to various shape transformations, such as partial deformation or separation of the molecular structure model according to the lecturer's movement. An example of being is shown. In addition, in FIG. 7, an example in which a virtual experiment object 610, which is a molecular structure model generated based on the movement of a lecturer, is displayed and updated according to various shape transformations such as rotation and movement according to the movements of the lecturer and the students is shown. For example, the virtual experiment object 610 may be capable of all transformations that can be implemented in virtual reality, such as copying, editing, and simulation, in addition to transformations such as enlargement, reduction, separation, and combination.

도 8 및 도 9는 본 개시의 일 실시 예에 따른 가상의 강의 공간의 맞춤형 디자인을 개략적으로 도시한 도면이다.8 and 9 are diagrams schematically illustrating a customized design of a virtual lecture space according to an embodiment of the present disclosure.

일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 가상의 강의 공간을 맞춤형 강의실 디자인으로 구현할 수 있다. 예를 들어, 도 8및 도 9를 참조하면 강의실 또는 회의실을 비롯한 임의의 장소의 6면에 대한 디지털 사진을 가상의 강의 공간에 적용함으로써 해당 장소를 가상의 강의 공간에서 구현할 수 있다. 그러나, 반드시 실재하는 장소의 이미지로 제한되는 것은 아니며, 가상의 강의 공간에서 표현될 수 있는 이미지로도 구현될 수 있다. 이에 따라, 효율적인 강의 환경을 위한 다양한 형태의 가상 강의실 제작이 가능해진다.The device 100 providing a virtual lecture space according to an embodiment may implement the virtual lecture space as a customized lecture room design. For example, referring to FIGS. 8 and 9 , by applying digital photos of 6 sides of an arbitrary place including a lecture room or conference room to a virtual lecture space, the corresponding place can be implemented in a virtual lecture space. However, it is not necessarily limited to an image of a real place, and may be implemented as an image that can be expressed in a virtual lecture space. Accordingly, it is possible to create various types of virtual classrooms for an efficient lecture environment.

일 실시 예에 따르면, 가상의 강의 공간을 제공하는 디바이스(100)는 집중력 향상에 도움이 되는 패턴 및 색상의 배경과, 화이트노이즈, 집중력 향상에 도움이 되는 배경 음악을 제공할 수 있다. 이에 따라, 가상의 강의 공간에 참여한 참여자들의 집중력 향상과 이로 인한 원활한 소통이 가능해질 수 있다.According to an embodiment, the device 100 providing a virtual lecture space may provide backgrounds of patterns and colors to help improve concentration, white noise, and background music to help improve concentration. Accordingly, it is possible to improve the concentration of the participants who participated in the virtual lecture space and thereby facilitate smooth communication.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.

100: 가상의 강의 공간을 제공하는 디바이스
110: 프로세서 120: 디스플레이
310: 제 1 아바타 320: 제 2 아바타
330: 제 1 아이템 340: 제 2 아이템
350: 녹음 기능이 실행 중임을 나타내는 이미지
360: 수강 상태를 나타내는 이미지
410: 추가 외곽선 420: 제 2 아바타의 기설정 신체 부위
510: 제 3 디바이스의 이용자
520: 뷰 포인트
610: 가상 실험용 대상물
100: Device providing virtual lecture space
110: processor 120: display
310: first avatar 320: second avatar
330: first item 340: second item
350: Image indicating that the recording function is running
360: Image representing the status of taking classes
410: Additional outline 420: Preset body part of the second avatar
510: User of the third device
520: view point
610: virtual experiment object

Claims (18)

가상의 강의 공간을 제공하는 방법에 있어서,
디스플레이가 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타를 디스플레이하는 단계;
상기 디스플레이가 상기 강의자 계정의 로그인에 이용된 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면을 디스플레이하는 단계;
상기 디스플레이가 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타를 디스플레이하는 단계;
상기 디스플레이가 상기 수강자 계정의 로그인에 이용된 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면을 디스플레이하는 단계;
상기 디스플레이가 상기 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이하는 단계;
상기 디스플레이가 상기 제 2 아바타를 디스플레이하는 단계 이후,
상기 수강자로부터 획득된 안구 모니터링 결과에 따른 패턴이 기설정 패턴으로 결정된 경우, 상기 수강자의 수강 상태를 졸음 상태로 결정하고,
상기 디스플레이가 상기 졸음 상태를 나타내는 이미지를 상기 제 2 아바타와 인접한 영역에 디스플레이하는 단계; 및
상기 디스플레이가 상기 가상의 강의 공간을 제공하는 제 3 디바이스의 이용자의 움직임에 따라 결정된 뷰 포인트에 기초하여 상기 제 1 아바타 또는 상기 제 2 아바타를 디스플레이하고,
상기 디스플레이가 상기 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물을 디스플레이하고
상기 디스플레이가 상기 가상 실험용 대상물의 형상을 상기 강의자의 움직임 및 상기 수강자의 움직임에 따라 갱신하여 디스플레이하는 단계;를 더 포함하고,
상기 가상 실험용 대상물의 갱신 가능 범위는 상기 강의자의 움직임 및 상기 수강자의 움직임에 따라 각각 상이하도록 결정되고,
상기 강의자의 움직임에 따른 상기 갱신 가능 범위는 상기 가상 실험용 대상물의 형상에 대한 전체 범위로 결정되고, 상기 수강자의 움직임에 따른 상기 갱신 가능 범위는 상기 가상 실험용 대상물의 형상에 대한 일부 범위로 결정되는, 방법.
In the method of providing a virtual lecture space,
displaying a first avatar that operates in conjunction with a lecturer's account and operates by sensing a lecturer's movement;
displaying an execution screen of a first program executed on a first device used to log in to the lecturer account on the display;
displaying a second avatar that operates in conjunction with the student's account and senses the student's movement on the display;
displaying, on the display, an execution screen of a second program executed on a second device used to log in the student account;
displaying a virtual blackboard providing an image acquired based on the lecturer's motion;
After the display displays the second avatar,
When the pattern according to the eye monitoring result obtained from the student is determined to be a preset pattern, determining that the student is in a drowsy state;
displaying, by the display, an image representing the drowsy state in an area adjacent to the second avatar; and
The display displays the first avatar or the second avatar based on a viewpoint determined according to a movement of a user of a third device providing the virtual lecture space,
The display displays a virtual experiment object generated based on the lecturer's motion,
The display further includes updating and displaying the shape of the virtual experiment object according to the movement of the lecturer and the movement of the student,
The updateable range of the virtual experiment object is determined to be different according to the movement of the lecturer and the movement of the student,
The updateable range according to the movement of the lecturer is determined as the entire range of the shape of the virtual experiment object, and the updateable range according to the movement of the student is determined as a partial range of the shape of the virtual experiment object. method.
제 1 항에 있어서,
상기 제 2 아바타를 디스플레이하는 단계 이후,
상기 제 2 디바이스에서 녹음 기능이 실행되는 경우, 상기 디스플레이가 상기 제 2 아바타와 인접한 영역에 상기 녹음 기능이 실행 중임을 나타내는 이미지를 디스플레이하는 단계;를 더 포함하는, 방법.
According to claim 1,
After displaying the second avatar,
When the recording function is executed in the second device, displaying an image indicating that the recording function is being executed on the display in an area adjacent to the second avatar.
삭제delete 제 1 항에 있어서,
상기 제 1 아바타, 상기 제 1 프로그램의 실행 화면, 상기 제 2 아바타, 상기 제 2 프로그램의 실행 화면 및 상기 가상 칠판은 상기 가상의 강의 공간이 제공되는 디바이스의 환경에 따라서 2D 또는 3D로 디스플레이되는, 방법.
According to claim 1,
The first avatar, the execution screen of the first program, the second avatar, the execution screen of the second program, and the virtual blackboard are displayed in 2D or 3D according to the environment of the device in which the virtual lecture space is provided. method.
제 1 항에 있어서,
상기 제 1 프로그램은 상기 강의자의 움직임을 센싱하여 실행되고,
상기 제 2 프로그램은 상기 수강자의 움직임을 센싱하여 실행되는, 방법.
According to claim 1,
The first program is executed by sensing the movement of the lecturer,
The second program is executed by sensing the movement of the student.
제 1 항에 있어서,
상기 제 1 프로그램의 실행 화면은 상기 제 1 아바타와 연동하여 동작하는 제 1 아이템에서 디스플레이되고,
상기 제 2 프로그램의 실행 화면은 상기 제 2 아바타와 연동하여 동작하는 제 2 아이템에서 디스플레이되는, 방법.
According to claim 1,
An execution screen of the first program is displayed in a first item that operates in conjunction with the first avatar,
The execution screen of the second program is displayed in a second item that operates in conjunction with the second avatar.
삭제delete 제 1 항에 있어서,
상기 디스플레이가 상기 제 2 아바타를 디스플레이하는 단계는
상기 디스플레이가 상기 제 2 디바이스와 상기 제 3 디바이스가 실시간으로 송수신하는 데이터의 연속성에 기초하여 상기 제 2 아바타의 기설정 신체 부위의 반복적인 움직임을 디스플레이하는 단계;를 포함하고,
상기 기설정 신체 부위의 반복적인 움직임의 빠르기는 상기 수강자의 안구 모니터링 결과에 따라 결정된 시선 방향 기초하여 결정되고,
상기 시선 방향이 기설정 방향으로 결정된 시간이 제 1 시간 미만인 경우, 상기 빠르기는 제 1 레벨로 결정되고,
상기 시선 방향이 상기 기설정 방향으로 결정된 시간이 상기 제 1 시간 이상 제 2 시간 미만인 경우, 상기 빠르기는 제 2 레벨로 결정되고,
상기 시선 방향이 상기 기설정 방향으로 결정된 시간이 상기 제 2 시간 이상인 경우, 상기 빠르기는 제 3 레벨로 결정되는, 방법.
According to claim 1,
The step of displaying the second avatar by the display
Displaying, by the display, repetitive motions of preset body parts of the second avatar based on continuity of data transmitted and received between the second device and the third device in real time;
The speed of the repetitive movement of the predetermined body part is determined based on the gaze direction determined according to the eyeball monitoring result of the student,
When the time for which the gaze direction is determined as the preset direction is less than a first time, the speed is determined as a first level,
When the time for which the gaze direction is determined to be the preset direction is greater than or equal to the first time and less than a second time, the speed is determined to be a second level,
When the time for which the gaze direction is determined as the preset direction is equal to or longer than the second time, the speed is determined as a third level.
제 1 항에 있어서,
상기 디스플레이가 상기 제 2 아바타를 디스플레이하는 단계는
상기 디스플레이가 상기 수강자의 상기 안구 모니터링 결과에 따라 결정된 시선 방향에 기초하여 상기 제 2 아바타와 인접한 영역에 상기 수강자의 수강 상태를 나타내는 이미지를 디스플레이하는 단계;를 포함하고,
상기 수강 상태를 나타내는 이미지는
상기 시선 방향이 기설정 방향으로 결정된 횟수에 기초하여 결정되고,
상기 시선 방향이 상기 기설정 방향으로 결정된 횟수가 제 1 횟수 미만인 경우, 상기 수강 상태를 나타내는 이미지는 집중도 높음 상태를 나타내는 이미지로 결정되고,
상기 시선 방향이 상기 기설정 방향으로 결정된 횟수가 상기 제 1 횟수 이상 제 2 횟수 미만인 경우, 상기 수강 상태를 나타내는 이미지는 집중도 보통 상태를 나타내는 이미지로 결정되고,
상기 시선 방향이 상기 기설정 방향으로 결정된 횟수가 상기 제 2 횟수 이상인 경우, 상기 수강 상태를 나타내는 이미지는 집중도 낮음 상태를 나타내는 이미지로 결정되는, 방법.
According to claim 1,
The step of displaying the second avatar by the display
Displaying, by the display, an image representing the student's attendance status in an area adjacent to the second avatar based on a gaze direction determined according to a result of the eyeball monitoring of the student;
The image representing the status of the course is
The gaze direction is determined based on the number of times the preset direction is determined,
When the number of times that the gaze direction is determined as the preset direction is less than the first number of times, the image representing the class attendance state is determined as an image representing a high concentration state;
When the number of times that the gaze direction is determined to be the preset direction is greater than or equal to the first number and less than the second number of times, the image representing the class attendance state is determined as an image representing a normal concentration state;
If the number of times that the gaze direction is determined as the preset direction is equal to or greater than the second number of times, the image representing the class attendance state is determined as an image representing a low concentration state.
가상의 강의 공간을 제공하는 디바이스에 있어서,
강의자 계정과 연동하여 동작하는 제 1 디바이스 및 수강자 계정과 연동하여 동작하는 제 2 디바이스로부터 강의 제공 데이터를 수신하여 처리하는 프로세서; 및
상기 강의 제공 데이터에 기초하여, 상기 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타, 상기 강의자 계정의 로그인에 이용된 상기 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면, 상기 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타, 상기 수강자 계정의 로그인에 이용된 상기 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면 및 상기 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이하고
상기 수강자로부터 획득된 안구 모니터링 결과에 따른 패턴이 기설정 패턴으로 결정된 경우, 상기 수강자의 수강 상태를 졸음 상태로 결정하고, 상기 졸음 상태를 나타내는 이미지를 상기 제 2 아바타와 인접한 영역에 디스플레이하고 상기 디스플레이가 상기 졸음 상태를 나타내는 이미지를 상기 제 2 아바타와 인접한 영역에 디스플레이하고 및 상기 디스플레이가 상기 가상의 강의 공간을 제공하는 제 3 디바이스의 이용자의 움직임에 따라 결정된 뷰 포인트에 기초하여 상기 제 1 아바타 또는 상기 제 2 아바타를 디스플레이하고, 상기 디스플레이가 상기 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물을 디스플레이하고 상기 디스플레이가 상기 가상 실험용 대상물의 형상을 상기 강의자의 움직임 및 상기 수강자의 움직임에 따라 갱신하여 디스플레이하는 디스플레이;를 포함하고,
상기 가상 실험용 대상물의 갱신 가능 범위는 상기 강의자의 움직임 및 상기 수강자의 움직임에 따라 각각 상이하도록 결정되고, 상기 강의자의 움직임에 따른 상기 갱신 가능 범위는 상기 가상 실험용 대상물의 형상에 대한 전체 범위로 결정되고, 상기 수강자의 움직임에 따른 상기 갱신 가능 범위는 상기 가상 실험용 대상물의 형상에 대한 일부 범위로 결정되는, 디바이스.
In a device providing a virtual lecture space,
A processor for receiving and processing lecture provision data from a first device operating in conjunction with a lecturer's account and a second device operating in conjunction with a student's account; and
Based on the lecture provision data, a first avatar that operates in conjunction with the lecturer's account and operates by sensing the lecturer's movement, an execution screen of a first program executed on the first device used to log in to the lecturer's account, A second avatar that operates in conjunction with the student account and operates by sensing the student's movement, and obtained based on the execution screen of the second program executed on the second device used to log in the student account and the lecturer's movement display a virtual blackboard that provides an image of
When the pattern according to the result of eye monitoring obtained from the student is determined to be a preset pattern, the student's attendance status is determined to be a drowsy state, and an image representing the sleepiness status is displayed in an area adjacent to the second avatar, and the display displays an image representing the drowsy state in an area adjacent to the second avatar, and based on a view point determined according to a user's motion of a third device on which the display provides the virtual lecture space, The second avatar is displayed, the display displays a virtual experiment object generated based on the lecturer's movement, and the display updates and displays the shape of the virtual experiment object according to the lecturer's movement and the student's movement. Including; a display that
The updateable range of the virtual experiment object is determined to be different according to the lecturer's movement and the student's movement, and the updateable range according to the lecturer's movement is determined as the entire range of the shape of the virtual experiment object, , The updateable range according to the movement of the student is determined as a partial range for the shape of the virtual experiment object.
삭제delete 제 10 항에 있어서,
상기 디스플레이는
상기 제 1 아바타, 상기 제 1 프로그램의 실행 화면, 상기 제 2 아바타, 상기 제 2 프로그램의 실행 화면 및 상기 가상 칠판은 상기 가상의 강의 공간이 제공되는 디바이스의 환경에 따라서 2D 또는 2D로 디스플레이하는, 디바이스
According to claim 10,
the display
The first avatar, the execution screen of the first program, the second avatar, the execution screen of the second program, and the virtual blackboard are displayed in 2D or 2D according to the environment of the device in which the virtual lecture space is provided, device
제 10 항에 있어서,
상기 제 1 프로그램은 상기 강의자의 움직임을 센싱하여 실행되고,
상기 제 2 프로그램은 상기 수강자의 움직임을 센싱하여 실행되는, 디바이스.
According to claim 10,
The first program is executed by sensing the movement of the lecturer,
The second program is executed by sensing the movement of the student.
제 10 항에 있어서,
상기 제 1 프로그램의 실행 화면은 상기 제 1 아바타와 연동하여 동작하는 제 1 아이템에서 디스플레이되고,
상기 제 2 프로그램의 실행 화면은 상기 제 2 아바타와 연동하여 동작하는 제 2 아이템에서 디스플레이되는, 디바이스.
According to claim 10,
An execution screen of the first program is displayed in a first item that operates in conjunction with the first avatar,
The device, wherein the execution screen of the second program is displayed in a second item that operates in conjunction with the second avatar.
삭제delete 제 10 항에 있어서,
상기 디스플레이는
상기 제 2 디바이스와 상기 제 3 디바이스가 실시간으로 송수신하는 데이터의 연속성에 기초하여 상기 제 2 아바타의 기설정 신체 부위의 반복적인 움직임을 디스플레이하고,
상기 기설정 신체 부위의 반복적인 움직임의 빠르기는 상기 수강자의 안구 모니터링 결과에 따라 결정된 시선 방향 기초하여 결정되고,
상기 시선 방향이 기설정 방향으로 결정된 시간이 제 1 시간 미만인 경우, 상기 빠르기는 제 1 레벨로 결정되고,
상기 시선 방향이 상기 기설정 방향으로 결정된 시간이 상기 제 1 시간 이상 제 2 시간 미만인 경우, 상기 빠르기는 제 2 레벨로 결정되고,
상기 시선 방향이 상기 기설정 방향으로 결정된 시간이 상기 제 2 시간 이상인 경우, 상기 빠르기는 제 3 레벨로 결정되는, 디바이스.
According to claim 10,
the display
displaying a repetitive motion of a predetermined body part of the second avatar based on continuity of data transmitted and received between the second device and the third device in real time;
The speed of the repetitive movement of the predetermined body part is determined based on the gaze direction determined according to the eyeball monitoring result of the student,
When the time for which the gaze direction is determined as the preset direction is less than a first time, the speed is determined as a first level,
When the time for which the gaze direction is determined to be the preset direction is greater than or equal to the first time and less than a second time, the speed is determined to be a second level,
When the time for which the gaze direction is determined as the preset direction is equal to or longer than the second time, the speed is determined as a third level.
제 10 항에 있어서,
상기 디스플레이는
상기 수강자의 안구 모니터링 결과에 따라 결정된 시선 방향에 기초하여 상기 제 2 아바타와 인접한 영역에 상기 수강자의 수강 상태를 나타내는 이미지를 디스플레이하고,
상기 수강 상태를 나타내는 이미지는
상기 시선 방향이 기설정 방향으로 결정된 횟수에 기초하여 결정되고,
상기 시선 방향이 상기 기설정 방향으로 결정된 횟수가 제 1 횟수 미만인 경우, 상기 수강 상태를 나타내는 이미지는 집중도 높음 상태를 나타내는 이미지로 결정되고,
상기 시선 방향이 상기 기설정 방향으로 결정된 횟수가 상기 제 1 횟수 이상 제 2 횟수 미만인 경우, 상기 수강 상태를 나타내는 이미지는 집중도 보통 상태를 나타내는 이미지로 결정되고,
상기 시선 방향이 상기 기설정 방향으로 결정된 횟수가 상기 제 2 횟수 이상인 경우, 상기 수강 상태를 나타내는 이미지는 집중도 낮음 상태를 나타내는 이미지로 결정되는, 디바이스.
According to claim 10,
the display
Displaying an image representing the student's attendance status in an area adjacent to the second avatar based on a gaze direction determined according to a result of the student's eyeball monitoring;
The image representing the status of the course is
The gaze direction is determined based on the number of times the preset direction is determined,
When the number of times that the gaze direction is determined as the preset direction is less than the first number of times, the image representing the class attendance state is determined as an image representing a high concentration state;
When the number of times that the gaze direction is determined to be the preset direction is greater than or equal to the first number and less than the second number of times, the image representing the class attendance state is determined as an image representing a normal concentration state;
If the number of times that the gaze direction is determined to be the preset direction is equal to or greater than the second number of times, the image representing the class attendance state is determined as an image representing a low concentration state.
제 1 항, 제 2 항, 제 4 항 내지 제 6 항, 제 8 항 및 제 9 항 중 어느 한 항의 방법을 컴퓨터에서 구현하기 위하여 기록매체에 저장된 컴퓨터 프로그램.

A computer program stored in a recording medium to implement the method of any one of claims 1, 2, 4 to 6, 8 and 9 in a computer.

KR1020200131407A 2020-10-12 2020-10-12 Method and device for providing virtual lecture space KR102561352B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200131407A KR102561352B1 (en) 2020-10-12 2020-10-12 Method and device for providing virtual lecture space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200131407A KR102561352B1 (en) 2020-10-12 2020-10-12 Method and device for providing virtual lecture space

Publications (2)

Publication Number Publication Date
KR20220048350A KR20220048350A (en) 2022-04-19
KR102561352B1 true KR102561352B1 (en) 2023-07-31

Family

ID=81391868

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200131407A KR102561352B1 (en) 2020-10-12 2020-10-12 Method and device for providing virtual lecture space

Country Status (1)

Country Link
KR (1) KR102561352B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101367260B1 (en) 2012-06-19 2014-02-25 김영대 A virtual lecturing apparatus for configuring a lecture picture during a lecture by a lecturer
JP2014225801A (en) * 2013-05-16 2014-12-04 株式会社ニコン Conference system, conference method and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010065751A (en) * 1999-12-30 2001-07-11 박영신 An education method,which makes use of AVATA,in 3D internet space
KR20100016696A (en) * 2008-08-05 2010-02-16 주식회사 리얼맨토스 Student learning attitude analysis systems in virtual lecture
KR20110105516A (en) * 2010-03-19 2011-09-27 (주) 써니그라피 Lecture system and method for performing, recording and replaying lecture
KR20170017616A (en) * 2015-08-07 2017-02-15 현대모비스 주식회사 Apparatus and method for assisting drive
US10609018B2 (en) * 2016-12-05 2020-03-31 Google Llc Gesture-based access control in virtual environments
KR20200094929A (en) * 2019-01-31 2020-08-10 한국기술교육대학교 산학협력단 Smart toy and communication methods using the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101367260B1 (en) 2012-06-19 2014-02-25 김영대 A virtual lecturing apparatus for configuring a lecture picture during a lecture by a lecturer
JP2014225801A (en) * 2013-05-16 2014-12-04 株式会社ニコン Conference system, conference method and program

Also Published As

Publication number Publication date
KR20220048350A (en) 2022-04-19

Similar Documents

Publication Publication Date Title
US11302085B2 (en) Artificial reality collaborative working environments
US11403595B2 (en) Devices and methods for creating a collaborative virtual session
Tham et al. Understanding virtual reality: Presence, embodiment, and professional practice
Grønbæk et al. MirrorBlender: Supporting hybrid meetings with a malleable video-conferencing system
De Lucia et al. Development and evaluation of a virtual campus on Second Life: The case of SecondDMI
Rae et al. In-body experiences: embodiment, control, and trust in robot-mediated communication
Stahl et al. Social telepresence robots: The role of gesture for collaboration over a distance
Yoshimura et al. Evaluation and comparison of desktop viewing and headset viewing of remote lectures in vr with mozilla hubs
JP2020080154A (en) Information processing system
Kim et al. A large-scale study of surrogate physicality and gesturing on human–surrogate interactions in a public space
Blascovich et al. Digital immersive virtual environments and instructional computing
Fink et al. Re-locations: Augmenting personal and shared workspaces to support remote collaboration in incongruent spaces
Young Virtual Pastor: Virtualization, AI, and pastoral care
Song et al. Developing ‘Learningverse’-a 3D Metaverse Platform to Support Teaching, Social and Cognitive Presences
KR102561352B1 (en) Method and device for providing virtual lecture space
You et al. Coexistent space: toward seamless integration of real, virtual, and remote worlds for 4d+ interpersonal interaction and collaboration
Bay Screening (in) formation: Bodies and writing in network culture
Walkowski et al. Using a game controller for relaying deictic gestures in computer-mediated communication
Coburn An analysis of enabling techniques for highly-accessible low-cost virtual reality hardware in the collaborative engineering design process
Chang et al. SignalShare: A Secondary Two-Way Mediated Interaction Tool
Rosakranse et al. 10 social presence in cmc and vr
He Enhancing Collaboration and Productivity for Virtual and Augmented Reality
Riet How social cues shape remote collaborative work processes: establishing an abstraction hierarchy for evaluating computer-supported collaborative work tools
Liu et al. Telepresence Chameleon: Improve User Experience of Telepresence Robot With Chameleon Effect
N. Delioglanis From Locative Media to Ubiquitous Computing: The Peripheral

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant