KR102620284B1 - System for providing metaverse based education platform service - Google Patents

System for providing metaverse based education platform service Download PDF

Info

Publication number
KR102620284B1
KR102620284B1 KR1020230036597A KR20230036597A KR102620284B1 KR 102620284 B1 KR102620284 B1 KR 102620284B1 KR 1020230036597 A KR1020230036597 A KR 1020230036597A KR 20230036597 A KR20230036597 A KR 20230036597A KR 102620284 B1 KR102620284 B1 KR 102620284B1
Authority
KR
South Korea
Prior art keywords
metaverse
vcn
node
network
education platform
Prior art date
Application number
KR1020230036597A
Other languages
Korean (ko)
Inventor
조정은
Original Assignee
주식회사 코드스토리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코드스토리 filed Critical 주식회사 코드스토리
Priority to KR1020230036597A priority Critical patent/KR102620284B1/en
Application granted granted Critical
Publication of KR102620284B1 publication Critical patent/KR102620284B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Abstract

메타버스 기반 교육 플랫폼 서비스 제공 시스템이 제공되며, 아바타를 선택한 후 메타버스 기반 교육 플랫폼에 접속하는 사용자 단말, 사용자 단말과 연결되고, 메타버스 기반 교육 플랫폼에 접속되는 교수자 단말 및 메타버스 기반 교육 플랫폼을 구축하는 구축부, 사용자 단말 및 교수자 단말에서 아바타를 선택하고 메타버스 기반 교육 플랫폼에 접속하는 경우 다중접속(Multiple Access) 기반 연결을 제공하는 연결부, 화면 또는 캠 영상의 공유 옵션을 제공하는 공유관리부, 메타버스 기반 교육 플랫폼 내 적어도 하나의 객체에 온라인스토어를 매핑하여 세팅하는 스토어부, 사용자 단말 또는 교수자 단말의 아바타에서 이모지(Emoji)를 표시하거나 이모션(Emotion)을 아바타의 제스처로 표현하도록 설정하는 감정표현부, 사용자 단말 및 교수자 단말 간 다중화상채팅을 지원하는 화상관리부, 사용자 단말 및 교수자 단말 간 공개채팅 및 비밀채팅을 지원하는 채팅지원부를 포함하는 플랫폼 서비스 제공 서버를 포함한다.A metaverse-based education platform service provision system is provided, and a user terminal connects to the metaverse-based education platform after selecting an avatar, an instructor terminal connected to the user terminal and connected to the metaverse-based education platform, and a metaverse-based education platform. A construction unit that builds, a connection unit that provides multiple access-based connection when selecting an avatar on the user terminal and instructor terminal and accessing the metaverse-based education platform, a sharing management unit that provides a sharing option for screen or cam video, The store department, which maps and sets up an online store to at least one object within the metaverse-based education platform, displays emojis on the avatar of the user terminal or instructor terminal, or sets the emotion to be expressed as a gesture of the avatar. It includes a platform service providing server that includes an emotion expression unit, a video management unit that supports multiple video chats between user terminals and instructor terminals, and a chat support unit that supports public and secret chats between user terminals and instructor terminals.

Description

메타버스 기반 교육 플랫폼 서비스 제공 시스템{SYSTEM FOR PROVIDING METAVERSE BASED EDUCATION PLATFORM SERVICE}Metaverse-based education platform service provision system {SYSTEM FOR PROVIDING METAVERSE BASED EDUCATION PLATFORM SERVICE}

본 발명은 메타버스 기반 교육 플랫폼 서비스 제공 시스템에 관한 것으로, 오프라인에서 수업을 받는 것과 같은 몰입감인 임장성(Telepresence)을 줄 수 있는 플랫폼을 제공한다.The present invention relates to a metaverse-based education platform service provision system, and provides a platform that can provide telepresence, a feeling of immersion similar to taking an offline class.

디지털 기술을 통해 교수자와 학생 또는 학생 상호 간에 비대면 상황에서 구현할 수 있는 화상 플랫폼을 활용한 온라인 수업, 동영상 교육, 블렌디드 러닝(Blended Learning) 등의 다양한 형태의 교육 방법들이 시도되고 있다. 메타버스는 학습자의 주도적이고 능동적 의사소통 참여를 이끌어내는 데 효과적이다. 메타버스에서는 아바타라는 존재를 통해 상호작용 과정에 참여하게 되는데, 아바타는 메타버스 공간 내에서 자유로운 이동이 가능하며, 다양한 동료 아바타와 동등한 입장에서 의사소통을 수행하게 된다. 즉, 전통적 수업 방식에서처럼 교수자가 주도적으로 교육 내용을 전달하거나 활동을 이끌어가는 것이 아니라, 교수자 역시 하나의 아바타로서 의사소통 장면에 참여하게 되며 역동적인 상호작용이 가능하다는 것이다. 따라서 학습자들은 시간과 공간의 제한 없이 상시 접속할 수 있는 메타버스 안에서 능동적으로 학습을 이끌어 나갈 수 있다. 메타버스는 오프라인에서 느낄 수 있는 몰입감인 임장성(Telepresence)을 제공할 수 있는 기술로 수업에 실제적인 맥락을 제공할 수 있는 장점을 가지고 있다.Various types of educational methods are being attempted, such as online classes using video platforms, video education, and blended learning that can be implemented in a non-face-to-face situation between instructors and students through digital technology. Metaverse is effective in eliciting learners’ proactive and active participation in communication. In the metaverse, one participates in the interaction process through an entity called an avatar. The avatar can move freely within the metaverse space and communicate on an equal footing with various fellow avatars. In other words, rather than the instructor taking the lead in delivering educational content or leading activities as in the traditional class method, the instructor also participates in the communication scene as an avatar and dynamic interaction is possible. Therefore, learners can actively lead their learning within the metaverse, which can be accessed at all times without limitations of time and space. Metaverse is a technology that can provide telepresence, a feeling of immersion that can be felt offline, and has the advantage of providing a realistic context for classes.

이때, 메타버스 기반 학습관리시스템(LMS)을 제공하거나 가상의 강의공간 및 아바타를 생성하는 방법이 연구 및 개발되었는데, 이와 관련하여, 선행기술인 한국등록특허 제10-2382385호(2022년04월08일 공고) 및 한국등록특허 제10-2368616호(2022년03월02일 공고)에는, 메타버스 기반 가상교실에서 온라인 수업을 개설하고, 학습 콘텐츠를 스크린 기반으로 제공하며, 학습관리시스템을 통하여 출결확인, 접속확인, 수업성적관리를 수행하는 구성과, 메타버스 내 가상 강의공간을 생성하기 위해 강의를 신청한 학습자의 프로필 정보에 기초하여 강의공간을 생성하고, 강사 및 학생의 아바타를 생성하여 강의공간에 출력하는 구성이 각각 개시되어 있다.At this time, a method of providing a metaverse-based learning management system (LMS) or creating a virtual lecture space and avatar was researched and developed. In this regard, Korean Patent No. 10-2382385 (April 8, 2022), which is a prior art, was researched and developed. In Japan and Korea Patent No. 10-2368616 (announced on March 2, 2022), online classes are opened in a metaverse-based virtual classroom, learning content is provided on a screen, and attendance is recorded through a learning management system. In order to perform confirmation, connection confirmation, and class performance management, and to create a virtual lecture space in the metaverse, a lecture space is created based on the profile information of the learner who applied for the lecture, and instructor and student avatars are created to teach the lecture. Each configuration for outputting data to space is disclosed.

다만, 전자의 경우 가상 현실을 이용하여 학습관리시스템을 구축한 것에 불과하고, 후자의 경우에도 메타버스라는 가상 콘텐츠 내에 아바타 객체를 입력한 것 이상의 의미가 없다. 메타버스 공간 내에서 수업을 하기 위해서는, 학교와 같은 교육기관과 유사한 공간에 대응하는 맵(Map)이 마련되어야 하고, 학교에서 수업을 하는 것과 같은 판서 기능, 문서 공유 기능, 필기 기능과 같은 인터페이스가 제공되어야 하며, 교수자 및 사용자 간 화면 공유나 캠 공유 등의 기능은 물론, 다중접속을 지원하여 지연을 최소화하고, 맞춤형 아바타를 제공하는 외형적인 것 뿐만 아니라 감정을 표현할 수 있는 옵션을 제공할 수 있어야 한다. 이에, 오프라인에서 느낄 수 있는 몰입감인 임장성을 제공할 수 있는 메타버스 기반의 교육 플랫폼의 연구 및 개발이 요구된다.However, in the former case, it is nothing more than building a learning management system using virtual reality, and in the latter case, it has no meaning beyond entering an avatar object into the virtual content called Metaverse. In order to teach within the metaverse space, a map corresponding to a space similar to an educational institution such as a school must be prepared, and an interface such as writing, document sharing, and writing functions similar to those used in classes at school must be provided. It must be provided with features such as screen sharing and cam sharing between instructors and users, as well as support for multiple connections to minimize delays and provide options for expressing emotions as well as appearance, such as providing customized avatars. do. Accordingly, research and development of a metaverse-based educational platform that can provide a sense of immersion that can be felt offline is required.

본 발명의 일 실시예는, 메타버스 기반으로 시공간 한계를 극복하고, 다중접속을 지원하여 안정적인 네트워크를 유지하며, 실시간으로 협업할 수 있는 클라우드나 다양한 형태의 공유기능을 제공하고, 학교와 같은 교육기관과 유사한 공간에 대응하는 맵(Map)을 지원하기 위해 교실 외에도 상담실, 스터디룸, 그룹교실 및 과학실과 같은 다양한 형태의 맵을 제공하며, 학교에서 수업을 하는 것과 같은 판서 기능, 문서 공유 기능, 필기 기능과 같은 인터페이스를 지원하고, 맞춤형 아바타를 제공하는 외형적인 것 뿐만 아니라 감정을 표현할 수 있는 옵션을 제공할 수 있으며, 온라인 스토어를 지원하여 수업에 필요한 도서, 필기용품을 구매할 수 있도록 하고, 교실 내 미니게임을 에듀게임으로 배치하여 놀이를 통해 학습효과를 줄 수 있도록 하는, 메타버스 기반 교육 플랫폼 서비스 제공 시스템을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.One embodiment of the present invention overcomes space-time limitations based on the metaverse, maintains a stable network by supporting multiple access, provides cloud and various types of sharing functions for real-time collaboration, and provides education such as schools. In order to support maps that correspond to spaces similar to institutions, we provide various types of maps such as counseling rooms, study rooms, group classrooms, and science rooms in addition to classrooms, as well as annotation functions and document sharing functions similar to those used in classes at school. It supports interfaces such as handwriting functions, provides options to express emotions as well as appearance by providing customized avatars, supports an online store so that books and writing supplies needed for class can be purchased, and provides classroom We can provide a metaverse-based educational platform service provision system that provides learning effects through play by arranging my minigames as edugames. However, the technical challenge that this embodiment aims to achieve is not limited to the technical challenges described above, and other technical challenges may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 아바타를 선택한 후 메타버스 기반 교육 플랫폼에 접속하는 사용자 단말, 사용자 단말과 연결되고, 메타버스 기반 교육 플랫폼에 접속되는 교수자 단말 및 메타버스 기반 교육 플랫폼을 구축하는 구축부, 사용자 단말 및 교수자 단말에서 아바타를 선택하고 메타버스 기반 교육 플랫폼에 접속하는 경우 다중접속(Multiple Access) 기반 연결을 제공하는 연결부, 화면 또는 캠 영상의 공유 옵션을 제공하는 공유관리부, 메타버스 기반 교육 플랫폼 내 적어도 하나의 객체에 온라인스토어를 매핑하여 세팅하는 스토어부, 사용자 단말 또는 교수자 단말의 아바타에서 이모지(Emoji)를 표시하거나 이모션(Emotion)을 아바타의 제스처로 표현하도록 설정하는 감정표현부, 사용자 단말 및 교수자 단말 간 다중화상채팅을 지원하는 화상관리부, 사용자 단말 및 교수자 단말 간 공개채팅 및 비밀채팅을 지원하는 채팅지원부를 포함하는 플랫폼 서비스 제공 서버를 포함한다.As a technical means for achieving the above-described technical problem, one embodiment of the present invention includes a user terminal that selects an avatar and connects to the metaverse-based education platform, and an instructor connected to the user terminal and connected to the metaverse-based education platform. Construction unit that builds terminal and metaverse-based education platform, connection unit that provides multiple access-based connection when selecting an avatar on the user terminal and instructor terminal and accessing the metaverse-based education platform, screen or cam video A sharing management section that provides sharing options, a store section that maps and sets the online store to at least one object within the metaverse-based education platform, and an emoji or emotion on the avatar of the user terminal or instructor terminal. A platform service providing server that includes an emotional expression unit that is set to express with avatar gestures, an image management unit that supports multiple video chats between user terminals and instructor terminals, and a chat support unit that supports public and secret chats between user terminals and instructor terminals. Includes.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 메타버스 기반으로 시공간 한계를 극복하고, 다중접속을 지원하여 안정적인 네트워크를 유지하며, 실시간으로 협업할 수 있는 클라우드나 다양한 형태의 공유기능을 제공하고, 학교와 같은 교육기관과 유사한 공간에 대응하는 맵(Map)을 지원하기 위해 교실 외에도 상담실, 스터디룸, 그룹교실 및 과학실과 같은 다양한 형태의 맵을 제공하며, 학교에서 수업을 하는 것과 같은 판서 기능, 문서 공유 기능, 필기 기능과 같은 인터페이스를 지원하고, 맞춤형 아바타를 제공하는 외형적인 것 뿐만 아니라 감정을 표현할 수 있는 옵션을 제공할 수 있으며, 온라인 스토어를 지원하여 수업에 필요한 도서, 필기용품을 구매할 수 있도록 하고, 교실 내 미니게임을 에듀게임으로 배치하여 놀이를 통해 학습효과를 줄 수 있도록 한다.According to one of the above-described means of solving the problems of the present invention, it overcomes space-time limitations based on the metaverse, maintains a stable network by supporting multiple access, and provides a cloud or various types of sharing functions for real-time collaboration. In order to support maps corresponding to spaces similar to educational institutions such as schools, we provide various types of maps such as counseling rooms, study rooms, group classrooms, and science rooms in addition to classrooms, and provide maps similar to those taught in schools. It supports interfaces such as functions, document sharing functions, and writing functions, and provides options to express emotions as well as external appearance by providing customized avatars. It supports an online store to sell books and writing supplies needed for class. Make it available for purchase, and arrange mini games in the classroom as edu games to provide learning effects through play.

도 1은 본 발명의 일 실시예에 따른 메타버스 기반 교육 플랫폼 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 플랫폼 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 메타버스 기반 교육 플랫폼 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 메타버스 기반 교육 플랫폼 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
Figure 1 is a diagram for explaining a metaverse-based education platform service provision system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a platform service providing server included in the system of FIG. 1.
Figures 3 and 4 are diagrams for explaining an embodiment in which a metaverse-based education platform service is implemented according to an embodiment of the present invention.
Figure 5 is an operation flowchart illustrating a method of providing a metaverse-based education platform service according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected," but also the case where it is "electrically connected" with another element in between. . In addition, when a part is said to "include" a certain component, this does not mean excluding other components unless specifically stated to the contrary, but may further include other components, and one or more other features. It should be understood that it does not exclude in advance the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. The terms "about", "substantially", etc. used throughout the specification are used to mean at or close to that value when manufacturing and material tolerances inherent in the stated meaning are presented, and are used to enhance the understanding of the present invention. Precise or absolute figures are used to assist in preventing unscrupulous infringers from taking unfair advantage of stated disclosures. The term “step of” or “step of” as used throughout the specification of the present invention does not mean “step for.”

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, 'part' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Additionally, one unit may be realized using two or more pieces of hardware, and two or more units may be realized using one piece of hardware. Meanwhile, '~ part' is not limited to software or hardware, and '~ part' may be configured to reside in an addressable storage medium or may be configured to reproduce one or more processors. Therefore, as an example, '~ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by a terminal, apparatus, or device may instead be performed on a server connected to the terminal, apparatus, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed in a terminal, apparatus, or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is identifying data of the terminal. It can be interpreted as

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일 실시예에 따른 메타버스 기반 교육 플랫폼 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 메타버스 기반 교육 플랫폼 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 플랫폼 서비스 제공 서버(300), 적어도 하나의 교수자 단말(400)을 포함할 수 있다. 다만, 이러한 도 1의 메타버스 기반 교육 플랫폼 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.Figure 1 is a diagram for explaining a metaverse-based education platform service provision system according to an embodiment of the present invention. Referring to FIG. 1, the metaverse-based education platform service providing system 1 may include at least one user terminal 100, a platform service providing server 300, and at least one instructor terminal 400. However, since the metaverse-based education platform service providing system 1 of FIG. 1 is only an embodiment of the present invention, the present invention is not limited to the interpretation of FIG. 1.

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(Network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 플랫폼 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 플랫폼 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 교수자 단말(400)과 연결될 수 있다. 또한, 적어도 하나의 교수자 단말(400)은, 네트워크(200)를 통하여 플랫폼 서비스 제공 서버(300)와 연결될 수 있다. At this time, each component of FIG. 1 is generally connected through a network (Network, 200). For example, as shown in FIG. 1, at least one user terminal 100 may be connected to the platform service providing server 300 through the network 200. In addition, the platform service providing server 300 may be connected to at least one user terminal 100 and at least one instructor terminal 400 through the network 200. Additionally, at least one instructor terminal 400 may be connected to the platform service providing server 300 through the network 200.

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure that allows information exchange between each node, such as a plurality of terminals and servers. Examples of such networks include a local area network (LAN) and a wide area network (WAN). Wide Area Network, Internet (WWW: World Wide Web), wired and wireless data communication network, telephone network, wired and wireless television communication network, etc. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), 5th Generation Partnership Project (5GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), and Wi-Fi. , Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth network, NFC ( It includes, but is not limited to, Near-Field Communication (Near-Field Communication) network, satellite broadcasting network, analog broadcasting network, and DMB (Digital Multimedia Broadcasting) network.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term at least one is defined as a term including singular and plural, and even if the term at least one does not exist, each component may exist in singular or plural, and may mean singular or plural. This should be self-explanatory. In addition, whether each component is provided in singular or plural form may be changed depending on the embodiment.

적어도 하나의 사용자 단말(100)은, 메타버스 기반 교육 플랫폼 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 아바타를 선택하고 메타버스 기반 교육 플랫폼에 접속하는 학생의 단말일 수 있다.At least one user terminal 100 may be a student terminal that selects an avatar and accesses the metaverse-based education platform using a web page, app page, program, or application related to the metaverse-based education platform service.

여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one user terminal 100 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop equipped with a navigation system and a web browser, a desktop, a laptop, etc. At this time, at least one user terminal 100 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one user terminal 100 is, for example, a wireless communication device that guarantees portability and mobility, and includes navigation, personal communication system (PCS), global system for mobile communications (GSM), personal digital cellular (PDC), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) ) It may include all types of handheld-based wireless communication devices such as terminals, smartphones, smartpads, and tablet PCs.

플랫폼 서비스 제공 서버(300)는, 메타버스 기반 교육 플랫폼 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 플랫폼 서비스 제공 서버(300)는, 메타버스 기반 교육 플랫폼을 구축하고, 사용자 단말(100) 및 교수자 단말(400)에서 아바타를 설정하는 경우, 사용자 및 교수자에 기 설정된 권한을 부여하고, 권한에 따라 각 옵션을 이용하도록 설정하는 서버일 수 있다. The platform service providing server 300 may be a server that provides a metaverse-based education platform service web page, app page, program, or application. And, the platform service providing server 300 builds a metaverse-based education platform and, when setting avatars on the user terminal 100 and the instructor terminal 400, grants preset permissions to the user and instructor, and grants the permissions to the user and the instructor. Depending on this, it may be a server that sets each option to use.

여기서, 플랫폼 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the platform service providing server 300 may be implemented as a computer that can connect to a remote server or terminal through a network. Here, the computer may include, for example, a laptop equipped with a navigation system and a web browser, a desktop, a laptop, etc.

적어도 하나의 교수자 단말(400)은, 메타버스 기반 교육 플랫폼 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하는 교수자의 단말일 수 있다. At least one instructor terminal 400 may be an instructor terminal that uses a web page, app page, program, or application related to the metaverse-based education platform service.

여기서, 적어도 하나의 교수자 단말(400)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 교수자 단말(400)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 교수자 단말(400)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one instructor terminal 400 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop equipped with a navigation system and a web browser, a desktop, a laptop, etc. At this time, at least one instructor terminal 400 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one instructor terminal 400 is, for example, a wireless communication device that ensures portability and mobility, and includes navigation, Personal Communication System (PCS), Global System for Mobile communications (GSM), Personal Digital Cellular (PDC), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) ) It may include all types of handheld-based wireless communication devices such as terminals, smartphones, smartpads, and tablet PCs.

도 2는 도 1의 시스템에 포함된 플랫폼 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3 및 도 4는 본 발명의 일 실시예에 따른 메타버스 기반 교육 플랫폼 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.Figure 2 is a block diagram for explaining the platform service providing server included in the system of Figure 1, and Figures 3 and 4 show an embodiment in which a metaverse-based education platform service is implemented according to an embodiment of the present invention. This is a drawing for explanation.

도 2를 참조하면, 플랫폼 서비스 제공 서버(300)는, 구축부(310), 연결부(320), 공유관리부(330), 스토어부(340), 감정표현부(350), 화상관리부(360), 채팅지원부(370), 이동제어부(380), 미니게임부(390), 공간제공부(391), 필기노트부(392), 음성그룹활동지원부(393), 맞춤캐릭터부(394), 도구지원부(395) 및 3D제공부(396)를 포함할 수 있다.Referring to FIG. 2, the platform service providing server 300 includes a construction unit 310, a connection unit 320, a sharing management unit 330, a store unit 340, an emotional expression unit 350, and an image management unit 360. , chat support unit (370), movement control unit (380), mini game unit (390), space provision unit (391), written note unit (392), voice group activity support unit (393), custom character unit (394), tools It may include a support unit 395 and a 3D provision unit 396.

본 발명의 일 실시예에 따른 플랫폼 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100) 및 적어도 하나의 교수자 단말(400)로 메타버스 기반 교육 플랫폼 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100) 및 적어도 하나의 교수자 단말(400)은, 메타버스 기반 교육 플랫폼 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100) 및 적어도 하나의 교수자 단말(400)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.The platform service providing server 300 or another server (not shown) operating in conjunction with an embodiment of the present invention provides a metaverse-based education platform with at least one user terminal 100 and at least one instructor terminal 400. When transmitting a service application, program, app page, web page, etc., at least one user terminal 100 and at least one instructor terminal 400 transmit the metaverse-based education platform service application, program, app page, web page, etc. etc. can be installed or opened. Additionally, a service program may be run on at least one user terminal 100 and at least one instructor terminal 400 using a script executed in a web browser. Here, a web browser is a program that allows the use of web (WWW: World Wide Web) services and refers to a program that receives and displays hypertext written in HTML (Hyper Text Mark-up Language), for example, Netscape. , Explorer, Chrome, etc. Additionally, an application refers to an application on a terminal and includes, for example, an app running on a mobile terminal (smartphone).

도 2를 참조하면, 도 2를 참조하면, 구축부(310)는, 메타버스 기반 교육 플랫폼을 구축할 수 있다. 이때, 메타버스(MetaVerse)에 대한 가장 공신력 있는 속성 정의는 미국의 비영리 연구단체인 미래가속화연구재단(Acceleration Studies Foundat ion, ASF)에서 제시한 메타버스 로드맵(ASFMetaverse Roadmap)과 메튜볼(Matthew Ball)이 정의한 의해 메타버스의 핵심 7속성이다. 메튜볼은 메타버스 벤치마크 점수라고 불리우는 볼 메타버스 인텍스(The Ball Metaverse Index)를 창시하였고, 메타버스의 7속성을 통해 메타버스가 가져야할 필수적이자, 핵심적인 속성을 제시했다. 메튜볼에 의해 정의된 메타버스의 7속성은 ① 지속성, ② 실시간성, ③ 무제한성, ④ 경제성, ⑤ 초월성, ⑥ 상호운용성, ⑦ 콘텐츠이다. ① 지속성은 재설정이나 종료없이 무기한으로 서비스되어야 하고 사용자 접속 여부와 상관없이 존재해야 한다는 개념이고, ② 실시간성은 실제(Real Life)와 마찬가지로 실시간으로 처리가 되어야 함을 뜻한다. ③ 무제한성은 누구나 참가가 가능하며, 각 개인들이 존재감을 지닌 동시에, 동시 참여에 대한 제한은 없어야 한다는 개념이고, ④ 경제성은 메타버스에 참여하는 개인, 단체, 회사는 타인이 인정하는 가치를 창출, 소유, 투자, 판매 및 보상을 받을 수 있어야 한다는 개념이다. ⑤ 초월성은 현실세계와 온라인 공간 연결로, 디지털과 물리적 세계와 플랫폼 간을 모두를 어우를 수 있는 경험을 제공하는 개념을 뜻한다. ⑥ 상호운용성은, 메타버스 플랫폼 간의 교류 지원이며, ⑦ 콘텐츠는 개인, 단체, 회사 등 다양한 사용자가 활동하여 콘텐츠와 경험으로 채워져야 한다는 것을 의미한다.Referring to FIG. 2, the construction unit 310 may build a metaverse-based education platform. At this time, the most credible attribute definitions for MetaVerse are the ASFMetaverse Roadmap and Matthew Ball presented by the Acceleration Studies Foundation (ASF), an American non-profit research organization. By definition, these are the 7 core properties of the metaverse. Metuball created The Ball Metaverse Index, also known as the Metaverse Benchmark Score, and presented the essential and core properties that the Metaverse should have through the 7 properties of the Metaverse. The seven properties of the metaverse defined by Matthew Ball are ① persistence, ② real-time, ③ unlimited, ④ economic efficiency, ⑤ transcendence, ⑥ interoperability, and ⑦ content. ① Continuity is the concept that the service must be provided indefinitely without reset or termination and must exist regardless of whether the user connects or not, and ② Real-time means that it must be processed in real time, just like in real life. ③ Unlimited refers to the concept that anyone can participate, and each individual has a presence, while there should be no restrictions on simultaneous participation. ④ Economic efficiency refers to the concept that individuals, organizations, and companies participating in the metaverse create value recognized by others. The concept is that you should be able to own, invest, sell, and receive compensation. ⑤ Transcendence refers to the concept of connecting the real world and online space, providing an experience that can encompass the digital and physical worlds and platforms. ⑥ Interoperability means supporting exchange between metaverse platforms, and ⑦ Content must be filled with content and experiences through the activities of various users such as individuals, organizations, and companies.

이때, 본 발명의 일 실시예는 ② 실시간성 및 ③ 무제한성을 충족시키기 위해 다중접속환경을 제공하는데, 이를 위해 엣지(Edge) 컴퓨팅을 이용하여 부하를 분산하고 다중접속환경을 제공하여 딜레이를 최소화하면서 실시간성 및 무제한성을 만족시키도록 할 수 있다. 이때, 게임과 같은 스트리밍 기반 상호작용 콘텐츠는 영상 스트리밍 서비스와는 상이한 핵심 성능 지표를 가진다. 영상과 같은 멀티미디어 콘텐츠의 스트리밍은 네트워크 대역폭을 핵심 지표로 삼는 반면, 상호작용 콘텐츠는 네트워크 대역폭뿐만 아니라 사용자의 입력에 대한 반응시간도 매우 중요한 성능 지표가 된다. 게임 사용자는 키 조작이나 IMU(Inertial Measurement Unit) 결과값 등 자신의 입력이나 동작에 대한 결과가 즉각적으로 화면에 표시되길 원하는데, 입력 반응 시간에는 클라우드 서버와 데이터를 주고받는 시간, 즉, 네트워크 지연이 가장 큰 부분을 차지하게 된다.At this time, an embodiment of the present invention provides a multiple access environment to satisfy ② real-time and ③ unlimitedness. To this end, edge computing is used to distribute the load and provide a multiple access environment to minimize delay. While doing so, it can satisfy real-time and unlimited nature. At this time, streaming-based interactive content such as games have different key performance indicators from video streaming services. Streaming of multimedia content such as video uses network bandwidth as a key indicator, while for interactive content, not only network bandwidth but also response time to user input is a very important performance indicator. Game users want the results of their inputs or actions, such as keystrokes or IMU (Inertial Measurement Unit) results, to be immediately displayed on the screen, but the input response time includes the time to exchange data with the cloud server, that is, network delay. It takes up the largest part.

엣지 컴퓨팅은 클라우드 서버가 수행하던 동작을 네트워크 엣지에 위치한 컴퓨팅 개체가 일부 분담하는 개념으로, 클라우드 통신 모델의 단점이었던 지연 시간 문제를 해결할 수 있어 기술적 영향력을 확대하고 있다. 클라우드 VR의 지연시간 이슈 역시 엣지 컴퓨팅을 기반으로 한다면 어느 정도 대응 가능하다. 다만, 엣지 컴퓨팅 환경은 데이터센터에 비해 상대적으로 부족하고 분산된 컴퓨팅 자원으로 구성되어 있는 등 태생적인 한계가 존재한다. 따라서 높은 수준의 컴퓨팅 및 네트워킹 작업 부하를 요구하는 메타버스 서비스를 엣지 컴퓨팅 네트워크에서 지원하기 위해서는 콘텐츠 특성과 엣지 도메인 내 다양한 리소스를 종합적으로 고려해야 한다. 이에, 본 발명의 일 실시예에서는, 메타버스 콘텐츠를 위한 엣지 네트워크를 구성할 수 있다. 네트워크 관점에서 다중 사용자를 기반으로 하는 메타버스 콘텐츠에 대한 다양한 고려사항과, 엣지 서버 배치 시, 평균적인 네트워크 거리가 증가하지 않게 유지하면서 동시에 네트워크 혼잡도를 감소시키기 위한 구성 알고리즘을 이용할 수 있다.Edge computing is a concept in which computing entities located at the edge of the network share some of the operations performed by the cloud server, and is expanding its technological influence by solving the delay time problem, which was a drawback of the cloud communication model. Cloud VR's latency issue can also be addressed to some extent if it is based on edge computing. However, edge computing environments have inherent limitations, such as being composed of relatively insufficient and distributed computing resources compared to data centers. Therefore, in order to support metaverse services that require high-level computing and networking workloads in an edge computing network, content characteristics and various resources within the edge domain must be comprehensively considered. Accordingly, in one embodiment of the present invention, an edge network for metaverse content can be configured. From a network perspective, various considerations for metaverse content based on multiple users and configuration algorithms can be used to reduce network congestion while maintaining the average network distance from increasing when deploying edge servers.

<엣지 서버 배치><Edge server placement>

예를 들어, N 대의 클라이언트와 M 대의 엣지 서버로 구성된 세트를 VCN(Virtual Content Network)라 하면, 네트워크 내 클라이언트의 위치는 고정되어 있으므로, 각 VCN들의 엣지 서버 동작 위치를 지정함으로써 VCN의 지연시간 감소뿐만 아니라 전체 네트워크의 트래픽 부하 감소 및 컴퓨팅 리소스 균형을 달성할 수 있다. VCN의 엣지 서버를 적절한 엣지 노드에 배치하기 위해 2 단계의 알고리즘을 이용할 수 있는데, 첫 번째 단계로, 각 VCN에 대해 엣지 서버 배치 후보지를 구한다. 배치 후보지는 네트워크 내 모든 노드가 될 수 있으며, 특정 노드에 배치되었을 때 예상되는 네트워크 비용을 기반으로 배치 후보지를 정렬한다. 두 번째 단계로, 네트워크 내 모든 VCN의 엣지 서버를 최우선 후보 노드에 가상으로 배치한다. 이때 특정 노드의 가용 컴퓨팅 리소스가 해당 노드에 진입하게 될 모든 엣지 서버들의 리소스 요구치의 합을 충족시킬 수 없다면, 그중 일부 VCN의 엣지 서버를 다른 노드로 재배치한다. 여기서, 컴퓨팅 리소스는 합산 및 비교가 용이하도록 워크로드 단위로 추상화될 수 있다. 이러한 방식으로 네트워크 및 컴퓨팅 부하를 함께 고려하면서 네트워크 내에 모든 VCN의 엣지 서버를 배치할 수 있다.For example, if a set of N clients and M edge servers is called a VCN (Virtual Content Network), the location of the clients in the network is fixed, so the delay time of the VCN can be reduced by specifying the operation location of the edge servers of each VCN. In addition, it can achieve traffic load reduction and computing resource balance in the entire network. A two-step algorithm can be used to place a VCN's edge server on an appropriate edge node. In the first step, candidate edge server placement sites are identified for each VCN. Candidates for deployment can be any node in the network, and candidates for deployment are sorted based on the expected network cost when deployed to a specific node. In the second step, edge servers of all VCNs in the network are virtually placed on the highest candidate nodes. At this time, if the available computing resources of a specific node cannot meet the sum of the resource requirements of all edge servers that will enter that node, some of the VCN's edge servers are relocated to other nodes. Here, computing resources can be abstracted into workload units to facilitate summation and comparison. In this way, all VCN's edge servers can be placed within the network while taking network and computing load into consideration together.

예를 들어, 임의의 VCN의 엣지 서버를 배치할 후보 노드 목록을 생성하기 위해서는, VCN을 구성하는 클라이언트 집합 C와 VCN 애플리케이션의 링크별 트래픽 팩터인 τapp을 활용하여 후보별 예상 트래픽 부하를 구한다. 링크별 트래픽 팩터란 엣지 서버와 클라이언트 사이의 네트워크 경로 상 각 링크에 요구되는 트래픽 부하를 의미한다. 네트워크내 모든 노드 집합 N의 각 노드 n에 대해, 해당 노드와 각 클라이언트 간 최단경로의 합과 트래픽 팩터의 곱으로 후보 노드 n의 예상 트래픽 부하 t를 구한다. 즉, VCN의 엣지 서버가 노드 n에 배치되었을 때 발생할 것으로 예상되는 트래픽 부하가 t라는 의미다. 이렇게 구해진 후보 노드는 예상 트래픽 부하를 기준으로 오름차순 정렬되어 VCN의 후보 목록을 구성한다. 동일한 방식으로 네트워크 내 모든 VCN에 대해 각각의 후보 목록을 생성한다.For example, in order to create a list of candidate nodes for deploying an edge server of a random VCN, the expected traffic load for each candidate is obtained using the client set C constituting the VCN and τapp, the traffic factor for each link of the VCN application. The traffic factor for each link refers to the traffic load required for each link on the network path between the edge server and the client. For each node n in the set of all nodes N in the network, the expected traffic load t of candidate node n is obtained as the product of the traffic factor and the sum of the shortest path between that node and each client. In other words, the traffic load expected to occur when the VCN's edge server is placed on node n is t. The candidate nodes obtained in this way are sorted in ascending order based on the expected traffic load to form the VCN candidate list. In the same way, each candidate list is created for every VCN in the network.

또, 컴퓨팅 리소스를 고려하여 VCN의 후보들을 선택기 위해서는, 모든 VCN의 가장 좋은 후보 노드에 엣지 서버를 배치하는 것이 최선이겠지만, 특정 노드의 컴퓨팅 리소스가 부족하여 해당 노드에 엣지 서버를 모두 배치할 수 없을 수도 있다. P는 각 VCN의 후보 노드 선택 상황을 나타내며, 배치 계획이라고 한다. 최초에는 모든 VCN의 가장 좋은 후보 노드가 선택된 것으로 초기화된다. 그리고 나서 고려되는 변수는, 고려 중인 컴퓨팅 리소스 종류의 개수, 노드 n의 i 번째 컴퓨팅 리소스, 계획 P에서 노드 n을 후보로 선택한 모든 엣지 서버의 i 번째 컴퓨팅 리소스 요구량의 합일 수 있다. 리소스 초과 노드가 없다면 알고리즘이 종료되고, 계획 P가 확정되어 VCN 엣지 서버가 실제로 해당 후보 노드에 배치될 수 있다. 다만, 리소스 초과 노드가 존재한다면, 해당 노드에 배치될 예정이었던 엣지 서버 중 일부를 교체해야 한다. Additionally, in order to select VCN candidates considering computing resources, it would be best to place edge servers on the best candidate nodes of all VCNs, but it may not be possible to place all edge servers on a specific node due to insufficient computing resources. It may be possible. P represents the candidate node selection situation for each VCN and is called the deployment plan. Initially, all VCNs are initialized with the best candidate nodes selected. The variables considered may then be the number of types of computing resources under consideration, the ith computing resource of node n, and the sum of the ith computing resource requirements of all edge servers that selected node n as a candidate in plan P. If there are no nodes with excess resources, the algorithm is terminated, plan P is confirmed, and the VCN edge server can actually be deployed to the corresponding candidate node. However, if there is a node with excess resources, some of the edge servers scheduled to be deployed on that node must be replaced.

교체 노드 선택 방법은 W-VBP(Weighted Vector Bin Packing)을 이용할 수 있다. VBP 기반 교체 기법이란 노드의 리소스 구성 비율과 엣지 서버의 리소스 구성 비율의 차이가 가장 큰 서버를 교체 하는 방법이다. 이는 벡터를 기반으로 하므로 리소스 개수에 제약이 없으며, 일부 리소스만 고갈되어도 다른 타입의 리소스를 사용하지 못하는 부작용을 최소화한다. 교체 대상 VCN의 모든 후보가 고갈되었다면 알고리즘은 최종적으로 실패한 것으로 간주되므로, 특정 VCN의 후보만 연속하여 고갈되는 상황을 방지하기 위해 VCN별 잔여 후보 비율을 가중치로 고려할 수 있다. VBP의 결과인 벡터각과 가중치를 곱한 결과값이 가장 큰 엣지 서버가 교체 대상이 된다.The replacement node selection method can use W-VBP (Weighted Vector Bin Packing). The VBP-based replacement technique is a method of replacing the server with the largest difference between the node's resource composition ratio and the edge server's resource composition ratio. Because it is vector-based, there is no limit to the number of resources, and it minimizes the side effect of not being able to use other types of resources even if only some resources are depleted. If all candidates for a VCN to be replaced are depleted, the algorithm is considered to have ultimately failed. Therefore, the ratio of remaining candidates for each VCN can be considered as a weight to prevent a situation where only candidates for a specific VCN are continuously depleted. The edge server with the largest result of multiplying the vector angle and weight, which is the result of VBP, is subject to replacement.

교체 대상이 된 엣지 서버를 보유한 VCN은 현재 선택된 후보 노드를 P에서 제거하고 자신의 후보 목록에서 다음 후보 노드를 선택한다. 그런 다음, 현재 상태의 P를 기반으로 초과 노드 존재 여부를 다시 검사한다. 알고리즘의 실패는 네트워크 내 메타버스 콘텐츠들의 컴퓨팅 리소스 요구량이 총 가용 리소스에 가까워지거나 초과할 때 발생할 수 있다. 이러한 상황은 하드웨어를 추가하거나 또는 콘텐츠들의 엣지 컴퓨팅으로의 오프로드 수준을 낮추는 대책을 적용할 수 있다. 물론, 상술한 방법 외에도 네트워킹 자원 및 컴퓨팅 자원이 부족한 경우 부하를 분산시키는 다양한 방법을 이용할 수 있음은 물론이라 할 것이다.The VCN whose edge server is subject to replacement removes the currently selected candidate node from P and selects the next candidate node from its candidate list. Then, the presence of excess nodes is checked again based on the current state of P. Algorithm failure may occur when the computing resource requirements of metaverse contents within the network approach or exceed the total available resources. This situation can involve adding hardware or applying measures to reduce the level of offloading of content to edge computing. Of course, in addition to the above-mentioned methods, it is of course possible to use various methods to distribute the load when networking resources and computing resources are insufficient.

연결부(320)는, 사용자 단말(100) 및 교수자 단말(400)에서 아바타를 선택하고 메타버스 기반 교육 플랫폼에 접속하는 경우 다중접속(Multiple Access) 기반 연결을 제공할 수 있다. 사용자 단말(100)은, 아바타를 선택한 후 메타버스 기반 교육 플랫폼에 접속할 수 있다. 그리고, 교수자 단말(400)은, 사용자 단말(100)과 연결되고, 메타버스 기반 교육 플랫폼에 접속될 수 있다.The connection unit 320 may provide multiple access-based connection when an avatar is selected on the user terminal 100 and the instructor terminal 400 and accessed a metaverse-based education platform. The user terminal 100 can access the metaverse-based education platform after selecting an avatar. In addition, the instructor terminal 400 is connected to the user terminal 100 and can be connected to the metaverse-based education platform.

공유관리부(330)는, 화면 또는 캠 영상의 공유 옵션을 제공할 수 있다. 공유관리부(360)는, 교수자 단말(400)의 화면 또는 캠 영상을 메타버스 기반 교육 플랫폼 내 교실의 칠판에 표시하거나, 교수자 단말(400)에서 사용자 단말(100)의 화면 또는 캠 영상을 공유하는 옵션을 선택하는 경우, 사용자 단말(100)의 화면 또는 캠 영상을 칠판에 표시하도록 설정할 수 있다. 이때, 일반적인 화상회의 솔루션은 기본적으로 각 참가자들을 캠을 통해 영상으로 공유하고, 필요에 따라 호스트 디바이스의 화면을 공유한다. 일반적으로 콘텐츠가 존재하는 온라인 회의를 할 때는 호스트의 화면을 공유한다. 호스트의 화면을 공유하며 콘텐츠를 설명하는 동안은 화면의 변화가 크지 않은데, 화상회의 솔루션은 화면의 변화가 크지 않은 경우에도 지속적인 영상 송출을 하므로 호스트 뿐만 아니라 각 참가자들은 이에 대한 트래픽 비용을 지불해야 한다. 또한 영상 공유는 호스트가 참가자들에게 단 방향으로 화면을 전송하므로 참가자들이 콘텐츠를 공유하는 화면을 통한 상호작용이 불가능하다. 내용 전달을 위한 회의 콘텐츠는 텍스트, 이미지, 영상 등 다양한 방법으로 제공 될 수 있고 이는, 현재의 웹 기술인 HTML5로도 충분히 가능하다. HTML5의 웹소켓(Web Socket)은 정적 콘텐츠인 HTML을 양방향 통신을 이용하여 동적으로 제어할 수 있는 기술이다. 따라서 웹소켓을 이용하여 HTML로 구성된 콘텐츠를 필요에 따라 제어하게 되면, 불필요한 트래픽을 줄일 수 있다. 또한 HTML 파서 역할을 하는 웹 브라우저만을 이용하여 시스템을 사용할 수 있으므로, 플랫폼에 종속적이지 않고 플러그인이나 다른 프로그램 설치를 하지 않고도 사용할 수 있다는 장점이 있다. 이에 따라, 본 발명의 일 실시예에서는, HTML5의 웹소켓을 이용하여 웹 브라우저로 콘텐츠를 제어하고, WebRTC(Web Real-Time Communication)를 이용하여 음성과 영상을 전송하는 호스트(Host)와 유저(Users)들이 공유 화면에 대한 상호작용이 가능한 시스템을 적용할 수 있다.The sharing management unit 330 may provide options for sharing screen or cam images. The sharing management unit 360 displays the screen or cam video of the instructor terminal 400 on the blackboard in the classroom within the metaverse-based education platform, or shares the screen or cam video of the user terminal 100 on the instructor terminal 400. When selecting an option, the screen or cam image of the user terminal 100 can be set to be displayed on the blackboard. At this time, a typical video conferencing solution basically shares video with each participant through a cam and, if necessary, shares the screen of the host device. Typically, when holding an online meeting with content, the host's screen is shared. While the host's screen is shared and the content is explained, there is not much change in the screen, but video conferencing solutions continuously transmit video even when the screen changes are not significant, so not only the host but also each participant must pay traffic costs for this. . Additionally, in video sharing, the host transmits the screen to participants in one direction, making it impossible for participants to interact through the screen to share content. Meeting content for delivering content can be provided in a variety of ways, such as text, images, and video, and this is fully possible with HTML5, the current web technology. HTML5's Web Socket is a technology that can dynamically control HTML, which is static content, using two-way communication. Therefore, if content composed of HTML is controlled as needed using web sockets, unnecessary traffic can be reduced. Additionally, since the system can be used only using a web browser that acts as an HTML parser, it has the advantage of being platform-independent and can be used without installing plug-ins or other programs. Accordingly, in one embodiment of the present invention, a host and a user (Host) control content with a web browser using HTML5 web sockets and transmit voice and video using WebRTC (Web Real-Time Communication). A system that allows users to interact with shared screens can be applied.

<HTML5와 웹소켓><HTML5 and WebSockets>

HTTP 프로토콜을 기반으로 한 전통적인 웹은 클라이언트의 요청이 있어야 서버가 응답하여 데이터를 전송하는 단방향 통신 방식이다. W3C는 2014년에 차세대 웹 표준 기술로 HTML5를 확정했는데, 이는 다양한 확장 API를 제공하여 기본의 웹 기술로 불가능했던 기능들을 제공한다. 특히 웹소켓은 HTTP 프로토콜 통신의 단점을 보완하여 양방향 통신이 가능하게 한다. 표준 웹브라우저들은 웹소켓을 통해 서버와 연결되어 별도의 플러그인 설치없이 웹 서버와 실시간 양방향 메시지를 주고 받을 수 있다. 따라서, 전달받은 메시지를 분석하여 Javascript, CSS3 등을 조작하여 새로고침 없이 웹 브라우저의 화면 변화가 가능하게 된다. 글로벌 5대 표준 웹 브라우저인 엣지(Edge), 크롬(Chrome), 사파리(Safari), 오페라(Opera), 파이어폭스(Firefox)에서 HTML5를 공통 표준기술로 채택하여 웹 브라우저간 표준화가 되어 있기 때문에 HTML5와 웹소켓의 기능을 통해 웹 브라우저만으로 통신이 가능한 다양한 애플리케이션을 만들 수 있다.The traditional web based on the HTTP protocol is a one-way communication method in which the server responds and transmits data only when the client requests it. W3C confirmed HTML5 as the next-generation web standard technology in 2014, which provides various extended APIs to provide functions that were not possible with basic web technologies. In particular, WebSocket complements the shortcomings of HTTP protocol communication and enables two-way communication. Standard web browsers are connected to servers through web sockets and can send and receive real-time two-way messages with the web server without installing a separate plug-in. Therefore, by analyzing the received message and manipulating Javascript, CSS3, etc., it is possible to change the web browser screen without refreshing. HTML5 is standardized among web browsers by adopting HTML5 as a common standard technology in the five major global standard web browsers, Edge, Chrome, Safari, Opera, and Firefox. Through the functions of and WebSocket, you can create various applications that can communicate using only a web browser.

<WebRTC><WebRTC>

WebRTC(Web Real-Time Communication)는 웹 브라우저 간에 중간자 없이 오디오나 영상 미디어를 스트림하고 데이터를 교환할 수 있도록 하는 기술이며, 제3자 프로그램이나 플러그인 설치없이 웹 브라우저 간 P2P 연결을 통해 데이터를 교환한다. WebRTC는 오픈소스 기반의 웹 표준으로 크롬이나 파이어폭스, 오페라 등이 WebRTC 표준을 적극적으로 지원하고 있지만, 현재까지는 WebRTC의 규격을 모든 플랫폼이나 웹 브라우저에서 완벽히 준수하지 않기에 크로스 브라우징 이슈가 존재한다. 이를 해결하기 위해 Adapter.js 라이브러리를 함께 사용하여 호환성 문제를 해결할 수 있다. WebRTC는 화상회의 솔루션 개발에 다양하게 활용되며 성능면에서 우수성을 인정받았다WebRTC (Web Real-Time Communication) is a technology that allows audio or video media to be streamed and data exchanged between web browsers without an intermediary. Data is exchanged through a P2P connection between web browsers without installing a third-party program or plug-in. . WebRTC is an open source-based web standard, and although Chrome, Firefox, and Opera actively support the WebRTC standard, cross-browsing issues exist because WebRTC specifications are not fully complied with on all platforms or web browsers to date. To solve this, you can solve the compatibility issue by using the Adapter.js library together. WebRTC is widely used in the development of video conferencing solutions and has been recognized for its excellence in performance.

스토어부(340)는, 메타버스 기반 교육 플랫폼 내 적어도 하나의 객체에 온라인스토어를 매핑하여 세팅할 수 있다. 예를 들어, 추천도서나 관련 참고서적 등을 먼저 디스플레이하는 방식을 이용할 수도 있고, 필요한 준비물이나 학용품 등을 먼저 보여주는 방식으로 페이지를 구성할 수도 있다. 각 반(Class)마다 다르게 구성할 수도 있다.The store unit 340 can set the online store by mapping it to at least one object in the metaverse-based education platform. For example, you can use a method of displaying recommended books or related reference books first, or you can configure the page by displaying necessary materials or school supplies first. It can be configured differently for each class.

감정표현부(350)는, 사용자 단말(100) 또는 교수자 단말(400)의 아바타에서 이모지(Emoji)를 표시하거나 이모션(Emotion)을 아바타의 제스처로 표현하도록 설정할 수 있다. 이때, 사용자나 교수자의 얼굴의 특징점을 그대로 트래킹한 후 아바타에 덧씌우는 방법으로 표정이나 몸짓을 제공할 수도 있다. 이모션의 경우에는 OpenPose를 이용하여 스켈레톤의 각 부위를 인식하여 아바타에 씌우는 방법을 이용할 수도 있다. 이 경우 실제로 사용자나 교수자가 화를 내고 있는지, 웃고 있는지, 또 졸고 있지는 않은지 등을 파악할 수 있으므로 감정을 표현하기에도 용이하고 교수자가 학습자인 사용자를 관찰하기에도 유리하다.The emotion expression unit 350 can be set to display an emoji or express an emotion as a gesture of the avatar on the avatar of the user terminal 100 or the instructor terminal 400. At this time, facial expressions or gestures can be provided by tracking the facial features of the user or instructor and then overlaying them on the avatar. In the case of emotions, OpenPose can be used to recognize each part of the skeleton and place it on an avatar. In this case, it is possible to determine whether the user or instructor is actually angry, smiling, or dozing off, so it is easy to express emotions and is advantageous for the instructor to observe the user as a learner.

화상관리부(360)는, 사용자 단말(100) 및 교수자 단말(400) 간 다중화상채팅을 지원할 수 있다. 채팅지원부(370)는, 사용자 단말(100) 및 교수자 단말(400) 간 공개채팅 및 비밀채팅을 지원할 수 있다. The video management unit 360 can support multiple video chatting between the user terminal 100 and the instructor terminal 400. The chat support unit 370 can support public chat and secret chat between the user terminal 100 and the instructor terminal 400.

이동제어부(380)는, 사용자 단말(100) 또는 교수자 단말(400)의 아바타의 이동 또는 점프의 옵션을 제공할 수 있다.The movement control unit 380 may provide options for moving or jumping the avatar of the user terminal 100 or the instructor terminal 400.

미니게임부(390)는, 메타버스 기반 교육 플랫폼 내 적어도 하나의 객체에 미니게임을 연결하고, 사용자 단말(100)에서 미니게임을 선택하면 미니게임이 사용자 단말(100)에서 진행되도록 설정할 수 있다. 이때, 미니게임은 에듀 기반 게임일 수도 있고, 게이미피케이션과 같이 학습에 흥미를 도우는 게임일 수도 있지만, 단순 재미위주의 게임인 것을 배제하는 것은 아니다.The minigame unit 390 connects a minigame to at least one object in the metaverse-based education platform, and when a minigame is selected on the user terminal 100, the minigame can be set to be played on the user terminal 100. . At this time, the minigame may be an edu-based game or a game that promotes interest in learning, such as gamification, but it does not exclude that it is a simple fun-oriented game.

공간제공부(391)는, 메타버스 기반 교육 플랫폼 내 교실, 스터디룸, 상담실, 그룹교실 및 과학실을 구축하여 사용자 단말(100) 및 교수자 단말(400)의 아바타가 이동하는 메타버스 공간으로 세팅할 수 있다. 물론, 맵의 종류는 이에 한정되지는 않는다.The space provision department 391 builds a classroom, study room, counseling room, group classroom, and science room within the metaverse-based education platform and sets them as a metaverse space where the avatars of the user terminal 100 and the instructor terminal 400 move. You can. Of course, the type of map is not limited to this.

필기노트부(392)는, 사용자 단말(100) 또는 교수자 단말(400)에서 수업 중 필기 옵션을 이용하여 메모장에 필기를 하도록 사용자 인터페이스를 제공할 수 있다. 이때, 타자를 이용한 메모장을 기본으로 하지만, 교수자의 경우 책에 바로 필기를 하여 화면을 공유하거나, PPT 등의 자료에 전자펜으로 필기를 하는 경우도 존재하므로, 이를 CNN 기반 모델, 예를 들어, Conv2D, AlexNet, VGG, GoogLeNET, ResNet 등을 이용하여 인식한 후 텍스트 데이터로 제공하는 옵션을 더 제공할 수도 있다. 예를 들어, 사용자 또는 교수자가 필기한 글자에 대해 우선 획에 대한 기본 정보를 추출한 후 이를 기반으로 R(Rectangle)과 SR(Surrounding Rectangle)을 계산한다. 이후 직선 획을 기반으로 하여 모음 후보를 찾은 후 [초성-중성-종성]을 구분해낸다. 최종적으로 CNN 기반 학습 모델에 적용하여 자음 모음을 식별한 후 최종적으로 글자를 인식할 수 있다.The handwritten note unit 392 may provide a user interface for writing notes in a notepad using the note-taking option during class on the user terminal 100 or the instructor terminal 400. At this time, the default is a notepad using a typewriter, but in the case of instructors, there are cases where the teacher writes directly in a book and shares the screen, or writes with an electronic pen on materials such as PPT, so this can be used as a CNN-based model, for example, Additional options can be provided to provide text data after recognition using Conv2D, AlexNet, VGG, GoogLeNET, ResNet, etc. For example, for letters handwritten by a user or instructor, basic information about the stroke is first extracted and then R (Rectangle) and SR (Surrounding Rectangle) are calculated based on this. Afterwards, vowel candidates are found based on straight strokes, and then [initial consonant - middle consonant - final consonant] are distinguished. Finally, the CNN-based learning model can be applied to identify consonant vowels and finally recognize letters.

온라인 필기는 각 획에 대한 좌표 정보를 추출할 수 있다. 이를 기반으로 각 획을 둘러싼 최소 사각형인 SR을 계산한다. 이렇게 [획 정보 추출]을 완료했다면, 그 다음은 [모음 후보 추출 및 자음과 모음 식별]을 수행해야 하는데, 한글은 하나의 [초성-중성-종성]을 가진다. 이 중 중성은 모음으로 사용되는데 대개 직선으로 필기된다. 이에 따라 획 정보 추출에서 획득한 SR 중에서 직선들을 찾는다. 이후 각 직선과 유사한 위치의 직선들을 결합하여 모음 후보를 만든다. 한글의 각 글자는 모음과 종성 유무에 따라 경우의 수를 나눌 수 있는데, 판별한 모음 후보에 대하여 스레드가 각 위치에 맞는 모음을 찾도록 한다. 즉 스레드 1 번은 초성 하나와 오른쪽에 위치한 모음, 그리고 종성은 없는 글자일 것이라고 가정한다. 예를 들어, 사용자가 [간]이라고 필기했다면, 직선에 의해 식별된 [ㅏ] 획들을 모음 후보로 결정한다. 이후 나머지 획을 초성과 종성으로 구분한 후, 각 경우의 수에 대응하는 스레드는 자신이 담당하는 글자에서 획을 찾게 되고, 가장 정확한 검색결과를 선택하도록 한다. 필기 데이터는 본 발명의 일 실시예에 따른 플랫폼 서비스 제공 서버(300)로 보내 인식 결과를 받는 방식 대신 사용자 단말(100) 또는 교수자 단말(400)에서 필기하자마자 전처리한 후 모음을 식별하도록 설정할 수 있다. 인식 모델은 가장 기본적인 CNN 모델을 이용할 수 있다. 초기 입력은 전처리된 각 초성, 중성 및 종성에 대응하는 이미지다. 각 레이어마다 LeLU를 활성화함수로 이용할 수 있고, Max Pooling을 수행할 수 있다. 학습을 위한 필기 데이터는 한국지능정보사회진흥원의 데이터를 이용할 수 있는데, 한글 필기 데이터는 글자 단위로 제공되기 때문에, 이를 [초성-중성-종성]으로 나누어 데이터셋을 구축할 수 있다.Online handwriting can extract coordinate information for each stroke. Based on this, SR, which is the minimum square surrounding each stroke, is calculated. Once [Extracting stroke information] is completed, [Extracting vowel candidates and identifying consonants and vowels] must be performed. Hangul has one [Initial-Medium-Final consonant]. Among these, the neutral consonant is used as a vowel and is usually written in a straight line. Accordingly, straight lines are found among the SRs obtained from stroke information extraction. Afterwards, vowel candidates are created by combining each straight line with lines in similar positions. Each letter in Hangul can be divided into a number of cases depending on the presence or absence of vowels and final consonants, and for the identified vowel candidates, the thread finds the vowel that matches each position. That is, we assume that thread number 1 will be a letter with an initial consonant, a vowel to the right, and no final consonant. For example, if the user writes [Gan], the [ㅏ] strokes identified by straight lines are determined as vowel candidates. After dividing the remaining strokes into initial and final consonants, the thread corresponding to the number in each case searches for the stroke in the letter it is responsible for and selects the most accurate search result. Instead of sending the handwriting data to the platform service providing server 300 according to an embodiment of the present invention and receiving a recognition result, the handwriting data can be preprocessed as soon as it is written on the user terminal 100 or the instructor terminal 400 and then set to identify the vowel. . The recognition model can use the most basic CNN model. The initial input is an image corresponding to each initial, middle, and final consonant that has been preprocessed. LeLU can be used as an activation function for each layer, and Max Pooling can be performed. Handwriting data for learning can use data from the Korea Institute for the Advancement of Intelligence and Information Society. Since Korean handwriting data is provided in units of characters, a dataset can be built by dividing it into [initial consonant - middle consonant - final consonant].

음성그룹활동지원부(393)는, 메타버스 기반 교육 플랫폼 내 그룹교실에서 음성으로 그룹활동을 하도록 복수의 사용자 단말(100)의 음성을 입력받아 복수의 사용자 단말(100)로 전달할 수 있다. 이때, 사용자 단말(100)은 서로 다른 주체에 귀속된 복수의 사용자 단말(100)일 수 있다. The voice group activity support unit 393 can receive voices from a plurality of user terminals 100 and transmit them to the plurality of user terminals 100 so that group activities can be performed by voice in the group classroom within the metaverse-based education platform. At this time, the user terminal 100 may be a plurality of user terminals 100 belonging to different entities.

<다중화자식별><Multiple speaker identification>

그룹교실 내 한 명만 발화를 하는 것이 아닐 수 있으므로, 다중화자가 동시에 발화를 하거나 발화가 겹치는 경우가 발생할 수 있다. 이를 위하여, STT(Speech to Text)를 이용하여 음성발화 및 화자를 인식할 수 있도록 음성주파수 상관(Correlation) 기반 음성인식방법을 이용할 수 있다. 음성이 혼합된 오디오로부터 음성만을 추출하여 이를 주파수 영역에서 분석하고, 주파수 성분의 상관연산을 통해 음성에 남은 잔여 잡음을 제거할 수 있다. 음성 신호 사이 주파수 영역에서의 상관 연산을 통해 음성 신호와 노이즈 신호를 구분하는 것으로 STT 인식률을 높이고, 음성 신호를 더욱 효율적으로 추출할 수 있다.Since not only one person in a group classroom may speak, there may be cases where multiple speakers speak at the same time or their speech overlaps. For this purpose, a voice recognition method based on voice frequency correlation can be used to recognize voice utterances and speakers using STT (Speech to Text). It is possible to extract only the voice from mixed audio, analyze it in the frequency domain, and remove residual noise remaining in the voice through correlation calculation of the frequency component. By distinguishing between voice signals and noise signals through correlation operations in the frequency domain between voice signals, the STT recognition rate can be increased and voice signals can be extracted more efficiently.

<STFT><STFT>

오디오 신호는 시간의 변화에 따른 1차원 신호의 세기 변화로 표현되기 때문에 다양한 신호가 섞여 있을 경우 시간 영역에서 신호의 세기 변화만으로 각 신호의 특징을 구분하기에 어려움이 있다. 차원이 매우 크고 여러 주파수의 합으로 이루어진 오디오 신호의 특성 때문에 시간영역에서 특징을 알아보기에는 한계가 있다.Since audio signals are expressed as a change in the intensity of a one-dimensional signal according to a change in time, when various signals are mixed, it is difficult to distinguish the characteristics of each signal only by the change in signal intensity in the time domain. Due to the nature of audio signals, which have very large dimensions and are made up of the sum of multiple frequencies, there are limits to recognizing features in the time domain.

Figure 112023031958757-pat00001
Figure 112023031958757-pat00001

Figure 112023031958757-pat00002
Figure 112023031958757-pat00002

수학식 1은 푸리에 변환(Fourier Transform)으로 시간 영역(Time Domain)에 대한 함수를 다양한 주파수를 가지는 주기함수의 합으로 나타냄으로써 주파수 영역으로 변환하는 연산이다. f(x)는 시간영역에서의 신호, F(u)는 주파수 영역에서의 신호를 나타내며 수학식 2는 오일러 공식 의미한다. 오디오 신호에 수학식 1을 적용할 경우 해당하는 신호의 주파수 영역 성분을 구할 수 있다. 예를 들어, 여러 주파수를 가진 신호가 섞여 중첩된 경우 각 신호를 구분하는 것이 힘들지만, 푸리에 변환을 거친 경우 각 주파수에 따른 크기를 구분하는 것이 가능하다. Equation 1 is the Fourier Transform, which is an operation that converts a function in the time domain to the frequency domain by expressing it as the sum of periodic functions with various frequencies. f(x) represents a signal in the time domain, F(u) represents a signal in the frequency domain, and Equation 2 represents Euler's formula. When Equation 1 is applied to an audio signal, the frequency domain components of the corresponding signal can be obtained. For example, when signals with multiple frequencies are mixed and overlapped, it is difficult to distinguish each signal, but when Fourier transform is performed, it is possible to distinguish the size according to each frequency.

Figure 112023031958757-pat00003
Figure 112023031958757-pat00003

STFT(Short-Time-Fourier-Transform)는 데이터를 시간에 대해 구간을 작게 나누어 푸리에 변환을 하는 방법으로 시간에 따라 주파수 성분이 변화하는 신호의 정보를 효율적으로 분석하기 위하여 STFT를 이용한다. 수학식 3은 STFT 변환 식으로 여기서 w(t)는 윈도우 함수를 나타낸다. 오디오 신호에 STFT를 적용한 결과를 시간과 주파수를 각각 가로, 세로 축으로 설정하고 각 주파수의 세기를 dB 단위의 색 변화로 표현한 3차원 그래프를 스펙트로그램(Spectrogram)이라고 한다. 예를 들어, STFT가 적용된 오디오 신호를 스펙트로그램으로 표현하면 스펙트로그램에서 주파수의 세기에 따라 색으로 구분되는데 노란색에 가까울수록 주파수의 세기가 강한 것이고 자색을 띌수록 주파수의 세기가 약한 것을 의미한다. 스펙트로그램에서 주파수의 세기를 그래프를 이용하여 살펴볼 수 있다.STFT (Short-Time-Fourier-Transform) is a method of dividing data into small time sections and performing Fourier transformation. STFT is used to efficiently analyze information of signals whose frequency components change with time. Equation 3 is the STFT transformation equation, where w(t) represents the window function. The result of applying STFT to an audio signal is a three-dimensional graph in which time and frequency are set as the horizontal and vertical axes, respectively, and the intensity of each frequency is expressed as a color change in dB units, called a spectrogram. For example, when an audio signal to which STFT is applied is expressed as a spectrogram, the spectrogram is color-coded according to the intensity of the frequency. The closer to yellow, the stronger the frequency, and the closer to purple, the weaker the frequency. You can examine the intensity of frequencies in a spectrogram using a graph.

<딥러닝><Deep Learning>

스펙트로그램은 1차원의 오디오 신호를 일정한 길이의 구간으로 나눈 다음, 각 구간에 대한 푸리에 변환을 적용하여 가로축에는 시간정보를 세로축에는 주파수의 크기를 dB 단위로 표현한 2차원 이미지로 표현할 수 있으며, 이미지 처리에 사용되는 CNN(Convolutional Neural Network)을 기반으로 하는 딥러닝 프로그램의 학습 데이터로 사용하는 것이 가능하다. A spectrogram divides a one-dimensional audio signal into sections of a certain length and then applies Fourier transform to each section to express a two-dimensional image with time information on the horizontal axis and frequency magnitude in dB on the vertical axis. It is possible to use it as learning data for a deep learning program based on CNN (Convolutional Neural Network) used for processing.

<SVS><SVS>

SVS(Singing Voice Separation)는 가수의 음성이 함께 녹음된 오디오와 음성을 녹음하기 전 악기의 소리만 녹음된 2가지 종류의 오디오 신호를 사용하여 음성과 악기 소리가 함께 있는 오디오 신호로부터 음성 신호와 악기 신호를 분리하도록 학습된 딥러닝 네트워크이다. 오디오 신호를 스펙트로그램으로 변환하고 스펙트럼 변화를 감지함으로써 스펙트럴(Spectral)이 급격히 변하는 시점을 기점으로 삼아 음원을 조각낸 다음에 학습된 정보를 사용하여 음성 분리를 진행하고, 분리된 스펙트로그램 데이터를 오디오 신호로 복원하는 과정을 통해 음원 분리 과정이 마무리된다.SVS (Singing Voice Separation) uses two types of audio signals, one in which the singer's voice is recorded together, and the other in which only the sound of the instrument is recorded before recording the voice. It is a deep learning network trained to separate signals. By converting the audio signal into a spectrogram and detecting the spectrum change, the sound source is fragmented using the point at which the spectral changes rapidly as the starting point, then voice separation is performed using the learned information, and the separated spectrogram data is divided into pieces. The sound source separation process is completed through the process of restoring the audio signal.

<음성 주파수 기반 노이즈 필터링><Voice frequency based noise filtering>

SVS를 사용해 오디오 신호가 음악과 음성으로 분리되는 과정에서 완전히 제거되지 못한 잔여 잡음 남기도 하고 분리된 음원을 재구성하는 과정에서 왜곡되어 새로운 잡음이 생겨나는 한계가 존재하기 때문에 STT 인식률을 높이기 위해서는 이러한 잡음을 제거하는 과정이 필요하다. 따라서 비음성 요소에 의해 STT 인식률이 저하되는 문제를 개선하기 위하여 주파수 영역의 상관관계를 사용하는 잔여 잡음 제거 필터를 이용할 수 있다. 다중 음성 신호가 혼합된 오디오 신호로부터 SVS를 사용하여 발화자의 음성 신호를 분리할 수 있다. STFT를 분리된 음성 신호에 적용하여 주파수 영역으로 변환하는 것으로 음성 신호의 각 구간별 주파수 성분을 알아낼 수 있으며, 주파수 영역에서 상관연산을 통해 구현한 필터를 이용하여 발화자 이외의 음성을 필터링 할 수 있다. 이렇게 필터링된 음성 및 구분된 화자의 음성발화는 텍스트로 기록되어 채팅창에 제공될 수 있다. 물론, 상술한 방법 이외에도 다양한 방법으로 다자간 발화자를 구분하고 각 참여자를 확인하는 방법을 이용할 수도 있음은 물론이라 할 것이다.In the process of separating the audio signal into music and voice using SVS, there are residual noises that cannot be completely removed, and there is a limitation in that new noises are created due to distortion in the process of reconstructing the separated sound sources. Therefore, in order to increase the STT recognition rate, such noises are removed. A removal process is required. Therefore, to improve the problem of the STT recognition rate being lowered by non-speech elements, a residual noise removal filter using correlation in the frequency domain can be used. SVS can be used to separate a speaker's voice signal from an audio signal in which multiple voice signals are mixed. By applying STFT to a separated voice signal and converting it to the frequency domain, the frequency component of each section of the voice signal can be found, and voices other than the speaker's voice can be filtered using a filter implemented through correlation calculation in the frequency domain. . The filtered voice and the voice utterances of the separated speakers can be recorded as text and provided in the chat window. Of course, it goes without saying that in addition to the above-mentioned methods, various methods can be used to distinguish multiple speakers and identify each participant.

맞춤캐릭터부(394)는, 사용자 단말(100) 또는 교수자 단말(400)에서 아바타의 커스터마이징을 수행하도록 적어도 하나의 아바타 옵션을 제공할 수 있다. 이때, 아바타를 생성할 때 사용자의 개성이 가시화될 수 있도록 높은 자유도를 제공할 수 있다. 이를 위해 다양한 외모 데이터베이스를 통해 얼굴의 형태나 위치 등을 학습하고, 딥러닝 기반의 얼굴 인식 기술을 사용, 눈, 코, 입부터 헤어스타일등을 분석해서 3차원의 이미지를 생성할 수 있다. 또한 아바타가 연출하는 수천 개가 넘는 표정과 각종 의상이나 액세서리는 자동적으로 위치 값이 조정되도록 할 수 있다. 이외에도 얼굴 인식 대신 사용자가 자신의 사진을 이용해서 직접 아바타를 생성할 수도 있다.The custom character unit 394 may provide at least one avatar option to customize the avatar in the user terminal 100 or the instructor terminal 400. At this time, a high degree of freedom can be provided so that the user's personality can be visualized when creating an avatar. To achieve this, the shape and position of the face can be learned through various appearance databases, and a 3D image can be created by analyzing the eyes, nose, mouth, and hairstyle using deep learning-based facial recognition technology. In addition, the position values of the thousands of facial expressions and various clothing and accessories displayed by the avatar can be automatically adjusted. In addition, instead of facial recognition, users can also create their own avatar using their own photo.

도구지원부(395)는, 교수자 단말(400)의 판서기능을 지원하고, 적어도 하나의 문서, 사진, 이미지 및 영상의 뷰어(Viewer)를 지원할 수 있다. 이때, 교과서를 출력한 화면을 학생과 공유하면서 함께 책을 보는 것과 같은 기능을 제공할 수 있고, 책에 줄을 긋거나 판서를 하는 등의 기능을 하는 인터페이스를 제공할 수 있다.The tool support unit 395 supports the writing function of the instructor terminal 400 and can support a viewer for at least one document, photo, image, and video. At this time, it is possible to provide functions such as reading a book together by sharing the screen on which the textbook is printed with the student, and to provide an interface for functions such as drawing lines or writing in a book.

<1인칭 시점><First person perspective>

시점(Viewpoint)이란, 사물을 보는 관점이라는 뜻인데 게임에서는 캐릭터, 사물, 기타 배경을 바라보는 사용자의 관점을 뜻한다. 게임에는 사용자를 대신하는 캐릭터가 존재하며, 이 캐릭터와 사용자의 시점이 동일한 것이 1인칭 시점이다. 3인칭과 전지적 시점은 캐릭터와 사용자의 시점이 다르며, 시점이 특정 캐릭터의 움직임에 따라 변화하는 것을 3인칭 시점, 캐릭터의 움직임과 별개로 넓은 지역을 비춰 주는 것을 전지적 시점이라 한다. 따라서, 1인칭 시점을 사용하는 경우, 시야에 캐릭터의 모습이 비춰지지 않는 반면, 3인칭 시점을 사용하는 경우 캐릭터의 모습이 화면에 비춰진다. 마지막으로, 전지적 시점은 위에서 지면을 비추는 형태로 많은 유닛을 한 눈에 볼 수 있다.Viewpoint means the point of view from which an object is viewed, and in games, it refers to the user's viewpoint from which characters, objects, and other backgrounds are viewed. In the game, there is a character that represents the user, and the perspective of this character and the user is the same as the first-person perspective. Third-person and omniscient perspectives are different from the perspectives of the character and the user. Third-person perspective is when the perspective changes according to the movements of a specific character, and omniscient perspective is when the perspective illuminates a wide area independently of the movement of the character. Therefore, when using a first-person perspective, the character's appearance is not reflected in the field of view, whereas when using a third-person perspective, the character's appearance is displayed on the screen. Lastly, omniscient perspective illuminates the ground from above, allowing you to see many units at a glance.

시점point of view 근접Almost 원격remote 1인칭first person 사용자와 캐릭터의 시점 동일. 캐릭터의 손, 발이나 도구만 화면에 비침Same point of view for user and character. Only the character's hands, feet, or tools are shown on the screen. 사용자와 캐릭터의 시점이 동일하되 카메라와 캐릭터 의 거리가 먼 시점으로 존재하지 않음.The viewpoint of the user and the character is the same, but the distance between the camera and the character does not exist. 3인칭3rd person 캐릭터의 상반신이나 전신이 크게 보이는 시점으로 다양한 구도를 사용해 캐릭터의 움직임을 생동감 있게 느낄 수 있음.This is a perspective that shows the character's upper body or entire body in a larger view, allowing you to feel the character's movements vividly by using various compositions. 3인칭 근접에 비해 캐릭터가 작게 보이며 맵 활용이 편리해 주변의 적이나 필요한 아이템 등을 파악하기 쉬움.Compared to third-person melee, the character appears smaller and the map is convenient to use, making it easy to identify nearby enemies and necessary items. 전지적omniscient 다수의 캐릭터가 취할 수 있는 행동들을 빠르게 파악하기가 힘들기 때문에 극소수만 사용하는 시점.This is a point that only a very few people use because it is difficult to quickly identify the actions that many characters can take. 캐릭터가 아주 작게 보이며 다수의 캐릭터를 동시에 혹은 번갈아 조종할 수 있음.Characters appear very small and multiple characters can be controlled simultaneously or alternately.

게임에 주로 쓰이는 시점은 1인칭 근접, 3인칭 근접, 3인칭 원격, 전지적 원격 시점이다. 1인칭 근접 시점은 캐릭터와 사용자의 시점이 동일하며, 손, 발이나 도구 외에는 자신의 캐릭터의 모습이 보이지 않는다. 캐릭터가 이동할 때 카메라가 흔들리며 시야가 타 시점에 비해 좁기 때문에 주변을 살펴보려면 카메라를 자주 회전 시켜주야 한다. 그러나, 시점이 캐릭터와 동일하므로 타 시점 보다 현실감을 느끼기 좋으며 사용자는 게임 안에 들어가 있다는 느낌을 받기 때문에 가상현실을 바탕으로 한 시뮬레이션에서도 자주 쓰이는 시점이다. 3인칭 근접, 3인칭 원격, 전지적 원격 시점은 캐릭터와 사용자가 분리되어 있어 캐릭터의 관측시야와 사용자의 관측시야가 다르다는 특징이 있다. 3인칭 근접 시점은 캐릭터가 화면에 크게 보여서 카메라로 캐릭터를 다양한 구도로 관찰하기 용이하다. 따라서 깊이감이나 역동적인 움직임을 잘 표현할 수 있어 액션 게임에 이용될 수 있다. 반면에 3인칭 원격 시점은 상대적으로 3인칭 근접 시점보다 카메라와 캐릭터 사이가 멀기 때문에 전반적인 지형이나 구조를 살펴보기 용이하여 맵을 이동하거나 아이템을 탐색하기 편리한 장점이 있다. 마지막으로 전지적 원격 시점은 네 시점 중에 캐릭터와 가장 멀고 카메라가 위에서 지면을 비추는 방향으로 위치해 있다. 따라서 아주 넓은 맵을 탐색하거나 많은 캐릭터의 움직임을 한 번에 파악하기 좋다. 대신 캐릭터 하나씩을 자유자재로 조종하기가 힘들고 게임 안에 들어가 있다는 느낌보다 관찰한다는 느낌이 강하다. 1인칭 원격과 전지적 근접 시점은 실제로는 존재하지 않거나 거의 사용하지 않는 시점이다. 1인칭 원격 시점은 개념적으로 사용자와 캐릭터의 시점이 동일하면서 카메라가 캐릭터에서 떨어져 있는 시점이지만 사용자 시점은 언제나 카메라의 시점과 동일하기 때문에 존재하지 않는다. 전지적 근접 시점은 카메라가 아주 근접해있고 여러 캐릭터를 다룰 수 있는 시점으로 극소수의 게임에서만 사용된다. 이때, 본 발명의 일 실시예에서는 각 맵을 이동할 경우와 수업을 들을 때 등 상황에 맞는 다양한 시점을 이용할 수 있다.The viewpoints commonly used in games are first-person close-up, third-person close-up, third-person remote, and omniscient remote. In first-person close-up perspective, the character's and the user's perspectives are the same, and the character's appearance is not visible except for hands, feet, or tools. When the character moves, the camera shakes and the field of view is narrower than other viewpoints, so you have to rotate the camera frequently to look at the surroundings. However, because the viewpoint is the same as that of the character, it feels more realistic than other viewpoints, and because the user feels like they are inside the game, it is a viewpoint often used in simulations based on virtual reality. Third-person close-up, third-person remote, and omniscient remote viewpoints have the characteristic that the character and the user are separated, so the character's observation field of view is different from the user's field of view. In the third-person close-up view, the character appears large on the screen, making it easy to observe the character in various compositions with the camera. Therefore, it can express depth and dynamic movement well and can be used in action games. On the other hand, the third-person remote view has the advantage of being relatively farther between the camera and the character than the third-person close view, making it easier to examine the overall terrain or structure, making it convenient to move around the map or search for items. Lastly, the omniscient remote viewpoint is the furthest from the character among the four viewpoints and is positioned so that the camera illuminates the ground from above. Therefore, it is good for exploring a very wide map or understanding the movements of many characters at once. Instead, it is difficult to freely control each character, and there is a strong feeling of observing rather than being in the game. First-person remote and omniscient close-up perspectives are perspectives that either do not exist in reality or are rarely used. First-person remote perspective is conceptually a perspective where the user's and the character's viewpoints are the same and the camera is away from the character, but it does not exist because the user's viewpoint is always the same as the camera's viewpoint. Omniscient close-up perspective is a perspective where the camera is very close and can handle multiple characters, and is only used in a very small number of games. At this time, in one embodiment of the present invention, various viewpoints suitable for the situation, such as when moving around each map or taking a class, can be used.

3D제공부(396)는, 메타버스 기반 교육 플랫폼을 3D 기반으로 제공할 수 있다. 이때, 3D 콘텐츠는 언리얼(Unreal)이나 유니티(Unity)를 기반으로 생성될 수 있다. 유니티 엔진은 유니티 테크놀로지에서 개발한 게임엔진으로 2차원 및 3차원 그래픽, 드래그 앤 드롭 기능 및 C# 개발 언어를 통한 스크립팅을 지원한다. 이를 활용하여 게임, 확장현실, 건축 설계, 영화, 애니메이션, 자동차, 운송, 제조 등 다양한 분야에 대한 솔루션을 제공할 수 있다. 또한, 유니티 엔진은 오큘러스, OpenXR 등 다양한 가상현실 플랫폼을 지원하여 가상현실 콘텐츠 개발을 하기에 적합한 환경을 제공한다. 언리얼 엔진은, 에픽게임즈에서 개발한 게임엔진으로 3차원 컴퓨터 그래픽, 드래그 앤 드롭 기능 및 C++ 개발 언어와 노드 기반 가능한 비주얼 스크립팅을 지원한다. 이를 활용하여 게임, 영화, 애니메이션, 시뮬레이션 등 다양한 분야에 대한 솔루션을 제공하고 있다. 언리얼 엔진 또한 오큘러스, 마이크로소프트 홀로렌즈(Microsoft HoloLens), HTC 바이브(Vive) 등 다양한 확장현실 플랫폼을 지원하여 가상현실 콘텐츠 개발에 적합한 환경을 제공한다. The 3D provider 396 can provide a metaverse-based education platform in 3D. At this time, 3D content can be created based on Unreal or Unity. Unity Engine is a game engine developed by Unity Technology that supports 2D and 3D graphics, drag and drop functionality, and scripting through the C# development language. Using this, we can provide solutions in various fields such as games, extended reality, architectural design, movies, animation, automobiles, transportation, and manufacturing. Additionally, the Unity Engine supports various virtual reality platforms such as Oculus and OpenXR, providing an environment suitable for developing virtual reality content. Unreal Engine is a game engine developed by Epic Games that supports 3D computer graphics, drag-and-drop functionality, C++ development language, and node-based visual scripting. Using this, we provide solutions in various fields such as games, movies, animation, and simulation. Unreal Engine also supports various extended reality platforms such as Oculus, Microsoft HoloLens, and HTC Vive, providing an environment suitable for developing virtual reality content.

이하, 상술한 도 2의 플랫폼 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, the operation process according to the configuration of the platform service providing server of FIG. 2 described above will be described in detail using FIGS. 3 and 4 as an example. However, it will be apparent that the embodiment is only one of various embodiments of the present invention and is not limited thereto.

도 3a 내지 도 4d는 본 발명의 일 실시예에 따른 플랫폼(가칭, 메타스쿨)의 소개영상을 기능별로 캡쳐한 도면이다. 현재 이 영상은 본 출원인의 회사 홈페이지(https://www.codestory.biz/about-9)와 유튜브(https://www.youtube.com/watch?v=Tz7srQvLlho)에 각각 개시되어 있다. 도 3a와 같이 사용자 단말(100)에서 학생로그인을 하고, 도 3b와 같은 화면에서 도 3c와 같이 아바타를 설정할 수 있고, 다시 도 3d와 같이 홈 화면으로 돌아가서 도 3e 및 도 3f와 같이 교실로 들어간 경우 이동 또는 점프 등을 통해 원하는 위치로 이동할 수 있고 도 3g 및 도 3h와 같이 시점 확대 또는 축소가 가능하다. 도 4i와 같이 다중접속이 가능하며, 사용자 단말(100)은, 도 3j 및 도 3k와 같이 미니게임을 수행할 수 있고 도 3l과 같이 온라인스토어에 연결하여 원하는 책을 구매하거나 볼 수 있다. 교수자의 경우 도 3m에서 선생님을 체크하여 선생님으로 로그인할 수 있고 도 3n과 같이 홈 화면에서 교실로 이동을 한 후 도 3o와 같이 선생님의 캠을 공유할 수도 있고, 도 3p와 같이 학생의 캠을 공유한 후 도 3q와 같이 학생의 캠 영상이 칠판에 출력되도록 할 수 있다. 도 3r과 같이 화면, 캠 및 파일 등을 공유할 수 있는데, 도 3s와 같이 파일 등을 선택한 경우 도 3t와 같이 칠판에 공유된 파일이 출력되고, 도 3u와 같이 판서 기능을 이용하여 공유된 파일 상에 판서를 수행할 수 있다. 도 3v와 같이 1 인칭 시점을 제공하고, 도 3w와 같은 이모지나 도 3x와 같은 감정을 아바타가 제스처로 표현하는 이모션 기능도 제공한다. 또 도 3y와 같이 다른 학생 모르게 선생님에게 해야 할 말이 있는 경우에는 귓속말 기능을 이용할 수도 있고, 도 3z와 같이 맵을 이용하여 스터디룸으로 이동하거나 도 4a와 같이 상담실 등으로 이동할 수도 있다. 도 4b 및 도 4c와 같이 다중화상채팅을 지원하고 도 4d와 같이 다중화상채팅에서 화면을 공유할 수도 있다. 도 4e는 본 발명의 일 실시예에 따른 플랫폼을 소개하는 홈페이지를 캡쳐한 화면이고, 도 4f 내지 도 4o는 본 발명의 플랫폼의 기능 및 효과를 소개한 제안서를 캡쳐한 화면이다. Figures 3A to 4D are diagrams showing introduction videos of a platform (tentative name, Meta School) captured by function according to an embodiment of the present invention. Currently, this video is posted on the applicant's company website (https://www.codestory.biz/about-9) and YouTube (https://www.youtube.com/watch?v=Tz7srQvLlho), respectively. You can log in as a student on the user terminal 100 as shown in Figure 3a, set an avatar as shown in Figure 3c on the screen shown in Figure 3b, return to the home screen as shown in Figure 3d, and enter the classroom as shown in Figures 3e and 3f. You can move to a desired location by moving or jumping, and the viewpoint can be enlarged or reduced as shown in Figures 3g and 3h. Multiple access is possible as shown in Figure 4i, and the user terminal 100 can play mini games as shown in Figures 3j and 3k, and connect to an online store as shown in Figure 3l to purchase or view a desired book. In the case of an instructor, he or she can log in as a teacher by checking the teacher in Figure 3m. After moving to the classroom from the home screen as shown in Figure 3n, he or she can share the teacher's cam as shown in Figure 3o, or share the student's cam as shown in Figure 3p. After sharing, the student's cam video can be displayed on the blackboard as shown in Figure 3q. As shown in Figure 3r, the screen, cam, and files can be shared. When a file is selected as shown in Figure 3s, the shared file is displayed on the blackboard as shown in Figure 3t, and the shared file is displayed using the writing function as shown in Figure 3u. You can write on the screen. It provides a first-person perspective as shown in Figure 3v, and also provides an emoji function as shown in Figure 3w or an emotion function where the avatar expresses emotions as shown in Figure 3x through gestures. Also, if you have something to say to the teacher without other students knowing, as shown in Figure 3y, you can use the whisper function, or you can use the map to move to the study room, as shown in Figure 3z, or to the counseling room, as shown in Figure 4a. As shown in Figures 4b and 4c, multi-video chatting is supported, and the screen can also be shared in multi-video chatting as shown in Figure 4d. Figure 4e is a screen capture of a homepage introducing a platform according to an embodiment of the present invention, and Figures 4f to 4o are screen captures of a proposal introducing the functions and effects of the platform of the present invention.

이와 같은 도 2 내지 도 4의 메타버스 기반 교육 플랫폼 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 메타버스 기반 교육 플랫폼 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters that are not explained about the method of providing metaverse-based education platform services in FIGS. 2 to 4 are the same as or can be easily explained from the contents of the method of providing metaverse-based education platform services through FIG. 1. Since inference is possible, the description below will be omitted.

도 5는 본 발명의 일 실시예에 따른 도 1의 메타버스 기반 교육 플랫폼 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.FIG. 5 is a diagram illustrating a process in which data is transmitted and received between each component included in the metaverse-based education platform service provision system of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of the process of transmitting and receiving data between each component will be described with reference to FIG. 5, but the present application is not limited to this embodiment, and the process shown in FIG. 5 according to the various embodiments described above It is obvious to those skilled in the art that the process of transmitting and receiving data can be changed.

도 5를 참조하면, 플랫폼 서비스 제공 서버는, 메타버스 기반 교육 플랫폼을 구축하고(S5100), 사용자 단말 및 교수자 단말에서 아바타를 선택하고 메타버스 기반 교육 플랫폼에 접속하는 경우 다중접속(Multiple Access) 기반 연결을 제공한다(S5200).Referring to Figure 5, the platform service providing server builds a metaverse-based education platform (S5100), selects an avatar from the user terminal and instructor terminal, and connects to the metaverse-based education platform based on multiple access. Provides connectivity (S5200).

또, 플랫폼 서비스 제공 서버는, 화면 또는 캠 영상의 공유 옵션을 제공하고(S5300), 메타버스 기반 교육 플랫폼 내 적어도 하나의 객체에 온라인스토어를 매핑하여 세팅한다(S5400).In addition, the platform service providing server provides a screen or cam video sharing option (S5300), and sets the online store by mapping it to at least one object in the metaverse-based education platform (S5400).

그리고, 플랫폼 서비스 제공 서버는, 사용자 단말 또는 교수자 단말의 아바타에서 이모지(Emoji)를 표시하거나 이모션(Emotion)을 아바타의 제스처로 표현하도록 설정하고(S5500), 사용자 단말 및 교수자 단말 간 다중화상채팅을 지원한다(S5600).In addition, the platform service providing server sets the avatar of the user terminal or instructor terminal to display an emoji or express an emotion as a gesture of the avatar (S5500), and multi-video chatting between the user terminal and the instructor terminal is performed. Supports (S5600).

또, 플랫폼 서비스 제공 서버는, 사용자 단말 및 교수자 단말 간 공개채팅 및 비밀채팅을 지원한다(S5700).In addition, the platform service providing server supports public chat and secret chat between user terminals and instructor terminals (S5700).

상술한 단계들(S5100~S5700)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5700)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The sequence between the above-described steps (S5100 to S5700) is only an example and is not limited thereto. That is, the order between the above-described steps (S5100 to S5700) may change, and some of the steps may be executed simultaneously or deleted.

이와 같은 도 5의 메타버스 기반 교육 플랫폼 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 메타버스 기반 교육 플랫폼 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters not explained regarding the method of providing the metaverse-based education platform service of FIG. 5 are the same as or can be easily explained from the content described above regarding the method of providing the metaverse-based education platform service through FIGS. 1 to 4. Since inference is possible, the description below will be omitted.

도 5를 통해 설명된 일 실시예에 따른 메타버스 기반 교육 플랫폼 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The method of providing a metaverse-based education platform service according to an embodiment described through FIG. 5 can also be implemented in the form of a recording medium containing instructions executable by a computer, such as an application or program module executed by a computer. there is. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may include all computer storage media. Computer storage media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 메타버스 기반 교육 플랫폼 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 메타버스 기반 교육 플랫폼 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The method of providing a metaverse-based education platform service according to an embodiment of the present invention described above can be executed by an application installed by default on the terminal (this may include programs included in the platform or operating system, etc., installed by default on the terminal). It may be executed by an application (i.e., a program) that the user installs directly on the master terminal through an application providing server such as an application store server, an application, or a web server related to the service. In this sense, the method of providing a metaverse-based education platform service according to an embodiment of the present invention described above is implemented as an application (i.e., a program) installed by default in the terminal or directly installed by the user and readable by a computer such as in the terminal. It can be recorded on any recording medium that can be recorded.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

Claims (10)

아바타를 선택한 후 메타버스 기반 교육 플랫폼에 접속하는 사용자 단말;
상기 사용자 단말과 연결되고, 상기 메타버스 기반 교육 플랫폼에 접속되는 교수자 단말; 및
메타버스 기반 교육 플랫폼을 구축하는 구축부, 상기 사용자 단말 및 상기 교수자 단말에서 아바타를 선택하고 상기 메타버스 기반 교육 플랫폼에 접속하는 경우 다중접속(Multiple Access) 기반 연결을 제공하는 연결부, 화면 또는 캠 영상의 공유 옵션을 제공하는 공유관리부, 상기 메타버스 기반 교육 플랫폼 내 적어도 하나의 객체에 온라인스토어를 매핑하여 세팅하는 스토어부, 상기 사용자 단말 또는 교수자 단말의 아바타에서 이모지(Emoji)를 표시하거나 이모션(Emotion)을 상기 아바타의 제스처로 표현하도록 설정하는 감정표현부, 상기 사용자 단말 및 상기 교수자 단말 간 다중화상채팅을 지원하는 화상관리부, 상기 사용자 단말 및 교수자 단말 간 공개채팅 및 비밀채팅을 지원하는 채팅지원부, 상기 사용자 단말 또는 교수자 단말에서 상기 아바타의 커스터마이징을 수행하도록 적어도 하나의 아바타 옵션을 제공하는 맞춤캐릭터부를 포함하는 플랫폼 서비스 제공 서버;
를 포함하고,
상기 플랫폼 서비스 제공 서버는,
메타버스의 속성 중 일부 속성인 실시간성과 무제한성을 충족시키기 위해 다중접속환경을 제공하되, 딜레이를 최소화하면서 상기 일부 속성을 만족시키도록 하기 위해 엣지(Edge) 컴퓨팅을 이용하여 부하를 분산시킴으로써 상기 다중접속환경을 제공하고,
기설정된 수준 이상의 컴퓨팅 및 네트워킹 작업 부하를 요구하는 메타버스 서비스를 엣지 컴퓨팅 네트워크에서 지원 가능하도록 하기 위해, 엣지 서버 배치를 통해 메타버스 콘텐츠를 위한 엣지 네트워크를 구성하고, 상기 엣지 서버 배치의 수행시 평균 네트워크 거리가 증가하지 않게 유지하면서 동시에 네트워크 혼잡도를 감소시키기 위한 알고리즘을 이용하고,
N 대의 클라이언트와 M 대의 엣지 서버로 구성된 세트를 VCN(Virtual Content Network)라 할 때, 네트워크 내 클라이언트의 위치의 경우 고정되어 있음에 따라 각 VCN들의 엣지 서버 동작 위치를 지정함으로써 VCN의 지연시간 감소, 전체 네트워크의 트래픽 부하의 감소 및 컴퓨팅 리소스의 균형이 이루어지도록 하고,
VCN의 엣지 서버를 특정 엣지 노드에 배치하기 위해 상기 알고리즘으로서, 각 VCN에 대해 엣지 서버 배치 후보지를 구하되, 배치 후보지가 네트워크 내 모든 노드가 되도록 하고, 엣지 서버가 특정 노드에 배치되었을 때 예상되는 네트워크 비용을 기반으로 배치 후보지를 정렬시키는 첫번째 단계의 알고리즘과, 네트워크 내 모든 VCN의 엣지 서버를 최우선 후보 노드에 가상으로 배치하되, 특정 노드의 가용 컴퓨팅 리소스가 해당 노드에 진입하게 되는 모든 엣지 서버들의 리소스 요구치의 합을 충족시킬 수 없는 경우, 그 중 일부 VCN의 엣지 서버를 다른 노드로 재배치하고, 배치의 수행시 컴퓨팅 리소스의 경우 합산 및 비교의 편의를 위해 워크로드 단위로 추상화되도록 하는 두번째 단계의 알고리즘을 포함한 두 단계의 알고리즘을 이용함으로써, 네트워크 및 컴퓨팅 부하를 함께 고려하면서 네트워크 내에 모든 VCN의 엣지 서버가 배치되도록 하고,
엣지 서버를 배치시키는 과정에서, 임의의 VCN의 엣지 서버를 배치할 후보 노드 목록을 생성하기 위해, 엣지 서버와 클라이언트 사이의 네트워크 경로 상 각 링크에 요구되는 트래픽 부하를 의미하는 링크별 트래픽 팩터로서, VCN을 구성하는 클라이언트 집합 C와 VCN 애플리케이션의 링크별 트래픽 팩터인 τapp을 활용하여 후보별 예상 트래픽 부하를 구하고, 네트워크 내 모든 노드 집합 N의 각 노드 n에 대해, 해당 노드와 각 클라이언트 간 최단경로의 합과 트래픽 팩터의 곱으로 VCN의 엣지 서버가 노드 n에 배치되었을 때 발생할 것으로 예상되는 트래픽 부하를 의미하는 후보 노드 n의 예상 트래픽 부하 t를 구하고, 이후 예상 트래픽 부하를 기준으로 하여 구해진 후보 노드를 오름차순으로 정렬하여 VCN의 후보 목록을 구성하는 방식을 통해, 네트워크 내 모든 VCN에 대해 각각의 후보 목록을 생성하며,
컴퓨팅 리소스를 고려하여 VCN의 후보들을 선택할 때에, 특정 노드의 컴퓨팅 리소스가 부족하여 해당 노드에 엣지 서버를 모두 배치할 수 없을 수 있음을 고려하여, 최초에 모든 VCN의 후보 노드가 선택된 것으로 설정하고, 이후 변수들로서 고려 중인 컴퓨팅 리소스 종류의 개수, 노드 n의 i 번째 컴퓨팅 리소스, 각 VCN의 후보 노드 선택 상황을 나타내는 배치 계획인 P에서 노드 n을 후보로 선택한 모든 엣지 서버의 i 번째 컴퓨팅 리소스 요구량의 합을 고려하여, 리소스 초과 노드가 없으면 상기 알고리즘을 종료하여 상기 배치 계획인 P가 확정되도록 함으로써 VCN 엣지 서버가 실제로 해당 후보 노드에 배치되도록 하고, 리소스 초과 노드가 존재하면 노드에 배치 예정이었던 엣지 서버 중 일부를 교체하되,
상기 교체의 수행시, 교체 노드 선택 방법으로서 벡터를 기반으로 하여 리소스 개수에 제약이 없고 일부 리소스만 고갈되어도 다른 타입의 리소스를 사용하지 못하는 부작용을 최소화할 수 있는 W-VBP(Weighted Vector Bin Packing)을 이용함으로써 노드의 리소스 구성 비율과 엣지 서버의 리소스 구성 비율의 차이가 가장 큰 서버가 교체되도록 하고,
교체 대상 VCN의 모든 후보가 고갈된 경우, 상기 알고리즘이 최종적으로 실패한 것으로 간주함에 따라, 특정 VCN의 후보만 연속하여 고갈되는 상황을 방지하기 위해 VCN별 잔여 후보 비율을 가중치로 고려하여, VBP의 결과인 벡터각과 가중치를 곱한 결과값이 가장 큰 엣지 서버가 교체 대상이 되도록 하고,
교체 대상이 된 엣지 서버를 보유한 VCN이 현재 선택된 후보 노드를 P에서 제거하고 자신의 후보 목록에서 다음 후보 노드를 선택하도록 하고, 이후 현재 상태의 P를 기반으로 초과 노드 존재 여부를 다시 검사하고,
네트워크 내 메타버스 콘텐츠들의 컴퓨팅 리소스 요구량이 총 가용 리소스를 초과함에 따라 알고리즘의 실패가 발생되면, 하드웨어를 추가하거나 콘텐츠들의 엣지 컴퓨팅으로의 오프로드 수준을 낮추는 대책이 적용되도록 하고,
상기 스토어부는, 추천도서나 관련 참고 서적이 먼저 디스플레이되거나, 또는 필요한 준비물이나 학용품이 먼저 디스플레이되도록 페이지를 구성하되, 각 반(Class)마다 페이지가 다르게 구성되도록 하고,
상기 맞춤캐릭터부는,
아바타를 생성할 때 사용자의 개성이 가시화되어 일정 수준 이상의 자유도 제공이 이루어지도록 하기 위해, 복수의 외모 데이터베이스를 통해 얼굴의 형태나 위치를 학습하고, 딥러닝 기반의 얼굴 인식 기술을 사용하여 눈, 코, 입, 및 헤어스타일을 분석하여 3차원의 이미지를 생성하고, 아바타에 의해 연출되는 표정, 의상 및 액세서리에 대해 자동적으로 위치 값이 조정되도록 하고, 얼굴인식 또는 사용자 자신의 사진을 이용해 아바타 생성이 이루어지도록 하고,
상기 플랫폼 서비스 제공 서버는, 상기 사용자 단말 또는 교수자 단말에서 수업 중 필기 옵션을 이용하여 메모장에 필기를 하도록 사용자 인터페이스를 제공하는 필기노트부를 더 포함하고,
상기 필기노트부는,
상기 메모장으로서 타자를 이용한 메모장을 기본으로 고려하되, 교수자의 경우 책에 바로 필기를 하여 화면을 공유하거나, PPT 자료에 전자펜으로 필기를 하는 경우가 존재함을 고려해, 교수자의 필기 정보를 Conv2D, AlexNet, VGG, GoogLeNET, 및 ResNet 중 적어도 하나의 CNN 기반 모델을 이용하여 인식한 후 텍스트 데이터로 제공하는 옵션을 더 제공하고,
상기 옵션의 제공시, 교수자가 필기한 글자에 대하여 획에 대한 기본 정보를 추출한 후 추출된 기본 정보를 기반으로 R(Rectangle)과 SR(Surrounding Rectangle)을 계산하고, 이후 직선 획을 기반으로 하여 모음 후보를 찾은 후 초성, 중성 및 종성을 구분해 내고, 이후 구분된 정보를 상기 CNN 기반 모델에 적용하여 자음 모음을 식별함으로써 글자를 인식하는 것인, 메타버스 기반 교육 플랫폼 서비스 제공 시스템.
A user terminal that selects an avatar and then accesses the metaverse-based education platform;
An instructor terminal connected to the user terminal and connected to the metaverse-based education platform; and
A construction unit that builds a metaverse-based education platform, a connection unit that provides multiple access-based connection when selecting an avatar on the user terminal and the instructor terminal and accessing the metaverse-based education platform, a screen or cam video A sharing management unit that provides sharing options, a store unit that maps and sets an online store to at least one object in the metaverse-based education platform, and an emoji (emoji) is displayed or an emotion (emoji) is displayed on the avatar of the user terminal or instructor terminal. Emotion), an emotional expression unit configured to express the avatar through gestures, an image management unit that supports multiple video chatting between the user terminal and the instructor terminal, and a chat support unit that supports public chat and secret chat between the user terminal and the instructor terminal. , a platform service providing server including a custom character unit that provides at least one avatar option to perform customization of the avatar in the user terminal or instructor terminal;
Including,
The platform service providing server is,
It provides a multiple access environment to satisfy some of the properties of the metaverse, such as real-time and unlimited, but uses edge computing to distribute the load to satisfy some of the properties while minimizing delay. Provide a connection environment,
In order to enable the edge computing network to support metaverse services that require computing and networking workloads above a preset level, an edge network for metaverse content is configured through edge server deployment, and the average Using an algorithm to reduce network congestion while keeping the network distance from increasing,
When a set consisting of N clients and M edge servers is called a VCN (Virtual Content Network), the location of the clients within the network is fixed, so the delay time of the VCN is reduced by specifying the edge server operation location of each VCN, Ensure that the traffic load of the entire network is reduced and computing resources are balanced,
In order to place the VCN's edge server on a specific edge node, the above algorithm finds edge server placement candidates for each VCN, ensures that the candidate placement sites are all nodes in the network, and determines the expected location when the edge server is placed on a specific node. The first step algorithm is to sort deployment candidates based on network cost, and virtually deploy edge servers of all VCNs in the network to the highest candidate node, but the available computing resources of a specific node are used to determine the number of edge servers entering that node. If the sum of resource requirements cannot be met, some of the VCN's edge servers are relocated to other nodes, and computing resources are abstracted by workload for convenience of summation and comparison during deployment. By using a two-step algorithm including the algorithm, all VCN's edge servers are placed within the network while considering network and computing load together,
In the process of deploying an edge server, in order to create a list of candidate nodes on which to deploy an edge server of a random VCN, a link-specific traffic factor refers to the traffic load required for each link on the network path between the edge server and the client, The expected traffic load for each candidate is obtained by using the client set C constituting the VCN and τapp, the traffic factor for each link of the VCN application, and for each node n of all node sets N in the network, the shortest path between that node and each client is calculated. The expected traffic load t of candidate node n, which means the traffic load expected to occur when the VCN's edge server is placed on node n, is calculated by multiplying the sum and the traffic factor. Then, the candidate node obtained based on the expected traffic load is calculated as By organizing the candidate list of VCNs by sorting them in ascending order, each candidate list is generated for every VCN in the network.
When selecting candidates for a VCN considering computing resources, considering that a specific node may not have enough computing resources to deploy all edge servers on that node, all candidate nodes for the VCN are initially set to be selected; The following variables are the number of types of computing resources under consideration, the ith computing resource of node n, and the sum of the ith computing resource requirements of all edge servers that select node n as a candidate in P, a deployment plan representing the candidate node selection situation for each VCN. Considering, if there are no nodes with excess resources, the algorithm is terminated to ensure that the deployment plan, P, is confirmed, so that the VCN edge server is actually placed on the corresponding candidate node, and if there are nodes with excess resources, among the edge servers scheduled to be placed on the node Replace some,
When performing the replacement, W-VBP (Weighted Vector Bin Packing) is a vector-based replacement node selection method that has no restrictions on the number of resources and can minimize the side effect of not being able to use other types of resources even if only some resources are depleted. By using , the server with the largest difference between the node's resource composition ratio and the edge server's resource composition ratio is replaced,
When all candidates for a VCN to be replaced are depleted, the algorithm is considered to have ultimately failed. In order to prevent a situation where only candidates for a specific VCN are continuously depleted, the remaining candidate ratio for each VCN is considered as a weight, and the result of VBP is The edge server with the largest result of multiplying the vector angle and the weight is selected for replacement.
Let the VCN, which holds the edge server subject to replacement, remove the currently selected candidate node from P and select the next candidate node from its candidate list, and then check again for the presence of excess nodes based on the current state of P.
If an algorithm failure occurs as the computing resource requirements of metaverse contents within the network exceed the total available resources, measures to add hardware or reduce the level of offloading of contents to edge computing are applied,
The store section organizes pages so that recommended books or related reference books are displayed first, or necessary preparations or school supplies are displayed first, but the pages are configured differently for each class,
The custom character part,
When creating an avatar, in order to make the user's personality visible and provide a certain level of freedom, the shape and position of the face are learned through multiple appearance databases, and deep learning-based facial recognition technology is used to Create a three-dimensional image by analyzing the nose, mouth, and hairstyle, automatically adjust the position values for the facial expressions, clothing, and accessories displayed by the avatar, and create an avatar using facial recognition or the user's own photo. Let this happen,
The platform service providing server further includes a handwritten note unit that provides a user interface to take notes on a notepad using a note-taking option during class on the user terminal or instructor terminal,
The written note section,
The above notepad is considered as a basic notepad using a typewriter, but considering that there are cases where the instructor writes directly in a book and shares the screen or writes with an electronic pen on PPT materials, the instructor's handwriting information is converted into Conv2D, Further providing the option of recognizing using at least one CNN-based model among AlexNet, VGG, GoogLeNET, and ResNet and then providing it as text data,
When the above option is provided, the instructor extracts basic information about the strokes of the handwritten letters, calculates R (Rectangle) and SR (Surrounding Rectangle) based on the extracted basic information, and then collects them based on straight strokes. A metaverse-based education platform service provision system that recognizes letters by finding candidates, distinguishing initial, medial, and final consonants, and then applying the classified information to the CNN-based model to identify consonants and vowels.
제 1 항에 있어서,
상기 공유관리부는,
상기 교수자 단말의 화면 또는 캠 영상을 메타버스 기반 교육 플랫폼 내 교실의 칠판에 표시하거나, 상기 교수자 단말에서 상기 사용자 단말의 화면 또는 캠 영상을 공유하는 옵션을 선택하는 경우, 상기 사용자 단말의 화면 또는 캠 영상을 상기 칠판에 표시하도록 설정하는 것을 특징으로 하는 메타버스 기반 교육 플랫폼 서비스 제공 시스템.
According to claim 1,
The sharing management department,
When the screen or cam video of the instructor terminal is displayed on the blackboard in the classroom within the metaverse-based education platform, or the instructor terminal selects the option to share the screen or cam video of the user terminal, the screen or cam video of the user terminal is selected. A metaverse-based education platform service provision system characterized by setting an image to be displayed on the blackboard.
제 1 항에 있어서,
상기 플랫폼 서비스 제공 서버는,
상기 사용자 단말 또는 교수자 단말의 아바타의 이동 또는 점프의 옵션을 제공하는 이동제어부;
를 더 포함하는 것을 특징으로 하는 메타버스 기반 교육 플랫폼 서비스 제공 시스템.
According to claim 1,
The platform service providing server is,
a movement control unit that provides options to move or jump the avatar of the user terminal or instructor terminal;
A metaverse-based education platform service provision system further comprising:
제 1 항에 있어서,
상기 플랫폼 서비스 제공 서버는,
상기 메타버스 기반 교육 플랫폼 내 적어도 하나의 객체에 미니게임을 연결하고, 상기 사용자 단말에서 상기 미니게임을 선택하면 상기 미니게임이 상기 사용자 단말에서 진행되도록 설정하는 미니게임부;
를 더 포함하는 것을 특징으로 하는 메타버스 기반 교육 플랫폼 서비스 제공 시스템.
According to claim 1,
The platform service providing server is,
a mini-game unit that connects a mini-game to at least one object in the metaverse-based education platform and sets the mini-game to be played on the user terminal when the mini-game is selected on the user terminal;
A metaverse-based education platform service provision system further comprising:
제 1 항에 있어서,
상기 플랫폼 서비스 제공 서버는,
상기 메타버스 기반 교육 플랫폼 내 교실, 스터디룸, 상담실, 그룹교실 및 과학실을 구축하여 상기 사용자 단말 및 교수자 단말의 아바타가 이동하는 메타버스 공간으로 세팅하는 공간제공부;
를 더 포함하는 것을 특징으로 하는 메타버스 기반 교육 플랫폼 서비스 제공 시스템.
According to claim 1,
The platform service providing server is,
A space providing unit that builds classrooms, study rooms, counseling rooms, group classrooms, and science rooms within the metaverse-based education platform and sets them as metaverse spaces where avatars of the user terminal and instructor terminal move;
A metaverse-based education platform service provision system further comprising:
삭제delete 제 1 항에 있어서,
상기 사용자 단말은 서로 다른 주체에 귀속된 복수의 사용자 단말이고,
상기 플랫폼 서비스 제공 서버는,
상기 메타버스 기반 교육 플랫폼 내 그룹교실에서 음성으로 그룹활동을 하도록 상기 복수의 사용자 단말의 음성을 입력받아 상기 복수의 사용자 단말로 전달하는 음성그룹활동지원부;
를 더 포함하는 것을 특징으로 하는 메타버스 기반 교육 플랫폼 서비스 제공 시스템.
According to claim 1,
The user terminal is a plurality of user terminals belonging to different entities,
The platform service providing server is,
A voice group activity support unit that receives voices from the plurality of user terminals and transmits them to the plurality of user terminals so that group activities can be performed by voice in the group classroom within the metaverse-based education platform;
A metaverse-based education platform service provision system further comprising:
삭제delete 제 1 항에 있어서,
상기 플랫폼 서비스 제공 서버는,
상기 교수자 단말의 판서기능을 지원하고, 적어도 하나의 문서, 사진, 이미지 및 영상의 뷰어(Viewer)를 지원하는 도구지원부;
를 더 포함하는 것을 특징으로 하는 메타버스 기반 교육 플랫폼 서비스 제공 시스템.
According to claim 1,
The platform service providing server is,
a tool support unit that supports a writing function of the instructor terminal and a viewer of at least one document, photo, image, and video;
A metaverse-based education platform service provision system further comprising:
제 1 항에 있어서,
상기 플랫폼 서비스 제공 서버는,
상기 메타버스 기반 교육 플랫폼을 3D 기반으로 제공하는 3D제공부;
를 더 포함하는 것을 특징으로 하는 메타버스 기반 교육 플랫폼 서비스 제공 시스템.
According to claim 1,
The platform service providing server is,
A 3D provider that provides the metaverse-based education platform in 3D;
A metaverse-based education platform service provision system further comprising:
KR1020230036597A 2023-03-21 2023-03-21 System for providing metaverse based education platform service KR102620284B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230036597A KR102620284B1 (en) 2023-03-21 2023-03-21 System for providing metaverse based education platform service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230036597A KR102620284B1 (en) 2023-03-21 2023-03-21 System for providing metaverse based education platform service

Publications (1)

Publication Number Publication Date
KR102620284B1 true KR102620284B1 (en) 2023-12-29

Family

ID=89334063

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230036597A KR102620284B1 (en) 2023-03-21 2023-03-21 System for providing metaverse based education platform service

Country Status (1)

Country Link
KR (1) KR102620284B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117553803A (en) * 2024-01-09 2024-02-13 大连海事大学 Multi-unmanned aerial vehicle intelligent path planning method based on deep reinforcement learning
CN117853208A (en) * 2024-03-07 2024-04-09 广东格利数字服务有限公司 Digital platform intelligent deployment control method and system based on meta universe

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009145883A (en) * 2007-11-20 2009-07-02 Rissho Univ Learning system, storage medium, and learning method
JP2016024395A (en) * 2014-07-23 2016-02-08 学校法人花沢学園 Computing that performs correspondence education through virtual communication environment constructed on network in imitation of school
KR20220129989A (en) * 2021-03-17 2022-09-26 주식회사 디엠랩 Avatar-based interaction service method and apparatus
KR20220146298A (en) * 2021-04-23 2022-11-01 이상열 Metaverse system that provides an economic operating system to a fusion space where reality and virtualization are fused

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009145883A (en) * 2007-11-20 2009-07-02 Rissho Univ Learning system, storage medium, and learning method
JP2016024395A (en) * 2014-07-23 2016-02-08 学校法人花沢学園 Computing that performs correspondence education through virtual communication environment constructed on network in imitation of school
KR20220129989A (en) * 2021-03-17 2022-09-26 주식회사 디엠랩 Avatar-based interaction service method and apparatus
KR20220146298A (en) * 2021-04-23 2022-11-01 이상열 Metaverse system that provides an economic operating system to a fusion space where reality and virtualization are fused

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
젭(ZEP) 사용법, 메타버스 플랫폼 젭 처음부터 끝까지 A to Z, 2022.12.01., 인터넷 : <URL : https://www.youtube.com/watch?v=T7FHwYyNNOM>* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117553803A (en) * 2024-01-09 2024-02-13 大连海事大学 Multi-unmanned aerial vehicle intelligent path planning method based on deep reinforcement learning
CN117553803B (en) * 2024-01-09 2024-03-19 大连海事大学 Multi-unmanned aerial vehicle intelligent path planning method based on deep reinforcement learning
CN117853208A (en) * 2024-03-07 2024-04-09 广东格利数字服务有限公司 Digital platform intelligent deployment control method and system based on meta universe

Similar Documents

Publication Publication Date Title
Mayer Using multimedia for e‐learning
KR102620284B1 (en) System for providing metaverse based education platform service
KR102221909B1 (en) System for real-time interactive video conferencing based cooperative service for non face-to-face business
Sghaier et al. Development of an intelligent system based on metaverse learning for students with disabilities
Abdul-Kader E-learning systems in virtual environment
KR20220129989A (en) Avatar-based interaction service method and apparatus
Kounlaxay et al. Design of Learning Media in Mixed Reality for Lao Education.
Sylaiou et al. Virtual humans in museums and cultural heritage sites
Torrente et al. Introducing accessibility features in an educational game authoring tool: The< e-Adventure> experience
Encarnacao et al. Future directions in computer graphics and visualization: From CG&A's editorial board
Car et al. A platform model for symbol based communication services
Yang et al. Holographic sign language avatar interpreter: A user interaction study in a mixed reality classroom
Coughlan et al. Accessible inclusive learning: Futures
Montebello Digital pedagogies and the transformation of language education
CN114780183A (en) Online programming learning method and device, electronic equipment and storage medium
Godwin-Jones Technology-mediated SLAEvolving Trends and Emerging Technologies
Bagade et al. Augmented Reality Based Visual Dictionary for Elementary Students
Zhao Data-Driven Storytelling for Casual Users
KR20230114091A (en) System FOR PROVIDING LEARNING CONTENTS SERVICE USING VIRTUAL REALITY
Jaya Sudha et al. VR Classroom for Interactive and Immersive Learning with Assessment of Students Comprehension
US20220301250A1 (en) Avatar-based interaction service method and apparatus
Maciel et al. Visual and interactive concerns for vr applications: A case study
KR102568378B1 (en) Apparatus for Learning Service of Foreign Language and Driving Method Thereof
Brown Prelude-An Augmented Reality iOS Application for Music Education
Sarker Understanding how to translate from children’s tangible learning apps to mobile augmented reality through technical development research

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant