KR102359253B1 - Method of providing non-face-to-face English education contents using 360 degree digital XR images - Google Patents

Method of providing non-face-to-face English education contents using 360 degree digital XR images Download PDF

Info

Publication number
KR102359253B1
KR102359253B1 KR1020210019104A KR20210019104A KR102359253B1 KR 102359253 B1 KR102359253 B1 KR 102359253B1 KR 1020210019104 A KR1020210019104 A KR 1020210019104A KR 20210019104 A KR20210019104 A KR 20210019104A KR 102359253 B1 KR102359253 B1 KR 102359253B1
Authority
KR
South Korea
Prior art keywords
image
processor
instructor
face
providing
Prior art date
Application number
KR1020210019104A
Other languages
Korean (ko)
Inventor
손남용
Original Assignee
(주)에듀슨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)에듀슨 filed Critical (주)에듀슨
Priority to KR1020210019104A priority Critical patent/KR102359253B1/en
Application granted granted Critical
Publication of KR102359253B1 publication Critical patent/KR102359253B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Architecture (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The present invention relates to a non-face-to-face English educational content providing method using XR images which comprises the following steps of: receiving, by a processor, a request of first educational content from an eXtended reality (XR) device through a communication unit; receiving, by the processor, a first VR image associated with the first educational content from a virtual reality (VR) image providing device; and providing, by a processor, the first educational content using a first XR image generated based on the first VR image to the XR device through the communication unit.

Description

360도 XR 디지털 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법{Method of providing non-face-to-face English education contents using 360 degree digital XR images}Method of providing non-face-to-face English education contents using 360 degree digital XR images

본 발명은 360도 XR 디지털 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법에 관한 것이다.The present invention relates to a method of providing non-face-to-face English education contents using a 360 degree XR digital image.

코로나 19등의 전염병의 유행에 따라 비대면, 비접촉식 교육에 대한 수요가 커지고 있다. 이러한 수요를 충족시키는 방법으로 공교육 영역 및 사교육 영역에서 온라인 교육이 활용되고 있다. 이러한 온라인 교육은, 기 생성되어 제공되는 교육 컨텐츠를 수강생이 자신의 단말기를 활용하여 재생함으로써 이루어지거나 강사와 수강생이 동시에 접속된 상태로 영상을 통해 강의를 진행하는 식으로 이루어진다.Demand for non-face-to-face and non-contact education is growing with the epidemic of infectious diseases such as Corona 19. Online education is being used in public education and private education as a way to meet this demand. Such online education is performed by the student playing the previously created and provided educational content using his/her own terminal, or the lecture is conducted through video while the instructor and the student are connected at the same time.

그러나, 유아, 어린이와 같이, 집중력이 상대적으로 낮은 수강생의 경우, 종래 기술에 따른 온라인 교육은 집중력의 부재로 오프 라인 교육에 비해 효율이 떨어질 수밖에 없다. 온라인 환경은 상호간의 교감이 이루어지기 힘들기 때문에, 집중력이 상대적으로 낮은 수강생의 관심을 유도하기 위한 교육 시스템 개발이 필요하다.However, in the case of students with relatively low concentration, such as infants and children, the online education according to the prior art is inevitably less efficient than the offline education due to the lack of concentration. Since it is difficult to communicate with each other in the online environment, it is necessary to develop an education system to induce the interest of students with relatively low concentration.

공개 특허 10-2003-0017850Published Patent 10-2003-0017850

본 발명은 상기한 문제점을 해결하기 위하여, 유아, 어린이와 같이 집중력이 상대적으로 낮은 수강생도 강의에 몰입할 수 있도록 XR 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법을 제공하는데 목적이 있다.An object of the present invention is to provide a method for providing non-face-to-face English educational content using XR images so that even students with relatively low concentration, such as infants and children, can immerse themselves in the lecture in order to solve the above problems.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 XR 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법은, VR 영상에 기초하여 XR 영상을 생성하여 XR 장치에 제공한다.In order to achieve the above object, in the non-face-to-face English educational content providing method using an XR image according to an embodiment of the present invention, an XR image is generated based on a VR image and provided to the XR device.

XR 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법은, 프로세서가, XR(eXtended Reality) 장치로부터, 통신부를 통해, 제1 교육 컨텐츠를 요청받는 단계; 프로세서가, VR(Virtual Reality) 영상 제공 장치로부터, 제1 교육 컨텐츠와 연관된 제1 VR 영상을 제공받는 단계; 및 프로세서가, 상기 XR 장치에, 통신부를 통해, 상기 제1 VR영상에 기초하여 생성된 제1 XR 영상을 이용한 상기 제1 교육 컨텐츠를 제공하는 단계;를 포함한다.A method of providing non-face-to-face English educational content using an XR image, the method comprising: receiving, by a processor, a request for first educational content from an XR (eXtended Reality) device through a communication unit; receiving, by the processor, a first VR image associated with a first educational content from a virtual reality (VR) image providing device; and providing, by a processor, the first educational content using a first XR image generated based on the first VR image to the XR device through a communication unit.

상기 제1 교육 컨텐츠를 제공하는 단계는, 프로세서가, 상기 제1 VR 영상을 디스플레이에 출력하는 단계; 프로세서가, 카메라를 통해, 제1 강사 영상을 획득하는 단계; 프로세서가, 상기 제1 VR 영상과 상기 제1 강사 영상을 합성하여 제1 XR 영상을 생성하는 단계; 및 프로세서가, 상기 XR 장치에, 통신부를 통해, 상기 제1 XR 영상을 제공하는 단계;를 포함한다.The providing of the first educational content may include, by a processor, outputting the first VR image to a display; obtaining, by the processor, a first instructor image through a camera; generating, by a processor, a first XR image by synthesizing the first VR image and the first instructor image; and providing, by a processor, the first XR image to the XR device through a communication unit.

상기 제1 강사 영상은, 상기 제1 VR 영상에 표시된 제1 오브젝트에 대해 설명하는 영상이다.The first instructor image is an image explaining the first object displayed in the first VR image.

상기 제1 XR 영상을 생성하는 단계는, 프로세서가, 상기 제1 VR 영상에 기초하여 3차원 가상 공간을 생성하는 단계; 프로세서가, 상기 제1 강사 영상에서 강사에 대한 제2 오브젝트를 추출하는 단계; 및 프로세서가, 상기 가상 공간에 상기 제2 오브젝트를 삽입하는 단계;를 포함하고, 상기 삽입하는 단계는, 상기 가상 공간에서 상기 제1 오브젝트가 위치하는 영역을 제외한 영역에 상기 제2 오브젝트를 삽입한다.The generating of the first XR image may include: generating, by a processor, a 3D virtual space based on the first VR image; extracting, by the processor, a second object for the instructor from the first instructor image; and inserting, by a processor, the second object into the virtual space, wherein the inserting includes inserting the second object into an area in the virtual space except for an area in which the first object is located. .

상기 제1 교육 컨텐츠를 제공하는 단계는, 프로세서가, 상기 XR 장치로부터, 통신부를 통해, 수강생의 음성 데이터를 수신하는 단계; 프로세서가, 상기 수강생의 음성 데이터와 연관된 제2 강사 영상을 획득하는 단계; 및 프로세서가, 상기 제1 VR 영상과 상기 제2 강사 영상을 합성하여 제2 XR 영상을 생성하는 단계;를 포함한다.The providing of the first educational content may include: receiving, by a processor, voice data of a learner from the XR device through a communication unit; obtaining, by the processor, a second instructor image associated with the student's voice data; and generating, by the processor, a second XR image by synthesizing the first VR image and the second instructor image.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The details of other embodiments are included in the detailed description and drawings.

본 발명에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the present invention, there are one or more of the following effects.

첫째, XR 영상을 이용하여 유아, 어린이 등의 수강생이 비대면 영어 학습을 함에 있어서 몰입도가 향상되는 효과가 있다.First, there is an effect of improving immersion in non-face-to-face English learning by students such as infants and children using XR images.

둘째, XR을 이용함으로써, 강사와 수강생들간 효율적 교감이 이루어지는 효과가 있다.Second, by using XR, there is an effect of effective communication between the instructor and the students.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 실시예에 따른 시스템의 구성도이다.
도 2는 본 발명의 실시예에 따른 교육 컨텐츠 제공 장치의 제어 블럭도이다.
도 3은 본 발명의 실시예에 따른 XR 장치의 제어 블럭도이다.
도 4는 본 발명의 실시예에 따른 시스템의 신호 흐름도이다.
도 5는 본 발명의 실시예에 따른 교육 컨텐츠 제공 장치의 플로우 차트이다.
도 6은 본 발명의 실시예에 따른 시스템의 동작을 설명하는데 참조되는 도면이다.
1 is a block diagram of a system according to an embodiment of the present invention.
2 is a control block diagram of an apparatus for providing educational content according to an embodiment of the present invention.
3 is a control block diagram of an XR apparatus according to an embodiment of the present invention.
4 is a signal flow diagram of a system according to an embodiment of the present invention.
5 is a flowchart of an apparatus for providing educational content according to an embodiment of the present invention.
6 is a diagram referenced for explaining the operation of a system according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numbers regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including an ordinal number such as 1st, 2nd, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expression includes the plural expression unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as “comprises” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

도 1은 본 발명의 실시예에 따른 시스템의 구성도이다.1 is a block diagram of a system according to an embodiment of the present invention.

도 1을 참조하면, 교육 시스템(1)은, XR(eXtended Reality) 기술을 이용하여, 비대면 교육을 수행하는 시스템이다. 교육 시스템(1)은, 비대면 영어 교육에 이용될 수 있다. 교육 시스템(1)은, 영어 외 다른 과목 교육에도 이용될 수 있다.Referring to FIG. 1 , an education system 1 is a system for performing non-face-to-face education using eXtended Reality (XR) technology. The education system 1 may be used for non-face-to-face English education. The education system 1 may be used for teaching subjects other than English.

교육 시스템(1)은, 유치원, 초등학교, 중학교, 고등학교에서 교육 컨텐츠를 학생에게 제공하는 공교육 영역에서 활용될 수 있다. 또한, 교육 시스템(1)은, 학원, 온라인 교육 플랫폼 등 사교육 영역에서 활용될 수 있다.The education system 1 may be utilized in the public education field that provides educational contents to students in kindergartens, elementary schools, middle schools, and high schools. In addition, the education system 1 may be utilized in private education fields such as private institutes and online education platforms.

유아, 어린이와 같이, 상대적으로 집중력이 떨어지는 수강생이 교육 시스템(1)을 활용하여 영어 교육 컨텐츠를 제공하는 대상일 수 있다.A learner with relatively low concentration, such as infants or children, may be a target for providing English education contents using the education system 1 .

XR 영상을 생성하는 경우, 강사 영상이 필요한데, 여기서 강사는 원어민 강사인 것이 바람직하다. 실시예에 따라, 강사는 내국인 강사일 수도 있다.When generating XR images, an instructor image is required, where the instructor is preferably a native speaker. According to an embodiment, the instructor may be a Korean instructor.

교육 시스템(1)은, VR 영상 제공 장치(20), 교육 컨텐츠 제공 장치(100) 및 XR(eXtended Reality) 장치(300)를 포함한다. 교육 컨텐츠 제공 장치(100)와 XR 장치(300)는, 유선 또는 무선 네트워크를 통해 통신할 수 있다. 유선 또는 무선 네트워크는, 제3자에 의해 제공되는 인프라가 활용될 수 있다.The education system 1 includes a VR image providing device 20 , an educational content providing device 100 , and an eXtended Reality (XR) device 300 . The educational content providing apparatus 100 and the XR apparatus 300 may communicate through a wired or wireless network. In the wired or wireless network, an infrastructure provided by a third party may be utilized.

한편, 교육 시스템(1)을 통해 수행되는 교육은, 영어 교육임을 예시하여 설명하지만, 교육 시스템(1)은 이에 한정되지 않고, 음악, 역사, 과학, 수학, 국어, 사회 등 다양한 과목의 교육에도 이용될 수 있다.On the other hand, although the education performed through the education system 1 is described as an example of English education, the education system 1 is not limited thereto, and it is also used in education of various subjects such as music, history, science, mathematics, Korean, and social studies. can be used

도 2는 본 발명의 실시예에 따른 교육 컨텐츠 제공 장치의 제어 블럭도이다.2 is a control block diagram of an apparatus for providing educational content according to an embodiment of the present invention.

도 2를 참조하면, 교육 컨텐츠 제공 장치(100)는, VR 영상 제공 장치(20)로부터 수신한 VR 영상에 기초하여, XR 영상을 생성하고, 생성된 XR 영상을 XR 장치(300)에 제공할 수 있다.Referring to FIG. 2 , the educational content providing apparatus 100 generates an XR image based on the VR image received from the VR image providing apparatus 20 , and provides the generated XR image to the XR apparatus 300 . can

교육 컨텐츠 제공 장치(100)는, 통신부(110), 카메라(120), 마이크로폰(130), 디스플레이(150), 스피커(160), 메모리(140), 프로세서(170), 인터페이스(180) 및 전원 공급부(190)를 포함할 수 있다. 실시예에 따라, 카메라(120) 및 마이크로폰(130)은, 교육 컨텐츠 제공 장치(100)의 나머지 구성 요소와 물리적으로 분리되게 구현될 수 있다.Educational content providing apparatus 100, communication unit 110, camera 120, microphone 130, display 150, speaker 160, memory 140, processor 170, interface 180 and power supply A supply unit 190 may be included. According to an embodiment, the camera 120 and the microphone 130 may be implemented to be physically separated from the remaining components of the educational content providing apparatus 100 .

통신부(110)는, 교육 컨텐츠 제공 장치(100) 외부의 전자 장치(예를 들면, XR 장치(300))와 신호를 교환할 수 있다.The communication unit 110 may exchange signals with an electronic device (eg, the XR device 300 ) external to the educational content providing device 100 .

통신부(110)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다. The communication unit 110 may include at least one of a transmit antenna, a receive antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.

통신부(110)는, 이동 통신 네트워크(예를 들면, 3G, 4G, 5G)를 이용하여 교육 컨텐츠 제공 장치(100) 외부의 전자 장치(예를 들면, XR 장치(300))와 신호를 교환할 수 있다.The communication unit 110 may exchange signals with an electronic device (eg, the XR device 300 ) external to the educational content providing device 100 using a mobile communication network (eg, 3G, 4G, 5G). can

카메라(120)는, 강사를 촬영할 수 있다. 카메라(120)는, 적어도 하나의 렌즈, 적어도 하나의 이미지 센서 및 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하는 처리부를 포함할 수 있다. 카메라(120)는, 모노 카메라, 스테레오 카메라 중 적어도 어느 하나일 수 있다. The camera 120 may photograph the instructor. The camera 120 may include at least one lens, at least one image sensor, and a processing unit electrically connected to the image sensor to process a received signal. The camera 120 may be at least one of a mono camera and a stereo camera.

카메라(120)는, 강사를 중심에 두고, 강사를 360도 둘러싸는 형태로 복수개가 배치될 수 있다. 이때, 카메라(120)의 위치는, VR 영상에 기초하여 배치될 수 있다. 카메라(120)의 초점 거리는 VR 영상과 강사의 거리 관계에 기초하여 설정될 수 있다.A plurality of cameras 120 may be disposed with the instructor at the center, and in a form that surrounds the instructor by 360 degrees. In this case, the position of the camera 120 may be arranged based on the VR image. The focal length of the camera 120 may be set based on a distance relationship between the VR image and the instructor.

마이크로폰(130)는, 음향 신호를 전기적 신호로 전환할 수 있다.The microphone 130 may convert an acoustic signal into an electrical signal.

디스플레이(150)는, 다양한 정보에 대응되는 그래픽 객체를 표시할 수 있다.The display 150 may display graphic objects corresponding to various pieces of information.

디스플레이(150)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display 150 is a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display (flexible display). ), a three-dimensional display (3D display), and may include at least one of an e-ink display (e-ink display).

디스플레이(150)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다.The display 150 may implement a touch screen by forming a layer structure with the touch sensor or being integrally formed.

디스플레이(150)는, VR 영상 제공 장치(20)에서 제공되는 VR 영상을 출력할 수 있다.The display 150 may output a VR image provided by the VR image providing apparatus 20 .

디스플레이(150)는, 카메라(120)와 페어를 이루어, 카메라(120) 주변에 배치될 수 있다. 강사는 디스플레이(150)를 보면서, VR 영상에서의 오브젝트와 자신과의 거리를 인지할 수 있게 된다.The display 150 may be paired with the camera 120 and disposed around the camera 120 . The instructor can recognize the distance between the object in the VR image and himself while looking at the display 150 .

스피커(160)는, 전기적 신호를 오디오 신호로 변환하여 출력할 수 있다.The speaker 160 may convert an electrical signal into an audio signal and output it.

메모리(140)는, 프로세서(170)와 전기적으로 연결된다. 메모리(140)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)에서 처리된 데이터를 저장할 수 있다. 메모리(140)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(140)는 프로세서(170)의 처리 또는 제어를 위한 프로그램 등, 전자 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)와 일체형으로 구현될 수 있다. 실시예에 따라, 메모리(140)는, 프로세서(170)의 하위 구성으로 분류될 수 있다.The memory 140 is electrically connected to the processor 170 . The memory 140 may store basic data for the unit, control data for operation control of the unit, and input/output data. The memory 140 may store data processed by the processor 170 . The memory 140 may be configured as at least one of ROM, RAM, EPROM, flash drive, and hard drive in terms of hardware. The memory 140 may store various data for the overall operation of the electronic device 100 , such as a program for processing or controlling the processor 170 . The memory 140 may be implemented integrally with the processor 170 . According to an embodiment, the memory 140 may be classified into a sub-configuration of the processor 170 .

프로세서(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로폰으로 컨트롤러(micro-controllers), 마이크로폰으로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.Processor 170, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), processors (processors), controller It may be implemented using at least one of controllers, micro-controllers as microphones, microprocessors as microphones, and electrical units for performing other functions.

프로세서(170)는, 통신부(110), 카메라(120), 마이크로폰(130), 디스플레이(150), 메모리(140), 인터페이스(180), 전원 공급부(190)와 전기적으로 연결되어 신호를 교환할 수 있다. The processor 170 is electrically connected to the communication unit 110 , the camera 120 , the microphone 130 , the display 150 , the memory 140 , the interface 180 , and the power supply unit 190 to exchange signals. can

인터페이스(180)는, 외부 전자 장치와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스(180)는, 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다.The interface 180 may exchange signals with an external electronic device by wire or wirelessly. The interface 180 may be configured of at least one of a communication module, a terminal, a pin, a cable, a port, a circuit, an element, and a device.

전원 공급부(190)는, 교육 컨텐츠 제공 장치(100)에 전원을 공급할 수 있다. 전원 공급부(190)는, 배터리로부터 전원을 공급받아, 교육 컨텐츠 제공 장치(100)의 각 유닛에 전원을 공급할 수 있다.The power supply unit 190 may supply power to the educational content providing apparatus 100 . The power supply unit 190 may receive power from the battery and supply power to each unit of the educational content providing apparatus 100 .

도 3은 본 발명의 실시예에 따른 XR 장치의 제어 블럭도이다.3 is a control block diagram of an XR apparatus according to an embodiment of the present invention.

도 3을 참조하면, XR 장치(300)는, HMD(Head-Mount Display), 웨어러블 디바이스 등으로 구현될 수도 있다.Referring to FIG. 3 , the XR apparatus 300 may be implemented as a head-mount display (HMD), a wearable device, or the like.

XR 장치(300)는 다양한 센서들을 통해 또는 외부 장치로부터 획득한 3차원 포인트 클라우드 데이터 또는 이미지 데이터를 분석하여 3차원 포인트들에 대한 위치 데이터 및 속성 데이터를 생성함으로써 주변 공간 또는 현실 객체에 대한 정보를 획득하고, 출력할 XR 객체를 렌더링하여 출력할 수 있다. 예컨대, XR 장치(300)는 인식된 물체에 대한 추가 정보를 포함하는 XR 객체를 해당 인식된 물체에 대응시켜 출력할 수 있다.The XR device 300 analyzes 3D point cloud data or image data acquired through various sensors or from an external device to generate location data and attribute data for 3D points, thereby providing information on surrounding space or real objects. It can be obtained and output by rendering the XR object to be output. For example, the XR apparatus 300 may output an XR object including additional information on the recognized object to correspond to the recognized object.

XR 장치(300)는 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, XR 장치(300)는 학습 모델을 이용하여 3차원 포인트 클라우드 데이터 또는 이미지 데이터에서 현실 객체를 인식할 수 있고, 인식한 현실 객체에 상응하는 정보를 제공할 수 있다. 여기서, 학습 모델은 XR 장치(300)에서 직접 학습되거나, AI 서버 등의 외부 장치에서 학습된 것일 수 있다.The XR apparatus 300 may perform the above operations by using a learning model composed of at least one or more artificial neural networks. For example, the XR device 300 may recognize a real object from 3D point cloud data or image data using a learning model, and may provide information corresponding to the recognized real object. Here, the learning model may be directly learned from the XR device 300 or learned from an external device such as an AI server.

이때, XR 장치(300)는 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.In this case, the XR device 300 may perform an operation by generating a result using the direct learning model, but may also perform an operation by transmitting sensor information to an external device such as an AI server and receiving the result generated accordingly. there is.

XR 장치(300)는 카메라(310), 디스플레이(320), 센서(330), 프로세서(340), 메모리(350) 및 통신 모듈(360)을 포함한다. The XR device 300 includes a camera 310 , a display 320 , a sensor 330 , a processor 340 , a memory 350 , and a communication module 360 .

통신 모듈(360)은 외부 장치 또는 서버와 유선/무선으로 통신을 수행하며, 근거리 무선 통신으로 예를 들어 Wi-Fi, 블루투스 등이 사용될 수 있고, 원거리 무선 통신으로 예를 들어 LTE, LTE-A, 5G 등이 사용될 수 있다. The communication module 360 performs wired/wireless communication with an external device or server, for example, Wi-Fi, Bluetooth, etc. may be used as short-distance wireless communication, and for example, LTE, LTE-A as long-distance wireless communication. , 5G, etc. may be used.

카메라(310)는 XR 장치(300) 주변 환경을 촬영하여 전기적 신호로 변환할 수 있다. 카메라(310)에서 촬영되어 전기적 신호로 변환된 이미지는 메모리(350)에 저장된 후 프로세서(340)를 통해 디스플레이(320)에서 디스플레이 될 수 있다. 또한, 상기 이미지는 상기 메모리(350)에 저장 없이, 바로 프로세서(340)를 이용하여 디스플레이(320)를 통해 디스플레이 될 수 있다. 또한, 카메라(310)는 화각을 가질 수 있다. 이 때, 화각은 예를 들어 카메라(310) 주변에 위치하는 리얼 오브젝트를 디텍트할 수 있는 영역을 의미한다. 카메라(310)는 화각내에 위치하는 리얼 오브젝트만을 디텍트할 수 있다. 리얼 오브젝트가 카메라(310)의 화각 내에 위치하는 경우, XR 장치(300)는 리얼 오브젝트에 대응하는 증강 현실 오브젝트를 디스플레이 할 수 있다. 또한, 카메라(310)는 카메라(310)와 리얼 오브젝트의 각도를 디텍트할 수 있다.The camera 310 may capture an environment around the XR device 300 and convert it into an electrical signal. The image captured by the camera 310 and converted into an electrical signal may be stored in the memory 350 and then displayed on the display 320 through the processor 340 . In addition, the image may be directly displayed through the display 320 using the processor 340 without being stored in the memory 350 . Also, the camera 310 may have an angle of view. In this case, the angle of view means, for example, an area capable of detecting a real object positioned around the camera 310 . The camera 310 may detect only real objects located within the angle of view. When the real object is located within the angle of view of the camera 310 , the XR apparatus 300 may display the augmented reality object corresponding to the real object. Also, the camera 310 may detect the angle between the camera 310 and the real object.

센서(330)는 적어도 하나의 센서를 포함할 수 있으며, 예를 들어, 중력(gravity) 센서, 지자기 센서, 모션 센서, 자이로 센서, 가속도 센서, 기울임(inclination) 센서, 밝기 센서, 고도 센서, 후각 센서, 온도 센서, 뎁스 센서, 압력 센서, 벤딩 센서, 오디오 센서, 비디오 센서, GPS(Global Positioning System) 센서, 터치 센서 등의 센싱 수단을 포함한다. 나아가, 디스플레이(320)는 고정형일 수도 있으나, 높은 플렉시빌러티(flexibility)를 갖도록 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), ELD(Electro Luminescent Display), M-LED(Micro LED)로 구현 가능하다. 이 때, 상기 센서(330)는 전술한 LCD, OLED, ELD, M-LED (마이크로폰으로 LED) 등으로 구현된 디스플레이(320)의 휘어짐, 벤딩(Bending) 정도를 디텍트 하도록 설계한다.The sensor 330 may include at least one sensor, for example, a gravity sensor, a geomagnetic sensor, a motion sensor, a gyro sensor, an acceleration sensor, an inclination sensor, a brightness sensor, an altitude sensor, and an olfactory sense. and sensing means such as a sensor, a temperature sensor, a depth sensor, a pressure sensor, a bending sensor, an audio sensor, a video sensor, a global positioning system (GPS) sensor, and a touch sensor. Furthermore, although the display 320 may be of a fixed type, a liquid crystal display (LCD), an organic light emitting diode (OLED), an electro luminescent display (ELD), a micro LED (M-LED) to have high flexibility can be implemented with At this time, the sensor 330 is designed to detect the degree of bending and bending of the display 320 implemented with the aforementioned LCD, OLED, ELD, M-LED (LED as a microphone), and the like.

메모리(350)는 카메라(310)에 의해 촬영된 이미지를 저장하는 기능을 가지고 있을 뿐만 아니라, 외부 장치 또는 서버와 유선/무선으로 통신을 수행한 결과값의 전부 또는 일부를 저장하는 기능을 가지고 있다. The memory 350 not only has a function of storing an image captured by the camera 310, but also has a function of storing all or part of a result value obtained by performing wired/wireless communication with an external device or server. .

XR 장치(300)는 러닝 프로세서를 더 포함할 수 있다. 러닝 프로세서는, 프로세서(340)와 별도로 구성되거나, 프로세서(340)의 하위 개념으로 분류될 수도 잇다.The XR device 300 may further include a learning processor. The learning processor may be configured separately from the processor 340 or may be classified as a sub-concept of the processor 340 .

XR 장치(300)는 학습모델을 탑재할 수 있다. 학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(350)에 저장될 수 있다.The XR device 300 may be equipped with a learning model. The learning model may be implemented in hardware, software, or a combination of hardware and software. When a part or all of the learning model is implemented in software, one or more instructions constituting the learning model may be stored in the memory 350 .

본 발명의 실시예들에 따른 러닝 프로세서는 프로세서(340)와 통신 가능하도록 연결될 수 있으며, 훈련 데이터를 이용하여 인공 신경망으로 구성된 모델을 반복적으로 학습시킬 수 있다. 인공신경망은 생물학적 뉴런의 동작원리와 뉴런간의 연결 관계를 모델링한 것으로 노드(node) 또는 처리 요소(processing element)라고 하는 다수의 뉴런들이 레이어(layer) 구조의 형태로 연결된 정보처리 시스템이다. 인공 신경망은 기계 학습에서 사용되는 모델로써, 기계학습과 인지과학에서 생물학의 신경망(동물의 중추신경계 중 특히 뇌)에서 영감을 얻은 통계학적 학습 알고리즘이다. 기계 학습은 머신 러닝(Machine Learning)과 혼용되어 사용될 수 있다. 머신 러닝은 인공지능(Artificial Intelligence, AI)의 한 분야로, 컴퓨터에 명시적인 프로그램 없이 배울 수 있는 능력을 부여하는 기술이다. 머신 러닝은 경험적 데이터를 기반으로 학습을 하고 예측을 수행하고 스스로의 성능을 향상시키는 시스템과 이를 위한 알고리즘을 연구하고 구축하는 기술이다. 따라서 본 발명의 실시예들에 따른 러닝 프로세서는 인공 신경망을 반복 학습시킴으로서, 인공 신경망의 최적화된 모델 파라미터들을 결정하여 새로운 입력 데이터에 대하여 결과 값을 추론할 수 있다. 따라서 러닝 프로세서는 사용자의 디바이스 사용 히스토리 정보를 기반으로 사용자의 디바이스 사용 패턴을 분석할 수 있다. 또한, 러닝 프로세서는 데이터 마이닝, 데이터 분석, 지능형 의사 결정, 및 기계 학습 알고리즘 및 기술을 위해 이용될 정보를 수신, 분류, 저장 및 출력하도록 구성될 수 있다.The learning processor according to embodiments of the present invention may be communicatively connected to the processor 340, and may repeatedly learn a model composed of an artificial neural network using training data. An artificial neural network is an information processing system in which a number of neurons called nodes or processing elements are connected in the form of a layer structure by modeling the operating principle of biological neurons and the connection relationship between neurons. Artificial neural network is a model used in machine learning, and it is a statistical learning algorithm inspired by neural networks in biology (especially the brain in the central nervous system of animals) in machine learning and cognitive science. Machine learning can be used interchangeably with machine learning. Machine learning is a branch of artificial intelligence (AI), a technology that gives computers the ability to learn without an explicit program. Machine learning is a technology that studies and builds algorithms and systems that learn based on empirical data, make predictions, and improve their own performance. Accordingly, the learning processor according to embodiments of the present invention may determine the optimized model parameters of the artificial neural network by iteratively learning the artificial neural network, and infer a result value with respect to new input data. Accordingly, the learning processor may analyze the user's device usage pattern based on the user's device usage history information. Additionally, the learning processor may be configured to receive, classify, store, and output information to be used for data mining, data analysis, intelligent decision-making, and machine learning algorithms and techniques.

본 발명의 실시예들에 따른 프로세서(340)는 러닝 프로세서에서 분석되거나 생성된 데이터를 기반으로 디바이스의 적어도 하나의 실행 가능한 동작을 결정 또는 예측할 수 있다. 또한 프로세서(340)는 러닝 프로세서의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 XR 장치(300)를 제어할 수 있다. 본 발명의 실시예들에 따른 프로세서(340)는 지능적 에뮬레이션(즉, 지식 기반 시스템, 추론 시스템 및 지식 획득 시스템)을 구현하는 다양한 기능을 수행할 수 있다. 이는 적응 시스템, 기계 학습 시스템, 인공 신경망 등을 포함하는, 다양한 유형의 시스템(예컨대, 퍼지 논리 시스템)에 적용될 수 있다. 즉, 프로세서(340)는 러닝 프로세서에서 사용자의 디바이스 사용 패턴을 분석한 데이터를 기반으로 추후 사용자 디바이스 사용 패턴을 예측하여 XR 장치(300)는 사용자에게 보다 적합한 XR 서비스를 제공할 수 있도록 제어할 수 있다. The processor 340 according to embodiments of the present invention may determine or predict at least one executable operation of the device based on data analyzed or generated by the learning processor. In addition, the processor 340 may request, search, receive, or utilize the data of the learning processor, and may control the XR device 300 to execute a predicted operation or an operation determined to be desirable among at least one executable operation. there is. The processor 340 according to embodiments of the present invention may perform various functions for implementing intelligent emulation (ie, a knowledge-based system, an inference system, and a knowledge acquisition system). It can be applied to various types of systems (eg, fuzzy logic systems), including adaptive systems, machine learning systems, artificial neural networks, and the like. That is, the processor 340 predicts a future user device usage pattern based on data analyzed by the user's device usage pattern in the learning processor, so that the XR apparatus 300 can be controlled to provide a more suitable XR service to the user. there is.

도 4는 본 발명의 실시예에 따른 시스템의 신호 흐름도이다.4 is a signal flow diagram of a system according to an embodiment of the present invention.

도 5는 본 발명의 실시예에 따른 교육 컨텐츠 제공 장치의 플로우 차트이다.5 is a flowchart of an apparatus for providing educational content according to an embodiment of the present invention.

도 6은 본 발명의 실시예에 따른 시스템의 동작을 설명하는데 참조되는 도면이다.6 is a diagram referenced for explaining the operation of a system according to an embodiment of the present invention.

도면을 참조하면, 이하의 설명에서 특별한 언급이 없는한 XR 장치(300)의 동작은, 프로세서(340)의 제어에 따라 이루어지고, 교육 콘텐츠 제공 장치(100)의 동작은, 프로세서(170)의 제어에 따라 이루어진다.Referring to the drawings, the operation of the XR device 300 is performed under the control of the processor 340 , and the operation of the educational content providing device 100 is performed by the processor 170 unless otherwise specified in the following description. done under control.

XR 장치(300)는, XR 영상을 이용한 비대면 교육 애플리케이션을 구동할 수 있다(S401). XR 장치(300)는, 센서(330)를 통해 사용자 입력을 수신하여, 애플리케이션을 구동할 수 있다. 예를 들면, XR 장치(300)는, 모션 센서를 통해 생성되는 신호에 기초하여, 애플리케이션을 구동할 수 있다. XR 장치(300)는, XR 장치(300)와 페어링된 사용자의 이동 단말기로부터, 통신 모듈(360)을 통해 수신되는 신호에 기초하여, 애플리케이션을 구동할 수 있다.The XR device 300 may drive a non-face-to-face education application using the XR image (S401). The XR device 300 may receive a user input through the sensor 330 to drive an application. For example, the XR device 300 may drive an application based on a signal generated through a motion sensor. The XR device 300 may drive an application based on a signal received from the user's mobile terminal paired with the XR device 300 through the communication module 360 .

XR 장치(300)는, 제1 교육 컨텐츠를 선택할 수 있다(S404). XR 장치(300)는, 센서를 통해 사용자 입력을 수신하여, 제1 교육 컨텐츠를 선택할 수 있다. XR 장치(300)는, 통신 모듈(360)을 통해 사용자 입력을 수신하여, 제1 교육 컨텐츠를 선택할 수 있다.The XR device 300 may select the first educational content (S404). The XR device 300 may receive a user input through a sensor and select the first educational content. The XR device 300 may receive a user input through the communication module 360 to select the first educational content.

XR 장치(300)는, 통신 모듈(360)을 통해, 교육 컨텐츠 제공 장치(100)에, 제1 교육 컨텐츠를 요청할 수 있다(S407). 교육 컨텐츠 제공 장치(100)는, XR 장치(300)로부터, 통신부(110)를 통해, 제1 교육 콘텐츠를 요청받을 수 있다(S407).The XR device 300 may request the first education content from the education content providing apparatus 100 through the communication module 360 (S407). The educational content providing apparatus 100 may receive a request for the first educational content from the XR device 300 through the communication unit 110 (S407).

프로세서(170)는, XR 장치(300)로부터 제1 교육 콘텐츠를 요청받는 경우, VR 영상 제공 장치(20)에, 제1 교육 컨텐츠와 연관된 제1 VR 영상을 요청할 수 있다(S411).When the first educational content is requested from the XR device 300 , the processor 170 may request the VR image providing device 20 for a first VR image associated with the first educational content ( S411 ).

프로세서(170)는, VR 영상 제공 장치(20)로부터, 제1 교육 컨텐츠와 연관된 제1 VR 영상을 제공받을 수 있다(S413).The processor 170 may receive a first VR image associated with the first educational content from the VR image providing apparatus 20 ( S413 ).

VR(Virtual Reality) 영상은, 가상 공간을 제공하기 위한 영상으로 정의할 수 있다. VR 영상은, 360도 카메라로 촬영된 360도 VR 영상일 수 있다. VR 영상은, XR 장치(300)의 사용자 시점으로 가상 현실을 인지할 수 있도록 촬영된 영상으로 설명될 수 있다.A virtual reality (VR) image may be defined as an image for providing a virtual space. The VR image may be a 360-degree VR image captured by a 360-degree camera. The VR image may be described as an image captured to recognize virtual reality from the user's point of view of the XR device 300 .

VR 영상은, 교육 컨텐츠와 연관된 공간을 촬영한 영상일 수 있다. 예를 들면, 영어 교육 컨텐츠가 특정 상황에 관한 것인 경우, VR 영상은, 해당 상황에 적합한 공간을 촬영한 영상일 수 있다. 예를 들면, 영어 교육 컨텐츠가 특정 국가에 관한 것인 경우, VR 영상은, 해당 국가의 랜드 마크를 촬영한 영상일 수 있다. 예를 들면, 영어 교육 컨텐츠가 특정 장소(예를 들면, 바다, 산, 강, 해변 등)에 관한 것인 경우, VR 영상은 해당 장소를 촬영한 영상일 수 있다.The VR image may be an image of a space related to educational content. For example, if the English education content relates to a specific situation, the VR image may be an image of a space suitable for the corresponding situation. For example, if the English education content relates to a specific country, the VR image may be an image of a landmark of the corresponding country. For example, if the English education content relates to a specific place (eg, sea, mountain, river, beach, etc.), the VR image may be an image of the corresponding place.

프로세서(170)는, XR 장치(300)에, 통신부(110)를 통해, 제1 VR 영상에 기초하여 생성된 제1 XR 영상을 이용한 제1 교육 컨텐츠를 제공할 수 있다(S420).The processor 170 may provide the first educational content using the first XR image generated based on the first VR image to the XR device 300 through the communication unit 110 ( S420 ).

확장 현실(eXtended Reality, XR)은, 가상 현실 (VR), 증강 현실 (AR), 혼합 현실을 포함하여 사용자에게 제시하기 전에 어떤 방식으로든 조작된 전자 기반 현실의 형태를 지칭할 수 있다. 확장 현실은 하이브리드 현실, 시뮬레이션 현실, 몰입형 현실, 홀로그래피 또는 이들의 조합으로 구성될 수 있다. 예를 들면, "확장된 현실"콘텐츠는 완전히 컴퓨터 생성 콘텐츠 또는 캡처된 콘텐츠 (예를 들어, 실제 이미지)와 결합 된 부분적으로 컴퓨터 생성 콘텐츠를 포함 할 수 있다.Extended reality (eXtended Reality, XR) may refer to a form of electronically based reality that has been manipulated in any way prior to presentation to a user, including virtual reality (VR), augmented reality (AR), and mixed reality. Extended reality may consist of hybrid reality, simulated reality, immersive reality, holography, or a combination thereof. For example, “extended reality” content may include fully computer-generated content or partially computer-generated content combined with captured content (eg, real-world images).

XR(eXtended Reality) 영상은, VR 영상과 비교하여 현실과 가상 간의 인터랙션이 더욱 강화된 영상으로 정의될 수 있다. VR 영상은, 교육 컨텐츠와 연관된 가상의 공간을 제공하는 영상이고, XR 영상은, 가상 공간에 존재하는 강사 이미지까지 반영된 영상으로 설명될 수 있다.An eXtended Reality (XR) image may be defined as an image in which interaction between reality and virtual reality is further enhanced as compared to a VR image. A VR image may be an image providing a virtual space related to educational content, and an XR image may be described as an image reflecting an image of an instructor existing in the virtual space.

S420 단계는, S421 단계, S424 단계, S427 단계, S431 단계, S434 단계, S437 단계, S441 단계, S444 단계, S447 단계 및 S451 단계를 포함할 수 있다.Step S420 may include steps S421, S424, S427, S431, S434, S437, S441, S444, S447, and S451.

프로세서(170)는, 디스플레이(150)에, 제1 VR 영상을 출력할 수 있다(S421). The processor 170 may output the first VR image to the display 150 (S421).

프로세서(170)는, 카메라(120)를 통해, 제1 강사 영상을 획득할 수 있다(S424). 제1 강사 영상은, 강사가 디스플레이(150)에 표시된 제1 VR 영상을 보면서 강의를 하는 모습을 촬영한 영상일 수 있다. 제1 강사 영상은, 제1 VR 영상에 표시된 제1 오브젝트(610)에 대해 설명하는 영상일 수 있다.The processor 170 may acquire the first instructor image through the camera 120 (S424). The first instructor image may be an image of the instructor giving a lecture while viewing the first VR image displayed on the display 150 . The first instructor image may be an image explaining the first object 610 displayed in the first VR image.

제1 강사 영상은, 마이크로폰(130)을 통해, 획득된 강사의 음성도 포함하는 개념이다.The first instructor image is a concept including the instructor's voice acquired through the microphone 130 .

카메라(120)는, 여러 각도에서 강사를 촬영할 수 있도록 복수개로 구성될 수 있다. 복수의 카메라(120)는 각각의 화각이 상호간에 적어도 일부가 겹치게 배치될 수 있다. 프로세서(170)는, 복수의 카메라(120)로부터 획득된 영상을 합성하여, 강사를 360도에서 바라보는 영상을 생성할 수 있다.The camera 120 may be configured in plurality to photograph the instructor from various angles. The plurality of cameras 120 may be disposed so that at least a portion of the respective angles of view overlaps each other. The processor 170 may synthesize the images obtained from the plurality of cameras 120 to generate an image viewing the instructor from 360 degrees.

실시예에 따라, 복수의 카메라(120)는, 스테레오 카메라로 구성될 수 있다. 프로세서(170)는, 복수의 카메라(120)로부터 획득된 스테레오 영상을 합성하여, 강사에 대한 뎁스가 표현되면서 강사를 360도에서 바라보는 영상을 생성할 수 있다.According to an embodiment, the plurality of cameras 120 may be configured as a stereo camera. The processor 170 may synthesize the stereo images obtained from the plurality of cameras 120 to generate an image viewing the instructor from 360 degrees while expressing the depth of the instructor.

프로세서(170)는, 제1 VR 영상과 제1 강사 영상을 합성하여, 제1 XR 영상을 생성할 수 있다(S427).The processor 170 may generate a first XR image by synthesizing the first VR image and the first instructor image (S427).

S427 단계는, S510 단계, S520 단계 및 S530 단계를 포함할 수 있다.Step S427 may include steps S510, S520, and S530.

프로세서(170)는, 제1 VR 영상에 기초하여, 3차원 가상 공간(600)을 생성할 수 있다(S510).The processor 170 may generate the 3D virtual space 600 based on the first VR image (S510).

프로세서(170)는, 제1 강사 영상에서 강사에 대한 제2 오브젝트(620)를 추출할 수 있다(S520).The processor 170 may extract the second object 620 of the instructor from the first instructor image (S520).

프로세서(170)는, 가상 공간(600)에 제2 오브젝트(620)를 삽입할 수 있다(S530). 프로세서(170)는, 삽입하는 단계(S530)에서, XR 장치(300) 사용자(예를 들면, 수강생)가 바라보는 시점을 기준으로, 가상 공간(600)에서 제1 오브젝트(610)가 위치하는 영역을 제외한 영역에 제2 오브젝트(620)를 삽입할 수 있다.The processor 170 may insert the second object 620 into the virtual space 600 ( S530 ). The processor 170, in the inserting step (S530), the first object 610 in the virtual space 600 based on the viewpoint viewed by the user (eg, a student) of the XR device 300 is located The second object 620 may be inserted in an area other than the area.

카메라(120)는, 여러 각도에서 강사를 촬영할 수 있도록 복수개로 구성될 수 있다. 복수의 카메라(120)는 각각의 화각이 상호간에 적어도 일부가 겹치게 배치될 수 있다. 프로세서(170)는, 복수의 카메라(120)로부터 획득된 영상을 합성하여, 강사를 360도에서 바라보는 영상을 생성할 수 있다.The camera 120 may be configured in plurality to photograph the instructor from various angles. The plurality of cameras 120 may be disposed so that at least a portion of the respective angles of view overlaps each other. The processor 170 may synthesize the images obtained from the plurality of cameras 120 to generate an image viewing the instructor from 360 degrees.

실시예에 따라, 복수의 카메라(120)는, 스테레오 카메라로 구성될 수 있다. 프로세서(170)는, 복수의 카메라(120)로부터 획득된 스테레오 영상을 합성하여, 강사에 대한 뎁스가 표현되면서 강사를 360도에서 바라보는 영상을 생성할 수 있다.According to an embodiment, the plurality of cameras 120 may be configured as a stereo camera. The processor 170 may synthesize the stereo images obtained from the plurality of cameras 120 to generate an image viewing the instructor from 360 degrees while expressing the depth of the instructor.

프로세서(170)는, 강사에 대한 뎁스 데이터를 반영하여, 가상 공간(600)에 제2 오브젝트(620)를 삽입할 수 있다. 예를 들면, 프로세서(170)는, 교육 컨텐츠 제공 장치(100) 스테레오 카메라(120)로부터 획득된 강사의 뎁스 데이터를 수신할 수 있다. 프로세서(170)는, 가상 공간(600)에 제2 오브젝트(620)를 삽입할 때, 제2 오브젝트(620)의 뎁스 데이터를 반영하여, 가상 공간 내에서의 제2 오브젝트(620)의 크기, 형상, 위치 중 적어도 어느 하나를 결정할 수 있다.The processor 170 may insert the second object 620 into the virtual space 600 by reflecting the depth data for the instructor. For example, the processor 170 may receive the instructor's depth data obtained from the stereo camera 120 of the educational content providing apparatus 100 . When the second object 620 is inserted into the virtual space 600 , the processor 170 reflects the depth data of the second object 620 to determine the size of the second object 620 in the virtual space; At least one of a shape and a position may be determined.

프로세서(170)는, 가상 공간(600) 내에서 XR 장치(300) 사용자를 기준으로, 제2 오브젝트(620)의 뎁스를 조절할 수 있다. 프로세서(170)는, 강사가 설명하는 VR 영상 내의 오브젝트와 같은 뎁스를 가지도록 제2 오브젝트(620)의 뎁스를 조절할 수 있다. The processor 170 may adjust the depth of the second object 620 in the virtual space 600 based on the user of the XR apparatus 300 . The processor 170 may adjust the depth of the second object 620 to have the same depth as the object in the VR image described by the instructor.

프로세서(170)는, 강사가 제1a 오브젝트에 대해 설명하는 경우, 강사의 발화 내용을 분석하여, VR 영상 내에서 제1a 오브젝트를 특정할 수 있다. 프로세서(170)는, 제2 오브젝트(620)가 제1a 오브젝트와 같은 뎁스를 가지도록 제2 오브젝트(620)의 뎁스를 제1 값으로 조절할 수 있다.When the instructor explains the object 1a, the processor 170 may analyze the lecturer's utterance to specify the object 1a in the VR image. The processor 170 may adjust the depth of the second object 620 to the first value so that the second object 620 has the same depth as the object 1a.

프로세서(170)는, 강사가 제1a 오브젝트에 대한 설명에서 제1b 오브젝트에 대한 설명으로 전환하는 경우, 강사의 발화 내용을 분석하여, VR 영상 내에서 제1b 오브젝트를 특정할 수 있다. 프로세서(170)는, 제2 오브젝트가 제1b 오브젝트와 같은 뎁스를 가지도록 제2 오브젝트(620)의 뎁스를 제1 값에서 제2 값으로 전환할 수 있다.When the instructor switches from the description of the object 1a to the description of the object 1b, the processor 170 may analyze the lecturer's utterance and specify the object 1b in the VR image. The processor 170 may convert the depth of the second object 620 from the first value to the second value so that the second object has the same depth as the first object 1b.

프로세서(170)는, XR 장치(300)에, 통신부(110)를 통해, 제1 XR 영상을 제공할 수 있다(S431). XR 장치(300)는, 통신 모듈(360)을 통해, 교육 컨텐츠 제공 장치(100)로부터, 제1 XR 영상을 수신할 수 있다(S431).The processor 170 may provide the first XR image to the XR device 300 through the communication unit 110 ( S431 ). The XR device 300 may receive the first XR image from the education content providing device 100 through the communication module 360 ( S431 ).

XR 장치(300)는, 디스플레이(320)에, 제1 XR 영상을 출력할 수 있다(S434).The XR apparatus 300 may output the first XR image to the display 320 (S434).

XR 장치(300)는, 오디오 센서를 통해, 사용자 음성을 획득할 수 있다(S437). 여기서, 사용자 음성은, 제1 XR 영상과 연관되어 사용자가 발화함에 따라 생성되는 음성일 수 있다.The XR device 300 may acquire the user's voice through the audio sensor (S437). Here, the user's voice may be a voice generated as the user utters in association with the first XR image.

XR 장치(300)는, 통신 모듈(360)을 통해, 음성 데이터를 교육 컨텐츠 제공 장치(100)에 전송할 수 있다(S441). 교육 컨텐츠 제공 장치(100)는, 통신부(110)를 통해, 수강생의 음성 데이터를 수신할 수 있다(S441).The XR device 300 may transmit voice data to the education content providing device 100 through the communication module 360 (S441). The educational content providing apparatus 100 may receive the student's voice data through the communication unit 110 (S441).

프로세서(170)는, 수강생의 음성 데이터와 연관된 제2 강사 영상을 획득할 수 있다(S447). 제2 강사 영상은, 강사가 수강생의 음성을 듣고 리액션 하는 모습을 촬영한 영상일 수 있다.The processor 170 may acquire a second instructor image related to the student's voice data (S447). The second instructor video may be a video of the instructor listening to the student's voice and reacting.

제2 강사 영상은, 마이크로폰(130)을 통해, 획득된 강사의 음성도 포함하는 개념이다.The second instructor image is a concept including the instructor's voice acquired through the microphone 130 .

프로세서(170)는, 제1 VR 영상과 제2 강사 영상을 합성하여, 제2 XR 영상을 생성할 수 있다(S447).The processor 170 may generate a second XR image by synthesizing the first VR image and the second instructor image (S447).

S447 단계는, S510 단계, S520 단계 및 S530 단계를 포함할 수 있다.Step S447 may include steps S510, S520, and S530.

프로세서(170)는, 제1 VR 영상에 기초하여, 3차원 가상 공간(600)을 생성할 수 있다(S510).The processor 170 may generate the 3D virtual space 600 based on the first VR image (S510).

프로세서(170)는, 제2 강사 영상에서 강사에 대한 제2 오브젝트(620)를 추출할 수 있다(S520).The processor 170 may extract the second object 620 of the instructor from the second instructor image (S520).

프로세서(170)는, 가상 공간(600)에 제2 오브젝트(620)를 삽입할 수 있다(S530). The processor 170 may insert the second object 620 into the virtual space 600 ( S530 ).

프로세서(170)는, XR 장치(300)에, 통신부(110)를 통해, 제2 XR 영상을 제공할 수 있다(S451). XR 장치(300)는, 통신 모듈(360)을 통해, 교육 컨텐츠 제공 장치(100)로부터, 제2 XR 영상을 수신할 수 있다(S451).The processor 170 may provide the second XR image to the XR device 300 through the communication unit 110 (S451). The XR device 300 may receive the second XR image from the education content providing device 100 through the communication module 360 ( S451 ).

이후에, XR 장치(300)는, 디스플레이(320)에, 제2 XR 영상을 출력하고, 오디오 센서를 통해, 사용자 음성을 획득할 수 있다. Thereafter, the XR apparatus 300 may output a second XR image to the display 320 and obtain a user's voice through an audio sensor.

XR 장치(300)가, 사용자 입력에 따라 컨텐츠를 변경(S454)하기 전까지 S420 단계는 반복될 수 있다.Step S420 may be repeated until the XR device 300 changes the content according to the user input ( S454 ).

이와 같이, 수강생과 강사가 물리적으로 다른 공간에 있지만, XR 영상을 통해, 비대면 교육을 수행함으로써, 수강생이 강사와 함께 교육 컨텐츠와 연관된 가상 공간에서 대화를 하는 것으로 느낄 수 있다. 이를 통해, 보다 교육 몰입도가 높아지게 된다. 또한, 강사가 수강생과 교육 컨텐츠와 연관된 가상 공간에서 수업을 진행하기 때문에 방문 교육을 수행하는 것과 같은 효과를 누릴 수 있다.As described above, although the learner and the instructor are physically in different spaces, by performing non-face-to-face training through the XR image, the student can feel that they are having a conversation with the instructor in a virtual space related to the educational content. Through this, more immersion in education is increased. In addition, since the instructor conducts the class in a virtual space related to the students and the educational content, it is possible to enjoy the same effect as performing a visiting education.

XR 장치(300)를 통해, 제2 컨텐츠로 컨텐츠 변경이 이루어지는 경우(S454), 제2 교육 컨텐츠 관련 프로세스를 진행할 수 있다(S460).When the content is changed to the second content through the XR device 300 (S454), a process related to the second educational content may be performed (S460).

XR 장치(300)를 통해, 종료가 입력되는 경우, 프로세스를 종료할 수 있다.Through the XR device 300 , when termination is input, the process may be terminated.

한편, 본 명세서에서 설명되는 XR 영상은 XR 장치(300) 착용자를 중심으로 바라본 전방향에 대한 이미지를 제공함으로써 가상의 공간을 생성한다. 영상은 360도 XR 디지털 영상으로 명명될 수 있다.Meanwhile, the XR image described in this specification creates a virtual space by providing an image of the omnidirectional view centered on the wearer of the XR device 300 . The image may be referred to as a 360 degree XR digital image.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be implemented as computer-readable codes on a medium in which a program is recorded. The computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (eg, transmission over the Internet) that is implemented in the form of. In addition, the computer may include a processor or a control unit. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

1 : 교육 시스템
20 : VR 영상 제공 장치
100 : 교육 컨텐츠 제공 장치
110 : 통신부
120 : 카메라
170 : 프로세서
300 : XR 장치
1: Education system
20: VR image providing device
100: educational content providing device
110: communication department
120: camera
170: processor
300: XR unit

Claims (5)

프로세서가, XR(eXtended Reality) 장치로부터, 통신부를 통해, 제1 교육 컨텐츠를 요청받는 단계;
프로세서가, VR(Virtual Reality) 영상 제공 장치로부터, 상기 제1 교육 컨텐츠의 특정 상황과 연관된 공간이 촬영된 영상으로 가상 공간을 제공하는 제1 VR 영상을 제공받는 단계; 및
프로세서가, 상기 XR 장치에, 통신부를 통해, 상기 가상 공간에 존재하는 강사 이미지까지 반영된 제1 XR 영상을 이용한 상기 제1 교육 컨텐츠를 제공하는 단계;를 포함하고,
상기 제1 교육 컨텐츠를 제공하는 단계는,
프로세서가, 상기 제1 VR 영상을 디스플레이에 출력하는 단계;
프로세서가, 화각이 상호간에 적어도 일부가 겹치게 배치되는 복수의 스테레오 카메라를 통해, 상기 제1 VR 영상에 표시된 제1 오브젝트에 대해 설명하는 영상인 제1 강사 영상을 획득하고, 상기 복수의 스테레오 카메라로부터 획득된 스테레오 영상을 합성하여, 강사에 대한 뎁스가 표현되면서 강사를 360도에서 바라보는 영상을 생성하는 단계;
프로세서가, 상기 제1 VR 영상과 상기 제1 강사 영상을 합성하여 제1 XR 영상을 생성하는 단계; 및
프로세서가, 상기 XR 장치에, 통신부를 통해, 상기 제1 XR 영상을 제공하는 단계;를 포함하고,
상기 제1 XR 영상을 생성하는 단계는,
프로세서가, 상기 제1 VR 영상에 기초하여 3차원 가상 공간을 생성하는 단계;
프로세서가, 상기 제1 강사 영상에서 강사에 대한 제2 오브젝트를 추출하는 단계; 및
프로세서가, 상기 가상 공간에 상기 제2 오브젝트를 삽입하는 단계;를 포함하고,
상기 삽입하는 단계는,
프로세서가, 강사에 대한 뎁스 데이터에 따라 상기 제2 오브젝트의 크기, 형상 및 위치를 결정하여 상기 가상 공간에 삽입하고, 상기 제1 오브젝트와 같은 뎁스를 가지도록 상기 제2 오브젝트의 뎁스를 조절하되,
강사의 설명이 제1a 오브젝트에 관한 것인 경우, 강사의 발화 내용을 분석하여, 상기 VR 영상 내에서 상기 제1a 오브젝트를 특정하고, 상기 제2 오브젝트가 상기 제1a 오브젝트와 같은 뎁스를 가지도록 상기 제2 오브젝트의 뎁스를 제1 값으로 조절하고,
강사의 설명이 제1a 오브젝트에서 제1b 오브젝트로 전환되는 경우, 강사의 발화 내용을 분석하여, 상기 VR 영상 내에서 상기 제1b 오브젝트를 특정하고, 상기 제2 오브젝트가 상기 제1b 오브젝트와 같은 뎁스를 가지도록 상기 제2 오브젝트의 뎁스를 상기 제1 값에서 제2 값으로 전환하는 XR 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법.
receiving, by the processor, a request for first educational content from an eXtended Reality (XR) device through a communication unit;
receiving, by the processor, a first VR image for providing a virtual space as an image of a space associated with a specific situation of the first educational content from a VR (Virtual Reality) image providing device; and
providing, by a processor, the first educational content using a first XR image reflected up to an instructor image existing in the virtual space through a communication unit to the XR device;
The step of providing the first educational content,
outputting, by the processor, the first VR image to a display;
The processor acquires a first instructor image, which is an image describing a first object displayed in the first VR image, through a plurality of stereo cameras having an angle of view arranged at least partially overlapping each other, and from the plurality of stereo cameras synthesizing the obtained stereo images to generate an image viewing the instructor from 360 degrees while expressing the depth of the instructor;
generating, by a processor, a first XR image by synthesizing the first VR image and the first instructor image; and
providing, by a processor, the first XR image to the XR device through a communication unit;
The generating of the first XR image comprises:
generating, by the processor, a three-dimensional virtual space based on the first VR image;
extracting, by the processor, a second object for the instructor from the first instructor image; and
Including, by the processor, inserting the second object into the virtual space;
The inserting step is
The processor determines the size, shape, and position of the second object according to the depth data for the instructor, inserts it into the virtual space, and adjusts the depth of the second object to have the same depth as the first object,
When the lecturer's description relates to the 1a object, the lecturer's speech is analyzed to specify the 1a object in the VR image, and the second object has the same depth as the 1a object. Adjust the depth of the second object to the first value,
When the lecturer's explanation is switched from object 1a to object 1b, the lecturer's speech is analyzed to specify the 1b object in the VR image, and the second object has the same depth as the 1b object. A method of providing non-face-to-face English educational content using an XR image for converting a depth of the second object from the first value to a second value so as to have the
삭제delete 삭제delete 제 1항에 있어서,
상기 삽입하는 단계는,
상기 가상 공간에서 상기 제1 오브젝트가 위치하는 영역을 제외한 영역에 상기 제2 오브젝트를 삽입하는 XR 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법.
The method of claim 1,
The inserting step is
A method of providing non-face-to-face English educational content using an XR image in which the second object is inserted in an area in the virtual space except for an area in which the first object is located.
제 1항에 있어서,
상기 제1 교육 컨텐츠를 제공하는 단계는,
프로세서가, 상기 XR 장치로부터, 통신부를 통해, 수강생의 음성 데이터를 수신하는 단계;
프로세서가, 상기 수강생의 음성 데이터와 연관된 제2 강사 영상을 획득하는 단계; 및
프로세서가, 상기 제1 VR 영상과 상기 제2 강사 영상을 합성하여 제2 XR 영상을 생성하는 단계;를 포함하는 XR 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법.


The method of claim 1,
The step of providing the first educational content,
receiving, by the processor, voice data of a learner from the XR device through a communication unit;
obtaining, by the processor, a second instructor image associated with the student's voice data; and
A method of providing non-face-to-face English education content using an XR image, comprising: a processor, generating a second XR image by synthesizing the first VR image and the second instructor image.


KR1020210019104A 2021-02-10 2021-02-10 Method of providing non-face-to-face English education contents using 360 degree digital XR images KR102359253B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210019104A KR102359253B1 (en) 2021-02-10 2021-02-10 Method of providing non-face-to-face English education contents using 360 degree digital XR images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210019104A KR102359253B1 (en) 2021-02-10 2021-02-10 Method of providing non-face-to-face English education contents using 360 degree digital XR images

Publications (1)

Publication Number Publication Date
KR102359253B1 true KR102359253B1 (en) 2022-02-28

Family

ID=80497299

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210019104A KR102359253B1 (en) 2021-02-10 2021-02-10 Method of providing non-face-to-face English education contents using 360 degree digital XR images

Country Status (1)

Country Link
KR (1) KR102359253B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102456134B1 (en) * 2022-07-20 2022-10-18 이아이피커뮤니케이션 주식회사 Method, device and system for creating 3d content of presenter participation type
KR102458703B1 (en) 2022-05-10 2022-10-25 (주)에어패스 Communication system between users in voice recognition-based XR content or metaverse content service
KR102622163B1 (en) 2023-07-10 2024-01-05 주식회사 스튜디오브이알 Online music teaching method and apparatus based on virtual reality
KR20240077808A (en) 2022-11-25 2024-06-03 (주)제이지파워넷 Communication System Between Users Using Smart Glass

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030017850A (en) 2001-08-23 2003-03-04 서영철 On-Line Education Method
KR20080073144A (en) * 2007-02-05 2008-08-08 최창국 English studying system which uses a panorama multimedia
KR20100073076A (en) * 2008-12-22 2010-07-01 한국전자통신연구원 Education apparatus and method using virtual reality
KR20190101323A (en) * 2019-08-12 2019-08-30 엘지전자 주식회사 Xr device for providing ar mode and vr mode and method for controlling the same
KR20200006064A (en) * 2017-04-19 2020-01-17 비도니 인코포레이티드 Augmented Reality Learning System and Method Using Motion Captured Virtual Hand
KR20200024441A (en) * 2018-08-28 2020-03-09 김영대 Smart Realtime Lecture, Lecture Capture and Tele-Presentation-Webinar, VR Class room, VR Conference method using Virtual/Augmented Reality Class Room and Artificial Intelligent Virtual Camera Switching technologies

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030017850A (en) 2001-08-23 2003-03-04 서영철 On-Line Education Method
KR20080073144A (en) * 2007-02-05 2008-08-08 최창국 English studying system which uses a panorama multimedia
KR20100073076A (en) * 2008-12-22 2010-07-01 한국전자통신연구원 Education apparatus and method using virtual reality
KR20200006064A (en) * 2017-04-19 2020-01-17 비도니 인코포레이티드 Augmented Reality Learning System and Method Using Motion Captured Virtual Hand
KR20200024441A (en) * 2018-08-28 2020-03-09 김영대 Smart Realtime Lecture, Lecture Capture and Tele-Presentation-Webinar, VR Class room, VR Conference method using Virtual/Augmented Reality Class Room and Artificial Intelligent Virtual Camera Switching technologies
KR20190101323A (en) * 2019-08-12 2019-08-30 엘지전자 주식회사 Xr device for providing ar mode and vr mode and method for controlling the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102458703B1 (en) 2022-05-10 2022-10-25 (주)에어패스 Communication system between users in voice recognition-based XR content or metaverse content service
KR102456134B1 (en) * 2022-07-20 2022-10-18 이아이피커뮤니케이션 주식회사 Method, device and system for creating 3d content of presenter participation type
KR20240077808A (en) 2022-11-25 2024-06-03 (주)제이지파워넷 Communication System Between Users Using Smart Glass
KR102622163B1 (en) 2023-07-10 2024-01-05 주식회사 스튜디오브이알 Online music teaching method and apparatus based on virtual reality

Similar Documents

Publication Publication Date Title
KR102359253B1 (en) Method of providing non-face-to-face English education contents using 360 degree digital XR images
JP7130057B2 (en) Hand Keypoint Recognition Model Training Method and Device, Hand Keypoint Recognition Method and Device, and Computer Program
JP7101315B2 (en) Systems and methods for converting image data into natural language descriptions
Gao et al. Visualechoes: Spatial image representation learning through echolocation
KR20210057611A (en) Artificial intelligence apparatus and method for recognizing object included in image data
CN111328400A (en) Meta-learning for multi-task learning of neural networks
KR20220145997A (en) Non-face-to-face real-time education method that uses 360-degree images and HMD, and is conducted within the metaverse space
CN109923462A (en) Sensing spectacles
EP4184927A1 (en) Sound effect adjusting method and apparatus, device, storage medium, and computer program product
KR20210039049A (en) An artificial intelligence apparatus for performing speech recognition and method for the same
CN111327772B (en) Method, device, equipment and storage medium for automatic voice response processing
KR20190100117A (en) Artificial intelligence-based control apparatus and method for home theater sound
KR20210078813A (en) An artificial intelligence apparatus for synthesizing image and method thereof
CN113168526A (en) System and method for virtual and augmented reality
US20200233489A1 (en) Gazed virtual object identification module, a system for implementing gaze translucency, and a related method
KR20210046170A (en) An artificial intelligence apparatus for generating recipe and method thereof
CN113763532A (en) Human-computer interaction method, device, equipment and medium based on three-dimensional virtual object
Stanney et al. Virtual environments in the 21st century
KR20190107616A (en) Artificial intelligence apparatus and method for generating named entity table
KR102231909B1 (en) Artificial intelligence device
KR20210052958A (en) An artificial intelligence server
CN112558759B (en) VR interaction method based on education, interaction development platform and storage medium
KR20190109714A (en) Method of providing learning service based on augmented reality, terminal, and software computer readable recording medium
US20240267695A1 (en) Neural radiance field systems and methods for synthesis of audio-visual scenes
US20240105173A1 (en) Method and apparatus for providing virtual space in which interaction with another entity is applied to entity

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant