KR102359253B1 - Method of providing non-face-to-face English education contents using 360 degree digital XR images - Google Patents
Method of providing non-face-to-face English education contents using 360 degree digital XR images Download PDFInfo
- Publication number
- KR102359253B1 KR102359253B1 KR1020210019104A KR20210019104A KR102359253B1 KR 102359253 B1 KR102359253 B1 KR 102359253B1 KR 1020210019104 A KR1020210019104 A KR 1020210019104A KR 20210019104 A KR20210019104 A KR 20210019104A KR 102359253 B1 KR102359253 B1 KR 102359253B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- processor
- instructor
- face
- providing
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000004891 communication Methods 0.000 claims abstract description 37
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000005452 bending Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 208000035473 Communicable disease Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000003169 central nervous system Anatomy 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000001093 holography Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/065—Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Software Systems (AREA)
- Marketing (AREA)
- Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Strategic Management (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Architecture (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
본 발명은 360도 XR 디지털 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법에 관한 것이다.The present invention relates to a method of providing non-face-to-face English education contents using a 360 degree XR digital image.
코로나 19등의 전염병의 유행에 따라 비대면, 비접촉식 교육에 대한 수요가 커지고 있다. 이러한 수요를 충족시키는 방법으로 공교육 영역 및 사교육 영역에서 온라인 교육이 활용되고 있다. 이러한 온라인 교육은, 기 생성되어 제공되는 교육 컨텐츠를 수강생이 자신의 단말기를 활용하여 재생함으로써 이루어지거나 강사와 수강생이 동시에 접속된 상태로 영상을 통해 강의를 진행하는 식으로 이루어진다.Demand for non-face-to-face and non-contact education is growing with the epidemic of infectious diseases such as Corona 19. Online education is being used in public education and private education as a way to meet this demand. Such online education is performed by the student playing the previously created and provided educational content using his/her own terminal, or the lecture is conducted through video while the instructor and the student are connected at the same time.
그러나, 유아, 어린이와 같이, 집중력이 상대적으로 낮은 수강생의 경우, 종래 기술에 따른 온라인 교육은 집중력의 부재로 오프 라인 교육에 비해 효율이 떨어질 수밖에 없다. 온라인 환경은 상호간의 교감이 이루어지기 힘들기 때문에, 집중력이 상대적으로 낮은 수강생의 관심을 유도하기 위한 교육 시스템 개발이 필요하다.However, in the case of students with relatively low concentration, such as infants and children, the online education according to the prior art is inevitably less efficient than the offline education due to the lack of concentration. Since it is difficult to communicate with each other in the online environment, it is necessary to develop an education system to induce the interest of students with relatively low concentration.
본 발명은 상기한 문제점을 해결하기 위하여, 유아, 어린이와 같이 집중력이 상대적으로 낮은 수강생도 강의에 몰입할 수 있도록 XR 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법을 제공하는데 목적이 있다.An object of the present invention is to provide a method for providing non-face-to-face English educational content using XR images so that even students with relatively low concentration, such as infants and children, can immerse themselves in the lecture in order to solve the above problems.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 XR 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법은, VR 영상에 기초하여 XR 영상을 생성하여 XR 장치에 제공한다.In order to achieve the above object, in the non-face-to-face English educational content providing method using an XR image according to an embodiment of the present invention, an XR image is generated based on a VR image and provided to the XR device.
XR 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법은, 프로세서가, XR(eXtended Reality) 장치로부터, 통신부를 통해, 제1 교육 컨텐츠를 요청받는 단계; 프로세서가, VR(Virtual Reality) 영상 제공 장치로부터, 제1 교육 컨텐츠와 연관된 제1 VR 영상을 제공받는 단계; 및 프로세서가, 상기 XR 장치에, 통신부를 통해, 상기 제1 VR영상에 기초하여 생성된 제1 XR 영상을 이용한 상기 제1 교육 컨텐츠를 제공하는 단계;를 포함한다.A method of providing non-face-to-face English educational content using an XR image, the method comprising: receiving, by a processor, a request for first educational content from an XR (eXtended Reality) device through a communication unit; receiving, by the processor, a first VR image associated with a first educational content from a virtual reality (VR) image providing device; and providing, by a processor, the first educational content using a first XR image generated based on the first VR image to the XR device through a communication unit.
상기 제1 교육 컨텐츠를 제공하는 단계는, 프로세서가, 상기 제1 VR 영상을 디스플레이에 출력하는 단계; 프로세서가, 카메라를 통해, 제1 강사 영상을 획득하는 단계; 프로세서가, 상기 제1 VR 영상과 상기 제1 강사 영상을 합성하여 제1 XR 영상을 생성하는 단계; 및 프로세서가, 상기 XR 장치에, 통신부를 통해, 상기 제1 XR 영상을 제공하는 단계;를 포함한다.The providing of the first educational content may include, by a processor, outputting the first VR image to a display; obtaining, by the processor, a first instructor image through a camera; generating, by a processor, a first XR image by synthesizing the first VR image and the first instructor image; and providing, by a processor, the first XR image to the XR device through a communication unit.
상기 제1 강사 영상은, 상기 제1 VR 영상에 표시된 제1 오브젝트에 대해 설명하는 영상이다.The first instructor image is an image explaining the first object displayed in the first VR image.
상기 제1 XR 영상을 생성하는 단계는, 프로세서가, 상기 제1 VR 영상에 기초하여 3차원 가상 공간을 생성하는 단계; 프로세서가, 상기 제1 강사 영상에서 강사에 대한 제2 오브젝트를 추출하는 단계; 및 프로세서가, 상기 가상 공간에 상기 제2 오브젝트를 삽입하는 단계;를 포함하고, 상기 삽입하는 단계는, 상기 가상 공간에서 상기 제1 오브젝트가 위치하는 영역을 제외한 영역에 상기 제2 오브젝트를 삽입한다.The generating of the first XR image may include: generating, by a processor, a 3D virtual space based on the first VR image; extracting, by the processor, a second object for the instructor from the first instructor image; and inserting, by a processor, the second object into the virtual space, wherein the inserting includes inserting the second object into an area in the virtual space except for an area in which the first object is located. .
상기 제1 교육 컨텐츠를 제공하는 단계는, 프로세서가, 상기 XR 장치로부터, 통신부를 통해, 수강생의 음성 데이터를 수신하는 단계; 프로세서가, 상기 수강생의 음성 데이터와 연관된 제2 강사 영상을 획득하는 단계; 및 프로세서가, 상기 제1 VR 영상과 상기 제2 강사 영상을 합성하여 제2 XR 영상을 생성하는 단계;를 포함한다.The providing of the first educational content may include: receiving, by a processor, voice data of a learner from the XR device through a communication unit; obtaining, by the processor, a second instructor image associated with the student's voice data; and generating, by the processor, a second XR image by synthesizing the first VR image and the second instructor image.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The details of other embodiments are included in the detailed description and drawings.
본 발명에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the present invention, there are one or more of the following effects.
첫째, XR 영상을 이용하여 유아, 어린이 등의 수강생이 비대면 영어 학습을 함에 있어서 몰입도가 향상되는 효과가 있다.First, there is an effect of improving immersion in non-face-to-face English learning by students such as infants and children using XR images.
둘째, XR을 이용함으로써, 강사와 수강생들간 효율적 교감이 이루어지는 효과가 있다.Second, by using XR, there is an effect of effective communication between the instructor and the students.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 실시예에 따른 시스템의 구성도이다.
도 2는 본 발명의 실시예에 따른 교육 컨텐츠 제공 장치의 제어 블럭도이다.
도 3은 본 발명의 실시예에 따른 XR 장치의 제어 블럭도이다.
도 4는 본 발명의 실시예에 따른 시스템의 신호 흐름도이다.
도 5는 본 발명의 실시예에 따른 교육 컨텐츠 제공 장치의 플로우 차트이다.
도 6은 본 발명의 실시예에 따른 시스템의 동작을 설명하는데 참조되는 도면이다.1 is a block diagram of a system according to an embodiment of the present invention.
2 is a control block diagram of an apparatus for providing educational content according to an embodiment of the present invention.
3 is a control block diagram of an XR apparatus according to an embodiment of the present invention.
4 is a signal flow diagram of a system according to an embodiment of the present invention.
5 is a flowchart of an apparatus for providing educational content according to an embodiment of the present invention.
6 is a diagram referenced for explaining the operation of a system according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numbers regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including an ordinal number such as 1st, 2nd, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expression includes the plural expression unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as “comprises” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
도 1은 본 발명의 실시예에 따른 시스템의 구성도이다.1 is a block diagram of a system according to an embodiment of the present invention.
도 1을 참조하면, 교육 시스템(1)은, XR(eXtended Reality) 기술을 이용하여, 비대면 교육을 수행하는 시스템이다. 교육 시스템(1)은, 비대면 영어 교육에 이용될 수 있다. 교육 시스템(1)은, 영어 외 다른 과목 교육에도 이용될 수 있다.Referring to FIG. 1 , an
교육 시스템(1)은, 유치원, 초등학교, 중학교, 고등학교에서 교육 컨텐츠를 학생에게 제공하는 공교육 영역에서 활용될 수 있다. 또한, 교육 시스템(1)은, 학원, 온라인 교육 플랫폼 등 사교육 영역에서 활용될 수 있다.The
유아, 어린이와 같이, 상대적으로 집중력이 떨어지는 수강생이 교육 시스템(1)을 활용하여 영어 교육 컨텐츠를 제공하는 대상일 수 있다.A learner with relatively low concentration, such as infants or children, may be a target for providing English education contents using the
XR 영상을 생성하는 경우, 강사 영상이 필요한데, 여기서 강사는 원어민 강사인 것이 바람직하다. 실시예에 따라, 강사는 내국인 강사일 수도 있다.When generating XR images, an instructor image is required, where the instructor is preferably a native speaker. According to an embodiment, the instructor may be a Korean instructor.
교육 시스템(1)은, VR 영상 제공 장치(20), 교육 컨텐츠 제공 장치(100) 및 XR(eXtended Reality) 장치(300)를 포함한다. 교육 컨텐츠 제공 장치(100)와 XR 장치(300)는, 유선 또는 무선 네트워크를 통해 통신할 수 있다. 유선 또는 무선 네트워크는, 제3자에 의해 제공되는 인프라가 활용될 수 있다.The
한편, 교육 시스템(1)을 통해 수행되는 교육은, 영어 교육임을 예시하여 설명하지만, 교육 시스템(1)은 이에 한정되지 않고, 음악, 역사, 과학, 수학, 국어, 사회 등 다양한 과목의 교육에도 이용될 수 있다.On the other hand, although the education performed through the
도 2는 본 발명의 실시예에 따른 교육 컨텐츠 제공 장치의 제어 블럭도이다.2 is a control block diagram of an apparatus for providing educational content according to an embodiment of the present invention.
도 2를 참조하면, 교육 컨텐츠 제공 장치(100)는, VR 영상 제공 장치(20)로부터 수신한 VR 영상에 기초하여, XR 영상을 생성하고, 생성된 XR 영상을 XR 장치(300)에 제공할 수 있다.Referring to FIG. 2 , the educational
교육 컨텐츠 제공 장치(100)는, 통신부(110), 카메라(120), 마이크로폰(130), 디스플레이(150), 스피커(160), 메모리(140), 프로세서(170), 인터페이스(180) 및 전원 공급부(190)를 포함할 수 있다. 실시예에 따라, 카메라(120) 및 마이크로폰(130)은, 교육 컨텐츠 제공 장치(100)의 나머지 구성 요소와 물리적으로 분리되게 구현될 수 있다.Educational
통신부(110)는, 교육 컨텐츠 제공 장치(100) 외부의 전자 장치(예를 들면, XR 장치(300))와 신호를 교환할 수 있다.The
통신부(110)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다. The
통신부(110)는, 이동 통신 네트워크(예를 들면, 3G, 4G, 5G)를 이용하여 교육 컨텐츠 제공 장치(100) 외부의 전자 장치(예를 들면, XR 장치(300))와 신호를 교환할 수 있다.The
카메라(120)는, 강사를 촬영할 수 있다. 카메라(120)는, 적어도 하나의 렌즈, 적어도 하나의 이미지 센서 및 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하는 처리부를 포함할 수 있다. 카메라(120)는, 모노 카메라, 스테레오 카메라 중 적어도 어느 하나일 수 있다. The
카메라(120)는, 강사를 중심에 두고, 강사를 360도 둘러싸는 형태로 복수개가 배치될 수 있다. 이때, 카메라(120)의 위치는, VR 영상에 기초하여 배치될 수 있다. 카메라(120)의 초점 거리는 VR 영상과 강사의 거리 관계에 기초하여 설정될 수 있다.A plurality of
마이크로폰(130)는, 음향 신호를 전기적 신호로 전환할 수 있다.The
디스플레이(150)는, 다양한 정보에 대응되는 그래픽 객체를 표시할 수 있다.The
디스플레이(150)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The
디스플레이(150)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다.The
디스플레이(150)는, VR 영상 제공 장치(20)에서 제공되는 VR 영상을 출력할 수 있다.The
디스플레이(150)는, 카메라(120)와 페어를 이루어, 카메라(120) 주변에 배치될 수 있다. 강사는 디스플레이(150)를 보면서, VR 영상에서의 오브젝트와 자신과의 거리를 인지할 수 있게 된다.The
스피커(160)는, 전기적 신호를 오디오 신호로 변환하여 출력할 수 있다.The
메모리(140)는, 프로세서(170)와 전기적으로 연결된다. 메모리(140)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)에서 처리된 데이터를 저장할 수 있다. 메모리(140)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(140)는 프로세서(170)의 처리 또는 제어를 위한 프로그램 등, 전자 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)와 일체형으로 구현될 수 있다. 실시예에 따라, 메모리(140)는, 프로세서(170)의 하위 구성으로 분류될 수 있다.The
프로세서(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로폰으로 컨트롤러(micro-controllers), 마이크로폰으로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
프로세서(170)는, 통신부(110), 카메라(120), 마이크로폰(130), 디스플레이(150), 메모리(140), 인터페이스(180), 전원 공급부(190)와 전기적으로 연결되어 신호를 교환할 수 있다. The
인터페이스(180)는, 외부 전자 장치와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스(180)는, 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다.The
전원 공급부(190)는, 교육 컨텐츠 제공 장치(100)에 전원을 공급할 수 있다. 전원 공급부(190)는, 배터리로부터 전원을 공급받아, 교육 컨텐츠 제공 장치(100)의 각 유닛에 전원을 공급할 수 있다.The
도 3은 본 발명의 실시예에 따른 XR 장치의 제어 블럭도이다.3 is a control block diagram of an XR apparatus according to an embodiment of the present invention.
도 3을 참조하면, XR 장치(300)는, HMD(Head-Mount Display), 웨어러블 디바이스 등으로 구현될 수도 있다.Referring to FIG. 3 , the
XR 장치(300)는 다양한 센서들을 통해 또는 외부 장치로부터 획득한 3차원 포인트 클라우드 데이터 또는 이미지 데이터를 분석하여 3차원 포인트들에 대한 위치 데이터 및 속성 데이터를 생성함으로써 주변 공간 또는 현실 객체에 대한 정보를 획득하고, 출력할 XR 객체를 렌더링하여 출력할 수 있다. 예컨대, XR 장치(300)는 인식된 물체에 대한 추가 정보를 포함하는 XR 객체를 해당 인식된 물체에 대응시켜 출력할 수 있다.The
XR 장치(300)는 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, XR 장치(300)는 학습 모델을 이용하여 3차원 포인트 클라우드 데이터 또는 이미지 데이터에서 현실 객체를 인식할 수 있고, 인식한 현실 객체에 상응하는 정보를 제공할 수 있다. 여기서, 학습 모델은 XR 장치(300)에서 직접 학습되거나, AI 서버 등의 외부 장치에서 학습된 것일 수 있다.The
이때, XR 장치(300)는 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.In this case, the
XR 장치(300)는 카메라(310), 디스플레이(320), 센서(330), 프로세서(340), 메모리(350) 및 통신 모듈(360)을 포함한다. The
통신 모듈(360)은 외부 장치 또는 서버와 유선/무선으로 통신을 수행하며, 근거리 무선 통신으로 예를 들어 Wi-Fi, 블루투스 등이 사용될 수 있고, 원거리 무선 통신으로 예를 들어 LTE, LTE-A, 5G 등이 사용될 수 있다. The
카메라(310)는 XR 장치(300) 주변 환경을 촬영하여 전기적 신호로 변환할 수 있다. 카메라(310)에서 촬영되어 전기적 신호로 변환된 이미지는 메모리(350)에 저장된 후 프로세서(340)를 통해 디스플레이(320)에서 디스플레이 될 수 있다. 또한, 상기 이미지는 상기 메모리(350)에 저장 없이, 바로 프로세서(340)를 이용하여 디스플레이(320)를 통해 디스플레이 될 수 있다. 또한, 카메라(310)는 화각을 가질 수 있다. 이 때, 화각은 예를 들어 카메라(310) 주변에 위치하는 리얼 오브젝트를 디텍트할 수 있는 영역을 의미한다. 카메라(310)는 화각내에 위치하는 리얼 오브젝트만을 디텍트할 수 있다. 리얼 오브젝트가 카메라(310)의 화각 내에 위치하는 경우, XR 장치(300)는 리얼 오브젝트에 대응하는 증강 현실 오브젝트를 디스플레이 할 수 있다. 또한, 카메라(310)는 카메라(310)와 리얼 오브젝트의 각도를 디텍트할 수 있다.The
센서(330)는 적어도 하나의 센서를 포함할 수 있으며, 예를 들어, 중력(gravity) 센서, 지자기 센서, 모션 센서, 자이로 센서, 가속도 센서, 기울임(inclination) 센서, 밝기 센서, 고도 센서, 후각 센서, 온도 센서, 뎁스 센서, 압력 센서, 벤딩 센서, 오디오 센서, 비디오 센서, GPS(Global Positioning System) 센서, 터치 센서 등의 센싱 수단을 포함한다. 나아가, 디스플레이(320)는 고정형일 수도 있으나, 높은 플렉시빌러티(flexibility)를 갖도록 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), ELD(Electro Luminescent Display), M-LED(Micro LED)로 구현 가능하다. 이 때, 상기 센서(330)는 전술한 LCD, OLED, ELD, M-LED (마이크로폰으로 LED) 등으로 구현된 디스플레이(320)의 휘어짐, 벤딩(Bending) 정도를 디텍트 하도록 설계한다.The
메모리(350)는 카메라(310)에 의해 촬영된 이미지를 저장하는 기능을 가지고 있을 뿐만 아니라, 외부 장치 또는 서버와 유선/무선으로 통신을 수행한 결과값의 전부 또는 일부를 저장하는 기능을 가지고 있다. The
XR 장치(300)는 러닝 프로세서를 더 포함할 수 있다. 러닝 프로세서는, 프로세서(340)와 별도로 구성되거나, 프로세서(340)의 하위 개념으로 분류될 수도 잇다.The
XR 장치(300)는 학습모델을 탑재할 수 있다. 학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(350)에 저장될 수 있다.The
본 발명의 실시예들에 따른 러닝 프로세서는 프로세서(340)와 통신 가능하도록 연결될 수 있으며, 훈련 데이터를 이용하여 인공 신경망으로 구성된 모델을 반복적으로 학습시킬 수 있다. 인공신경망은 생물학적 뉴런의 동작원리와 뉴런간의 연결 관계를 모델링한 것으로 노드(node) 또는 처리 요소(processing element)라고 하는 다수의 뉴런들이 레이어(layer) 구조의 형태로 연결된 정보처리 시스템이다. 인공 신경망은 기계 학습에서 사용되는 모델로써, 기계학습과 인지과학에서 생물학의 신경망(동물의 중추신경계 중 특히 뇌)에서 영감을 얻은 통계학적 학습 알고리즘이다. 기계 학습은 머신 러닝(Machine Learning)과 혼용되어 사용될 수 있다. 머신 러닝은 인공지능(Artificial Intelligence, AI)의 한 분야로, 컴퓨터에 명시적인 프로그램 없이 배울 수 있는 능력을 부여하는 기술이다. 머신 러닝은 경험적 데이터를 기반으로 학습을 하고 예측을 수행하고 스스로의 성능을 향상시키는 시스템과 이를 위한 알고리즘을 연구하고 구축하는 기술이다. 따라서 본 발명의 실시예들에 따른 러닝 프로세서는 인공 신경망을 반복 학습시킴으로서, 인공 신경망의 최적화된 모델 파라미터들을 결정하여 새로운 입력 데이터에 대하여 결과 값을 추론할 수 있다. 따라서 러닝 프로세서는 사용자의 디바이스 사용 히스토리 정보를 기반으로 사용자의 디바이스 사용 패턴을 분석할 수 있다. 또한, 러닝 프로세서는 데이터 마이닝, 데이터 분석, 지능형 의사 결정, 및 기계 학습 알고리즘 및 기술을 위해 이용될 정보를 수신, 분류, 저장 및 출력하도록 구성될 수 있다.The learning processor according to embodiments of the present invention may be communicatively connected to the
본 발명의 실시예들에 따른 프로세서(340)는 러닝 프로세서에서 분석되거나 생성된 데이터를 기반으로 디바이스의 적어도 하나의 실행 가능한 동작을 결정 또는 예측할 수 있다. 또한 프로세서(340)는 러닝 프로세서의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 XR 장치(300)를 제어할 수 있다. 본 발명의 실시예들에 따른 프로세서(340)는 지능적 에뮬레이션(즉, 지식 기반 시스템, 추론 시스템 및 지식 획득 시스템)을 구현하는 다양한 기능을 수행할 수 있다. 이는 적응 시스템, 기계 학습 시스템, 인공 신경망 등을 포함하는, 다양한 유형의 시스템(예컨대, 퍼지 논리 시스템)에 적용될 수 있다. 즉, 프로세서(340)는 러닝 프로세서에서 사용자의 디바이스 사용 패턴을 분석한 데이터를 기반으로 추후 사용자 디바이스 사용 패턴을 예측하여 XR 장치(300)는 사용자에게 보다 적합한 XR 서비스를 제공할 수 있도록 제어할 수 있다. The
도 4는 본 발명의 실시예에 따른 시스템의 신호 흐름도이다.4 is a signal flow diagram of a system according to an embodiment of the present invention.
도 5는 본 발명의 실시예에 따른 교육 컨텐츠 제공 장치의 플로우 차트이다.5 is a flowchart of an apparatus for providing educational content according to an embodiment of the present invention.
도 6은 본 발명의 실시예에 따른 시스템의 동작을 설명하는데 참조되는 도면이다.6 is a diagram referenced for explaining the operation of a system according to an embodiment of the present invention.
도면을 참조하면, 이하의 설명에서 특별한 언급이 없는한 XR 장치(300)의 동작은, 프로세서(340)의 제어에 따라 이루어지고, 교육 콘텐츠 제공 장치(100)의 동작은, 프로세서(170)의 제어에 따라 이루어진다.Referring to the drawings, the operation of the
XR 장치(300)는, XR 영상을 이용한 비대면 교육 애플리케이션을 구동할 수 있다(S401). XR 장치(300)는, 센서(330)를 통해 사용자 입력을 수신하여, 애플리케이션을 구동할 수 있다. 예를 들면, XR 장치(300)는, 모션 센서를 통해 생성되는 신호에 기초하여, 애플리케이션을 구동할 수 있다. XR 장치(300)는, XR 장치(300)와 페어링된 사용자의 이동 단말기로부터, 통신 모듈(360)을 통해 수신되는 신호에 기초하여, 애플리케이션을 구동할 수 있다.The
XR 장치(300)는, 제1 교육 컨텐츠를 선택할 수 있다(S404). XR 장치(300)는, 센서를 통해 사용자 입력을 수신하여, 제1 교육 컨텐츠를 선택할 수 있다. XR 장치(300)는, 통신 모듈(360)을 통해 사용자 입력을 수신하여, 제1 교육 컨텐츠를 선택할 수 있다.The
XR 장치(300)는, 통신 모듈(360)을 통해, 교육 컨텐츠 제공 장치(100)에, 제1 교육 컨텐츠를 요청할 수 있다(S407). 교육 컨텐츠 제공 장치(100)는, XR 장치(300)로부터, 통신부(110)를 통해, 제1 교육 콘텐츠를 요청받을 수 있다(S407).The
프로세서(170)는, XR 장치(300)로부터 제1 교육 콘텐츠를 요청받는 경우, VR 영상 제공 장치(20)에, 제1 교육 컨텐츠와 연관된 제1 VR 영상을 요청할 수 있다(S411).When the first educational content is requested from the
프로세서(170)는, VR 영상 제공 장치(20)로부터, 제1 교육 컨텐츠와 연관된 제1 VR 영상을 제공받을 수 있다(S413).The
VR(Virtual Reality) 영상은, 가상 공간을 제공하기 위한 영상으로 정의할 수 있다. VR 영상은, 360도 카메라로 촬영된 360도 VR 영상일 수 있다. VR 영상은, XR 장치(300)의 사용자 시점으로 가상 현실을 인지할 수 있도록 촬영된 영상으로 설명될 수 있다.A virtual reality (VR) image may be defined as an image for providing a virtual space. The VR image may be a 360-degree VR image captured by a 360-degree camera. The VR image may be described as an image captured to recognize virtual reality from the user's point of view of the
VR 영상은, 교육 컨텐츠와 연관된 공간을 촬영한 영상일 수 있다. 예를 들면, 영어 교육 컨텐츠가 특정 상황에 관한 것인 경우, VR 영상은, 해당 상황에 적합한 공간을 촬영한 영상일 수 있다. 예를 들면, 영어 교육 컨텐츠가 특정 국가에 관한 것인 경우, VR 영상은, 해당 국가의 랜드 마크를 촬영한 영상일 수 있다. 예를 들면, 영어 교육 컨텐츠가 특정 장소(예를 들면, 바다, 산, 강, 해변 등)에 관한 것인 경우, VR 영상은 해당 장소를 촬영한 영상일 수 있다.The VR image may be an image of a space related to educational content. For example, if the English education content relates to a specific situation, the VR image may be an image of a space suitable for the corresponding situation. For example, if the English education content relates to a specific country, the VR image may be an image of a landmark of the corresponding country. For example, if the English education content relates to a specific place (eg, sea, mountain, river, beach, etc.), the VR image may be an image of the corresponding place.
프로세서(170)는, XR 장치(300)에, 통신부(110)를 통해, 제1 VR 영상에 기초하여 생성된 제1 XR 영상을 이용한 제1 교육 컨텐츠를 제공할 수 있다(S420).The
확장 현실(eXtended Reality, XR)은, 가상 현실 (VR), 증강 현실 (AR), 혼합 현실을 포함하여 사용자에게 제시하기 전에 어떤 방식으로든 조작된 전자 기반 현실의 형태를 지칭할 수 있다. 확장 현실은 하이브리드 현실, 시뮬레이션 현실, 몰입형 현실, 홀로그래피 또는 이들의 조합으로 구성될 수 있다. 예를 들면, "확장된 현실"콘텐츠는 완전히 컴퓨터 생성 콘텐츠 또는 캡처된 콘텐츠 (예를 들어, 실제 이미지)와 결합 된 부분적으로 컴퓨터 생성 콘텐츠를 포함 할 수 있다.Extended reality (eXtended Reality, XR) may refer to a form of electronically based reality that has been manipulated in any way prior to presentation to a user, including virtual reality (VR), augmented reality (AR), and mixed reality. Extended reality may consist of hybrid reality, simulated reality, immersive reality, holography, or a combination thereof. For example, “extended reality” content may include fully computer-generated content or partially computer-generated content combined with captured content (eg, real-world images).
XR(eXtended Reality) 영상은, VR 영상과 비교하여 현실과 가상 간의 인터랙션이 더욱 강화된 영상으로 정의될 수 있다. VR 영상은, 교육 컨텐츠와 연관된 가상의 공간을 제공하는 영상이고, XR 영상은, 가상 공간에 존재하는 강사 이미지까지 반영된 영상으로 설명될 수 있다.An eXtended Reality (XR) image may be defined as an image in which interaction between reality and virtual reality is further enhanced as compared to a VR image. A VR image may be an image providing a virtual space related to educational content, and an XR image may be described as an image reflecting an image of an instructor existing in the virtual space.
S420 단계는, S421 단계, S424 단계, S427 단계, S431 단계, S434 단계, S437 단계, S441 단계, S444 단계, S447 단계 및 S451 단계를 포함할 수 있다.Step S420 may include steps S421, S424, S427, S431, S434, S437, S441, S444, S447, and S451.
프로세서(170)는, 디스플레이(150)에, 제1 VR 영상을 출력할 수 있다(S421). The
프로세서(170)는, 카메라(120)를 통해, 제1 강사 영상을 획득할 수 있다(S424). 제1 강사 영상은, 강사가 디스플레이(150)에 표시된 제1 VR 영상을 보면서 강의를 하는 모습을 촬영한 영상일 수 있다. 제1 강사 영상은, 제1 VR 영상에 표시된 제1 오브젝트(610)에 대해 설명하는 영상일 수 있다.The
제1 강사 영상은, 마이크로폰(130)을 통해, 획득된 강사의 음성도 포함하는 개념이다.The first instructor image is a concept including the instructor's voice acquired through the
카메라(120)는, 여러 각도에서 강사를 촬영할 수 있도록 복수개로 구성될 수 있다. 복수의 카메라(120)는 각각의 화각이 상호간에 적어도 일부가 겹치게 배치될 수 있다. 프로세서(170)는, 복수의 카메라(120)로부터 획득된 영상을 합성하여, 강사를 360도에서 바라보는 영상을 생성할 수 있다.The
실시예에 따라, 복수의 카메라(120)는, 스테레오 카메라로 구성될 수 있다. 프로세서(170)는, 복수의 카메라(120)로부터 획득된 스테레오 영상을 합성하여, 강사에 대한 뎁스가 표현되면서 강사를 360도에서 바라보는 영상을 생성할 수 있다.According to an embodiment, the plurality of
프로세서(170)는, 제1 VR 영상과 제1 강사 영상을 합성하여, 제1 XR 영상을 생성할 수 있다(S427).The
S427 단계는, S510 단계, S520 단계 및 S530 단계를 포함할 수 있다.Step S427 may include steps S510, S520, and S530.
프로세서(170)는, 제1 VR 영상에 기초하여, 3차원 가상 공간(600)을 생성할 수 있다(S510).The
프로세서(170)는, 제1 강사 영상에서 강사에 대한 제2 오브젝트(620)를 추출할 수 있다(S520).The
프로세서(170)는, 가상 공간(600)에 제2 오브젝트(620)를 삽입할 수 있다(S530). 프로세서(170)는, 삽입하는 단계(S530)에서, XR 장치(300) 사용자(예를 들면, 수강생)가 바라보는 시점을 기준으로, 가상 공간(600)에서 제1 오브젝트(610)가 위치하는 영역을 제외한 영역에 제2 오브젝트(620)를 삽입할 수 있다.The
카메라(120)는, 여러 각도에서 강사를 촬영할 수 있도록 복수개로 구성될 수 있다. 복수의 카메라(120)는 각각의 화각이 상호간에 적어도 일부가 겹치게 배치될 수 있다. 프로세서(170)는, 복수의 카메라(120)로부터 획득된 영상을 합성하여, 강사를 360도에서 바라보는 영상을 생성할 수 있다.The
실시예에 따라, 복수의 카메라(120)는, 스테레오 카메라로 구성될 수 있다. 프로세서(170)는, 복수의 카메라(120)로부터 획득된 스테레오 영상을 합성하여, 강사에 대한 뎁스가 표현되면서 강사를 360도에서 바라보는 영상을 생성할 수 있다.According to an embodiment, the plurality of
프로세서(170)는, 강사에 대한 뎁스 데이터를 반영하여, 가상 공간(600)에 제2 오브젝트(620)를 삽입할 수 있다. 예를 들면, 프로세서(170)는, 교육 컨텐츠 제공 장치(100) 스테레오 카메라(120)로부터 획득된 강사의 뎁스 데이터를 수신할 수 있다. 프로세서(170)는, 가상 공간(600)에 제2 오브젝트(620)를 삽입할 때, 제2 오브젝트(620)의 뎁스 데이터를 반영하여, 가상 공간 내에서의 제2 오브젝트(620)의 크기, 형상, 위치 중 적어도 어느 하나를 결정할 수 있다.The
프로세서(170)는, 가상 공간(600) 내에서 XR 장치(300) 사용자를 기준으로, 제2 오브젝트(620)의 뎁스를 조절할 수 있다. 프로세서(170)는, 강사가 설명하는 VR 영상 내의 오브젝트와 같은 뎁스를 가지도록 제2 오브젝트(620)의 뎁스를 조절할 수 있다. The
프로세서(170)는, 강사가 제1a 오브젝트에 대해 설명하는 경우, 강사의 발화 내용을 분석하여, VR 영상 내에서 제1a 오브젝트를 특정할 수 있다. 프로세서(170)는, 제2 오브젝트(620)가 제1a 오브젝트와 같은 뎁스를 가지도록 제2 오브젝트(620)의 뎁스를 제1 값으로 조절할 수 있다.When the instructor explains the object 1a, the
프로세서(170)는, 강사가 제1a 오브젝트에 대한 설명에서 제1b 오브젝트에 대한 설명으로 전환하는 경우, 강사의 발화 내용을 분석하여, VR 영상 내에서 제1b 오브젝트를 특정할 수 있다. 프로세서(170)는, 제2 오브젝트가 제1b 오브젝트와 같은 뎁스를 가지도록 제2 오브젝트(620)의 뎁스를 제1 값에서 제2 값으로 전환할 수 있다.When the instructor switches from the description of the object 1a to the description of the object 1b, the
프로세서(170)는, XR 장치(300)에, 통신부(110)를 통해, 제1 XR 영상을 제공할 수 있다(S431). XR 장치(300)는, 통신 모듈(360)을 통해, 교육 컨텐츠 제공 장치(100)로부터, 제1 XR 영상을 수신할 수 있다(S431).The
XR 장치(300)는, 디스플레이(320)에, 제1 XR 영상을 출력할 수 있다(S434).The
XR 장치(300)는, 오디오 센서를 통해, 사용자 음성을 획득할 수 있다(S437). 여기서, 사용자 음성은, 제1 XR 영상과 연관되어 사용자가 발화함에 따라 생성되는 음성일 수 있다.The
XR 장치(300)는, 통신 모듈(360)을 통해, 음성 데이터를 교육 컨텐츠 제공 장치(100)에 전송할 수 있다(S441). 교육 컨텐츠 제공 장치(100)는, 통신부(110)를 통해, 수강생의 음성 데이터를 수신할 수 있다(S441).The
프로세서(170)는, 수강생의 음성 데이터와 연관된 제2 강사 영상을 획득할 수 있다(S447). 제2 강사 영상은, 강사가 수강생의 음성을 듣고 리액션 하는 모습을 촬영한 영상일 수 있다.The
제2 강사 영상은, 마이크로폰(130)을 통해, 획득된 강사의 음성도 포함하는 개념이다.The second instructor image is a concept including the instructor's voice acquired through the
프로세서(170)는, 제1 VR 영상과 제2 강사 영상을 합성하여, 제2 XR 영상을 생성할 수 있다(S447).The
S447 단계는, S510 단계, S520 단계 및 S530 단계를 포함할 수 있다.Step S447 may include steps S510, S520, and S530.
프로세서(170)는, 제1 VR 영상에 기초하여, 3차원 가상 공간(600)을 생성할 수 있다(S510).The
프로세서(170)는, 제2 강사 영상에서 강사에 대한 제2 오브젝트(620)를 추출할 수 있다(S520).The
프로세서(170)는, 가상 공간(600)에 제2 오브젝트(620)를 삽입할 수 있다(S530). The
프로세서(170)는, XR 장치(300)에, 통신부(110)를 통해, 제2 XR 영상을 제공할 수 있다(S451). XR 장치(300)는, 통신 모듈(360)을 통해, 교육 컨텐츠 제공 장치(100)로부터, 제2 XR 영상을 수신할 수 있다(S451).The
이후에, XR 장치(300)는, 디스플레이(320)에, 제2 XR 영상을 출력하고, 오디오 센서를 통해, 사용자 음성을 획득할 수 있다. Thereafter, the
XR 장치(300)가, 사용자 입력에 따라 컨텐츠를 변경(S454)하기 전까지 S420 단계는 반복될 수 있다.Step S420 may be repeated until the
이와 같이, 수강생과 강사가 물리적으로 다른 공간에 있지만, XR 영상을 통해, 비대면 교육을 수행함으로써, 수강생이 강사와 함께 교육 컨텐츠와 연관된 가상 공간에서 대화를 하는 것으로 느낄 수 있다. 이를 통해, 보다 교육 몰입도가 높아지게 된다. 또한, 강사가 수강생과 교육 컨텐츠와 연관된 가상 공간에서 수업을 진행하기 때문에 방문 교육을 수행하는 것과 같은 효과를 누릴 수 있다.As described above, although the learner and the instructor are physically in different spaces, by performing non-face-to-face training through the XR image, the student can feel that they are having a conversation with the instructor in a virtual space related to the educational content. Through this, more immersion in education is increased. In addition, since the instructor conducts the class in a virtual space related to the students and the educational content, it is possible to enjoy the same effect as performing a visiting education.
XR 장치(300)를 통해, 제2 컨텐츠로 컨텐츠 변경이 이루어지는 경우(S454), 제2 교육 컨텐츠 관련 프로세스를 진행할 수 있다(S460).When the content is changed to the second content through the XR device 300 (S454), a process related to the second educational content may be performed (S460).
XR 장치(300)를 통해, 종료가 입력되는 경우, 프로세스를 종료할 수 있다.Through the
한편, 본 명세서에서 설명되는 XR 영상은 XR 장치(300) 착용자를 중심으로 바라본 전방향에 대한 이미지를 제공함으로써 가상의 공간을 생성한다. 영상은 360도 XR 디지털 영상으로 명명될 수 있다.Meanwhile, the XR image described in this specification creates a virtual space by providing an image of the omnidirectional view centered on the wearer of the
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be implemented as computer-readable codes on a medium in which a program is recorded. The computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (eg, transmission over the Internet) that is implemented in the form of. In addition, the computer may include a processor or a control unit. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.
1 : 교육 시스템
20 : VR 영상 제공 장치
100 : 교육 컨텐츠 제공 장치
110 : 통신부
120 : 카메라
170 : 프로세서
300 : XR 장치1: Education system
20: VR image providing device
100: educational content providing device
110: communication department
120: camera
170: processor
300: XR unit
Claims (5)
프로세서가, VR(Virtual Reality) 영상 제공 장치로부터, 상기 제1 교육 컨텐츠의 특정 상황과 연관된 공간이 촬영된 영상으로 가상 공간을 제공하는 제1 VR 영상을 제공받는 단계; 및
프로세서가, 상기 XR 장치에, 통신부를 통해, 상기 가상 공간에 존재하는 강사 이미지까지 반영된 제1 XR 영상을 이용한 상기 제1 교육 컨텐츠를 제공하는 단계;를 포함하고,
상기 제1 교육 컨텐츠를 제공하는 단계는,
프로세서가, 상기 제1 VR 영상을 디스플레이에 출력하는 단계;
프로세서가, 화각이 상호간에 적어도 일부가 겹치게 배치되는 복수의 스테레오 카메라를 통해, 상기 제1 VR 영상에 표시된 제1 오브젝트에 대해 설명하는 영상인 제1 강사 영상을 획득하고, 상기 복수의 스테레오 카메라로부터 획득된 스테레오 영상을 합성하여, 강사에 대한 뎁스가 표현되면서 강사를 360도에서 바라보는 영상을 생성하는 단계;
프로세서가, 상기 제1 VR 영상과 상기 제1 강사 영상을 합성하여 제1 XR 영상을 생성하는 단계; 및
프로세서가, 상기 XR 장치에, 통신부를 통해, 상기 제1 XR 영상을 제공하는 단계;를 포함하고,
상기 제1 XR 영상을 생성하는 단계는,
프로세서가, 상기 제1 VR 영상에 기초하여 3차원 가상 공간을 생성하는 단계;
프로세서가, 상기 제1 강사 영상에서 강사에 대한 제2 오브젝트를 추출하는 단계; 및
프로세서가, 상기 가상 공간에 상기 제2 오브젝트를 삽입하는 단계;를 포함하고,
상기 삽입하는 단계는,
프로세서가, 강사에 대한 뎁스 데이터에 따라 상기 제2 오브젝트의 크기, 형상 및 위치를 결정하여 상기 가상 공간에 삽입하고, 상기 제1 오브젝트와 같은 뎁스를 가지도록 상기 제2 오브젝트의 뎁스를 조절하되,
강사의 설명이 제1a 오브젝트에 관한 것인 경우, 강사의 발화 내용을 분석하여, 상기 VR 영상 내에서 상기 제1a 오브젝트를 특정하고, 상기 제2 오브젝트가 상기 제1a 오브젝트와 같은 뎁스를 가지도록 상기 제2 오브젝트의 뎁스를 제1 값으로 조절하고,
강사의 설명이 제1a 오브젝트에서 제1b 오브젝트로 전환되는 경우, 강사의 발화 내용을 분석하여, 상기 VR 영상 내에서 상기 제1b 오브젝트를 특정하고, 상기 제2 오브젝트가 상기 제1b 오브젝트와 같은 뎁스를 가지도록 상기 제2 오브젝트의 뎁스를 상기 제1 값에서 제2 값으로 전환하는 XR 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법.receiving, by the processor, a request for first educational content from an eXtended Reality (XR) device through a communication unit;
receiving, by the processor, a first VR image for providing a virtual space as an image of a space associated with a specific situation of the first educational content from a VR (Virtual Reality) image providing device; and
providing, by a processor, the first educational content using a first XR image reflected up to an instructor image existing in the virtual space through a communication unit to the XR device;
The step of providing the first educational content,
outputting, by the processor, the first VR image to a display;
The processor acquires a first instructor image, which is an image describing a first object displayed in the first VR image, through a plurality of stereo cameras having an angle of view arranged at least partially overlapping each other, and from the plurality of stereo cameras synthesizing the obtained stereo images to generate an image viewing the instructor from 360 degrees while expressing the depth of the instructor;
generating, by a processor, a first XR image by synthesizing the first VR image and the first instructor image; and
providing, by a processor, the first XR image to the XR device through a communication unit;
The generating of the first XR image comprises:
generating, by the processor, a three-dimensional virtual space based on the first VR image;
extracting, by the processor, a second object for the instructor from the first instructor image; and
Including, by the processor, inserting the second object into the virtual space;
The inserting step is
The processor determines the size, shape, and position of the second object according to the depth data for the instructor, inserts it into the virtual space, and adjusts the depth of the second object to have the same depth as the first object,
When the lecturer's description relates to the 1a object, the lecturer's speech is analyzed to specify the 1a object in the VR image, and the second object has the same depth as the 1a object. Adjust the depth of the second object to the first value,
When the lecturer's explanation is switched from object 1a to object 1b, the lecturer's speech is analyzed to specify the 1b object in the VR image, and the second object has the same depth as the 1b object. A method of providing non-face-to-face English educational content using an XR image for converting a depth of the second object from the first value to a second value so as to have the
상기 삽입하는 단계는,
상기 가상 공간에서 상기 제1 오브젝트가 위치하는 영역을 제외한 영역에 상기 제2 오브젝트를 삽입하는 XR 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법.The method of claim 1,
The inserting step is
A method of providing non-face-to-face English educational content using an XR image in which the second object is inserted in an area in the virtual space except for an area in which the first object is located.
상기 제1 교육 컨텐츠를 제공하는 단계는,
프로세서가, 상기 XR 장치로부터, 통신부를 통해, 수강생의 음성 데이터를 수신하는 단계;
프로세서가, 상기 수강생의 음성 데이터와 연관된 제2 강사 영상을 획득하는 단계; 및
프로세서가, 상기 제1 VR 영상과 상기 제2 강사 영상을 합성하여 제2 XR 영상을 생성하는 단계;를 포함하는 XR 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법.
The method of claim 1,
The step of providing the first educational content,
receiving, by the processor, voice data of a learner from the XR device through a communication unit;
obtaining, by the processor, a second instructor image associated with the student's voice data; and
A method of providing non-face-to-face English education content using an XR image, comprising: a processor, generating a second XR image by synthesizing the first VR image and the second instructor image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210019104A KR102359253B1 (en) | 2021-02-10 | 2021-02-10 | Method of providing non-face-to-face English education contents using 360 degree digital XR images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210019104A KR102359253B1 (en) | 2021-02-10 | 2021-02-10 | Method of providing non-face-to-face English education contents using 360 degree digital XR images |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102359253B1 true KR102359253B1 (en) | 2022-02-28 |
Family
ID=80497299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210019104A KR102359253B1 (en) | 2021-02-10 | 2021-02-10 | Method of providing non-face-to-face English education contents using 360 degree digital XR images |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102359253B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102456134B1 (en) * | 2022-07-20 | 2022-10-18 | 이아이피커뮤니케이션 주식회사 | Method, device and system for creating 3d content of presenter participation type |
KR102458703B1 (en) | 2022-05-10 | 2022-10-25 | (주)에어패스 | Communication system between users in voice recognition-based XR content or metaverse content service |
KR102622163B1 (en) | 2023-07-10 | 2024-01-05 | 주식회사 스튜디오브이알 | Online music teaching method and apparatus based on virtual reality |
KR20240077808A (en) | 2022-11-25 | 2024-06-03 | (주)제이지파워넷 | Communication System Between Users Using Smart Glass |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030017850A (en) | 2001-08-23 | 2003-03-04 | 서영철 | On-Line Education Method |
KR20080073144A (en) * | 2007-02-05 | 2008-08-08 | 최창국 | English studying system which uses a panorama multimedia |
KR20100073076A (en) * | 2008-12-22 | 2010-07-01 | 한국전자통신연구원 | Education apparatus and method using virtual reality |
KR20190101323A (en) * | 2019-08-12 | 2019-08-30 | 엘지전자 주식회사 | Xr device for providing ar mode and vr mode and method for controlling the same |
KR20200006064A (en) * | 2017-04-19 | 2020-01-17 | 비도니 인코포레이티드 | Augmented Reality Learning System and Method Using Motion Captured Virtual Hand |
KR20200024441A (en) * | 2018-08-28 | 2020-03-09 | 김영대 | Smart Realtime Lecture, Lecture Capture and Tele-Presentation-Webinar, VR Class room, VR Conference method using Virtual/Augmented Reality Class Room and Artificial Intelligent Virtual Camera Switching technologies |
-
2021
- 2021-02-10 KR KR1020210019104A patent/KR102359253B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030017850A (en) | 2001-08-23 | 2003-03-04 | 서영철 | On-Line Education Method |
KR20080073144A (en) * | 2007-02-05 | 2008-08-08 | 최창국 | English studying system which uses a panorama multimedia |
KR20100073076A (en) * | 2008-12-22 | 2010-07-01 | 한국전자통신연구원 | Education apparatus and method using virtual reality |
KR20200006064A (en) * | 2017-04-19 | 2020-01-17 | 비도니 인코포레이티드 | Augmented Reality Learning System and Method Using Motion Captured Virtual Hand |
KR20200024441A (en) * | 2018-08-28 | 2020-03-09 | 김영대 | Smart Realtime Lecture, Lecture Capture and Tele-Presentation-Webinar, VR Class room, VR Conference method using Virtual/Augmented Reality Class Room and Artificial Intelligent Virtual Camera Switching technologies |
KR20190101323A (en) * | 2019-08-12 | 2019-08-30 | 엘지전자 주식회사 | Xr device for providing ar mode and vr mode and method for controlling the same |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102458703B1 (en) | 2022-05-10 | 2022-10-25 | (주)에어패스 | Communication system between users in voice recognition-based XR content or metaverse content service |
KR102456134B1 (en) * | 2022-07-20 | 2022-10-18 | 이아이피커뮤니케이션 주식회사 | Method, device and system for creating 3d content of presenter participation type |
KR20240077808A (en) | 2022-11-25 | 2024-06-03 | (주)제이지파워넷 | Communication System Between Users Using Smart Glass |
KR102622163B1 (en) | 2023-07-10 | 2024-01-05 | 주식회사 스튜디오브이알 | Online music teaching method and apparatus based on virtual reality |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102359253B1 (en) | Method of providing non-face-to-face English education contents using 360 degree digital XR images | |
JP7130057B2 (en) | Hand Keypoint Recognition Model Training Method and Device, Hand Keypoint Recognition Method and Device, and Computer Program | |
JP7101315B2 (en) | Systems and methods for converting image data into natural language descriptions | |
Gao et al. | Visualechoes: Spatial image representation learning through echolocation | |
KR20210057611A (en) | Artificial intelligence apparatus and method for recognizing object included in image data | |
CN111328400A (en) | Meta-learning for multi-task learning of neural networks | |
KR20220145997A (en) | Non-face-to-face real-time education method that uses 360-degree images and HMD, and is conducted within the metaverse space | |
CN109923462A (en) | Sensing spectacles | |
EP4184927A1 (en) | Sound effect adjusting method and apparatus, device, storage medium, and computer program product | |
KR20210039049A (en) | An artificial intelligence apparatus for performing speech recognition and method for the same | |
CN111327772B (en) | Method, device, equipment and storage medium for automatic voice response processing | |
KR20190100117A (en) | Artificial intelligence-based control apparatus and method for home theater sound | |
KR20210078813A (en) | An artificial intelligence apparatus for synthesizing image and method thereof | |
CN113168526A (en) | System and method for virtual and augmented reality | |
US20200233489A1 (en) | Gazed virtual object identification module, a system for implementing gaze translucency, and a related method | |
KR20210046170A (en) | An artificial intelligence apparatus for generating recipe and method thereof | |
CN113763532A (en) | Human-computer interaction method, device, equipment and medium based on three-dimensional virtual object | |
Stanney et al. | Virtual environments in the 21st century | |
KR20190107616A (en) | Artificial intelligence apparatus and method for generating named entity table | |
KR102231909B1 (en) | Artificial intelligence device | |
KR20210052958A (en) | An artificial intelligence server | |
CN112558759B (en) | VR interaction method based on education, interaction development platform and storage medium | |
KR20190109714A (en) | Method of providing learning service based on augmented reality, terminal, and software computer readable recording medium | |
US20240267695A1 (en) | Neural radiance field systems and methods for synthesis of audio-visual scenes | |
US20240105173A1 (en) | Method and apparatus for providing virtual space in which interaction with another entity is applied to entity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |