KR102320229B1 - Smart tables for MR learning content and how to provide them - Google Patents

Smart tables for MR learning content and how to provide them Download PDF

Info

Publication number
KR102320229B1
KR102320229B1 KR1020200057144A KR20200057144A KR102320229B1 KR 102320229 B1 KR102320229 B1 KR 102320229B1 KR 1020200057144 A KR1020200057144 A KR 1020200057144A KR 20200057144 A KR20200057144 A KR 20200057144A KR 102320229 B1 KR102320229 B1 KR 102320229B1
Authority
KR
South Korea
Prior art keywords
content
marker
user
hmd
learning
Prior art date
Application number
KR1020200057144A
Other languages
Korean (ko)
Inventor
배문영
Original Assignee
주식회사 인터포름
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인터포름 filed Critical 주식회사 인터포름
Priority to KR1020200057144A priority Critical patent/KR102320229B1/en
Application granted granted Critical
Publication of KR102320229B1 publication Critical patent/KR102320229B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present disclosure implements a simulated real world comprising virtual objects (simulated objects and simulated environments) using a mixed reality technology for language, numeracy, foreign language, geography, and cultural education of children, collects, analyzes, and digitizes the voice data of a user using an AI voice recognition technology, and can provide educational services which allow students to study according to current levels of the students. In addition, the present disclosure provides information on a plurality of markers sequentially or simultaneously without a plurality of paper card type markers by electronically presenting markers containing information on a virtual object through a display device provided on a table in order for a user to use the MR content so that virtual object is implemented, thereby providing an educational service through immersive content.

Description

HMD 장치로 인식되는 가상의 오브젝트 정보를 담고 있는 마커를 테이블 위의 디스플레이 장치에 표시할 수 있는 아동 교육을 위한 스마트 테이블 디바이스 및 이를 이용한 교육방법.{Smart tables for MR learning content and how to provide them} A smart table device for educating children capable of displaying a marker containing virtual object information recognized as an HMD device on a display device on a table, and an education method using the same. {Smart tables for MR learning content and how to provide them}

개시된 MR 학습 콘텐츠를 제공하는 방법, MR 학습 콘텐츠를 위한 디바이스 및 MR 학습 콘텐츠 디바이스를 운영하는 운영체계에 관한 것이다.Disclosed are a method for providing MR learning content, a device for MR learning content, and an operating system for operating the MR learning content device.

혼합현실(MR)은 현실과 가상을 결합하여 실물과 가상 객체들이 공존하는 새로운 환경을 만들고 사용자가 해당 환경과 실시간으로 상호작용을 함으로써 다양한 디지털 정보들을 보다 실감나게 체험할 수 있도록 하는 기술이다. 완전한 가상세계 구축이 현실적으로 어렵기 때문에 현실세계를 기반으로 가상세계를 접목하려는 시도로, 그 중 현실 상황을 중심으로 가상정보를 부가하는 증강현실(Augmented Reality)이 있다. Mixed reality (MR) is a technology that creates a new environment in which real and virtual objects coexist by combining reality and virtual objects, and enables users to experience various digital information more realistically by interacting with the environment in real time. It is an attempt to graft the virtual world based on the real world because it is realistically difficult to construct a complete virtual world.

대한민국 등록특허번호 제10-1964192(2019년 03월 26일 등록. 시뮬레이션용 스마트 테이블 장치)Republic of Korea Patent No. 10-1964192 (registered on March 26, 2019. Smart table device for simulation) 대한민국 공개특허번호 제10-2019-00002815(2019년 01월 9일 공개. 스마트 터치 테이블)Republic of Korea Patent Publication No. 10-2019-00002815 (published on January 9, 2019. Smart touch table)

삭제delete

기존 HMD를 이용한 MR 콘텐츠의 실행 방법 중 마커 방식의 실행은 가상 오브젝트에 대한 정보가 담긴 종이 카드 형태의 마커를 HMD 장치에 구비된 카메라가 인식하여 상기 마커에 대응 되는 가상 오브젝트를 HMD를 통해 실행하는 방식이었기 때문에 가상의 오브젝트를 위해서는 그에 해당하는 종이 형태의 마커가 필요했다. 따라서 다수의 가상 오브젝트를 실행하기 위해서는 다수의 마커가 필요해 이를 저장· 보관· 사용 하는 것에 제약이 존재했다. 또한 가상의 오브젝트에 움직임을 주기 위해서는 유니티 등 3D 영상 제작을 위한 프로그램을 통한 복잡한 제작 과정이 필요하였다. Among the existing methods of executing MR contents using an HMD, the marker method is performed by recognizing a marker in the form of a paper card containing information about a virtual object by a camera provided in the HMD device and executing the virtual object corresponding to the marker through the HMD. Because of this method, a corresponding paper-type marker was needed for a virtual object. Therefore, in order to execute a large number of virtual objects, a large number of markers are required, which limits the storage, storage, and use of these markers. In addition, in order to give motion to a virtual object, a complex production process through a program for 3D image production such as Unity was required.

그러나 본 개시에 의한 일 실시 예는 종이 카드 형태의 마커 대신 서버에 저장된 전자 이미지 형태의 마커를 테이블 위에 구비된 디스플레이 장치를 통해 제시함으로써 서버 저장공간 범위 안에서는 무한한 개수의 마커를 저장하여 사용할 수 있다.However, according to an embodiment of the present disclosure, an infinite number of markers can be stored and used within the server storage space by presenting the marker in the form of an electronic image stored in the server instead of the marker in the form of a paper card through a display device provided on the table.

또한 본 개시에 의한 일 실시 예는 유니티 등 3D 영상 제작을 위한 프로그램을 통한 복잡한 제작 과정 없이도 파워포인트 등 비교적 간단한 프로그램을 사용하여 디스플레이 상에서 마커 이미지를 움직이게 하여 가상 오브젝트의 움직임을 만들어 냄으로써 가상 오브젝트를 통한 콘텐츠 제작 비용을 줄일 수 있어 효율적인 교육 서비스 방법 및 디바이스를 제공할 수 있다.In addition, an embodiment according to the present disclosure uses a relatively simple program such as PowerPoint without a complicated production process through a program for 3D image production such as Unity to move a marker image on the display to create the movement of the virtual object through the virtual object. It is possible to reduce the cost of content creation, so that it is possible to provide an efficient educational service method and device.

일 실시 예에 따른 MR 교육 서비스를 제공하는 방법은 교습자가 학습자에게 전달하고자 하는 교육대상 객체 또는 환경의 마커를 제시하는 단계; 제시한 교육대상 객체 또는 환경의 마커를 디바이스에서 인식하는 단계; 인식한 마커에 대응하는 오브젝트를 디스플레이 하는 단계; 디스플레이 된 오브젝트를 기반으로 교육을 진행하고 교육 진행과정 동안 학습자의 발음을 분석하여 정확도를 측정하여 반복학습 여부 및 다음 교육단계로의 진행을 결정하는 단계를 포함할 수 있다. According to an embodiment, a method of providing an MR education service includes: presenting, by a teacher, a marker of an educational target object or environment to be transmitted to a learner; Recognizing the presented educational target object or the marker of the environment in the device; displaying an object corresponding to the recognized marker; Conducting education based on the displayed object, analyzing the pronunciation of the learner during the education process, measuring accuracy, and determining whether to repeat learning and progress to the next education stage.

일 실시 예에 따른 MR 교육 서비스를 제공하는 방법에 있어서, 마커는 디바이스에서 인식되는 실제 오브젝트를 포함하고, 마커를 제시하는 단계는 전자 디스플레이로 표시되는 마커를 실행하는 형태로 제시할 수 있다. In the method of providing an MR education service according to an embodiment, the marker includes a real object recognized by the device, and the step of presenting the marker may be presented in the form of executing a marker displayed on an electronic display.

일 실시 예에 따른 MR 교육 서비스를 제공하는 방법에 있어서, 인식하는 단계는 스마트폰 또는 태블릿 PC 등에 부착된 카메라를 통해 인식되며, 디스플레이 하는 단계는 스마트폰 또는 태블릿 PC의 디스플레이 화면을 통해 이루어질 수 있다. In the method of providing an MR education service according to an embodiment, the recognizing step is recognized through a camera attached to a smartphone or tablet PC, and the displaying may be performed through a display screen of a smart phone or tablet PC. .

일 실시 예에 따른 MR 언어교육 서비스를 제공하는 방법에 있어서, 교육을 진행하는 단계는 AI 음성인식 엔진을 통해 학습자의 발음을 분석하여 발음의 정확도를 수치화하고 이를 바탕으로 일정 기준 점수 이상인 경우 다음 단계로의 교육을 진행하거나 일정 점수 미만의 경우 기존 학습을 반복하여 진행할 수 있으며, 콘트롤러를 통해 교육단계의 진행을 조절할 수도 있다.In the method of providing an MR language education service according to an embodiment, the step of conducting the education is to quantify the accuracy of pronunciation by analyzing the pronunciation of the learner through the AI speech recognition engine, and based on this, the next step In the case of a low-score education, the existing learning can be repeated, and the progress of the education stage can be controlled through the controller.

일 실시 예에 따른 MR 교육 서비스를 제공하는 디바이스는 디스플레이 장치; 상기 디스플레이 장치를 받치는 테이블; 상기 테이블 내부에 구비되는 AI 음성인식 장치 및 MR 콘텐츠 저장장치가 포함된 메인서버; 및 디바이스를 운영하는 프로세스로 구성될 수 있다. A device for providing an MR education service according to an embodiment includes a display device; a table supporting the display device; a main server including an AI voice recognition device and an MR content storage device provided in the table; and a process for operating the device.

본 개시는 아동들의 효과적인 교육을 위한 것으로, 안전상 또는 시간과 비용상의 문제로 다양한 객체나 환경을 체험하기 힘든 아동들에게 MR 콘텐츠를 통해 사실감과 몰입감 높은 객체와 환경을 제시하고 AI 언어인식 기술을 통해 단계별 및 반복 교육을 가능하게 하여 교육의 실효성을 높이는 효과를 갖는다.The present disclosure is for the effective education of children, and presents objects and environments with high realism and immersion through MR contents to children who have difficulty experiencing various objects or environments due to safety or time and cost issues, and AI language recognition technology It has the effect of increasing the effectiveness of education by enabling step-by-step and repeated education.

도 1은 일 실시 예에 따른 스마트 테이블 디바이스에서 MR 교육 서비스를 제공하는 방법을 설명하기 위한 개념도이다.
도 2는 일 실시 예에 따른 스마트 테이블 디바이스에서 모사형 객체를 통해 MR 교육 서비스를 제공하는 방법을 설명하기 위한 도면이다.
도 3는 일 실시 예에 따른 스마트 테이블 디바이스에서 모사형 환경을 통해 MR 교육 서비스를 제공하는 방법을 설명하기 위한 도면이다.
도 4는 일 실시 예에 따른 체험형 학습 콘텐츠의 콘텐츠 실행 흐름도이다.
1 is a conceptual diagram illustrating a method of providing an MR education service in a smart table device according to an embodiment.
2 is a diagram for explaining a method of providing an MR education service through a mock object in a smart table device according to an embodiment.
3 is a diagram for explaining a method of providing an MR education service through a simulated environment in a smart table device according to an embodiment.
4 is a content execution flowchart of experiential learning content according to an embodiment.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. 본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다. 명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA(field programmable gate array) 또는 ASIC(application specific integrated circuit)과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 특성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Terms used in this specification will be briefly described, and the present invention will be described in detail. The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term. Terms including an ordinal number such as 1st, 2nd, etc. may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related items or any one of a plurality of related items. When a part "includes" a certain element throughout the specification, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. Also, as used herein, the term “unit” refers to a hardware component such as software, a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC), and the “unit” performs certain roles. However, "part" is not meant to be limited to software or hardware. A “unit” may be configured to reside on an addressable storage medium and may be configured to refresh one or more processors. Thus, by way of example, “part” includes components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables.

구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다. The functionality provided within components and “parts” may be combined into a smaller number of components and “parts” or further divided into additional components and “parts”.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in various different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하도록 한다. Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 따른 스마트 테이블 디바이스(100)의 동작방법의 일 실시 예를 개략적으로 설명하기 위한 도면이다. 1 is a diagram for schematically explaining an embodiment of an operating method of a smart table device 100 according to an embodiment.

일 실시 예에 따른 스마트 테이블 디바이스(100)는 마커(160)를 보여줄 수 있는 디스플레이(110), 상기 디스플레이를 받쳐줄 테이블 프레임(120), 상기 테이블의 내부에 구비되는 AI 음성인식 장치(131) 및 MR 콘텐츠 저장장치(132)를 포함한 메인 서버(130), 이를 운영하는 프로세스(133) 및 MR 콘텐츠의 실행을 위한 HMD 장치(140), 교육 진행을 위한 콘트롤러(150), 마커(160), 가상 오브젝트(170)이 구비된다. The smart table device 100 according to an embodiment includes a display 110 capable of showing a marker 160, a table frame 120 to support the display, an AI voice recognition device 131 provided in the table, and The main server 130 including the MR content storage device 132, the process 133 for operating it, and the HMD device 140 for the execution of the MR content, the controller 150 for the training progress, the marker 160, the virtual An object 170 is provided.

도 1을 참조하면 사용자는 HMD 장치(140)을 착용한 상태에서 실행되는 MR 콘텐츠 이미지를 볼 수 있으며, 동시에 사용자의 시야각에 들어오는 주변의 실제 공간을 볼 수 있다. Referring to FIG. 1 , the user can view the MR content image executed while wearing the HMD device 140 , and at the same time see the actual space around the user's viewing angle.

일 실시 예에 따르면 HMD 장치(140)를 착용한 사용자가 마커(160)를 보여줄 수 있는 디스플레이(110)에 표시되는 마커(160)를 응시하면 마커(160)에 대응하는 가상 오브젝트(170)가 실제 주변 공간과 중첩되어 HMD 장치(140)을 통해 사용자의 눈으로 볼 수 있다. According to an embodiment, when a user wearing the HMD device 140 gazes at the marker 160 displayed on the display 110 capable of showing the marker 160 , the virtual object 170 corresponding to the marker 160 is displayed. It overlaps with the actual surrounding space and can be seen by the user's eyes through the HMD device 140 .

도 2 및 도 3은 스마트 테이블 디바이스(100)를 통해 학습을 진행하는 모습의 일 예를 설명하기 위한 도면이다. 2 and 3 are diagrams for explaining an example of a state in which learning is performed through the smart table device 100 .

도 2는 일 실시 예에 따라 사용자가 HMD 장치(140)를 착용하고 마커를 응시하여 가상의 오브젝트가 실제 환경과 중첩되어 사용자의 눈에 보이면서 학습을 진행할 수 있다. 예를 들면 도2에서 사용자는 가상의 사슴 오브젝트(170)에 관한 정보가 담긴 마커(160)를 응시하여 가상의 사슴 오브젝트가 책상 위에 입체적인 형태로 나타나고 이에 따라 사슴의 이름을 따라 발음을 하거나 사슴의 한글 또는 알파벳 철자를 익히는 등의 교육이 진행될 수 있다. FIG. 2 shows that the user wears the HMD device 140 and gazes at the marker so that the virtual object is overlapped with the real environment, and learning can be performed while being visible to the user's eyes. For example, in FIG. 2, the user gazes at a marker 160 containing information about the virtual deer object 170, and the virtual deer object appears in a three-dimensional form on the desk. Education such as learning Hangul or alphabet spelling may be conducted.

도 3은 일 실시 예에 따라 사용자가 HMD 장치(140)를 착용하고 마커를 응시하여 가상의 환경이 사용자의 눈에 보이면서 지리, 문화, 환경 등에 관한 학습을 진행할 수 있다. 예를 들면 도 3에서 사용자는 ‘학교’라는 가상의 환경에 관한 정보가 담긴 마커(160)를 응시하여 가상의 학교 환경이 입체적인 형태로 나타나고 이에 따라 ‘학교’에서 발생할 수 있는 새 친구와 인사하기’등 환경에 대한 언어교육을 진행할 수 있다. In FIG. 3 , according to an embodiment, a user wears the HMD device 140 and gazes at a marker so that a virtual environment is visible to the user's eyes and learning about geography, culture, environment, etc. may be performed. For example, in FIG. 3 , the user gazes at the marker 160 containing information about the virtual environment called 'school', and the virtual school environment appears in a three-dimensional form. ', etc., can conduct language education about the environment.

도 4는 스마트 테이블 디바이스(100)를 통한 학습 콘텐츠의 체험 방법 및 콘텐츠의 흐름도이다. 4 is a flowchart of a method of experiencing learning content and content through the smart table device 100 .

도 4에 의한 일 실시 예에 따르면 본 개시의 교육 콘텐츠는 HMD 장치(140)를 착용한 사용자가 스마트 테이블 디바이스(100) 앞에 앉아 한글, 영어, 수학, 지리, 문화, 역사 등 교육 콘텐츠를 선택하여 콘텐츠를 체험할 수 있다. According to an embodiment of FIG. 4 , the educational content of the present disclosure allows a user wearing the HMD device 140 to sit in front of the smart table device 100 and select educational content such as Hangul, English, mathematics, geography, culture, and history. content can be experienced.

예를 들어 역사 학습 콘텐츠를 선택한 경우에는 그 당시의 인물, 문화 시대상 등을 MR 콘텐츠로 보여주고 이에 대한 주요 정보 및 학습해야 할 내용 등을 간단한 퀴즈 등을 통해 복습할 수 있도록 하는 교육이 진행될 수 있다. For example, if history learning content is selected, education can be conducted to show people at that time, cultural times, etc. as MR content, and to review key information and content to be learned through simple quizzes. .

전술한 실시 예들은 예시적인 것이며, 한정적이 아닌 것으로 이해될 수 있다. 또한, 흐름도에서 도시한 동작들의 순서에 한정되는 것이 아니며, 다양한 실시 예에 따라, 일부 단계가 생략되거나 부가될 수 있음은 물론, 일부 단계의 순서가 변경될 수 있는 것으로 이해될 수 있다.It can be understood that the above-described embodiments are illustrative and not restrictive. In addition, it is not limited to the order of the operations shown in the flowchart, and it may be understood that, according to various embodiments, some steps may be omitted or added, and the order of some steps may be changed.

한편, 상술한 실시 예는, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터에 의해 판독 가능한 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 실시 예에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 또한, 상술한 실시 예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로 구현될 수 있다. 예를 들어, 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 컴퓨터가 읽고 실행할 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다.Meanwhile, the above-described embodiment can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable medium. In addition, the structure of the data used in the above-described embodiment may be recorded in a computer-readable medium through various means. In addition, the above-described embodiment may be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. For example, methods implemented as software modules or algorithms may be stored in a computer-readable recording medium as computer-readable codes or program instructions.

컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 기록 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비 분리형 매체를 포함할 수 있다. 컴퓨터 판독 가능 매체는 마그네틱 저장매체, 예를 들면, 롬, 플로피 디스크, 하드 디스크 등을 포함하고,) 광학적 판독 매체, 예를 들면, 시디롬, DVD 등과 같은 저장 매체를 포함할 수 있으나, 이에 제한되지 않는다. 또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다.Computer-readable media may be any recording media that can be accessed by a computer, and may include volatile and nonvolatile media, removable and non-removable media. The computer readable medium may include a magnetic storage medium, for example, a ROM, a floppy disk, a hard disk, etc. does not In addition, computer-readable media may include computer storage media and communication media.

또한, 컴퓨터가 읽을 수 있는 복수의 기록 매체가 네트워크로 연결된 컴퓨터 시스템들에 분산되어 있을 수 있으며, 분산된 기록 매체들에 저장된 데이터, 예를 들면 프로그램 명령어 및 코드가 적어도 하나의 컴퓨터에 의해 실행될 수 있다.In addition, a plurality of computer-readable recording media may be distributed in network-connected computer systems, and data stored in the distributed recording media, for example, program instructions and codes, may be executed by at least one computer. have.

본 개시에서 설명된 특정 실행들은 일 실시 예 일 뿐이며, 어떠한 방법으로도 본 개시의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 및 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다.The specific implementations described in the present disclosure are merely exemplary, and do not limit the scope of the present disclosure in any way. For brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted.

전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술 분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일 형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present disclosure described above is for illustration, and those of ordinary skill in the art to which the present disclosure pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present disclosure. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may be implemented in a combined form.

본 개시에서 모든 예들 또는 예시적인 용어, “예를 들어,” “등”의 사용은 단순히 본 개시를 상세히 설명하기 위한 것으로서 특허 청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 개시의 범위가 한정되는 것은 아니다.The use of all examples or exemplary terms, “for example,” “etc.,” in the present disclosure is merely for the purpose of describing the present disclosure in detail, and unless limited by the appended claims, the use of the examples or exemplary terms causes the present disclosure. is not limited in scope.

또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 개시에 기재된 구성 요소들은 본 개시의 실행을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.In addition, unless specifically stated as "essential", "importantly", etc., the components described in the present disclosure may not necessarily be components for the implementation of the present disclosure.

본 개시의 실시 예들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다.Those of ordinary skill in the art related to the embodiments of the present disclosure will understand that it may be implemented in a modified form without departing from the essential characteristics of the description.

본 개시는 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 본 개시는 명세서에 기재된 특정한 실시 형태에 의해 한정되는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물이 본 개시에 포함되는 것으로 이해되어야 한다. 그러므로, 개시된 실시 예들은 한정적인 관점이 아닌 설명적 관점에서 이해되어야 한다.The present disclosure can apply various transformations and can have various embodiments, and the present disclosure is not limited by the specific embodiments described in the specification, and all transformations and equivalents included in the spirit and scope of the present disclosure It should be understood that alternatives are included in the present disclosure. Therefore, the disclosed embodiments are to be understood in an illustrative rather than a restrictive sense.

본 개시의 범위는 발명의 상세한 설명보다는 특허 청구 범위에 의하여 나타나며, 특허 청구 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present disclosure is indicated by the claims rather than the detailed description of the invention, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present disclosure.

본 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.As used herein, terms such as “…unit” and “module” mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.

"부", "모듈"은 어드레싱될 수 있는 저장 매체에 저장되며 프로세서에 의해 실행될 수 있는 프로그램에 의해 구현될 수도 있다.“Part” and “module” are stored in an addressable storage medium and may be implemented by a program that can be executed by a processor.

예를 들어, “부”, "모듈" 은 소프트웨어 구성 요소들, 객체 지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들에 의해 구현될 수 있다.For example, “part” and “module” refer to components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and programs. It may be implemented by procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays and variables.

본 명세서에서, "A는 a1, a2 및 a3 중 하나를 포함할 수 있다"는 기재은, A라는 엘리먼트(element)에 포함될 수 있는 예시적인 엘리먼트가 a1, a2 또는 a3라는 넓은 의미이다.In this specification, the description "A may include one of a1, a2, and a3" has a broad meaning that exemplary elements that may be included in the element A are a1, a2, or a3.

상기 기재로 인해 엘리먼트 A를 구성할 수 있는 엘리먼트가 반드시 a1, a2 또는 a3로 국한된다는 것은 아니다.The above description is not necessarily limited to a1, a2, or a3 elements constituting the element A.

따라서 A를 구성할 수 있는 엘리먼트가, a1, a2 및 a3 이외에 예시되지 않은 다른 엘리먼트들을 배제한다는 의미로, 배타적으로 해석되지 않음에 유의하여야 한다.Therefore, it should be noted that the elements constituting A are not exclusively interpreted as meaning excluding other elements not exemplified other than a1, a2, and a3.

또한, 상기 기재는, A는 a1를 포함하거나, a2를 포함하거나, 또는 a3를 포함할 수 있다는 의미이다. 상기 기재가 A를 구성하는 엘리먼트들이 반드시 소정 집합 내에서 선택적으로 결정된다는 것을 의미하지는 않는다. 예를들어 상기 기재가, 반드시 a1, a2 및 a3를 포함하는 집합으로부터 선택된 a1, a2, 또는 a3가 컴포넌트 A를 구성한다는 것으로, 제한적으로 해석되지 않음에 유의하여야 한다.In addition, the above description means that A may include a1, a2, or a3. The above description does not necessarily mean that the elements constituting A are selectively determined within a predetermined set. For example, it should be noted that the above description is not necessarily to be construed as restrictive as that a1, a2, or a3 selected from the set including a1, a2 and a3 constitutes component A.

또한 본 명세서에서, "a1, a2 및 a3 중 적어도 하나"라는 기재는, "a1", "a2", "a3", "a1 및 a2", "a1 및 a3", "a2 및 a3", 및 "a1, a2 및 a3" 중에서 한 가지를 나타낸다.Also in the present specification, the description "at least one of a1, a2 and a3" means "a1", "a2", "a3", "a1 and a2", "a1 and a3", "a2 and a3", and represents one of "a1, a2 and a3".

스마트 테이블 디바이스(100) 디스플레이(110)
테이블 프레임(120) 메인서버(130)
AI 음성인식장치(131) MR 콘텐츠 저장장치(132)
운영 프로세서(133) HMD 장치(140)
콘트롤러(150) 마커(160)
가상 오브젝트(170)
Smart Table Device 100 Display 110
Table Frame (120) Main Server (130)
AI voice recognition device (131) MR content storage device (132)
operating processor (133) HMD device (140)
Controller(150) Marker(160)
virtual object 170

Claims (5)

삭제delete 테이블 프레임; 디스플레이; AI 음성인식장치; MR 콘텐츠 저장장치; 메인서버; HMD; 마커 이미지; 및 상기 HMD 장치를 통해 MR 콘텐츠를 구현하고 상기 AI 음성인식 장치를 통해 음성인식 교육을 실행시키는 프로세서를 포함하고,
상기 테이블 프레임 내부에는 상기 MR 콘텐츠 저장장치를 포함한 상기 메인서버가 결합되어 있고, 상기 테이블 프레임 상부에는 상기 메인서버와 연결되어 상기 마커 이미지를 표시하는 상기 디스플레이가 장착되며, 상기 프로세서는 상기 디스플레이를 통해 실행되는 마커 이미지를 상기 HMD 장치를 통해 인식하여 상기 HMD 장치를 통해 가상의 오브젝트를 만들어 사용자의 눈에 보이게 하며, 상기 AI 음성인식장치를 통해 학습 내용에 관해 사용자에게 질문을 하고, 질문에 대한 사용자의 음성 데이터를 분석하여 수치화하여 질문에 대한 사용자의 대답이 일정 점수 이상인 경우 다음 학습단계로 진행하거나 일정 점수 미만인 경우 기존의 학습을 반복하여 실행하는 교육 MR 콘텐츠를 제공하는 스마트 테이블 디바이스.
table frame; display; AI speech recognition device; MR content storage; main server; HMD; marker image; and a processor for implementing MR content through the HMD device and executing voice recognition training through the AI voice recognition device,
The main server including the MR content storage device is coupled to the inside of the table frame, and the display connected to the main server and displaying the marker image is mounted on the table frame, and the processor operates through the display. Recognizing the executed marker image through the HMD device, creating a virtual object through the HMD device and making it visible to the user, asking the user about the learning content through the AI voice recognition device, and asking the user about the question A smart table device that provides educational MR content that analyzes and quantifies the voice data of the user to proceed to the next learning stage if the user's answer to a question is above a certain score or repeats the existing learning if it is below a certain score.
제 2항에 있어서,
학습진행을 위해 MR 콘텐츠를 조절할 수 있는 콘트롤러를 포함하는 스마트 테이블 디바이스.
3. The method of claim 2,
A smart table device including a controller that can adjust MR contents for learning progress.
제 2항에 있어서,
상기 마커는 상기 HMD에서 인식되는 장면에 포함된 실제 오브젝트를 포함하고,
상기 마커의 속성은, 상기 실제 오브젝트의 종류, 상기 실제 오브젝트가 포함된 장면이 상기 HMD에서 인식된 시간 및 위치 중 적어도 하나를 포함하며,
상기 프로세서는, 상기 마커가 식별됨에 따라 기 저장된 매핑 데이터베이스로부터 상기 식별된 마커에 대응되는 MR 오브젝트를 추출하는, MR 교육 콘텐츠를 제공하는 스마트 테이블 디바이스.
3. The method of claim 2,
The marker includes a real object included in the scene recognized by the HMD,
The property of the marker includes at least one of a type of the real object, a time and a location at which a scene including the real object is recognized by the HMD,
The processor, as the marker is identified, extracts an MR object corresponding to the identified marker from a previously stored mapping database, a smart table device for providing MR education content.
제 2항에 있어서,
학습을 위한 상기 MR 콘텐츠의 움직임을 상기 디스플레이에 실행되는 마커이미지의 움직임을 통해 조절할 수 있는 스마트 테이블 디바이스.
3. The method of claim 2,
A smart table device capable of controlling the movement of the MR content for learning through the movement of a marker image executed on the display.
KR1020200057144A 2020-05-13 2020-05-13 Smart tables for MR learning content and how to provide them KR102320229B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200057144A KR102320229B1 (en) 2020-05-13 2020-05-13 Smart tables for MR learning content and how to provide them

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200057144A KR102320229B1 (en) 2020-05-13 2020-05-13 Smart tables for MR learning content and how to provide them

Publications (1)

Publication Number Publication Date
KR102320229B1 true KR102320229B1 (en) 2021-11-02

Family

ID=78476124

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200057144A KR102320229B1 (en) 2020-05-13 2020-05-13 Smart tables for MR learning content and how to provide them

Country Status (1)

Country Link
KR (1) KR102320229B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090001668A (en) * 2006-11-08 2009-01-09 한국전자통신연구원 Method and system for measuring and evaluating learner performance on augumented reality based learning
KR101743230B1 (en) * 2016-04-18 2017-06-05 (주)케이디엠티 Apparatus and method for providing realistic language learning contents based on virtual reality and voice recognition
KR20180076188A (en) * 2016-12-27 2018-07-05 엔티지(주) Method for embodiment of augmented reality using marker and Voice Recognition
KR20190002815A (en) 2017-06-30 2019-01-09 주식회사 솔루션뱅크플러스 Smart touch table
KR20190034051A (en) * 2017-09-22 2019-04-01 삼성전자주식회사 Method and device for providing ar(augmented reality) service
KR101964192B1 (en) 2016-09-30 2019-04-02 주식회사 케이엠씨로보틱스 Smart table apparatus for simulation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090001668A (en) * 2006-11-08 2009-01-09 한국전자통신연구원 Method and system for measuring and evaluating learner performance on augumented reality based learning
KR101743230B1 (en) * 2016-04-18 2017-06-05 (주)케이디엠티 Apparatus and method for providing realistic language learning contents based on virtual reality and voice recognition
KR101964192B1 (en) 2016-09-30 2019-04-02 주식회사 케이엠씨로보틱스 Smart table apparatus for simulation
KR20180076188A (en) * 2016-12-27 2018-07-05 엔티지(주) Method for embodiment of augmented reality using marker and Voice Recognition
KR20190002815A (en) 2017-06-30 2019-01-09 주식회사 솔루션뱅크플러스 Smart touch table
KR20190034051A (en) * 2017-09-22 2019-04-01 삼성전자주식회사 Method and device for providing ar(augmented reality) service

Similar Documents

Publication Publication Date Title
Concannon et al. Head-mounted display virtual reality in post-secondary education and skill training
Mota et al. Augmented reality mobile app development for all
Iftene et al. Enhancing the attractiveness of learning through augmented reality
Buchner et al. Promoting Intrinsic Motivation with a Mobile Augmented Reality Learning Environment.
Daineko et al. Augmented and virtual reality for physics: Experience of Kazakhstan secondary educational institutions
Kompaniets et al. Using 3D modelling in design training simulator with augmented reality
Shirazi et al. Assessing the pedagogical value of augmented reality-based learning in construction engineering
Nabila et al. A mobile augmented reality mathematics card game for learning prism
Gargrish et al. Evaluation of memory retention among students using augmented reality based geometry learning assistant
Oueida et al. Augmented Reality Awareness and Latest Applications in Education: A Review.
Vidakis et al. Cultural Inheritance Educational Environment: The Ancient Theatre Game ThimelEdu
Viktoria et al. Virtual and augmented reality in language acquisition
Hafiz et al. Enhancement of human anatomy and nervous system learning using mobile augmented reality application
KR102320229B1 (en) Smart tables for MR learning content and how to provide them
Marshall Augmented reality’s application in education and training
Westerfield Intelligent augmented reality training for assembly and maintenance
Theodoropoulou et al. Exploiting extended reality technologies for educational microscopy
Chafiq et al. Navigating Virtual Worlds and the Metaverse for Enhanced E-Learning
Reddy New horizons for learning: Augmented reality in education
Marshall Emerging, Emergent, and Emerged Approaches to Mixed Reality in Learning and Teaching
KR102395824B1 (en) Language learning system devices and How to provide language learning MR content
Hashim et al. The design and development of augmented reality (AR) application in cloud computing learning topics
Zohrab Virtual language and culture reality (VLCR)
JONES JR MOBILE AUGMENTED REALITY MODULE AS-PART OF THE E-LEARNING SYSTEM
Rasheed et al. LANGUAGE LEARNING TOOL BASED ON AUGMENTED REALITY AND THE CONCEPT FOR IMITATING MENTAL ABILITY OF WORD ASSOCIATION (CIMAWA)

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant