KR101916146B1 - Method and system for providing book reading experience service based on augmented reality and virtual reality - Google Patents

Method and system for providing book reading experience service based on augmented reality and virtual reality Download PDF

Info

Publication number
KR101916146B1
KR101916146B1 KR1020170091406A KR20170091406A KR101916146B1 KR 101916146 B1 KR101916146 B1 KR 101916146B1 KR 1020170091406 A KR1020170091406 A KR 1020170091406A KR 20170091406 A KR20170091406 A KR 20170091406A KR 101916146 B1 KR101916146 B1 KR 101916146B1
Authority
KR
South Korea
Prior art keywords
character
service
providing
user
reading
Prior art date
Application number
KR1020170091406A
Other languages
Korean (ko)
Inventor
이세환
박지영
조연호
남은경
Original Assignee
제이에스씨(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 제이에스씨(주) filed Critical 제이에스씨(주)
Priority to KR1020170091406A priority Critical patent/KR101916146B1/en
Application granted granted Critical
Publication of KR101916146B1 publication Critical patent/KR101916146B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

According to the present invention, a reading-experience service providing method for a reading-experience service providing system including a head mounted display (HMD) includes: a step of providing an augmented reality (AR) service including a first virtual character describing a recognized character as a three-dimensional virtual image when the character is recognized on a two-dimensional plane through the HMD; a step of making a switch to a virtual reality (VR) service having a scenario based on children′s story associated with the character, while providing the AR service; a step of generating a second virtual character, which is a virtual character of a user wearing the HMD, when the switch to the VR service has been completed; a step of providing learning content as an interactive game, while providing the VR service in accordance with the scenario using the first and second characters as main components; and a step of providing a reading state report including information diagnosing and evaluating a reading ability of the user when the scenario has ended. According to the present invention, the method is capable of inducing children to read books.

Description

AR과 VR을 기반으로 하는 독서 체험 서비스 제공 방법 및 시스템 {Method and system for providing book reading experience service based on augmented reality and virtual reality}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and system for providing a reading experience service based on AR and VR,

본 발명은 독서 체험 서비스 기술에 관한 것으로서, 더욱 상세하게는 HMD를 착용한 사용자에게 AR(Augmented Reality)과 VR(Virtual Reality)을 기반으로 하여 독서 체험 서비스를 제공하는 기술에 관한 것이다. The present invention relates to a reading experience service technique, and more particularly, to a technique of providing a reading experience service based on Augmented Reality (AR) and Virtual Reality (VR) to a user wearing an HMD.

AR(Augmented Reality, 증강현실)은 사용자가 눈으로 보는 현실세계와 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주는 가상현실의 하나이다. 현실세계를 가상세계로 보완해주는 개념인 AR은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 하며, 사용자가 보고 있는 실사 영상에 3차원 가상영상을 겹침(overlap)으로써 현실환경과 가상화면과의 구분이 모호해지도록 한다.AR (Augmented Reality) is one of the virtual reality in which the user views the real world viewed by the user and the virtual world having the additional information as one image. AR, a concept that complements the real world with a virtual world, uses a virtual environment created by computer graphics, but the protagonist is a real environment. The computer graphics serve to provide information necessary for the real environment, and overlap the three-dimensional virtual image with the real image that the user is viewing, thereby making the distinction between the real environment and the virtual screen ambiguous.

가상현실은 자신(객체)과 배경, 환경 모두 현실이 아닌 가상의 이미지를 사용하는데 반해, 증강현실(AR)은 현실의 이미지나 배경에 3차원 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술이다.Virtual reality (AR) is a technology that overlaps 3D virtual images on a realistic image or background and displays them as a single image, while virtual objects use virtual images instead of reality.

또한, 증강현실은 혼합 현실(Mixed Reality, MR)이라고도 하는데, 비행기 제조사인 보잉사에서 1990경 비행기 조립 과정에 가상의 이미지를 첨가하면서 증강현실이 처음으로 세상에 소개됐다.Augmented Reality (MR), also known as Mixed Reality (MR), was introduced to the world for the first time as augmented reality was added to the world by adding a virtual image to the airplane assembly process in 1990 at Boeing.

증강현실과 가상현실(Virtual Reality, VR)은 서로 비슷한 듯 하지만 그 주체가 허상이냐 실상이냐에 따라 명확히 구분된다. 예를 들어, 가상현실 격투 게임은 나를 대신하는 캐릭터가 가상의 공간에서 가상의 적과 대결하지만, 증강현실 격투 게임은 현실의 내가 현실의 공간에서 가상의 적과 대결을 벌이는 형태가 된다. 따라서, 증강현실이 가상현실에 비해 현실감이 뛰어나다는 특징이 있다.Augmented Reality and Virtual Reality (VR) seem to be similar, but they are clearly distinguished according to whether they are virtual or real. For example, in a virtual reality fighting game, a character instead of me is confronted with a virtual enemy in a virtual space, but an augmented reality fighting game is a form in which I confront a virtual enemy in a real space. Therefore, the augmented reality is more realistic than the virtual reality.

이 밖에 가상현실은 일반적으로 영화나 영상 분야 등 특수 환경에서만 사용되지만 증강현실은 현재 일반인들에게도 널리 활용될 만큼 대중화된 상태다.In addition, virtual reality is generally used only in special environments such as film and video, but augmented reality is widely popularized by the general public.

예를 들어, 인터넷을 통한 지도 검색, 위치 검색 등도 넓은 의미에서는 증강현실에 포함된다.For example, map retrieval via the Internet, location retrieval, etc. are also included in augmented reality in a broad sense.

일반적으로, 유아 및 어린이는 동화책을 보거나 놀이기구로서 퍼즐 맞추기나 블럭쌓기를 하며 성장한다. 이처럼, 아동에게 동화책 또는 놀이기구는 다양한 정보와 지식을 자연스럽게 습득하게 하는 중요한 매체로, 동화책이나 퍼즐 또는 블럭은 아동의 정서, 상상력, 창의력 발달에 도움을 주면서 그 교육적인 내용을 통해 사회, 언어, 인지 발달 등에 고른 영향을 미친다.Generally, infants and children grow up by watching puzzles or playing puzzles or building blocks. As such, children's fairy tale or playgrounds are an important medium for naturally acquiring various information and knowledge. Fairy tale puzzles, puzzles, or blocks are used to help children develop their emotions, imagination and creativity, Cognitive development and so on.

2015년 국민독서실태조사 보고서에 의하면, 성장 과정에서 책을 매개로 한 소통(책 읽기, 책 놀이, 독서대화 등)은 독서에 대한 친밀감을 키우고 독서습관을 기르는데 중요한 역할을 한다고 한다.According to the National Survey on National Reading in 2015, communication through books (reading books, playing games, reading conversation, etc.) during the growth process plays an important role in developing intimacy and reading habits.

이처럼 최근 연구 결과에 의하면, 독서량이 많은 아이는 학업성적은 물론, 사고력과 창의력이 높다는 사실이 밝혀졌다. 그리고, 디지털 매체의 발달로 급변하는 독서환경 및 독서인구 감소에 따른 대응이 요구되는 상황이다. As a result of recent research, it has been found that children with high reading abilities have high thinking skills and creativity as well as academic performance. In addition, with the development of digital media, there is a need to respond to a rapidly changing reading environment and a decrease in the reading population.

이에 정부는 독서문화진흥기본계획을 수립하여, 독서진흥 및 독서문화 확산을 위한 사업을 추진하고 있으나, 국민이 체감하기에는 미흡한 실정이며, 독서 콘텐츠의 지속적 확충이 요구된다. The government has established a basic plan for promoting reading culture, and has been promoting projects for promoting reading and spreading the reading culture. However, it is not enough for the public to feel it, and it is required to continuously expand reading contents.

이처럼, 유아용 시장이 틈새시장에서 핵심(엔젤)시장으로 부상함에 따라 모바일 키즈를 겨냥한 학습용 게임형 모바일 에듀테인먼트 콘텐츠 소비시장이 성장하고 있다. As such, as the infant market has emerged as a niche (angel) market in the niche market, the content consumption market for learning mobile game edutainment targeting mobile kids is growing.

그리고, 가상현실(VR)이 미래 산업을 이끌 블루오션으로 떠오르면서 게임, 의료, 교육, 전시 등 다양한 분야에 적용사례가 증가하고 있으나, 킬러 콘텐츠 발굴이 필요한 실정이다. As virtual reality (VR) emerges as a blue ocean that will lead the future industry, application cases are increasing in various fields such as games, medical education, education and exhibition, but it is necessary to find killer contents.

대한민국 공개특허 10-2009-0003445Korean Patent Publication No. 10-2009-0003445

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 가상현실(VR)과 증강현실(AR)을 기반으로 인터랙션(interaction) 체험이 가능한 실감형 에듀테인먼트 동화체험 콘텐츠 및 스마트 학습 솔루션을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention provides a real-time edutainment assimilation content and a smart learning solution capable of interacting with a virtual reality (VR) and an augmented reality (AR) It has its purpose.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

이와 같은 목적을 달성하기 위한 본 발명의 HMD(Head mounted Display)를 포함하는 독서 체험 서비스 제공 시스템에서의 독서 체험 서비스 제공 방법에서, 상기 HMD를 통해 2D 평면 상에 존재하는 캐릭터를 인식하면, 인식된 캐릭터를 3D 가상영상으로 표현한 제1 가상 캐릭터를 포함하는 AR(Augmented Reality) 서비스를 제공하는 단계, 상기 AR 서비스 제공 중에 상기 캐릭터와 관련된 동화 내용을 기반으로 하는 시나리오의 VR(Virtual Reality) 서비스로 전환하는 단계, 상기 VR 서비스로 전환되면, 상기 HMD를 착용한 사용자의 가상 캐릭터인 제2 가상 캐릭터를 생성하는 단계, 상기 제1 캐릭터와 상기 제2 캐릭터를 위주로 상기 시나리오에 따라 VR 서비스를 제공하는 중에, 인터랙션(interaction)이 가능한 게임 형태의 학습 컨텐츠를 제공하는 단계 및 상기 시나리오가 종료되면, 사용자의 독서능력을 진단하여 평가한 정보를 포함하는 독서 현황 리포트를 제공하는 단계를 포함한다. In order to achieve the above object, in a method of providing a reading experience service in a reading experience service providing system including an HMD (Head Mounted Display) of the present invention, when a character existing on a 2D plane is recognized through the HMD, Providing an AR (Augmented Reality) service including a first virtual character representing a character in a 3D virtual image, converting the virtual reality service into a scenario based on a moving image content related to the character during the provision of the AR service, Generating a second virtual character, which is a virtual character of a user wearing the HMD, when the VR service is switched to the VR service; and providing a VR service based on the first character and the second character in accordance with the scenario , Providing learning contents in the form of a game capable of interacting with each other, and when the scenario ends, And providing a reading status report including information assessed and evaluated by the user's reading ability.

상기 인터랙션(interaction)이 가능한 게임 형태의 학습 컨텐츠를 제공하는 단계에서, 사용자의 손동작을 감지하고 이를 인터랙션에 반영하거나, 또는 사용자의 음성을 인식하고 이를 인터랙션에 반영할 수 있다. In the step of providing the game-type learning contents in which the interaction can be performed, the user can recognize the hand motion of the user and reflect the interaction to the user, or recognize the user's voice and reflect the user's voice in the interaction.

상기 AR(Augmented Reality) 서비스를 제공하는 단계에서, 특정 색으로 채색된 캐릭터를 인식하여 제1 가상 캐릭터로 디스플레이할 수 있다. In the step of providing the Augmented Reality (AR) service, a character colored in a specific color can be recognized and displayed as a first virtual character.

상기 독서 현황 리포트를 제공하는 단계에서, 상기 독서 현황 리포터를 미리 정해진 단말로 전송할 수 있다. In the step of providing the reading status report, the reading status report may be transmitted to the predetermined terminal.

본 발명의 독서 체험 서비스 제공 시스템은 사용자의 손 동작을 인식하기 위한 손동작 인식 센서, 사용자의 몸 전체의 동작을 인식하기 위한 몸동작 인식 센서, 사용자의 머리에 착용되는 HMD(Head mounted Display) 및 상기 HMD를 통해 2D 평면 상에 존재하는 캐릭터를 인식하고, 인식된 캐릭터를 3D 가상영상으로 표현한 제1 가상 캐릭터를 포함하는 AR 서비스를 제공하고, 상기 AR 서비스 제공 중에 상기 캐릭터와 관련된 동화 내용을 기반으로 하는 시나리오의 VR 서비스로 전환하고, 상기 HMD를 착용한 사용자의 가상 캐릭터인 제2 가상 캐릭터를 생성하는 제어 모듈을 포함한다. The present invention provides a reading experience service providing system comprising a hand movement recognition sensor for recognizing a hand motion of a user, a body movement recognition sensor for recognizing motion of the whole body of the user, a head mounted display (HMD) And a first virtual character that recognizes a character existing on the 2D plane through the 3D virtual image and expresses the recognized character as a 3D virtual image, and provides the AR service based on the animation content related to the character during the provision of the AR service A VR service of the scenario, and a control module for generating a second virtual character, which is a virtual character of a user wearing the HMD.

상기 제어 모듈은 상기 제1 캐릭터와 상기 제2 캐릭터를 위주로 상기 시나리오에 따라 VR 서비스를 제공하는 중에, 상기 손동작 인식 센서로부터 인식된 사용자의 손 동작과, 상기 몸동작 인식 센서로부터 인식된 사용자의 몸 동작을 반영하여 인터랙션이 가능한 게임 형태의 학습 컨텐츠를 제공하며, 시나리오가 종료되면 사용자의 독서능력을 진단하여 평가한 정보를 포함하는 독서 현황 리포트를 제공한다. Wherein the control module controls the hand movement of the user recognized by the hand movement recognition sensor while the VR service is being provided based on the first character and the second character according to the scenario, And provides a reading status report including information on the evaluation of the user's reading ability when the scenario ends, and information including the evaluated information.

상기 HMD는 외부 기기와 통신하기 위한 통신 인터페이스부, 음성을 인식하기 위한 음성인식부, 음성을 출력하기 위한 음성출력부, AR 또는 VR 영상을 디스플레이하기 위한 디스플레이부 및 상기 HMD의 전반적인 동작을 제어하며, 상기 통신 인터페이스부를 통해 수신한 신호를 처리하고, 상기 VR 서비스를 제공하는 중에 상기 음성인식부로부터 인식된 사용자의 음성을 인터랙션에 반영하여 게임을 진행하도록 하는 제어부를 포함하여 이루어질 수 있다. The HMD includes a communication interface for communicating with an external device, a voice recognition unit for recognizing voice, a voice output unit for outputting voice, a display unit for displaying an AR or VR image, and an overall operation of the HMD And a control unit for processing a signal received through the communication interface unit and reflecting the voice of the user recognized by the voice recognition unit during the provision of the VR service to the interaction to proceed with the game.

상기 제어 모듈은 특정 색으로 채색된 캐릭터를 인식하여 제1 가상 캐릭터로 상기 HMD에 디스플레이하도록 할 수 있다. The control module may recognize a character colored in a specific color and display the character on the HMD as a first virtual character.

상기 제어 모듈은 상기 독서 현황 리포터를 미리 정해진 단말로 전송할 수 있다. The control module may transmit the reading status report to the predetermined terminal.

본 발명에 의하면, AR과 VR을 기반으로 하여 독서 체험 서비스를 제공함으로써, 어린이들에게 독서 습관을 형성시키고, 자기 주도적 학습능력을 개발시키고, 소통 및 공감 능력을 함양시키고, 창의성, 인성, 감성 교육 강화에 도움을 줄 수 있다는 효과가 있다. According to the present invention, by providing a reading experience service based on AR and VR, children can develop reading habits, develop self-directed learning ability, develop communication and empathy ability, There is an effect that can help strengthen.

또한, 현재 킬러 콘텐츠가 부재한 VR 시장 환경 속에서, 본 발명에 의하면 VR, AR의 첨단 IT 기술과 교육이 융합된 신개념의 창의적 성과물 개발을 통해 VR산업 활성화에 기여할 수 있다는 장점이 있다. In addition, according to the present invention, in the VR market environment where there is no killer content, there is an advantage that the VR industry can contribute to the revitalization of the VR industry through the development of new concept creative accomplishments in which advanced IT technology and education of the VR and AR are fused.

또한, 본 발명에 의하면, 독서 생활화 및 습관화를 통한 독서문화 진흥 및 출판산업 성장에 기여할 수 있으며, 독서문화산업, 콘텐츠산업, 출판산업 등 관련 산업의 신규 일자리 창출을 기대할 수 있다. Further, according to the present invention, it is possible to contribute to the promotion of the reading culture and the growth of the publishing industry through reading living and habituation, and it is expected that new industries such as reading culture industry, contents industry and publishing industry can be created.

도 1 및 도 2는 본 발명의 일 실시예에 따른 독서 체험 서비스 제공 시스템의 개념을 개략적으로 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 두 개의 센서에서 인식 처리 과정을 보여주는 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 HMD의 내부 구성을 보여주는 블록도이다.
도 5는 본 발명의 일 실시예에 따른 독서 체험 서비스 제공 방법을 보여주는 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 독서 체험 서비스 제공 과정을 간략하게 도시한 도면이다.
도 7 내지 도 9는 본 발명의 일 실시예에 따른 독서 체험 시나리오의 예시도이다.
도 10은 본 발명의 일 실시예에 따른 독서 현황 리포트를 예시한 도면이다.
1 and 2 are views schematically showing a concept of a reading experience service providing system according to an embodiment of the present invention.
3 is a flowchart illustrating a recognition process in two sensors according to an exemplary embodiment of the present invention.
4 is a block diagram illustrating an internal structure of an HMD according to an embodiment of the present invention.
5 is a flowchart illustrating a method of providing a reading experience service according to an embodiment of the present invention.
FIG. 6 is a diagram briefly showing a process of providing a reading experience service according to an embodiment of the present invention.
7 to 9 are illustrations of a reading experience scenario according to an embodiment of the present invention.
10 is a diagram illustrating a reading status report according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 갖는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted in an ideal or overly formal sense unless expressly defined in the present application Do not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and redundant explanations thereof will be omitted. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

도 1 및 도 2는 본 발명의 일 실시예에 따른 독서 체험 서비스 제공 시스템의 개념을 개략적으로 도시한 도면이다. 1 and 2 are views schematically showing a concept of a reading experience service providing system according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 본 발명의 일 실시예에 따른 독서 체험 서비스 제공 시스템은 HMD(Head mounted Display)(100), 손동작 인식 센서(200), 몸동작 인식 센서(300), 제어 모듈(미도시)을 포함한다.1 and 2, a reading experience service providing system according to an embodiment of the present invention includes an HMD (Head Mounted Display) 100, a hand movement recognition sensor 200, a body motion recognition sensor 300, a control module (Not shown).

HMD(100)는 사용자의 머리에 착용되는 기기로서, AR(Augmented Reality)과 VR(Virtual Reality)을 디스플레이한다.The HMD 100 is a device worn on the user's head, and displays Augmented Reality (AR) and Virtual Reality (VR).

손동작 인식 센서(200)는 사용자의 손 동작을 인식하는 역할을 한다. 예를 들어, 손동작 인식 센서(200)는 립 모션(Leap motion)으로 구현될 수 있다. 본 발명의 일 실시예에서 손동작 인식 센서(200)는 HMD 상에 함께 장착되어 구현될 수도 있다. The hand movement recognition sensor 200 recognizes the hand movement of the user. For example, the hand movement recognition sensor 200 may be implemented as a lip motion. In an embodiment of the present invention, the hand movement recognition sensor 200 may be mounted together on the HMD.

몸동작 인식 센서(300)는 사용자의 몸 전체의 동작을 인식하는 역할을 한다. 예를 들어, 몸동작 인식 센서(300)는 키넥트(Kinect)로 구현될 수 있다. The body motion recognition sensor 300 recognizes the motion of the whole body of the user. For example, the body motion recognition sensor 300 may be implemented as a Kinect.

제어 모듈(미도시)은 HMD(100)를 통해 2D 평면 상에 존재하는 캐릭터를 인식하고, 인식된 캐릭터를 3D 가상영상으로 표현한 제1 가상 캐릭터를 포함하는 AR 서비스를 제공한다. 그리고, AR 서비스 제공 중에 캐릭터와 관련된 동화 내용을 기반으로 하는 시나리오의 VR 서비스로 전환하고, HMD를 착용한 사용자의 가상 캐릭터인 제2 가상 캐릭터를 생성한다. The control module (not shown) provides an AR service including a first virtual character that recognizes a character existing on the 2D plane through the HMD 100 and expresses the recognized character as a 3D virtual image. Then, during the provision of the AR service, the system switches to the VR service of the scenario based on the animation contents related to the character, and generates the second virtual character which is the virtual character of the user wearing the HMD.

본 발명의 일 실시예에서 제어 모듈은 특정 색으로 채색된 캐릭터를 인식하여 제1 가상 캐릭터로 HMD(100)에 디스플레이하도록 할 수 있다. 예를 들어, 제어 모듈은 녹색으로 채색된 캐릭터를 인식하여 제1 가상 캐릭터로 HMD(100)에 디스플레이하도록 할 수 있다. In an embodiment of the present invention, the control module may recognize a character colored in a specific color and display it on the HMD 100 as a first virtual character. For example, the control module may recognize a character painted in green and display it on the HMD 100 as a first virtual character.

그리고, 제어 모듈은 제1 캐릭터와 제2 캐릭터를 위주로 시나리오에 따라 VR 서비스를 제공하는 중에, 손동작 인식 센서(200)로부터 인식된 사용자의 손 동작과, 몸동작 인식 센서(300)로부터 인식된 사용자의 몸 동작을 반영하여 인터랙션(interaction)이 가능한 게임 형태의 학습 컨텐츠를 제공하며, 시나리오가 종료되면 사용자의 독서능력을 진단하여 평가한 정보를 포함하는 독서 현황 리포트를 제공한다. Then, while the VR service is being provided according to the scenario based on the first character and the second character, the control module determines whether or not the user's hand movement recognized from the hand movement recognition sensor 200 and the hand movement of the user recognized from the body movement recognition sensor 300 Provides learning contents in a game form capable of interacting with the body by reflecting the body motion, and provides a reading status report including information obtained by diagnosing and evaluating the user's reading ability when the scenario ends.

본 발명의 일 실시예에서 제어 모듈은 독서 현황 리포터를 미리 정해진 단말로 전송할 수 있다. 예를 들어, 독서 체험 서비스를 이용한 아동의 보호자가 사용하는 핸드폰으로 독서 현황 리포터를 전송할 수 있다. In an embodiment of the present invention, the control module may transmit the reading status report to the predetermined terminal. For example, a reading status report can be sent to a mobile phone used by a child's caregiver using a reading experience service.

본 발명에서 제어 모듈은 별도의 서버 형태로 구현될 수 있고, 또는 HMD(100)에 내장되어 구현될 수도 있다. 즉, 제어 모듈은 구현 형태나 설치 장소에 한정되지 않는다. In the present invention, the control module may be implemented as a separate server or may be embedded in the HMD 100. That is, the control module is not limited to the implementation form or the installation place.

본 발명에서는 모션인식의 정확성 및 다양성을 향상시키기 위하여, 손동작 인식 모듈(200) 및 몸동작 인식 모듈(300)을 상호간 연동하는 기술을 제안한다. In the present invention, a technique for interlocking the hand movement recognition module 200 and the body motion recognition module 300 is proposed in order to improve accuracy and diversity of motion recognition.

도 2에서 손동작 인식 모듈(200)의 일예로 립 모션이 사용된 경우의 인식 범위(a)와, 몸동작 인식 모듈(300)의 이례로 키넥트가 사용된 경우의 인식 범위(b)가 도시되어 있다. 2, a recognition range (a) in the case where the lip motion is used and a recognition range (b) in the case where the Kinect is used as an example of the body movement recognition module 300 are shown as an example of the hand movement recognition module 200 have.

도 3은 본 발명의 일 실시예에 따른 두 개의 센서에서 인식 처리 과정을 보여주는 흐름도이다. 3 is a flowchart illustrating a recognition process in two sensors according to an exemplary embodiment of the present invention.

도 3 (a)를 참조하면, 본 발명의 모션인식 처리 과정은 크게 모션 인식 단계(S310)와 동기화 단계(S320)로 구분할 수 있다. Referring to FIG. 3 (a), the motion recognition process of the present invention can roughly be divided into a motion recognition step S310 and a synchronization step S320.

모션 인식 단계(S310)는 손동작 인식 센서(200)에서 유효 거리를 인식하고(S311), 사용자 모션 인식(S312)을 수행하고, 몸동작 인식 센서(300)에서 유효 거리를 인식하고(S313), 사용자 모션 인식(S314)을 수행한다. 참고로 립 모션의 경우에 유효 인식 범위는 시야각 150도, 상하(z축) 600mm 이내이고, 키넥트 v2의 경우에 유효 인식 범위는 0.4~0.8m이다.The motion recognition step S310 recognizes the effective distance from the hand movement recognition sensor 200 at S311, performs the user motion recognition S312, recognizes the effective distance at the body motion recognition sensor 300 at S313, And performs motion recognition (S314). For reference, the effective recognition range for lip motion is 150 ° within the viewing angle, within 600 mm for the vertical (z-axis), and 0.4 to 0.8m for Kinect v2.

그리고, 동기화 단계(S320)에서 동시에 인식이 불가능한 경우 유효한 인식값을 우선순위로 처리한다(S321). 다시 말해서, 손동작 인식 센서(200)에 의한 사용자 모션 인식이 가능한데 몸동작 인식 센서(300)에 의한 사용자 모션 인식이 불가능한 경우 손동작 인식 센서(200)에 의한 사용자 모션 인식을 우선순위로 처리한다. 반대로, 몸동작 인식 센서(300)에 의한 사용자 모션 인식이 가능한데 손동작 인식 센서(200)에 의한 사용자 모션 인식이 불가능한 경우 몸동작 인식 센서(300)에 의한 사용자 모션 인식을 우선순위로 처리한다. 그리고, 동일 인식의 경우 동기화 처리한다(S322). 다시 말해서, 손동작 인식 센서(200)에 의한 사용자 모션 인식과 몸동작 인식 센서(300)에 의한 사용자 모션 인식이 각각 유효하고 서로 동일한 동작 범주에서 동작이 인식되는 경우, 손동작 인식 센서(200)에 의한 사용자 모션 인식과 몸동작 인식 센서(300)에 의한 사용자 모션 인식을 동기화한다. 손동작 인식 센서(200)에 의한 사용자 모션 인식과 몸동작 인식 센서(300)에 의한 사용자 모션 인식이 다른 경우, 인식된 모션의 세분화 처리를 하여 2개의 모션으로 처리한다(S323). 이러한 모션 인식 과정을 통해 본 발명에서는 손동작 인식 센서(200)와 몸동작 인식 센서(300)에 의한 개별 인식 처리가 가능하여, 손동작 인식 센서(200)의 손동작 인식 외에 사용자의 다른 동작을 인식하고 처리할 수 있다. If simultaneous recognition is impossible in the synchronization step S320, a valid recognition value is processed in a priority order (S321). In other words, when the user's motion recognition by the gesture recognition sensor 300 is impossible, the user's motion recognition by the gesture recognition sensor 200 is prioritized. On the other hand, if the user's motion recognition by the gesture recognition sensor 300 is possible but the user's motion recognition by the gesture recognition sensor 200 is impossible, user motion recognition by the gesture recognition sensor 300 is prioritized. In case of the same recognition, synchronization processing is performed (S322). In other words, when the user motion recognition by the hand movement recognition sensor 200 and the user motion recognition by the body movement recognition sensor 300 are valid and the operation is recognized in the same operation category, Thereby synchronizing the motion recognition and the user's motion recognition by the body motion recognition sensor 300. If the user's motion recognition by the hand movement recognition sensor 200 is different from the user's motion recognition by the body motion recognition sensor 300, the recognized motion is segmented and processed into two motions (S323). According to the present invention, it is possible to perform individual recognition processing by the hand movement recognition sensor 200 and the body movement recognition sensor 300, thereby recognizing and handling other motions of the user in addition to the hand movement recognition of the hand movement recognition sensor 200 .

이 때, 손동작 인식 센서(200)에 의한 사용자 모션과 몸동작 인식 센서(300)에 의한 사용자 모션은 기계 학습 알고리즘을 통해 해당 모션이 학습될 수도 있다. 예를 들어, 손동작 인식 센서(200)나 몸동작 인식 센서(300)에 의한 정확한 모션 인식 확률이 낮은 모션들에 대해서, 해당 모션 각각에 대한 인식 가능한 범위의 특징을 추출하고 그러한 특징이 인식되었을 때 기계 학습에 의한 가중치를 부여해서 해당 모션을 특정 모션으로 인식하도록 학습시킬 수도 있다. 이러한 과정을 통해 정확한 인식이 어려운 모션에 대해서도 그 인식과 구분이 가능하게 된다.At this time, the user motion by the hand movement recognition sensor 200 and the user motion by the body motion recognition sensor 300 may be learned through the machine learning algorithm. For example, when a feature of a recognizable range is extracted for each motion having a low probability of accurate motion recognition by the hand movement recognition sensor 200 or the body movement recognition sensor 300, It is possible to give a weight by learning and learn such motion to be recognized as a specific motion. Through this process, it becomes possible to recognize and distinguish the motion that is difficult to recognize accurately.

도 3 (b)는 손동작 인식 센서에 의한 제스처의 기계 학습 알고리즘을 나타낸다. 도 3 (b)를 참조하면, 오프라인 상에서 손동작 인식 센서(200)에 특정 손동작 제스처(제스처 a)가 입력되었을 경우(S341), 해당 손동작 제스처의 인식 확률이 미리 정해진 인식 확률값(A) 보다 작은 것으로 판단된 경우(S343) 해당 손동작 제스처의 특징을 추출한다(S345). 해당 손동작 제스처의 인식 확률이 미리 정해진 인식 확률값(A) 이상으로 판단된 경우(S343) 해당 손동작 제스처에 대응하는 인터랙션 처리가 이루어진다(S347). 이 때 추출되는 특징은 손동작 인식 센서(200)가 해당 손동작 제스처를 통해 인식할 수 있는 특징을 의미한다. 추출된 특징에 대해 가중치를 부여하는 방식으로 학습을 진행한다(S349). 반복된 학습을 통해 추출된 특징이 해당 제스처(a)에 대응하는 것으로 학습된다. 이러한 오프라인 학습(트레이닝) 후, 손동작 인식 센서(200)에 손동작 제스처(a)가 입력되는 경우(S342), 손동작 인식 센서(200)는 추출된 특징만 인식할 뿐이지만 이를 학습된 제스처(a)로 인식하고 제스처(a)에 대응하는 인터랙션을 처리한다(S344). Fig. 3 (b) shows a gesture machine learning algorithm by a hand gesture recognition sensor. Referring to FIG. 3B, when a specific hand gesture (gesture a) is input to the hand movement recognition sensor 200 in off-line (S341), the recognition probability of the corresponding hand gesture is smaller than a predetermined recognition probability value A If it is judged (S343), the feature of the hand gesture is extracted (S345). If the recognition probability of the corresponding hand gesture is determined to be equal to or greater than the predetermined recognition probability value A (S343), an interaction process corresponding to the corresponding hand gesture is performed (S347). The characteristic extracted at this time is a characteristic that the hand movement recognition sensor 200 can recognize through the corresponding hand movement gesture. The learning is performed in a manner of weighting the extracted features (S349). The feature extracted through the repeated learning is learned as corresponding to the corresponding gesture (a). If the gesture (a) is input to the gesture recognition sensor 200 after the off-line learning (S342), the gesture recognition sensor 200 only recognizes the extracted feature, And processes the interaction corresponding to the gesture (a) (S344).

도 3 (c)는 몸동작 인식 센서에 의한 제스처의 기계 학습 알고리즘을 나타낸다. 도 3 (c)를 참조하면, 오프라인 상에서 몸동작 인식 센서(300)에 특정 몸동작 제스처(제스처 b)가 입력되었을 경우(S351), 해당 몸동작 제스처의 인식 확률이 미리 정해진 인식 확률값(B) 보다 작은 것으로 판단된 경우(S353) 해당 몸동작 제스처의 특징을 추출한다(S355). 해당 몸동작 제스처의 인식 확률이 미리 정해진 인식 확률값(B) 이상으로 판단된 경우(S353) 해당 몸동작 제스처에 대응하는 인터랙션 처리가 이루어진다(S357). 이 때 추출되는 특징은 몸동작 인식 센서(300)가 해당 몸동작 제스처를 통해 인식할 수 있는 특징을 의미한다. 추출된 특징에 대해 가중치를 부여하는 방식으로 학습을 진행한다(S359). 반복된 학습을 통해 추출된 특징이 해당 제스처(b)에 대응하는 것으로 학습된다. 이러한 오프라인 학습(트레이닝) 후, 몸동작 인식 센서(300)에 몸동작 제스처(b)가 입력되는 경우(S352), 몸동작 인식 센서(300)는 추출된 특징만 인식할 뿐이지만 이를 학습된 제스처(b)로 인식하고 제스처(b)에 대응하는 인터랙션을 처리한다(S354).3 (c) shows a gesture machine learning algorithm by a gesture recognition sensor. 3C, when a specific gesture bubble (gesture b) is input to the gesture recognition sensor 300 in off-line (S351), the recognition probability of the gesture gesture is smaller than a predetermined recognition probability value B If it is judged (S353), the feature of the body movement gesture is extracted (S355). If it is determined that the recognition probability of the gesture gesture is equal to or greater than the predetermined recognition probability value B (S353), the interaction process corresponding to the gesture gesture is performed (S357). The feature extracted at this time is a characteristic that the body motion recognition sensor 300 can recognize through the body movement gesture. The learning is performed in such a manner that a weight is assigned to the extracted features (S359). The feature extracted through the repeated learning is learned as corresponding to the corresponding gesture (b). When the body movement gesture b is input to the body movement recognition sensor 300 after the offline training, the body movement recognition sensor 300 recognizes only the extracted features, but when the learned gesture b is input, And processes the interaction corresponding to the gesture (b) (S354).

또한, 위와 같은 방식으로 손동작 인식 센서(200)에서 인식된 제스처(a)와 몸동작 인식 센서(300)에서 인식된 제스처(b)를 조합하여 이를 제스처(c)로 인식한 후, 제스처(c)에 대응하는 인터랙션을 처리할 수도 있다. The gesture (a) recognized by the hand movement recognition sensor 200 and the gesture (b) recognized by the body movement recognition sensor 300 are combined and recognized as a gesture (c) May be processed.

이러한 모션 인식을 수행하고, 최종적으로 인터랙션을 처리한다(S330). This motion recognition is performed, and the interaction is finally processed (S330).

도 4는 본 발명의 일 실시예에 따른 HMD의 내부 구성을 보여주는 블록도이다. 4 is a block diagram illustrating an internal structure of an HMD according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 HMD(100)는 통신 인터페이스부(110), 음성인식부(120), 음성출력부(130), 디스플레이부(140), 제어부(150)를 포함하여 이루어진다. Referring to FIG. 4, the HMD 100 of the present invention includes a communication interface unit 110, a voice recognition unit 120, a voice output unit 130, a display unit 140, and a controller 150.

통신 인터페이스부(110)는 외부 기기와 통신하는 역할을 한다. The communication interface unit 110 communicates with an external device.

음성인식부(120)는 음성을 인식하는 역할을 한다. The voice recognition unit 120 recognizes the voice.

음성출력부(130)는 음성을 출력하는 역할을 한다. The voice output unit 130 serves to output voice.

디스플레이부(140)는 AR 또는 VR 영상을 디스플레이하는 역할을 한다. The display unit 140 serves to display an AR or VR image.

제어부(150)는 HMD(100)의 전반적인 동작을 제어한다. The control unit 150 controls the overall operation of the HMD 100.

제어부(150)는 통신 인터페이스부(110)를 통해 수신한 신호를 처리하고, VR 서비스를 제공하는 중에 음성인식부(120)로부터 인식된 사용자의 음성을 인터랙션에 반영하여 게임을 진행하도록 한다.The control unit 150 processes the signal received through the communication interface unit 110 and reflects the voice of the user recognized by the voice recognition unit 120 in the interaction during the provision of the VR service to proceed the game.

도 5는 본 발명의 일 실시예에 따른 독서 체험 서비스 제공 방법을 보여주는 흐름도이다. 5 is a flowchart illustrating a method of providing a reading experience service according to an embodiment of the present invention.

도 5를 참조하면, HMD(100)를 통해 2D 평면 상에 존재하는 캐릭터를 인식하면(S501), 인식된 캐릭터를 3D 가상영상으로 표현한 제1 가상 캐릭터를 포함하는 AR 서비스를 제공한다(S503). Referring to FIG. 5, an AR service including a first virtual character that recognizes a character existing on a 2D plane through the HMD 100 (S501) and representing the recognized character as a 3D virtual image is provided (S503) .

그리고, AR 서비스 제공 중에 캐릭터와 관련된 동화 내용을 기반으로 하는 시나리오의 VR 서비스로 전환한다(S505).Then, during the provision of the AR service, the scenario is switched to the VR service based on the moving picture contents related to the character (S505).

VR 서비스로 전환되면, HMD를 착용한 사용자의 가상 캐릭터인 제2 가상 캐릭터를 생성하고, 제1 캐릭터와 상기 제2 캐릭터를 위주로 상기 시나리오에 따라 VR 서비스를 제공하는 중에, 인터랙션(interaction)이 가능한 게임 형태의 학습 컨텐츠를 제공한다(S507). When the VR service is switched to the VR service, a second virtual character, which is a virtual character of the user wearing the HMD, is generated. While providing the VR service according to the scenario based on the first character and the second character, And provides learning contents in game form (S507).

그리고, 시나리오가 종료되면(S509), 사용자의 독서능력을 진단하여 평가한 정보를 포함하는 독서 현황 리포트를 제공한다(S511). Then, when the scenario ends (S509), a reading status report including information on the evaluation of the user's reading ability is provided (S511).

본 발명의 일 실시예에서 인터랙션(interaction)이 가능한 게임 형태의 학습 컨텐츠를 제공하는 단계(S507)에서, 사용자의 손동작을 감지하고 이를 인터랙션에 반영하거나, 또는 사용자의 음성을 인식하고 이를 인터랙션에 반영할 수 있다.In one embodiment of the present invention, in step S507 of providing a game-type learning content capable of interacting, the user's hand motion is detected and reflected in the interaction, or the user's voice is recognized and reflected in the interaction can do.

그리고, AR(Augmented Reality) 서비스를 제공하는 단계(S503)에서, 특정 색으로 채색된 캐릭터를 인식하여 제1 가상 캐릭터로 디스플레이할 수 있다. 예를 들어, 녹색으로 채색된 캐릭터를 인식하여 제1 가상 캐릭터로 디스플레이할 수 있다. In step S503 of providing the Augmented Reality (AR) service, a character colored in a specific color can be recognized and displayed as a first virtual character. For example, a character colored in green may be recognized and displayed as a first virtual character.

그리고, 독서 현황 리포트를 제공하는 단계(S511)에서, 독서 현황 리포터를 미리 정해진 단말로 전송할 수 있다. 예를 들어, 독서 체험 서비스를 이용한 아동의 보호자가 사용하는 단말(예를 들어, 핸드폰)으로 독서 현황 리포터를 전송할 수 있다.In the step S511 of providing the reading status report, the reading status report can be transmitted to the predetermined terminal. For example, a reading status report can be transmitted to a terminal (for example, a mobile phone) used by a child's guardian using a reading experience service.

도 6은 본 발명의 일 실시예에 따른 독서 체험 서비스 제공 과정을 간략하게 도시한 도면이다. FIG. 6 is a diagram briefly showing a process of providing a reading experience service according to an embodiment of the present invention.

도 6에서는 본 발명의 가상현실(VR), 증강현실(AR) 기반 인터랙션 체험이 가능한 실감형 에듀테인먼트 동화체험 콘텐츠 및 스마트 학습 솔루션을 예시하고 있다. FIG. 6 illustrates realistic edutainment assimilation contents and smart learning solutions capable of interacting experience based on virtual reality (VR) and augmented reality (AR) of the present invention.

도 6의 실시예에서, 사용자가 도화지에 그려져 있는 동화 캐릭터인 피터팬 캐릭터를 색칠한다(①). 이러한 색칠 과정을 통해 사용자는 창의성을 키울 수 있다. In the embodiment of Fig. 6, the user paints a Peter Pan character, which is a moving picture character drawn on a drawing sheet (1). Through this coloring process, users can develop creativity.

그리고, 사용자가 HMD를 착용한 상태에서, 색칠된 피터팬 캐릭터가 인식되면, 증강현실(AR)을 통해 사용자가 색칠한 피터팬 캐릭터가 도화지에서 튀어나와 사용자에게 인사한다(②). If the painted Peter Pan character is recognized while the user wears the HMD, the Peter Pan character painted by the user through the AR is greeted by the user and greeted to the user (2).

그리고, 가상현실(VR)로 화면이 전환되면서, 피터팬과 함께 가상현실 속 동화나라로 사용자가 여행을 떠난다(③). Then, as the screen is switched to the virtual reality (VR), the user travels with the Peter Pan to the real world in the virtual reality (③).

그리고, 사용자는 가상현실에서 동화나라 주인공이 되어 피터팬과 함께 다양한 체험 게임형 학습 컨텐츠를 진행하게 된다(④). 이 과정에서 총체적 언어학습법과, 청크(chunk)/과업/상황 중심 학습 등의 학습법이 적용될 수 있으며, 게임 중에 아이템을 획득하거나, 문제를 풀면서 점수화하여 랭킹을 정하는 시스템을 도입할 수도 있다. Then, the user becomes a fairy tale country character in virtual reality, and performs various experiential game type learning contents along with Peter Pan (④). In this process, it is possible to apply a general language learning method and chunk / task / situation-based learning methods, or to introduce a system for ranking items by scoring items by acquiring items or solving problems during a game.

그리고, 게임을 클리어하고 시나리오를 종료하면, 동화 속 체험을 통해 창의성, 상상력, 책 읽기에 대한 친밀감 등에 대해 진단한다(⑤). Then, after clearing the game and ending the scenario, I will diagnose creativity, imagination, and intimacy of reading through storytelling experiences (⑤).

그리고, 독서현황 리포트를 제공한다(⑥). 사용자가 독서현황 리포트를 보면서 성취동기 유발될 수 있으며, 가상현실 속 동화나라에서 캐릭터와 함께 게임하면서 체험한 추억을 통해 자발적인 책 읽기 습관 형성에 도움을 줄 수 있다. 또한, 사용자의 학부모에게 독서 현황 리포트를 제공하여 학습 진도를 체크하도록 할 수 있다. Then, a reading status report is provided (⑥). Users can be motivated to achieve achievement by watching the reading status report, and can help spontaneous book reading habits through memories they have experienced while playing with characters in a fairy tale country in virtual reality. You can also provide your parents with a reading status report to check your progress.

도 7 내지 도 9는 본 발명의 일 실시예에 따른 독서 체험 시나리오의 예시도이다. 7 to 9 are illustrations of a reading experience scenario according to an embodiment of the present invention.

도 7 내지 도 9는 사용자가 HMD를 착용한 경우, 디스플레이되는 화면을 예시한 것이다. 7 to 9 illustrate screens displayed when a user wears an HMD.

도 7에서 스토리를 진행하는 캐릭터1이 등장한다. 이 화면은 증강현실(AR) 화면이며, 여기서 배경음악이 재생될 수 있고, 캐릭터1은 마이크를 통한 음성입력을 통해 사용자의 목소리의 크고 작은 정도를 분별하여, 더 큰 목소리의 대답을 유도할 수 있다. In FIG. 7, a character 1 advancing a story appears. This screen is an augmented reality (AR) screen where the background music can be played back and the character 1 can discriminate between a large and a small voice of a user through voice input through a microphone, have.

그리고, 얼마 정도의 시간이 지나면, 도 8과 같은 화면으로 전환된다. After a certain period of time, the screen is switched to the screen shown in Fig.

도 8에서 캐릭터1이 화면 중앙 부분에서 손가락으로 원을 그리는 동작을 하고, 캐릭터1이 그린 원(810)이 점점 커지게 된다. 이때 사용자가 원(810)을 바라보면, 이를 인식하여 특수한 효과음을 발생시킬 수 있다. 그리고, 원(810)이 점점 커지면서 다음 화면으로 넘어가는데, 원 안의 화면은 가상현실(VR)화면으로, 자연스럽게 다음 화면에서 가상현실 화면이 디스플레이된다. 증강현실(AR) 화면에서 가상현실(VR)화면으로의 변환은, 손동작 인식 센서(200)나 몸동작 인식 센서(300)가 사용자의 미리 정해진 모션을 인식함으로써 이루어질 수도 있다. In FIG. 8, the character 1 performs a circle drawing operation with a finger at the central portion of the screen, and the circle 810 drawn by the character 1 becomes larger. At this time, when the user looks at the circle 810, he can recognize it and generate a special sound effect. Then, the circle 810 gradually grows to the next screen. The screen in the circle is a virtual reality (VR) screen, and the virtual reality screen is displayed naturally on the next screen. The conversion from the augmented reality (AR) screen to the virtual reality (VR) screen may be performed by recognizing a predetermined motion of the user by the gesture recognition sensor 200 or the gesture recognition sensor 300. [

증강현실(AR)이 구현되는 실공간과 가상현실(VR)이 구현되는 가상공간의 전환은, HMD(100)의 카메라, 손동작 인식 센서(200), 몸동작 인식 센서(300)를 통해 실공간을 이루는 바닥, 벽, 천장 등과 객체의 깊이 정보를 인식하여 공간 메쉬(mesh) 정보를 생성하고, RGB 정보, 깊이 정보, 메쉬 정보를 이용하여 영상 캘리브레이션을 수행함을 통해 이루어질 수 있다. 다시 말해서, 실공간과 가상공간의 전환은 공간 및 객체 인식, 3D 모델 추출(메쉬 생성), RGB 정보와 3D 모델의 결합, 영상 캘리브레이션 수행의 과정을 통해 구현될 수 있다. The switching between the real space in which the augmented reality AR is implemented and the virtual space in which the virtual reality VR is implemented can be realized by using the camera, the hand movement recognition sensor 200, and the body movement recognition sensor 300 of the HMD 100, And generating spatial mesh information by recognizing the depth information of the object, the floor, the wall, the ceiling, and the object, and performing image calibration using RGB information, depth information, and mesh information. In other words, the switching between real space and virtual space can be realized through spatial and object recognition, 3D model extraction (mesh generation), combination of RGB information and 3D model, and image calibration.

도 9에서는 가상현실 화면으로 전환된 상태로서, 다양한 배경음악과 효과음과 함께 본격적인 가상현실 속 동화 스토리가 진행된다. In FIG. 9, the virtual reality screen is switched to a full-fledged virtual reality story along with various background music and sound effects.

도 10은 본 발명의 일 실시예에 따른 독서 현황 리포트를 예시한 도면이다.10 is a diagram illustrating a reading status report according to an embodiment of the present invention.

도 10을 참조하면, 본 발명에서는 소정의 독서 능력 평가 요소를 사용하여 사용자의 독서 능력을 평가하며, 사용자의 독서능력을 진단한 결과와 그래프를 포함하는 독서 현황 리포트를 제공한다. Referring to FIG. 10, the present invention provides a reading status report including a result of diagnosing a user's reading ability and a graph and evaluating a user's reading ability using a predetermined reading ability evaluation element.

이처럼 본 발명에서는 독서학습 방법을 제공하며, 학습 컨텐츠를 통해 다양한 언어 및 의사소통 학습 방법을 제공한다. 즉, 본 발명에서는 NPC(Non-Player Character, 게임 진행을 돕는 캐릭터)와 대화하며 안내를 받고, 플레이하는 동안 마치 동화 속에 있는 듯 한 느낌을 제공하며, 다양한 동화 속 상황을 주인공이 되어 직접 체험하며, 놀이식 학습을 통해 자연스럽게 언어와 의사소통능력을 습득하게 된다. As described above, the present invention provides a reading learning method and provides various languages and communication learning methods through learning contents. In other words, in the present invention, while interacting with a non-player character (NPC), it is guided and provides a feeling of being in a fairy tale while playing, and experiences a variety of fairy tale situations directly as a main character , And acquire language and communication skills naturally through playful learning.

본 발명에서는 콘텐츠를 체험하면서 자연스럽게 언어학습 및 의사소통능력을 습득할 수 있도록 하는 총체적언어학습방법으로, 청크(chunk) 중심의 학습, 과정 중심의 학습, 상황 중심의 학습을 방법을 제공한다. In the present invention, chunk-based learning, process-based learning, and situation-based learning are provided as a total language learning method that enables students to acquire language learning and communication ability naturally while experiencing contents.

먼저, 청크 중심의 학습법에서 청크(chunk)란 하나의 의미를 가지는 말의 덩어리를 뜻하며, 청크 중심으로 대화의 맥락 안에서 그림으로 표현된 청크 카드를 통해 학습한다. 그리고, 단어와 문법을 각각 학습하지 않고, 의미있는 하나의 덩어리로 학습하기 때문에, 더 정확하고 자연스러운 표현을 사용하게 되고, 언어를 더 쉽고 빠르게 이해하게 된다. 이러한 방식은 단어와 문법을 따로 학습할 부담을 덜어주는 장점이 있다. First, in chunk-based learning, a chunk is a chunk of words with a single meaning, and is learned through a chunk card represented by a picture in the context of chunks. And because you learn a meaningful chunk of text without learning each word and grammar, you will use more accurate and natural expressions, and you will understand the language more easily and quickly. This approach has the advantage of reducing the burden of learning words and grammar separately.

그리고, 본 발명에서는 게임과 동화체험의 교육적 효과를 동시에 높일 수 있도록 게이미피케이션(gamification)을 적용한 과업중심의 학습을 제공한다. In addition, the present invention provides task-based learning using gamification to enhance the educational effect of games and a fairy tale at the same time.

본 발명에서는 게임을 통해 도전과제, 경쟁, 점수획득, 보상, 레벨업, 임무수행 등 다양한 과업을 수행하도록 하며, 해결하는 과정을 통해 자연스럽게 새로운 표현을 배우게 된다. In the present invention, various tasks such as challenge, competition, score acquisition, compensation, level-up, and mission are performed through the game, and a new expression is naturally learned through the process of solving.

그리고, 본 발명에서는 상황 중심의 학습을 제공하여, 학습자가 다양한 VR 체험 동화를 통해 각기 다른 캐릭터들과 다양한 장소와 상황 속에서 의사소통하게 된다. 이 과정을 통해 다양한 문장을 발화하여 자연스럽게 언어 표현에 익숙해져, 일상생활 속에서 다양한 상황과 상대를 접하게 되더라도 자신 있게 의사소통할 수 있게 된다. In addition, the present invention provides context-based learning, so that a learner communicates with various characters and various places and situations through various VR experience assimilation. Through this process, various sentences are spoken and naturally accustomed to language expression, so that they can communicate confidently even if they encounter various situations and opponents in everyday life.

이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.While the present invention has been described with reference to several preferred embodiments, these embodiments are illustrative and not restrictive. It will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit of the invention and the scope of the appended claims.

100 HMD
200 손동작 인식 센서
300 몸동작 인식 센서
100 HMD
200 Handset recognition sensor
300 Gesture recognition sensor

Claims (8)

HMD(Head mounted Display)를 포함하는 독서 체험 서비스 제공 시스템에서의 독서 체험 서비스 제공 방법에서,
상기 HMD를 통해 2D 평면 상에 존재하는 캐릭터를 인식하면, 인식된 캐릭터를 3D 가상영상으로 표현한 제1 가상 캐릭터를 포함하는 AR(Augmented Reality) 서비스를 제공하는 단계;
상기 AR 서비스 제공 중에 상기 캐릭터와 관련된 동화 내용을 기반으로 하는 시나리오의 VR(Virtual Reality) 서비스로 전환하는 단계;
상기 VR 서비스로 전환되면, 상기 HMD를 착용한 사용자의 가상 캐릭터인 제2 가상 캐릭터를 생성하는 단계;
상기 제1 캐릭터와 상기 제2 캐릭터를 위주로 상기 시나리오에 따라 VR 서비스를 제공하는 중에, 인터랙션(interaction)이 가능한 게임 형태의 학습 컨텐츠를 제공하는 단계; 및
상기 시나리오가 종료되면, 사용자의 독서능력을 진단하여 평가한 정보를 포함하는 독서 현황 리포트를 제공하는 단계를 포함하는 독서 체험 서비스 제공 방법.
In a reading experience service providing method in a reading experience service providing system including an HMD (Head Mounted Display)
Providing an Augmented Reality (AR) service including a first virtual character representing a recognized character on a 2D plane through the HMD as a 3D virtual image;
Switching to a VR (Virtual Reality) service of a scenario based on a moving picture content related to the character while providing the AR service;
Generating a second virtual character that is a virtual character of a user wearing the HMD when the VR service is switched to the VR service;
Providing learning contents in a game form capable of interacting while providing a VR service based on the first character and the second character according to the scenario; And
And providing a reading status report including information obtained by diagnosing a user's reading ability when the scenario ends.
청구항 1에 있어서,
상기 인터랙션(interaction)이 가능한 게임 형태의 학습 컨텐츠를 제공하는 단계에서, 사용자의 손동작을 감지하고 이를 인터랙션에 반영하거나, 또는 사용자의 음성을 인식하고 이를 인터랙션에 반영하는 것을 특징으로 하는 독서 체험 서비스 제공 방법.
The method according to claim 1,
Wherein the step of providing the learning contents providing interaction with the game includes sensing the user's hand movements and reflecting the same in the interaction or recognizing the user's voice and reflecting the user's interaction in the interaction Way.
청구항 1에 있어서,
상기 AR(Augmented Reality) 서비스를 제공하는 단계에서,
특정 색으로 채색된 캐릭터를 인식하여 제1 가상 캐릭터로 디스플레이하는 것을 특징으로 하는 독서 체험 서비스 제공 방법.
The method according to claim 1,
In the step of providing the Augmented Reality (AR) service,
Recognizing a character colored in a specific color and displaying the character as a first virtual character.
청구항 1에 있어서,
상기 독서 현황 리포트를 제공하는 단계에서,
상기 독서 현황 리포트를 미리 정해진 단말로 전송하는 것을 특징으로 하는 독서 체험 서비스 제공 방법.
The method according to claim 1,
In providing the reading status report,
Wherein the reading status report is transmitted to a predetermined terminal.
사용자의 손 동작을 인식하기 위한 손동작 인식 센서;
사용자의 몸 전체의 동작을 인식하기 위한 몸동작 인식 센서;
사용자의 머리에 착용되는 HMD(Head mounted Display); 및
상기 HMD를 통해 2D 평면 상에 존재하는 캐릭터를 인식하고, 인식된 캐릭터를 3D 가상영상으로 표현한 제1 가상 캐릭터를 포함하는 AR 서비스를 제공하고, 상기 AR 서비스 제공 중에 상기 캐릭터와 관련된 동화 내용을 기반으로 하는 시나리오의 VR 서비스로 전환하고, 상기 HMD를 착용한 사용자의 가상 캐릭터인 제2 가상 캐릭터를 생성하는 제어 모듈을 포함하며,
상기 제어 모듈은 상기 제1 캐릭터와 상기 제2 캐릭터를 위주로 상기 시나리오에 따라 VR 서비스를 제공하는 중에, 상기 손동작 인식 센서로부터 인식된 사용자의 손 동작과, 상기 몸동작 인식 센서로부터 인식된 사용자의 몸 동작을 반영하여 인터랙션이 가능한 게임 형태의 학습 컨텐츠를 제공하며, 시나리오가 종료되면 사용자의 독서능력을 진단하여 평가한 정보를 포함하는 독서 현황 리포트를 제공하는 것을 특징으로 하는 독서 체험 서비스 제공 시스템.
A hand movement recognition sensor for recognizing a hand motion of a user;
A body motion recognition sensor for recognizing the motion of the entire body of the user;
An HMD (Head Mounted Display) worn on the user's head; And
Providing an AR service including a first virtual character that recognizes a character existing on a 2D plane through the HMD and expresses the recognized character as a 3D virtual image; And a control module for generating a second virtual character, which is a virtual character of a user wearing the HMD,
Wherein the control module controls the hand movement of the user recognized by the hand movement recognition sensor while the VR service is being provided based on the first character and the second character according to the scenario, And providing a reading status report including information obtained by evaluating a user's reading ability when the scenario is terminated and evaluating the reading performance report.
청구항 5에 있어서,
상기 HMD는,
외부 기기와 통신하기 위한 통신 인터페이스부;
음성을 인식하기 위한 음성인식부;
음성을 출력하기 위한 음성출력부;
AR 또는 VR 영상을 디스플레이하기 위한 디스플레이부; 및
상기 HMD의 전반적인 동작을 제어하며, 상기 통신 인터페이스부를 통해 수신한 신호를 처리하고, 상기 VR 서비스를 제공하는 중에 상기 음성인식부로부터 인식된 사용자의 음성을 인터랙션에 반영하여 게임을 진행하도록 하는 제어부를 포함하는 것을 특징으로 하는 독서 체험 서비스 제공 시스템.
The method of claim 5,
In the HMD,
A communication interface unit for communicating with an external device;
A speech recognition unit for recognizing speech;
An audio output unit for outputting audio;
A display unit for displaying an AR or VR image; And
A control unit for controlling the overall operation of the HMD, processing a signal received through the communication interface unit, and reflecting the voice of the user recognized from the voice recognition unit during the provision of the VR service to the interaction to proceed with the game Wherein the service providing system comprises:
청구항 5에 있어서,
상기 제어 모듈은 특정 색으로 채색된 캐릭터를 인식하여 제1 가상 캐릭터로 상기 HMD에 디스플레이하도록 하는 것을 특징으로 하는 독서 체험 서비스 제공 시스템.
The method of claim 5,
Wherein the control module recognizes a character colored in a specific color and displays the recognized character in the HMD as a first virtual character.
청구항 5에 있어서,
상기 제어 모듈은 상기 독서 현황 리포트를 미리 정해진 단말로 전송하는 것을 특징으로 하는 독서 체험 서비스 제공 시스템.
The method of claim 5,
Wherein the control module transmits the reading status report to a predetermined terminal.
KR1020170091406A 2017-07-19 2017-07-19 Method and system for providing book reading experience service based on augmented reality and virtual reality KR101916146B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170091406A KR101916146B1 (en) 2017-07-19 2017-07-19 Method and system for providing book reading experience service based on augmented reality and virtual reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170091406A KR101916146B1 (en) 2017-07-19 2017-07-19 Method and system for providing book reading experience service based on augmented reality and virtual reality

Publications (1)

Publication Number Publication Date
KR101916146B1 true KR101916146B1 (en) 2019-01-30

Family

ID=65276549

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170091406A KR101916146B1 (en) 2017-07-19 2017-07-19 Method and system for providing book reading experience service based on augmented reality and virtual reality

Country Status (1)

Country Link
KR (1) KR101916146B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200086873A (en) * 2019-01-10 2020-07-20 제이에스씨(주) System for servicing contents of mind care based on virtual reality and augmented reality
KR20200086872A (en) * 2019-01-10 2020-07-20 제이에스씨(주) System for health care service for realistic experience based on virtual reality and augmented reality
KR20210063723A (en) * 2019-11-25 2021-06-02 한국전자기술연구원 Method for posture estimation of user wearing Head Mounted Display
KR102299065B1 (en) * 2020-12-31 2021-09-08 더에이치알더 주식회사 Apparatus and Method for Providing learning platform based on XR

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060071302A (en) * 2004-12-21 2006-06-26 한국전자통신연구원 User interface design and evaluation system and hand interaction based user interface design and evaluation system
KR20090003445A (en) 2007-06-11 2009-01-12 주식회사 디지투 Service device for on-line child studying of used virtual reality technique and service method thereof
KR20130053218A (en) * 2011-11-15 2013-05-23 이남진 Method for providing interactive video contents
KR101618004B1 (en) * 2015-01-27 2016-05-09 가톨릭대학교 산학협력단 Interactive content providing apparatus based on the virtual reality and method thereof
KR20160118859A (en) * 2015-04-03 2016-10-12 한국과학기술원 System for providing interative design service based ar

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060071302A (en) * 2004-12-21 2006-06-26 한국전자통신연구원 User interface design and evaluation system and hand interaction based user interface design and evaluation system
KR20090003445A (en) 2007-06-11 2009-01-12 주식회사 디지투 Service device for on-line child studying of used virtual reality technique and service method thereof
KR20130053218A (en) * 2011-11-15 2013-05-23 이남진 Method for providing interactive video contents
KR101618004B1 (en) * 2015-01-27 2016-05-09 가톨릭대학교 산학협력단 Interactive content providing apparatus based on the virtual reality and method thereof
KR20160118859A (en) * 2015-04-03 2016-10-12 한국과학기술원 System for providing interative design service based ar

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200086873A (en) * 2019-01-10 2020-07-20 제이에스씨(주) System for servicing contents of mind care based on virtual reality and augmented reality
KR20200086872A (en) * 2019-01-10 2020-07-20 제이에스씨(주) System for health care service for realistic experience based on virtual reality and augmented reality
KR102241829B1 (en) 2019-01-10 2021-04-19 제이에스씨(주) System for servicing contents of mind care based on virtual reality and augmented reality
KR102346681B1 (en) * 2019-01-10 2022-01-03 제이에스씨(주) System for health care service for realistic experience based on virtual reality and augmented reality
KR20210063723A (en) * 2019-11-25 2021-06-02 한국전자기술연구원 Method for posture estimation of user wearing Head Mounted Display
KR102405416B1 (en) 2019-11-25 2022-06-07 한국전자기술연구원 Method for posture estimation of user wearing Head Mounted Display
KR102299065B1 (en) * 2020-12-31 2021-09-08 더에이치알더 주식회사 Apparatus and Method for Providing learning platform based on XR

Similar Documents

Publication Publication Date Title
Hirsh-Pasek et al. A whole new world: Education meets the metaverse
Dalim et al. Using augmented reality with speech input for non-native children's language learning
Kavanagh et al. A systematic review of virtual reality in education
KR101916146B1 (en) Method and system for providing book reading experience service based on augmented reality and virtual reality
Lu et al. Integrating augmented reality technology to enhance children’s learning in marine education
Sloan Virtual Character Design
DK2744579T3 (en) CONNECTED MULTIFUNCTIONAL SYSTEM AND METHOD OF APPLICATION
JP6691351B2 (en) Program and game system
KR101799980B1 (en) Apparatus, system and method for controlling virtual reality image and simulator
Panagiotidis Virtual reality applications and language learning
Hirsh-Pasek et al. A Whole New World: Education Meets the Metaverse. Policy Brief.
Parmar Evaluating the effects of immersive embodied interaction on cognition in virtual reality
Cai et al. A digital reality theater with the mechanisms of real-time spoken language evaluation and interactive switching of scenario & virtual costumes: Effects on motivation and learning performance
CN109671317B (en) AR-based facial makeup interactive teaching method
CN107122040A (en) A kind of interactive system between artificial intelligence robot and intelligent display terminal
Gonçalves et al. Amiais in Second Life™: the use of metaverse environments to disseminate Cultural Heritage.
Aurelia et al. A survey on mobile augmented reality based interactive storytelling
US10046242B1 (en) Image processing for improving memorization speed and quality
Xie The Applications of Interface Design and User Experience in Virtual Reality
Järvenpää The Playful Affordances of Picture Book Apps for Children
Liu et al. Human Sense-Based Simulation-Experience Model for Interactive Art Production
Sakamoto et al. Human interaction issues in a digital-physical hybrid world
Montemayor Physical programming: tools for kindergarten children to author physical interactive environments
Sicaru et al. Computer Gaming for the Visually Impaired--Status and Perspectives
Yang et al. Developing an interactive dental casting educational game