KR20210152828A - A method of creating realistic contents - Google Patents

A method of creating realistic contents Download PDF

Info

Publication number
KR20210152828A
KR20210152828A KR1020200069787A KR20200069787A KR20210152828A KR 20210152828 A KR20210152828 A KR 20210152828A KR 1020200069787 A KR1020200069787 A KR 1020200069787A KR 20200069787 A KR20200069787 A KR 20200069787A KR 20210152828 A KR20210152828 A KR 20210152828A
Authority
KR
South Korea
Prior art keywords
background
noise
real
role
signal
Prior art date
Application number
KR1020200069787A
Other languages
Korean (ko)
Inventor
윤나라
Original Assignee
윤나라
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤나라 filed Critical 윤나라
Priority to KR1020200069787A priority Critical patent/KR20210152828A/en
Publication of KR20210152828A publication Critical patent/KR20210152828A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Security & Cryptography (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention discloses a method of creating realistic content as realistic content using 2D live to allow characters to tell a story as if they were actually making a video call according to lines and situations. The method includes the steps of: extracting background data; extracting object data; and providing role play. An object of the present invention is to maximize the educational and learning effect for users (especially children).

Description

실감형 콘텐츠 제작 방법{A METHOD OF CREATING REALISTIC CONTENTS}How to create immersive content {A METHOD OF CREATING REALISTIC CONTENTS}

본 발명은 실감형 콘텐츠 제작 방법에 관한 것으로, 보다 상세하게는 증강현실(AR)과 가상현실(VR)을 조합한 혼합현실(MR)과 실물객체(실제 인형, 캐릭터 모형, 2D 이미지 등)를 이용한 역할놀이 콘텐츠 제작 방법에 관한 것이다.The present invention relates to a method for producing immersive content, and more specifically, mixed reality (MR) combining augmented reality (AR) and virtual reality (VR) and real objects (real dolls, character models, 2D images, etc.) It relates to a method for producing role-play content using

최근 대두되고 있는 일명 VR로 명명되는 가상현실기술은, 어떤 특정한 환경이나 상황을 컴퓨터로 만들어서, 그것을 사용하는 사람이 마치 실제 주변 상황환경과 상호작용을 하고 있는 것처럼 만들어 주는 인간-컴퓨터 사이의 인터페이스를 말한다.Virtual reality technology, called VR, which is emerging recently, creates a human-computer interface that makes a specific environment or situation into a computer and makes it as if the person using it is interacting with the actual surrounding environment. say

이러한 가상현실기술은 사람들이 일상생활에서 경험하기 위한 어려운 환경을 직접 체험하지 않고서도 그 환경에 속해 있는 것처럼 느껴, 특히 교육, 육아 등의 분야에서 필수적으로 활용될 수 있다.This virtual reality technology makes people feel like they belong to the environment without directly experiencing the difficult environment they need to experience in their daily life, and can be essential, especially in the fields of education and childcare.

가상현실기술과 더불어 최근 대두되고 있는 또 다른 기술로, 일명 AR로 불리는 증강현실기술이 있는데, 이러한 증강현실기술은 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술이다.Another emerging technology along with virtual reality technology is augmented reality technology, also called AR, which superimposes virtual objects on the real world the user sees with their eyes.

본 발명은 이 가상현실기술과 증강현실기술을 혼합하여, 현실과 상호작용을 할 수 있다는 증강현실의 장점과 사람의 눈앞에서 몰입감을 줄 수 있다는 가상현실의 특징을 살린 혼합현실(Mixed Reality, MR)을 기반으로 하여 실물객체를 아바타화하여 가상의 캐릭터와 상호 작용함으로써, 역할 놀이를 수행함에 따라, 동화 내용 이해, 교육 내용 터득, 지식 습득, 사회성 향상 등 다양한 교육 및 학습 효과를 극대화 하는 기술을 제시하고 있다.Mixed Reality (MR) that takes advantage of the advantages of augmented reality in that it can interact with reality by mixing this virtual reality technology and augmented reality technology and the characteristics of virtual reality that it can give a sense of immersion in front of people ) based on avatarization of real objects and interaction with virtual characters to develop skills to maximize various educational and learning effects such as understanding fairy tale contents, acquiring educational contents, acquiring knowledge, and improving social skills by performing role play is presenting

역할 놀이에 관한 종래의 기술로, 등록특허 제10-1314121호(2013년09월26일)[역할놀이 수행시스템 및 이를 이용한 역할놀이방법](이하 종래기술)이 있는데, 종래기술은 역할놀이 중, 음악적 활동을 통해 사회성 향상을 제공하는 기술에 관한 것이다.As a prior art related to role play, there is Patent Registration No. 10-1314121 (September 26, 2013) [Role play performance system and role play method using the same] (hereinafter referred to as prior art). , it relates to technology that provides social enhancement through musical activity.

그러나 본 발명은 혼합현실 및 실물객체를 이용하여 특정 이벤트를 갖는 역할놀이를 생성하고, 이를 사용자에게 출력함으로써, 사용자의 교육 효율성을 높이는 것으로, 본 발명과는 다소 거리가 있다.However, the present invention is to increase the educational efficiency of the user by generating a role play having a specific event using mixed reality and real objects and outputting it to the user, which is somewhat far from the present invention.

본 발명은 증강현실(AR)과 가상현실(VR)을 조합한 혼합현실(MR)과 실물객체(실제 인형, 캐릭터 모형, 2D 이미지 등)를 이용하여 역할놀이 콘텐츠를 제공하여, 사용자(특히 어린이)에 대한 교육 및 학습 효과를 극대화시키는 것을 목적으로 한다.The present invention provides role-play content using mixed reality (MR) combining augmented reality (AR) and virtual reality (VR) and real objects (real dolls, character models, 2D images, etc.), so that users (especially children ) for the purpose of maximizing the effect of education and learning.

또한 역할 놀이 콘텐츠를 구성하는 다양한 이벤트를 녹화 및 재현하여, 타 사용자와 연출 내용, 즉 이벤트를 공유할 수 있도록 하고, 이를 통해 역할 놀이 콘텐츠의 제공을 포털 서비스화하는 등, 다수의 사용자 간의 공유 커뮤니티를 형성할 수 있도록 하는 것을 목적으로 한다.In addition, by recording and reproducing various events that make up role-play content, it is possible to share the production content, that is, the event, with other users, and through this, the provision of role-play content is made into a portal service. The purpose is to enable the formation of

상기 목적을 갖는 본 발명에 따른 본 시스템은 실물배경을 인식하여 배경데이터를 추출하는 배경 인식모듈, 그리고 실물객체를 인식하여 객체데이터를 추출하는 실물객체 인식모듈, 그리고 상기 배경데이터를 활용하여 실물배경과 동일한 가상의 배경을 사용자기기의 화면에 출력하고, 상기 객체데이터를 활용하여 실물객체와 동일한 가상의 객체(아바타)를 사용자기기의 화면에 출력하고, 가상의 캐릭터를 생성하여 사용자기기의 화면에 출력함으로써, 사용자가 상기 아바타를 조작하여 상기 캐릭터와 상호 작용할 수 있도록 하는 역할놀이를 제공하는 역할놀이 콘텐츠 출력모듈을 포함하여 이루어진다.The present system according to the present invention having the above object has a background recognition module for recognizing the real background and extracting background data, a real object recognition module for recognizing real objects and extracting object data, and a real background using the background data Outputs the same virtual background as that of the user device on the screen of the user device, uses the object data to output a virtual object (avatar) identical to the real object on the screen of the user device, and creates a virtual character on the screen of the user device and a role-play content output module that provides a role-play that allows the user to interact with the character by manipulating the avatar by outputting it.

또한 상기 본 시스템을 이용한 본 방법은 (S1) 상기 배경 인식모듈이 실물배경을 인식하여 상기 배경데이터를 추출하는 단계, (S2) 상기 실물객체 인식모듈이 실물배경에 배치된 실물객체를 인식하여 상기 객체데이터를 추출하는 단계, (S3) 상기 역할놀이 콘텐츠 출력모듈이, 상기 배경데이터를 활용하여 실물배경과 동일한 가상의 배경을 상기 사용자기기의 화면에 출력하고, 상기 객체데이터를 활용하여 상기 아바타를 상기 사용자기기의 화면에 출력하고, 상기 가상의 캐릭터를 생성하여 상기 사용자기기의 화면에 출력함으로써, 사용자가 상기 아바타를 조작하여 상기 캐릭터와 상호 작용할 수 있도록 하는 상기 역할놀이를 제공하는 단계를 포함하여 이루어진다.In addition, this method using the system includes (S1) the background recognition module recognizing the real background and extracting the background data, (S2) the real object recognition module recognizing the real object placed on the real background, extracting object data, (S3) the role play content output module outputs a virtual background identical to the real background using the background data on the screen of the user device, and uses the object data to display the avatar Providing the role play that allows the user to interact with the character by manipulating the avatar by outputting it to the screen of the user device, generating the virtual character and outputting it to the screen of the user device, is done

상기 구성, 단계 및 특징으로 이루어진 본 발명은 증강현실(AR)과 가상현실(VR)을 조합한 혼합현실(MR)과 실물객체(실제 인형, 캐릭터 모형, 2D 이미지 등)를 이용하여 역할놀이 콘텐츠를 제공하여, 사용자(특히 어린이)에 대한 교육 및 학습 효과를 극대화시킴은 물론, 역할 놀이 콘텐츠를 구성하는 다양한 이벤트를 녹화 및 재현하여, 타 사용자와 연출 내용, 즉 이벤트를 공유할 수 있도록 하고, 이를 통해 역할 놀이 콘텐츠의 제공을 포털 서비스화하는 등, 다수의 사용자 간의 공유 커뮤니티를 형성할 수 있도록 하는 효과를 갖는다.The present invention consisting of the above configuration, steps and features is a role play content using mixed reality (MR) combining augmented reality (AR) and virtual reality (VR) and real objects (real dolls, character models, 2D images, etc.) to maximize the effect of education and learning for users (especially children), as well as record and reproduce various events that make up role play content, so that other users can share the production, that is, the event, This has the effect of forming a shared community among multiple users, such as making the provision of role-play content a portal service.

도 1은 본 시스템의 구성도.
도 2는 본 방법의 과정도.
도 3은 본 발명의 제1실시예.
도 4 및 도 5는 본 발명의 제2실시예.
도 5는 본 발명의 일 실시예에 따른 실감형 콘텐츠 제작 방법을 이용하여 제작한 실감형 콘텐츠의 일 예이다.
1 is a block diagram of the present system.
2 is a flow chart of the method.
3 is a first embodiment of the present invention.
4 and 5 are a second embodiment of the present invention.
5 is an example of immersive content produced by using the method for producing immersive content according to an embodiment of the present invention.

도 1은 본 시스템(S)의 구성을 도시한 구성도이다.1 is a block diagram showing the configuration of the present system S. As shown in FIG.

도 1에 도시된 바와 같이, 본 시스템(S)은 배경 인식모듈(1), 실물객체 인식모듈(2) 및 역할놀이 콘텐츠 출력모듈(3)을 포함하여 이루어진다.As shown in Fig. 1, the present system (S) comprises a background recognition module (1), a real object recognition module (2), and a role play content output module (3).

각 구성 별로, 배경 인식모듈(1)은 실물배경을 인식하여 배경데이터를 추출하는 구성으로, 실물배경에 배치되는 실물객체를 가상의 객체인 아바타로 변환하기 위해, 실물배경의 형태, 굴곡정도, 명도 및 조도, 색상 등등 실물 배경에 대한 각종 정보인 배경데이터를 추출한다.For each configuration, the background recognition module 1 recognizes the real background and extracts background data. In order to convert a real object placed on the real background into an avatar, which is a virtual object, the shape of the real background, the degree of curvature, Background data, which is various information about the real background, such as brightness, illuminance, and color, is extracted.

다음으로, 실물객체 인식모듈(2)은 실물객체를 인식하여 객체데이터를 추출하는 구성으로, 실물배경에 배치되는 실물객체를 가상의 객체인 아바타로 변환하기 위해, 실물객체의 형태, 색상, 실물배경 내 위치 등등 실물객체에 대한 각종 정보인 객체데이터를 추출한다.Next, the real object recognition module 2 is configured to recognize a real object and extract object data. In order to convert a real object disposed on the real background into an avatar, which is a virtual object, the shape, color, and real Object data, which is various information about real objects, such as location in the background, is extracted.

이러한 배경 인식모듈(1)과 객체 인식모듈(2)은 수행하는 기능에 따라 둘로 구분하였지만, 하나의 구성으로 이루어질 수도 있다. 또한 배경 인식모듈(1)과 객체 인식모듈(2)은 특히 컴퓨터 비전 기술에 의해 구현될 수 있다.Although the background recognition module 1 and the object recognition module 2 are divided into two according to the functions to be performed, they may be configured as one configuration. Also, the background recognition module 1 and the object recognition module 2 may be implemented by computer vision technology in particular.

다음으로, 역할놀이 콘텐츠 출력모듈(3)은 배경데이터를 활용하여 실물배경과 동일한 가상의 배경을 사용자기기의 화면에 출력하고, 객체데이터를 활용하여 실물객체와 동일한 가상의 객체(아바타)를 사용자기기의 화면에 출력하고, 가상의 캐릭터를 생성하여 사용자기기의 화면에 출력함으로써, 사용자가 아바타를 조작하여 캐릭터와 상호 작용할 수 있도록 하는 역할놀이를 제공하는 구성이다.Next, the role play content output module 3 outputs the same virtual background as the real background on the screen of the user device by using the background data, and uses the object data to display the same virtual object (avatar) as the real object to the user. By outputting to the screen of the device, creating a virtual character and outputting it to the screen of the user device, the user manipulates the avatar to provide a role play that allows the user to interact with the character.

여기에서 아바타는 사용자를 대변하는 가상의 객체로, 실물객체를 가상의 배경 공간에서 사용자가 직접 조작하고 움직일 수 있는 일종의 역할놀이 속 캐릭터이다.Here, the avatar is a virtual object representing the user, and is a kind of role-playing character in which the user can directly manipulate and move the real object in the virtual background space.

이러한 아바타의 효과적인 구현을 위해, 실물객체는 인식률이 높은 형태의 모형으로 제작되는 것이 바람직하고, 배경 인식모듈(1) 및 객체 인식모듈(2)은 Template Matching과 같은 2D 이미지 객체 인식 기술을 필요로 하는데, 실물객체의 인식률 향상에 관한 내용은 공지된 다른 기술에 의해 적용 및 실시될 수 있다.For the effective implementation of such an avatar, it is desirable that the real object be produced as a model with a high recognition rate, and the background recognition module 1 and the object recognition module 2 require 2D image object recognition technology such as template matching. However, the content related to the improvement of the recognition rate of real objects may be applied and implemented by other known technologies.

다음, 역할놀이 콘텐츠 출력모듈(3)이 생성하는 가상의 캐릭터는 아바타와 상호 작용하는 캐릭터로, 일종의 게임 속 NPC(Non-Player Character)와 유사한 역할을 한다.Next, the virtual character generated by the role-play content output module 3 is a character that interacts with the avatar, and plays a role similar to a kind of NPC (Non-Player Character) in the game.

또한 아바타와 캐릭터 간의 상호 작용은 해당 역할놀이 콘텐츠가 제공하고자 하는 일련의 행위에 해당하며, 역할놀이 콘텐츠의 컨셉은 아바타와 캐릭터 간의 상호 작용이 어떻게 구성되느냐에 따라 결정된다.In addition, the interaction between the avatar and the character corresponds to a series of actions that the role-play content intends to provide, and the concept of the role-play content is determined by how the interaction between the avatar and the character is structured.

아울러 아바타의 조작은 컨트롤러, 터치스크린, 버튼 등 사용자기기의 다양한 입력수단을 통해 이루어질 수 있다.In addition, the manipulation of the avatar may be performed through various input means of the user device, such as a controller, a touch screen, and a button.

추가로, 본 발명에서 사용자기기는 MR 배경보드, 증강현실기기(안경형 디바이스), 스마트폰 등을 포함할 수 있으며, 구체적으로 MR 배경보드는 역할놀이 콘텐츠 출력모듈(3)이 출력하는 화면을 실물배경에서 출력될 수 있도록 실물배경 곳곳에 배치되는 구성요소이고, 증강현실기기, 특히 안경형 디바이스는 MR 배경보드를 통해 현실감 있게 출력되는 화면을 제공하는 구성요소이며, 스마트폰은 화면 출력은 물론 아바타의 조작이 가능하도록 하는 구성이다.Additionally, in the present invention, the user equipment may include an MR background board, an augmented reality device (glasses-type device), a smartphone, and the like, and specifically, the MR background board displays the screen output by the role play content output module 3 in real life. It is a component that is placed all over the real background so that it can be output in the background, and augmented reality devices, especially glasses-type devices, are components that provide a realistically output screen through the MR background board. It is a configuration that allows operation.

상기 구성 및 특징으로 이루어진 본 발명의 실시를 예를 들어보면, 실물배경은 인형의 집일 수 있고, 실물객체는 인형의 집에 배치된 특정인형일 수 있으며, 이 때 배경 인식모듈(1)은 인형의 집의 색상, 형태, 굴곡, 꺾임 등과 관련한 배경데이터를 추출하고, 실물객체 인식모듈(2)은 인형의 형태, 색상, 인형의 집 내 특정인형의 위치 등과 관련한 객체데이터를 추출한다.For example, in the embodiment of the present invention having the above configuration and characteristics, the real background may be a doll's house, and the real object may be a specific doll disposed in the doll's house, in which case the background recognition module 1 is a doll. Extracts background data related to the color, shape, curve, bend, etc. of the house, and the real object recognition module 2 extracts object data related to the shape, color, and location of a specific doll in the doll's house.

또한 역할놀이 콘텐츠 출력모듈(3)에 의해 사용자기기의 화면에 인형의 집과 동일한 가상의 배경(인형의 집)이 출력되고, 상기한 특정인형은 아바타화되어 사용자기기의 화면에 출력됨과 더불어 사용자기기에 의해 조작되고, 추가로 사용자기기의 화면에는 가상의 캐릭터(예: 특정인형의 부모, 역할놀이의 스토리를 진행하는 등장인물 등)가 출력되고, 사용자는 사용자기기를 통해 아바타를 조작함으로써 가상의 캐릭터와 상호 작용을 통해 역할놀이 콘텐츠를 진행한다.In addition, the same virtual background (doll house) as the doll's house is output on the screen of the user device by the role play content output module 3, and the specific doll is converted into an avatar and output on the screen of the user device. It is manipulated by the device, and a virtual character (eg, a parent of a specific doll, a character in a role play story, etc.) is output on the screen of the user device, and the user manipulates the avatar through the user device to create a virtual role-play content through interaction with the characters of

보다 구체적으로 예를 들면, 역할놀이 콘텐츠가 '백설공주'의 이야기로 가정하면, 실물배경은 난장이의 집 모형일 수 있고, 실물객체는 백설공주 인형이 되며, 가상의 캐릭터는 일곱명의 난장이일 수 있는 것이다.More specifically, for example, assuming that the role play content is the story of 'Snow White', the real background may be a model of a dwarf's house, the real object may be a Snow White doll, and the virtual character may be seven dwarfs. there will be

또 다른 예로, 부모가 난장이의 집 모형 곳곳에 MR 배경보드를 배치하고, 자녀는 안경형 디바이스를 착용하여 백설공주 및 일곱명의 난장이의 상호 작용(백설공주 동화의 스토리에 따른 일련의 이벤트 동작)을 관람할 수 있으며, 부모는 스마트폰을 통해 역할놀이 콘텐츠가 출력되는 화면을 보면서 백설공주의 행동을 조작할 수 있는 것이다.As another example, parents place MR background boards all over the dwarf's house model, and children wear glasses to watch the interaction of Snow White and the seven dwarfs (a series of event actions based on the story of Snow White's fairy tale). Parents can manipulate Snow White's behavior while watching the screen on which role-play content is output through a smartphone.

이러한 구성 및 특징으로 이루어진 본 발명은 사용자(특히 어린이)에 대한 교육 및 학습 효과를 극대화시키는 역할놀이 콘텐츠를 제공할 수 있다.The present invention having such a configuration and characteristics can provide role-play content that maximizes the educational and learning effects for users (especially children).

도 2는 상기한 본 시스템(S)을 이용한 역할놀이 콘텐츠 제공 방법에 관한 각 단계를 도시한 과정도이다.2 is a process diagram illustrating each step of the method for providing role play content using the present system (S) described above.

도 2에 도시된 바와 같이, 본 방법(M)은 배경데이터 추출단계(S1), 객체데이터 추출단계(S2), 역할 놀이 제공단계(S3)를 포함하여 이루어진다.As shown in FIG. 2 , the method M includes a background data extraction step S1 , an object data extraction step S2 , and a role play providing step S3 .

각 단계 별로, 배경데이터 추출단계(S1)는 배경 인식모듈(1)이 실물배경을 인식하여 상기 배경데이터를 추출하는 단계이다.For each step, the background data extraction step S1 is a step in which the background recognition module 1 recognizes the real background and extracts the background data.

또한 객체데이터 추출단계(S2)는 실물객체 인식모듈(2)이 실물배경에 배치된 실물객체를 인식하여 객체데이터를 추출하는 단계이다.In addition, the object data extraction step (S2) is a step in which the real object recognition module 2 recognizes the real object disposed on the real background and extracts the object data.

다음 역할 놀이 제공 단계(S3)는 역할놀이 콘텐츠 출력모듈(3)이, 배경데이터를 활용하여 실물배경과 동일한 가상의 배경을 사용자기기의 화면에 출력하고, 객체데이터를 활용하여 아바타를 사용자기기의 화면에 출력하고, 가상의 캐릭터를 생성하여 사용자기기의 화면에 출력함으로써, 사용자가 아바타를 조작하여 캐릭터와 상호 작용할 수 있도록 하는 역할놀이를 제공하는 단계이다.In the next role play providing step (S3), the role play content output module 3 uses the background data to output a virtual background identical to the real background on the screen of the user device, and uses the object data to display the avatar of the user device. It is a step of providing a role play in which the user can interact with the character by manipulating the avatar by outputting the output to the screen, generating a virtual character and outputting it to the screen of the user device.

상기 단계로 이루어진 본 발명은 사용자(특히 어린이)에 대한 교육 및 학습 효과를 극대화시키는 역할놀이 콘텐츠를 제공하고, 그 특징 및 개별 효과는 앞서 언급한 본 시스템(S)의 그것과 동일하다.The present invention consisting of the above steps provides role play content that maximizes the educational and learning effects for users (especially children), and the characteristics and individual effects are the same as those of the system (S) mentioned above.

도 3은 본 발명의 제1실시예에 관한 것이다.3 relates to a first embodiment of the present invention.

제1실시예에 따르면, 도 3에 도시된 바와 같이, 본 시스템(S)은 역할놀이 콘텐츠 출력모듈(3)과 통신하는 관리서버(4)를 더 포함하되, 본 방법(M)은 이벤트 재현 단계(S4)를 더 포함하여 이루어질 수 있다.According to the first embodiment, as shown in Fig. 3, the present system (S) further includes a management server (4) communicating with the role-play content output module (3), wherein the method (M) is to reproduce the event Step (S4) may be further included.

구체적으로, 관리서버(4)는 역할놀이 콘텐츠 출력모듈(3)이 아바타와 캐릭터 간의 상호 작용을 녹화, 수집, 처리한 녹화데이터를 전송받아 데이터베이스에 저장하고, 이 녹화데이터를 기 저장된 질의 처리(Query Processing)에 따라 이벤트를 추출하며, 추출된 이벤트를 공유 가능한 형태로 재현하는 구성이다.Specifically, the management server 4 receives the recorded data that the role play content output module 3 records, collects, and processes the interaction between the avatar and the character, and stores it in the database, and stores the recorded data in the pre-stored query processing ( It extracts events according to Query Processing) and reproduces the extracted events in a form that can be shared.

또한 이벤트 재현 단계(S4)는 역할놀이 콘텐츠 출력모듈(3)이 객체와 캐릭터 간의 상호 작용을 녹화하여 이벤트로 재현하는 단계로, 특히 이 (S4) 단계는 역할놀이 콘텐츠 출력모듈(3)이 아바타와 캐릭터 간의 상호 작용을 녹화하여 녹화데이터를 수집하는 단계(S41), 역할놀이 콘텐츠 출력모듈(3)이 녹화데이터를 시간 순 배열, 랜더링 및 모델링하는 단계(S42), 시간 순 배열, 랜더링 및 모델링된 녹화데이터를 관리서버(4)에서 전송받아 데이터베이스에 저장하는 단계(S43), 관리서버(4)가 저장된 녹화데이터를 기 저장된 질의 처리(Query Processing)에 따라 이벤트를 추출하는 단계(S44) 및, 관리서버(4)가 추출된 이벤트를 공유 가능한 형태로 재현하는 단계(S45)를 포함한다.In addition, the event reproduction step (S4) is a step in which the role play content output module 3 records the interaction between the object and the character and reproduces the event as an event. The step of collecting recorded data by recording the interaction between the character and the character (S41), the role play content output module 3 chronologically arranging, rendering and modeling the recorded data (S42), chronological arrangement, rendering and modeling A step of receiving the recorded data from the management server 4 and storing it in a database (S43), the step of extracting an event from the stored recorded data by the management server 4 according to pre-stored query processing (S44) and , and the management server 4 reproduces the extracted event in a shareable form (S45).

상기 구성 및 특징으로 이루어진 제1실시예에 따른 본 발명은 다양한 가상 객체(캐릭터)와의 연동, 실물객체(아바타)와의 연동, 배경객체(배경)와의 연동을 통해 상황에 따른 역할극(역할 놀이)을 수행할 때, 역할 놀이를 구성하는 다양한 상호 작용 중 중요 이벤트를 녹화하고 해당 이벤트를 바탕으로 재현할 수 있다.The present invention according to the first embodiment having the above configuration and features provides a role play (role play) according to the situation through interlocking with various virtual objects (characters), interworking with real objects (avatars), and interworking with background objects (background). When performing, important events during the various interactions that make up role play can be recorded and recreated based on those events.

이러한 이벤트 재현 기능을 통해 본 발명은 타 사용자와 연출 내용, 즉 이벤트를 공유할 수 있고, 이에 본 방법(M)을 포털 서비스화하는 등, 다수의 사용자 간의 공유 커뮤니티를 형성할 수 있도록 하는 효과를 갖는다.Through this event reproduction function, the present invention can share the production content, that is, the event with other users, and thus has the effect of forming a shared community among multiple users, such as converting the method (M) into a portal service. have

도 4 및 도 5는 본 발명의 제2실시예를 도시한 도면이다.4 and 5 are views showing a second embodiment of the present invention.

먼저 도 4에 도시된 바와 같이, 본 시스템(S) 및 본 방법(M)은 제어신호를 통해 배경 인식모듈(1), 실물객체 인식모듈(2) 및 역할놀이 콘텐츠 출력모듈(3)을 제어하는 제어모듈(5) 및, DC 신호용 전원으로부터 상기 제어신호를 생성하는 신호생성모듈(100)을 더 포함하여 이루어질 수 있음을 특징으로 한다.First, as shown in Fig. 4, the present system (S) and the present method (M) control the background recognition module 1, the real object recognition module 2, and the role play content output module 3 through control signals. It is characterized in that it may further include a control module (5) and a signal generation module (100) for generating the control signal from a power source for a DC signal.

제어모듈(5)의 제어신호에는 고주파에 의한 영향, 전원부의 강한 전계장에 의한 간섭, 외부 환경(온도, 습도, 먼지 등)에 의한 영향 등, 각종 외부요인에 의해 노이즈가 유입될 가능성이 있다.There is a possibility that noise may be introduced into the control signal of the control module 5 by various external factors, such as the influence of high frequency, the interference by the strong electric field of the power supply, the influence of the external environment (temperature, humidity, dust, etc.) .

제어신호에 유입된 노이즈는 제어신호의 전압 레벨을 급증 또는 급감시켜 각 구성(각 모듈 포함)의 불안정한 동작을 야기하고, 나아가 오작동 및 고장의 원인이 될 수 있다.The noise introduced into the control signal may cause an unstable operation of each component (including each module) by rapidly or rapidly decreasing the voltage level of the control signal, which may further cause malfunctions and failures.

본 발명은 이를 해결하기 위해, 노이즈의 유입 가능성을 원천 배제한 클린 상태의 제어신호를 생성하는 신호생성모듈(100)을 구비하여, 제어신호에 유입될 노이즈를 사전에 검출 및 제거하고, 이를 통해 안정된 동작 제어가 가능하도록 하였다.In order to solve this problem, the present invention includes a signal generating module 100 that generates a control signal in a clean state excluding the possibility of introducing noise, and detects and removes noise to be introduced into the control signal in advance, and through this, a stable motion control is possible.

본 발명의 신호생성모듈(100)은 여러 단계를 거쳐 노이즈를 검출 및 제거하며, 최종적으로 제어신호 출력에 앞서 제어신호의 노이즈 포함 여부를 재 검출하는 것을 특징으로 한다.The signal generating module 100 of the present invention detects and removes noise through several steps, and finally re-detects whether the control signal contains noise before outputting the control signal.

이하 첨부된 도 5를 참고하여 본 발명의 일 실시예에 따른 신호생성모듈(100)에 대해 보다 상세하게 설명하기로 한다.Hereinafter, the signal generating module 100 according to an embodiment of the present invention will be described in more detail with reference to FIG. 5 attached thereto.

(설명의 편의를 위해 이하에서 소자 단위의 명명은 구분하지 않았다. 따라서 각 소자가 포함되는 해당 회로를 통해 유추하거나 또는 도면참조부호를 통해 구분지어 해석하는 것이 바람직하다.)(For convenience of explanation, the names of the device units are not divided below. Therefore, it is preferable to infer through the corresponding circuit in which each device is included or to analyze it separately through reference numerals.)

도 5에 도시된 바와 같이, 신호생성모듈(100)은 DC 신호용 전원을 증폭하는 노이즈증폭부(110), 증폭된 신호용 전원에 포함된 노이즈를 검출하는 노이즈검출부(120), 검출된 노이즈를 제거하는 필터부(130), 노이즈 검출 시에만 필터부를 구동시키는 필터구동부(140), 노이즈가 제거된 신호용 전원으로부터 제어신호를 생성하는 신호생성부(150) 및, 생성된 제어신호를 안정화하여 출력하는 신호출력부(160)를 포함하여 이루어진다.As shown in FIG. 5 , the signal generating module 100 includes a noise amplifier 110 for amplifying the power for a DC signal, a noise detector 120 for detecting noise included in the power for the amplified signal, and removing the detected noise. a filter unit 130 that drives the filter unit only when noise is detected; A signal output unit 160 is included.

이러한 신호생성모듈(100)은 노이즈증폭부(110)에서 DC 신호용 전원을 증폭함으로써 이에 포함된 노이즈 역시 증폭시켜 검출이 용이하도록 하고, 노이즈검출부(120)에서 증폭된 신호용 전원에 포함된 노이즈를 검출하며, 필터부(130)에서 검출된 노이즈를 제거하되, 필터구동부(140)를 통해 노이즈 검출 시에만 노이즈 제거 과정을 수행하도록 하여 불필요한 전력 소모 및 동작 과부하를 방지하고, 신호생성부(150)에서 노이즈가 제거된 신호용 전원으로부터 클린한 제어신호를 생성하며, 이를 신호출력부(160)에서 클린 여부를 확인하여 출력한다.The signal generating module 100 amplifies the power for the DC signal in the noise amplifier 110 to amplify the noise included therein to facilitate detection, and detects the noise included in the power for the signal amplified by the noise detector 120 . In addition, the noise detected by the filter unit 130 is removed, but the noise removal process is performed only when the noise is detected through the filter driving unit 140 to prevent unnecessary power consumption and operation overload, and the signal generation unit 150 A clean control signal is generated from the signal power source from which the noise has been removed, and the signal output unit 160 checks whether the signal is clean and outputs it.

이하 도 5를 참고하여 신호생성모듈(100)의 각 부 구성에 대한 보다 상세한 설명 및 동작 과정에 대한 설명, 그리고 그에 따른 효과에 대한 설명을 진행하기로 한다.Hereinafter, with reference to FIG. 5, a more detailed description of each component of the signal generating module 100, a description of an operation process, and a description of the effects thereof will be described.

노이즈증폭부(110)는 신호용 전원을 1차 증폭하는 제1증폭회로(111) 및, 2차 증폭하는 제2증폭회로(112)를 포함하여 이루어진다.The noise amplifier 110 includes a first amplifier circuit 111 for firstly amplifying the signal power source, and a second amplifier circuit 112 for secondarily amplifying the signal.

제1증폭회로(111)와 제2증폭회로(112)는 동일 구조로 이루어지고, 각각 앰프(A101)(A102), 앰프(A101)(A102)의 (+)단에 연결된 분배저항(R101)(R102)(R103)(R104) 및 캐패시터(C101)(C102), 앰프(A101)(A102)의 출력단과 (-)단 사이에 상호 병렬로 연결된 피드백 저항(R105)(R106) 및 캐패시터(C105)(C106)를 포함한다.The first amplifier circuit 111 and the second amplifier circuit 112 have the same structure, and a distribution resistor R101 connected to the positive terminals of the amplifiers A101 and A102 and the amplifiers A101 and A102, respectively. (R102) (R103) (R104) and capacitors (C101) (C102), feedback resistors (R105) (R106) and capacitors (C105) connected in parallel between the output terminal and the negative terminal of the amplifier (A101) (A102) ) (C106).

제1증폭회로(111) 및 제2증폭회로(112)의 동작 및 효과를 제1증폭회로(111)를 예로 들어 설명하면, 앰프(A101)는 분배저항(R101)(R102)과 피드백저항(R106), 그리고 접지 저항에 의해 비반전 증폭기로 동작하여 신호용 전원의 전압 레벨을 증폭시킴에 따라 노이즈 역시 함께 증폭시켜 노이즈의 검출이 용이하도록 한다. 이때 피드백 캐패시터(C105)는 앰프(A101)의 발진을 방지한다.When the operation and effects of the first amplifier circuit 111 and the second amplifier circuit 112 are described using the first amplifier circuit 111 as an example, the amplifier A101 includes the distribution resistors R101 (R102) and the feedback resistor ( R106), and operates as a non-inverting amplifier by means of a grounding resistor to amplify the voltage level of the signal power supply, thereby amplifying the noise as well to facilitate the detection of the noise. At this time, the feedback capacitor C105 prevents oscillation of the amplifier A101.

제2증폭회로(112)에서도 동일한 과정을 거쳐 신호용 전원의 증폭이 이루어진다.In the second amplifier circuit 112, the signal power is amplified through the same process.

또한 노이즈증폭부(110)는 제1증폭회로(111)의 앰프 출력단과 제2증폭회로(112)의 앰프 (+)단은 서로 연결되는 것을 특징으로 하며, 이를 통해 신호용 전원이 제1증폭회로(111)에서 1차로 증폭되고, 그 출력이 제2증폭회로(112)로 전송되어 2차 증폭됨에 따라 신호용 전원을 2중으로 보다 현저하게 증폭시켜 노이즈 검출이 용이하게 이루어지도록 한다.In addition, the noise amplifier 110 is characterized in that the amplifier output terminal of the first amplifier circuit 111 and the amplifier (+) terminal of the second amplifier circuit 112 are connected to each other, and through this, the signal power is supplied to the first amplifier circuit. (111), the output is transmitted to the second amplifying circuit 112 and secondarily amplified, so that the signal power supply is more significantly amplified in a doubly manner to facilitate noise detection.

다음으로, 노이즈검출부(120)는 비교기(121), 이 비교기(121)의 (-)단에 연결된 인가회로(122), 비교기(121)의 (+)단에 연결된 기준회로(123)를 포함하여 이루어진다.Next, the noise detection unit 120 includes a comparator 121, an application circuit 122 connected to the (-) terminal of the comparator 121, and a reference circuit 123 connected to the (+) terminal of the comparator 121. is done by

보다 구체적으로, 인가회로(122)는 상호 직렬 배치된 직류성분 제거용 저항(R201) 및 캐패시터(C201)와 노이즈 확인용 저항(R202)을 포함한다.More specifically, the application circuit 122 includes a resistor R201 and a capacitor C201 for removing a DC component, and a resistor R202 for checking noise, which are arranged in series with each other.

또한 기준회로(123)는 상호 병렬 배치되어 노이즈 판단을 위한 기준전압을 제공하는 바이어스 저항들(R203)(R204)(R205)을 포함한다.In addition, the reference circuit 123 includes bias resistors R203, R204, and R205 arranged in parallel to provide a reference voltage for noise determination.

상기 구성 및 특징으로 이루어진 노이즈검출부(120)의 동작 및 효과에 대해 설명하면, 인가회로(122)는 노이즈 증폭부(110)에서 증폭된 신호용 전원을 저항(R201) 및 캐패시터(C201)를 통해 직류성분을 제거하고 노이즈 성분만 남긴다. 이 후 노이즈 성분을 저항(R202)에 인가한다.When explaining the operation and effects of the noise detection unit 120 having the above configuration and characteristics, the applying circuit 122 applies the power for the signal amplified by the noise amplifying unit 110 to a direct current through the resistor R201 and the capacitor C201. Removes the component and leaves only the noise component. After that, a noise component is applied to the resistor R202.

이 후 기준회로는 바이어스 저항들(R203)(R204)(R205)에 의해 기준전압을 생성하고, 비교기(121)가 기준전압과 저항(R202)에 인가된 노이즈 전압을 비교함으로써 노이즈 발생 여부를 검출하고, 노이즈 검출 시 필터구동부(140)에 구동신호를 전송하여 필터부(130)를 구동함으로써 신호용 전원에 포함된 노이즈를 제거하고, 노이즈 미검출 시 필터구동부(140)에 비구동신호를 전송하거나 또는 신호를 전송하지 않아 필터부(130)를 구동시키지 않고, 신호용 전원이 바로 신호생성부로 전달되도록 한다.(비구동신호를 전송하거나 신호를 전송하지 않는 실시의 선택은 필터구동부(140)의 사양에 따라 달라질 수 있을 것이다.)After that, the reference circuit generates a reference voltage by the bias resistors R203, R204, and R205, and the comparator 121 compares the reference voltage with the noise voltage applied to the resistor R202 to detect whether noise is generated. When noise is detected, a driving signal is transmitted to the filter driving unit 140 to drive the filter unit 130 to remove noise included in the signal power source, and when noise is not detected, a non-driving signal is transmitted to the filter driving unit 140 or Alternatively, since the signal is not transmitted, the filter unit 130 is not driven, and the signal power is directly transferred to the signal generator. may vary depending on

(필터구동부(140)의 구체적인 회로 구성은 이미 널리 공지된 사항인 바, 그 상세한 설명은 생략하여도 통상의 기술자의 실시에 무리가 없을 것이다.)(The specific circuit configuration of the filter driving unit 140 is already well known, so even if a detailed description thereof is omitted, it will not be difficult for a person skilled in the art to practice.)

추가적으로, 도 5에 도시된 바와 같이 노이즈검출부(120)는 릴레이로 전송하는 신호를 지연시키는 딜레이회로(124)를 더 포함하는 것이 바람직하다.Additionally, as shown in FIG. 5 , the noise detecting unit 120 preferably further includes a delay circuit 124 for delaying a signal transmitted to a relay.

딜레이회로(124)는 상호 병렬 배치되는 역방향 다이오드(D201) 및 저항(R206)과, 이에 병렬 연결된 캐패시터(C202)를 포함하여 이루어진다.The delay circuit 124 includes a reverse diode D201 and a resistor R206 arranged in parallel with each other, and a capacitor C202 connected in parallel thereto.

이러한 딜레이회로(124)의 구비를 통해 필터구동부(140)의 수명을 연장할 수 있는데, 일반적으로 노이즈는 연속적, 주기적으로 발생하지 않고 간헐적으로 발생하기 때문에 필터구동부(140)가 구동 및 비구동을 반복하면서 수명 저하가 발생하게 되므로, 딜레이회로(124)를 구비하여 필터구동부(140)의 작동 후 일정 시간 경과 전까지는 계속하여 필터구동부(140)를 구동하도록 하여 수명을 연장시키는 것이 바람직하다.Through the provision of the delay circuit 124, the lifespan of the filter driving unit 140 can be extended. In general, since noise is generated intermittently rather than continuously or periodically, the filter driving unit 140 performs driving and non-driving. Since the lifespan decreases while repeating, it is preferable to provide a delay circuit 124 to continuously drive the filter driving unit 140 until a predetermined time has elapsed after the operation of the filter driving unit 140 to extend the lifespan.

다음으로, 필터부(130)는 각각의 출력단과 입력단이 순차적으로 연결된 제1 내지 제3필터링회로([0080] 131)(132)(133)를 포함하여 이루어진다.[0080] Next, the filter unit 130 includes first to third filtering circuits 131, 132, 133 to which the respective output terminals and input terminals are sequentially connected.

제1필터링회로(131)는 서로의 에미터와 컬렉터가 연결되어 있는 npn타입 제1 및 제2트랜지스터(Q301)(Q302)를 포함하되, 제1 및 제2트랜지스터(Q301)(Q302)의 베이스에는 각각 상호 병렬 배치된 스위칭다이오드(D301)(D302) 및 캐패시터(C301)(C302)가 연결되고, 제1트랜지스터(Q301)의 베이스와 제2트랜지스터(Q302)의 베이스 사이에는 상호 병렬 배치된 두 개의 캐패시터(C303)(C304)와, 캐패시터(C304)와 직렬을 이루는 두 저항(R303)(R304)이 연결되는 것을 특징으로 한다.The first filtering circuit 131 includes npn-type first and second transistors Q301 and Q302 in which emitters and collectors are connected to each other, and the bases of the first and second transistors Q301 and Q302 Switching diodes D301 and D302 and capacitors C301 and C302 are respectively connected in parallel to each other, and between the base of the first transistor Q301 and the base of the second transistor Q302 are two mutually arranged in parallel It is characterized in that two capacitors (C303) (C304) and two resistors (R303) (R304) in series with the capacitor (C304) are connected.

또한 제2필터링회로(132)는 제1필터링회로(131)와 동일 구조를 갖는다.Also, the second filtering circuit 132 has the same structure as the first filtering circuit 131 .

아울러 제3필터링회로(133)는 상호 병렬 배치된 두 개의 캐패시터(C305)(C306)와, 캐패시터(C306)와 직렬로 연결된 두 저항(R305)(R306)을 포함하되, 제2필터링회로(132)와 제3필터링회로(133) 사이에는 역류 방지용 다이오드(D303)가 구비되는 것을 특징으로 한다.In addition, the third filtering circuit 133 includes two capacitors C305 and C306 disposed in parallel with each other, and two resistors R305 and R306 connected in series with the capacitor C306, but the second filtering circuit 132 ) and the third filtering circuit 133, characterized in that the reverse flow prevention diode (D303) is provided.

상기 구성 및 특징으로 이루어진 필터부(130)를 통해, 3단에 걸쳐 노이즈를 제거할 수 있어 종래의 노이즈필터에 비해 노이즈 제거 효과가 우수하고, 노이즈의 제거 후 직류에 가까운 일정한 파형을 갖는 신호용 전원을 출력할 수 있기 때문에 추가적인 정류나 직류화 과정을 거치지 않아도 되는 장점이 있다.Through the filter unit 130 having the above configuration and features, it is possible to remove noise over three stages, so the noise removal effect is excellent compared to the conventional noise filter, and after the noise is removed, a signal power source having a constant waveform close to direct current It has the advantage of not having to go through an additional rectification or direct current process because it can output

도 5는 본 발명의 일 실시예에 따른 실감형 콘텐츠 제작 방법을 이용하여 제작한 실감형 콘텐츠의 일 예이다.5 is an example of immersive content produced by using the method for producing immersive content according to an embodiment of the present invention.

도 5를 참조하면, 2D 라이브를 활용한 실감형 콘텐츠로, 대사와 상황에 맞춰 실제로 영상통화를 하는 것처럼 캐릭터가 이야기를 하도록 구현한다.Referring to FIG. 5 , it is an immersive content using 2D live, and it is implemented so that the character talks as if he were actually making a video call according to the dialogue and the situation.

또한, 라이브 2D 기술로 구현된 실감나는 캐릭터 콘텐츠를 화면체 출력한다.In addition, realistic character content implemented with live 2D technology is output on the screen.

또한, 배경에 해당하는 캐릭터 이외의 공간을 후면 카메라 영상으로 비춰 실제 공간과 접목하낟.In addition, the space other than the character corresponding to the background is reflected with the rear camera image to combine it with the real space.

또한, GPS 를 활용해 현재 위치한 나라, 지역에 맞는 정보나 이야기를 하는 캐릭터를 출력한다.In addition, by using GPS, information or characters that tell a story are printed out for the country and region where you are currently located.

이상의 설명에서 각 회로를 구성하는 부가적인 소자에 대한 설명은 생략하였으나, 이는 통상의 기술자의 실시에 따라 설계 변경 가능한 것이다.Although the description of the additional elements constituting each circuit is omitted in the above description, it is possible to change the design according to the practice of those skilled in the art.

S: 본 시스템 M: 본 방법
1: 배경 인식모듈 2: 실물객체 인식모듈
3: 역할놀이 콘텐츠 출력모듈 4: 관리서버
5: 제어모듈 100: 신호생성모듈
S: this system M: this method
1: Background recognition module 2: Real object recognition module
3: Role play content output module 4: Management server
5: control module 100: signal generation module

Claims (1)

2D 라이브를 활용한 실감형 콘텐츠로, 대사와 상황에 맞춰 실제로 영상통화를 하는 것처럼 캐릭터가 이야기를 하도록 구현한 실감형 콘텐츠 제작 방법.It is an immersive content using 2D live, and it is a method of creating immersive content that is implemented so that the characters tell a story as if they were actually making a video call according to the lines and situations.
KR1020200069787A 2020-06-09 2020-06-09 A method of creating realistic contents KR20210152828A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200069787A KR20210152828A (en) 2020-06-09 2020-06-09 A method of creating realistic contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200069787A KR20210152828A (en) 2020-06-09 2020-06-09 A method of creating realistic contents

Publications (1)

Publication Number Publication Date
KR20210152828A true KR20210152828A (en) 2021-12-16

Family

ID=79033374

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200069787A KR20210152828A (en) 2020-06-09 2020-06-09 A method of creating realistic contents

Country Status (1)

Country Link
KR (1) KR20210152828A (en)

Similar Documents

Publication Publication Date Title
KR101842635B1 (en) System for providing role playing contents using mr and real object and method using the same
Hopkins A mapping of cinematic places: Icons, ideology, and the power of (mis) representation
Walsh Emergent narrative in interactive media
Danieau et al. Framework for enhancing video viewing experience with haptic effects of motion
JP2003308328A (en) Regenerator and method for regenerating content link, program therefor, and recording medium
Follmer et al. People in books: using a FlashCam to become part of an interactive book for connected reading
Uzuegbunam et al. MEBook: Kinect-based self-modeling intervention for children with autism
Tinwell et al. Bridging the uncanny: an impossible traverse?
Chien-Yu et al. Augmented reality-based assistive technology for handicapped children
CN112259218A (en) Training method for auditory stimulation of infantile autism based on VR interaction technology
Korte et al. Designing a mobile video game to help young deaf children learn Auslan
Rante et al. Development of social virtual reality (SVR) as collaborative learning media to support Merdeka Belajar
KR20210152828A (en) A method of creating realistic contents
CN110647780A (en) Data processing method and system
CN114968054B (en) Interaction system and method for cognitive training based on mixed reality
Halliday Digital cinema--an environment for multi-threaded stories
Stern Interactive Art: Interventions in/to Process
CN1089922C (en) Cartoon interface editing method
CN108805951B (en) Projection image processing method, device, terminal and storage medium
CN110444213A (en) A kind of audio recognition method and system based on AR equipment
CN211699269U (en) Voice-assisted visual teaching device
KR100597537B1 (en) Apparatus and method for playing multimedia file
CN1063867C (en) Sound-picture synchronous picture-producing card with cartoon function and image processing method thereof
Bartneck et al. Presence in a distributed media environment
CN116603232A (en) Three-dimensional VR and entity feedback based mutual-aid game entertainment system