KR20200008400A - System for providing virtual experience space having contents generated by user - Google Patents

System for providing virtual experience space having contents generated by user Download PDF

Info

Publication number
KR20200008400A
KR20200008400A KR1020180082474A KR20180082474A KR20200008400A KR 20200008400 A KR20200008400 A KR 20200008400A KR 1020180082474 A KR1020180082474 A KR 1020180082474A KR 20180082474 A KR20180082474 A KR 20180082474A KR 20200008400 A KR20200008400 A KR 20200008400A
Authority
KR
South Korea
Prior art keywords
user
output
content
virtual
generated
Prior art date
Application number
KR1020180082474A
Other languages
Korean (ko)
Inventor
최이권
김동섭
김지혜
노종석
Original Assignee
모젼스랩(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모젼스랩(주) filed Critical 모젼스랩(주)
Priority to KR1020180082474A priority Critical patent/KR20200008400A/en
Publication of KR20200008400A publication Critical patent/KR20200008400A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • H04N13/0242
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Abstract

The present invention relates to a system for providing a virtual experience space including user-generated content, capable of providing a virtual experience space, which provides an individual interaction effect of a user, which comprises: a plurality of output surfaces for outputting output content by projectors; a plurality of projectors installed in different directions; a Kinect camera; an input display for creating virtual content; a head mount worn on the head of a user; and a control system.

Description

사용자 생성 콘텐츠를 포함하는 가상 체험공간 제공 시스템 { SYSTEM FOR PROVIDING VIRTUAL EXPERIENCE SPACE HAVING CONTENTS GENERATED BY USER }System for providing virtual experience space containing user-generated content {SYSTEM FOR PROVIDING VIRTUAL EXPERIENCE SPACE HAVING CONTENTS GENERATED BY USER}

본 발명은 체험자가 생성한 콘텐츠를 포함하는 혼합현실을 생성하여 체험자에게 제공하도록 하는 가상 체험공간 제공 시스템에 관한 것으로, 2015년도 서울시 산학연 협력사업 기업성장기술개발 지원사업 중 '인터렉티브 실감미디어 기술융합 과학학습 체험관 서비스개발' 과제를 수행함에 있어 산출된 결과물에 대한 발명이다.The present invention relates to a system for providing a virtual experience space for creating a mixed reality including contents generated by an experienced person and providing the experienced person. Among the 2015 industry-academic cooperation business enterprise growth technology development support project, 'Interactive Realistic Media Technology Convergence Science' Learning Experience Center Service Development 'is the invention about the result that is produced in performing the task.

근래에 멀티미디어 환경의 급속한 발달에 따라, 가상공간의 영상을 사용자에게 제공하는 기술은 이미 널리 보급된 바 있다.In recent years, with the rapid development of the multimedia environment, a technology for providing a virtual image to the user has already been widely spread.

이에 최근에는 제공되는 가상공간에 참여자가 직접 참여하여, 가상공간의 콘텐츠와 서로 인터렉션하는 기술이 개발되고 있다.Recently, a participant directly participates in the provided virtual space, and a technology for interacting with the contents of the virtual space has been developed.

이에 따라, 상기 가상공간은 사용자가 참여할 수 있는 물리적인 공간이 마련되고, 상기 물리적인 공간의 벽면은 콘텐츠를 출력할 수 있도록 구현되어, 상기 공간상에 콘텐츠를 출력하고, 사용자는 해당 공간에 참여하여 상기 콘텐츠와 인터렉션하며, 상기 인터렉션의 결과에 따라 재생산된 콘텐츠가 출력된다.Accordingly, the virtual space is provided with a physical space for the user to participate, the wall of the physical space is implemented to output the content, output the content on the space, the user participates in the space And interact with the content, and the reproduced content is output according to the result of the interaction.

이와 같은, 실감형 체험공간을 제공하기 위해서는, 기본적으로 물리적인 입체 공간상에 콘텐츠를 출력하는 기술과, 참여자의 행위를 통한 사용자 명령을 처리하는 기술이 제공되어야 한다.In order to provide such a realistic experience space, a technology for basically outputting content on a physical three-dimensional space and a technology for processing a user command through an action of a participant should be provided.

이때, 참여자 인터렉션을 위한 참여자의 사용자 명령 인식방법은 크게 사용자가 웨어러블디바이스를 착용하는 방법과, 사용자의 액션을 상용화된 키넥트 카메라와 같은 뎁스카메라를 이용하여 참여자의 행동을 인식하는 방식이 있다.At this time, the method for recognizing a participant's user command for the participant interaction includes a method in which a user wears a wearable device and a method of recognizing participant's behavior using a depth camera such as a Kinect camera commercialized with the user's action.

이와 같은 뎁스카메라(키넥트 카메라)를 이용한 사용자의 명령 입력은, 대한민국 공개특허 제10-2016-0075884호 및 본원 특허의 선행 특허 출원 제10-2016-0104053호 등에 개시된 바 있다.The user's command input using such a depth camera (Kinect camera) has been disclosed in Korean Patent Application Laid-Open No. 10-2016-0075884 and the prior patent application No. 10-2016-0104053 of the present patent.

중 본 발명은 뎁스카메라에 의해 사용자의 모션을 인식하는 방식에 관한 것으로, 뎁스카메라를 이용하여 사용자의 모션을 인식하는 방식의 경우, 하나의 공간에 하나의 사용자(플레이어, 체험자)가 배정되어 이용하는 방식이 주를 이루고 있다.The present invention relates to a method of recognizing a user's motion by a depth camera, in the case of a method of recognizing a user's motion by using a depth camera, one user (player, experienced person) is assigned and used in one space. The way is main.

이는 사용자 인터렉션을 제공하기 위해서는 사용자의 모션을 인식하여야 하는데, 하나의 체험공간 내에서 다수의 사용자가 활동하는 경우, 중첩되는 사용자의 인식결과들로 인하여 사용자 특정에 오류가 빈번히 발생되기 때문이다.This is because in order to provide a user interaction, the motion of the user must be recognized, because when a plurality of users are active in one experience space, errors are frequently generated in user specification due to overlapping recognition results of the users.

특히, 각각의 사용자별로 개별적인 가상 콘텐츠를 제공하고자 하는 경우, ㅅ사용자 특정에 오류가 발생되면, 다른 사용자를 위해 생성된 가상콘텐츠가 제공되어 맥락에 맞지 않는 가상콘텐츠가 제공되는 문제점이 있었다.In particular, in the case of providing individual virtual content for each user, when an error occurs in user-specific, virtual content generated for another user is provided, thereby providing a virtual content that is not suitable for context.

(001) 대한민국 공개특허 제10-2016-0075884호(001) Republic of Korea Patent Publication No. 10-2016-0075884 (002) 대한민국 특허출원 제10-2016-0104053호(002) Republic of Korea Patent Application No. 10-2016-0104053

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로, 본 발명은 다수의 사용자가 동시에 체험할 수 있는 가상현실 체험공간 내에 사용자로부터 가상콘텐츠를 생성할 수 있는 디스플레이 장치를 제공하여, 사용자가 직접 생성한 가상콘텐츠가 부가된 혼합현실을 각 사용자에게 개별적으로 제공할 수 있는 가상 체험공간 제공 시스템을 제공하고자 하는 것이다.The present invention has been made to solve the above conventional problems, the present invention provides a display device that can create a virtual content from the user in a virtual reality experience space that can be experienced by multiple users, the user It is to provide a virtual experience space providing system that can provide each user with a mixed reality added to the virtual content created by himself.

또한, 본 발명은 가상 콘텐츠를 이를 생성한 사용자에게 제공함에 있어, 다수 이용 사용자 중 해당 가상콘텐츠를 생성한 사용자를 특정함에 있어 인식의 오류를 최소화할 수 있는 가상 체험공간 제공 시스템을 제공하고자 하는 것이다.In addition, the present invention is to provide a virtual experience space providing system that can minimize the error of recognition in providing the virtual content to the user who created it, the user who created the virtual content among a plurality of users. .

그리고 본 발명은 사용자에게 제공될 혼합현실을 다면 스크린에 출력된 출력콘텐츠로부터 생성함에 있어, 다수의 프로젝터를 통한 출력영역 중 엣지 영역을 정확하고 신속하게 판별할 수 있도록 하여 일체화된 현실영상을 얻을 수 있도록 하는 가상 체험공간 제공 시스템을 제공하고자 하는 것이다. In addition, the present invention generates the mixed reality to be provided to the user from the output content output on the multi-screen, so that it is possible to accurately and quickly determine the edge area of the output area through a plurality of projectors to obtain an integrated reality image It is to provide a system for providing a virtual experience space.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은, 서로 다른 방향으로 설치되어 내부에 체험공간을 형성하고, 프로젝터에 의해 출력콘텐츠가 출력되는 복수의 출력면들과; 상기 출력면에 출력콘텐츠를 출력하기 위해 서로 다른 방향으로 설치되는 복수의 프로젝터들과; 상기 체험공간 내에 위치한 사용자 오브젝트를 인식하기 위해, 상기 체험공간을 향해 설치되는 키넥트카메라와; 상기 체험공간의 배면측에 설치되어 상기 출력콘텐츠를 출력하고, 상기 사용자로부터 입력된 입력값에 따라 혼합현실콘텐츠를 구성할 가상 콘텐츠를 생성하는 입력디스플레이와; 사용자의 두부에 착용되어, 현실영상을 취득하고, 생성된 혼합현실을 사용자에게 제공하는 헤드마운트디스플레이; 그리고 상기 프로젝터들의 출력콘텐츠 출력을 제어하고, 상기 키넥트카메라로부터 인식된 동적 오브젝트의 위치 및 형태를 수신하며, 상기 헤드마운트로부터 현실영상과 상기 입력디스플레이로부터 생성된 가상 콘텐츠를 병합하여 혼합현실을 생성하고, 생성된 혼합현실을 상기 헤드마운트디스플레이에 제공하는 제어시스템을 포함하여 구성된다.According to a feature of the present invention for achieving the above object, the present invention comprises: a plurality of output surfaces are installed in different directions to form an experience space therein, the output content is output by the projector; A plurality of projectors installed in different directions to output output contents on the output surface; A Kinect camera installed toward the experience space to recognize a user object located in the experience space; An input display installed at a rear side of the experience space to output the output content, and to generate virtual content to form mixed reality content according to an input value input from the user; A head mounted display which is worn on the head of the user, acquires a real image, and provides the generated mixed reality to the user; And outputting the output contents of the projectors, receiving the position and shape of the dynamic object recognized from the Kinect camera, and merging the virtual image generated from the input image with the real image from the head mount to generate a mixed reality. And a control system for providing the generated mixed reality to the head mounted display.

이때, 상기 제어시스템은, 상기 입력디스플레이를 통해 생성된 가상 콘텐츠의 생성 사용자를 특징하고, 상기 혼합현실을 상기 사용자 별로 생성하여 제공할 수도 있다.In this case, the control system may be characterized by generating a user of the virtual content generated through the input display, and may generate and provide the mixed reality for each user.

그리고 상기 제어시스템은, 상기 키넥트카메라의 촬영정보에 포함된 사용자의 뎁스정보로부터 스켈레톤 데이터를 생성하고; 상기 스켈레톤 데이터로부터 사용자 오브젝트의 형태를 및 동작을 파악할 수도 있다.And the control system is configured to generate skeleton data from depth information of the user included in the shooting information of the Kinect camera; The shape and operation of the user object may be grasped from the skeleton data.

또한, 상기 제어시스템은, 상기 출력면 상에 둘 이상의 프로젝터에 의해 출력콘텐츠가 출력되는 중첩영역을 검출하고, 검출된 중첩영역에 대하여 복수의 프로젝터들 중 어느 하나만을 지정하여 출력콘텐츠를 출력하도록 상기 프로젝터의 출력을 제어할 수도 있다.The control system may detect an overlapping area in which output content is output by two or more projectors on the output surface, and specify only one of a plurality of projectors for the detected overlapping area to output the output content. You can also control the output of the projector.

그리고 상기 제어시스템의 중첩영역 검출은, 중첩영역을 검출할 복수의 프로젝터에 서로 다른 색상의 출력컬러를 설정하여 출력시키고, 상기 키넥트카메라로부터 획득된 영상의 상기 출력컬러들의 중첩에 의해 생성되는 색상인 엣지컬러가 출력되는 영역이 존재하는지 여부를 판별하여 검출될 수도 있다.The detection of the overlapping area of the control system may include outputting colors of different colors to a plurality of projectors for detecting the overlapping area, and generating colors by overlapping the output colors of the image obtained from the Kinect camera. It may be detected by determining whether there is an area where the in edge color is output.

또한, 상기 출력컬러는, 광의 가산혼합원리에 따라 대비가 명확한 R(Red), G(Green) 및 B(Blue) 광원 중에 선택될 수도 있다.In addition, the output color may be selected from among R (Red), G (Green), and B (Blue) light source having a clear contrast according to the addition mixing principle of light.

그리고 상기 제어시스템은, 상기 프로젝터들 중 어느 한 프로젝터의 출광 픽셀 중 일부에 대하여 출력광원의 컬러를 출력컬러로부터 상기 엣지컬러로 변경하고, 상기 키넥트카메라의 인식화면상의 출력컬러 증감율을 검사하여, 상기 출력컬러가 소멸되는 출광픽셀을 검출하여 해당 프로젝터의 출력영역을 설정할 수도 있다.And the control system changes the color of the output light source from the output color to the edge color for some of the output pixels of any one of the projectors, and examines the output color increase / decrease rate on the recognition screen of the Kinect camera. The output area of the projector may be set by detecting the outgoing pixel in which the output color disappears.

또한, 상기 제어시스템은, 사용자의 전면방향과 상기 입력디스플레이의 화면방향을 대비하여, 상기 입력디스플레이의 입력 이벤트 사용자를 식별할 수도 있다.In addition, the control system may identify the user of the input event of the input display in contrast to the front direction of the user and the screen direction of the input display.

그리고 상기 사용자의 전면방향은, 누적 저장된 스켈레톤 중 특정 신체부위에 해당하는 위치의 벡터 이동량에 대하여 평균벡터값을 산출하여 판단될 수도 있다.In addition, the front direction of the user may be determined by calculating an average vector value with respect to the amount of vector movement of a position corresponding to a specific body part among the stored and stored skeletons.

또한, 상기 입력디스플레이는, 터치패널을 포함하여 구성될 수도 있다.In addition, the input display may include a touch panel.

위에서 살핀 바와 같은 본 발명에 의한 사용자 생성 콘텐츠를 포함하는 가상 체험공간 제공 시스템에서는 다음과 같은 효과를 기대할 수 있다.In the virtual experience space providing system including user-generated content according to the present invention as described above, the following effects can be expected.

즉, 본 발명에서는 다수의 사용자가 동시에 체험할 수 있는 가상현실 체험공간 내에서 추가적인 디스플레이 장치를 통해 후면에도 콘텐츠를 출력하여 완전한 가상공간을 제공하면서, 추가적인 디스플레이 장치를 통해 사용자가 직접 생성한 가상콘텐츠가 부가된 혼합현실을 각 사용자에게 개별적으로 제공할 수 있으므로, 사용자의 개별적인 인터렉션 효과가 제공되는 가상 체험공간을 제공할 수 있는 효과가 있다.That is, in the present invention, while providing a complete virtual space by outputting the content to the rear through an additional display device in a virtual reality experience space that can be experienced by multiple users at the same time, the virtual content generated directly by the user through the additional display device Since the mixed reality can be provided to each user individually, there is an effect that can provide a virtual experience space in which the individual interaction effect of the user is provided.

그리고 본 발명에서는 다수 사용자 중 가상콘텐츠를 생성한 사용자를 정확히 특정할 수 있어, 해당 사용자에게 생성된 가상콘텐츠를 개별적으로 제공할 수 있어, 인터렉션의 정확성이 향상되는 효과가 있다.In the present invention, it is possible to accurately specify the user who created the virtual content among the plurality of users, it is possible to provide the generated virtual content to the user individually, there is an effect of improving the accuracy of the interaction.

또한, 본 발명에서는 다면 스크린에 다수의 프로젝터를 이용하여 콘텐츠를 출력함에 있어, 발생되는 엣지영역을 프로젝터의 픽셀 위치별로 구분하여 검출할 수 있으므로 완벽하게 처리된 엣지 영역을 확보할 수 있는 효과가 있다.In addition, in the present invention, when outputting content using a plurality of projectors on a multi-screen, the generated edge area can be detected by dividing by the pixel position of the projector, thereby ensuring a perfectly processed edge area. .

도 1은 본 발명에 의한 가상 체험공간 제공 시스템의 구성을 도시한 예시도.
도 2는 본 발명에 의한 키넥트 카메라에 의해 사용자가 인식되는 형태를 도시한 예시도.
도 3은 본 발명을 구성하는 입력 디스플레이에 복수의 사용자가 위치한 경우, 키넥트 카메라에 의해 사용자가 인식되는 형태를 도시한 예시도.
도 4는 본 발명에 의한 가상 체험공간 제공 시스템을 통해 혼합현실을 제공하는 방법의 구체적인 실시예를 도시한 흐름도.
도 5는 본 발명에 의한 혼합현실을 제공 방법에 있어, 사용자 특정 원리를 도시한 예시도.
도 6은 본 발명에 의한 혼합현실을 제공 방법에 있어, 출력 영역 할당의 원리를 도시한 예시도.
1 is an exemplary view showing the configuration of a virtual experience space providing system according to the present invention.
Figure 2 is an exemplary view showing a form in which a user is recognized by the Kinect camera according to the present invention.
3 is an exemplary view illustrating a form in which a user is recognized by a Kinect camera when a plurality of users are located on an input display of the present invention.
Figure 4 is a flow diagram illustrating a specific embodiment of a method for providing a mixed reality through a virtual experience space providing system according to the present invention.
5 is an exemplary view showing a user specific principle in the method for providing mixed reality according to the present invention.
6 is an exemplary view showing a principle of output area allocation in the method for providing mixed reality according to the present invention.

이하에서는 첨부된 도면을 참조하여 본 발명의 구체적인 실시예에 의한 사용자 생성 콘텐츠를 포함하는 가상 체험공간 제공 시스템을 살펴보기로 한다.Hereinafter, a virtual experience space providing system including user-generated content according to a specific embodiment of the present invention will be described with reference to the accompanying drawings.

설명에 앞서 먼저, 본 발명의 효과, 특징 및 이를 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예에서 명확해진다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Prior to the description, the effects, features and methods of achieving the same of the present invention will be apparent in the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only the embodiments are to make the disclosure of the present invention complete, and the general knowledge in the technical field to which the present invention belongs. It is provided to fully convey the scope of the invention to those skilled in the art, and the present invention is defined only by the scope of the claims.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present disclosure, when it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present disclosure, the detailed description thereof will be omitted, and the following terms are used in the embodiments of the present disclosure. Terms defined in consideration of the function of the may vary depending on the user or operator's intention or custom. Therefore, the definition should be made based on the contents throughout the specification.

첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Combinations of each block and each step of the flowchart in the accompanying block diagrams may be performed by computer program instructions (execution engine), which may be executed on a processor of a general purpose computer, special purpose computer or other programmable data processing equipment. As such, instructions executed through a processor of a computer or other programmable data processing equipment create means for performing the functions described in each block of the block diagram or in each step of the flowchart.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored therein to produce an article of manufacture containing instruction means for performing the functions described in each block of the block diagram or in each step of the flowchart.

그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성하여 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.And computer program instructions can also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps can be performed on the computer or other programmable data processing equipment to create a computer-executable process that can be executed by the computer or other programmable data processing equipment. Instructions for performing data processing equipment may also provide steps for performing the functions described in each block of the block diagram and in each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능하다.In addition, each block or step may represent a portion of a module, segment or code that includes one or more executable instructions for executing specific logical functions, and in some alternative embodiments referred to in blocks or steps It is also possible that functions occur out of order.

즉, 도시된 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.That is, the two blocks or steps shown may in fact be executed substantially concurrently, and the blocks or steps may be performed in the reverse order of the corresponding functions as required.

도 1은 본 발명에 의한 가상 체험공간 제공 시스템의 구성을 도시한 예시도이고, 도 2는 본 발명에 의한 키넥트 카메라에 의해 사용자가 인식되는 형태를 도시한 예시도이며, 도 3은 본 발명을 구성하는 입력 디스플레이에 복수의 사용자가 위치한 경우, 키넥트 카메라에 의해 사용자가 인식되는 형태를 도시한 예시도이고, 도 4는 본 발명에 의한 가상 체험공간 제공 시스템을 통해 혼합현실을 제공하는 방법의 구체적인 실시예를 도시한 흐름도이며, 도 5는 본 발명에 의한 혼합현실을 제공 방법에 있어, 사용자 특정 원리를 도시한 예시도이고, 도 6은 본 발명에 의한 혼합현실을 제공 방법에 있어, 출력 영역 할당의 원리를 도시한 예시도이다.1 is an exemplary view showing a configuration of a system for providing a virtual experience space according to the present invention, FIG. 2 is an exemplary view showing a form in which a user is recognized by a Kinect camera according to the present invention, and FIG. When a plurality of users is located on the input display constituting the configuration, it is an exemplary view showing the user is recognized by the Kinect camera, Figure 4 is a method for providing a mixed reality through the virtual experience space providing system according to the present invention 5 is a flowchart illustrating a specific embodiment of the present invention, FIG. 5 is an exemplary diagram illustrating a user specific principle in the method of providing mixed reality according to the present invention, and FIG. 6 is a method of providing the mixed reality according to the present invention. It is an exemplary diagram showing the principle of output area allocation.

먼저, 도 1에 도시된 바와 같이, 본 발명에 의한 가상 체험공간 제공 시스템은 체험공간을 구성하는 다면의 출력면(110, 120, 130, …)들과 입력디스플레이(200), 프로젝터(300), 키넥트카메라(400), 제어시스템(500), 헤드마운트디스플레이(600)를 포함하여 구성된다.First, as shown in FIG. 1, the system for providing a virtual experience space according to the present invention includes multiple output surfaces 110, 120, 130,..., An input display 200, and a projector 300 constituting the experience space. , Kinect camera 400, the control system 500, the head mounted display 600 is configured.

상기 체험 공간은 도시된 바와 같이, 다방향 벽체로 구성된 입체 공간으로, 각각의 벽면은 콘텐츠가 출력되는 출력면들로 구성된다.The experience space is a three-dimensional space composed of multi-directional walls, as shown, each wall is composed of output surfaces on which the content is output.

이때, 상기 출력면들은 기본적으로 전면(제1출력면, 110), 좌우측면(제2출력면, 120)을 포함하여 구성되고, 바람직하게는 바닥면(제3출력면, 130)을 더 포함하여 구성된다.At this time, the output surface is basically configured to include a front (first output surface, 110), left and right side (second output surface, 120), preferably further comprises a bottom surface (third output surface, 130). It is configured by.

그리고 설치환경에 따라 천정면을 더 포함하여 구성되는 것도 가능하나, 후술할 프로젝터(300) 및 키넥트카메라(400)의 설치 공간에 따라 천정면은 제외되는 것도 가능하다.In addition, the ceiling surface may be further configured according to the installation environment, but the ceiling surface may be excluded according to the installation space of the projector 300 and the Kinect camera 400 which will be described later.

한편, 일반적으로 상기 체험공간의 배면은 사용자의 출입 및 관리자의 내부관찰을 위하여 개방된 면으로 구성하는데, 본 발명에서는 해당 배면에 대형 터치스크린으로 구성되는 입력디스플레이(200)를 배치하여 상기 입력디스플레이(200)를 통하여 배면에도 출력콘텐츠를 출력할 수 있도록 한다.On the other hand, in general, the rear surface of the experience space is configured as an open surface for the user's access and the internal observation of the administrator, in the present invention by placing the input display 200 consisting of a large touch screen on the back of the input display Through 200, the output content can be output on the rear surface.

이때, 상기 입력디스플레이(200)는 출력 콘텐츠를 출력하는 것 이외에, 터치스크린을 통해 사용자가 직접 콘텐츠를 생성하여 혼합현실에 부가할 수 있도록 한다.In this case, in addition to outputting the output content, the input display 200 allows the user to directly create content and add it to the mixed reality through the touch screen.

즉, 사용자는 상기 입력디스플레이(200)를 통해 자신이 선호하는 가상 콘텐츠를 생성하고, 생성된 가상 콘텐츠가 포함된 혼합현실을 제공받는다.That is, the user generates a virtual content preferred by the user through the input display 200 and is provided with a mixed reality including the generated virtual content.

예를 들어, 다수의 체험공간 사용자 중 입력디스플레이(200) 상에서 나비를 가상콘텐츠로 생성한 사용자는 현실영상에 날아다니는 나비에 대한 가상 콘텐츠가 포함된 혼합현실을 제공받고, 입력디스플레이(200)에서 자동차를 가상콘텐츠로 생성한 사용자는 현실영상에 움직이는 자동차에 대한 가상 콘텐츠가 포함된 혼합현실을 제공받는다.For example, a user who creates a butterfly as virtual content on the input display 200 among a plurality of experience space users is provided with a mixed reality including virtual content about a butterfly flying in a real image, and in the input display 200. The user who created the car as the virtual content is provided with the mixed reality including the virtual content of the moving car in the real image.

여기서, 상기 현실영상이라 함은 출력콘텐츠가 출력된 각각의 출력면을 사용자가 착용한 헤드마운트디스플레이(이하 'HMD'라 한다)(600)를 통해 촬상되는 영상으로, 상기 현실영상과 사용자가 생성한 가상콘텐츠가 병합되어 혼합현실 콘텐츠가 생성된다.Here, the reality image is an image captured by the head mounted display (hereinafter, referred to as 'HMD') 600 worn by the user on each output surface on which the output content is output. The reality image is generated by the user. One virtual content is merged to create mixed reality content.

이를 위해 상기 각각의 출력면에 출력콘텐츠를 출력하기 위한 프로젝터(300)가 구비되는데, 바람직하게는 상기 프로젝터(300)는 각 프로젝터(300)의 화각에 따른 출력 범위 및 설치위치에 따라 체험공간 전체를 커버 할 수 있도록 설치 위치와 개수가 설정된다.To this end, a projector 300 for outputting output content is provided on each output surface. Preferably, the projector 300 includes the entire experience space according to the output range and installation position according to the angle of view of each projector 300. Installation position and number are set to cover.

한편, 상기 키넥트카메라(400)는 사용자의 동작 및 사용자의 뎁스를 측정하여, 공간상에 위치한 사용자(체험자)를 인식하고 추적하기 위한 것이다. On the other hand, the Kinect camera 400 measures the user's motion and the user's depth, to recognize and track the user (experienced person) located in the space.

여기서, 상기 키넥트카메라(400)는 오브젝트(피사체)의 형태 및 거리를 인식하고, 상기 오브젝트의 이동을 감지하는 상용화된 뎁스카메라의 대표적인 예로, 동일한 기능을 수행할 수 있는 다양한 뎁스카메라를 포함하는 의미로 사용된다.Here, the Kinect camera 400 is a representative example of a commercially available depth camera that recognizes the shape and distance of an object (subject) and detects movement of the object, and includes various depth cameras capable of performing the same function. Used in the sense.

여기서, 상기 키넥트 카메라(400)는 단일 키넥트 카메라로 구성될 수도 있고, 오브젝트의 감지 정확성을 향상시키기 위하여, 다수개의 키넥트 카메라들로 구성될 수 있다.Here, the Kinect camera 400 may be configured as a single Kinect camera, or may be configured with a plurality of Kinect cameras in order to improve the detection accuracy of the object.

한편, 상기 제어시스템(500)은 각각의 프로젝터(300)의 구동을 제어하여 상기 출력면에 출력콘텐츠를 출력하도록 제어하고, 상기 입력디스플레이(200)를 통해 생성되는 가상콘텐츠를 사용자와 매칭시켜, 해당 사용자가 가상콘텐츠가 포함된 혼합현실콘텐츠를 제공 받도록 하는 부분이다.On the other hand, the control system 500 controls to output the output content on the output surface by controlling the driving of each projector 300, matching the virtual content generated through the input display 200 with the user, This part allows the user to receive mixed reality content including virtual content.

이를 위해 상기 제어시스템(500)은 데이터베이스(미도시)를 포함하여 구성되고, 상기 데이터베이스에는 출력콘텐츠 및 가상콘텐츠를 생성하기 위한 다양한 콘텐츠 데이터가 저장된다.To this end, the control system 500 is configured to include a database (not shown), and the database stores various content data for generating output content and virtual content.

또한, 상기 제어시스템(500)은 상기 키넥트카메라(400)로부터 인식된 사용자를 오브젝트로 인식하는데, 구체적으로 상기 제어시스템(500)은 상기 키넥트카메라(400)로부터 수신된 촬영데이터를 통해 사용자(동적오브젝트)의 스켈레톤 데이터를 산출하여, 상기 스켈레톤 데이터를 통해 상기 사용자의 위치 및 동작을 판단한다.In addition, the control system 500 recognizes the user recognized by the Kinect camera 400 as an object, specifically, the control system 500 is a user through the photographing data received from the Kinect camera 400 Skeleton data of the (dynamic object) is calculated, and the position and operation of the user are determined based on the skeleton data.

즉, 상기 제어시스템(500)은 상기 키넥트카메라(400)로부터 수신된 촬영데이터에 포함된 뎁스정보를 이용하여, 상기 동적 오브젝트의 스켈레톤 데이터를 생성하고, 생성된 스켈레톤 데이터의 시계열적 변화를 파악하여, 상기 사용자의 위치 및 동작을 파악한다.That is, the control system 500 generates skeleton data of the dynamic object using the depth information included in the photographing data received from the Kinect camera 400, and grasps the time-series change of the generated skeleton data. To determine the location and operation of the user.

이와 같이 상기 제어시스템(500)이 인식하는 사용자의 스켈레톤 데이터의 일 예가 도 2에 도시되어 있다.As such, an example of the skeleton data of the user recognized by the control system 500 is illustrated in FIG. 2.

이와 같은, 스켈레톤 데이터를 이용한 동작의 파악은, 정확도와 데이터의 처리효율면에서 뛰어난 장점이 있으나, 오브젝트 근처에 다른 오브젝트가 근접하여 위치하는 경우, 오브젝트 간의 교차인식으로 인하여, 오브젝트를 특정함에 있어 인식오류가 쉽게 발생되는 문제점이 있다.Such grasping operation using skeleton data has excellent advantages in terms of accuracy and data processing efficiency. However, when another object is located close to the object, it is recognized in specifying the object due to cross recognition between the objects. There is a problem that errors are easily generated.

구체적으로, 도 3에 도시된 바와 같이, 복수의 사용자가 입력디스플레이(200) 앞에 위치한 경우, 제1사용자의 스켈레톤 데이터(810)와 제2사용자의 스켈레톤 데이터(820) 간의 교차인식으로 인하여, 상기 입력디스플레이(200)를 통해 생성되는 가상콘텐츠의 생성자가 제1사용자인지 제2사용자인지 특정함에 오류가 발생될 우려성이 높다.In detail, as illustrated in FIG. 3, when a plurality of users are located in front of the input display 200, due to the cross recognition between the skeleton data 810 of the first user and the skeleton data 820 of the second user, There is a high possibility that an error may occur in specifying whether the creator of the virtual content generated through the input display 200 is a first user or a second user.

따라서 생성된 가상콘텐츠를 이를 생성한 사용자가 아닌 인접 사용자에게 잘못 제공될 우려성이 있다.Therefore, there is a fear that the generated virtual content may be wrongly provided to the adjacent user, not the user who created the virtual content.

이와 같은 사용자 특정의 오류를 방지하기 위한 제어시스템의 구동방법은 다시 상세히 설명하기로 한다.The driving method of the control system for preventing such a user specific error will be described in detail again.

한편, 상기 HMD(600)는 사용자가 착용하는 개인화 디스플레이 장치로, 사용자의 머리에 착용하여 사용자의 시선 방향에 따른 현실영상을 취득하고, 취득된 현실영상에 생성된 가상콘텐츠를 부가하여 혼합현실 콘텐츠를 생성하여 사용자에게 제공하는 부분이다.Meanwhile, the HMD 600 is a personalized display device worn by a user. The HMD 600 is worn on the user's head to acquire a reality image according to the user's gaze direction, and adds the generated virtual content to the obtained reality image to add mixed reality content. This is the part to create and provide to the user.

상기 HMD(600)는 다양한 종류의 제품이 상용화되어 제공되고 있으며, 본 발명에서는 다양한 형태의 HMD(600)가 적용될 수 있다.The HMD 600 is commercially provided with various kinds of products, and various types of HMD 600 may be applied to the present invention.

이하에서는 상기한 바와 같은 본 발명에 의한 사용자 생성 콘텐츠를 포함하는 가상 체험공간 제공 방법을 첨부된 도면을 참고하여 상세하게 설명한다.Hereinafter, a virtual experience space providing method including user-generated content according to the present invention as described above will be described in detail with reference to the accompanying drawings.

먼저, 도 4에 도시된 바와 같이, 본 발명에 의한 가상 체험공간 제공방법은 제어시스템(500)이 다면으로 구성된 각 출력면에 출력할 출력콘텐츠를 선별하는 것으로부터 시작된다(S110).First, as shown in FIG. 4, the method for providing a virtual experience space according to the present invention starts by selecting the output content to be output on each output surface composed of multiple surfaces by the control system 500 (S110).

이후, 상기 제어시스템(500)은 복수의 프로젝터별(300)로 할당된 출력영역을 구분하여 출력콘텐츠를 출력하도록 프로젝터(300)를 구동시킨다(S120).Thereafter, the control system 500 drives the projector 300 to output output contents by dividing the output areas allocated to the plurality of projectors 300 (S120).

이때, 상기 각 출력면에 출력되는 출력콘텐츠는 결국 HMD(600)를 통해 입력되어 현실영상을 구성하는 데이터로, 현실감 극대화를 위해서는 각 출력면 사이에 발생되는 충접영역에 대한 엣지 처리(엣지블렌딩)가 매우 중요하다.At this time, the output content output to each output surface is the data that is input through the HMD (600) to form a reality image, the edge processing for the contact area generated between each output surface to maximize the reality (edge blending) Is very important.

이에 본 발명은 제어시스템(500)이 중첩영역을 검출하고, 검출된 중첩영역에 대하여 복수의 프로젝터(300) 중 어느 하나만을 지정하여, 하나의 프로젝터만 해당영역에 출력콘텐츠를 출력하도록 하여 중첩영역을 제거한다.Accordingly, in the present invention, the control system 500 detects an overlapping area, and designates only one of the plurality of projectors 300 to the detected overlapping area, so that only one projector outputs output content to the corresponding area. Remove it.

여기서, 상기 제어시스템(500)의 중첩영역 검출방법은 광의 가산혼합원리를 활용하는 방법으로, 중첩영역을 검출할 복수의 프로젝터(300)를 선별하고, 각 프로젝터(300)에 서로 다른 색상의 출력컬러를 설정하여 출력한다.Here, the overlapping area detection method of the control system 500 is a method of utilizing the addition mixing principle of light, and selects a plurality of projectors 300 to detect the overlapping area, and outputs different colors to each projector 300. Set the color to print.

그리고 상기 키넥트카메라(400)는 출력화면(공간 디스플레이)을 인식하여, 인식된 출력화면 내에 출력컬러의 중첩에 의해 생성되는 색상(이하 '엣지컬러'라 한다)이 출력되는 영역이 존재하는지 여부를 판별한다.In addition, the Kinect camera 400 recognizes an output screen (spatial display), and whether there is an area in which the color generated by the superposition of the output colors (hereinafter referred to as 'edge color') exists in the recognized output screen. Determine.

이때, 도 6에 도시된 바와 같이, 엣지컬러가 인식되면, 해당 영역이 중첩영역(D13, D12)이 된다. 이는 상기 프로젝터(300)에 의해 중첩된 엣지영역이 생성됨을 의미하고, 상기 엣지컬러가 인식되지 않으면, 엣지영역이 발생되지 않음을 의미한다.In this case, as shown in FIG. 6, when the edge color is recognized, the corresponding areas become overlapping areas D13 and D12. This means that the overlapped edge regions are generated by the projector 300. If the edge colors are not recognized, the edge regions are not generated.

따라서, 상기 출력컬러는 광의 가산혼합원리에 따라 엣지컬러와의 대비가 명확한 R(Red), G(Green) 및 B(Blue) 광원 중 어느 둘 이상이 선택되는 것이 바람직하다.Therefore, it is preferable that at least two of R (Red), G (Green), and B (Blue) light sources having a clear contrast with the edge color are selected according to the addition mixing principle of light.

한편, 제어시스템이 엣지 영역에 대한 프로젝터 할당 과정을 간단히 설명하면, 도 6에 도시된 바와 같이, 상기 출력면 내에 엣지컬러가 존재하면, 상기 제어시스템(500)은 프로젝터(300)의 출광 픽셀들 중, 엣지영역을 구성하는 픽셀을 선별하여 출력영역을 설정하는데, 그 과정은 상기 제어시스템(500)이 프로젝터(300)들 중 어느 하나의 프로젝터(이하 '제1프로젝터'라 한다) 픽셀 중 일부 출력광원의 컬러를 출력컬러로부터 엣지컬러로 변경하되, 출력면 내에 출력컬러가 모두 사라질 때까지 점차적으로 프로젝터의 픽셀 출력 색상을 엣지컬러로 변경한다.Meanwhile, when the control system briefly describes the process of allocating the projector to the edge area, as shown in FIG. 6, when an edge color exists in the output surface, the control system 500 outputs the pixels of the projector 300. Among them, an output area is set by selecting pixels constituting an edge area, and the process is performed by the control system 500 by selecting a part of one of the projector pixels (hereinafter, referred to as a “first projector”) of the projectors 300. The color of the output light source is changed from the output color to the edge color, but gradually the pixel output color of the projector is changed to the edge color until all the output color disappears in the output surface.

이를 좀 더 구체적으로 설명하면, 상기 제어시스템(500)은 상기 제1프로젝터를 통해 출력컬러를 출력한 이후에, 일부픽셀을 출력컬러로부터 엣지컬러로 변경한다. 그리고 상기 키넥트카메라의 인식화면상의 출력컬러 증감율을 검사한다.More specifically, the control system 500 outputs an output color through the first projector, and then changes some pixels from the output color to the edge color. Then, the rate of increase or decrease of the output color on the recognition screen of the Kinect camera is examined.

그리고 상기 출력컬러의 증감률이 감소하는 방향으로, 상기 프로젝터의 각 픽셀 컬러를 출력컬러 또는 엣지컬러로 설정하고, 이들 과정을 상기 출력컬러가 인식되지 않을 때까지 반복 수행한다.The pixel color of the projector is set to an output color or an edge color in a direction in which the increase / decrease rate of the output color decreases, and these processes are repeatedly performed until the output color is not recognized.

이후, 상기 인식화면상에, 출력컬러가 모두 사라지면, 해당 상태에서 제1프로젝터의 출력 픽셀 중 출력컬러가 출력되는 픽셀들을 중첩영역으로 설정한다.Subsequently, when the output color disappears on the recognition screen, pixels in which the output color is output among the output pixels of the first projector in the corresponding state are set as overlap regions.

이와 같은 과정을 전체 프로젝터에 대하여 반복 수행하고, 검출된 중첩영역에 대하여는 각 프로젝터 중 어느 하나의 프로젝터만이 출력을 담당하도록 설정한다.This process is repeated for all the projectors, and the detected overlapping area is set such that only one of the projectors is responsible for the output.

이에 따라 본 발명에서는 복수의 프로젝터를 사용하여 하나의 콘텐츠를 출력하면서도, 중첩영역을 효과적으로 제거할 수 있는 효과가 있다.Accordingly, in the present invention, while outputting one content using a plurality of projectors, there is an effect that can effectively remove the overlapping area.

이후, 상기 제어시스템(150)은 상기 입력디스플레이(200)에 사용자의 입력이 발생되는 지 여부를 판단한다(S130).Thereafter, the control system 150 determines whether a user input is generated in the input display 200 (S130).

상기 입력디스플레이(200)에 입력 이벤트가 발생되면, 상기 제어시스템(500)은 키넥트카메라(400)를 이용하여 추적하던 사용자 중 해당 입력 이벤트를 발생시키는 사용자를 식별하여 특정한다(S140).When an input event occurs in the input display 200, the control system 500 identifies and specifies a user who generates a corresponding input event among users who are tracked using the Kinect camera 400 (S140).

이때, 상기 입력디스플레이(200)에 인접한 사용자가 하나인 경우, 상기 사용자의 식별은 용이하나, 도 3에 도시된 바와 같이, 복수의 사용자가 위치한 경우 식별 오류가 발생될 우려가 높다.In this case, when there is only one user adjacent to the input display 200, the identification of the user is easy. However, as illustrated in FIG. 3, when a plurality of users are located, an identification error may be high.

이에 본 발명은 상기 입력디스플레이(200) 화면에 인접한 사용자의 전면방향을 파악하여, 상기 입력디스플레이(200)를 등지고 위치한 사용자는 식별에서 제외하여 식별 오류를 줄일 수 있다.Accordingly, the present invention can determine the front direction of the user adjacent to the screen of the input display 200, the user located behind the input display 200 can reduce the identification error by excluding from identification.

여기서 상기 사용자의 전면방향의 파악은, 키넥트카메라(400)로부터 수신된 사용자(동적 오브젝트)의 스켈레톤 동작정보의 벡터 방향으로부터 판단될 수 있다.Here, the grasp of the front direction of the user may be determined from the vector direction of the skeleton motion information of the user (dynamic object) received from the Kinect camera 400.

즉, 누적 저장된 스켈레톤의 벡터 이동량에 대하여 평균벡터값을 산출하여, 상기 평균 벡터값이 향하는 방향에 따라 상기 동적 오브젝트의 방향을 판별할 수 있다.That is, by calculating an average vector value with respect to the vector movement amount of the accumulated and stored skeleton, the direction of the dynamic object can be determined according to the direction in which the average vector value is directed.

예를 들어, 도 5에 도시된 바와 같이, 판단 부위가 팔인 경우, 스켈레톤의 팔부위의 백터 평균을 산출하고, 평균 벡터의 방향이 상기 동적 오브젝트의 전면이 된다.For example, as shown in FIG. 5, when the determination portion is an arm, a vector average of the arm portion of the skeleton is calculated, and the direction of the average vector becomes the front surface of the dynamic object.

반면에 판단 부위가 발인 경우, 스켈레톤의 발 부위의 백터 평균을 산출하고, 평균 벡터의 반대 방향이 상기 동적 오브젝트의 전면이 된다.On the other hand, when the judgment site is the foot, a vector average of the foot site of the skeleton is calculated, and the opposite direction of the average vector becomes the front face of the dynamic object.

물론, 이와 같은 판단 기준은 상기 동적 오브젝트가 인간인 경우에 적용되는 것으로, 상기 판단기준은 상기 동적오브젝트의 종류에 따라 다르게 설정되는 것도 가능하다.Of course, such a criterion is applied when the dynamic object is a human, and the criterion may be set differently according to the type of the dynamic object.

이와 같이, 입력디스플레이상(200)의 입력에 대한 사용자 식별 및 특정이 이루어지면, 상기 특정된 사용자에게 제공될 가상콘텐츠가 상기 입력디스플레이(200)의 입력에 의해 생성된다(S150).As such, when user identification and specification of an input on the input display 200 are made, virtual content to be provided to the specified user is generated by the input of the input display 200 (S150).

상기 제어시스템(500) 또는 사용자가 착용한 HMD(600)는 취득한 현실영상과 특정된 가상콘텐츠를 병합하여 혼합현실 콘텐츠를 생성한다(S170).The control system 500 or the HMD 600 worn by the user merges the acquired real image and the specified virtual content to generate mixed reality content (S170).

그리고 이와 같이 생성된 혼합현실은 상기 HMD(600)를 통해 사용자에게 제공된다.The mixed reality thus generated is provided to the user through the HMD 600.

이와 같이, 가상 콘텐츠를 사용자가 직접 생성하고, 생성된 가상 콘텐츠는 생산자에게 특정되어 혼합현실에 포함되므로, 하나의 체험공간에서 다수의 체험자가 체험을 동시에 체험하면서도 사용자별로 선호도에 따른 맞춤형 혼합현실을 개별적으로 제공할 수 있는 효과가 있다.As such, since the user directly generates the virtual content and the generated virtual content is included in the mixed reality, which is specific to the producer, a plurality of experiences simultaneously experience the experience in one experience space while providing a customized mixed reality according to the user's preference. There is an effect that can be provided separately.

본 발명의 권리는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.The rights of the present invention are not limited to the embodiments described above, but are defined by the claims, and those skilled in the art can make various modifications and adaptations within the scope of the claims. It is self-evident.

본 발명은 체험자가 생성한 콘텐츠를 포함하는 혼합현실을 생성하여 체험자에게 제공하도록 하는 가상 체험공간 제공 시스템에 관한 것으로, 본 발명에서는 다수의 사용자가 동시에 체험할 수 있는 가상현실 체험공간 내에서 추가적인 디스플레이 장치를 통해 후면에도 콘텐츠를 출력하여 완전한 가상공간을 제공하면서, 추가적인 디스플레이 장치를 통해 사용자가 직접 생성한 가상콘텐츠가 부가된 혼합현실을 각 사용자에게 개별적으로 제공할 수 있으므로, 사용자의 개별적인 인터렉션 효과가 제공되는 가상 체험공간을 제공할 수 있는 효과가 있다.The present invention relates to a virtual experience space providing system for generating a mixed reality including the content generated by the experience to provide to the experience, in the present invention, an additional display in the virtual reality experience space that can be experienced by multiple users at the same time By providing contents to the rear through the device to provide a complete virtual space, an additional display device can provide each user with a mixed reality to which the virtual content created by the user is added. There is an effect that can provide the provided virtual experience space.

110, 120, 130 : 출력면 200 : 입력디스플레이
300: 프로젝터 400 : 키넥트카메라
500 : 제어시스템 600 : 헤드마운트디스플레이
110, 120, 130: output surface 200: input display
300: projector 400: Kinect camera
500: control system 600: head mounted display

Claims (5)

서로 다른 방향으로 설치되어 내부에 체험공간을 형성하고, 프로젝터에 의해 출력콘텐츠가 출력되는 복수의 출력면들과;
상기 출력면에 출력콘텐츠를 출력하기 위해 서로 다른 방향으로 설치되는 복수의 프로젝터들과;
상기 체험공간 내에 위치한 사용자 오브젝트를 인식하기 위해, 상기 체험공간을 향해 설치되는 키넥트카메라와;
상기 체험공간의 배면측에 설치되어 상기 출력콘텐츠를 출력하고, 상기 사용자로부터 입력된 입력값에 따라 혼합현실콘텐츠를 구성할 가상 콘텐츠를 생성하는 입력디스플레이와;
사용자의 두부에 착용되어, 현실영상을 취득하고, 생성된 혼합현실을 사용자에게 제공하는 헤드마운트디스플레이; 그리고
상기 프로젝터들의 출력콘텐츠 출력을 제어하고, 상기 키넥트카메라로부터 인식된 동적 오브젝트의 위치 및 형태를 수신하며, 상기 헤드마운트로부터 현실영상과 상기 입력디스플레이로부터 생성된 가상 콘텐츠를 병합하여 혼합현실을 생성하고, 생성된 혼합현실을 상기 헤드마운트디스플레이에 제공하는 제어시스템을 포함하여 구성됨을 특징으로 하는 사용자 생성 콘텐츠를 포함하는 가상 체험공간 제공 시스템.
A plurality of output surfaces installed in different directions to form an experience space therein and outputting output contents by a projector;
A plurality of projectors installed in different directions to output output contents on the output surface;
A Kinect camera installed toward the experience space to recognize a user object located in the experience space;
An input display installed at a rear side of the experience space to output the output content, and to generate virtual content to form mixed reality content according to an input value input from the user;
A head mounted display which is worn on the head of the user, acquires a real image, and provides the generated mixed reality to the user; And
Outputting the output contents of the projectors, receiving the position and the shape of the dynamic object recognized from the Kinect camera, generating the mixed reality by merging the virtual image generated from the input image and the real image from the head mount; And a control system for providing the generated mixed reality to the head mounted display.
제 1 항에 있어서,
상기 제어시스템은,
상기 입력디스플레이를 통해 생성된 가상 콘텐츠의 생성 사용자를 특징하고, 상기 혼합현실을 상기 사용자 별로 생성하여 제공함을 특징으로 하는 사용자 생성 콘텐츠를 포함하는 가상 체험공간 제공 시스템.
The method of claim 1,
The control system,
Characterized by the user of the generation of the virtual content generated through the input display, and a virtual experience space providing system comprising the user-generated content, characterized in that for generating and providing the mixed reality for each user.
제 1 항에 있어서,
상기 제어시스템은,
상기 키넥트카메라의 촬영정보에 포함된 사용자의 뎁스정보로부터 스켈레톤 데이터를 생성하고;
상기 스켈레톤 데이터로부터 사용자 오브젝트의 형태를 및 동작을 파악함을 특징으로 하는 사용자 생성 콘텐츠를 포함하는 가상 체험공간 제공 시스템.
The method of claim 1,
The control system,
Generating skeleton data from depth information of a user included in the shooting information of the Kinect camera;
And a user-generated content, characterized in that determining the shape and operation of a user object from the skeleton data.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 제어시스템은,
상기 출력면 상에 둘 이상의 프로젝터에 의해 출력콘텐츠가 출력되는 중첩영역을 검출하고, 검출된 중첩영역에 대하여 복수의 프로젝터들 중 어느 하나만을 지정하여 출력콘텐츠를 출력하도록 상기 프로젝터의 출력을 제어함을 특징으로 하는 사용자 생성 콘텐츠를 포함하는 가상 체험공간 제공 시스템.
The method according to any one of claims 1 to 3,
The control system,
Detecting an overlapping area in which output content is output by two or more projectors on the output surface, and controlling the output of the projector to output the output content by designating only one of a plurality of projectors for the detected overlapping area; A system for providing a virtual experience space comprising user-generated content.
제 4 항에 있어서,
상기 입력디스플레이는,
터치패널을 포함하여 구성됨을 특징으로 하는 사용자 생성 콘텐츠를 포함하는 가상 체험공간 제공 시스템.
The method of claim 4, wherein
The input display,
System for providing a virtual experience space including user-generated content, characterized in that configured to include a touch panel.
KR1020180082474A 2018-07-16 2018-07-16 System for providing virtual experience space having contents generated by user KR20200008400A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180082474A KR20200008400A (en) 2018-07-16 2018-07-16 System for providing virtual experience space having contents generated by user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180082474A KR20200008400A (en) 2018-07-16 2018-07-16 System for providing virtual experience space having contents generated by user

Publications (1)

Publication Number Publication Date
KR20200008400A true KR20200008400A (en) 2020-01-28

Family

ID=69370598

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180082474A KR20200008400A (en) 2018-07-16 2018-07-16 System for providing virtual experience space having contents generated by user

Country Status (1)

Country Link
KR (1) KR20200008400A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102215146B1 (en) * 2020-06-23 2021-02-15 주식회사 예쉬컴퍼니 Method, apparatus and computer program for providing interactive service using augmented reality and mixed reality
KR102297915B1 (en) * 2020-03-03 2021-09-06 주식회사 코탁스 reflecting system based on six sided cube screens
KR102358997B1 (en) * 2020-08-10 2022-02-08 주식회사 토즈 The service platform for multi-user supporting extended reality experience

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160075884A (en) 2014-12-19 2016-06-30 동국대학교 경주캠퍼스 산학협력단 Skeleton tracking method and keleton tracking system using the method
KR20160104053A (en) 2013-12-31 2016-09-02 비와이디 컴퍼니 리미티드 Power battery moudle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160104053A (en) 2013-12-31 2016-09-02 비와이디 컴퍼니 리미티드 Power battery moudle
KR20160075884A (en) 2014-12-19 2016-06-30 동국대학교 경주캠퍼스 산학협력단 Skeleton tracking method and keleton tracking system using the method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102297915B1 (en) * 2020-03-03 2021-09-06 주식회사 코탁스 reflecting system based on six sided cube screens
KR102215146B1 (en) * 2020-06-23 2021-02-15 주식회사 예쉬컴퍼니 Method, apparatus and computer program for providing interactive service using augmented reality and mixed reality
KR102358997B1 (en) * 2020-08-10 2022-02-08 주식회사 토즈 The service platform for multi-user supporting extended reality experience

Similar Documents

Publication Publication Date Title
US8007110B2 (en) Projector system employing depth perception to detect speaker position and gestures
US9864495B2 (en) Indirect 3D scene positioning control
US8199186B2 (en) Three-dimensional (3D) imaging based on motionparallax
CN106662925B (en) Multi-user gaze projection using head mounted display devices
KR102365730B1 (en) Apparatus for controlling interactive contents and method thereof
US8890812B2 (en) Graphical user interface adjusting to a change of user's disposition
US7755608B2 (en) Systems and methods of interfacing with a machine
US20110234481A1 (en) Enhancing presentations using depth sensing cameras
CN111566596B (en) Real world portal for virtual reality displays
JP2022535315A (en) Artificial reality system with self-tactile virtual keyboard
KR20200008400A (en) System for providing virtual experience space having contents generated by user
JP2023514796A (en) Occlusion of virtual objects in augmented reality by physical objects
Valkov et al. Touching Floating Objects in Projection-based Virtual Reality Environments.
CN107168534B (en) Rendering optimization method and projection method based on CAVE system
US11209903B2 (en) Rendering of mediated reality content
KR101419044B1 (en) Method, system and computer-readable recording medium for displaying shadow of 3d virtual object
Li et al. Enhancing 3d applications using stereoscopic 3d and motion parallax
KR20200008478A (en) System for providing virtual experience space having real objects
CN107015650B (en) Interactive projection method, device and system
KR20200030326A (en) Method, apparatus and computer program for producing mixed reality using single camera of device
KR101426378B1 (en) System and Method for Processing Presentation Event Using Depth Information
US11262854B2 (en) Sensing movement of a hand-held controller
US20210217223A1 (en) Heat map presentation device and heat map presentation program
KR101860680B1 (en) Method and apparatus for implementing 3d augmented presentation
JP2017123589A (en) Information processing apparatus, information processing method, and video projection system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right