KR101723828B1 - Interactive Augmented space available space expansion engines experience applied Cube system - Google Patents

Interactive Augmented space available space expansion engines experience applied Cube system Download PDF

Info

Publication number
KR101723828B1
KR101723828B1 KR1020160110682A KR20160110682A KR101723828B1 KR 101723828 B1 KR101723828 B1 KR 101723828B1 KR 1020160110682 A KR1020160110682 A KR 1020160110682A KR 20160110682 A KR20160110682 A KR 20160110682A KR 101723828 B1 KR101723828 B1 KR 101723828B1
Authority
KR
South Korea
Prior art keywords
space
cube
information
image
augmented
Prior art date
Application number
KR1020160110682A
Other languages
Korean (ko)
Inventor
이재영
Original Assignee
주식회사 케이쓰리아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이쓰리아이 filed Critical 주식회사 케이쓰리아이
Priority to KR1020160110682A priority Critical patent/KR101723828B1/en
Application granted granted Critical
Publication of KR101723828B1 publication Critical patent/KR101723828B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform

Abstract

The present invention relates to an experience cube system applying spatial augmented interactive engine capable of expanding space, and more particularly, to an experience cube system applying spatial augmented interactive engine capable of expanding space, which can induce pleasure through a realistic/sensory type exhibition image applying interaction technology which enables a dynamic object (user) with an object of a virtual world in real time, and can actively perform various experiences. The system according to the present invention includes: a first cube which includes a kinect camera which recognizes and supplies a gesture and a posture, a spatial augmented reality implementing device which obtains information from the kinect camera and performs interaction, a DID device which displays interaction image information with a 3D virtual object, and a speaker which outputs interaction sound information with the 3D virtual object; and a second cube for expanding the space. The spatial augmented interactive engine includes an image information obtaining unit which obtains color image and depth image information, an image matching unit, a dynamic object recognizing unit for storing dynamic object information, a dynamic object coordinate extracting unit for extracting position information about the dynamic object, a dynamic object mesh output unit for generating a real-time lattice mesh, an augmented object generating unit for augmenting a virtual object, an augmented object event generating unit for generating an event in the augmented object, and an object animation generating unit for executing an animation corresponding to the augmented object.

Description

공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템{Interactive Augmented space available space expansion engines experience applied Cube system} [0001] The present invention relates to an interactive augmented cube system,

본 발명은 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템에 관한 것으로서, 더욱 상세하게는 동적 객체(사용자)가 실시간으로 가상 세계의 객체와 서로 상호작용할 수 있는 인터랙션 기술을 적용한 실감/체감형 전시 영상을 통해 즐거움을 유발시키고 능동적으로 다양한 체험을 수행할 수 있는 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템에 관한 것이다.
The present invention relates to an experiential cube system to which a space enhancing interactive engine capable of expanding a space is applied, and more particularly, to an experiential cube system in which a dynamic object (user) And an experience cube system to which a space enhancing interactive engine capable of expanding a space capable of actively experiencing various experiences through pleasure through exhibition images.

가상현실은 컴퓨터 등을 사용한 인공적인 기술로 만들어낸 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황 혹은 그 기술 자체를 의미하며 이러한 가상의 환경이나 상황 등은 사용자의 오감을 자극하며 실제와 유사한 공간적, 시간적 체험하게 함으로써 현실과 상상의 경계를 자유롭게 드나들게 한다.VIRTUAL REALITY refers to a specific environment or situation, or technology itself, which is similar to the reality created by artificial technology using computers and the like, but these virtual environments or situations stimulate the user's five senses, , Allowing them to experience the time and the freedom to move freely between reality and imagination.

최근 국내외 유수의 기업들이 가상 현실 기기를 제작 및 가상 현실을 기반으로 한 컨텐츠 개발에 막대한 투자를 하고 있고, 이러한 상황에 비추어 볼 때 머지않은 미래에는 가상 현실이 영상 산업의 주류가 될 것이라는 것을 알 수 있다.Recently, domestic and foreign companies are investing heavily in creating virtual reality devices and developing content based on virtual reality. In light of this situation, we can see that virtual reality will become the mainstream of the video industry in the near future have.

다만 최근 가상 현실 기반의 컨텐츠 개발 산업은 대부분이 게임 엔터테인먼트와 같은 흥미 위주의 가상 현실 컨텐츠 개발에 초점이 맞추어져 있으며, 자연 학습과 같은 교육용 컨텐츠의 개발은 미비한 실정이다.However, most of the contents development industry based on virtual reality recently focuses on the development of interesting virtual reality contents such as game entertainment, and development of educational contents such as natural learning is not enough.

또한, 기존의 가상 현실 기반의 컨텐츠는 보여주기 형식의 수동적인 컨텐츠가 주류를 이루고 있으며, 사용자와 피드백을 통한 가상 체험 컨텐츠는 극히 제한적이다.In addition, existing virtual reality-based contents are mainly composed of passive contents in the form of display, and virtual experience contents through users and feedback are extremely limited.

요약하자면, 기존의 체험전시 공간은 단순 동적 영상을 전시하거나, 터치스크린 방식의 단순 인터랙션을 통한 간접적 체험을 제공하는 방식이 주를 이루고 있다. In summary, existing experiential space is mainly composed of simple dynamic image display or indirect experience through simple interaction with touch screen.

따라서, 본 발명은 실세계 환경에서 공간과 사물을 인식하여 공간과 사물을 스크린에 투영하고, 가상 콘텐츠 및 정보를 증강(혼합)하여 동적객체(사용자, 관람객, 체험객)가 가상의 객체와 인터랙션할 수 있게 함으로써 실감나게 전시체험을 할 수 있는 환경을 제공한다.Accordingly, the present invention can recognize spaces and objects in a real-world environment, project spaces and objects on screens, and enhance (mix) virtual contents and information so that dynamic objects (users, viewers, and visitors) can interact with virtual objects This will provide an environment in which visitors can experience the exhibition in a realistic way.

또한, 본 발명을 적용한 복합문화공간(과학관/전시관/도서관/체험관/테마파크)의 체험전시 형태는 관람 및 방문객들의 몰입감과 현실감을 강화하여 실시간 상호작용을 지원하는 공간증강 인터랙티브 서비스를 제공한다.
In addition, the interactive exhibition space of the complex culture space (science museum / exhibition hall / library / experience hall / theme park) to which the present invention is applied provides a space enhancement interactive service that supports real-time interaction by enhancing the feeling of immersion and realism of visitors and visitors.

대한민국 등록특허 10-0812624호Korean Patent No. 10-0812624

따라서, 본 발명은 상기 종래의 문제점을 해소하기 위해 안출된 것으로,SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art,

본 발명의 목적은 동적 객체(사용자)가 실시간으로 가상 세계의 객체와 서로 상호작용할 수 있는 인터랙션 기술을 적용한 실감/체감형 전시 영상을 통해 즐거움을 유발시키고 능동적으로 다양한 체험을 다수 체험객들에게 동시에 수행할 수 있도록 하는데 있다.An object of the present invention is to provide a real-time / real-time interactive display technique in which a dynamic object (user) can interact with an object in a virtual world in real time, To be able to do.

본 발명의 다른 목적은 제1큐브 내부에 제2큐브가 위치하고 있다가 필요시에 외부로 빠져나오도록 하여 체험 전시의 공간적인 한계를 극복하도록 하며, 찾아가는 체험큐브 시스템을 제공하여 다양하고 많은 체험객들에게 체험 전시를 수행할 수 있도록 하는데 있다.
Another object of the present invention is to provide an experience cube system that allows a second cube to be located inside a first cube and to escape to the outside when necessary, To be able to carry out experience exhibition.

본 발명이 해결하고자 하는 과제를 달성하기 위하여, 본 발명의 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템은,According to an aspect of the present invention, there is provided an experience cube system to which a space enhancing interactive engine capable of extending a space according to an embodiment of the present invention is applied,

체험큐브 내의 실공간을 인식하고, 체험객과 체험객의 움직임(제스처 및 포스처)를 인식하여 체험큐브에 구성된 공간증강인터랙티브엔진으로 제공하기 위한 키넥트카메라(100)와;A Kinect camera 100 for recognizing the actual space in the experience cubes and recognizing the movements (gestures and postures) of the visitors and the visitors, and providing them as the space enhancing interactive engine configured in the experience cubes;

상기 키넥트카메라로부터 제공된 정보(실공간 인식 정보, 체험객 인식 정보, 체험객 움직임 인식 정보)를 획득하여 내장된 공간증강인터랙티브엔진(250)으로 제공하여 생성된 3차원 가상객체와 체험객 간의 인터랙션을 수행하기 위한 공간증강구현장치(200)와;Acquires information (real space recognition information, experiential recognition information, experiential motion recognition information) provided from the Kinect camera and provides it to the built-in space enhancement interactive engine 250 to perform interaction between the generated three-dimensional virtual object and the viewer A space enhancer 200 for implementing the space reinforcement;

상기 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 영상 정보를 디스플레이시키기 위한 DID장치(300)와;A DID device 300 for displaying the interaction image information with the 3D virtual object according to the movement of the guest provided through the space enhancement device;

상기 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 음향 정보를 출력하기 위한 스피커(400);를 포함하여 구성되는 제1큐브(1000)와,And a speaker (400) for outputting interaction sound information with a 3D virtual object according to a movement of a person provided through the space enhancement implementing device. The first cube (1000)

상기 제1큐브의 내부로부터 외부로 이동되어 공간을 확장시키기 위한 제2큐브(2000)를 포함하게 된다.And a second cube 2000 for moving the interior of the first cube to the outside to expand the space.

한편, 상기 공간증강인터랙티브엔진(250)은,The space enhancing interactive engine 250,

키넥트카메라(100)로부터 컬러 영상 및 깊이 영상 정보를 획득하기 위한 영상정보획득부(251)와;An image information acquiring unit 251 for acquiring color image and depth image information from the Kinect camera 100;

상기 영상정보획득부에 의해 획득된 컬러 영상 및 깊이 영상 정보를 획득하여 컬러 영상과 깊이 영상을 보정하고, RGB 영상과 깊이 영상의 호모그래피(Homography)를 계산하여 키넥트카메라를 구성하고 있는 RGB카메라와 Depth 카메라의 시점을 동일하게 처리하기 위한 영상정합부(252)와;The color image and the depth image obtained by the image information obtaining unit are acquired to correct the color image and the depth image, and the homography of the RGB image and the depth image is calculated to obtain the RGB camera An image matching unit 252 for processing the viewpoint of the Depth camera equally;

상기 정합된 영상을 획득하여 직선을 추출하여 추출된 직선을 통해 정합 영상에서의 공간 정보를 인식하여 공간, 정적, 동적 영역을 구분하되, 각 영역에서 특징점을 추출한 후, 각 영역의 특징점과 공간상에서의 위치 정보를 이용하여 영역이 나타내는 객체를 인식하여 동적 객체 정보를 저장하기 위한 동적객체인식부(253)와;The matched image is acquired and a straight line is extracted. The spatial information in the matching image is recognized through the extracted straight line to distinguish the spatial, static, and dynamic regions. After extracting the feature points from the respective regions, A dynamic object recognizing unit 253 for recognizing an object represented by the region using the positional information of the region and storing the dynamic object information;

상기 인식된 동적 객체 영역의 깊이 영상을 이용하여 키넥트카메라로부터 추출한 스켈레톤 정보를 이용하여 동적 객체에 대한 위치 정보를 추출하기 위한 동적객체좌표추출부(254)와;A dynamic object coordinate extraction unit 254 for extracting position information on the dynamic object using the skeleton information extracted from the Kinect camera using the depth image of the recognized dynamic object area;

상기 동적 객체에 대한 위치 정보를 획득하여 연속 인식되는 객체 영역의 스켈레톤 정보를 추출하여 자세 변환을 추정하여 실시간 격자 메시를 생성하기 위한 동적객체메시출력부(255)와;A dynamic object mesh output unit (255) for acquiring position information on the dynamic object to extract skeleton information of the continuously recognized object region to generate a real time mesh mesh by estimating posture transformation;

인식 공간에 대한 좌표를 추출하며 추출된 좌표를 기준으로 표면의 내부와 외부를 구분하여 표면을 형성하며, 형성된 표면에 가상의 객체를 증강하기 위한 증강객체생성부(256)와;An augmented object generating unit 256 for extracting the coordinates of the recognition space and separating the inside and the outside of the surface based on the extracted coordinates to form a surface and augmenting a virtual object on the surface formed;

상기 증강 객체에 충돌 객체를 생성하며, 동적 객체에 충돌 객체를 생성하되, 상기 증강 객체 생성된 충돌 객체와 메시 객체에 생성된 충돌 객체가 서로 충돌하였는지를 판단하여 충돌이 발생하면 증강 객체에 이벤트를 생성하기 위한 증강객체이벤트생성부(257)와;A collision object is generated in the reinforcement object, a collision object is created in the dynamic object, and it is determined whether the collision object generated in the augmented object and the collision object generated in the mesh object collide with each other. An augmented object event generation unit 257 for generating augmented object event;

상기 증강 객체의 이벤트를 획득하여 증강 객체에 해당되는 애니메이션을 실행하기 위한 객체애니메이션생성부(258);를 포함한다.
And an object animation generation unit 258 for acquiring an event of the augmented object and executing an animation corresponding to the augmented object.

본 발명에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템은, 동적객체(사용자)가 실시간으로 가상세계의 객체와 서로 상호작용할 수 있는 인터랙션 기술을 적용한 실감/체감형 전시영상을 통해 즐거움을 유발시키고 능동적으로 다양한 체험을 다수 체험객들에게 동시에 수행할 수 있는 효과를 제공하게 된다.The experiential cube system to which the space enhancing interactive engine capable of expanding the space according to the present invention is applied is a pleasure cube system in which a dynamic object (user) realizes an experience / And to provide various effects to actively perform various experiences to a plurality of visitors at the same time.

또한, 본 발명의 시스템을 적용한 전시체험을 통해 새로운 방식의 전시체험 패러다임 생성을 기대할 수 있게 된다. In addition, through the exhibition experience using the system of the present invention, it is possible to expect a new exhibition experience paradigm generation.

또한, 제1큐브 내부에 제2큐브가 위치하고 있다가 필요시에 제1큐브의 외부로 빠져나오도록 하여 체험 전시의 공간적인 한계를 극복하도록 하며, 찾아가는 체험큐브 시스템을 제공하여 다양하고 많은 체험객들에게 체험 전시를 수행할 수 있는 효과를 제공하게 된다.
In addition, the second cube is located inside the first cube, and when necessary, the first cube is taken out of the first cube, thereby overcoming the spatial limit of the experience exhibition and providing the experience cube system to visit, It is possible to carry out the experience exhibition.

도 1은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 제2큐브 확장 전의 전체 구성도이다.
도 2는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 제2큐브 확장 후의 전체 구성도이다.
도 3은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 공간증강인터랙티브엔진 블록도이다.
도 4는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 영상정합부 블록도이다.
도 5는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 동적객체인식부 블록도이다.
도 6은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 동적객체좌표추출부 블록도이다.
도 7은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 동적객체메시출력부 블록도이다.
도 8은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 증강객체생성부 블록도이다.
도 9는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 증강객체이벤트생성부 블록도이다.
도 10은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 객체애니메이션생성부 블록도이다.
도 11은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템에 의해 구현되는 인터랙션 화면 예시도이다.
도 12는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 스켈레톤 화면 예시도이다.
도 13은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 실시간 격자 메시 화면 예시도이다.
도 14는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 표면의 내외부를 구분하는 표면을 형성하는 화면 예시도이다.
도 15는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 실객체와 가상객체 화면 예시도이다.
도 16은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 가상의 메시를 생성하고 화면에는 보이지 않도록 투명하게 처리하는 화면 예시도이다.
도 17은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 실객체와 가상객체 충돌시 화면 예시도이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an overall configuration diagram of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied, before expansion of a second cube. FIG.
FIG. 2 is an overall configuration diagram of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied, after expansion of a second cube. FIG.
FIG. 3 is a space enhancement interactive engine block diagram of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
4 is a block diagram of an image matching unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
5 is a block diagram of a dynamic object recognition unit of an experience cube system to which a space enhancement interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
6 is a block diagram of a dynamic object coordinate extraction unit of an experiential cube system to which a space enhancement interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
FIG. 7 is a block diagram of a dynamic object mesh output unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
FIG. 8 is a block diagram of an augmented object generation unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
FIG. 9 is a block diagram of an augmented object event generating unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
10 is a block diagram of an object animation generating unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
11 is a diagram illustrating an interaction screen implemented by an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
12 is a skeleton screen exemplary view of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
FIG. 13 is a view illustrating a real-time grid mesh screen of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
FIG. 14 is a diagram illustrating a screen for forming a surface that distinguishes the inside and the outside of the surface of the experiential cube system to which the space enhancing interactive engine capable of expanding the space according to the embodiment of the present invention is applied.
15 is a view illustrating a real object and a virtual object screen of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
FIG. 16 is a diagram illustrating an example of a screen in which a virtual mesh of the experiential cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied, and is transparently displayed on a screen.
FIG. 17 is a diagram illustrating a screen image of a real object and a virtual object in an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.

이하, 본 발명에 의한 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 실시예를 통해 상세히 설명하도록 한다.Hereinafter, an experience cube system to which a space enhancing interactive engine capable of expanding a space according to the present invention is applied will be described in detail with reference to embodiments.

도 1은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 제2큐브 확장 전의 전체 구성도이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an overall configuration diagram of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied, before expansion of a second cube. FIG.

도 1에 도시한 바와 같이, 본 발명의 시스템은 크게, 키넥트카메라(100)와; 공간증강구현장치(200)와; DID장치(300)와; 스피커(400);를 포함하여 구성되는 제1큐브(1000)와, 상기 제1큐브의 내부로부터 외부로 이동되어 공간을 확장시키기 위한 제2큐브(2000),를 포함하여 구성하게 된다.As shown in Fig. 1, the system of the present invention mainly includes a Kinect camera 100; A space enhancement implementing device 200; A DID device 300; A speaker 400 and a second cube 2000 which is moved from the inside of the first cube to the outside to expand the space.

기존의 체험전시공간은 특정 장소(과학관, 박물관, 미술관 등)에 체험객들이 직접 방문을 하여야만 체험을 할 수 있는 환경이었다. The existing experience time and space was an environment where visitors had to visit a specific place (science museum, museum, art museum, etc.) to experience it.

이에 본 발명의 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템은 이동성을 확보하여 다양한 장소에서 체험객들이 실제공간과 혼합된 가상의 객체와 상호작용하며 체험할 수 있는 공간증강 인터랙티브 콘텐츠를 체험할 수 있도록 하는 것 이다.Accordingly, the experience cube system to which the space enhancement interactive engine of the present invention is applied is to enable the experience of space enhancing interactive contents in which the visitors can interact with virtual objects mixed with real space in various places by securing mobility to be.

상기와 같은 구성을 통해, 이동성이 확보된 체험공간인 체험큐브 시스템을 통해 체험전시의 공간적인 한계를 극복하고, 찾아가는 체험큐브 시스템을 통해 보다 다양하고 많은 체험객들이 체험전시를 경험할 수 있게 된다.Through the above-mentioned structure, the experiential cube system, which is a mobility-secured experience space, overcomes the spatial limitation of the experience exhibition, and through the experiential cube system, a variety of many visitors can experience the experience display.

또한, 다양한 공간증강 인터랙티브 콘텐츠를 통해 다수 체험객들의 동시 체험이 가능하고, ICT 기술이 접목된 최신의 체험전시를 경험할 수 있게 된다.In addition, a variety of space-enhancing interactive contents will allow a large number of visitors to experience at the same time, and experience the latest experience exhibited by ICT technology.

하기에서는 좀 더 구체적으로 구성수단들에 대하여 설명하도록 하겠다.In the following, the construction means will be described in more detail.

상기 키넥트카메라(100)는 체험큐브 내의 실공간을 인식하고, 체험객과 체험객의 움직임(제스처 및 포스처)를 인식하여 체험큐브에 구성된 공간증강인터랙티브엔진으로 제공하도록 제1큐브의 어느 벽면의 일측에 형성하게 된다.The Kinect camera 100 recognizes the actual space in the experience cubes and recognizes the motions (gestures and postures) of the visitors and the visitors and provides them to the space enhancing interactive engine configured in the experience cubes. .

이때, 상기 공간증강구현장치(200)는 키넥트카메라로부터 제공된 정보(실공간 인식 정보, 체험객 인식 정보, 체험객 움직임 인식 정보)를 획득하여 내장된 공간증강인터랙티브엔진(250)으로 제공하여 생성된 3차원 가상객체와 체험객 간의 인터랙션을 수행하게 되는 것이다.At this time, the space enhancement device 200 acquires the information (real space recognition information, experience person recognition information, and guest experience motion recognition information) provided from the Kinect camera and provides it to the built-in space enhancement interactive engine 250, Dimensional virtual object and the viewer interact with each other.

이때, 제1큐브의 어느 일측 벽면에 형성된 DID장치(300)에 의해, 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 영상 정보를 디스플레이시키게 되는 것이다.At this time, the DID device 300 formed on one side wall of the first cube displays the interaction image information with the 3D virtual object according to the movement of the guest provided through the spatial augmentation realization device.

이때, 입체 음향 효과를 제공하기 위하여 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 음향 정보를 출력하기 위한 스피커(400)를 제1큐브의 일정 간격으로 다수 설치 구성하게 되는 것이다.At this time, in order to provide a stereo sound effect, a plurality of speakers 400 for outputting the interaction sound information with the 3D virtual object according to the movement of the guest provided through the space enhancement implementing device are installed at predetermined intervals of the first cube .

한편, 제2큐브(2000)를 상기 제1큐브의 내부로부터 외부로 이동되어 공간을 확장시키게 되는데, 이를 위하여, 상기 제2큐브의 크기는 제1큐브의 크기보다 작게 하여 제1큐브의 내부에 삽입되도록 하여야 한다.Meanwhile, the second cube 2000 is moved from the inside of the first cube to the outside to expand the space. To this end, the size of the second cube is made smaller than the size of the first cube, Should be inserted.

상기 제2큐브(2000)는,The second cube 2000 includes:

제1큐브의 크기보다 작게 구성하여 제1큐브의 내부에 보관되어 있도록 하되,The size of the first cube is smaller than the size of the first cube so as to be stored in the first cube,

어느 일면에 체험객이 출입할 수 있도록 형성되는 출입문(2100)과,A door 2100 formed on one side so that visitors can enter and exit,

어느 일면에 제1큐브에서 외부로 잡아당길 수 있도록 형성되는 확장큐브손잡이부(2200)와,An expanding cube handle 2200 formed on one side so as to be pulled out from the first cube,

하면에 일정거리 이격되게 다수 형성되어 상기 확장큐브손잡이부를 통해 외부로 잡아당길 경우에 쉽게 제1큐브로부터 빠져나올 수 있도록 하기 위한 바퀴부(2300)를 포함하여 구성하게 된다.And a plurality of wheels 2300 spaced a predetermined distance apart from the first cube so as to be easily removed from the first cube when being pulled out through the expanding cube handle.

즉, 도 2에 도시한 바와 같이, 제1큐브로부터 외부로 빠져 나오도록 하기 위하여 확장큐브손잡이부와 바퀴부를 구성하게 되는 것이다.That is, as shown in FIG. 2, the extension cube handle and the wheel are formed so as to escape from the first cube to the outside.

한편, 체험객이 자유롭게 이동할 수 있도록 출입문을 어느 일면에 형성하게 되며, 확장큐브손잡이부(2200)를 어느 일면에 제1큐브에서 외부로 잡아당길 수 있도록 형성하게 되는 것이다.On the other hand, the door is formed on one side so that the user can freely move, and the expansion cube handle 2200 can be pulled out from the first cube to any one side.

본 발명의 예시에서는 2개의 손잡이부를 구성하고 있지만, 필요에 따라 추가하거나 1개로 구성할 수도 있을 것이다.In the example of the present invention, although two knobs are provided, the knobs may be added or may be formed as needed.

한편, 손쉽게 이동할 수 있도록, 바퀴부(2300)를 제1큐브의 하면에 일정거리 이격되게 다수 형성시키게 되며, 상기 확장큐브손잡이부를 통해 외부로 잡아당길 경우에 쉽게 제1큐브로부터 빠져나올 수 있게 되는 것이다.Meanwhile, in order to facilitate movement, a plurality of wheel portions 2300 are formed on the lower surface of the first cube so as to be spaced apart from each other by a predetermined distance, and can be easily removed from the first cube when pulled out through the extension cube handle portion will be.

도 3은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 공간증강인터랙티브엔진 블록도이다.FIG. 3 is a space enhancement interactive engine block diagram of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.

도 3에 도시한 바와 같이, 본 발명의 공간증강인터랙티브엔진(250)은, 크게 영상정보획득부(251)와; 영상정합부(252)와; 동적객체인식부(253)와; 동적객체좌표추출부(254)와; 동적객체메시출력부(255)와; 증강객체생성부(256)와; 증강객체이벤트생성부(257)와; 객체애니메이션생성부(258);를 포함하여 구성되게 된다.As shown in FIG. 3, the space enhancing interactive engine 250 of the present invention mainly includes an image information acquiring section 251; An image matching unit 252; A dynamic object recognition unit 253; A dynamic object coordinate extraction unit 254; A dynamic object mesh output unit 255; An augmented object generation unit 256; An augmented object event generation unit 257; And an object animation generation unit 258.

상기 영상정보획득부(251)는 키넥트카메라로부터 컬러 영상 및 깊이 영상을 입력받는다. The image information obtaining unit 251 receives the color image and the depth image from the Kinect camera.

상기 영상정합부(252)는 영상정보획득부에 의해 획득된 컬러 영상 및 깊이 영상 정보를 획득하여 컬러 영상과 깊이 영상을 보정하고, RGB 영상과 깊이 영상의 호모그래피(Homography)를 계산하여 키넥트카메라를 구성하고 있는 RGB카메라와 Depth 카메라의 시점을 동일하게 처리하는 기능을 수행하게 된다.The image matching unit 252 acquires the color image and the depth image information obtained by the image information obtaining unit to correct the color image and the depth image, calculates the homography of the RGB image and the depth image, And performs the same processing of the viewpoints of the RGB camera and the depth camera that constitute the camera.

또한, 상기 동적객체인식부(253)는 영상정합부에 의해 정합된 영상을 획득하여 직선을 추출하여 추출된 직선을 통해 정합 영상에서의 공간 정보를 인식하여 공간, 정적, 동적 영역을 구분하게 된다.In addition, the dynamic object recognition unit 253 acquires an image matched by the image matching unit, extracts a straight line, and recognizes spatial information in the matching image through the extracted straight line to distinguish the spatial, static, and dynamic regions .

이때, 각 영역에서 특징점을 추출한 후, 각 영역의 특징점과 공간상에서의 위치 정보를 이용하여 영역이 나타내는 객체를 인식하여 동적 객체 정보를 저장시키게 되는 것이다.In this case, the feature points are extracted from the respective regions, and the dynamic object information is stored by recognizing the objects represented by the regions using the feature points of the regions and the location information in the space.

상기 정보는 예를 들어, 메모리 혹은 디비에 저장하게 되는 것이며, 상기 메모리는 일반적으로 구성되는 구성수단이므로 상세한 설명은 생략하도록 하겠다.The information is stored in, for example, a memory or a database, and the memory is generally constituent means, and a detailed description thereof will be omitted.

또한, 상기 동적객체좌표추출부(254)는 인식된 동적 객체 영역의 깊이 영상을 이용하여 키넥트카메라로부터 추출한 스켈레톤 정보를 이용하여 동적 객체에 대한 위치 정보를 추출하는 기능을 수행하게 된다.In addition, the dynamic object coordinate extraction unit 254 extracts the position information of the dynamic object using the skeleton information extracted from the Kinect camera using the depth image of the recognized dynamic object region.

이때, 상기 동적객체메시출력부(255)는 상기 동적 객체에 대한 위치 정보를 획득하여 연속 인식되는 객체 영역의 스켈레톤 정보를 추출하여 자세 변환을 추정하여 실시간 격자 메시를 생성하게 된다.At this time, the dynamic object mesh output unit 255 obtains the position information of the dynamic object, extracts the skeleton information of the continuously recognized object region, and estimates the attitude conversion to generate a real time lattice mesh.

이때, 상기 증강객체생성부(256)는 인식 공간에 대한 좌표를 추출하며 추출된 좌표를 기준으로 표면의 내부와 외부를 구분하여 표면을 형성하며, 형성된 표면에 가상의 객체를 증강하는 기능을 수행하게 된다.At this time, the augmented object generating unit 256 extracts coordinates for the recognition space, forms a surface by dividing the inside and the outside of the surface based on the extracted coordinates, and augments a virtual object on the formed surface .

이때, 상기 증강객체이벤트생성부(257)는 상기 증강 객체에 충돌 객체를 생성하며, 동적 객체에 충돌 객체를 생성하되, 상기 증강 객체 생성된 충돌 객체와 메시 객체에 생성된 충돌 객체가 서로 충돌하였는지를 판단하여 충돌이 발생하면 증강 객체에 이벤트를 생성하게 되며, 상기 객체애니메이션생성부(258)에 의해 상기 증강 객체의 이벤트를 획득하여 증강 객체에 해당되는 애니메이션을 실행하게 되는 것이다.At this time, the augmented object event generation unit 257 generates a collision object in the augmented object, generates a collision object in the dynamic object, and determines whether the collision object generated in the augmented object collides with the collision object generated in the mesh object When the collision occurs, an event is generated in the augmented object, and the object animation generation unit 258 acquires the event of the augmented object to execute animation corresponding to the augmented object.

즉, 도 11에 도시한 바와 같이, 실제 세계에서 공간과 객체를 인식하여 가상의 객체(예를 들어, 펭귄, 물)를 증강하여 실제와 가상을 합성하여 보여주며, 실제 객체와 가상의 객체 간의 인터랙션에 의해 이동하거나 변형되는 효과를 제공하게 되는 것이다.That is, as shown in FIG. 11, a space and an object are recognized in the real world, and a virtual object (for example, a penguin and a water) is augmented to show a combination of real and virtual, It is possible to provide an effect of being moved or modified by interaction.

도 4는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 영상정합부 블록도이다.4 is a block diagram of an image matching unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.

도 4에 도시한 바와 같이, 상기 영상정합부(252)는, As shown in Fig. 4, the image matching unit 252,

컬러 영상과 깊이 영상의 매칭 여부를 판단하기 위한 매칭판단모듈(252a)과,A matching determination module 252a for determining whether the color image and the depth image match each other,

상기 판단 결과, 매칭되지 않은 경우에 컬러 영상과 깊이 영상을 매칭하기 위한 깊이/컬러영상매칭모듈(252b)과,A depth / color image matching module 252b for matching the color image and the depth image if they are not matched,

상기 판단 결과, 매칭되는 경우에 불필요한 깊이 좌표 정보를 제거하고, 컬러 영상과 깊이 영상의 해상도를 보정하기 위한 해상도보정모듈(252c)와,A resolution correction module 252c for removing unnecessary depth coordinate information in case of matching and correcting the resolution of the color image and the depth image,

상기 보정된 컬러 영상과 깊이 영상의 이미지를 매핑하여 합성 영상을 생성하기 위한 합성영상생성모듈(252d)을 포함하여 구성되게 된다.And a composite image generation module 252d for generating a composite image by mapping the corrected color image and the image of the depth image.

상기 매칭판단모듈(252a)은 영상정보획득부에서 획득된 영상을 획득하여 컬러 영상과 깊이 영상의 매칭 여부를 판단하게 되며, 상기 깊이/컬러영상매칭모듈(252b)은 상기 판단 결과, 매칭되지 않은 경우에 컬러 영상과 깊이 영상을 매칭하게 되는 것이다.The matching determination module 252a acquires the image acquired by the image information acquisition unit and determines whether the color image matches the depth image. The depth / color image matching module 252b determines whether the color image matches the depth image The color image and the depth image are matched.

예를 들어, 컬러 영상과 깊이 영상에서 처리 속도차가 발생할 경우, 느리게 입력되는 영상을 기준으로 매칭이 되도록 보완하여 맞추어 준다. For example, when a difference in processing speed occurs between a color image and a depth image, a slow input image is supplemented to match the reference image.

키넥트 카메라의 경우, 컬러 영상이 느리게 입력될 수 있기 때문이다.In the case of a Kinect camera, color images can be input slowly.

한편, 해상도보정모듈(252c)은 상기 판단 결과, 매칭되는 경우에 불필요한 깊이 좌표 정보를 제거하고, 컬러 영상과 깊이 영상의 해상도를 보정하는 기능을 수행하게 된다.On the other hand, the resolution correction module 252c removes unnecessary depth coordinate information in case of matching, and corrects the resolution of the color image and the depth image as a result of the determination.

예를 들어, 입력된 깊이 영상에 포함된 불필요한 정보를 Bilateral filter 와 같은 알고리즘을 이용하여 제거할 수 있는 것이다.For example, unnecessary information included in the input depth image can be removed using an algorithm such as a bilateral filter.

한편, 상기 합성영상생성모듈(252d)은 보정된 컬러 영상과 깊이 영상의 이미지를 매핑하여 합성 영상을 생성하게 된다.Meanwhile, the composite image generation module 252d generates a composite image by mapping the corrected color image and the image of the depth image.

예를 들어, 컬러 영상과 깊이 영상의 해상도가 동일해지면, 카메라 파라미터간의 호모 그래피를 이용하여 컬러 영상과 깊이 영상의 이미지를 매핑할 수 있게 된다.For example, if the resolution of the color image and the depth image are the same, the image of the color image and the depth image can be mapped using the homography between the camera parameters.

도 5는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 동적객체인식부 블록도이다.5 is a block diagram of a dynamic object recognition unit of an experience cube system to which a space enhancement interactive engine capable of expanding a space according to an embodiment of the present invention is applied.

도 5에 도시한 바와 같이, 상기 동적객체인식부(253)는,As shown in FIG. 5, the dynamic object recognizing unit 253,

생성된 합성 영상에서 직선을 추출하기 위한 직선추출모듈(253a)과,A straight line extraction module 253a for extracting a straight line from the generated composite image,

상기 추출된 직선을 이용하여 합성 영상에서의 공간 정보를 인식하기 위한 공간인식모듈(253b)과,A spatial recognition module 253b for recognizing spatial information in the composite image using the extracted straight line,

상기 합성 영상에서 공간 객체, 정적 객체, 동적 객체의 영역을 분리하기 위한 객체별영역분리모듈(253c)과,An object-specific region separation module 253c for separating regions of a spatial object, a static object, and a dynamic object in the composite image,

상기 분리된 각각 객체의 영역에서 특징점을 추출하기 위한 특징점추출모듈(253d)과,A feature point extraction module 253d for extracting feature points from the separated regions of the objects,

상기 각각 객체 영역의 특징점과 공간상에서의 위치 정보를 이용하여 영역이 나타내는 객체를 인식하기 위한 객체별인식모듈(253e)과,An object-by-object recognition module 253e for recognizing an object represented by the region using the feature points of the object region and the position information in the space,

상기 인식된 객체로부터 동적 객체 정보를 저장하기 위한 동적객체정보저장처리모듈(253f)을 포함하여 구성되게 된다.And a dynamic object information storage module 253f for storing dynamic object information from the recognized object.

상기 직선추출모듈(253a)은 컬러 영상과 깊이 영상의 합성 영상에서 직선을 추출하게 된다.The straight line extraction module 253a extracts a straight line from the combined image of the color image and the depth image.

예를 들어, 컬러 영상과 깊이 영상의 합성 영상에서 Canny edge detector 등의 방법을 이용하여 직선을 추출할 수 있다.For example, a straight line can be extracted using a method such as Canny edge detector in a composite image of a color image and a depth image.

상기 공간인식모듈(253b)은 상기 추출된 직선을 이용하여 합성(정합) 영상에서의 공간 정보를 인식하게 된다.The spatial recognition module 253b recognizes spatial information in a synthesized (matched) image using the extracted straight line.

예를 들어, 추출한 직선을 이용하여 정합 영상에서 소실점을 찾고, 평면들의 벡터 정보를 종합하여 바닥면, 벽면, 천장면 등과 같은 공간의 정보를 인식하는 것이다.For example, the extracted straight line is used to find the vanishing point in the matching image, and the vector information of the planes is integrated to recognize the information of the space such as the floor, the wall, and the ceiling scene.

또한, 상기 객체별영역분리모듈(253c)은 상기 합성 영상에서 공간 객체, 정적 객체, 동적 객체의 영역을 분리하는 기능을 수행하게 된다.In addition, the object-based region separation module 253c performs a function of separating a spatial object, a static object, and a dynamic object region from the composite image.

예를 들어, 정합(합성) 영상의 각 이미지의 컬러 및 깊이 값 차이를 이용하여 물체의 영역을 분리할 수 있으며, 이때, 분리한 각 영역을 바닥면과 벽면에 평행한 직육면체로 표현하여 영역의 위치와 회전값을 계산할 수 있는 것이다.For example, the object region can be separated by using the difference in color and depth values of each image of the matched (combined) image. At this time, each divided region is represented by a rectangular parallelepiped parallel to the floor surface and the wall surface, Position and rotation values can be calculated.

한편, 상기 특징점추출모듈(253d)은 상기 분리된 각각 객체의 영역에서 특징점을 추출하게 되며, 상기 객체별인식모듈(253e)은 상기 각각의 객체 영역의 특징점과 공간상에서의 위치 정보를 이용하여 영역이 나타내는 객체를 인식하게 되는 것이다.On the other hand, the feature point extraction module 253d extracts feature points from the separated regions of the object, and the per-object recognition module 253e uses the feature points of the respective object regions and the position information in the space, And recognizes the object represented by the object.

예를 들어, 다중분류 알고리즘을 이용하여 객체를 인식할 수 있게 된다.For example, an object can be recognized using a multiple classification algorithm.

상기 동적객체정보저장처리모듈(253f)은 상기 인식된 객체로부터 동적 객체 정보를 메모리 혹은 디비에 저장 처리시키게 된다.The dynamic object information storage module 253f stores dynamic object information from the recognized object into a memory or a database.

예를 들어, 인식한 객체가 새롭게 인식된 객체인 경우, 객체 추적 및 실사의 3차원 정보 추출을 위하여 메모리 혹은 디비에 객체를 새롭게 인식한 객체로 저장할 수 있게 된다.For example, if the recognized object is a newly recognized object, it is possible to store the object as a newly recognized object in the memory or the database for three-dimensional information extraction of the object tracking and the real world.

도 6은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 동적객체좌표추출부 블록도이다.6 is a block diagram of a dynamic object coordinate extraction unit of an experiential cube system to which a space enhancement interactive engine capable of expanding a space according to an embodiment of the present invention is applied.

도 6에 도시한 바와 같이, 상기 동적객체좌표추출부(254)는,As shown in FIG. 6, the dynamic object coordinate extraction unit 254 extracts,

인식된 동적 객체 영역의 깊이 영상을 이용하여 키넥트카메라로부터 추출한 스켈레톤 정보를 이용하여 동적 객체에 대한 위치 정보를 추출하기 위한 객체위치정보추출모듈(254a)과,An object location information extraction module 254a for extracting location information on a dynamic object using skeleton information extracted from a Kinect camera using the depth image of the recognized dynamic object area,

상기 추출된 위치 정보를 이용하여 위치 변화를 추적하기 위한 위치변화추적모듈(254b)과,A position change tracking module 254b for tracking the position change using the extracted position information,

상기 추출된 객체 위치 정보를 이용하여 위치 변화가 있는 객체에 대한 동적 객체를 재구성하기 위한 변환객체재구성모듈(254c)을 포함하여 구성되게 된다.And a transformed object reconstruction module 254c for reconstructing a dynamic object for an object having a change in position using the extracted object position information.

상기 객체위치정보추출모듈(254a)은 상기 인식된 동적 객체 영역의 깊이 영상을 이용하여 키넥트카메라로부터 추출한 스켈레톤 정보를 이용하여 동적 객체에 대한 위치 정보를 추출하게 되는 것이다.The object position information extraction module 254a extracts the position information of the dynamic object using the skeleton information extracted from the Kinect camera using the depth image of the recognized dynamic object region.

이때, 상기 위치변화추적모듈(254b)은 추출된 위치 정보를 이용하여 위치 변화를 추적하게 되는데, 위치 변환이 없을 경우에는 동적 객체의 좌표를 출력하게 된다.At this time, the position change tracking module 254b tracks the position change using the extracted position information. When there is no position change, the position change tracking module 254b outputs the coordinates of the dynamic object.

한편, 상기 변환객체재구성모듈(254c)은 위치 변환이 있을 경우에는 추출된 객체 위치 정보를 이용하여 위치 변화가 있는 객체에 대한 동적 객체를 재구성하는 것이다.Meanwhile, the transformed object reconstruction module 254c reconstructs a dynamic object for an object having a change in position using the extracted object position information when there is a position transformation.

도 7은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 동적객체메시출력부 블록도이다.FIG. 7 is a block diagram of a dynamic object mesh output unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.

도 7에 도시한 바와 같이 ,상기 동적객체메시출력부(255)는,7, the dynamic object mesh output unit 255 outputs,

입력되는 3차원 객체 좌표와 비교를 위하여 연속 인식되는 객체 영역의 스켈레톤 정보를 추출하기 위한 스켈레톤정보추출모듈(255a)과,A skeleton information extraction module 255a for extracting skeleton information of an object region continuously recognized for comparison with input three-dimensional object coordinates,

상기 입력되는 3차원 객체 좌표와 상기 추출된 스켈레톤 정보를 이용하여 자세 변환을 추정하기 위한 자세변환추정모듈(255b)과,An attitude conversion estimation module 255b for estimating an attitude conversion using the input three-dimensional object coordinates and the extracted skeleton information,

상기 연속되어 입력되는 영상에 대한 정보를 이용하여 실시간 격자 메시를 생성하기 위한 실시간격자메시생성모듈(255c)을 포함하여 구성되게 된다.And a real-time grid mesh generation module 255c for generating a real-time grid mesh using the information on the continuously input images.

상기 스켈레톤정보추출모듈(255a)은 입력되는 3차원 객체 좌표와 비교를 위하여 연속 인식되는 객체 영역의 스켈레톤 정보를 추출하게 되며, 상기 자세변환추정모듈(255b)은 입력되는 3차원 객체 좌표와 상기 추출된 스켈레톤 정보를 이용하여 자세 변환을 추정하게 되는 것이다.The skeleton information extraction module 255a extracts skeleton information of an object region continuously recognized for comparison with the inputted three-dimensional object coordinates, and the posture conversion estimation module 255b extracts three- The posture conversion is estimated using the skeleton information.

또한, 상기 실시간격자메시생성모듈(255c)은 연속되어 입력되는 영상에 대한 정보를 이용하여 실시간 격자 메시를 생성하게 되는 것이다.Also, the real-time grid-mesh generation module 255c generates the real-time grid mesh using the information on the continuously input images.

도 12를 참조하여 구체적으로 설명하자면, 키넥트(Kinect) 카메라 중 예를 들어, 키넥트 V2 카메라를 통하여 입력되는 영상에서 체험자는 카메라에 촬영되는 동적 객체가 되며, 체험자의 움직임을 추적하기 위한 정보가 스켈레톤(10, 골격) 정보이다.12, in an image input through a Kinect camera, for example, a Kinect camera, the experimenter becomes a dynamic object to be photographed by the camera, and information for tracking the movement of the experimenter Is skeleton (10, skeleton) information.

여기서, 스켈레톤은 인간의 골격 관절을 총 25개의 부분으로 나눠서 인지하며, 이를 하나의 집합처럼 묶어서 처리하며, (x, y, z) 3축으로 나눠 센서 인지범위에 따라 각 골격과 센서 사이의 거리가 결정하게 되는 것이다.Here, the skeleton recognizes the human skeleton joint by dividing it into a total of 25 parts, which are grouped as one set, and divided into three axes (x, y, z) .

이때, 스켈레톤 정보를 추출한다는 것은 상기한 키넥트 V2 카메라를 통하여 획득된 스켈레톤 정보를 가져오기 위한 구조체를 구성하고 생성된 구조체에 스켈레톤 정보를 입력하는 과정을 의미하는 것이다.At this time, extracting the skeleton information means constructing a structure for fetching skeleton information obtained through the Kinect V2 camera and inputting skeleton information to the generated structure.

또한, 실시간 격자 메시의 생성은 도 13을 참조하여 설명하자면, 격자(20)는 삼각형의 모양의 반복된 도형의 집합을 의미하며, 메시(30)는 상기 격자로 생성된 삼각형이 서로 연결이 되어 그물망과 같은 구조를 이루는 것을 의미하게 된다.13, the lattice 20 refers to a set of repeated figures in the shape of a triangle, and the mesh 30 is formed by connecting the triangles generated by the lattice to each other It means to form a structure like a net.

상기 격자 메시는 우측 예시의 돌고래 이미지처럼 격자들이 모여서 이루어진 그물망 형태를 이루는 면을 가진 형체를 생성한다는 것을 의미한다.This means that the mesh creates a shape having a mesh-like surface composed of lattices gathered like a dolphin image of the right-hand example.

도 8은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 증강객체생성부 블록도이다.FIG. 8 is a block diagram of an augmented object generation unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.

도 8에 도시한 바와 같이, 상기 증강객체생성부(256)는, 8, the augmented-object generating unit 256 generates the augmented-

인식 공간에 대한 좌표를 추출하기 위한 인식공간좌표추출모듈(256a)과,A recognition space coordinate extraction module 256a for extracting coordinates of the recognition space,

상기 추출된 좌표를 기준으로 표면의 내부와 외부를 구분하여 표면을 형성하기 위한 공간표면분류모듈(256b)과,A spatial surface classifying module 256b for forming a surface by dividing the inside and the outside of the surface based on the extracted coordinates,

상기 형성된 표면에 가상의 객체를 증강하기 위한 가상객체증강모듈(256c)과,A virtual object enhancement module 256c for augmenting a virtual object on the formed surface,

인식된 공간의 메시 정보가 사용자의 눈에 보이지 않도록 투명 랜더링을 수행하기 위한 투명랜더링수행모듈(256d)을 포함하여 구성되게 된다.And a transparent rendering module 256d for performing transparent rendering so that the mesh information of the recognized space is not visible to the user.

상기 인식공간좌표추출모듈(256a)은 인식 공간에 대한 좌표를 추출하며, 상기 공간표면분류모듈(256b)은 상기 추출된 좌표를 기준으로 표면의 내부와 외부를 구분하여 표면을 형성하게 되는 것이다.The recognition space coordinate extraction module 256a extracts coordinates for the recognition space, and the spatial surface classification module 256b forms the surface by dividing the inside and the outside of the surface based on the extracted coordinates.

한편, 도 14에 도시한 바와 같이, 추출된 좌표 기준으로 표면의 내부와 외부를 구분하여 표면을 형성하는 것은 삼각형을 이용하여 객체의 표면을 생성하는데 삼각형 그리는 방향에 따라 내부와 외부로 구분을 하게 되는 것이다.On the other hand, as shown in FIG. 14, forming the surface by dividing the inside and the outside of the surface based on the extracted coordinate reference generates the surface of the object by using a triangle, and divides the inside and outside according to the direction of drawing the triangle .

예를 들어, 시계 방향으로 그리게 되면 뒷면(표면의 내부)가 되고, 반시계 방향으로 그리면 앞면(표면의 외부)으로 구분하게 되는 것이다.For example, if you draw in the clockwise direction, it will be the back (inside of the surface), and if you draw it in the counterclockwise direction, it will be the front (outside of the surface).

이때, 상기 가상객체증강모듈(256c)은 상기 형성된 표면에 가상의 객체를 증강하게 된다.At this time, the virtual object enhancement module 256c augments the virtual object on the formed surface.

예를 들어, 테이블의 아래가 아닌 위쪽으로 가상의 객체가 위치할 수 있도록 하거나, 또는 표면을 따라서 가상의 객체 공이 굴러가거나 움직일 수 있도록 하는 것이다.For example, a virtual object may be positioned above the table rather than below it, or a virtual object ball may be rolled or moved along the surface.

구체적으로, 도 15에 도시한 바와 같이, 실객체(40)인 테이블을 인식하여 가상객체(50)와의 상호작용을 위한 가상의 메시를 생성하게 된다.Specifically, as shown in FIG. 15, a table as a real object 40 is recognized and a virtual mesh for interaction with the virtual object 50 is generated.

그리고, 가상객체를 생성하여 실객체 위에 가상으로 생성된 메시를 인지하여 실객체를 통과하지 않고, 위에 나타날 수 있도록 하는 것이다.Then, a virtual object is created to recognize a virtually created mesh on a real object so that it can be displayed on the real object instead of passing through the real object.

그리고, 상기 투명랜더링수행모듈(256d)은 인식된 공간의 메시 정보가 사용자의 눈에 보이지 않도록 투명 랜더링을 수행하게 되는 것이다.The transparent rendering module 256d performs transparent rendering so that the mesh information of the recognized space is not visible to the user.

예를 들어, 인식된 테이블을 가상의 메시 표면을 생성하여 가상의 객체를 테이블 위에 위치하도록 하고, 가상으로 생성된 메시 표면은 투명하게 처리하여 실제 테이블이 보이도록 하는 것이다.For example, you can create a virtual mesh surface on a recognized table to place a virtual object on the table, and make the virtual mesh surface transparent so that the actual table is visible.

구체적으로 도 16에 도시한 바와 같이, 실객체(40)인 테이블을 인식하여 가상객체(50)와의 상호작용을 위한 가상의 메시를 생성한 후, 화면에 보이지 않도록 투명하게 처리하는 것이다.Specifically, as shown in FIG. 16, a table as a real object 40 is recognized, and a virtual mesh for interaction with the virtual object 50 is generated, and then processed transparently so as not to be seen on the screen.

도 9는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 증강객체이벤트생성부 블록도이다.FIG. 9 is a block diagram of an augmented object event generating unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.

도 9에 도시한 바와 같이, 상기 증강객체이벤트생성부(257)는,9, the augmented-object-event generating unit 257 generates the augmented-

증강 객체에 충돌 객체를 생성하기 위한 제1충돌객체생성모듈(257a)과,A first collision object creation module 257a for creating a collision object in the augmented object,

동적 객체에 충돌 객체를 생성하기 위한 제2충돌객체생성모듈(257b)과,A second collision object creation module 257b for creating a collision object in the dynamic object,

상기 증강 객체에 생성된 충돌 객체와 동적 객체에 생성된 충돌 객체가 서로 충돌하였는지를 판단하여 충돌될 경우에 증강 객체에 이벤트를 생성하기 위한 이벤트생성모듈(257c)을 포함하여 구성되게 된다.And an event generation module 257c for determining whether the collision object generated in the augmented object and the collision object generated in the dynamic object collide with each other and generating an event in the augmented object in the event of collision.

즉, 증강 객체와 메시 객체의 3차원 모델을 획득하게 되면, 제1충돌객체생성모듈(257a)에 의해 증강 객체에 충돌 객체를 생성하게 되며, 제2충돌객체생성모듈(257b)에 의해 동적 객체(메시 객체)에 충돌 객체를 생성하게 되는 것이다.That is, when the three-dimensional model of the augmented object and the mesh object is acquired, the collision object is generated in the augmented object by the first collision object generation module 257a, and the collision object is generated in the augmented object by the second collision object generation module 257b. (The mesh object).

즉, 동적 메시 객체와의 상호 작용을 위하여 증강 객체에 충돌 객체를 생성하게 되며, 증강 객체와의 상호 작용을 위하여 동적 객체에 충돌 객체를 생성하게 되는 것이다.That is, the collision object is created in the augmented object for interaction with the dynamic mesh object, and the collision object is created in the dynamic object for interaction with the augmented object.

또한, 상기 이벤트생성모듈(257c)은 증강 객체에 생성된 충돌 객체와 동적 객체(메시 객체)에 생성된 충돌 객체가 서로 충돌하였는지를 판단하여 충돌될 경우에 증강 객체에 이벤트를 생성하게 되는 것이다.In addition, the event generation module 257c determines whether the collision object generated in the augmented object and the collision object generated in the dynamic object (mesh object) collide with each other, and generates an event in the augmented object in the event of collision.

구체적으로 도 17에 도시한 바와 같이, 인터랙션 전 이미지(60), 인터랙션 이미지(61), 인터랙션 후 이미지(62)를 거치는 동작과 같이 실객체와 가상객체의 충돌이 발생(체험자가 가상의 펭귄과 접촉하는 행위)할 경우에 이벤트가 생성되는 것이다.Specifically, as shown in Fig. 17, when a collision occurs between a real object and a virtual object, such as an operation through the pre-interaction image 60, the interaction image 61, and the post-interaction image 62 An event is generated when the user touches the terminal.

도 10은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 객체애니메이션생성부 블록도이다.FIG. 10 is a block diagram of an object animation generating unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.

도 10에 도시한 바와 같이, 상기 객체애니메이션생성부(258)는,As shown in FIG. 10, the object animation generation unit 258,

증강 객체의 이벤트를 획득하여 증강 객체에 해당되는 애니메이션을 생성하기 위한 애니메이션생성모듈(258a)과,An animation generation module 258a for acquiring an event of the augmented object to generate an animation corresponding to the augmented object,

상기 생성된 애니메이션이 동작하기 전에 주의의 가상 객체와 인식 공간의 충돌 객체와의 충돌 이벤트를 점검하기 위한 충돌이벤트점검모듈(258b)과,A collision event checking module 258b for checking the collision event between the virtual object of attention and the colliding object in the recognition space before the generated animation is operated,

충돌되는 상황에 따라 생성된 애니메이션이 할당되어 연결되는 애니메이션할당모듈(258c)과,An animation allocation module 258c to which the generated animation is allocated and connected according to a collision situation,

상기 연결된 애니메이션을 실행하여 가상의 객체가 움직일 수 있도록 하기 위한 애니메이션실행모듈(258d)을 포함하여 구성되게 된다.And an animation execution module 258d for executing the linked animation to allow a virtual object to move.

구체적으로 설명하자면, 상기 애니메이션생성모듈(258a)을 통해 증강 객체의 이벤트를 획득하여 증강 객체에 해당되는 애니메이션을 생성하게 되는 것이다.Specifically, the animation corresponding to the augmented object is generated by acquiring the event of the augmented object through the animation generation module 258a.

또한, 상기 충돌이벤트점검모듈(258b)은 생성된 애니메이션이 동작하기 전에 주의의 가상 객체와 인식 공간의 충돌 객체와의 충돌 이벤트를 점검하게 된다.In addition, the collision event checking module 258b checks the collision event between the virtual object of attention and the colliding object of the recognition space before the generated animation operates.

상기 애니메이션할당모듈(258c)은 충돌되는 상황에 따라 생성된 애니메이션이 할당되어 연결되게 된다.The animation allocation module 258c allocates the animation generated according to the collision situation and connects the animation.

이후, 상기 애니메이션실행모듈(258d)을 통해 상기 연결된 애니메이션을 실행하여 가상의 객체가 움직일 수 있도록 하는 것이다.Thereafter, the linked animation is executed through the animation execution module 258d so that a virtual object can be moved.

즉, 연결된 애니메이션을 실행하여 가상의 객체가 생명력을 가지고 움직일 수 있도록 하는 것이다.That is, you can execute linked animations so that virtual objects move with vitality.

상기와 같은 구성 및 동작을 통해, 동적객체(사용자)가 실시간으로 가상세계의 객체와 서로 상호작용할 수 있는 인터랙션 기술을 적용한 실감/체감형 전시영상을 통해 즐거움을 유발시키고 능동적으로 다양한 체험을 다수 체험객들에게 동시에 수행할 수 있는 효과를 제공하게 된다.Through the above-described configuration and operation, it is possible to create pleasure through a sensory / haptic exhibition image to which a dynamic object (user) can interact with an object of a virtual world in real time by applying an interaction technique, and actively provide various experiences And the like.

상기와 같은 내용의 본 발명이 속하는 기술분야의 당업자는 본 발명의 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시된 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다.
It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is to be understood, therefore, that the embodiments described above are to be considered in all respects as illustrative and not restrictive.

100 : 키넥트카메라
200 : 공간증강구현장치
400 : 스피커
1000 : 제1큐브
2000 : 제2큐브
100: Kinect camera
200: space enhancement implement
400: Speaker
1000: 1st cube
2000: second cube

Claims (3)

삭제delete 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템에 있어서,
체험큐브 내의 실공간을 인식하고, 체험객과 체험객의 움직임(제스처 및 포스처)를 인식하여 체험큐브에 구성된 공간증강인터랙티브엔진으로 제공하기 위한 키넥트카메라(100)와;
상기 키넥트카메라로부터 제공된 정보(실공간 인식 정보, 체험객 인식 정보, 체험객 움직임 인식 정보)를 획득하여 내장된 공간증강인터랙티브엔진(250)으로 제공하여 생성된 3차원 가상객체와 체험객 간의 인터랙션을 수행하기 위한 공간증강구현장치(200)와;
상기 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 영상 정보를 디스플레이시키기 위한 DID장치(300)와;
상기 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 음향 정보를 출력하기 위한 스피커(400);를 포함하여 구성되는 제1큐브(1000)와,
상기 제1큐브의 내부로부터 외부로 이동되어 공간을 확장시키기 위한 제2큐브(2000),를 포함하여 구성되되,
상기 공간증강인터랙티브엔진(250)은,
키넥트카메라(100)로부터 컬러 영상 및 깊이 영상 정보를 획득하기 위한 영상정보획득부(251)와;
상기 영상정보획득부에 의해 획득된 컬러 영상 및 깊이 영상 정보를 획득하여 컬러 영상과 깊이 영상을 보정하고, RGB 영상과 깊이 영상의 호모그래피(Homography)를 계산하여 키넥트카메라를 구성하고 있는 RGB카메라와 Depth 카메라의 시점을 동일하게 처리하기 위한 영상정합부(252)와;
정합된 영상을 획득하여 직선을 추출하여 추출된 직선을 통해 정합 영상에서의 공간 정보를 인식하여 공간, 정적, 동적 영역을 구분하되, 각 영역에서 특징점을 추출한 후, 각 영역의 특징점과 공간상에서의 위치 정보를 이용하여 영역이 나타내는 객체를 인식하여 동적 객체 정보를 저장하기 위한 동적객체인식부(253)와;
상기 인식된 동적 객체 영역의 깊이 영상을 이용하여 키넥트카메라로부터 추출한 스켈레톤 정보를 이용하여 동적 객체에 대한 위치 정보를 추출하기 위한 동적객체좌표추출부(254)와;
상기 동적 객체에 대한 위치 정보를 획득하여 연속 인식되는 객체 영역의 스켈레톤 정보를 추출하여 자세 변환을 추정하여 실시간 격자 메시를 생성하기 위한 동적객체메시출력부(255)와;
인식 공간에 대한 좌표를 추출하며 추출된 좌표를 기준으로 표면의 내부와 외부를 구분하여 표면을 형성하며, 형성된 표면에 가상의 객체를 증강하기 위한 증강객체생성부(256)와;
상기 증강 객체에 충돌 객체를 생성하며, 동적 객체에 충돌 객체를 생성하되, 상기 증강 객체 생성된 충돌 객체와 메시 객체에 생성된 충돌 객체가 서로 충돌하였는지를 판단하여 충돌이 발생하면 증강 객체에 이벤트를 생성하기 위한 증강객체이벤트생성부(257)와;
상기 증강 객체의 이벤트를 획득하여 증강 객체에 해당되는 애니메이션을 실행하기 위한 객체애니메이션생성부(258);를 포함하여 구성되는 것을 특징으로 하는 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템.
1. An experiential cube system to which a space enhancing interactive engine capable of expanding a space is applied,
A Kinect camera 100 for recognizing the actual space in the experience cubes and recognizing the movements (gestures and postures) of the visitors and the visitors, and providing them as the space enhancing interactive engine configured in the experience cubes;
Acquires information (real space recognition information, experiential recognition information, experiential motion recognition information) provided from the Kinect camera and provides it to the built-in space enhancement interactive engine 250 to perform interaction between the generated three-dimensional virtual object and the viewer A space enhancer 200 for implementing the space reinforcement;
A DID device 300 for displaying the interaction image information with the 3D virtual object according to the movement of the guest provided through the space enhancement device;
And a speaker (400) for outputting interaction sound information with a 3D virtual object according to a movement of a person provided through the space enhancement implementing device. The first cube (1000)
And a second cube (2000) for moving the interior of the first cube to the outside to expand the space,
The space-enhancing interactive engine 250,
An image information acquiring unit 251 for acquiring color image and depth image information from the Kinect camera 100;
The color image and the depth image obtained by the image information obtaining unit are acquired to correct the color image and the depth image, and the homography of the RGB image and the depth image is calculated to obtain the RGB camera An image matching unit 252 for processing the viewpoint of the Depth camera equally;
After extracting a straight line and extracting a straight line, the spatial information in the matching image is recognized through the extracted straight line to distinguish the spatial, static and dynamic regions. After extracting the feature points from each region, A dynamic object recognizing unit (253) for recognizing the object represented by the area using the positional information and storing the dynamic object information;
A dynamic object coordinate extraction unit 254 for extracting position information on the dynamic object using the skeleton information extracted from the Kinect camera using the depth image of the recognized dynamic object area;
A dynamic object mesh output unit (255) for acquiring position information on the dynamic object to extract skeleton information of the continuously recognized object region to generate a real time mesh mesh by estimating posture transformation;
An augmented object generation unit 256 for extracting the coordinates of the recognition space and separating the inside and the outside of the surface based on the extracted coordinates to form a surface and augmenting a virtual object on the surface formed;
A collision object is generated in the reinforcement object, a collision object is created in the dynamic object, and it is determined whether the collision object generated in the augmented object and the collision object generated in the mesh object are in conflict with each other. An augmented object event generation unit 257 for generating augmented object event;
And an object animation generation unit (258) for acquiring an event of the augmented object and executing an animation corresponding to the augmented object. The experiential cube system to which a space enhancement interactive engine capable of expanding a space is applied.
공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템에 있어서,
체험큐브 내의 실공간을 인식하고, 체험객과 체험객의 움직임(제스처 및 포스처)를 인식하여 체험큐브에 구성된 공간증강인터랙티브엔진으로 제공하기 위한 키넥트카메라(100)와;
상기 키넥트카메라로부터 제공된 정보(실공간 인식 정보, 체험객 인식 정보, 체험객 움직임 인식 정보)를 획득하여 내장된 공간증강인터랙티브엔진(250)으로 제공하여 생성된 3차원 가상객체와 체험객 간의 인터랙션을 수행하기 위한 공간증강구현장치(200)와;
상기 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 영상 정보를 디스플레이시키기 위한 DID장치(300)와;
상기 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 음향 정보를 출력하기 위한 스피커(400);를 포함하여 구성되는 제1큐브(1000)와,
상기 제1큐브의 내부로부터 외부로 이동되어 공간을 확장시키기 위한 제2큐브(2000),를 포함하여 구성되되,
상기 제2큐브(2000)는,
제1큐브의 크기보다 작게 구성하여 제1큐브의 내부에 보관되어 있도록 하되,
어느 일면에 체험객이 출입할 수 있도록 형성되는 출입문(2100)과,
어느 일면에 제1큐브에서 외부로 잡아당길 수 있도록 형성되는 확장큐브손잡이부(2200)와,
하면에 일정거리 이격되게 다수 형성되어 상기 확장큐브손잡이부를 통해 외부로 잡아당길 경우에 쉽게 제1큐브로부터 빠져나올 수 있도록 하기 위한 바퀴부(2300)를 포함하여 구성되는 것을 특징으로 하는 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템.

1. An experiential cube system to which a space enhancing interactive engine capable of expanding a space is applied,
A Kinect camera 100 for recognizing the actual space in the experience cubes and recognizing the movements (gestures and postures) of the visitors and the visitors, and providing them as the space enhancing interactive engine configured in the experience cubes;
Acquires information (real space recognition information, experiential recognition information, experiential motion recognition information) provided from the Kinect camera and provides it to the built-in space enhancement interactive engine 250 to perform interaction between the generated three-dimensional virtual object and the viewer A space enhancer 200 for implementing the space reinforcement;
A DID device 300 for displaying the interaction image information with the 3D virtual object according to the movement of the guest provided through the space enhancement device;
And a speaker (400) for outputting interaction sound information with a 3D virtual object according to a movement of a person provided through the space enhancement implementing device. The first cube (1000)
And a second cube (2000) for moving the interior of the first cube to the outside to expand the space,
The second cube 2000 includes:
The size of the first cube is smaller than the size of the first cube so as to be stored in the first cube,
A door 2100 formed on one side so that visitors can enter and exit,
An expanding cube handle 2200 formed on one side so as to be pulled out from the first cube,
And a plurality of wheels 2300 spaced a predetermined distance apart from the first cube 2300 and configured to be able to escape from the first cube easily when being pulled out through the extension cube handle. Experimental cube system with space enhancement interactive engine.

KR1020160110682A 2016-08-30 2016-08-30 Interactive Augmented space available space expansion engines experience applied Cube system KR101723828B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160110682A KR101723828B1 (en) 2016-08-30 2016-08-30 Interactive Augmented space available space expansion engines experience applied Cube system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160110682A KR101723828B1 (en) 2016-08-30 2016-08-30 Interactive Augmented space available space expansion engines experience applied Cube system

Publications (1)

Publication Number Publication Date
KR101723828B1 true KR101723828B1 (en) 2017-04-19

Family

ID=58705971

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160110682A KR101723828B1 (en) 2016-08-30 2016-08-30 Interactive Augmented space available space expansion engines experience applied Cube system

Country Status (1)

Country Link
KR (1) KR101723828B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190062102A (en) * 2017-11-27 2019-06-05 한국전자통신연구원 Method and apparatus for operating 2d/3d augument reality technology
US10417829B2 (en) 2017-11-27 2019-09-17 Electronics And Telecommunications Research Institute Method and apparatus for providing realistic 2D/3D AR experience service based on video image
WO2019245604A1 (en) * 2018-06-19 2019-12-26 Google Llc Interaction system for augmented reality objects
KR102282739B1 (en) * 2020-12-30 2021-07-29 주식회사 버넥트 Method and system for arranging and manipulating to augmented reality contemts in 3d space
KR102609850B1 (en) * 2023-07-28 2023-12-05 주식회사 앰버린 Virtual reality-based audio and visual content production and exhibition systemsS

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190062102A (en) * 2017-11-27 2019-06-05 한국전자통신연구원 Method and apparatus for operating 2d/3d augument reality technology
US10417829B2 (en) 2017-11-27 2019-09-17 Electronics And Telecommunications Research Institute Method and apparatus for providing realistic 2D/3D AR experience service based on video image
KR102067823B1 (en) * 2017-11-27 2020-01-17 한국전자통신연구원 Method and apparatus for operating 2d/3d augument reality technology
WO2019245604A1 (en) * 2018-06-19 2019-12-26 Google Llc Interaction system for augmented reality objects
KR102282739B1 (en) * 2020-12-30 2021-07-29 주식회사 버넥트 Method and system for arranging and manipulating to augmented reality contemts in 3d space
US11348327B1 (en) 2020-12-30 2022-05-31 VIRNECT inc. Method and system for arranging and manipulating to augmented reality contents in 3D space
KR102609850B1 (en) * 2023-07-28 2023-12-05 주식회사 앰버린 Virtual reality-based audio and visual content production and exhibition systemsS

Similar Documents

Publication Publication Date Title
KR101723823B1 (en) Interaction Implementation device of Dynamic objects and Virtual objects for Interactive Augmented space experience
KR101723828B1 (en) Interactive Augmented space available space expansion engines experience applied Cube system
JP6501017B2 (en) Image processing apparatus, program, image processing method and image processing system
US9665988B2 (en) Systems and methods for data visualization using three-dimensional displays
CN105981076B (en) Synthesize the construction of augmented reality environment
EP2775454B1 (en) Moving-image processing device, moving-image processing method, and information recording medium
KR20190110227A (en) Apparatus and method for generating synthetic learning data for motion recognition
CN104574515B (en) Method, device and terminal that a kind of three-dimensional body is rebuild
KR20180020725A (en) Contents authoring tool for augmented reality based on space and thereof method
JP2018045663A (en) Display control device, display control program, display system and display control method
US20180286130A1 (en) Graphical image augmentation of physical objects
Raajan et al. Augmented reality based virtual reality
CN112561071A (en) Object relationship estimation from 3D semantic mesh
Fischbach et al. smARTbox: out-of-the-box technologies for interactive art and exhibition
WO2023120770A1 (en) Method and apparatus for interaction between cognitive mesh information generated in three-dimensional space and virtual objects
KR102388715B1 (en) Apparatus for feeling to remodeling historic cites
Kotthäuser et al. Validating vision and robotic algorithms for dynamic real world environments
Engel et al. An immersive visualization system for virtual 3d city models
Jamroz Multidimensional labyrinth–multidimensional virtual reality
KR20180122248A (en) Apparatus for providing interactive content and method for the same
WO2015030623A1 (en) Methods and systems for locating substantially planar surfaces of 3d scene
KR101526049B1 (en) Virtual ecology park visualization system
WO2023119715A1 (en) Video generation method and image generation program
Beimler et al. Immersive guided tours for virtual tourism through 3D city models
US20220335675A1 (en) Physical phenomena expressing method for expressing the physical phenomeana in mixed reality, and mixed reality apparatus that performs the method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200120

Year of fee payment: 4