KR101723828B1 - Interactive Augmented space available space expansion engines experience applied Cube system - Google Patents
Interactive Augmented space available space expansion engines experience applied Cube system Download PDFInfo
- Publication number
- KR101723828B1 KR101723828B1 KR1020160110682A KR20160110682A KR101723828B1 KR 101723828 B1 KR101723828 B1 KR 101723828B1 KR 1020160110682 A KR1020160110682 A KR 1020160110682A KR 20160110682 A KR20160110682 A KR 20160110682A KR 101723828 B1 KR101723828 B1 KR 101723828B1
- Authority
- KR
- South Korea
- Prior art keywords
- space
- cube
- information
- image
- augmented
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
- G06T2207/20044—Skeletonization; Medial axis transform
Abstract
Description
본 발명은 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템에 관한 것으로서, 더욱 상세하게는 동적 객체(사용자)가 실시간으로 가상 세계의 객체와 서로 상호작용할 수 있는 인터랙션 기술을 적용한 실감/체감형 전시 영상을 통해 즐거움을 유발시키고 능동적으로 다양한 체험을 수행할 수 있는 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템에 관한 것이다.
The present invention relates to an experiential cube system to which a space enhancing interactive engine capable of expanding a space is applied, and more particularly, to an experiential cube system in which a dynamic object (user) And an experience cube system to which a space enhancing interactive engine capable of expanding a space capable of actively experiencing various experiences through pleasure through exhibition images.
가상현실은 컴퓨터 등을 사용한 인공적인 기술로 만들어낸 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황 혹은 그 기술 자체를 의미하며 이러한 가상의 환경이나 상황 등은 사용자의 오감을 자극하며 실제와 유사한 공간적, 시간적 체험하게 함으로써 현실과 상상의 경계를 자유롭게 드나들게 한다.VIRTUAL REALITY refers to a specific environment or situation, or technology itself, which is similar to the reality created by artificial technology using computers and the like, but these virtual environments or situations stimulate the user's five senses, , Allowing them to experience the time and the freedom to move freely between reality and imagination.
최근 국내외 유수의 기업들이 가상 현실 기기를 제작 및 가상 현실을 기반으로 한 컨텐츠 개발에 막대한 투자를 하고 있고, 이러한 상황에 비추어 볼 때 머지않은 미래에는 가상 현실이 영상 산업의 주류가 될 것이라는 것을 알 수 있다.Recently, domestic and foreign companies are investing heavily in creating virtual reality devices and developing content based on virtual reality. In light of this situation, we can see that virtual reality will become the mainstream of the video industry in the near future have.
다만 최근 가상 현실 기반의 컨텐츠 개발 산업은 대부분이 게임 엔터테인먼트와 같은 흥미 위주의 가상 현실 컨텐츠 개발에 초점이 맞추어져 있으며, 자연 학습과 같은 교육용 컨텐츠의 개발은 미비한 실정이다.However, most of the contents development industry based on virtual reality recently focuses on the development of interesting virtual reality contents such as game entertainment, and development of educational contents such as natural learning is not enough.
또한, 기존의 가상 현실 기반의 컨텐츠는 보여주기 형식의 수동적인 컨텐츠가 주류를 이루고 있으며, 사용자와 피드백을 통한 가상 체험 컨텐츠는 극히 제한적이다.In addition, existing virtual reality-based contents are mainly composed of passive contents in the form of display, and virtual experience contents through users and feedback are extremely limited.
요약하자면, 기존의 체험전시 공간은 단순 동적 영상을 전시하거나, 터치스크린 방식의 단순 인터랙션을 통한 간접적 체험을 제공하는 방식이 주를 이루고 있다. In summary, existing experiential space is mainly composed of simple dynamic image display or indirect experience through simple interaction with touch screen.
따라서, 본 발명은 실세계 환경에서 공간과 사물을 인식하여 공간과 사물을 스크린에 투영하고, 가상 콘텐츠 및 정보를 증강(혼합)하여 동적객체(사용자, 관람객, 체험객)가 가상의 객체와 인터랙션할 수 있게 함으로써 실감나게 전시체험을 할 수 있는 환경을 제공한다.Accordingly, the present invention can recognize spaces and objects in a real-world environment, project spaces and objects on screens, and enhance (mix) virtual contents and information so that dynamic objects (users, viewers, and visitors) can interact with virtual objects This will provide an environment in which visitors can experience the exhibition in a realistic way.
또한, 본 발명을 적용한 복합문화공간(과학관/전시관/도서관/체험관/테마파크)의 체험전시 형태는 관람 및 방문객들의 몰입감과 현실감을 강화하여 실시간 상호작용을 지원하는 공간증강 인터랙티브 서비스를 제공한다.
In addition, the interactive exhibition space of the complex culture space (science museum / exhibition hall / library / experience hall / theme park) to which the present invention is applied provides a space enhancement interactive service that supports real-time interaction by enhancing the feeling of immersion and realism of visitors and visitors.
따라서, 본 발명은 상기 종래의 문제점을 해소하기 위해 안출된 것으로,SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art,
본 발명의 목적은 동적 객체(사용자)가 실시간으로 가상 세계의 객체와 서로 상호작용할 수 있는 인터랙션 기술을 적용한 실감/체감형 전시 영상을 통해 즐거움을 유발시키고 능동적으로 다양한 체험을 다수 체험객들에게 동시에 수행할 수 있도록 하는데 있다.An object of the present invention is to provide a real-time / real-time interactive display technique in which a dynamic object (user) can interact with an object in a virtual world in real time, To be able to do.
본 발명의 다른 목적은 제1큐브 내부에 제2큐브가 위치하고 있다가 필요시에 외부로 빠져나오도록 하여 체험 전시의 공간적인 한계를 극복하도록 하며, 찾아가는 체험큐브 시스템을 제공하여 다양하고 많은 체험객들에게 체험 전시를 수행할 수 있도록 하는데 있다.
Another object of the present invention is to provide an experience cube system that allows a second cube to be located inside a first cube and to escape to the outside when necessary, To be able to carry out experience exhibition.
본 발명이 해결하고자 하는 과제를 달성하기 위하여, 본 발명의 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템은,According to an aspect of the present invention, there is provided an experience cube system to which a space enhancing interactive engine capable of extending a space according to an embodiment of the present invention is applied,
체험큐브 내의 실공간을 인식하고, 체험객과 체험객의 움직임(제스처 및 포스처)를 인식하여 체험큐브에 구성된 공간증강인터랙티브엔진으로 제공하기 위한 키넥트카메라(100)와;A Kinect
상기 키넥트카메라로부터 제공된 정보(실공간 인식 정보, 체험객 인식 정보, 체험객 움직임 인식 정보)를 획득하여 내장된 공간증강인터랙티브엔진(250)으로 제공하여 생성된 3차원 가상객체와 체험객 간의 인터랙션을 수행하기 위한 공간증강구현장치(200)와;Acquires information (real space recognition information, experiential recognition information, experiential motion recognition information) provided from the Kinect camera and provides it to the built-in space enhancement
상기 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 영상 정보를 디스플레이시키기 위한 DID장치(300)와;A
상기 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 음향 정보를 출력하기 위한 스피커(400);를 포함하여 구성되는 제1큐브(1000)와,And a speaker (400) for outputting interaction sound information with a 3D virtual object according to a movement of a person provided through the space enhancement implementing device. The first cube (1000)
상기 제1큐브의 내부로부터 외부로 이동되어 공간을 확장시키기 위한 제2큐브(2000)를 포함하게 된다.And a
한편, 상기 공간증강인터랙티브엔진(250)은,The space enhancing
키넥트카메라(100)로부터 컬러 영상 및 깊이 영상 정보를 획득하기 위한 영상정보획득부(251)와;An image
상기 영상정보획득부에 의해 획득된 컬러 영상 및 깊이 영상 정보를 획득하여 컬러 영상과 깊이 영상을 보정하고, RGB 영상과 깊이 영상의 호모그래피(Homography)를 계산하여 키넥트카메라를 구성하고 있는 RGB카메라와 Depth 카메라의 시점을 동일하게 처리하기 위한 영상정합부(252)와;The color image and the depth image obtained by the image information obtaining unit are acquired to correct the color image and the depth image, and the homography of the RGB image and the depth image is calculated to obtain the RGB camera An
상기 정합된 영상을 획득하여 직선을 추출하여 추출된 직선을 통해 정합 영상에서의 공간 정보를 인식하여 공간, 정적, 동적 영역을 구분하되, 각 영역에서 특징점을 추출한 후, 각 영역의 특징점과 공간상에서의 위치 정보를 이용하여 영역이 나타내는 객체를 인식하여 동적 객체 정보를 저장하기 위한 동적객체인식부(253)와;The matched image is acquired and a straight line is extracted. The spatial information in the matching image is recognized through the extracted straight line to distinguish the spatial, static, and dynamic regions. After extracting the feature points from the respective regions, A dynamic
상기 인식된 동적 객체 영역의 깊이 영상을 이용하여 키넥트카메라로부터 추출한 스켈레톤 정보를 이용하여 동적 객체에 대한 위치 정보를 추출하기 위한 동적객체좌표추출부(254)와;A dynamic object
상기 동적 객체에 대한 위치 정보를 획득하여 연속 인식되는 객체 영역의 스켈레톤 정보를 추출하여 자세 변환을 추정하여 실시간 격자 메시를 생성하기 위한 동적객체메시출력부(255)와;A dynamic object mesh output unit (255) for acquiring position information on the dynamic object to extract skeleton information of the continuously recognized object region to generate a real time mesh mesh by estimating posture transformation;
인식 공간에 대한 좌표를 추출하며 추출된 좌표를 기준으로 표면의 내부와 외부를 구분하여 표면을 형성하며, 형성된 표면에 가상의 객체를 증강하기 위한 증강객체생성부(256)와;An augmented
상기 증강 객체에 충돌 객체를 생성하며, 동적 객체에 충돌 객체를 생성하되, 상기 증강 객체 생성된 충돌 객체와 메시 객체에 생성된 충돌 객체가 서로 충돌하였는지를 판단하여 충돌이 발생하면 증강 객체에 이벤트를 생성하기 위한 증강객체이벤트생성부(257)와;A collision object is generated in the reinforcement object, a collision object is created in the dynamic object, and it is determined whether the collision object generated in the augmented object and the collision object generated in the mesh object collide with each other. An augmented object
상기 증강 객체의 이벤트를 획득하여 증강 객체에 해당되는 애니메이션을 실행하기 위한 객체애니메이션생성부(258);를 포함한다.
And an object
본 발명에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템은, 동적객체(사용자)가 실시간으로 가상세계의 객체와 서로 상호작용할 수 있는 인터랙션 기술을 적용한 실감/체감형 전시영상을 통해 즐거움을 유발시키고 능동적으로 다양한 체험을 다수 체험객들에게 동시에 수행할 수 있는 효과를 제공하게 된다.The experiential cube system to which the space enhancing interactive engine capable of expanding the space according to the present invention is applied is a pleasure cube system in which a dynamic object (user) realizes an experience / And to provide various effects to actively perform various experiences to a plurality of visitors at the same time.
또한, 본 발명의 시스템을 적용한 전시체험을 통해 새로운 방식의 전시체험 패러다임 생성을 기대할 수 있게 된다. In addition, through the exhibition experience using the system of the present invention, it is possible to expect a new exhibition experience paradigm generation.
또한, 제1큐브 내부에 제2큐브가 위치하고 있다가 필요시에 제1큐브의 외부로 빠져나오도록 하여 체험 전시의 공간적인 한계를 극복하도록 하며, 찾아가는 체험큐브 시스템을 제공하여 다양하고 많은 체험객들에게 체험 전시를 수행할 수 있는 효과를 제공하게 된다.
In addition, the second cube is located inside the first cube, and when necessary, the first cube is taken out of the first cube, thereby overcoming the spatial limit of the experience exhibition and providing the experience cube system to visit, It is possible to carry out the experience exhibition.
도 1은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 제2큐브 확장 전의 전체 구성도이다.
도 2는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 제2큐브 확장 후의 전체 구성도이다.
도 3은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 공간증강인터랙티브엔진 블록도이다.
도 4는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 영상정합부 블록도이다.
도 5는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 동적객체인식부 블록도이다.
도 6은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 동적객체좌표추출부 블록도이다.
도 7은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 동적객체메시출력부 블록도이다.
도 8은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 증강객체생성부 블록도이다.
도 9는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 증강객체이벤트생성부 블록도이다.
도 10은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 객체애니메이션생성부 블록도이다.
도 11은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템에 의해 구현되는 인터랙션 화면 예시도이다.
도 12는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 스켈레톤 화면 예시도이다.
도 13은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 실시간 격자 메시 화면 예시도이다.
도 14는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 표면의 내외부를 구분하는 표면을 형성하는 화면 예시도이다.
도 15는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 실객체와 가상객체 화면 예시도이다.
도 16은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 가상의 메시를 생성하고 화면에는 보이지 않도록 투명하게 처리하는 화면 예시도이다.
도 17은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 실객체와 가상객체 충돌시 화면 예시도이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an overall configuration diagram of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied, before expansion of a second cube. FIG.
FIG. 2 is an overall configuration diagram of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied, after expansion of a second cube. FIG.
FIG. 3 is a space enhancement interactive engine block diagram of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
4 is a block diagram of an image matching unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
5 is a block diagram of a dynamic object recognition unit of an experience cube system to which a space enhancement interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
6 is a block diagram of a dynamic object coordinate extraction unit of an experiential cube system to which a space enhancement interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
FIG. 7 is a block diagram of a dynamic object mesh output unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
FIG. 8 is a block diagram of an augmented object generation unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
FIG. 9 is a block diagram of an augmented object event generating unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
10 is a block diagram of an object animation generating unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
11 is a diagram illustrating an interaction screen implemented by an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
12 is a skeleton screen exemplary view of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
FIG. 13 is a view illustrating a real-time grid mesh screen of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
FIG. 14 is a diagram illustrating a screen for forming a surface that distinguishes the inside and the outside of the surface of the experiential cube system to which the space enhancing interactive engine capable of expanding the space according to the embodiment of the present invention is applied.
15 is a view illustrating a real object and a virtual object screen of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
FIG. 16 is a diagram illustrating an example of a screen in which a virtual mesh of the experiential cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied, and is transparently displayed on a screen.
FIG. 17 is a diagram illustrating a screen image of a real object and a virtual object in an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
이하, 본 발명에 의한 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 실시예를 통해 상세히 설명하도록 한다.Hereinafter, an experience cube system to which a space enhancing interactive engine capable of expanding a space according to the present invention is applied will be described in detail with reference to embodiments.
도 1은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 제2큐브 확장 전의 전체 구성도이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an overall configuration diagram of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied, before expansion of a second cube. FIG.
도 1에 도시한 바와 같이, 본 발명의 시스템은 크게, 키넥트카메라(100)와; 공간증강구현장치(200)와; DID장치(300)와; 스피커(400);를 포함하여 구성되는 제1큐브(1000)와, 상기 제1큐브의 내부로부터 외부로 이동되어 공간을 확장시키기 위한 제2큐브(2000),를 포함하여 구성하게 된다.As shown in Fig. 1, the system of the present invention mainly includes a Kinect
기존의 체험전시공간은 특정 장소(과학관, 박물관, 미술관 등)에 체험객들이 직접 방문을 하여야만 체험을 할 수 있는 환경이었다. The existing experience time and space was an environment where visitors had to visit a specific place (science museum, museum, art museum, etc.) to experience it.
이에 본 발명의 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템은 이동성을 확보하여 다양한 장소에서 체험객들이 실제공간과 혼합된 가상의 객체와 상호작용하며 체험할 수 있는 공간증강 인터랙티브 콘텐츠를 체험할 수 있도록 하는 것 이다.Accordingly, the experience cube system to which the space enhancement interactive engine of the present invention is applied is to enable the experience of space enhancing interactive contents in which the visitors can interact with virtual objects mixed with real space in various places by securing mobility to be.
상기와 같은 구성을 통해, 이동성이 확보된 체험공간인 체험큐브 시스템을 통해 체험전시의 공간적인 한계를 극복하고, 찾아가는 체험큐브 시스템을 통해 보다 다양하고 많은 체험객들이 체험전시를 경험할 수 있게 된다.Through the above-mentioned structure, the experiential cube system, which is a mobility-secured experience space, overcomes the spatial limitation of the experience exhibition, and through the experiential cube system, a variety of many visitors can experience the experience display.
또한, 다양한 공간증강 인터랙티브 콘텐츠를 통해 다수 체험객들의 동시 체험이 가능하고, ICT 기술이 접목된 최신의 체험전시를 경험할 수 있게 된다.In addition, a variety of space-enhancing interactive contents will allow a large number of visitors to experience at the same time, and experience the latest experience exhibited by ICT technology.
하기에서는 좀 더 구체적으로 구성수단들에 대하여 설명하도록 하겠다.In the following, the construction means will be described in more detail.
상기 키넥트카메라(100)는 체험큐브 내의 실공간을 인식하고, 체험객과 체험객의 움직임(제스처 및 포스처)를 인식하여 체험큐브에 구성된 공간증강인터랙티브엔진으로 제공하도록 제1큐브의 어느 벽면의 일측에 형성하게 된다.The Kinect
이때, 상기 공간증강구현장치(200)는 키넥트카메라로부터 제공된 정보(실공간 인식 정보, 체험객 인식 정보, 체험객 움직임 인식 정보)를 획득하여 내장된 공간증강인터랙티브엔진(250)으로 제공하여 생성된 3차원 가상객체와 체험객 간의 인터랙션을 수행하게 되는 것이다.At this time, the
이때, 제1큐브의 어느 일측 벽면에 형성된 DID장치(300)에 의해, 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 영상 정보를 디스플레이시키게 되는 것이다.At this time, the DID
이때, 입체 음향 효과를 제공하기 위하여 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 음향 정보를 출력하기 위한 스피커(400)를 제1큐브의 일정 간격으로 다수 설치 구성하게 되는 것이다.At this time, in order to provide a stereo sound effect, a plurality of
한편, 제2큐브(2000)를 상기 제1큐브의 내부로부터 외부로 이동되어 공간을 확장시키게 되는데, 이를 위하여, 상기 제2큐브의 크기는 제1큐브의 크기보다 작게 하여 제1큐브의 내부에 삽입되도록 하여야 한다.Meanwhile, the
상기 제2큐브(2000)는,The
제1큐브의 크기보다 작게 구성하여 제1큐브의 내부에 보관되어 있도록 하되,The size of the first cube is smaller than the size of the first cube so as to be stored in the first cube,
어느 일면에 체험객이 출입할 수 있도록 형성되는 출입문(2100)과,A
어느 일면에 제1큐브에서 외부로 잡아당길 수 있도록 형성되는 확장큐브손잡이부(2200)와,An expanding
하면에 일정거리 이격되게 다수 형성되어 상기 확장큐브손잡이부를 통해 외부로 잡아당길 경우에 쉽게 제1큐브로부터 빠져나올 수 있도록 하기 위한 바퀴부(2300)를 포함하여 구성하게 된다.And a plurality of
즉, 도 2에 도시한 바와 같이, 제1큐브로부터 외부로 빠져 나오도록 하기 위하여 확장큐브손잡이부와 바퀴부를 구성하게 되는 것이다.That is, as shown in FIG. 2, the extension cube handle and the wheel are formed so as to escape from the first cube to the outside.
한편, 체험객이 자유롭게 이동할 수 있도록 출입문을 어느 일면에 형성하게 되며, 확장큐브손잡이부(2200)를 어느 일면에 제1큐브에서 외부로 잡아당길 수 있도록 형성하게 되는 것이다.On the other hand, the door is formed on one side so that the user can freely move, and the
본 발명의 예시에서는 2개의 손잡이부를 구성하고 있지만, 필요에 따라 추가하거나 1개로 구성할 수도 있을 것이다.In the example of the present invention, although two knobs are provided, the knobs may be added or may be formed as needed.
한편, 손쉽게 이동할 수 있도록, 바퀴부(2300)를 제1큐브의 하면에 일정거리 이격되게 다수 형성시키게 되며, 상기 확장큐브손잡이부를 통해 외부로 잡아당길 경우에 쉽게 제1큐브로부터 빠져나올 수 있게 되는 것이다.Meanwhile, in order to facilitate movement, a plurality of
도 3은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 공간증강인터랙티브엔진 블록도이다.FIG. 3 is a space enhancement interactive engine block diagram of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
도 3에 도시한 바와 같이, 본 발명의 공간증강인터랙티브엔진(250)은, 크게 영상정보획득부(251)와; 영상정합부(252)와; 동적객체인식부(253)와; 동적객체좌표추출부(254)와; 동적객체메시출력부(255)와; 증강객체생성부(256)와; 증강객체이벤트생성부(257)와; 객체애니메이션생성부(258);를 포함하여 구성되게 된다.As shown in FIG. 3, the space enhancing
상기 영상정보획득부(251)는 키넥트카메라로부터 컬러 영상 및 깊이 영상을 입력받는다. The image
상기 영상정합부(252)는 영상정보획득부에 의해 획득된 컬러 영상 및 깊이 영상 정보를 획득하여 컬러 영상과 깊이 영상을 보정하고, RGB 영상과 깊이 영상의 호모그래피(Homography)를 계산하여 키넥트카메라를 구성하고 있는 RGB카메라와 Depth 카메라의 시점을 동일하게 처리하는 기능을 수행하게 된다.The
또한, 상기 동적객체인식부(253)는 영상정합부에 의해 정합된 영상을 획득하여 직선을 추출하여 추출된 직선을 통해 정합 영상에서의 공간 정보를 인식하여 공간, 정적, 동적 영역을 구분하게 된다.In addition, the dynamic
이때, 각 영역에서 특징점을 추출한 후, 각 영역의 특징점과 공간상에서의 위치 정보를 이용하여 영역이 나타내는 객체를 인식하여 동적 객체 정보를 저장시키게 되는 것이다.In this case, the feature points are extracted from the respective regions, and the dynamic object information is stored by recognizing the objects represented by the regions using the feature points of the regions and the location information in the space.
상기 정보는 예를 들어, 메모리 혹은 디비에 저장하게 되는 것이며, 상기 메모리는 일반적으로 구성되는 구성수단이므로 상세한 설명은 생략하도록 하겠다.The information is stored in, for example, a memory or a database, and the memory is generally constituent means, and a detailed description thereof will be omitted.
또한, 상기 동적객체좌표추출부(254)는 인식된 동적 객체 영역의 깊이 영상을 이용하여 키넥트카메라로부터 추출한 스켈레톤 정보를 이용하여 동적 객체에 대한 위치 정보를 추출하는 기능을 수행하게 된다.In addition, the dynamic object coordinate
이때, 상기 동적객체메시출력부(255)는 상기 동적 객체에 대한 위치 정보를 획득하여 연속 인식되는 객체 영역의 스켈레톤 정보를 추출하여 자세 변환을 추정하여 실시간 격자 메시를 생성하게 된다.At this time, the dynamic object
이때, 상기 증강객체생성부(256)는 인식 공간에 대한 좌표를 추출하며 추출된 좌표를 기준으로 표면의 내부와 외부를 구분하여 표면을 형성하며, 형성된 표면에 가상의 객체를 증강하는 기능을 수행하게 된다.At this time, the augmented
이때, 상기 증강객체이벤트생성부(257)는 상기 증강 객체에 충돌 객체를 생성하며, 동적 객체에 충돌 객체를 생성하되, 상기 증강 객체 생성된 충돌 객체와 메시 객체에 생성된 충돌 객체가 서로 충돌하였는지를 판단하여 충돌이 발생하면 증강 객체에 이벤트를 생성하게 되며, 상기 객체애니메이션생성부(258)에 의해 상기 증강 객체의 이벤트를 획득하여 증강 객체에 해당되는 애니메이션을 실행하게 되는 것이다.At this time, the augmented object
즉, 도 11에 도시한 바와 같이, 실제 세계에서 공간과 객체를 인식하여 가상의 객체(예를 들어, 펭귄, 물)를 증강하여 실제와 가상을 합성하여 보여주며, 실제 객체와 가상의 객체 간의 인터랙션에 의해 이동하거나 변형되는 효과를 제공하게 되는 것이다.That is, as shown in FIG. 11, a space and an object are recognized in the real world, and a virtual object (for example, a penguin and a water) is augmented to show a combination of real and virtual, It is possible to provide an effect of being moved or modified by interaction.
도 4는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 영상정합부 블록도이다.4 is a block diagram of an image matching unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
도 4에 도시한 바와 같이, 상기 영상정합부(252)는, As shown in Fig. 4, the
컬러 영상과 깊이 영상의 매칭 여부를 판단하기 위한 매칭판단모듈(252a)과,A matching
상기 판단 결과, 매칭되지 않은 경우에 컬러 영상과 깊이 영상을 매칭하기 위한 깊이/컬러영상매칭모듈(252b)과,A depth / color
상기 판단 결과, 매칭되는 경우에 불필요한 깊이 좌표 정보를 제거하고, 컬러 영상과 깊이 영상의 해상도를 보정하기 위한 해상도보정모듈(252c)와,A
상기 보정된 컬러 영상과 깊이 영상의 이미지를 매핑하여 합성 영상을 생성하기 위한 합성영상생성모듈(252d)을 포함하여 구성되게 된다.And a composite
상기 매칭판단모듈(252a)은 영상정보획득부에서 획득된 영상을 획득하여 컬러 영상과 깊이 영상의 매칭 여부를 판단하게 되며, 상기 깊이/컬러영상매칭모듈(252b)은 상기 판단 결과, 매칭되지 않은 경우에 컬러 영상과 깊이 영상을 매칭하게 되는 것이다.The matching
예를 들어, 컬러 영상과 깊이 영상에서 처리 속도차가 발생할 경우, 느리게 입력되는 영상을 기준으로 매칭이 되도록 보완하여 맞추어 준다. For example, when a difference in processing speed occurs between a color image and a depth image, a slow input image is supplemented to match the reference image.
키넥트 카메라의 경우, 컬러 영상이 느리게 입력될 수 있기 때문이다.In the case of a Kinect camera, color images can be input slowly.
한편, 해상도보정모듈(252c)은 상기 판단 결과, 매칭되는 경우에 불필요한 깊이 좌표 정보를 제거하고, 컬러 영상과 깊이 영상의 해상도를 보정하는 기능을 수행하게 된다.On the other hand, the
예를 들어, 입력된 깊이 영상에 포함된 불필요한 정보를 Bilateral filter 와 같은 알고리즘을 이용하여 제거할 수 있는 것이다.For example, unnecessary information included in the input depth image can be removed using an algorithm such as a bilateral filter.
한편, 상기 합성영상생성모듈(252d)은 보정된 컬러 영상과 깊이 영상의 이미지를 매핑하여 합성 영상을 생성하게 된다.Meanwhile, the composite
예를 들어, 컬러 영상과 깊이 영상의 해상도가 동일해지면, 카메라 파라미터간의 호모 그래피를 이용하여 컬러 영상과 깊이 영상의 이미지를 매핑할 수 있게 된다.For example, if the resolution of the color image and the depth image are the same, the image of the color image and the depth image can be mapped using the homography between the camera parameters.
도 5는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 동적객체인식부 블록도이다.5 is a block diagram of a dynamic object recognition unit of an experience cube system to which a space enhancement interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
도 5에 도시한 바와 같이, 상기 동적객체인식부(253)는,As shown in FIG. 5, the dynamic
생성된 합성 영상에서 직선을 추출하기 위한 직선추출모듈(253a)과,A straight
상기 추출된 직선을 이용하여 합성 영상에서의 공간 정보를 인식하기 위한 공간인식모듈(253b)과,A
상기 합성 영상에서 공간 객체, 정적 객체, 동적 객체의 영역을 분리하기 위한 객체별영역분리모듈(253c)과,An object-specific
상기 분리된 각각 객체의 영역에서 특징점을 추출하기 위한 특징점추출모듈(253d)과,A feature
상기 각각 객체 영역의 특징점과 공간상에서의 위치 정보를 이용하여 영역이 나타내는 객체를 인식하기 위한 객체별인식모듈(253e)과,An object-by-
상기 인식된 객체로부터 동적 객체 정보를 저장하기 위한 동적객체정보저장처리모듈(253f)을 포함하여 구성되게 된다.And a dynamic object
상기 직선추출모듈(253a)은 컬러 영상과 깊이 영상의 합성 영상에서 직선을 추출하게 된다.The straight
예를 들어, 컬러 영상과 깊이 영상의 합성 영상에서 Canny edge detector 등의 방법을 이용하여 직선을 추출할 수 있다.For example, a straight line can be extracted using a method such as Canny edge detector in a composite image of a color image and a depth image.
상기 공간인식모듈(253b)은 상기 추출된 직선을 이용하여 합성(정합) 영상에서의 공간 정보를 인식하게 된다.The
예를 들어, 추출한 직선을 이용하여 정합 영상에서 소실점을 찾고, 평면들의 벡터 정보를 종합하여 바닥면, 벽면, 천장면 등과 같은 공간의 정보를 인식하는 것이다.For example, the extracted straight line is used to find the vanishing point in the matching image, and the vector information of the planes is integrated to recognize the information of the space such as the floor, the wall, and the ceiling scene.
또한, 상기 객체별영역분리모듈(253c)은 상기 합성 영상에서 공간 객체, 정적 객체, 동적 객체의 영역을 분리하는 기능을 수행하게 된다.In addition, the object-based
예를 들어, 정합(합성) 영상의 각 이미지의 컬러 및 깊이 값 차이를 이용하여 물체의 영역을 분리할 수 있으며, 이때, 분리한 각 영역을 바닥면과 벽면에 평행한 직육면체로 표현하여 영역의 위치와 회전값을 계산할 수 있는 것이다.For example, the object region can be separated by using the difference in color and depth values of each image of the matched (combined) image. At this time, each divided region is represented by a rectangular parallelepiped parallel to the floor surface and the wall surface, Position and rotation values can be calculated.
한편, 상기 특징점추출모듈(253d)은 상기 분리된 각각 객체의 영역에서 특징점을 추출하게 되며, 상기 객체별인식모듈(253e)은 상기 각각의 객체 영역의 특징점과 공간상에서의 위치 정보를 이용하여 영역이 나타내는 객체를 인식하게 되는 것이다.On the other hand, the feature
예를 들어, 다중분류 알고리즘을 이용하여 객체를 인식할 수 있게 된다.For example, an object can be recognized using a multiple classification algorithm.
상기 동적객체정보저장처리모듈(253f)은 상기 인식된 객체로부터 동적 객체 정보를 메모리 혹은 디비에 저장 처리시키게 된다.The dynamic object
예를 들어, 인식한 객체가 새롭게 인식된 객체인 경우, 객체 추적 및 실사의 3차원 정보 추출을 위하여 메모리 혹은 디비에 객체를 새롭게 인식한 객체로 저장할 수 있게 된다.For example, if the recognized object is a newly recognized object, it is possible to store the object as a newly recognized object in the memory or the database for three-dimensional information extraction of the object tracking and the real world.
도 6은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 동적객체좌표추출부 블록도이다.6 is a block diagram of a dynamic object coordinate extraction unit of an experiential cube system to which a space enhancement interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
도 6에 도시한 바와 같이, 상기 동적객체좌표추출부(254)는,As shown in FIG. 6, the dynamic object coordinate
인식된 동적 객체 영역의 깊이 영상을 이용하여 키넥트카메라로부터 추출한 스켈레톤 정보를 이용하여 동적 객체에 대한 위치 정보를 추출하기 위한 객체위치정보추출모듈(254a)과,An object location
상기 추출된 위치 정보를 이용하여 위치 변화를 추적하기 위한 위치변화추적모듈(254b)과,A position
상기 추출된 객체 위치 정보를 이용하여 위치 변화가 있는 객체에 대한 동적 객체를 재구성하기 위한 변환객체재구성모듈(254c)을 포함하여 구성되게 된다.And a transformed
상기 객체위치정보추출모듈(254a)은 상기 인식된 동적 객체 영역의 깊이 영상을 이용하여 키넥트카메라로부터 추출한 스켈레톤 정보를 이용하여 동적 객체에 대한 위치 정보를 추출하게 되는 것이다.The object position
이때, 상기 위치변화추적모듈(254b)은 추출된 위치 정보를 이용하여 위치 변화를 추적하게 되는데, 위치 변환이 없을 경우에는 동적 객체의 좌표를 출력하게 된다.At this time, the position
한편, 상기 변환객체재구성모듈(254c)은 위치 변환이 있을 경우에는 추출된 객체 위치 정보를 이용하여 위치 변화가 있는 객체에 대한 동적 객체를 재구성하는 것이다.Meanwhile, the transformed
도 7은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 동적객체메시출력부 블록도이다.FIG. 7 is a block diagram of a dynamic object mesh output unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
도 7에 도시한 바와 같이 ,상기 동적객체메시출력부(255)는,7, the dynamic object
입력되는 3차원 객체 좌표와 비교를 위하여 연속 인식되는 객체 영역의 스켈레톤 정보를 추출하기 위한 스켈레톤정보추출모듈(255a)과,A skeleton
상기 입력되는 3차원 객체 좌표와 상기 추출된 스켈레톤 정보를 이용하여 자세 변환을 추정하기 위한 자세변환추정모듈(255b)과,An attitude
상기 연속되어 입력되는 영상에 대한 정보를 이용하여 실시간 격자 메시를 생성하기 위한 실시간격자메시생성모듈(255c)을 포함하여 구성되게 된다.And a real-time grid
상기 스켈레톤정보추출모듈(255a)은 입력되는 3차원 객체 좌표와 비교를 위하여 연속 인식되는 객체 영역의 스켈레톤 정보를 추출하게 되며, 상기 자세변환추정모듈(255b)은 입력되는 3차원 객체 좌표와 상기 추출된 스켈레톤 정보를 이용하여 자세 변환을 추정하게 되는 것이다.The skeleton
또한, 상기 실시간격자메시생성모듈(255c)은 연속되어 입력되는 영상에 대한 정보를 이용하여 실시간 격자 메시를 생성하게 되는 것이다.Also, the real-time grid-
도 12를 참조하여 구체적으로 설명하자면, 키넥트(Kinect) 카메라 중 예를 들어, 키넥트 V2 카메라를 통하여 입력되는 영상에서 체험자는 카메라에 촬영되는 동적 객체가 되며, 체험자의 움직임을 추적하기 위한 정보가 스켈레톤(10, 골격) 정보이다.12, in an image input through a Kinect camera, for example, a Kinect camera, the experimenter becomes a dynamic object to be photographed by the camera, and information for tracking the movement of the experimenter Is skeleton (10, skeleton) information.
여기서, 스켈레톤은 인간의 골격 관절을 총 25개의 부분으로 나눠서 인지하며, 이를 하나의 집합처럼 묶어서 처리하며, (x, y, z) 3축으로 나눠 센서 인지범위에 따라 각 골격과 센서 사이의 거리가 결정하게 되는 것이다.Here, the skeleton recognizes the human skeleton joint by dividing it into a total of 25 parts, which are grouped as one set, and divided into three axes (x, y, z) .
이때, 스켈레톤 정보를 추출한다는 것은 상기한 키넥트 V2 카메라를 통하여 획득된 스켈레톤 정보를 가져오기 위한 구조체를 구성하고 생성된 구조체에 스켈레톤 정보를 입력하는 과정을 의미하는 것이다.At this time, extracting the skeleton information means constructing a structure for fetching skeleton information obtained through the Kinect V2 camera and inputting skeleton information to the generated structure.
또한, 실시간 격자 메시의 생성은 도 13을 참조하여 설명하자면, 격자(20)는 삼각형의 모양의 반복된 도형의 집합을 의미하며, 메시(30)는 상기 격자로 생성된 삼각형이 서로 연결이 되어 그물망과 같은 구조를 이루는 것을 의미하게 된다.13, the
상기 격자 메시는 우측 예시의 돌고래 이미지처럼 격자들이 모여서 이루어진 그물망 형태를 이루는 면을 가진 형체를 생성한다는 것을 의미한다.This means that the mesh creates a shape having a mesh-like surface composed of lattices gathered like a dolphin image of the right-hand example.
도 8은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 증강객체생성부 블록도이다.FIG. 8 is a block diagram of an augmented object generation unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
도 8에 도시한 바와 같이, 상기 증강객체생성부(256)는, 8, the augmented-
인식 공간에 대한 좌표를 추출하기 위한 인식공간좌표추출모듈(256a)과,A recognition space coordinate
상기 추출된 좌표를 기준으로 표면의 내부와 외부를 구분하여 표면을 형성하기 위한 공간표면분류모듈(256b)과,A spatial
상기 형성된 표면에 가상의 객체를 증강하기 위한 가상객체증강모듈(256c)과,A virtual
인식된 공간의 메시 정보가 사용자의 눈에 보이지 않도록 투명 랜더링을 수행하기 위한 투명랜더링수행모듈(256d)을 포함하여 구성되게 된다.And a
상기 인식공간좌표추출모듈(256a)은 인식 공간에 대한 좌표를 추출하며, 상기 공간표면분류모듈(256b)은 상기 추출된 좌표를 기준으로 표면의 내부와 외부를 구분하여 표면을 형성하게 되는 것이다.The recognition space coordinate
한편, 도 14에 도시한 바와 같이, 추출된 좌표 기준으로 표면의 내부와 외부를 구분하여 표면을 형성하는 것은 삼각형을 이용하여 객체의 표면을 생성하는데 삼각형 그리는 방향에 따라 내부와 외부로 구분을 하게 되는 것이다.On the other hand, as shown in FIG. 14, forming the surface by dividing the inside and the outside of the surface based on the extracted coordinate reference generates the surface of the object by using a triangle, and divides the inside and outside according to the direction of drawing the triangle .
예를 들어, 시계 방향으로 그리게 되면 뒷면(표면의 내부)가 되고, 반시계 방향으로 그리면 앞면(표면의 외부)으로 구분하게 되는 것이다.For example, if you draw in the clockwise direction, it will be the back (inside of the surface), and if you draw it in the counterclockwise direction, it will be the front (outside of the surface).
이때, 상기 가상객체증강모듈(256c)은 상기 형성된 표면에 가상의 객체를 증강하게 된다.At this time, the virtual
예를 들어, 테이블의 아래가 아닌 위쪽으로 가상의 객체가 위치할 수 있도록 하거나, 또는 표면을 따라서 가상의 객체 공이 굴러가거나 움직일 수 있도록 하는 것이다.For example, a virtual object may be positioned above the table rather than below it, or a virtual object ball may be rolled or moved along the surface.
구체적으로, 도 15에 도시한 바와 같이, 실객체(40)인 테이블을 인식하여 가상객체(50)와의 상호작용을 위한 가상의 메시를 생성하게 된다.Specifically, as shown in FIG. 15, a table as a
그리고, 가상객체를 생성하여 실객체 위에 가상으로 생성된 메시를 인지하여 실객체를 통과하지 않고, 위에 나타날 수 있도록 하는 것이다.Then, a virtual object is created to recognize a virtually created mesh on a real object so that it can be displayed on the real object instead of passing through the real object.
그리고, 상기 투명랜더링수행모듈(256d)은 인식된 공간의 메시 정보가 사용자의 눈에 보이지 않도록 투명 랜더링을 수행하게 되는 것이다.The
예를 들어, 인식된 테이블을 가상의 메시 표면을 생성하여 가상의 객체를 테이블 위에 위치하도록 하고, 가상으로 생성된 메시 표면은 투명하게 처리하여 실제 테이블이 보이도록 하는 것이다.For example, you can create a virtual mesh surface on a recognized table to place a virtual object on the table, and make the virtual mesh surface transparent so that the actual table is visible.
구체적으로 도 16에 도시한 바와 같이, 실객체(40)인 테이블을 인식하여 가상객체(50)와의 상호작용을 위한 가상의 메시를 생성한 후, 화면에 보이지 않도록 투명하게 처리하는 것이다.Specifically, as shown in FIG. 16, a table as a
도 9는 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 증강객체이벤트생성부 블록도이다.FIG. 9 is a block diagram of an augmented object event generating unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
도 9에 도시한 바와 같이, 상기 증강객체이벤트생성부(257)는,9, the augmented-object-
증강 객체에 충돌 객체를 생성하기 위한 제1충돌객체생성모듈(257a)과,A first collision
동적 객체에 충돌 객체를 생성하기 위한 제2충돌객체생성모듈(257b)과,A second collision
상기 증강 객체에 생성된 충돌 객체와 동적 객체에 생성된 충돌 객체가 서로 충돌하였는지를 판단하여 충돌될 경우에 증강 객체에 이벤트를 생성하기 위한 이벤트생성모듈(257c)을 포함하여 구성되게 된다.And an
즉, 증강 객체와 메시 객체의 3차원 모델을 획득하게 되면, 제1충돌객체생성모듈(257a)에 의해 증강 객체에 충돌 객체를 생성하게 되며, 제2충돌객체생성모듈(257b)에 의해 동적 객체(메시 객체)에 충돌 객체를 생성하게 되는 것이다.That is, when the three-dimensional model of the augmented object and the mesh object is acquired, the collision object is generated in the augmented object by the first collision
즉, 동적 메시 객체와의 상호 작용을 위하여 증강 객체에 충돌 객체를 생성하게 되며, 증강 객체와의 상호 작용을 위하여 동적 객체에 충돌 객체를 생성하게 되는 것이다.That is, the collision object is created in the augmented object for interaction with the dynamic mesh object, and the collision object is created in the dynamic object for interaction with the augmented object.
또한, 상기 이벤트생성모듈(257c)은 증강 객체에 생성된 충돌 객체와 동적 객체(메시 객체)에 생성된 충돌 객체가 서로 충돌하였는지를 판단하여 충돌될 경우에 증강 객체에 이벤트를 생성하게 되는 것이다.In addition, the
구체적으로 도 17에 도시한 바와 같이, 인터랙션 전 이미지(60), 인터랙션 이미지(61), 인터랙션 후 이미지(62)를 거치는 동작과 같이 실객체와 가상객체의 충돌이 발생(체험자가 가상의 펭귄과 접촉하는 행위)할 경우에 이벤트가 생성되는 것이다.Specifically, as shown in Fig. 17, when a collision occurs between a real object and a virtual object, such as an operation through the
도 10은 본 발명에 실시예에 따른 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템의 객체애니메이션생성부 블록도이다.FIG. 10 is a block diagram of an object animation generating unit of an experience cube system to which a space enhancing interactive engine capable of expanding a space according to an embodiment of the present invention is applied.
도 10에 도시한 바와 같이, 상기 객체애니메이션생성부(258)는,As shown in FIG. 10, the object
증강 객체의 이벤트를 획득하여 증강 객체에 해당되는 애니메이션을 생성하기 위한 애니메이션생성모듈(258a)과,An
상기 생성된 애니메이션이 동작하기 전에 주의의 가상 객체와 인식 공간의 충돌 객체와의 충돌 이벤트를 점검하기 위한 충돌이벤트점검모듈(258b)과,A collision
충돌되는 상황에 따라 생성된 애니메이션이 할당되어 연결되는 애니메이션할당모듈(258c)과,An
상기 연결된 애니메이션을 실행하여 가상의 객체가 움직일 수 있도록 하기 위한 애니메이션실행모듈(258d)을 포함하여 구성되게 된다.And an
구체적으로 설명하자면, 상기 애니메이션생성모듈(258a)을 통해 증강 객체의 이벤트를 획득하여 증강 객체에 해당되는 애니메이션을 생성하게 되는 것이다.Specifically, the animation corresponding to the augmented object is generated by acquiring the event of the augmented object through the
또한, 상기 충돌이벤트점검모듈(258b)은 생성된 애니메이션이 동작하기 전에 주의의 가상 객체와 인식 공간의 충돌 객체와의 충돌 이벤트를 점검하게 된다.In addition, the collision
상기 애니메이션할당모듈(258c)은 충돌되는 상황에 따라 생성된 애니메이션이 할당되어 연결되게 된다.The
이후, 상기 애니메이션실행모듈(258d)을 통해 상기 연결된 애니메이션을 실행하여 가상의 객체가 움직일 수 있도록 하는 것이다.Thereafter, the linked animation is executed through the
즉, 연결된 애니메이션을 실행하여 가상의 객체가 생명력을 가지고 움직일 수 있도록 하는 것이다.That is, you can execute linked animations so that virtual objects move with vitality.
상기와 같은 구성 및 동작을 통해, 동적객체(사용자)가 실시간으로 가상세계의 객체와 서로 상호작용할 수 있는 인터랙션 기술을 적용한 실감/체감형 전시영상을 통해 즐거움을 유발시키고 능동적으로 다양한 체험을 다수 체험객들에게 동시에 수행할 수 있는 효과를 제공하게 된다.Through the above-described configuration and operation, it is possible to create pleasure through a sensory / haptic exhibition image to which a dynamic object (user) can interact with an object of a virtual world in real time by applying an interaction technique, and actively provide various experiences And the like.
상기와 같은 내용의 본 발명이 속하는 기술분야의 당업자는 본 발명의 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시된 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다.
It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is to be understood, therefore, that the embodiments described above are to be considered in all respects as illustrative and not restrictive.
100 : 키넥트카메라
200 : 공간증강구현장치
400 : 스피커
1000 : 제1큐브
2000 : 제2큐브100: Kinect camera
200: space enhancement implement
400: Speaker
1000: 1st cube
2000: second cube
Claims (3)
체험큐브 내의 실공간을 인식하고, 체험객과 체험객의 움직임(제스처 및 포스처)를 인식하여 체험큐브에 구성된 공간증강인터랙티브엔진으로 제공하기 위한 키넥트카메라(100)와;
상기 키넥트카메라로부터 제공된 정보(실공간 인식 정보, 체험객 인식 정보, 체험객 움직임 인식 정보)를 획득하여 내장된 공간증강인터랙티브엔진(250)으로 제공하여 생성된 3차원 가상객체와 체험객 간의 인터랙션을 수행하기 위한 공간증강구현장치(200)와;
상기 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 영상 정보를 디스플레이시키기 위한 DID장치(300)와;
상기 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 음향 정보를 출력하기 위한 스피커(400);를 포함하여 구성되는 제1큐브(1000)와,
상기 제1큐브의 내부로부터 외부로 이동되어 공간을 확장시키기 위한 제2큐브(2000),를 포함하여 구성되되,
상기 공간증강인터랙티브엔진(250)은,
키넥트카메라(100)로부터 컬러 영상 및 깊이 영상 정보를 획득하기 위한 영상정보획득부(251)와;
상기 영상정보획득부에 의해 획득된 컬러 영상 및 깊이 영상 정보를 획득하여 컬러 영상과 깊이 영상을 보정하고, RGB 영상과 깊이 영상의 호모그래피(Homography)를 계산하여 키넥트카메라를 구성하고 있는 RGB카메라와 Depth 카메라의 시점을 동일하게 처리하기 위한 영상정합부(252)와;
정합된 영상을 획득하여 직선을 추출하여 추출된 직선을 통해 정합 영상에서의 공간 정보를 인식하여 공간, 정적, 동적 영역을 구분하되, 각 영역에서 특징점을 추출한 후, 각 영역의 특징점과 공간상에서의 위치 정보를 이용하여 영역이 나타내는 객체를 인식하여 동적 객체 정보를 저장하기 위한 동적객체인식부(253)와;
상기 인식된 동적 객체 영역의 깊이 영상을 이용하여 키넥트카메라로부터 추출한 스켈레톤 정보를 이용하여 동적 객체에 대한 위치 정보를 추출하기 위한 동적객체좌표추출부(254)와;
상기 동적 객체에 대한 위치 정보를 획득하여 연속 인식되는 객체 영역의 스켈레톤 정보를 추출하여 자세 변환을 추정하여 실시간 격자 메시를 생성하기 위한 동적객체메시출력부(255)와;
인식 공간에 대한 좌표를 추출하며 추출된 좌표를 기준으로 표면의 내부와 외부를 구분하여 표면을 형성하며, 형성된 표면에 가상의 객체를 증강하기 위한 증강객체생성부(256)와;
상기 증강 객체에 충돌 객체를 생성하며, 동적 객체에 충돌 객체를 생성하되, 상기 증강 객체 생성된 충돌 객체와 메시 객체에 생성된 충돌 객체가 서로 충돌하였는지를 판단하여 충돌이 발생하면 증강 객체에 이벤트를 생성하기 위한 증강객체이벤트생성부(257)와;
상기 증강 객체의 이벤트를 획득하여 증강 객체에 해당되는 애니메이션을 실행하기 위한 객체애니메이션생성부(258);를 포함하여 구성되는 것을 특징으로 하는 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템.
1. An experiential cube system to which a space enhancing interactive engine capable of expanding a space is applied,
A Kinect camera 100 for recognizing the actual space in the experience cubes and recognizing the movements (gestures and postures) of the visitors and the visitors, and providing them as the space enhancing interactive engine configured in the experience cubes;
Acquires information (real space recognition information, experiential recognition information, experiential motion recognition information) provided from the Kinect camera and provides it to the built-in space enhancement interactive engine 250 to perform interaction between the generated three-dimensional virtual object and the viewer A space enhancer 200 for implementing the space reinforcement;
A DID device 300 for displaying the interaction image information with the 3D virtual object according to the movement of the guest provided through the space enhancement device;
And a speaker (400) for outputting interaction sound information with a 3D virtual object according to a movement of a person provided through the space enhancement implementing device. The first cube (1000)
And a second cube (2000) for moving the interior of the first cube to the outside to expand the space,
The space-enhancing interactive engine 250,
An image information acquiring unit 251 for acquiring color image and depth image information from the Kinect camera 100;
The color image and the depth image obtained by the image information obtaining unit are acquired to correct the color image and the depth image, and the homography of the RGB image and the depth image is calculated to obtain the RGB camera An image matching unit 252 for processing the viewpoint of the Depth camera equally;
After extracting a straight line and extracting a straight line, the spatial information in the matching image is recognized through the extracted straight line to distinguish the spatial, static and dynamic regions. After extracting the feature points from each region, A dynamic object recognizing unit (253) for recognizing the object represented by the area using the positional information and storing the dynamic object information;
A dynamic object coordinate extraction unit 254 for extracting position information on the dynamic object using the skeleton information extracted from the Kinect camera using the depth image of the recognized dynamic object area;
A dynamic object mesh output unit (255) for acquiring position information on the dynamic object to extract skeleton information of the continuously recognized object region to generate a real time mesh mesh by estimating posture transformation;
An augmented object generation unit 256 for extracting the coordinates of the recognition space and separating the inside and the outside of the surface based on the extracted coordinates to form a surface and augmenting a virtual object on the surface formed;
A collision object is generated in the reinforcement object, a collision object is created in the dynamic object, and it is determined whether the collision object generated in the augmented object and the collision object generated in the mesh object are in conflict with each other. An augmented object event generation unit 257 for generating augmented object event;
And an object animation generation unit (258) for acquiring an event of the augmented object and executing an animation corresponding to the augmented object. The experiential cube system to which a space enhancement interactive engine capable of expanding a space is applied.
체험큐브 내의 실공간을 인식하고, 체험객과 체험객의 움직임(제스처 및 포스처)를 인식하여 체험큐브에 구성된 공간증강인터랙티브엔진으로 제공하기 위한 키넥트카메라(100)와;
상기 키넥트카메라로부터 제공된 정보(실공간 인식 정보, 체험객 인식 정보, 체험객 움직임 인식 정보)를 획득하여 내장된 공간증강인터랙티브엔진(250)으로 제공하여 생성된 3차원 가상객체와 체험객 간의 인터랙션을 수행하기 위한 공간증강구현장치(200)와;
상기 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 영상 정보를 디스플레이시키기 위한 DID장치(300)와;
상기 공간증강구현장치를 통해 제공된 체험객의 움직임에 따른 3차원 가상 객체와의 인터랙션 음향 정보를 출력하기 위한 스피커(400);를 포함하여 구성되는 제1큐브(1000)와,
상기 제1큐브의 내부로부터 외부로 이동되어 공간을 확장시키기 위한 제2큐브(2000),를 포함하여 구성되되,
상기 제2큐브(2000)는,
제1큐브의 크기보다 작게 구성하여 제1큐브의 내부에 보관되어 있도록 하되,
어느 일면에 체험객이 출입할 수 있도록 형성되는 출입문(2100)과,
어느 일면에 제1큐브에서 외부로 잡아당길 수 있도록 형성되는 확장큐브손잡이부(2200)와,
하면에 일정거리 이격되게 다수 형성되어 상기 확장큐브손잡이부를 통해 외부로 잡아당길 경우에 쉽게 제1큐브로부터 빠져나올 수 있도록 하기 위한 바퀴부(2300)를 포함하여 구성되는 것을 특징으로 하는 공간 확장이 가능한 공간증강 인터랙티브 엔진이 적용된 체험큐브 시스템.
1. An experiential cube system to which a space enhancing interactive engine capable of expanding a space is applied,
A Kinect camera 100 for recognizing the actual space in the experience cubes and recognizing the movements (gestures and postures) of the visitors and the visitors, and providing them as the space enhancing interactive engine configured in the experience cubes;
Acquires information (real space recognition information, experiential recognition information, experiential motion recognition information) provided from the Kinect camera and provides it to the built-in space enhancement interactive engine 250 to perform interaction between the generated three-dimensional virtual object and the viewer A space enhancer 200 for implementing the space reinforcement;
A DID device 300 for displaying the interaction image information with the 3D virtual object according to the movement of the guest provided through the space enhancement device;
And a speaker (400) for outputting interaction sound information with a 3D virtual object according to a movement of a person provided through the space enhancement implementing device. The first cube (1000)
And a second cube (2000) for moving the interior of the first cube to the outside to expand the space,
The second cube 2000 includes:
The size of the first cube is smaller than the size of the first cube so as to be stored in the first cube,
A door 2100 formed on one side so that visitors can enter and exit,
An expanding cube handle 2200 formed on one side so as to be pulled out from the first cube,
And a plurality of wheels 2300 spaced a predetermined distance apart from the first cube 2300 and configured to be able to escape from the first cube easily when being pulled out through the extension cube handle. Experimental cube system with space enhancement interactive engine.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160110682A KR101723828B1 (en) | 2016-08-30 | 2016-08-30 | Interactive Augmented space available space expansion engines experience applied Cube system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160110682A KR101723828B1 (en) | 2016-08-30 | 2016-08-30 | Interactive Augmented space available space expansion engines experience applied Cube system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101723828B1 true KR101723828B1 (en) | 2017-04-19 |
Family
ID=58705971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160110682A KR101723828B1 (en) | 2016-08-30 | 2016-08-30 | Interactive Augmented space available space expansion engines experience applied Cube system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101723828B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190062102A (en) * | 2017-11-27 | 2019-06-05 | 한국전자통신연구원 | Method and apparatus for operating 2d/3d augument reality technology |
US10417829B2 (en) | 2017-11-27 | 2019-09-17 | Electronics And Telecommunications Research Institute | Method and apparatus for providing realistic 2D/3D AR experience service based on video image |
WO2019245604A1 (en) * | 2018-06-19 | 2019-12-26 | Google Llc | Interaction system for augmented reality objects |
KR102282739B1 (en) * | 2020-12-30 | 2021-07-29 | 주식회사 버넥트 | Method and system for arranging and manipulating to augmented reality contemts in 3d space |
KR102609850B1 (en) * | 2023-07-28 | 2023-12-05 | 주식회사 앰버린 | Virtual reality-based audio and visual content production and exhibition systemsS |
-
2016
- 2016-08-30 KR KR1020160110682A patent/KR101723828B1/en active IP Right Grant
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190062102A (en) * | 2017-11-27 | 2019-06-05 | 한국전자통신연구원 | Method and apparatus for operating 2d/3d augument reality technology |
US10417829B2 (en) | 2017-11-27 | 2019-09-17 | Electronics And Telecommunications Research Institute | Method and apparatus for providing realistic 2D/3D AR experience service based on video image |
KR102067823B1 (en) * | 2017-11-27 | 2020-01-17 | 한국전자통신연구원 | Method and apparatus for operating 2d/3d augument reality technology |
WO2019245604A1 (en) * | 2018-06-19 | 2019-12-26 | Google Llc | Interaction system for augmented reality objects |
KR102282739B1 (en) * | 2020-12-30 | 2021-07-29 | 주식회사 버넥트 | Method and system for arranging and manipulating to augmented reality contemts in 3d space |
US11348327B1 (en) | 2020-12-30 | 2022-05-31 | VIRNECT inc. | Method and system for arranging and manipulating to augmented reality contents in 3D space |
KR102609850B1 (en) * | 2023-07-28 | 2023-12-05 | 주식회사 앰버린 | Virtual reality-based audio and visual content production and exhibition systemsS |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101723823B1 (en) | Interaction Implementation device of Dynamic objects and Virtual objects for Interactive Augmented space experience | |
KR101723828B1 (en) | Interactive Augmented space available space expansion engines experience applied Cube system | |
JP6501017B2 (en) | Image processing apparatus, program, image processing method and image processing system | |
US9665988B2 (en) | Systems and methods for data visualization using three-dimensional displays | |
CN105981076B (en) | Synthesize the construction of augmented reality environment | |
EP2775454B1 (en) | Moving-image processing device, moving-image processing method, and information recording medium | |
KR20190110227A (en) | Apparatus and method for generating synthetic learning data for motion recognition | |
CN104574515B (en) | Method, device and terminal that a kind of three-dimensional body is rebuild | |
KR20180020725A (en) | Contents authoring tool for augmented reality based on space and thereof method | |
JP2018045663A (en) | Display control device, display control program, display system and display control method | |
US20180286130A1 (en) | Graphical image augmentation of physical objects | |
Raajan et al. | Augmented reality based virtual reality | |
CN112561071A (en) | Object relationship estimation from 3D semantic mesh | |
Fischbach et al. | smARTbox: out-of-the-box technologies for interactive art and exhibition | |
WO2023120770A1 (en) | Method and apparatus for interaction between cognitive mesh information generated in three-dimensional space and virtual objects | |
KR102388715B1 (en) | Apparatus for feeling to remodeling historic cites | |
Kotthäuser et al. | Validating vision and robotic algorithms for dynamic real world environments | |
Engel et al. | An immersive visualization system for virtual 3d city models | |
Jamroz | Multidimensional labyrinth–multidimensional virtual reality | |
KR20180122248A (en) | Apparatus for providing interactive content and method for the same | |
WO2015030623A1 (en) | Methods and systems for locating substantially planar surfaces of 3d scene | |
KR101526049B1 (en) | Virtual ecology park visualization system | |
WO2023119715A1 (en) | Video generation method and image generation program | |
Beimler et al. | Immersive guided tours for virtual tourism through 3D city models | |
US20220335675A1 (en) | Physical phenomena expressing method for expressing the physical phenomeana in mixed reality, and mixed reality apparatus that performs the method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20200120 Year of fee payment: 4 |