KR20130068575A - Method and system for providing interactive augmented space - Google Patents
Method and system for providing interactive augmented space Download PDFInfo
- Publication number
- KR20130068575A KR20130068575A KR1020110135858A KR20110135858A KR20130068575A KR 20130068575 A KR20130068575 A KR 20130068575A KR 1020110135858 A KR1020110135858 A KR 1020110135858A KR 20110135858 A KR20110135858 A KR 20110135858A KR 20130068575 A KR20130068575 A KR 20130068575A
- Authority
- KR
- South Korea
- Prior art keywords
- augmented
- space
- augmented content
- content
- interactive
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 증강 현실 기술에 관한 것으로, 더욱 상세하게는, 실 공간을 인터랙티브한 증강 현실 공간으로 사용하는 인터랙티브 증강 공간 디스플레이 서비스를 제공하기 위한 방법 및 시스템에 관한 것이다.The present invention relates to augmented reality technology, and more particularly, to a method and system for providing an interactive augmented space display service using the real space as an interactive augmented reality space.
증강현실(Augmented Reality) 기술이란 컴퓨터 그래픽 기술을 사용하여 현실과 유사한 또는 현실과 동떨어진 가상의 공간을 생성하는 가상 현실(Virtual Reality) 기술에서 파생된 기술 분야로써, 현실 공간(Reality)과 가상 공간을 일치화시켜, 현실에 가상의 물체를 합성하여 그 합성된 가상의 물체가 원래 현실 공간에 존재하는 것처럼 보이도록 하는 기술을 말한다. Augmented Reality technology is a field of technology derived from Virtual Reality technology that uses computer graphics technology to create virtual spaces that are similar or distant from reality. It is a technique of synthesizing a virtual object to reality so that the synthesized virtual object appears to exist in the original real space.
그래픽스 기술의 발전으로 현실보다 더 현실 같은 가상 공간을 생성하지만, 이질감이 느껴지는 가상 현실 기술과는 달리, 증강 현실 기술은 현실 공간 위에 가상의 물체를 합성하여 중첩하여 보여주므로, 이질감이 적을 뿐 아니라, 현실 공간에서는 얻을 수 없는 부가적인 정보나 가상의 물체를 증강하여 현실 공간을 콘텐츠의 목적에 맞는 공간으로 보강할 수 있는 특징이 있다. The development of graphics technology creates more realistic virtual spaces than reality, but unlike virtual reality technology, where a sense of heterogeneity is felt, augmented reality technology synthesizes and displays virtual objects on the real space, so it is not only heterogeneous. By reinforcing additional information or virtual objects not obtained in the real space, the real space can be reinforced with a space suitable for the purpose of the content.
그러나, 위와 같은 장점에도 불구하고 그 동안 대부분의 증강 현실 기술은 모니터, 프로젝터와 같은 디스플레이 장치를 이용해 카메라로부터 입력되는 현실의 영상에 가상의 콘텐츠를 중첩시켜 화면에 보여주는 기술이 주류를 이루고 있어, 증강 현실 기술만의 장점인 현실감과 몰입감이 경감되는 단점이 있다. However, in spite of the above advantages, most augmented reality technologies have been used to display virtual screens by overlaying virtual contents on the images of reality input from cameras using display devices such as monitors and projectors. There is a disadvantage in that reality and immersion, which are advantages of reality technology, are alleviated.
다른 방법으로, 헬멧 및 안경 타입의 HMD(Head Mounted Display)장비를 이용해 증강 현실 기술을 구현하는 방법이 있다. 그러나 이 방법은 무겁고 큰 장비를 얼굴에 써야 하는 부담감과, 시야가 제한된다는 점, 전력 공급 및 데이터 전송 케이블로 인한 이동성의 제약, 그리고 비용이 많이 소모된다는 문제점이 있다. Alternatively, there is a method of implementing augmented reality technology using a helmet and glasses-type head mounted display (HMD) equipment. However, this method suffers from the burden of heavy and large equipment on the face, limited visibility, limited mobility due to power supply and data transmission cables, and high cost.
본 발명은 실제 공간을 인식하여 인식된 공간에 증강 콘텐츠를 직접 중첩시키고, 증강 콘텐츠와 사용자와의 인터랙션을 할 수 있는 인터랙티브 증강 공간 제공 방법 및 시스템을 제공한다. The present invention provides an interactive augmented space providing method and system capable of directly superimposing augmented content in a recognized space by recognizing a real space and interacting with the augmented content and a user.
일 측면에 따른 인터랙티브 증강 공간 제공 방법은, 뎁스 영상 및 2차원 컬러 영상을 획득하는 단계와, 뎁스 영상으로부터 3D 포인트 클라우드 맵을 생성하는 단계와, 2차원 컬러 영상을 분석하여 3D 포인트 클라우드 맵으로부터 3D 모델을 추정하여 3D 폴리곤 맵을 구성하는 단계와, 증강 콘텐츠가 투영될 실 공간의 객체를 추적하는 단계와, 추적된 실 공간의 객체에 증강 콘텐츠를 투영하여 증강 콘텐츠를 제공하는 단계와, 증강 콘텐츠에 대한 실 공간의 사용자와의 인터랙션을 제공하는 단계를 포함한다. According to one or more exemplary embodiments, a method for providing an interactive augmented space includes: obtaining a depth image and a 2D color image, generating a 3D point cloud map from the depth image, and analyzing the 2D color image to 3D from the 3D point cloud map Estimating a model to construct a 3D polygon map, tracking an object in the real space to which the augmented content is projected, providing augmented content by projecting the augmented content to the tracked object in the real space, and Providing an interaction with a user of the real space for.
본 발명에 의하면 현실 공간을 실시간으로 인식하여 현실 공간을 증강 공간 디스플레이 공간으로 이용하여 현실감과 몰입감을 극대화할 수 있다. 또한, 공간 인식 외에 사용자 인식을 통해 증강 콘텐츠와 사용자가 인터랙션을 할 수 있고, 인터랙션의 결과를 사용자의 시선변화 없이 바로 확인하게 할 수 있다. According to the present invention it is possible to maximize the realism and immersion by using the real space as an augmented space display space by recognizing the real space in real time. In addition, the user may interact with augmented content through user recognition in addition to spatial recognition, and may immediately check the result of the interaction without changing the user's gaze.
도 1은 본 발명의 일 실시예에 따른 인터랙티브 증강 공간 제공 시스템의 구성을 나타내는 블록도이다.
도 2는 본 발명의 인터랙티브 증강 공간 제공 시스템이 제공되는 환경의 일 예를 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 인터랙티브 증강 공간 제공 방법을 나타내는 순서도이다.
도 4는 본 발명의 일 실시예에 따른 증강 콘텐츠에 대한 사용자 인터랙션 과정을 나타내는 순서도이다. 1 is a block diagram showing the configuration of an interactive augmented space providing system according to an embodiment of the present invention.
2 is a diagram illustrating an example of an environment in which an interactive augmented space providing system of the present invention is provided.
3 is a flowchart illustrating a method for providing an interactive augmented space according to an embodiment of the present invention.
4 is a flowchart illustrating a user interaction process for augmented content according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시예를 상세하게 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the terms described below are defined in consideration of the functions of the present invention, and this may vary depending on the intention of the user, the operator, or the like. Therefore, the definition should be based on the contents throughout this specification.
도 1은 본 발명의 일 실시예에 따른 증강 공간 제공 시스템의 구성을 나타내는 블록도이다. 1 is a block diagram showing the configuration of an augmented space providing system according to an embodiment of the present invention.
인터랙티브 증강 공간 제공 시스템(100)은 뎁스 영상 획득부(110), 영상 획득부(120), 제어부(130), 저장부(140) 및 투영부(150)를 포함한다. The interactive augmented
뎁스 영상 획득부(110)는 촬상된 객체에 대한 거리 정보를 포함하는 뎁스(depth) 영상을 촬영한다. 뎁스 영상 획득부(110)는 실 공간에 대한 뎁스 영상을 얻기 위하여 실 공간의 여러 위치에 설치된 복수의 뎁스 카메라를 포함하여 구성될 수 있다. The depth image acquirer 110 photographs a depth image including distance information about the photographed object. The depth
영상 획득부(120)는 2차원의 컬러 영상을 촬영한다. 2차원의 컬러 영상은 RGB 영상일 수 있다. The
제어부(130)는 실 공간상의 특정 객체에 증강 콘텐츠를 제공하고, 사용자가 증강 콘텐츠와 인터랙션할 수 있도록 뎁스 영상 획득부(110), 영상 획득부(120), 저장부(140) 및 투영부(150)의 동작을 제어한다. The
저장부(140)는 제어부(130)의 동작에 이용되는 다양한 데이터를 저장한다. 저장부(140)는 투영부(150)를 통해 복수의 증강 콘텐츠를 생성하는데 이용되는 데이터, 증강 콘텐츠가 투영될 대상 객체에 대응하는 원시적 3차원 모델 데이터, 실 공간의 사람 인식에 이용되는 사용자 객체 정보 등을 저장할 수 있다. 증강 콘텐츠는 캐릭터, 공과 같은 3차원 형상의 물체 등 다양한 형태를 가질 수 있다. The
투영부(150)는 제어부(130)의 실 공간 인식 및 매칭 결과에 따라 증강 콘텐츠를 실 공간의 특정 객체상에 투영한다. 또한, 투영부(150)는 제어부(130)의 휴먼 인터랙션 결과를 분석하여 증강 콘텐츠를 실 공간의 특정 대상 객체상에 투영할 수 있다. 투영부(150)는 실 공간상의 여러 위치에 설치되는 복수의 프로젝터를 포함할 수 있다. The
제어부(130)는 뎁스 영상 획득부(110)로부터 뎁스 영상을 수신하고, 영상 획득부(120)로부터 2차원 영상을 획득한다. 제어부(130)는 뎁스 영상을 이용하여 실 환경에 대응하는 3D 포인트 클라우드 맵을 구축한다. 제어부(130)는 뎁스 영상 획득부(110)에 포함된 복수의 뎁스 카메라로부터 입력되는 복수의 뎁스 영상을 각 뎁스 카메라의 위치 및 방향에 따라 통합하여 3D 포인트 클라우드 맵을 생성할 수 있다. The
그런 다음, 제어부(130)는 3D 포인트 클라우드 맵상의 3D 점들을 그룹지어 3D 폴리곤 맵을 생성한다. 폴리곤은 3차원 컴퓨터 그래픽에서 입체 형상을 표현하는 가장 작은 단위인 다각형을 가리킨다. 제어부(130)는 2차원 컬러 영상에서 동일한 컬러의 폴리곤들까지 묶는 방법으로 3D 폴리곤 맵을 추정하여 구성할 수 있다. Then, the
그런 다음, 제어부(130)는 미리 설정된 소정의 원시적 3D 모델 데이터와 실 환경에 대응하는 구성된 3D 폴리곤 맵을 매칭하여, 증강 콘텐츠가 증강될 실 공간의 대상 물체를 인식하고 추적한다. 미리 설정된 원시적 3D 모델 데이터는 증강 콘텐츠가 증강될 실 공간의 대상 물체를 추적하는데 이용되는 데이터로, 사면체, 육면체와 같은 다면체와 원기둥, 구, 평면과 같은 복잡하지 않은 원시적인 도형에 대응하는 정보로 구성될 수 있다. 미리 설정된 원시적 3D 모델 데이터는 각 꼭지점의 3D 좌표, 높이, 너비 등의 기하학적 데이터 및 도형의 어느 면에 콘텐츠가 투영될지에 대한 정보를 포함할 수 있다. 예를 들어, 원시적 3D 모델 데이터는 육면체에 대한 기하학적 데이터 및 콘텐츠의 투영면이 육면체의 상면임을 나타내는 정보로 구성될 수 있다. Then, the
제어부(130)는 3D 폴리곤 맵에서 추정한 모든 3D 모델에 대해 미리 설정된 원시적 3D 모델 데이터와의 1)기하학적 구조의 유사성, 2)추정된 3D 모델에 증강 콘텐츠가 투영될 면들이 존재하는지 여부 및 추정된 3D 모델의 증강 콘텐츠가 투영될 면과 원시적 3D 모델 데이터의 증강 콘텐츠가 투영될 면 사이의 상관 관계를 수치화한 후, 1), 2)의 가중치 합을 계산해 유사도를 측정하고, 가장 높은 유사도를 갖는 3D 모델을 매칭하여 선정하고, 선정된 3D 모델의 위치 및 자세를 추적할 수 있다. 그 후, 제어부(130)는 추적된 3D 모델에 해당하는 실 공간의 대상 객체에 증강 콘텐츠를 투영하여 증강 콘텐츠를 제공하도록 투영부(150)를 제어할 수 있다. The
이와 같은 구성에 의해, 인터랙티브 증강 공간 제공 시스템(100)은 증강 콘텐츠가 제공되는 실 공간 및 증강 콘텐츠가 투영될 실 공간상의 대상 물체(예를 들어, 책상)에 대한 3D 모델 데이터를 미리 구축하는 등의 사전 학습 없이도, 미리 설정된 원시적 3D 모델 데이터를 이용하여 증강 콘텐츠가 투영될 실 공간의 대상 물체를 추적할 수 있다. 또한, 원시적 3D 모델 데이터는 어느 면에 콘텐츠가 투영될지에 대한 정보를 포함함으로써, 증강 콘텐츠가 투영될 대상 물체의 위치를 특정할 수 있으므로, 증강 콘텐츠 제작 및 제공에 편의를 제공할 수 있다. By such a configuration, the interactive augmented
또한, 제어부(130)는 증강 콘텐츠에 대한 실 공간의 사용자와의 인터랙션을 제공하도록 동작한다. 제어부(130)는 3D 폴리곤 맵에서 증강 콘텐츠와 인터랙션을 수행하는 사용자를 인식하고, 인식된 사람의 각 신체 부위를 인식하고 인식된 각 신체 부위를 추적할 수 있다. 인터랙티브 증강 공간 제공 시스템(100)은 미리 설정된 사람의 3차원 형상을 나타내는 객체 데이터와 매칭되는 데이터를 3D 폴리곤 맵에서 추출함으로써 사용자 및 사용자의 각 신체 부위를 인식하고 추적할 수 있다. In addition, the
제어부(130)는 뎁스 영상 획득부(110) 및 영상 획득부(120)로부터 입력되는 뎁스 영상 및 2차원 컬러 영상을 이용하여 추적된 각 신체 부위의 움직임을 분석하여 증강 콘텐츠와의 인터랙션 동작을 인식할 수 있다. 사용자의 인터랙션 동작은 예를 들어, 사용자가 손을 올리는 동작, 흔드는 동작, 증강 콘텐츠를 터치하는 동작 등 다양할 수 있다. The
제어부(130)는 인식된 인터랙션 동작을 증강 콘텐츠에 반영하고, 반영된 증강 콘텐츠를 투영부(150)를 통해 실 공간에 투영할 수 있다. 예를 들어, 제어부(130)는 인식된 인터랙션 동작에 따라서 증강 콘텐츠를 다른 콘텐츠로 변경하거나, 현재 제공중인 증강 콘텐츠를 변형시킬 수 있다. 이와 같은 방법으로, 인터랙티브 증강 공간 제공 시스템(100)은 사용자가 증강 콘텐츠와 인터랙션을 수행하도록 할 수 있다. The
도 2는 본 발명의 인터랙티브 증강 공간 제공 시스템이 제공되는 환경의 일 예를 나타내는 도면이다. 2 is a diagram illustrating an example of an environment in which an interactive augmented space providing system of the present invention is provided.
도 2에 도시된 바와 같이, 실내 공간(10)에 다수의 프로젝터(150-1, 150-2)와 도 1의 뎁스 영상 획득부(110) 및 영상 획득부(120)를 포함하는 카메라 장치(110 및 120)가 설치된다. 하나의 카메라 장치(110 및 120)가 도시되어 있으나, 실내 공간(10)의 여러 위치에 카메라 장치(110 및 120)가 설치될 수 있다. 실내 공간(10)에는 증강 콘텐츠를 증강시킬 대상 물체가 존재한다. 증강 콘텐츠가 증강될 대상 물체는 벽, 바닥, 책상, 박스 등일 수 있다. 예를 들어, 도 2의 책상(30)이 증강 콘텐츠가 증강될 대상 물체가 될 수 있다. 사용자(20)는 다수의 프로젝터(150-1, 150-2)에 의해 책상(30)에 투영되는 증강 콘텐츠와 인터랙션을 수행할 수 있다. As shown in FIG. 2, a camera apparatus including a plurality of projectors 150-1 and 150-2, a
도 3은 본 발명의 일 실시예에 따른 인터랙티브 증강 공간 제공 방법을 나타내는 순서도이다. 3 is a flowchart illustrating a method for providing an interactive augmented space according to an embodiment of the present invention.
인터랙티브 증강 공간 제공 시스템(100)은 뎁스 영상 및 2차원 컬러 영상을 획득한다(310). The interactive augmented
인터랙티브 증강 공간 제공 시스템(100)은 획득한 뎁스 영상으로부터 3D 포인트 클라우드 맵을 생성한다(320). The interactive augmented
인터랙티브 증강 공간 제공 시스템(100)은 2차원 컬러 영상을 분석하여 연속된 3D 포인트 클라우드들을 폴리곤(polygon)으로 묶고, 폴리곤들을 이용하여 같은 모델에 속한 폴리곤들을 묶어 3D 모델을 추정하여 3D 폴리곤 맵을 구성한다(330). The interactive augmented
인터랙티브 증강 공간 제공 시스템(100)은 증강 콘텐츠가 투영될 실 공간의 대상 객체를 인식하고 추적한다(340). 인터랙티브 증강 공간 제공 시스템(100)은 3D 폴리곤 맵으로부터 미리 지정한 증강 콘텐츠가 투영될 대상 객체에 대응하는 원시적 3D 모델 데이터와 가장 유사하거나, 증강 콘텐츠를 투영하기에 적절한 3D 모델(예를 들어, 평평한 면을 가지는 벽면이나, 바닥면에 대응하는 3D 모델)을 찾아 매칭할 수 있다. The interactive augmented
인터랙티브 증강 공간 제공 시스템(100)은 증강 콘텐츠가 투영될 물체의 위치가 추적이 되면, 콘텐츠의 요소가 투영될 적절한 면들을 찾고, 그 대상 면들에 맞게 콘텐츠를 변화하여 사용자가 어색함을 느끼지 않게 실 공간의 추적된 객체상에 증강 콘텐츠를 투영한다(350). 인터랙티브 증강 공간 제공 시스템(100)은 인식된 대상 물체를 실 공간에서 계속하여 추적하여, 인식된 대상 물체가 위치가 이동하거나, 자세가 변화하더라도 위치와 자세를 추적하고, 추적된 대상 물체상에 증강 콘텐츠를 투영할 수 있다. When the position of the object on which the augmented content is to be projected is tracked, the interactive augmented
인터랙티브 증강 공간 제공 시스템(100)은 투영된 증강 콘텐츠에 대한 사용자 인터랙션을 제공한다(360). The interactive augmented
도 4는 본 발명의 일 실시에에 따른 증강 콘텐츠에 대한 사용자 인터랙션 과정을 나타내는 순서도이다. 4 is a flowchart illustrating a user interaction process for augmented content according to an embodiment of the present invention.
공간 증강 디스플레이 시스템(100)은 뎁스 영상 및 2차원 컬러 영상을 실시간으로 연속하여 획득함에 따라, 도 3을 참조하여 설명한 바와 동작 320, 330, 340 및 350을 계속하여 실행하고 있다고 가정한다. As the spatial
인터랙티브 증강 공간 제공 시스템(100)은 3D 폴리곤 맵에서 증강 콘텐츠와 인터랙션을 수행할 사용자를 인식한다(410). The interactive augmented
인터랙티브 증강 공간 제공 시스템(100)은 인식된 사람의 각 신체 부위를 인식하고 인식된 각 신체 부위를 추적한다(420). 인터랙티브 증강 공간 제공 시스템(100)은 미리 설정된 사람의 3차원 형상을 나타내는 객체 데이터와 매칭되는 데이터를 3D 폴리곤 맵에서 추출함으로써 사용자 및 사용자의 각 신체 분위를 인식할 수 있다. The interactive augmented
인터랙티브 증강 공간 제공 시스템(100)은 추적된 각 신체 부위의 움직임을 분석하여 가상 객체와의 인터랙션 동작을 인식한다(430). The interactive augmented
인터랙티브 증강 공간 제공 시스템(100)은 인식된 인터랙션 동작을 증강 콘텐츠에 반영하고, 반영된 증강 콘텐츠를 실 공간에 프로젝터들을 이용하여 투영한다(440). 이와 같은 방법으로, 인터랙티브 증강 공간 제공 시스템(100)은 사용자가 증강 콘텐츠와 인터랙션을 수행하도록 할 수 있다. The interactive augmented
본 발명의 일 양상은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있다. 상기의 프로그램을 구현하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 디스크 등을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.One aspect of the present invention may be embodied as computer readable code on a computer readable recording medium. The code and code segments implementing the above program can be easily deduced by a computer programmer in the field. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical disk, and the like. The computer-readable recording medium may also be distributed over a networked computer system and stored and executed in computer readable code in a distributed manner.
이상의 설명은 본 발명의 일 실시예에 불과할 뿐, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 본질적 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현할 수 있을 것이다. 따라서, 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허 청구범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. Therefore, the scope of the present invention should not be limited to the above-described embodiments, but should be construed to include various embodiments within the scope of the claims.
Claims (1)
뎁스 영상으로부터 3D 포인트 클라우드 맵을 생성하는 단계;
2차원 컬러 영상을 분석하여 3D 포인트 클라우드 맵으로부터 3D 모델을 추정하여 3D 폴리곤 맵을 구성하는 단계;
증강 콘텐츠가 투영될 실 공간의 객체를 추적하는 단계;
상기 추적된 실 공간의 객체에 증강 콘텐츠를 투영하여 증강 콘텐츠를 제공하는 단계; 및
증강 콘텐츠에 대한 실 공간의 사용자와의 인터랙션을 제공하는 단계; 를 포함하는 것을 특징으로 하는 인터랙티브 증강 공간 제공 방법. Obtaining a depth image and a two-dimensional color image;
Generating a 3D point cloud map from a depth image;
Analyzing the two-dimensional color image to estimate the 3D model from the 3D point cloud map to construct a 3D polygon map;
Tracking the object in the real space in which the augmented content is to be projected;
Providing augmented content by projecting augmented content to the tracked real space object; And
Providing an interaction with a user of the real space for the augmented content; Interactive augmented space providing method comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110135858A KR20130068575A (en) | 2011-12-15 | 2011-12-15 | Method and system for providing interactive augmented space |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110135858A KR20130068575A (en) | 2011-12-15 | 2011-12-15 | Method and system for providing interactive augmented space |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20130068575A true KR20130068575A (en) | 2013-06-26 |
Family
ID=48864172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110135858A KR20130068575A (en) | 2011-12-15 | 2011-12-15 | Method and system for providing interactive augmented space |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20130068575A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160034513A (en) * | 2014-09-19 | 2016-03-30 | 한국전자통신연구원 | Apparatus and method for implementing immersive augmented reality with RGB-D data |
KR20160079941A (en) | 2014-12-09 | 2016-07-07 | 주식회사어린이상상연구소 | System for overlapping of contents |
WO2016204334A1 (en) * | 2015-06-19 | 2016-12-22 | (주)블루클라우드 | Exercise system based on immersive interactive contents and method therefor |
KR20170001130A (en) * | 2015-06-25 | 2017-01-04 | 삼성중공업 주식회사 | Apparatus for inspecting protrusion of outfittings |
KR20170081964A (en) | 2016-01-05 | 2017-07-13 | 한국전자통신연구원 | Augmented Reality device based on recognition spacial structure and method thereof |
CN106973569A (en) * | 2014-05-13 | 2017-07-21 | Pcp虚拟现实股份有限公司 | Generation and the playback multimedia mthods, systems and devices of virtual reality |
WO2018004154A1 (en) * | 2016-06-30 | 2018-01-04 | 재단법인 실감교류인체감응솔루션연구단 | Mixed reality display device |
CN111148967A (en) * | 2017-09-29 | 2020-05-12 | 松下电器(美国)知识产权公司 | Three-dimensional data creation method, client device, and server |
-
2011
- 2011-12-15 KR KR1020110135858A patent/KR20130068575A/en not_active Application Discontinuation
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106973569A (en) * | 2014-05-13 | 2017-07-21 | Pcp虚拟现实股份有限公司 | Generation and the playback multimedia mthods, systems and devices of virtual reality |
KR20160034513A (en) * | 2014-09-19 | 2016-03-30 | 한국전자통신연구원 | Apparatus and method for implementing immersive augmented reality with RGB-D data |
KR20160079941A (en) | 2014-12-09 | 2016-07-07 | 주식회사어린이상상연구소 | System for overlapping of contents |
WO2016204334A1 (en) * | 2015-06-19 | 2016-12-22 | (주)블루클라우드 | Exercise system based on immersive interactive contents and method therefor |
KR20170001130A (en) * | 2015-06-25 | 2017-01-04 | 삼성중공업 주식회사 | Apparatus for inspecting protrusion of outfittings |
KR20170081964A (en) | 2016-01-05 | 2017-07-13 | 한국전자통신연구원 | Augmented Reality device based on recognition spacial structure and method thereof |
US9892323B2 (en) | 2016-01-05 | 2018-02-13 | Electronics And Telecommunications Research Institute | Augmented reality device based on recognition of spatial structure and method thereof |
WO2018004154A1 (en) * | 2016-06-30 | 2018-01-04 | 재단법인 실감교류인체감응솔루션연구단 | Mixed reality display device |
CN111148967A (en) * | 2017-09-29 | 2020-05-12 | 松下电器(美国)知识产权公司 | Three-dimensional data creation method, client device, and server |
CN111148967B (en) * | 2017-09-29 | 2024-03-08 | 松下电器(美国)知识产权公司 | Three-dimensional data creation method, client device, and server |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7209777B2 (en) | Surface modeling system and method | |
KR20130068575A (en) | Method and system for providing interactive augmented space | |
KR102069964B1 (en) | Virtual reality-based apparatus and method to generate a three dimensional(3d) human face model using image and depth data | |
EP2671210B1 (en) | Three-dimensional environment reconstruction | |
JP5773944B2 (en) | Information processing apparatus and information processing method | |
EP1883052B1 (en) | Generating images combining real and virtual images | |
KR101135186B1 (en) | System and method for interactive and real-time augmented reality, and the recording media storing the program performing the said method | |
US9041775B2 (en) | Apparatus and system for interfacing with computers and other electronic devices through gestures by using depth sensing and methods of use | |
Tian et al. | Handling occlusions in augmented reality based on 3D reconstruction method | |
CN105190703A (en) | Using photometric stereo for 3D environment modeling | |
KR101556992B1 (en) | 3d scanning system using facial plastic surgery simulation | |
Wither et al. | Pictorial depth cues for outdoor augmented reality | |
JP2023532285A (en) | Object Recognition Neural Network for Amodal Center Prediction | |
JP7006810B2 (en) | 3D measuring device, mobile robot, push wheel type moving device and 3D measurement processing method | |
EP3980975B1 (en) | Method of inferring microdetail on skin animation | |
Petit et al. | Virtualization gate | |
KR101360388B1 (en) | Devices and Methods for tracking multiple 3D object using coupled CAD model | |
WO2023120217A1 (en) | Information processing device, information processing method, and program | |
WO2021166751A1 (en) | Information-processing device, information-processing method, and computer program | |
CN117369233A (en) | Holographic display method, device, equipment and storage medium | |
JP2024506299A (en) | Scene understanding using occupancy grids | |
Welch et al. | A Projector-based Physical Sand Table for Tactical Planning and Review | |
Cortes Reina | Depth assisted composition of synthetic and real 3d scenes | |
Weise | MEng Computing Individual Project Accurate Real-time Hand Tracking for Manipulation of Virtual Objects Outsourcing Report |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |