KR100661052B1 - 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법 - Google Patents

유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법 Download PDF

Info

Publication number
KR100661052B1
KR100661052B1 KR1020060084369A KR20060084369A KR100661052B1 KR 100661052 B1 KR100661052 B1 KR 100661052B1 KR 1020060084369 A KR1020060084369 A KR 1020060084369A KR 20060084369 A KR20060084369 A KR 20060084369A KR 100661052 B1 KR100661052 B1 KR 100661052B1
Authority
KR
South Korea
Prior art keywords
content
event
data
virtual reality
spatial
Prior art date
Application number
KR1020060084369A
Other languages
English (en)
Inventor
김근표
현상무
Original Assignee
(주)큐텔소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)큐텔소프트 filed Critical (주)큐텔소프트
Priority to KR1020060084369A priority Critical patent/KR100661052B1/ko
Application granted granted Critical
Publication of KR100661052B1 publication Critical patent/KR100661052B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06QDATA PROCESSING SYSTEMS OR METHODS, SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL, SUPERVISORY OR FORECASTING PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL, SUPERVISORY OR FORECASTING PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Abstract

본 발명은 다양한 가상현실 구현기술을 통합적으로 구현 및 서비스할 수 있는 솔루션을 제공하고, 실제 공간의 온도, 조도, 습도 등의 환경정보와, 콘텐츠들의 동작 상태를 가상현실에서 실시간으로 표현할 수 있는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 구현에 관한 것이다. 이를 위해 원시데이터로부터 3차원 콘텐츠들을 생성하는 가상현실 콘텐츠 생성부; 상기 콘텐츠들의 변동 상태를 검출하는 이벤트 검출부; 상기 이벤트 검출부로부터 검출된 상기 실제 공간의 환경 상태 및 변동 상태를 3차원의 이벤트 콘텐츠로 생성하는 이벤트 콘텐츠 생성부; 상기 가상현실 콘텐츠 생성부로부터 생성된 콘텐츠들과, 이벤트 콘텐츠 생성부로부터 생성된 상기 이벤트 콘텐츠를 저장하고, 상기 콘텐츠들을 로컬 또는 웹상에서 제공되도록 하는 콘텐츠 관리부; 및 상기 콘텐츠 관리부로부터 제공되는 상기 콘텐츠들이 디스플레이 되도록 뷰어 프로그램을 갖는 사용자 단말기를 포함한다. 따라서 실제 공간을 모델로 이용하여 구현된 가상현실공간의 환경이나 콘텐츠들의 변동 상태를 실시간으로 제공함으로써 현장의 생동감을 사용자에게 제공할 수 있는 장점이 있다.
3차원, 가상현실, 유비쿼터스, 콘텐츠, 이벤트, 센서

Description

유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템 및 구현 방법{System and method for realizing virtual reality contents of 3-dimension using ubiquitous sensor network}
도 1 은 본 발명에 따른 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템의 구성을 나타낸 블록도.
도 2 는 도 1의 가상현실 콘텐츠 생성부 구성을 나타낸 블록도.
도 3 은 도 1의 이벤트 콘텐츠 생성부 구성을 나타낸 블록도.
도 4 는 도 1의 사용자 단말기에 사용자 뷰어의 설치를 위한 시스템 구성을 나타낸 블록도.
도 5 는 본 발명에 따른 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 방법을 나타낸 흐름도.
도 6 은 도 5의 이벤트 데이터를 이용한 콘텐츠 구현 방법을 나타낸 흐름도.
(도면의 주요 부분에 대한 부호의 설명)
100: 데이터 변환부 200: 가상현실 콘텐츠 생성부
210: VRML 생성부 220: 실사 콘텐츠 생성부
230: 데이터 저장부 300: 가상현실 콘텐츠 관리부
310: 3D 콘텐츠 관리부 320: 뷰어 데이터 설치부
400: 사용자 단말기 410: 인터넷 익스플로어
420: 임시 폴더 500: 이벤트 검출부
510: 센서부 1 511: 센서부 n
520: 이벤트 데이터 송신부 600: 이벤트 콘텐츠 생성부
610: 이벤트 데이터 수신부 620: 이벤트 콘텐츠 관리부
630: HTML 생성부
본 발명은 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠의 구현에 관한 것으로서, 더욱 상세하게는 다양한 가상현실 구현기술을 통합적으로 구현 및 서비스할 수 있는 솔루션을 제공하고, 실제 공간의 온도, 조도, 습도 등의 환경정보와, 콘텐츠들의 동작 상태를 가상현실에서 실시간으로 표현할 수 있는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 구현에 관한 것이다.
일반적으로, VRML(Virtual Reality Modeling Language : 가상현실 모델링 언어) 코드는 인터넷 기반 3차원 입체 영상을 구현하기 위하여 만들어진 3차원 영상 구현 프로그래밍 언어로서, HTML 코드와 마찬가지로 정보를 표현하는 언어이다.
즉, VRML 코드는 사용자(클라이언트)와의 상호 작용이 가능한 3차원 이미지 장면 등을 묘사하기 위한 언어로서, 이를 이용하면 3차원 화면에서 오브젝트를 사용자가 보고, 움직이고, 돌리고, 상호 작용할 수 있도록 시각적 이미지들을 만들어 웹(Web)에 올릴 수 있다.
이러한 VRML은 VRML전용 뷰어를 설치해야 볼 수 있는데, 현재 주로 사용되는 뷰어들로서는 카메라의 위치변화나 복수 오브젝트에서 각각의 개체 오브젝트의 위치 제어를 가능하게 하는 제어판으로 구성되어 있지 않아서 카메라의 위치에 따른 각 오브젝트의 섬세한 제어가 불가능했기 때문에 복수 개체의 제어나 배치가 필요한 VRML 콘텐츠 제작에 이용되지 못하고 있는 실정이었다.
또한, 가상현실을 구현하는 기법에는 3차원 기반의 아바타(Avatar), 오브젝트(Object), 공간(Scene), 실사 기반의 파노라마(Panorama) VR 및 포토 오브젝트(Photo Object) VR 등이 있다.
그러나 이러한 가상현실을 구현하기 위한 기법은 각각의 3차원 데이터 저작도구를 이용하여 구현됨으로써, 제작된 3차원 콘텐츠는 각각의 전용 뷰어(viewer)를 이용해야만 확인할 수 있는 문제점이 있다.
또한, 실제 공간을 모델로 이용하여 구현된 가상현실은 단순히 공간적인 이미지만을 제공할 뿐 실제 공간의 환경정보나 상태 등을 실시간으로 제공하지 못하여 현장의 생동감을 사용자에게 제공하지 못하는 문제점이 있다.
따라서 상기한 문제점을 해결하기 위하여 본 발명은 다양한 가상현실 구현기 술을 통합적으로 구현 및 서비스할 수 있는 솔루션을 제공함과 동시에 실제 공간의 환경정보 및 변동 상태를 검출하여 제공할 수 있는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템 및 방법을 제공하는 것을 목적으로 한다.
상기한 목적을 달성하기 위하여 본 발명은 실제 공간을 통상의 3차원 데이터 저작도구로 구현한 원시 데이터를 VRML 파일로 변환하고, 카메라로부터 획득한 실제 공간의 영상 데이터를 회전시켜 VR 데이터 파일로 변환하는 데이터 변환부; 상기 데이터 변환부로부터 변환된 상기 VRML 파일로부터 오브젝트 콘텐츠와 공간 콘텐츠를 생성하고, 상기 VR 데이터로부터 파노라마 VR 콘텐츠와 포토 오브젝트 VR 콘텐츠를 생성하는 가상현실 콘텐츠 생성부; 상기 실제 공간의 환경 상태와 상기 공간의 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동 상태를 검출하는 이벤트 검출부; 상기 이벤트 검출부로부터 검출된 상기 실제 공간의 환경 상태 및 변동 상태를 3차원의 이벤트 콘텐츠로 생성하는 이벤트 콘텐츠 생성부; 상기 가상현실 콘텐츠 생성부로부터 생성된 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠 및 포토 오브젝트 VR 콘텐츠와 상기 이벤트 콘텐츠 생성부로부터 생성된 상기 이벤트 콘텐츠를 저장하고, 상기 콘텐츠들을 로컬 또는 웹상에서 제공되도록 하는 콘텐츠 관리부; 및 상기 콘텐츠 관리부로부터 제공되는 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠가 디스플레이 되도록 뷰어 프로그램을 갖는 사용자 단말기를 포함한다.
또한, 상기 생성된 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포 토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠를 웹상에서 디스플레이 되도록 Html 파일로 변환하는 Html 생성부를 더 포함하는 것을 특징으로 한다.
또한, 상기 이벤트 검출부는 상기 실제 공간의 온도, 습도 및 조도 중 적어도 하나를 포함한 환경 상태와, 상기 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 이동 중 적어도 하나를 포함한 콘텐츠의 변동 상태를 검출하는 다수의 센서부; 및 상기 센서부로부터 검출한 환경 상태 및 변동 상태를 상기 이벤트 콘텐츠 생성부로 전송하는 이벤트 데이터 송신부를 포함하는 것을 특징으로 한다.
또한, 상기 이벤트 콘텐츠 생성부는 상기 이벤트 검출부로부터 검출된 상기 환경 상태 및 변동 상태를 수신하는 이벤트 데이터 수신부; 및 상기 이벤트 데이터 수신부로 수신한 상기 환경 상태 및 변동 상태를 분석하여 해당 환경 정보, 오브젝트 콘텐츠 및 공간 콘텐츠의 변동에 따른 수치정보의 조절 및 자막설정을 통해 이벤트 콘텐츠를 생성하는 이벤트 콘텐츠 관리부를 포함하는 것을 특징으로 한다.
또한, 상기 콘텐츠 관리부는 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠를 압축파일로 저장하여 관리하는 3차원 콘텐츠 관리부; 및 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠를 웹으로 접속한 사용자 단말기에서 디스플레이될 수 있도록 뷰어 프로그램을 설치하는 뷰어 데이터 설치부를 포함하는 것을 특징으로 한다.
또한, 상기 이벤트 검출부와 이벤트 콘텐츠 생성부는 직비(Zigbee), 블루투스(Bluetooth) 및 와이어레스 랜(Wireless lan) 중 어느 하나를 이용하여 데이터를 송수신하는 것을 특징으로 한다.
또한, 상기 이벤트 콘텐츠 생성부와 상기 콘텐츠 관리부는 직렬 통신 및 USB 통신 중 적어도 하나를 이용하여 데이터를 송수신하는 것을 특징으로 한다.
또한, 본 발명은 이벤트 콘텐츠를 생성하는 이벤트 콘텐츠 생성부가 가상현실 콘텐츠 생성부로부터 생성된 3차원의 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동과 실제 공간의 환경상태의 변동에 따라 발생한 이벤트 데이터를 검출하는 단계; 검출된 상기 이벤트 데이터를 상기 이벤트 콘텐츠 생성부가 분석하여 상기 오브젝트 콘텐츠 및 공간 콘텐츠의 변동과 상기 실제 공간의 환경상태 변동에 따른 이벤트 콘텐츠를 생성하고, 상기 생성된 이벤트 콘텐츠를 콘텐츠 관리부에 저장하는 단계; 및 상기 콘텐츠 관리부가 로컬 또는 웹으로 접속한 사용자 단말기를 검출하여 상기 이벤트 콘텐츠, 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠를 사용자 단말기로 전송하여 출력하는 단계를 포함한다.
또한, 상기 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동과 상기 실제 공간의 환경상태 변동에 따라 생성된 상기 이벤트 콘텐츠가 웹상에서 디스플레이 될 수 있도록 Html 파일로 변환하는 단계를 포함하는 것을 특징으로 한다.
또한, 상기 이벤트 콘텐츠는 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동에 따른 수치정보 및 자막이 변경되도록 하는 것을 특징으로 한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명하면 다음과 같다.
도 1은 본 발명에 따른 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템의 구성을 나타낸 블록도이다. 도 1에 도시한 바와 같이, 3차원 콘텐츠를 제작하기 위해 구현된 원시 데이터를 VRML 파일, 파노라마 VR 데이터 파일 또는 포토 오브젝트 VR 데이터 파일로 변환하는 데이터 변환부(100)와, 데이터 변환부(100)로부터 변환된 파일들을 이용하여 3차원 가상현실 콘텐츠를 생성하는 가상현실 콘텐츠 생성부(200)와, 실제 공간의 환경 상태와 상기 공간의 오브젝트 콘텐츠 및 공간 콘텐츠의 변동 상태를 검출하는 이벤트 검출부(500)와, 이벤트 검출부(500)로부터 검출된 실제 공간의 환경 상태 및 변동 상태를 3차원의 이벤트 콘텐츠로 생성하는 이벤트 콘텐츠 생성부(600)와, 가상현실 콘텐츠 생성부(200) 및 이벤트 콘텐츠 생성부(600)에서 생성된 3차원 가상현실 콘텐츠들을 저장하고 로컬영역 또는 웹 영역에서 디스플레이 될 수 있도록 관리하는 콘텐츠 관리부(300)와, 콘텐츠 관리부(300)로부터 제공되는 3차원 콘텐츠들이 디스플레이 되도록 뷰어프로그램을 갖는 사용자 단말기(400)를 포함한다.
데이터 변환부(100)는 통상의 3차원 데이터 저작도구(예를 들면, 3D Studio, 3D Photo VR Editor 등)로 구현된 원시 데이터를 VRML 파일로 변환하고, 카메라로부터 획득한 영상 데이터를 회전시켜 VR 데이터 파일로 변환한다. 즉 범용 3차원 저작도구를 이용하여 구현된 원시 데이터를 VRML 파일로 변환하여 VRML 파일로 추출한다.
또한, 데이터 변환부(100)는 카메라로부터 획득한 영상 데이터로부터 파노라마 VR 데이터와 포토 오브젝트 VR 데이터를 추출한다. 여기서 파노라마 VR 데이터 는 카메라를 회전시켜 획득한 이미지 데이터(예를 들면, 카메라를 회전시키며 촬영한 30장 정도의 사진 데이터)를 범용 파노라마 프로그램으로 스티칭(stiching)하여 파노라마 VR 데이터로 변환시킨다.
또한, 포토 오브젝트 VR 데이터는 물체 즉 오브젝트를 회전시켜 획득한 이미지 데이터(예를 들면, 물체(오브젝트)를 촬영한 30장 정도의 사진을 회전시켜 획득한 데이터)를 포토 오브젝트 VR 데이터로 변환시킨다.
데이터 변환부(100)에서 변환된 VRML 데이터, 파노라마 VR 데이터 및 포토 오브젝트 VR 데이터는 가상현실 콘텐츠 생성부(200)로 입력된다.
도 2는 가상현실 콘텐츠 생성부(200)의 구성을 더욱 상세하게 나타낸 블록도이다. 도 2에서, 가상현실 콘텐츠 생성부(200)는 데이터 변환부(100)로부터 변환되어 추출된 상기 VRML 파일로부터 오브젝트 콘텐츠와 공간 콘텐츠를 생성하는 VRML 생성부(210)와, 상기 파노라마 VR 데이터 및 포토 오브젝트 VR 데이터로부터 파노라마 VR 콘텐츠와 포토 오브젝트 VR 콘텐츠를 생성하는 실사 콘텐츠 생성부(220)와, VRML 생성부(210) 및 실사 콘텐츠 생성부(220)로부터 생성된 상기 콘텐츠들을 각각의 파일 포맷에 따라 저장하는 데이터 저장부(230)를 포함한다.
VRML 생성부(210)는 데이터 변환부(100)로부터 추출된 상기 VRML 파일로부터 오브젝트 데이터와 공간 데이터를 분석하고, 상기 분석된 데이터 중에서 오브젝트 데이터는 상기 오브젝트 데이터의 회전, 편집, 트리거 설정, 오브젝트의 배경색, 조명 조절 및 애니메이션 삽입을 통해 오브젝트 콘텐츠를 생성한다.
또한, VRML 생성부(210)는 상기 분석된 데이터 중에서 공간 데이터는 상기 공간 데이터의 옥트리 공간 분할 설정, 뷰포인트 애니메이션 설정, 오브젝트의 링크, 빌보드, 중력값, 충돌값 및 자동회전 설정을 통해 공간 콘텐츠를 생성하고, 상기 오브젝트 콘텐츠 및 공간 콘텐츠들을 웹상에서 제공할 수 있도록 Html 파일로 변환한다.
여기서 VRML 생성부(210)는 3차원 오브젝트 콘텐츠 제작에 필요한 부분을 처리하기 위해 3차원 데이터 저작도구로부터 구현된 원시 데이터를 VRML 기본 데이터 파일(예를 들면, 라이브러리)을 이용하여 오브젝트(물체) 데이터를 독출한다.
이 때 상기 독출된 오브젝트 데이터를 이용하여 3차원 콘텐츠를 제작하는 과정을 수행한다. 이때 오브젝트(물체)의 자동 회전, 추가, 삭제 등의 설정을 수행하고, 오브젝트의 트리거 추가 또는 삭제 등을 설정한다.
또한, 오브젝트의 배경색 및 조명 조절과 필요한 그림 등의 삽입을 통해 콘텐츠를 제작하며, 필요에 따라 3차원 콘텐츠 전체 또는 부분적으로 애니메이션 등을 삽입하여 3차원 오브젝트 콘텐츠를 생성한다. 상기 오브젝트 콘텐츠는 오브젝트 파일 포맷으로 생성된다.
또한, VRML 생성부(210)는 3차원 공간 콘텐츠 제작에 필요한 부분을 처리하기 위해 3차원 데이터 저작도구로부터 구현된 원시 데이터를 VRML 기본 데이터 파일(예를 들면, 라이브러리)을 이용하여 공간(Scene) 데이터를 독출한다.
이 경우 독출된 상기 공간 데이터로부터 옥트리 공간 분할 설정, 뷰포인트 애니메이션 설정, 오브젝트의 링크 및 빌보드 설정을 통해 공간 콘텐츠를 생성한다.
상기 옥트리(Octree) 공간 분할 설정은 삼차원 공간을 정육면체로 분할해가는 방식으로 분할한 공간에는 최종적으로 하나의 평면만 있도록 하여, 상대적으로 물체가 적은 공간에 괜한 메모리를 낭비하지 않는다는 공간분할 방식이다. 이것은 3차원 배면 제거 및 충돌 문제 등을 해결하는데 사용한다.
상기 옥트리 공간 분할에서 하나의 정육면체를 노드(node :오브젝트 파일과 VRML파일에서의 노드 개념과는 다름)라고 하는데, 최대 폴리곤(Max Polygons)은 한 노드가 가질 수 있는 최대 폴리곤 수를 나타낸다. 즉, 이 폴리곤 수보다 크면 공간을 재귀적으로(recursive) 다시 분할한다.
따라서 3차원 공간을 분할할 때, 먼저 최대 폴리곤 수를 적당히 조절하면서, 전체 노드 수를 결정한다. 또한, 3차원 씬 공간을 최대 폴리곤 수 뿐 아니라, 서브 분할 수치로도 나눌 수 있다.
또한, 3차원 그래픽 엔진은 웹상에서 사용되기 때문에, 파일 크기가 아주 작다. 따라서 일반적인 3차원 그래픽 게임 엔진에서처럼, 완벽하게 카메라 및 물체간의 충돌을 감지하지 못하여 공간 데이터에 중력 베이스(Gravity base) 값을 설정하여 충돌 및 중력을 설정하며, 설정된 값 밑으로 카메라가 내려가지 못하게 한다.
또한, 카메라 반경은 충돌 기능과 뷰포인트 값을 설정할때, 중요하게 작용함으로, 공간 데이터의 치수(dimension) 값에 따라서 적절하게 선택되어야 한다. 카메라의 반경보다 작은 공간(특히, 문 또는 통로 등)은 충돌 기능이 작동할 경우 카메라가 통과하지 못하므로 카메라의 Z축 반경은 카메라가 한번 움직이는 거리를 나타낸다. 따라서 공간 데이터의 치수 값에 따라서 적당하게 결정해야만 적당한 속도 의 내비게이션을 할 수 있다.
또한, 공간 데이터에 뷰포인트(View point) 애니메이션의 추가 또는 삭제와, 내비게이션 기능을 통해 충돌 및 중력 효과를 설정하고, 오브젝트와의 앵커(Anchor), 빌보드(Billboard) 및 공간의 자동회전 등을 설정하여 공간 콘텐츠를 생성한다. 상기 공간 콘텐츠는 공간 콘텐츠 파일 포맷으로 생성된다.
앵커는 HTML의 링크 개념과 같이 3차원 공간상에서 다른 곳을 연결해 주는 기능이다.
빌보드는 3차원 공간상에서, 카메라 위치 및 방향에 무관하게 물체를 일정한 방향으로 보이게 하는 기능이다. 즉, 물체의 한 면이 카메라의 방향과 항상 수직을 이루게 한다. 간판이나 나무 등을 3차원 공간상에서 표현할 때 주로 사용된다.
따라서 각각의 파일 포맷으로 생성된 오브젝트 콘텐츠와 공간 콘텐츠들은 출력되어 데이터 저장부(230)에 저장되고, 상기 콘텐츠들을 웹상에서 디스플레이 될 수 있도록 Html 파일로 변환한다.
한편, 실사 콘텐츠 생성부(220)는 데이터 변환부(100)에서 범용 파노라마 프로그램을 통해 스티칭된 파노라마 VR 데이터를 입력받아 수평(실린더형) 파노라마 VR, 수평-수직(구형) 파노라마 VR 콘텐츠를 구현하는 것으로 상기 파노라마 VR 데이터의 색상 및 밝기 조절, 상기 파노라마 VR 데이터 사이의 텔레포트 설정, 자막설정, 화질개선, 자동시점, 좌우 자동회전 및 이미지 줌인(Zoom in)/줌아웃(Zoom out) 기능을 포함한 파노라마 VR 콘텐츠를 생성한다.
또한, 실사 콘텐츠 생성부(220)는 데이터 변환부(100)에서 입력되는 포토 오 브젝트 VR 데이터 파일의 OVR(Object Virtual Reality) 이미지 기능을 이용한 이미지 편집, 포토 오브젝트 VR의 자막 설정, 화질 개선, 좌우 자동회전 및 이미지의 줌인/줌아웃 기능을 포함한 포토 오브젝트 VR 콘텐츠를 생성한다.
또한, 실사 콘텐츠 생성부(220)에서 생성된 파노라마 VR 콘텐츠와, 포토 오브젝트 VR 콘텐츠들은 웹상에서 디스플레이 될 수 있도록 Html 파일로 변환되고, 각각의 파일 포맷으로 생성된 상기 파노라마 VR 콘텐츠 및 포토 오브젝트 콘텐츠의 파일은 데이터 저장부(230)에 저장된다.
도 3은 이벤트 콘텐츠를 생성하기 위한 구성을 더욱 상세하게 나타낸 도면으로서, 도 1 및 도 3에 나타낸 바와 같이 이벤트 검출부(500)는 실제 공간의 환경 상태와 상기 공간의 오브젝트 콘텐츠 및 공간 콘텐츠의 변동 상태를 검출하는 구성으로 예를 들면, 실제 공간의 온도, 습도 및 조도 중 적어도 하나를 포함한 환경 상태와, 상기 오브젝트 콘텐츠 및 공간 콘텐츠 중 적어도 하나를 포함한 콘텐츠의 변동 상태를 검출하는 다수의 센서부(510 및 511)와, 다수의 센서부(510 및 511)로부터 검출한 환경 상태 및 변동 상태를 이벤트 콘텐츠 생성부(600)로 전송하는 이벤트 데이터 송신부(520)를 포함한다.
다수의 센서부(510 및 511)를 통해 실제 공간의 온도, 습도 및 조도 등의 환경이 변동(증가 또는 감소)되는 상태나 가상현실 콘텐츠 생성부(200)에서 생성된 오브젝트 콘텐츠나 공간 콘텐츠(예를 들면, 개폐가 가능한 도어 및 창문과, 온(ON)/오프(OFF)를 통한 동작의 검출이 가능한 기구장치 등)등의 변동 상태를 실시간으로 검출하여 제공함으로써 더욱 생동감을 제공할 수 있게 된다.
즉 온도 센서로부터 주기적으로 검출한 현재 온도를 16진수 등의 데이터가 일정한 형태의 수치데이터로 제공되도록 하여 현장의 환경 상태 변동을 제공한다.
또한, 도어 또는 창문 등의 공간 콘텐츠에는 개폐를 인식할 수 있는 센서를 설치함으로서, 도어 또는 창문의 개폐가 발생하면 확인할 수 있도록 한다. 즉 도어가 닫히면 "0"의 데이터가 전달되도록 하고, 도어가 개방되면 "1"의 데이터가 전달되도록 하여 도어의 개폐를 확인할 수 있다.
또한 실제 공간에서 전원을 사용하여 동작하는 오브젝트 콘텐츠의 경우 전원의 온/오프를 통해 동작의 유무를 확인할 수 있다.
또한, 이벤트 콘텐츠 생성부(520)는 이벤트 검출부(500)로부터 검출된 실제 공간의 환경 상태 및 변동 상태를 3차원의 이벤트 콘텐츠로 생성하는 구성으로, 이벤트 검출부(500)로부터 검출된 상기 환경 상태 및 콘텐츠들의 변동 상태를 수신하는 이벤트 데이터 수신부(610)와, 이벤트 데이터 수신부(610)로 수신한 상기 환경 상태 및 변동 상태를 분석하여 해당 환경 정보, 오브젝트 콘텐츠 및 공간 콘텐츠의 변동에 따른 수치정보의 설정변경 및 자막의 설정변경을 통해 이벤트 콘텐츠를 생성하는 이벤트 콘텐츠 관리부(620)와, 이벤트 콘텐츠 관리부(620)로부터 생성된 이벤트 콘텐츠를 웹상에서 디스플레이 되도록 Html 파일로 변환하는 Html 생성부(630)를 포함한다.
이벤트 데이터 수신부(610)는 이벤트 검출부(500)와 직비(Zigbee), 블루투스(Bluetooth) 및 와이어레스 랜(Wireless lan) 중 어느 하나를 이용하여 무선 데이터 통신이 수행되도록 하고, 바람직하게 직비(Zigbee)를 이용하여 무선 데이터 통 신을 수행한다. 직비는 저전력, 저규모 무선 네트워크를 구축할 수 있는 새로운 프로토콜로서, IEEE 규격으로는 802.15.4 표준으로 제정되어 있다.
이벤트 콘텐츠 관리부(620)는 온도, 습도 및 조도 등의 환경 상태가 바뀐 경우 이를 표시하기 위해 3차원의 이벤트 콘텐츠를 새롭게 생성하거나 또는 현재 상태를 변동시켜 수치정보의 조절 및 자막 설정의 변경을 통해 이벤트 콘텐츠를 수정한다.
또한, 이벤트 콘텐츠 관리부(620)는 온(ON)/오프(OFF) 동작이 검출된 오브젝트 콘텐츠 또는 공간 콘텐츠의 변동을 표시하기 위해 자막 설정 변경하여 이벤트 콘텐츠를 생성한다.
한편, 실사 콘텐츠 생성부(220)에서 생성된 파노라마 VR 콘텐츠는 현장의 온도, 습도 및 조도 등의 이벤트 발생 여부를 검출하여 변동이 검출된 이벤트 콘텐츠를 제공할 수 있다. 즉 파노라마 VR 콘텐츠의 경우 핫스팟과 같이 수치 데이터를 표시할 수 있는 일정 영역을 설정하고, 상기 설정된 영역에 수치 데이터 등의 이벤트 콘텐츠를 표시할 수 있다.
Html 생성부(630)는 생성된 이벤트 콘텐츠를 웹상에서 디스플레이 되도록 Html 파일로 변환한다.
한편, 이벤트 콘텐츠 관리부(620)에서 생성된 이벤트 콘텐츠는 사용자의 선택에 따라 HTML 생성부(620)에서 HTML 데이터로 변환되어 출력하는 것도 가능하고, HTML 데이터로의 변환없이 생성된 포맷으로 출력하는 것도 가능하다.
다시 도 1을 참조하면, 콘텐츠 관리부(300)는 가상현실 콘텐츠 생성부로 (200)부터 생성된 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠 및 포토 오브젝트 VR 콘텐츠와, 이벤트 콘텐츠 생성부(600)로부터 생성된 이벤트 콘텐츠 파일을 업로드(Upload)하여 로컬 또는 웹상에서 제공되도록 관리한다.
도 4는 콘텐츠 관리부(300)의 구성과 사용자 단말기(400)에 사용자 뷰어 설치를 위한 시스템 구성을 나타낸 블록도이다. 도 4에서, 콘텐츠 관리부(300)는 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠를 압축 파일로 저장하여 관리하는 3차원 콘텐츠 관리부(310)와, 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠를 웹으로 접속한 사용자 단말기에서 디스플레이될 수 있도록 뷰어 프로그램을 설치하는 뷰어 데이터 설치부(320)를 포함한다. 바람직하게 콘텐츠 관리부(300)는 서버시스템이다.
사용자 단말기(400)는 콘텐츠 관리부(300)로부터 제공되는 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠가 디스플레이 되도록 뷰어프로그램을 갖는다. 바람직하게 사용자 단말기(400)는 PC이다.
사용자 단말기(400)가 웹상에서 제공되는 3차원 콘텐츠 데이터를 제공받기 위하여 사용자 단말기(400)에 설치된 인터넷 익스플로어(410)를 통해 콘텐츠 관리부(300)와 접속하면, 콘텐츠 관리부(300)의 3차원 콘텐츠 관리부(310)는 사용자 단말기(400)에서 3차원 콘텐츠 데이터가 디스플레이 될 수 있도록 뷰어 프로그램의 설치를 여부를 확인한다.
사용자 단말기(400)에 뷰어 프로그램이 설치되어 있지 않은 경우 콘텐츠 관리부(300)의 뷰어 데이터 설치부(320)는 사용자 단말기(400)에 뷰어 프로그램을 설치하고, 상기 뷰어 프로그램의 설치가 종료된 경우 Html에 포함된 3차원 콘텐츠 데이터를 사용자 단말기(400)의 임시 폴더(420)에 저장하고, 인터넷 익스플로어(410)에 디스플레이 되도록 한다.
또한, 뷰어 프로그램이 종료되면 임시 폴더(420)에 저장된 파일들을 삭제한다.
도 5는 본 발명에 따른 실시간 3차원 가상현실 콘텐츠 구현 방법을 나타낸 흐름도이고, 도 6은 도 5의 이벤트 데이터를 이용한 콘텐츠 구현 방법을 나타낸 흐름도이다.
도 1 내지 도 6을 참조하면, 3차원 콘텐츠를 생성하는 가상현실 콘텐츠 생성부(200) 및 이벤트 콘텐츠 생성부(600)가 데이터 변환부(100)와 이벤트 검출부(500)로부터 상기 3차원 콘텐츠 구현을 위한 원시 데이터 및 이벤트 데이터를 검출하여 분석한다.(S100 및 S200)
판단 결과 분석된 데이터가 3차원 데이터 저작도구로부터 생성된 VRML 데이터로서 3차원 콘텐츠 구현을 위한 원시데이터인 경우 가상현실 콘텐츠 생성부(200)는 상기 VRML 데이터를 분석하여 오브젝트 데이터 및 공간 데이터로 분류(S300)한다.
상기 S300단계에서 분류된 상기 오브젝트 데이터 및 공간 데이터는 VRML 기본 데이터 파일(예를 들면, 라이브러리)을 통해 각각의 데이터를 편집하여 오브젝 트 콘텐츠 및 공간 콘텐츠를 생성(S400)하고, 상기 S400단계에서 생성된 콘텐츠들을 콘텐츠 관리부(300)에 업로드 시켜 등록 후 저장(S500)한다.
또한, 상기 S400단계에서 생성된 상기 콘텐츠들은 웹상에서 디스플레이 될 수 있도록 Html 파일로 변환하는 단계를 더 포함한다.
상기 S400단계에서 생성되는 오브젝트 콘텐츠는 상기 오브젝트 데이터가 VRML 기본 데이터 파일을 이용하여 독출되고, 상기 독출된 오브젝트 데이터에 회전, 편집, 트리거 설정, 오브젝트의 배경색, 조명 조절 및 애니메이션을 삽입하여 생성된다.
또한, 상기 S400단계서 생성되는 공간 콘텐츠는 상기 공간 데이터가 VRML 기본 데이터 파일을 이용하여 독출하고, 상기 독출된 공간 데이터에 공간 분할 설정, 뷰포인트 애니메이션 설정, 오브젝트의 링크 및 빌보드 기능을 설정하여 생성된다.
상기 S500단계를 수행한 후 콘텐츠 관리부(300)가 로컬 또는 웹으로 접속한 사용자 단말기(400)를 검출(S600)하여 상기 오브젝트 및 공간 콘텐츠의 디스플레이용 뷰어 프로그램의 설치되었는지 여부를 판단(S700)한다.
상기 S700단계의 판단 결과 사용자 단말기(400)에 상기 뷰어 프로그램이 설치되어 있는 경우 콘텐츠 관리부(300)가 상기 오브젝트 콘텐츠 및 공간 콘텐츠와 후술하는 이벤트 콘텐츠를 표시하여(S800) 사용자 단말기(400)로 전송하여 출력(S900)한다.
또한, 상기 원시 데이터가 카메라로부터 획득한 실사 데이터인 경우 가상현실 콘텐츠 생성부(200)는 상기 실사 데이터를 분석하여 파노라마 VR 데이터 및 포 토 오브젝트 VR 데이터로 분류하여 파노라마 VR 콘텐츠 및 포토 오브젝트 VR 콘텐츠를 생성하고, 상기 생성된 콘텐츠를 가상현실 콘텐츠 관리부(300)에 업로드 하여 등록 후 저장한다.
한편, 상기 S200단계에서 가상현실 콘텐츠 생성부(200)로부터 생성된 3차원의 오브젝트 콘텐츠 및 공간 콘텐츠의 변동과 실제 공간의 환경상태의 변동에 따라 발생한 이벤트 데이터가 검출된 경우 이벤트 콘텐츠 생성부(600)가 검출된 각각의 이벤트 데이터를 분석한다.(S210 및 S220)
상기 S220단계에서 분석된 이벤트 데이터는 이벤트 콘텐츠 생성부(600)에서 오브젝트 콘텐츠 및 공간 콘텐츠의 변동과 상기 실제 공간의 환경상태 변동에 따라 이벤트 콘텐츠로 생성된다(S230).
즉 온도, 습도 및 조도 등의 환경 상태가 바뀐 경우 이를 표시하기 위해 3차원의 이벤트 콘텐츠를 새롭게 생성하거나 또는 현재 상태를 변동시켜 수치정보의 조절, 자막설정을 통해 이벤트 콘텐츠를 수정한다.
또한, 온/오프 동작이 검출된 오브젝트 콘텐츠 또는 공간 콘텐츠의 변동을 표시하기 위해 자막설정, 터치 센서 등의 자동실행을 통해 이벤트 콘텐츠를 생성한다.
또한, 상기 생성된 이벤트 콘텐츠가 웹상에서 디스플레이 될 수 있도록 Html 파일로 변환된다.
상기 S230단계에서 생성된 이벤트 콘텐츠는 콘텐츠 관리부(300)에 저장(S240)되고, 콘텐츠 관리부(300)가 상기 오브젝트 콘텐츠 및 공간 콘텐츠와 이벤트 콘텐츠를 표시하여(S800) 상기 S230단계에서 생성된 이벤트 콘텐츠와, S400단계에서 생성된 오브젝트 콘텐츠 및 공간 콘텐츠를 사용자 단말기(400)로 전송하여 출력(S900)한다.
상기한 바와 같이 본 발명은 실제 공간을 모델로 이용하여 구현된 가상현실공간의 환경이나 콘텐츠들의 변동 상태를 실시간으로 제공함으로써 현장의 생동감을 사용자에게 제공할 수 있는 장점이 있다.
또한, 본 발명은 상기 제작된 3차원 콘텐츠들과 상기 3차원 콘텐츠들의 Html 파일을 생성하여 웹상에서 용이하게 확인할 수 있는 장점이 있다.
이상에서는, 본 발명을 특정의 바람직한 실시예에 대해서 도시하고 설명하였다. 그러나 본 발명은 상술한 실시예에만 한정되는 것은 아니며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이하의 특허청구범위에 기재된 본 발명의 기술적 사상의 요지를 벗어남이 없이 얼마든지 다양하게 변경 실시할 수 있을 것이다.

Claims (10)

  1. 실제 공간을 통상의 3차원 데이터 저작도구로 구현한 원시 데이터를 VRML 파일로 변환하고, 카메라로부터 획득한 실제 공간의 영상 데이터를 회전시켜 VR 데이터 파일로 변환하는 데이터 변환부;
    상기 데이터 변환부로부터 변환된 상기 VRML 파일로부터 오브젝트 콘텐츠와 공간 콘텐츠를 생성하고, 상기 VR 데이터로부터 파노라마 VR 콘텐츠와 포토 오브젝트 VR 콘텐츠를 생성하는 가상현실 콘텐츠 생성부;
    상기 실제 공간의 환경 상태와 상기 공간의 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동 상태를 검출하는 이벤트 검출부;
    상기 이벤트 검출부로부터 검출된 상기 실제 공간의 환경 상태 및 변동 상태를 3차원의 이벤트 콘텐츠로 생성하는 이벤트 콘텐츠 생성부;
    상기 가상현실 콘텐츠 생성부로부터 생성된 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠 및 포토 오브젝트 VR 콘텐츠와 상기 이벤트 콘텐츠 생성부로부터 생성된 상기 이벤트 콘텐츠를 저장하고, 상기 콘텐츠들을 로컬 또는 웹상에서 제공되도록 하는 콘텐츠 관리부; 및
    상기 콘텐츠 관리부로부터 제공되는 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠가 디스플레이 되도록 뷰어 프로그램을 갖는 사용자 단말기를 포함하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템.
  2. 제 1 항에 있어서,
    상기 생성된 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠를 웹상에서 디스플레이 되도록 Html 파일로 변환하는 Html 생성부를 더 포함하는 것을 특징으로 하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 이벤트 검출부는 상기 실제 공간의 온도, 습도 및 조도 중 적어도 하나를 포함한 환경 상태와, 상기 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 이동 중 적어도 하나를 포함한 콘텐츠의 변동 상태를 검출하는 다수의 센서부; 및
    상기 센서부로부터 검출한 환경 상태 및 변동 상태를 상기 이벤트 콘텐츠 생성부로 전송하는 이벤트 데이터 송신부를 포함하는 것을 특징으로 하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템.
  4. 제 1 항 또는 제 2 항에 있어서,
    상기 이벤트 콘텐츠 생성부는 상기 이벤트 검출부로부터 검출된 상기 환경 상태 및 변동 상태를 수신하는 이벤트 데이터 수신부; 및
    상기 이벤트 데이터 수신부로 수신한 상기 환경 상태 및 변동 상태를 분석하 여 해당 환경 정보, 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동에 따른 수치정보의 조절 및 자막설정을 통해 이벤트 콘텐츠를 생성하는 이벤트 콘텐츠 관리부를 포함하는 것을 특징으로 하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템.
  5. 제 1 항 또는 제 2 항에 있어서,
    상기 콘텐츠 관리부는 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠를 압축파일로 저장하여 관리하는 3차원 콘텐츠 관리부; 및
    상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠를 웹으로 접속한 사용자 단말기에서 디스플레이될 수 있도록 뷰어 프로그램을 설치하는 뷰어 데이터 설치부를 포함하는 것을 특징으로 하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템.
  6. 제 1 항 또는 제 2 항에 있어서,
    상기 이벤트 검출부와 이벤트 콘텐츠 생성부는 직비(Zigbee), 블루투스(Bluetooth) 및 와이어레스 랜(Wireless lan) 중 어느 하나를 이용하여 데이터를 송수신하는 것을 특징으로 하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템.
  7. 제 1 항 또는 제 2 항에 있어서,
    상기 이벤트 콘텐츠 생성부와 상기 콘텐츠 관리부는 직렬 통신 및 USB 통신 중 적어도 하나를 이용하여 데이터를 송수신하는 것을 특징으로 하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템.
  8. a) 이벤트 콘텐츠를 생성하는 이벤트 콘텐츠 생성부가 가상현실 콘텐츠 생성부로부터 생성된 3차원의 상기 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동과 실제 공간의 환경상태의 변동에 따라 발생한 이벤트 데이터를 검출하는 단계;
    b) 단계 a에서 검출된 상기 이벤트 데이터를 상기 이벤트 콘텐츠 생성부가 분석하여 상기 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동과 상기 실제 공간의 환경상태 변동에 따른 이벤트 콘텐츠를 생성하고, 상기 생성된 이벤트 콘텐츠를 콘텐츠 관리부에 저장하는 단계; 및
    c) 상기 콘텐츠 관리부가 로컬 또는 웹으로 접속한 사용자 단말기를 검출하여 상기 이벤트 콘텐츠, 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠를 사용자 단말기로 전송하여 출력하는 단계를 포함하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현방법.
  9. 제 8 항에 있어서,
    단계 b는 상기 생성된 상기 이벤트 콘텐츠가 웹상에서 디스플레이될 수 있도 록 Html 파일로 변환하는 단계를 포함하는 것을 특징으로 하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 방법.
  10. 제 8 항에 있어서,
    상기 이벤트 콘텐츠는 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동에 따른 수치정보 및 자막이 변경되도록 하는 것을 특징으로 하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 방법.
KR1020060084369A 2006-09-01 2006-09-01 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법 KR100661052B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060084369A KR100661052B1 (ko) 2006-09-01 2006-09-01 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020060084369A KR100661052B1 (ko) 2006-09-01 2006-09-01 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법
JP2008558217A JP2009528646A (ja) 2006-09-01 2007-05-14 ユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現システム及び具現方法
PCT/KR2007/002362 WO2008026817A1 (en) 2006-09-01 2007-05-14 System and method for realizing virtual reality contents of 3-dimension using ubiquitous sensor network

Publications (1)

Publication Number Publication Date
KR100661052B1 true KR100661052B1 (ko) 2006-12-22

Family

ID=37815457

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060084369A KR100661052B1 (ko) 2006-09-01 2006-09-01 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법

Country Status (3)

Country Link
JP (1) JP2009528646A (ko)
KR (1) KR100661052B1 (ko)
WO (1) WO2008026817A1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101062961B1 (ko) * 2009-01-07 2011-09-06 광주과학기술원 증강현실 컨텐츠 저작 시스템과 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
WO2013176687A1 (en) * 2012-05-25 2013-11-28 Takayuki Arima Management for super-reality entertainment
KR101503994B1 (ko) * 2012-02-29 2015-03-19 숭실대학교산학협력단 파노라마 가상현실 기반 소셜 커머스 플랫폼 시스템
KR101734655B1 (ko) 2015-06-26 2017-05-25 동서대학교산학협력단 360°실사 vr콘텐츠 제작공정에서 프로젝션 맵핑을 활용한 vfx 후반작업 적용 방법
WO2018030784A1 (ko) * 2016-08-12 2018-02-15 민상규 인공지능을 이용한 사용자 체험 장치
US10585976B2 (en) 2015-04-24 2020-03-10 Korea Institute Of Science And Technology Device and method for representing HTML elements having 3-dimensional information on web

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR20120064557A (ko) * 2010-12-09 2012-06-19 한국전자통신연구원 증강형 3차원 입체 영상 제시를 위한 혼합현실 디스플레이 플랫폼 및 운영 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085116A (ja) * 2001-09-07 2003-03-20 Hattori Mataichi 仮想空間情報システム
KR100449808B1 (ko) * 2001-12-28 2004-09-22 한국전자통신연구원 인터넷 환경과 가상환경 장치를 이용한 몰입형 가상환경제공 시스템 및 방법
KR100509922B1 (ko) * 2002-12-21 2005-08-25 한국전자통신연구원 3차원 몸동작을 이용한 모션 데이터베이스 검색방법
JP2006024168A (ja) * 2004-07-06 2006-01-26 Fujitsu Ltd サーバシステム,ユーザ端末並びに同サーバシステムおよび同ユーザ端末を用いたサービス提供方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101062961B1 (ko) * 2009-01-07 2011-09-06 광주과학기술원 증강현실 컨텐츠 저작 시스템과 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
KR101503994B1 (ko) * 2012-02-29 2015-03-19 숭실대학교산학협력단 파노라마 가상현실 기반 소셜 커머스 플랫폼 시스템
WO2013176687A1 (en) * 2012-05-25 2013-11-28 Takayuki Arima Management for super-reality entertainment
US10585976B2 (en) 2015-04-24 2020-03-10 Korea Institute Of Science And Technology Device and method for representing HTML elements having 3-dimensional information on web
KR101734655B1 (ko) 2015-06-26 2017-05-25 동서대학교산학협력단 360°실사 vr콘텐츠 제작공정에서 프로젝션 맵핑을 활용한 vfx 후반작업 적용 방법
WO2018030784A1 (ko) * 2016-08-12 2018-02-15 민상규 인공지능을 이용한 사용자 체험 장치

Also Published As

Publication number Publication date
JP2009528646A (ja) 2009-08-06
WO2008026817A1 (en) 2008-03-06

Similar Documents

Publication Publication Date Title
US20190172239A1 (en) Method for Scripting Inter-scene Transitions
US20170310951A1 (en) System and method for combining text with three-dimensional content
US10546410B2 (en) Method for inter-scene transitions
JP2020514900A (ja) 複合現実ビューアシステムおよび方法
US8705892B2 (en) Generating three-dimensional virtual tours from two-dimensional images
Mukhopadhyay et al. Passive capture and structuring of lectures
JP5038307B2 (ja) 実在環境内においてデジタルモデルを視覚化する方法、装置、及びコンピュータプログラム
US4925294A (en) Method to convert two dimensional motion pictures for three-dimensional systems
US8199156B2 (en) Collaborative environments in a graphical information system
US7307654B2 (en) Image capture and viewing system and method for generating a synthesized image
US10217294B2 (en) Procedural authoring
US9367942B2 (en) Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
AU650179B2 (en) A compositer interface for arranging the components of special effects for a motion picture production
AU2001241645B2 (en) Communication system and method including rich media tools
US20130235045A1 (en) Systems and methods for creating and distributing modifiable animated video messages
Matsuyama et al. 3D video and its applications
RU2387013C1 (ru) Система и способ для генерации интерактивных видеоизображений
CN100334588C (zh) 注解信息产生方法及其装置
US9990760B2 (en) Generating a 3D interactive immersive experience from a 2D static image
US20130321396A1 (en) Multi-input free viewpoint video processing pipeline
Shi et al. Real-time remote rendering of 3D video for mobile devices
KR100918392B1 (ko) 3d 컨텐츠 저작을 위한 개인형 멀티미디어 스튜디오플랫폼 장치 및 방법
US20090310851A1 (en) 3d content aggregation built into devices
CN102204263B (zh) 将2d视频转换为立体视频
JP3928229B2 (ja) 表示制御装置および表示制御方法、並びに記録媒体

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121218

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140418

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee