KR20240044097A - 유비쿼터스 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법 - Google Patents

유비쿼터스 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법 Download PDF

Info

Publication number
KR20240044097A
KR20240044097A KR1020220123422A KR20220123422A KR20240044097A KR 20240044097 A KR20240044097 A KR 20240044097A KR 1020220123422 A KR1020220123422 A KR 1020220123422A KR 20220123422 A KR20220123422 A KR 20220123422A KR 20240044097 A KR20240044097 A KR 20240044097A
Authority
KR
South Korea
Prior art keywords
content
event
data
virtual reality
spatial
Prior art date
Application number
KR1020220123422A
Other languages
English (en)
Inventor
이민재
Original Assignee
주식회사 더시퀀스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 더시퀀스 filed Critical 주식회사 더시퀀스
Priority to KR1020220123422A priority Critical patent/KR20240044097A/ko
Publication of KR20240044097A publication Critical patent/KR20240044097A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4355Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Architecture (AREA)
  • Strategic Management (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 다양한 가상현실 구현기술을 통합적으로 구현 및 서비스할 수 있는 솔루션을 제공하고, 실제 공
간의 온도, 조도, 습도 등의 환경정보와, 콘텐츠들의 동작 상태를 가상현실에서 실시간으로 표현할 수 있
는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 구현에 관한 것이다. 이를 위해 원시데이터로부터
3차원 콘텐츠들을 생성하는 가상현실 콘텐츠 생성부; 상기 콘텐츠들의 변동 상태를 검출하는 이벤트 검출
부; 상기 이벤트 검출부로부터 검출된 상기 실제 공간의 환경 상태 및 변동 상태를 3차원의 이벤트 콘텐츠
로 생성하는 이벤트 콘텐츠 생성부; 상기 가상현실 콘텐츠 생성부로부터 생성된 콘텐츠들과, 이벤트 콘텐
츠 생성부로부터 생성된 상기 이벤트 콘텐츠를 저장하고, 상기 콘텐츠들을 로컬 또는 웹상에서 제공되도록
하는 콘텐츠 관리부; 및 상기 콘텐츠 관리부로부터 제공되는 상기 콘텐츠들이 디스플레이 되도록 뷰어 프
로그램을 갖는 사용자 단말기를 포함한다. 따라서 실제 공간을 모델로 이용하여 구현된 가상현실공간의 환
경이나 콘텐츠들의 변동 상태를 실시간으로 제공함으로써 현장의 생동감을 사용자에게 제공할 수 있는 장
점이 있다.

Description

유비쿼터스 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법{System and method for realizing virtual realitycontents of 3-dimension using ubiquitous network}
본 발명은 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠의 [0002] 구현에 관한 것으로서, 더욱 상세
하게는 다양한 가상현실 구현기술을 통합적으로 구현 및 서비스할 수 있는 솔루션을 제공하고, 실제 공간
의 온도, 조도, 습도 등의 환경정보와, 콘텐츠들의 동작 상태를 가상현실에서 실시간으로 표현할 수 있는
유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 구현에 관한 것이다.
[0003] 일반적으로, VRML(Virtual Reality Modeling Language : 가상현실 모델링 언어) 코드는 인터넷 기반 3차
원 입체 영상을 구현하기 위하여 만들어진 3차원 영상 구현 프로그래밍 언어로서, HTML 코드와 마찬가지로
정보를 표현하는 언어이다.
[0004] 즉, VRML 코드는 사용자(클라이언트)와의 상호 작용이 가능한 3차원 이미지 장면 등을 묘사하기 위한 언어
로서, 이를 이용하면 3차원 화면에서 오브젝트를 사용자가 보고, 움직이고, 돌리고, 상호 작용할 수 있도
록 시각적 이미지들을 만들어 웹(Web)에 올릴 수 있다.
[0005] 이러한 VRML은 VRML전용 뷰어를 설치해야 볼 수 있는데, 현재 주로 사용되는 뷰어들로서는 카메라의 위치
변화나 복수 오브젝트에서 각각의 개체 오브젝트의 위치 제어를 가능하게 하는 제어판으로 구성되어 있지
않아서 카메라의 위치에 따른 각 오브젝트의 섬세한 제어가 불가능했기 때문에 복수 개체의 제어나 배치가
필요한 VRML 콘텐츠 제작에 이용되지 못하고 있는 실정이었다.
[0006] 또한, 가상현실을 구현하는 기법에는 3차원 기반의 아바타(Avatar), 오브젝트(Object), 공간(Scene), 실사
기반의 파노라마(Panorama) VR 및 포토 오브젝트(Photo Object) VR 등이 있다.
[0007] 그러나 이러한 가상현실을 구현하기 위한 기법은 각각의 3차원 데이터 저작도구를 이용하여 구현됨으로써,
제작된 3차원 콘텐츠는 각각의 전용 뷰어(viewer)를 이용해야만 확인할 수 있는 문제점이 있다.
[0008] 또한, 실제 공간을 모델로 이용하여 구현된 가상현실은 단순히 공간적인 이미지만을 제공할 뿐 실제 공간
의 환경정보나 상태 등을 실시간으로 제공하지 못하여 현장의 생동감을 사용자에게 제공하지 못하는 문제
점이 있다.
[0009] 따라서 상기한 문제점을 해결하기 위하여 본 발명은 다양한 가상현실 구현기술을 통합적으로 구현 및 서비
스할 수 있는 솔루션을 제공함과 동시에 실제 공간의 환경정보 및 변동 상태를 검출하여 제공할 수 있는
유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템 및 방법을 제공하는 것을 목적으
로 한다.
[0010] 상기한 목적을 달성하기 위하여 본 발명은 실제 공간을 통상의 3차원 데이터 저작도구로 구현한 원시 데이
터를 VRML 파일로 변환하고, 카메라로부터 획득한 실제 공간의 영상 데이터를 회전시켜 VR 데이터 파일로
변환하는 데이터 변환부; 상기 데이터 변환부로부터 변환된 상기 VRML 파일로부터 오브젝트 콘텐츠와 공간
콘텐츠를 생성하고, 상기 VR 데이터로부터 파노라마 VR 콘텐츠와 포토 오브젝트 VR 콘텐츠를 생성하는 가
상현실 콘텐츠 생성부; 상기 실제 공간의 환경 상태와 상기 공간의 오브젝트 콘텐츠, 공간 콘텐츠 및 파노
라마 VR 콘텐츠의 변동 상태를 검출하는 이벤트 검출부; 상기 이벤트 검출부로부터 검출된 상기 실제 공간
의 환경 상태 및 변동 상태를 3차원의 이벤트 콘텐츠로 생성하는 이벤트 콘텐츠 생성부; 상기 가상현실 콘
텐츠 생성부로부터 생성된 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠 및 포토 오브젝트 VR콘텐츠와 상기 이벤트 콘텐츠 생성부로부터 생성된 상기 이벤트 콘텐츠를 저장하고, 상기 콘텐츠들을 로컬
또는 웹상에서 제공되도록 하는 콘텐츠 관리부; 및 상기 콘텐츠 관리부로부터 제공되는 상기 오브젝트 콘
텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠가 디스플레이 되도록
뷰어 프로그램을 갖는 사용자 단말기를 포함한다.
또한, 상기 생성된 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, [0011] 포토 오브젝트 VR 콘텐츠 및 이벤
트 콘텐츠를 웹상에서 디스플레이 되도록 Html 파일로 변환하는 Html 생성부를 더 포함하는 것을 특징으로
한다.
[0012] 또한, 상기 이벤트 검출부는 상기 실제 공간의 온도, 습도 및 조도 중 적어도 하나를 포함한 환경 상태와,
상기 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 이동 중 적어도 하나를 포함한 콘텐츠의 변
동 상태를 검출하는 다수의 센서부; 및 상기 센서부로부터 검출한 환경 상태 및 변동 상태를 상기 이벤트
콘텐츠 생성부로 전송하는 이벤트 데이터 송신부를 포함하는 것을 특징으로 한다.
[0013] 또한, 상기 이벤트 콘텐츠 생성부는 상기 이벤트 검출부로부터 검출된 상기 환경 상태 및 변동 상태를 수
신하는 이벤트 데이터 수신부; 및 상기 이벤트 데이터 수신부로 수신한 상기 환경 상태 및 변동 상태를 분
석하여 해당 환경 정보, 오브젝트 콘텐츠 및 공간 콘텐츠의 변동에 따른 수치정보의 조절 및 자막설정을
통해 이벤트 콘텐츠를 생성하는 이벤트 콘텐츠 관리부를 포함하는 것을 특징으로 한다.
[0014] 또한, 상기 콘텐츠 관리부는 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR
콘텐츠 및 이벤트 콘텐츠를 압축파일로 저장하여 관리하는 3차원 콘텐츠 관리부; 및 상기 오브젝트
콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠를 웹으로 접속한
사용자 단말기에서 디스플레이될 수 있도록 뷰어 프로그램을 설치하는 뷰어 데이터 설치부를 포함하는 것
을 특징으로 한다.
[0015] 또한, 상기 이벤트 검출부와 이벤트 콘텐츠 생성부는 직비(Zigbee), 블루투스(Bluetooth) 및 와이어레스
랜(Wireless lan) 중 어느 하나를 이용하여 데이터를 송수신하는 것을 특징으로 한다.
[0016] 또한, 상기 이벤트 콘텐츠 생성부와 상기 콘텐츠 관리부는 직렬 통신 및 USB 통신 중 적어도 하나를 이용
하여 데이터를 송수신하는 것을 특징으로 한다.
[0017] 또한, 본 발명은 이벤트 콘텐츠를 생성하는 이벤트 콘텐츠 생성부가 가상현실 콘텐츠 생성부로부터 생성된
3차원의 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동과 실제 공간의 환경상태의 변동에
따라 발생한 이벤트 데이터를 검출하는 단계; 검출된 상기 이벤트 데이터를 상기 이벤트 콘텐츠 생성부가
분석하여 상기 오브젝트 콘텐츠 및 공간 콘텐츠의 변동과 상기 실제 공간의 환경상태 변동에 따른 이벤트
콘텐츠를 생성하고, 상기 생성된 이벤트 콘텐츠를 콘텐츠 관리부에 저장하는 단계; 및 상기 콘텐츠 관리부
가 로컬 또는 웹으로 접속한 사용자 단말기를 검출하여 상기 이벤트 콘텐츠, 오브젝트 콘텐츠, 공간 콘텐
츠 및 파노라마 VR 콘텐츠를 사용자 단말기로 전송하여 출력하는 단계를 포함한다.
[0018] 또한, 상기 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동과 상기 실제 공간의 환경상태 변
동에 따라 생성된 상기 이벤트 콘텐츠가 웹상에서 디스플레이 될 수 있도록 Html 파일로 변환하는 단계를
포함하는 것을 특징으로 한다.
[0019] 또한, 상기 이벤트 콘텐츠는 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동에 따른 수치정
보 및 자막이 변경되도록 하는 것을 특징으로 한다.
[0080] 상기한 바와 같이 본 발명은 실제 공간을 모델로 이용하여 구현된 가상현실공간의 환경이나 콘텐츠들의 변
동 상태를 실시간으로 제공함으로써 현장의 생동감을 사용자에게 제공할 수 있는 장점이 있다.
[0081] 또한, 본 발명은 상기 제작된 3차원 콘텐츠들과 상기 3차원 콘텐츠들의 Html 파일을 생성하여 웹상에서 용
이하게 확인할 수 있는 장점이 있다.
[0082] 이상에서는, 본 발명을 특정의 바람직한 실시예에 대해서 도시하고 설명하였다. 그러나 본 발명은 상술한
실시예에만 한정되는 것은 아니며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이하의 특
허청구범위에 기재된 본 발명의 기술적 사상의 요지를 벗어남이 없이 얼마든지 다양하게 변경 실시할 수
있을 것이다.
도 1 은 본 발명에 따른 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 [0001] 콘텐츠 구현 시스템의 구성을
나타낸 블록도.
도 2 는 도 1의 가상현실 콘텐츠 생성부 구성을 나타낸 블록도.
도 3 은 도 1의 이벤트 콘텐츠 생성부 구성을 나타낸 블록도.
도 4 는 도 1의 사용자 단말기에 사용자 뷰어의 설치를 위한 시스템 구성을 나타낸 블록도.
도 5 는 본 발명에 따른 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 방법을 나타낸
흐름도.
도 6 은 도 5의 이벤트 데이터를 이용한 콘텐츠 구현 방법을 나타낸 흐름도.
(도면의 주요 부분에 대한 부호의 설명)
100: 데이터 변환부 200: 가상현실 콘텐츠 생성부
210: VRML 생성부 220: 실사 콘텐츠 생성부
230: 데이터 저장부 300: 가상현실 콘텐츠 관리부
310: 3D 콘텐츠 관리부 320: 뷰어 데이터 설치부
400: 사용자 단말기 410: 인터넷 익스플로어
420: 임시 폴더 500: 이벤트 검출부
510: 센서부 1 511: 센서부 n
520: 이벤트 데이터 송신부 600: 이벤트 콘텐츠 생성부
610: 이벤트 데이터 수신부 620: 이벤트 콘텐츠 관리부
630: HTML 생성부
[0020] 이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명하면 다음과 같다.
[0021] 도 1은 본 발명에 따른 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템의 구성을
나타낸 블록도이다. 도 1에 도시한 바와 같이, 3차원 콘텐츠를 제작하기 위해 구현된 원시 데이터를 VRML
파일, 파노라마 VR 데이터 파일 또는 포토 오브젝트 VR 데이터 파일로 변환하는 데이터 변환부(100)와, 데
이터 변환부(100)로부터 변환된 파일들을 이용하여 3차원 가상현실 콘텐츠를 생성하는 가상현실 콘텐츠 생
성부(200)와, 실제 공간의 환경 상태와 상기 공간의 오브젝트 콘텐츠 및 공간 콘텐츠의 변동 상태를 검출
하는 이벤트 검출부(500)와, 이벤트 검출부(500)로부터 검출된 실제 공간의 환경 상태 및 변동 상태를 3차
원의 이벤트 콘텐츠로 생성하는 이벤트 콘텐츠 생성부(600)와, 가상현실 콘텐츠 생성부(200) 및 이벤트 콘
텐츠 생성부(600)에서 생성된 3차원 가상현실 콘텐츠들을 저장하고 로컬영역 또는 웹 영역에서 디스플레이
될 수 있도록 관리하는 콘텐츠 관리부(300)와, 콘텐츠 관리부(300)로부터 제공되는 3차원 콘텐츠들이 디스
플레이 되도록 뷰어프로그램을 갖는 사용자 단말기(400)를 포함한다.
[0022] 데이터 변환부(100)는 통상의 3차원 데이터 저작도구(예를 들면, 3D Studio, 3D Photo VR Editor 등)로
구현된 원시 데이터를 VRML 파일로 변환하고, 카메라로부터 획득한 영상 데이터를 회전시켜 VR 데이터 파
일로 변환한다. 즉 범용 3차원 저작도구를 이용하여 구현된 원시 데이터를 VRML 파일로 변환하여 VRML 파
일로 추출한다.
[0023] 또한, 데이터 변환부(100)는 카메라로부터 획득한 영상 데이터로부터 파노라마 VR 데이터와 포토 오브젝트
VR 데이터를 추출한다. 여기서 파노라마 VR 데이터는 카메라를 회전시켜 획득한 이미지 데이터(예를 들면,
카메라를 회전시키며 촬영한 30장 정도의 사진 데이터)를 범용 파노라마 프로그램으로 스티칭(stiching)하
여 파노라마 VR 데이터로 변환시킨다.
[0024] 또한, 포토 오브젝트 VR 데이터는 물체 즉 오브젝트를 회전시켜 획득한 이미지 데이터(예를 들면, 물체(오
브젝트)를 촬영한 30장 정도의 사진을 회전시켜 획득한 데이터)를 포토 오브젝트 VR 데이터로 변환시킨다.
[0025] 데이터 변환부(100)에서 변환된 VRML 데이터, 파노라마 VR 데이터 및 포토 오브젝트 VR 데이터는 가상현실
콘텐츠 생성부(200)로 입력된다.
[0026] 도 2는 가상현실 콘텐츠 생성부(200)의 구성을 더욱 상세하게 나타낸 블록도이다. 도 2에서, 가상현실 콘
텐츠 생성부(200)는 데이터 변환부(100)로부터 변환되어 추출된 상기 VRML 파일로부터 오브젝트 콘텐츠와
공간 콘텐츠를 생성하는 VRML 생성부(210)와, 상기 파노라마 VR 데이터 및 포토 오브젝트 VR 데이터로부터 파노라마 VR 콘텐츠와 포토 오브젝트 VR 콘텐츠를 생성하는 실사 콘텐츠 생성부(220)와, VRML 생성부(210)
및 실사 콘텐츠 생성부(220)로부터 생성된 상기 콘텐츠들을 각각의 파일 포맷에 따라 저장하는 데이터 저
장부(230)를 포함한다.
VRML 생성부(210)는 데이터 변환부(100)로부터 추출된 상기 VRML 파일로부터 [0027] 오브젝트 데이터와 공간 데이
터를 분석하고, 상기 분석된 데이터 중에서 오브젝트 데이터는 상기 오브젝트 데이터의 회전, 편집, 트리
거 설정, 오브젝트의 배경색, 조명 조절 및 애니메이션 삽입을 통해 오브젝트 콘텐츠를 생성한다.
[0028] 또한, VRML 생성부(210)는 상기 분석된 데이터 중에서 공간 데이터는 상기 공간 데이터의 옥트리 공간 분
할 설정, 뷰포인트 애니메이션 설정, 오브젝트의 링크, 빌보드, 중력값, 충돌값 및 자동회전 설정을 통해
공간 콘텐츠를 생성하고, 상기 오브젝트 콘텐츠 및 공간 콘텐츠들을 웹상에서 제공할 수 있도록 Html 파일
로 변환한다.
[0029] 여기서 VRML 생성부(210)는 3차원 오브젝트 콘텐츠 제작에 필요한 부분을 처리하기 위해 3차원 데이터 저
작도구로부터 구현된 원시 데이터를 VRML 기본 데이터 파일(예를 들면, 라이브러리)을 이용하여 오브젝트
(물체) 데이터를 독출한다.
[0030] 이 때 상기 독출된 오브젝트 데이터를 이용하여 3차원 콘텐츠를 제작하는 과정을 수행한다. 이때 오브젝트
(물체)의 자동 회전, 추가, 삭제 등의 설정을 수행하고, 오브젝트의 트리거 추가 또는 삭제 등을
설정한다.
[0031] 또한, 오브젝트의 배경색 및 조명 조절과 필요한 그림 등의 삽입을 통해 콘텐츠를 제작하며, 필요에 따라
3차원 콘텐츠 전체 또는 부분적으로 애니메이션 등을 삽입하여 3차원 오브젝트 콘텐츠를 생성한다. 상기
오브젝트 콘텐츠는 오브젝트 파일 포맷으로 생성된다.
[0032] 또한, VRML 생성부(210)는 3차원 공간 콘텐츠 제작에 필요한 부분을 처리하기 위해 3차원 데이터 저작도
구로부터 구현된 원시 데이터를 VRML 기본 데이터 파일(예를 들면, 라이브러리)을 이용하여 공간(Scene)
데이터를 독출한다.
[0033] 이 경우 독출된 상기 공간 데이터로부터 옥트리 공간 분할 설정, 뷰포인트 애니메이션 설정, 오브젝트의
링크 및 빌보드 설정을 통해 공간 콘텐츠를 생성한다.
[0034] 상기 옥트리(Octree) 공간 분할 설정은 삼차원 공간을 정육면체로 분할해가는 방식으로 분할한 공간에는
최종적으로 하나의 평면만 있도록 하여, 상대적으로 물체가 적은 공간에 괜한 메모리를 낭비하지 않는다는
공간분할 방식이다. 이것은 3차원 배면 제거 및 충돌 문제 등을 해결하는데 사용한다.
[0035] 상기 옥트리 공간 분할에서 하나의 정육면체를 노드(node :오브젝트 파일과 VRML파일에서의 노드 개념과는
다름)라고 하는데, 최대 폴리곤(Max Polygons)은 한 노드가 가질 수 있는 최대 폴리곤 수를 나타낸다. 즉,
이 폴리곤 수보다 크면 공간을 재귀적으로(recursive) 다시 분할한다.
[0036] 따라서 3차원 공간을 분할할 때, 먼저 최대 폴리곤 수를 적당히 조절하면서, 전체 노드 수를 결정한다. 또
한, 3차원 씬 공간을 최대 폴리곤 수 뿐 아니라, 서브 분할 수치로도 나눌 수 있다.
[0037] 또한, 3차원 그래픽 엔진은 웹상에서 사용되기 때문에, 파일 크기가 아주 작다. 따라서 일반적인 3차원 그
래픽 게임 엔진에서처럼, 완벽하게 카메라 및 물체간의 충돌을 감지하지 못하여 공간 데이터에 중력 베이
스(Gravity base) 값을 설정하여 충돌 및 중력을 설정하며, 설정된 값 밑으로 카메라가 내려가지 못하게
한다.
[0038] 또한, 카메라 반경은 충돌 기능과 뷰포인트 값을 설정할때, 중요하게 작용함으로, 공간 데이터의 치수
(dimension) 값에 따라서 적절하게 선택되어야 한다. 카메라의 반경보다 작은 공간(특히, 문 또는 통로
등)은 충돌 기능이 작동할 경우 카메라가 통과하지 못하므로 카메라의 Z축 반경은 카메라가 한번 움직이는
거리를 나타낸다. 따라서 공간 데이터의 치수 값에 따라서 적당하게 결정해야만 적당한 속도의 내비게이션
을 할 수 있다.
[0039] 또한, 공간 데이터에 뷰포인트(View point) 애니메이션의 추가 또는 삭제와, 내비게이션 기능을 통해 충돌
및 중력 효과를 설정하고, 오브젝트와의 앵커(Anchor), 빌보드(Billboard) 및 공간의 자동회전 등을 설정
하여 공간 콘텐츠를 생성한다. 상기 공간 콘텐츠는 공간 콘텐츠 파일 포맷으로 생성된다.
[0040] 앵커는 HTML의 링크 개념과 같이 3차원 공간상에서 다른 곳을 연결해 주는 기능이다.
[0041] 빌보드는 3차원 공간상에서, 카메라 위치 및 방향에 무관하게 물체를 일정한 방향으로 보이게 하는 기능이
다. 즉, 물체의 한 면이 카메라의 방향과 항상 수직을 이루게 한다. 간판이나 나무 등을 3차원 공간상에서
표현할 때 주로 사용된다.
[0042] 따라서 각각의 파일 포맷으로 생성된 오브젝트 콘텐츠와 공간 콘텐츠들은 출력되어 데이터 저장부(230)에
저장되고, 상기 콘텐츠들을 웹상에서 디스플레이 될 수 있도록 Html 파일로 변환한다.
[0043] 한편, 실사 콘텐츠 생성부(220)는 데이터 변환부(100)에서 범용 파노라마 프로그램을 통해 스티칭된 파노
라마 VR 데이터를 입력받아 수평(실린더형) 파노라마 VR, 수평-수직(구형) 파노라마 VR 콘텐츠를 구현하는
것으로 상기 파노라마 VR 데이터의 색상 및 밝기 조절, 상기 파노라마 VR 데이터 사이의 텔레포트 설정,
자막설정, 화질개선, 자동시점, 좌우 자동회전 및 이미지 줌인(Zoom in)/줌아웃(Zoom out) 기능을 포함한
파노라마 VR 콘텐츠를 생성한다.
[0044] 또한, 실사 콘텐츠 생성부(220)는 데이터 변환부(100)에서 입력되는 포토 오브젝트 VR 데이터 파일의
OVR(Object Virtual Reality) 이미지 기능을 이용한 이미지 편집, 포토 오브젝트 VR의 자막 설정, 화질
개선, 좌우 자동회전 및 이미지의 줌인/줌아웃 기능을 포함한 포토 오브젝트 VR 콘텐츠를 생성한다.
[0045] 또한, 실사 콘텐츠 생성부(220)에서 생성된 파노라마 VR 콘텐츠와, 포토 오브젝트 VR 콘텐츠들은 웹상에서
디스플레이 될 수 있도록 Html 파일로 변환되고, 각각의 파일 포맷으로 생성된 상기 파노라마 VR 콘텐츠 및 포토 오브젝트 콘텐츠의 파일은 데이터 저장부(230)에 저장된다.
도 3은 이벤트 콘텐츠를 생성하기 위한 구성을 더욱 상세하게 나타낸 도면으로서, [0046] 도 1 및 도 3에 나타낸
바와 같이 이벤트 검출부(500)는 실제 공간의 환경 상태와 상기 공간의 오브젝트 콘텐츠 및 공간 콘텐츠의
변동 상태를 검출하는 구성으로 예를 들면, 실제 공간의 온도, 습도 및 조도 중 적어도 하나를 포함한 환
경 상태와, 상기 오브젝트 콘텐츠 및 공간 콘텐츠 중 적어도 하나를 포함한 콘텐츠의 변동 상태를 검출하
는 다수의 센서부(510 및 511)와, 다수의 센서부(510 및 511)로부터 검출한 환경 상태 및 변동 상태를 이
벤트 콘텐츠 생성부(600)로 전송하는 이벤트 데이터 송신부(520)를 포함한다.
[0047] 다수의 센서부(510 및 511)를 통해 실제 공간의 온도, 습도 및 조도 등의 환경이 변동(증가 또는 감소)되
는 상태나 가상현실 콘텐츠 생성부(200)에서 생성된 오브젝트 콘텐츠나 공간 콘텐츠(예를 들면, 개폐가 가
능한 도어 및 창문과, 온(ON)/오프(OFF)를 통한 동작의 검출이 가능한 기구장치 등)등의 변동 상태를 실시
간으로 검출하여 제공함으로써 더욱 생동감을 제공할 수 있게 된다.
[0048] 즉 온도 센서로부터 주기적으로 검출한 현재 온도를 16진수 등의 데이터가 일정한 형태의 수치데이터로 제
공되도록 하여 현장의 환경 상태 변동을 제공한다.
[0049] 또한, 도어 또는 창문 등의 공간 콘텐츠에는 개폐를 인식할 수 있는 센서를 설치함으로서, 도어 또는 창문
의 개폐가 발생하면 확인할 수 있도록 한다. 즉 도어가 닫히면 "0"의 데이터가 전달되도록 하고, 도어가
개방되면 "1"의 데이터가 전달되도록 하여 도어의 개폐를 확인할 수 있다.
[0050] 또한 실제 공간에서 전원을 사용하여 동작하는 오브젝트 콘텐츠의 경우 전원의 온/오프를 통해 동작의 유
무를 확인할 수 있다.
[0051] 또한, 이벤트 콘텐츠 생성부(520)는 이벤트 검출부(500)로부터 검출된 실제 공간의 환경 상태 및 변동 상
태를 3차원의 이벤트 콘텐츠로 생성하는 구성으로, 이벤트 검출부(500)로부터 검출된 상기 환경 상태 및
콘텐츠들의 변동 상태를 수신하는 이벤트 데이터 수신부(610)와, 이벤트 데이터 수신부(610)로 수신한 상
기 환경 상태 및 변동 상태를 분석하여 해당 환경 정보, 오브젝트 콘텐츠 및 공간 콘텐츠의 변동에 따른
수치정보의 설정변경 및 자막의 설정변경을 통해 이벤트 콘텐츠를 생성하는 이벤트 콘텐츠 관리부(620)와,
이벤트 콘텐츠 관리부(620)로부터 생성된 이벤트 콘텐츠를 웹상에서 디스플레이 되도록 Html 파일로 변환
하는 Html 생성부(630)를 포함한다.
[0052] 이벤트 데이터 수신부(610)는 이벤트 검출부(500)와 직비(Zigbee), 블루투스(Bluetooth) 및 와이어레스 랜
(Wireless lan) 중 어느 하나를 이용하여 무선 데이터 통신이 수행되도록 하고, 바람직하게 직비(Zigbee)
를 이용하여 무선 데이터 통신을 수행한다. 직비는 저전력, 저규모 무선 네트워크를 구축할 수 있는 새로
운 프로토콜로서, IEEE 규격으로는 802154 표준으로 제정되어 있다.
[0053] 이벤트 콘텐츠 관리부(620)는 온도, 습도 및 조도 등의 환경 상태가 바뀐 경우 이를 표시하기 위해 3차원
의 이벤트 콘텐츠를 새롭게 생성하거나 또는 현재 상태를 변동시켜 수치정보의 조절 및 자막 설정의 변경
을 통해 이벤트 콘텐츠를 수정한다.
[0054] 또한, 이벤트 콘텐츠 관리부(620)는 온(ON)/오프(OFF) 동작이 검출된 오브젝트 콘텐츠 또는 공간 콘텐츠의
변동을 표시하기 위해 자막 설정 변경하여 이벤트 콘텐츠를 생성한다.
[0055] 한편, 실사 콘텐츠 생성부(220)에서 생성된 파노라마 VR 콘텐츠는 현장의 온도, 습도 및 조도 등의 이벤트
발생 여부를 검출하여 변동이 검출된 이벤트 콘텐츠를 제공할 수 있다. 즉 파노라마 VR 콘텐츠의 경우 핫
스팟과 같이 수치 데이터를 표시할 수 있는 일정 영역을 설정하고, 상기 설정된 영역에 수치 데이터 등의
이벤트 콘텐츠를 표시할 수 있다.
[0056] Html 생성부(630)는 생성된 이벤트 콘텐츠를 웹상에서 디스플레이 되도록 Html 파일로 변환한다.
[0057] 한편, 이벤트 콘텐츠 관리부(620)에서 생성된 이벤트 콘텐츠는 사용자의 선택에 따라 HTML 생성부(620)에
서 HTML 데이터로 변환되어 출력하는 것도 가능하고, HTML 데이터로의 변환없이 생성된 포맷으로 출력하는
것도 가능하다.
[0058] 다시 도 1을 참조하면, 콘텐츠 관리부(300)는 가상현실 콘텐츠 생성부로(200)부터 생성된 상기 오브젝트
콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠 및 포토 오브젝트 VR 콘텐츠와, 이벤트 콘텐츠 생성부(600)로부
터 생성된 이벤트 콘텐츠 파일을 업로드(Upload)하여 로컬 또는 웹상에서 제공되도록 관리한다.
[0059] 도 4는 콘텐츠 관리부(300)의 구성과 사용자 단말기(400)에 사용자 뷰어 설치를 위한 시스템 구성을 나타
낸 블록도이다. 도 4에서, 콘텐츠 관리부(300)는 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR
콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠를 압축 파일로 저장하여 관리하는 3차원 콘텐츠 관리
부(310)와, 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트
콘텐츠를 웹으로 접속한 사용자 단말기에서 디스플레이될 수 있도록 뷰어 프로그램을 설치하는 뷰어 데이
터 설치부(320)를 포함한다. 바람직하게 콘텐츠 관리부(300)는 서버시스템이다.
[0060] 사용자 단말기(400)는 콘텐츠 관리부(300)로부터 제공되는 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마
VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠가 디스플레이 되도록 뷰어프로그램을 갖는다. 바람
직하게 사용자 단말기(400)는 PC이다.
[0061] 사용자 단말기(400)가 웹상에서 제공되는 3차원 콘텐츠 데이터를 제공받기 위하여 사용자 단말기(400)에
설치된 인터넷 익스플로어(410)를 통해 콘텐츠 관리부(300)와 접속하면, 콘텐츠 관리부(300)의 3차원 콘텐
츠 관리부(310)는 사용자 단말기(400)에서 3차원 콘텐츠 데이터가 디스플레이 될 수 있도록 뷰어 프로그램
의 설치를 여부를 확인한다.
[0062] 사용자 단말기(400)에 뷰어 프로그램이 설치되어 있지 않은 경우 콘텐츠 관리부(300)의 뷰어 데이터 설치
부(320)는 사용자 단말기(400)에 뷰어 프로그램을 설치하고, 상기 뷰어 프로그램의 설치가 종료된 경우
Html에 포함된 3차원 콘텐츠 데이터를 사용자 단말기(400)의 임시 폴더(420)에 저장하고, 인터넷 익스플로어(410)에 디스플레이 되도록 한다.
또한, 뷰어 프로그램이 종료되면 임시 폴더([0063] 420)에 저장된 파일들을 삭제한다.
[0064] 도 5는 본 발명에 따른 실시간 3차원 가상현실 콘텐츠 구현 방법을 나타낸 흐름도이고, 도 6은 도 5의 이
벤트 데이터를 이용한 콘텐츠 구현 방법을 나타낸 흐름도이다.
[0065] 도 1 내지 도 6을 참조하면, 3차원 콘텐츠를 생성하는 가상현실 콘텐츠 생성부(200) 및 이벤트 콘텐츠 생
성부(600)가 데이터 변환부(100)와 이벤트 검출부(500)로부터 상기 3차원 콘텐츠 구현을 위한 원시 데이터
및 이벤트 데이터를 검출하여 분석한다.(S100 및 S200)
[0066] 판단 결과 분석된 데이터가 3차원 데이터 저작도구로부터 생성된 VRML 데이터로서 3차원 콘텐츠 구현을 위
한 원시데이터인 경우 가상현실 콘텐츠 생성부(200)는 상기 VRML 데이터를 분석하여 오브젝트 데이터 및
공간 데이터로 분류(S300)한다.
[0067] 상기 S300단계에서 분류된 상기 오브젝트 데이터 및 공간 데이터는 VRML 기본 데이터 파일(예를 들면, 라
이브러리)을 통해 각각의 데이터를 편집하여 오브젝트 콘텐츠 및 공간 콘텐츠를 생성(S400)하고, 상기
S400단계에서 생성된 콘텐츠들을 콘텐츠 관리부(300)에 업로드 시켜 등록 후 저장(S500)한다.
[0068] 또한, 상기 S400단계에서 생성된 상기 콘텐츠들은 웹상에서 디스플레이 될 수 있도록 Html 파일로 변환하
는 단계를 더 포함한다.
[0069] 상기 S400단계에서 생성되는 오브젝트 콘텐츠는 상기 오브젝트 데이터가 VRML 기본 데이터 파일을 이용하
여 독출되고, 상기 독출된 오브젝트 데이터에 회전, 편집, 트리거 설정, 오브젝트의 배경색, 조명 조절 및
애니메이션을 삽입하여 생성된다.
[0070] 또한, 상기 S400단계서 생성되는 공간 콘텐츠는 상기 공간 데이터가 VRML 기본 데이터 파일을 이용하여 독
출하고, 상기 독출된 공간 데이터에 공간 분할 설정, 뷰포인트 애니메이션 설정, 오브젝트의 링크 및 빌보
드 기능을 설정하여 생성된다.
[0071] 상기 S500단계를 수행한 후 콘텐츠 관리부(300)가 로컬 또는 웹으로 접속한 사용자 단말기(400)를 검출
(S600)하여 상기 오브젝트 및 공간 콘텐츠의 디스플레이용 뷰어 프로그램의 설치되었는지 여부를 판단
(S700)한다.
[0072] 상기 S700단계의 판단 결과 사용자 단말기(400)에 상기 뷰어 프로그램이 설치되어 있는 경우 콘텐츠 관리
부(300)가 상기 오브젝트 콘텐츠 및 공간 콘텐츠와 후술하는 이벤트 콘텐츠를 표시하여(S800) 사용자 단말
기(400)로 전송하여 출력(S900)한다.
[0073] 또한, 상기 원시 데이터가 카메라로부터 획득한 실사 데이터인 경우 가상현실 콘텐츠 생성부(200)는 상기
실사 데이터를 분석하여 파노라마 VR 데이터 및 포토 오브젝트 VR 데이터로 분류하여 파노라마 VR 콘텐츠
및 포토 오브젝트 VR 콘텐츠를 생성하고, 상기 생성된 콘텐츠를 가상현실 콘텐츠 관리부(300)에 업로드 하
여 등록 후 저장한다.
[0074] 한편, 상기 S200단계에서 가상현실 콘텐츠 생성부(200)로부터 생성된 3차원의 오브젝트 콘텐츠 및 공간 콘
텐츠의 변동과 실제 공간의 환경상태의 변동에 따라 발생한 이벤트 데이터가 검출된 경우 이벤트 콘텐츠
생성부(600)가 검출된 각각의 이벤트 데이터를 분석한다.(S210 및 S220)
[0075] 상기 S220단계에서 분석된 이벤트 데이터는 이벤트 콘텐츠 생성부(600)에서 오브젝트 콘텐츠 및 공간 콘텐
츠의 변동과 상기 실제 공간의 환경상태 변동에 따라 이벤트 콘텐츠로 생성된다(S230)
[0076] 즉 온도, 습도 및 조도 등의 환경 상태가 바뀐 경우 이를 표시하기 위해 3차원의 이벤트 콘텐츠를 새롭게
생성하거나 또는 현재 상태를 변동시켜 수치정보의 조절, 자막설정을 통해 이벤트 콘텐츠를 수정한다.
[0077] 또한, 온/오프 동작이 검출된 오브젝트 콘텐츠 또는 공간 콘텐츠의 변동을 표시하기 위해 자막설정, 터치
센서 등의 자동실행을 통해 이벤트 콘텐츠를 생성한다.
[0078] 또한, 상기 생성된 이벤트 콘텐츠가 웹상에서 디스플레이 될 수 있도록 Html 파일로 변환된다.
[0079] 상기 S230단계에서 생성된 이벤트 콘텐츠는 콘텐츠 관리부(300)에 저장(S240)되고, 콘텐츠 관리부(300)가
상기 오브젝트 콘텐츠 및 공간 콘텐츠와 이벤트 콘텐츠를 표시하여(S800) 상기 S230단계에서 생성된 이벤
트 콘텐츠와, S400단계에서 생성된 오브젝트 콘텐츠 및 공간 콘텐츠를 사용자 단말기(400)로 전송하여 출
력(S900)한다.

Claims (10)

  1. 실제 공간을 통상의 3차원 데이터 저작도구로 구현한 원시 데이터를 VRML 파일로 변환하고, 카메라로부터
    획득한 실제 공간의 영상 데이터를 회전시켜 VR 데이터 파일로 변환하는 데이터 변환부;
    상기 데이터 변환부로부터 변환된 상기 VRML 파일로부터 오브젝트 콘텐츠와 공간 콘텐츠를 생성하고, 상기
    VR 데이터로부터 파노라마 VR 콘텐츠와 포토 오브젝트 VR 콘텐츠를 생성하는 가상현실 콘텐츠 생성부;
    상기 실제 공간의 환경 상태와 상기 공간의 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동
    상태를 검출하는 이벤트 검출부;
    상기 이벤트 검출부로부터 검출된 상기 실제 공간의 환경 상태 및 변동 상태를 3차원의 이벤트 콘텐츠로
    생성하는 이벤트 콘텐츠 생성부;
    상기 가상현실 콘텐츠 생성부로부터 생성된 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠 및
    포토 오브젝트 VR 콘텐츠와 상기 이벤트 콘텐츠 생성부로부터 생성된 상기 이벤트 콘텐츠를 저장하고, 상
    기 콘텐츠들을 로컬 또는 웹상에서 제공되도록 하는 콘텐츠 관리부; 및
    상기 콘텐츠 관리부로부터 제공되는 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브
    젝트 VR 콘텐츠 및 이벤트 콘텐츠가 디스플레이 되도록 뷰어 프로그램을 갖는 사용자 단말기를 포함하는
    유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템.
  2. 상기 생성된 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘
    텐츠를 웹상에서 디스플레이 되도록 Html 파일로 변환하는 Html 생성부를 더 포함하는 것을 특징으로 하는
    유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 이벤트 검출부는 상기 실제 공간의 온도, 습도 및 조도 중 적어도 하나를 포함한 환경 상태와, 상기
    오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 이동 중 적어도 하나를 포함한 콘텐츠의 변동 상
    태를 검출하는 다수의 센서부; 및
    상기 센서부로부터 검출한 환경 상태 및 변동 상태를 상기 이벤트 콘텐츠 생성부로 전송하는 이벤트 데이
    터 송신부를 포함하는 것을 특징으로 하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구
    현 시스템.
  4. 제 1 항 또는 제 2 항에 있어서,
    상기 이벤트 콘텐츠 생성부는 상기 이벤트 검출부로부터 검출된 상기 환경 상태 및 변동 상태를 수신하는
    이벤트 데이터 수신부; 및
    상기 이벤트 데이터 수신부로 수신한 상기 환경 상태 및 변동 상태를 분석하여 해당 환경 정보, 오브젝트
    콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동에 따른 수치정보의 조절 및 자막설정을 통해 이벤트
    콘텐츠를 생성하는 이벤트 콘텐츠 관리부를 포함하는 것을 특징으로 하는 유비쿼터스 센서 네트워크를 이
    용한 3차원 가상현실 콘텐츠 구현 시스템.
  5. 제 1 항 또는 제 2 항에 있어서,
    상기 콘텐츠 관리부는 상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠
    및 이벤트 콘텐츠를 압축파일로 저장하여 관리하는 3차원 콘텐츠 관리부; 및
    상기 오브젝트 콘텐츠, 공간 콘텐츠, 파노라마 VR 콘텐츠, 포토 오브젝트 VR 콘텐츠 및 이벤트 콘텐츠를
    웹으로 접속한 사용자 단말기에서 디스플레이될 수 있도록 뷰어 프로그램을 설치하는 뷰어 데이터 설치부
    를 포함하는 것을 특징으로 하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템.
  6. 제 1 항 또는 제 2 항에 있어서,
    상기 이벤트 검출부와 이벤트 콘텐츠 생성부는 직비(Zigbee), 블루투스(Bluetooth) 및 와이어레스 랜
    (Wireless lan) 중 어느 하나를 이용하여 데이터를 송수신하는 것을 특징으로 하는 유비쿼터스 센서 네트
    워크를 이용한 3차원 가상현실 콘텐츠 구현 시스템.
  7. 제 1 항 또는 제 2 항에 있어서,
    상기 이벤트 콘텐츠 생성부와 상기 콘텐츠 관리부는 직렬 통신 및 USB 통신 중 적어도 하나를 이용하여 데
    이터를 송수신하는 것을 특징으로 하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현
    시스템.
  8. a) 이벤트 콘텐츠를 생성하는 이벤트 콘텐츠 생성부가 가상현실 콘텐츠 생성부로부터 생성된 3차원의 상기
    오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동과 실제 공간의 환경상태의 변동에 따라 발생
    한 이벤트 데이터를 검출하는 단계;
    b) 단계 a에서 검출된 상기 이벤트 데이터를 상기 이벤트 콘텐츠 생성부가 분석하여 상기 오브젝트
    콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동과 상기 실제 공간의 환경상태 변동에 따른 이벤트 콘
    텐츠를 생성하고, 상기 생성된 이벤트 콘텐츠를 콘텐츠 관리부에 저장하는 단계; 및
    c) 상기 콘텐츠 관리부가 로컬 또는 웹으로 접속한 사용자 단말기를 검출하여 상기 이벤트 콘텐츠, 오브젝
    트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠를 사용자 단말기로 전송하여 출력하는 단계를 포함하는 유
    비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현방법.
  9. 제 8 항에 있어서,
    단계 b는 상기 생성된 상기 이벤트 콘텐츠가 웹상에서 디스플레이될 수 있도록 Html 파일로 변환하는 단계
    를 포함하는 것을 특징으로 하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠 구현 방법.
  10. 제 8 항에 있어서,
    상기 이벤트 콘텐츠는 오브젝트 콘텐츠, 공간 콘텐츠 및 파노라마 VR 콘텐츠의 변동에 따른 수치정보 및
    자막이 변경되도록 하는 것을 특징으로 하는 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠
    구현 방법.
KR1020220123422A 2022-09-28 2022-09-28 유비쿼터스 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법 KR20240044097A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220123422A KR20240044097A (ko) 2022-09-28 2022-09-28 유비쿼터스 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220123422A KR20240044097A (ko) 2022-09-28 2022-09-28 유비쿼터스 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법

Publications (1)

Publication Number Publication Date
KR20240044097A true KR20240044097A (ko) 2024-04-04

Family

ID=90637863

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220123422A KR20240044097A (ko) 2022-09-28 2022-09-28 유비쿼터스 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법

Country Status (1)

Country Link
KR (1) KR20240044097A (ko)

Similar Documents

Publication Publication Date Title
KR100661052B1 (ko) 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법
US11663785B2 (en) Augmented and virtual reality
US20060158461A1 (en) Controls for digital lighting
US11443450B2 (en) Analyzing screen coverage of a target object
KR100573983B1 (ko) 3차원 가상현실 콘텐츠 구현 시스템 및 구현 방법
JP2009194597A (ja) 送受信システム、送信装置、送信方法、受信装置、受信方法、提示装置、提示方法、プログラム、及び記録媒体
CN109032339A (zh) 一种实时智能体感同步的方法及系统
KR20240044097A (ko) 유비쿼터스 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법
US20120256946A1 (en) Image processing apparatus, image processing method and program
KR100403942B1 (ko) 3차원 가상공간내에서 목적물 선택시 동영상을 구현하는시스템
WO2021171982A1 (ja) 画像処理装置、3dモデルの生成方法、学習方法およびプログラム
CN112053420B (zh) 动态编辑视点动画汇报的生成方法及系统
KR100403943B1 (ko) 3차원 가상공간 화면에서 목적물의 이미지를 재구성편집하는 시스템
KR20000050196A (ko) 3차원 가상공간 화면상에서 관람자의 관람방향을 표시하고이와 연동하여 목적물의 3차원 형태가 변화하는 3차원가상공간 시스템 및 이를 구현하는 방법
Giertsen et al. An open system for 3D visualisation and animation of geographic information
WO2009101998A1 (ja) 放送システム、送信装置、送信方法、受信装置、受信方法、提示装置、提示方法、プログラム、及び記録媒体
WO2014111160A1 (en) Device and method for rendering of moving images and set of time coded data containers
CN117095099A (zh) 一种提供在线智能三维场景设计与渲染的系统
JP2023167486A (ja) 画像処理装置、画像処理方法およびプログラム
CN117376545A (zh) 基于位置的显示播放控制方法及装置
JP2009194596A (ja) 送受信システム、送信装置、送信方法、受信装置、受信方法、提示装置、提示方法、プログラム、及び記録媒体
KR20000054151A (ko) 3차원 가상공간 화면에서 해당 목적물의 주변 접근시목적물의 축소 이미지를 나타내는 시스템