JP2009528646A - ユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現システム及び具現方法 - Google Patents

ユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現システム及び具現方法 Download PDF

Info

Publication number
JP2009528646A
JP2009528646A JP2008558217A JP2008558217A JP2009528646A JP 2009528646 A JP2009528646 A JP 2009528646A JP 2008558217 A JP2008558217 A JP 2008558217A JP 2008558217 A JP2008558217 A JP 2008558217A JP 2009528646 A JP2009528646 A JP 2009528646A
Authority
JP
Japan
Prior art keywords
content
event
data
virtual reality
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008558217A
Other languages
English (en)
Inventor
サン ムー ヒュン
Original Assignee
キューテル ソフト シーオー エルティディ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to KR1020060084369A priority Critical patent/KR100661052B1/ko
Application filed by キューテル ソフト シーオー エルティディ filed Critical キューテル ソフト シーオー エルティディ
Priority to PCT/KR2007/002362 priority patent/WO2008026817A1/en
Publication of JP2009528646A publication Critical patent/JP2009528646A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition

Abstract

本発明は、様々な仮想現実の具現技術を統合的に具現及びサービス可能なソリューションを提供し、現実空間の温度、照度、湿度などの環境情報と、コンテンツらの動作状態と、を仮想現実でリアルタイムに表現できる、ユビキタスセンサーネットワークを用いた3次元仮想現実の具現に関する。このために、原始データから3次元コンテンツを生成する仮想現実コンテンツ生成部と、前記コンテンツの変動状態を検出するイベント検出部と、前記イベント検出部から検出された前記現実空間の環境状態及び変動状態を3次元のイベントコンテンツとして生成するイベントコンテンツ生成部と、前記仮想現実コンテンツ生成部から生成されたコンテンツと、イベントコンテンツ生成部から生成された前記イベントコンテンツとを格納し、前記コンテンツをローカルまたはウェブ上で提供されるようにするコンテンツ管理部と、前記コンテンツ管理部から提供される前記コンテンツがディスプレイされるように、ビューアープログラムを持つ使用者端末と、を含む。したがって、現実空間をモデルに用いて具現された仮想現実空間の環境やコンテンツの変動状態をリアルタイムに提供することによって、現場の生動感を使用者に提供できるという長所がある。
【選択図】図1

Description

本発明は、ユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現に関し、より詳細には、様々な仮想現実具現技術を統合的に具現及びサービス可能なソリューションを提供し、現実空間の温度、照度、湿度などの環境情報と、コンテンツらの動作状態と、を仮想現実でリアルタイムに表現できる、ユビキタスセンサーネットワークを用いた3次元仮想現実具現に関する。
一般に、VRML(Virtual Reality Modeling Language:仮想現実モデリング言語)コードは、インターネット基盤の3次元立体映像を具現するために作られた3次元映像具現プログラミング言語であって、HTMLコードと同様に情報を表現する言語である。
即ち、VRMLコードは、使用者(クライアント)との相互作用が可能な3次元イメージ場面などを描写するための言語であり、これを利用すると、3次元画面でオブジェクトを使用者が見て、動いて、回して、相互作用できるように視覚的イメージを作って、ウェブ(Web)に載せることができる。
このようなVRMLは、VRML専用ビューアーを設置してこそ見ることができるが、現在、主に使われるビューアーでは、カメラの位置変化や複数のオブジェクトにおける各々の個体オブジェクトの位置制御を可能にする制御板により構成されておらず、カメラの位置による各オブジェクトの繊細な制御ができなかったために、複数の個体の制御や配置が必要なVRMLコンテンツの製作に利用できていない実情であった。
また、仮想現実を具現する技法には、3次元基盤のアバター(Avatar)、オブジェクト(Object)、空間(Scene)、実写基盤のパノラマ(Panorama)VR、及び、フォトオブジェクト(Photo Object)VRなどがある。
しかしながら、このような仮想現実を具現するための技法は、各々の3次元データのオーサリングツールを用いて具現されることによって、製作された3次元コンテンツは、各々の専用ビューアーを使用しなけらば確認できないという問題点がある。
また、現実空間をモデルに用いて具現された仮想現実は、単純に空間的なイメージのみを提供するだけであり、現実空間の環境情報や状態などをリアルタイムに提供できなくて、現場の生動感を使用者に提供できないという問題点がある。
したがって、上記の問題点を解決するために本発明は、様々な仮想現実具現技術を統合的に具現及びサービス可能なソリューションを提供すると共に、現実空間の環境情報及び変動状態を検出して提供できる、ユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現システム及び方法を提供することを目的とする。
上記の目的を達成するために本発明は、現実空間を通常の3次元データのオーサリングツールで具現した原始データをVRMLファイルに変換し、カメラから獲得した現実空間の映像データを回転させてVRデータファイルに変換するデータ変換部と、前記データ変換部から変換された前記VRMLファイルからオブジェクトコンテンツと空間コンテンツとを生成し、前記VRデータからパノラマVRコンテンツとフォトオブジェクトVRコンテンツとを生成する仮想現実コンテンツ生成部と、前記現実空間の環境状態と、前記空間のオブジェクトコンテンツ、空間コンテンツ及びパノラマVRコンテンツの変動状態とを検出するイベント検出部と、前記イベント検出部から検出された前記現実空間の環境状態及び変動状態を3次元のイベントコンテンツとして生成するイベントコンテンツ生成部と、前記仮想現実コンテンツ生成部から生成された前記オブジェクトコンテンツ、空間コンテンツ、パノラマVRコンテンツ及びフォトオブジェクトVRコンテンツと、前記イベントコンテンツ生成部から生成された前記イベントコンテンツとを格納し、前記コンテンツをローカルまたはウェブ上で提供されるようにするコンテンツ管理部と、前記コンテンツ管理部から提供されている前記オブジェクトコンテンツ、空間コンテンツ、パノラマVRコンテンツ、フォトオブジェクトVRコンテンツ及びイベントコンテンツがディスプレイされるように、ビューアープログラムを持つ使用者端末と、を含む。
また、前記生成されたオブジェクトコンテンツ、空間コンテンツ、パノラマVRコンテンツ、フォトオブジェクトVRコンテンツ及びイベントコンテンツをウェブ上でディスプレイされるようにHTMLファイルに変換するHTML生成部を更に含む。
また、前記イベント検出部は、前記現実空間の温度、湿度及び照度の少なくとも一つを含む環境状態と、前記オブジェクトコンテンツ、空間コンテンツ及びパノラマVRコンテンツの移動の少なくとも一つを含むコンテンツの変動状態と、を検出する多数のセンサー部と、前記センサー部から検出した環境状態及び変動状態を前記イベントコンテンツ生成部に転送するイベントデータ送信部と、を含む。
また、前記イベントコンテンツ生成部は、前記イベント検出部から検出された前記環境状態及び変動状態を受信するイベントデータ受信部と、前記イベントデータ受信部にて受信した前記環境状態及び変動状態を分析して、該当環境情報、オブジェクトコンテンツ及び空間コンテンツの変動による数値情報の調節及び字幕設定によって、イベントコンテンツを生成するイベントコンテンツ管理部と、を含む。
また、前記コンテンツ管理部は、前記オブジェクトコンテンツ、空間コンテンツ、パノラマVRコンテンツ、フォトオブジェクトVRコンテンツ及びイベントコンテンツを圧縮ファイルとして格納して管理する3次元コンテンツ管理部と、前記オブジェクトコンテンツ、空間コンテンツ、パノラマVRコンテンツ、フォトオブジェクトVRコンテンツ及びイベントコンテンツを、ウェブに接続した使用者端末でディスプレイできるように、ビューアープログラムを設置するビューアーデータ設置部と、を含む。
また、前記イベント検出部とイベントコンテンツ生成部とは、ジグビー(Zigbee)、ブルートゥース(Bluetooth(登録商標))及び無線LAN(Wireless LAN)のいずれかを用いてデータを送受信する。
また、前記イベントコンテンツ生成部と前記コンテンツ管理部とは、直列通信及びUSB通信の少なくとも一つを用いてデータを送受信する。
また、本発明は、イベントコンテンツを生成するイベントコンテンツ生成部が、仮想現実コンテンツ生成部から生成された3次元のオブジェクトコンテンツ、空間コンテンツ及びパノラマVRコンテンツの変動と現実空間の環境状態の変動とによって発生したイベントデータを検出する段階と、検出された前記イベントデータを前記イベントコンテンツ生成部が分析して、前記オブジェクトコンテンツ及び空間コンテンツの変動と前記現実空間の環境状態の変動とに伴うイベントコンテンツを生成し、前記生成されたイベントコンテンツをコンテンツ管理部に格納する段階と、前記コンテンツ管理部が、ローカルまたはウェブに接続した使用者端末を検出して、前記イベントコンテンツ、オブジェクトコンテンツ、空間コンテンツ及びパノラマVRコンテンツを使用者端末に転送して出力する段階と、を含む。
また、前記オブジェクトコンテンツ、空間コンテンツ及びパノラマVRコンテンツの変動と前記現実空間の環境状態の変動とによって生成された前記イベントコンテンツがウェブ上でディスプレイされ得るように、HTMLファイルに変換する段階、を含む。
また、前記イベントコンテンツは、オブジェクトコンテンツ、空間コンテンツ及びパノラマVRコンテンツの変動による数値情報及び字幕が変更されるようにする。
上記したように、本発明は、現実空間をモデルに用いて具現された仮想現実空間の環境やコンテンツの変動状態をリアルタイムに提供することによって、現場の生動感を使用者に提供できるという長所がある。
また、本発明は、前記製作された3次元コンテンツと前記3次元コンテンツとのHTMLファイルを生成して、ウェブ上で容易に確認できるという長所がある。
以下、添付の図面を参照して、本発明の望ましい実施形態を説明すると、以下の通りである。
図1は、本発明に係るユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現システムの構成を示したブロック図である。図1に示したように、3次元コンテンツを製作するために具現された原始(RAW)データを、VRMLファイル、パノラマVRデータファイルまたはフォトオブジェクトVRデータファイルに変換するデータ変換部100と、データ変換部100から変換されたファイルを用いて3次元仮想現実コンテンツを生成する仮想現実コンテンツ生成部200と、現実空間の環境状態と前記空間のオブジェクトコンテンツ及び空間コンテンツの変動状態とを検出するイベント検出部500と、イベント検出部500から検出された現実空間の環境状態及び変動状態を3次元のイベントコンテンツとして生成するイベントコンテンツ生成部600と、仮想現実コンテンツ生成部200及びイベントコンテンツ生成部600で生成された3次元仮想現実コンテンツを格納し、ローカル領域またはウェブ領域でディスプレイされ得るように管理するコンテンツ管理部300と、コンテンツ管理部300から提供される3次元コンテンツがディスプレイされるようにビューアープログラムを持つ使用者端末400と、を含む。
データ変換部100は、通常の3次元データのオーサリングツール(例えば、3D Studio、3D Photo VR Editorなど)で具現された原始データをVRMLファイルに変換し、カメラから獲得した映像データを回転させてVRデータファイルに変換する。即ち、汎用3次元のオーサリングツールを用いて具現された原始データをVRMLファイルに変換してVRMLファイルとして抽出する。
また、データ変換部100は、カメラから獲得した映像データからパノラマVRデータとフォトオブジェクトVRデータとを抽出する。ここで、パノラマVRデータは、カメラを回転させて獲得したイメージデータ(例えば、カメラを回転させながら撮影した30枚程度の写真データ)を汎用パノラマプログラムでステッチング (stitching)してパノラマVRデータに変換させる。
また、フォトオブジェクトVRデータは、物体、即ち、オブジェクトを回転させて獲得したイメージデータ(例えば、物体(オブジェクト)を撮影した30枚程度の写真を回転させて獲得したデータ)をフォトオブジェクトVRデータに変換させる。
データ変換部100で変換されたVRMLデータ、パノラマVRデータ及びフォトオブジェクトVRデータは、仮想現実コンテンツ生成部200に入力される。
図2は、仮想現実コンテンツ生成部200の構成をより詳細に示したブロック図である。
図2において、仮想現実コンテンツ生成部200は、データ変換部100から変換されて抽出された前記VRMLファイルから、オブジェクトコンテンツと空間コンテンツとを生成するVRML生成部210と、前記パノラマVRデータ及びフォトオブジェクトVRデータから、パノラマVRコンテンツとフォトオブジェクトVRコンテンツとを生成する実写コンテンツ生成部220と、VRML生成部210及び実写コンテンツ生成部220から生成された前記コンテンツを、各々のファイルフォーマットによって格納するデータ格納部230と、を含む。
VRML生成部210は、データ変換部100から抽出された前記VRMLファイルからオブジェクトデータと空間データとを分析し、前記分析されたデータのうち、オブジェクトデータは、前記オブジェクトデータの回転、編集、トリガー設定、オブジェクトの背景色、照明調節及びアニメーション挿入を通じてオブジェクトコンテンツを生成する。
また、VRML生成部210は、前記分析されたデータのうち、空間データは、前記空間データのオクトリ空間分割設定、ビューポイントアニメーション設定、オブジェクトのリンク、ビルボード、重力値、衝突値及び自動回転設定を通じて空間コンテンツを生成し、前記オブジェクトコンテンツ及び空間コンテンツをウェブ上で提供できるようにHTMLファイルに変換する。
ここで、VRML生成部210は、3次元オブジェクトコンテンツの製作に必要な部分を処理するために、3次元データのオーサリングツールから具現された原始データをVRML基本データファイル(例えば、ライブラリ)を用いてオブジェクト(物体)データを読み出す。
この場合、前記読み出されたオブジェクトデータを用いて3次元コンテンツを製作する過程を行う。この場合、オブジェクト(物体)の自動回転、追加、削除などの設定を行い、オブジェクトのトリガーの追加または削除などを設定する。
また、オブジェクトの背景色及び照明の調節と必要な絵などの挿入を通じてコンテンツを製作し、必要によって、3次元コンテンツの全体または部分的にアニメーションなどを挿入して、3次元オブジェクトコンテンツを生成する。前記オブジェクトコンテンツは、オブジェクトファイルフォーマットに生成される。
また、VRML生成部210は、3次元空間コンテンツの製作に必要な部分を処理するために、3次元データのオーサリングツールから具現された原始データをVRML基本データファイル(例えば、ライブラリ)を用いて空間(Scene)データを読み出す。
この場合、読み出された前記空間データから、オクトリ空間分割設定、ビューポイントアニメーション設定、オブジェクトのリンク及びビルボード設定を通じて空間コンテンツを生成する。
前記オクトリ(Octree)空間分割設定は、3次元空間を正六面体に分割していく方式であって、分割した空間には、最終的に、一つの平面のみがあるようにして、相対的に物体が少ない空間に無駄なメモリーを浪費しないという空間分割方式である。これは、3次元背面除去及び衝突問題などを解決するのに使用する。
前記オクトリ空間分割において一つの正六面体をノード(node:オブジェクトファイルとVRMLファイルでのノード概念とは異なる)と言うが、最大多角形(Max Polygons)は、一つのノードが持つことのできる最大多角形数を表す。即ち、この多角形数より大きくと、空間を再帰的に(recursive)再び分割する。
したがって、3次元空間を分割する場合、まず、最大多角形数を適宜に調節しながら、全体ノード数を決定する。また、3次元シーン空間を最大多角形数だけでなく、サブ分割数値にも分けることができる。
また、3次元グラフィックエンジンは、ウェブ上で使われるために、ファイルのサイズが極めて小さい。したがって、一般的な3次元グラフィックゲームエンジンでのように、完壁にカメラ及び物体間の衝突が感知できなく、空間データに重力ベース(Gravity base)値を設定して、衝突及び重力を設定し、設定された値以下にカメラが下がらないようにする。
また、カメラの半径は、衝突機能とビューポイント値を設定する際に重要に作用するので、空間データの寸法(dimension)値によって適切に選択されなければならない。カメラの半径より小さな空間(特に、扉または通路など)は、衝突機能が作動する場合、カメラが通過できないので、カメラのZ軸半径は、カメラが一度動く距離を表す。したがって、空間データの寸法値によって適宜に決定しなければ、適当な速度のナビゲーションをすることができない。
また、空間データにビューポイント(View point)アニメーションの追加または削除と、ナビゲーション機能とによって、衝突及び重力の効果を設定し、オブジェクトとのアンカー(Anchor)、ビルボード(Billboard)及び空間の自動回転などを設定して、空間コンテンツを生成する。前記空間コンテンツは、空間コンテンツファイルフォーマットに生成される。
アンカーは、HTMLのリンクの概念のように、3次元空間上で他の所を繋いでくれる機能である。
ビルボードは、3次元空間上で、カメラ位置及び方向に関係なく、物体を一定の方向に見えるようにする機能である。即ち、物体の一つの面がカメラの方向と常に垂直をなすようにする。看板や木などを3次元空間上で表現する際に主に使われる。
したがって、各々のファイルフォーマットに生成されたオブジェクトコンテンツと空間コンテンツとは、出力されてデータ格納部230に格納され、前記コンテンツをウェブ上でディスプレイできるようにHTMLファイルに変換する。
一方、実写コンテンツ生成部220は、データ変換部100から汎用パノラマプログラムによってステッチングされたパノラマVRデータを入力され、水平(シリンダーー型)パノラマVR、水平−垂直(球型)パノラマVRコンテンツを具現するものであって、前記パノラマVRデータの色相及び明るさの調節、前記パノラマVRデータ間のテレポート設定、字幕設定、画質改善、自動時点、左右自動回転及びイメージズームイン(Zoom In)/ズームアウト(Zoom Out)機能を含むパノラマVRコンテンツを生成する。
また、実写コンテンツ生成部220は、データ変換部100から入力されるフォトオブジェクトVRデータファイルのOVR(Object Virtual Reality)イメージ機能を用いたイメージ編集、フォトオブジェクトVRの字幕設定、画質改善、左右自動回転及びイメージのズームイン/ズームアウト機能を含むフォトオブジェクトVRコンテンツを生成する。
また、実写コンテンツ生成部220で生成されたパノラマVRコンテンツと、フォトオブジェクトVRコンテンツとは、ウェブ上でディスプレイされ得るようにHTMLファイルに変換され、各々のファイルフォーマットに生成された前記パノラマVRコンテンツ及びフォトオブジェクトコンテンツのファイルは、データ格納部230に格納される。
図3は、イベントコンテンツを生成するための構成をより詳細に示した図であり、図1及び図3に示したように、イベント検出部500は、現実空間の環境状態と前記空間のオブジェクトコンテンツ及び空間コンテンツの変動状態とを検出する構成であって、例えば、現実空間の温度、湿度及び照度の少なくとも一つを含む環境状態と、前記オブジェクトコンテンツ及び空間コンテンツの少なくとも一つを含むコンテンツの変動状態とを検出する多数のセンサー部510及び511と、多数のセンサー部510及び511から検出した環境状態及び変動状態をイベントコンテンツ生成部600に転送するイベントデータ送信部520と、を含む。
多数のセンサー部510及び511によって、現実空間の温度、湿度及び照度などの環境が変動(増加または減少)する状態や仮想現実コンテンツ生成部200で生成されたオブジェクトコンテンツや空間コンテンツ(例えば、開閉が可能な扉及び窓と、オン(ON)/オフ(OFF)を通じての動作の検出が可能な機構装置等)等の変動状態をリアルタイムに検出して提供することによって、より一層生動感を提供できるようになる。
即ち、温度センサーから周期的に検出した現在温度を、16進数などのデータが一定の形態の数値データとして提供されるようにして、現場の環境状態の変動を提供する。
また、扉または窓などの空間コンテンツには、開閉を認識できるセンサーを設置することによって、扉または窓の開閉が発生すれば確認できるようにする。即ち、扉が閉じると、“0”のデータが伝達されるようにし、扉が開くと、“1”のデータが伝達されるようにして、扉の開閉を確認することができる。
また、現実空間で電源を使用して動作するオブジェクトコンテンツの場合、電源のオン/オフによって動作の有無を確認することができる。
また、イベントコンテンツ生成部520は、イベント検出部500から検出された現実空間の環境状態及び変動状態を、3次元のイベントコンテンツとして生成する構成であって、イベント検出部500から検出された前記環境状態及びコンテンツの変動状態を受信するイベントデータ受信部610と、イベントデータ受信部610で受信した前記環境状態及び変動状態を分析して、該当環境情報、オブジェクトコンテンツ及び空間コンテンツの変動による数値情報の設定変更及び字幕の設定変更によってイベントコンテンツを生成するイベントコンテンツ管理部620と、イベントコンテンツ管理部620から生成されたイベントコンテンツを、ウェブ上でディスプレイされるようにHTMLファイルに変換するHTML生成部630と、を含む。
イベントデータ受信部610は、イベント検出部500とジグビー(Zigbee)、ブルートゥース(Bluetooth)及び無線LAN(Wireless LAN)のいずれかを用いて無線データ通信が行われるようにし、望ましくは、ジグビーを用いて無線データ通信を行う。ジグビーは、低電力、低規模無線ネットワークを構築できる新たなプロトコルであり、IEEE規格には、802.15.4標準に制定されている。
イベントコンテンツ管理部620は、温度、湿度及び照度などの環境状態が変わった場合、これを表示するために、3次元のイベントコンテンツを新しく生成するか、あるいは、現在状態を変動させて、数値情報の調節及び字幕設定の変更によってイベントコンテンツを修正する。
また、イベントコンテンツ管理部620は、オン(ON)/オフ(OFF)動作が検出されたオブジェクトコンテンツまたは空間コンテンツの変動を表示するために、字幕設定を変更して、イベントコンテンツを生成する。
一方、実写コンテンツ生成部220で生成されたパノラマVRコンテンツは、現場の温度、湿度及び照度などのイベント発生可否を検出して、変動が検出されたイベントコンテンツを提供できる。即ち、パノラマVRコンテンツの場合、ホットスポットのように、数値データを表示できる一定領域を設定し、前記設定された領域に数値データなどのイベントコンテンツを表示できる。
HTML生成部630は、生成されたイベントコンテンツをウェブ上でディスプレイされるように、HTMLファイルに変換する。
一方、イベントコンテンツ管理部620で生成されたイベントコンテンツは、使用者の選択に応じて、HTML生成部630でHTMLデータに変換して出力することも可能であり、HTMLデータへの変換なしに生成されたフォーマットに出力することも可能である。
また、図1を参照すれば、コンテンツ管理部300は、仮想現実コンテンツ生成部200から生成された前記オブジェクトコンテンツ、空間コンテンツ、パノラマVRコンテンツ及びフォトオブジェクトVRコンテンツと、イベントコンテンツ生成部600から生成されたイベントコンテンツファイルとをアップロード(Upload)して、ローカルまたはウェブ上で提供されるように管理する。
図4は、コンテンツ管理部300の構成と、使用者端末400に使用者ビューアーを設置するためのシステム構成と、を示したブロック図である。図4において、コンテンツ管理部300は、前記オブジェクトコンテンツ、空間コンテンツ、パノラマVRコンテンツ、フォトオブジェクトVRコンテンツ及びイベントコンテンツを圧縮ファイルにて格納して管理する3次元コンテンツ管理部310と、前記オブジェクトコンテンツ、空間コンテンツ、パノラマVRコンテンツ、フォトオブジェクトVRコンテンツ及びイベントコンテンツをウェブに接続した使用者端末でディスプレイされ得るように、ビューアープログラムを設置するビューアーデータ設置部320と、を含む。望ましくは、コンテンツ管理部300は、サーバーシステムである。
使用者端末400は、コンテンツ管理部300から提供される前記オブジェクトコンテンツ、空間コンテンツ、パノラマVRコンテンツ、フォトオブジェクトVRコンテンツ及びイベントコンテンツがディスプレイされるように、ビューアープログラムを持つ。望ましくは、使用者端末400は、PCである。
使用者端末400が、ウェブ上で提供される3次元コンテンツデータを提供されるために、使用者端末400に設置されたインターネットエクスプローラ410を介してコンテンツ管理部300と接続すると、コンテンツ管理部300の3次元コンテンツ管理部310は、使用者端末400で3次元コンテンツデータがディスプレイされ得るように、ビューアープログラムの設置の可否を確認する。
使用者端末400にビューアープログラムが設置されていない場合、コンテンツ管理部300のビューアーデータ設置部320は、使用者端末400にビューアープログラムを設置し、前記ビューアープログラムの設置が終了された場合、HTMLに含まれた3次元コンテンツデータを使用者端末400の臨時フォルダー420に格納し、インターネットエクスプローラ410にディスプレイされるようにする。
また、ビューアープログラムが終了されると、臨時フォルダー420に格納されたファイルを削除する。
図5は、本発明に係るリアルタイム3次元仮想現実コンテンツの具現方法を示したフローチャートであり、図6は、図5のイベントデータを用いたコンテンツ具現方法を示したフローチャートである。
図1から図6を参照すれば、3次元コンテンツを生成する仮想現実コンテンツ生成部200及びイベントコンテンツ生成部600が、データ変換部100とイベント検出部500から前記3次元コンテンツ具現のための原始データ及びイベントデータを検出して分析する(S100及びS200)。
判断結果、分析されたデータが、3次元データのオーサリングツールから生成されたVRMLデータであって、3次元コンテンツ具現のための原始データである場合、仮想現実コンテンツ生成部200は、前記VRMLデータを分析して、オブジェクトデータ及び空間データに分類(S300)する。
前記S300段階で分類された前記オブジェクトデータ及び空間データは、VRML基本データファイル(例えば、ライブラリ)によって各々のデータを編集して、オブジェクトコンテンツ及び空間コンテンツを生成(S400)し、前記S400段階で生成されたコンテンツをコンテンツ管理部300にアップロードさせて登録した後、格納(S500)する。
また、前記S400段階で生成された前記コンテンツは、ウェブ上でディスプレイされ得るように、HTMLファイルに変換する段階を更に含む。
前記S400段階で生成されるオブジェクトコンテンツは、前記オブジェクトデータが、VRML基本データファイルを用いて読み出され、前記読み出されたオブジェクトデータに回転、編集、トリガー設定、オブジェクトの背景色、照明調節及びアニメーションを挿入して生成される。
また、前記S400段階で生成される空間コンテンツは、前記空間データが、VRML基本データファイルを用いて読み出され、前記読み出された空間データに空間分割設定、ビューポイントアニメーション設定、オブジェクトのリンク及びビルボード機能を設定して生成される。
前記S500段階を行った後、コンテンツ管理部300が、ローカルまたはウェブに接続した使用者端末400を検出(S600)して、前記オブジェクト及び空間コンテンツのディスプレイ用ビューアープログラムが設置されているかどうかを判断(S700)する。
前記S700段階の判断結果、使用者端末400に前記ビューアープログラムが設置されている場合、コンテンツ管理部300が、前記オブジェクトコンテンツ及び空間コンテンツと、後述するイベントコンテンツとを表示して(S800)、使用者端末400に転送して出力(S900)する。
また、前記原始データが、カメラから獲得した実写データである場合、仮想現実コンテンツ生成部200は、前記実写データを分析して、パノラマVRデータ及びフォトオブジェクトVRデータに分類して、パノラマVRコンテンツ及びフォトオブジェクトVRコンテンツを生成し、前記生成されたコンテンツを仮想現実コンテンツ管理部300にアップロードして登録した後、格納する。
一方、前記S200段階において、仮想現実コンテンツ生成部200から生成された3次元のオブジェクトコンテンツ及び空間コンテンツの変動と、現実空間の環境状態の変動とによって発生したイベントデータが検出された場合、イベントコンテンツ生成部600が、検出された各々のイベントデータを分析する(S210及びS220)。
前記S220段階で分析されたイベントデータは、イベントコンテンツ生成部600において、オブジェクトコンテンツ及び空間コンテンツの変動と前記現実空間の環境状態の変動とによって、イベントコンテンツとして生成される(S230)。
即ち、温度、湿度及び照度などの環境状態が変わった場合、これを表示するために、3次元のイベントコンテンツを新しく生成するか、あるいは、現在状態を変動させて、数値情報の調節、字幕設定によってイベントコンテンツを修正する。
また、オン/オフ動作が検出されたオブジェクトコンテンツまたは空間コンテンツの変動を表示するために、字幕設定、タッチセンサーなどの自動実行によって、イベントコンテンツを生成する。
また、前記生成されたイベントコンテンツが、ウェブ上でディスプレイされ得るように、HTMLファイルに変換される。
前記S230段階で生成されたイベントコンテンツは、コンテンツ管理部300に格納(S240)され、コンテンツ管理部300が、前記オブジェクトコンテンツ及び空間コンテンツと、イベントコンテンツとを表示し(S800)、前記S230段階で生成されたイベントコンテンツと、S400段階で生成されたオブジェクトコンテンツ及び空間コンテンツとを、使用者端末400に転送して出力(S900)する。
以上では、本発明を特定の望ましい実施形態について図示し、説明した。しかしながら、本発明は、上述した実施形態のみに限定されるものではなく、本発明が属する技術分野において通常の知識を有する者ならば、本願の特許請求範囲に記載の本発明の技術的思想の要旨を逸脱することなく、いくらでも多様に変更・実施が可能である。
本発明に係るユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現システムの構成を示したブロック図。 図1の仮想現実コンテンツ生成部の構成を示したブロック図。 図1のイベントコンテンツ生成部の構成を示したブロック図。 図1の使用者端末に使用者ビューアーの設置のためのシステム構成を示したブロック図。 本発明に係るユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現方法を示したフローチャート。 図5のイベントデータを用いたコンテンツ具現方法を示したフローチャート。
符号の説明
100 データ変換部
200 仮想現実コンテンツ生成部
210 VRML生成部
220 実写コンテンツ生成部
230 データ格納部
300 仮想現実コンテンツ管理部
310 3Dコンテンツ管理部
320 ビューアーデータ設置部
400 使用者端末
410 インターネットエクスプローラ
420 臨時フォルダー
500 イベント検出部
510 センサー部1
511 センサー部n
520 イベントデータ送信部
600 イベントコンテンツ生成部
610 イベントデータ受信部
620 イベントコンテンツ管理部
630 HTML生成部

Claims (10)

  1. 現実空間を一般的な3次元データオーサリングツールで具現した原始データをVRMLファイルに変換し、カメラから獲得した現実空間の映像データを回転させてVRデータファイルに変換するデータ変換部と、
    前記データ変換部から変換された前記VRMLファイルからオブジェクトコンテンツと空間コンテンツとを生成し、前記VRデータからパノラマVRコンテンツとフォトオブジェクトVRコンテンツとを生成する仮想現実コンテンツ生成部と、
    前記現実空間の環境状態と、前記空間のオブジェクトコンテンツ、空間コンテンツ及びパノラマVRコンテンツの変動状態とを検出するイベント検出部と、
    前記イベント検出部から検出された前記現実空間の環境状態及び変動状態を3次元のイベントコンテンツとして生成するイベントコンテンツ生成部と、
    前記仮想現実コンテンツ生成部から生成された前記オブジェクトコンテンツ、空間コンテンツ、パノラマVRコンテンツ及びフォトオブジェクトVRコンテンツと、前記イベントコンテンツ生成部から生成された前記イベントコンテンツとを格納し、前記コンテンツらを、ローカルまたはウェブ上で提供されるようにするコンテンツ管理部と、
    前記コンテンツ管理部から提供される前記オブジェクトコンテンツ、空間コンテンツ、パノラマVRコンテンツ、フォトオブジェクトVRコンテンツ及びイベントコンテンツがディスプレイされるように、ビューアープログラムを持つ使用者端末と、を含むユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現システム。
  2. 前記生成されたオブジェクトコンテンツ、空間コンテンツ、パノラマVRコンテンツ、フォトオブジェクトVRコンテンツ及びイベントコンテンツを、ウェブ上でディスプレイされるようにHTMLファイルに変換するHTML生成部を更に含むことを特徴とする、請求項1に記載のユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現システム。
  3. 前記イベント検出部は、前記現実空間の温度、湿度及び照度の少なくとも一つを含む環境状態と、前記オブジェクトコンテンツ、空間コンテンツ及びパノラマVRコンテンツの移動の少なくとも一つを含むコンテンツの変動状態と、を検出する多数のセンサー部と、
    前記センサー部から検出した環境状態及び変動状態を前記イベントコンテンツ生成部に転送するイベントデータ送信部と、を含むことを特徴とする、請求項1又は2に記載のユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現システム。
  4. 前記イベントコンテンツ生成部は、前記イベント検出部から検出された前記環境状態及び変動状態を受信するイベントデータ受信部と、
    前記イベントデータ受信部にて受信した前記環境状態及び変動状態を分析して、該当環境情報、オブジェクトコンテンツ、空間コンテンツ及びパノラマVRコンテンツの変動による数値情報の調節及び字幕設定によって、イベントコンテンツを生成するイベントコンテンツ管理部と、を含むことを特徴とする、請求項1又は2に記載のユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現システム。
  5. 前記コンテンツ管理部は、前記オブジェクトコンテンツ、空間コンテンツ、パノラマVRコンテンツ、フォトオブジェクトVRコンテンツ及びイベントコンテンツを圧縮ファイルとして格納して管理する3次元コンテンツ管理部と、
    前記オブジェクトコンテンツ、空間コンテンツ、パノラマVRコンテンツ、フォトオブジェクトVRコンテンツ及びイベントコンテンツを、ウェブに接続した使用者端末でディスプレイできるようにビューアープログラムを設置するビューアーデータ設置部と、を含むことを特徴とする、請求項1又は2に記載のユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現システム。
  6. 前記イベント検出部とイベントコンテンツ生成部とは、ジグビー、ブルートゥース(登録商標)及び無線LANのいずれかを用いてデータを送受信することを特徴とする、請求項1又は2に記載のユビキタスセンサーネットワークを用いた 3次元仮想現実コンテンツの具現システム。
  7. 前記イベントコンテンツ生成部と前記コンテンツ管理部とは、直列通信及びUSB通信の少なくとも一つを用いてデータを送受信することを特徴とする、請求項1又は2に記載のユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現システム。
  8. a)イベントコンテンツを生成するイベントコンテンツ生成部が、仮想現実コンテンツ生成部から生成された3次元の前記オブジェクトコンテンツ、空間コンテンツ及びパノラマVRコンテンツの変動と現実空間の環境状態の変動とによって発生したイベントデータを検出する段階と、
    b)段階aで検出された前記イベントデータを前記イベントコンテンツ生成部が分析して、前記オブジェクトコンテンツ、空間コンテンツ及びパノラマVRコンテンツの変動と前記現実空間の環境状態の変動とに伴うイベントコンテンツを生成し、前記生成されたイベントコンテンツをコンテンツ管理部に格納する段階と、
    c)前記コンテンツ管理部が、ローカルまたはウェブに接続した使用者端末を検出して、前記イベントコンテンツ、オブジェクトコンテンツ、空間コンテンツ及びパノラマVRコンテンツを使用者端末に転送して出力する段階と、を含むユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現方法。
  9. 段階bは、前記生成された前記イベントコンテンツがウェブ上でディスプレイされ得るように、HTMLファイルに変換する段階を含むことを特徴とする、請求項8に記載のユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現方法。
  10. 前記イベントコンテンツは、オブジェクトコンテンツ、空間コンテンツ及びパノラマVRコンテンツの変動による数値情報及び字幕が変更されるようにすることを特徴とする、請求項8に記載のユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現方法。
JP2008558217A 2006-09-01 2007-05-14 ユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現システム及び具現方法 Pending JP2009528646A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020060084369A KR100661052B1 (ko) 2006-09-01 2006-09-01 유비쿼터스 센서 네트워크를 이용한 3차원 가상현실 콘텐츠구현 시스템 및 구현 방법
PCT/KR2007/002362 WO2008026817A1 (en) 2006-09-01 2007-05-14 System and method for realizing virtual reality contents of 3-dimension using ubiquitous sensor network

Publications (1)

Publication Number Publication Date
JP2009528646A true JP2009528646A (ja) 2009-08-06

Family

ID=37815457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008558217A Pending JP2009528646A (ja) 2006-09-01 2007-05-14 ユビキタスセンサーネットワークを用いた3次元仮想現実コンテンツの具現システム及び具現方法

Country Status (3)

Country Link
JP (1) JP2009528646A (ja)
KR (1) KR100661052B1 (ja)
WO (1) WO2008026817A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101062961B1 (ko) * 2009-01-07 2011-09-06 광주과학기술원 증강현실 컨텐츠 저작 시스템과 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR20120064557A (ko) * 2010-12-09 2012-06-19 한국전자통신연구원 증강형 3차원 입체 영상 제시를 위한 혼합현실 디스플레이 플랫폼 및 운영 방법
KR101503994B1 (ko) * 2012-02-29 2015-03-19 숭실대학교산학협력단 파노라마 가상현실 기반 소셜 커머스 플랫폼 시스템
US20130314508A1 (en) * 2012-05-25 2013-11-28 Takayuki Arima Management for super-reality entertainment
KR101716807B1 (ko) 2015-04-24 2017-03-16 한국과학기술연구원 웹 상에 3차원 정보를 갖는 html 요소를 나타내기 위한 장치 및 방법
KR101734655B1 (ko) 2015-06-26 2017-05-25 동서대학교산학협력단 360°실사 vr콘텐츠 제작공정에서 프로젝션 맵핑을 활용한 vfx 후반작업 적용 방법
WO2018030784A1 (ko) * 2016-08-12 2018-02-15 민상규 인공지능을 이용한 사용자 체험 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085116A (ja) * 2001-09-07 2003-03-20 Hattori Mataichi 仮想空間情報システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100449808B1 (ko) * 2001-12-28 2004-09-22 한국전자통신연구원 인터넷 환경과 가상환경 장치를 이용한 몰입형 가상환경제공 시스템 및 방법
KR100509922B1 (ko) * 2002-12-21 2005-08-25 한국전자통신연구원 3차원 몸동작을 이용한 모션 데이터베이스 검색방법
JP2006024168A (ja) * 2004-07-06 2006-01-26 Fujitsu Ltd サーバシステム,ユーザ端末並びに同サーバシステムおよび同ユーザ端末を用いたサービス提供方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085116A (ja) * 2001-09-07 2003-03-20 Hattori Mataichi 仮想空間情報システム

Also Published As

Publication number Publication date
WO2008026817A1 (en) 2008-03-06
KR100661052B1 (ko) 2006-12-22

Similar Documents

Publication Publication Date Title
JP2020514900A (ja) 複合現実ビューアシステムおよび方法
Kool The ethics of immersive journalism: A rhetorical analysis of news storytelling with virtual reality technology
US10217294B2 (en) Procedural authoring
JP6276794B2 (ja) カラーレジームを定義する装置及び方法
CN102812497B (zh) 能够提供随后体验影像的影像提供装置、影像提供方法
US20190238919A1 (en) Video broadcast system and a method of disseminating video content
US9990760B2 (en) Generating a 3D interactive immersive experience from a 2D static image
AU2001241645B2 (en) Communication system and method including rich media tools
CN104615735B (zh) 一种基于地理信息空间系统的时空信息可视化方法
US8881009B2 (en) Synthetic audiovisual description scheme, method and system for MPEG-7
CN101438579B (zh) 基于附加内容帧的视频内容的自适应再现
CA2587644C (en) Method for inter-scene transitions
US5307456A (en) Integrated multi-media production and authoring system
US7070277B2 (en) Method and apparatus for producing dynamic imagery in a visual medium
US7194703B2 (en) System and method for creating screen saver
CN102012906B (zh) 基于SaaS架构的三维场景管理平台及编辑浏览方法
US8035657B2 (en) Camera and method for creating annotated images
US9640118B2 (en) Display devices
JP3928229B2 (ja) 表示制御装置および表示制御方法、並びに記録媒体
US8117275B2 (en) Media fusion remote access system
US7180529B2 (en) Immersive image viewing system and method
US6034739A (en) System for establishing a three-dimensional garbage matte which enables simplified adjusting of spatial relationships between physical and virtual scene elements
CN100403800C (zh) 屏幕显示和私密遮蔽装置和方法
Grau et al. A combined studio production system for 3-D capturing of live action and immersive actor feedback
US8782531B2 (en) Multi-frame display system with perspective based image arrangement

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118