JP2005339375A - 追体験空間生成装置 - Google Patents

追体験空間生成装置 Download PDF

Info

Publication number
JP2005339375A
JP2005339375A JP2004159812A JP2004159812A JP2005339375A JP 2005339375 A JP2005339375 A JP 2005339375A JP 2004159812 A JP2004159812 A JP 2004159812A JP 2004159812 A JP2004159812 A JP 2004159812A JP 2005339375 A JP2005339375 A JP 2005339375A
Authority
JP
Japan
Prior art keywords
observer
space
user
image
observers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004159812A
Other languages
English (en)
Other versions
JP4379594B2 (ja
Inventor
Yasuyuki Sumi
康之 角
Shoichiro Iwazawa
昭一郎 岩澤
Yusuke Otaka
雄介 大高
Sadanobu Ito
禎宣 伊藤
Kenji Mase
健二 間瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004159812A priority Critical patent/JP4379594B2/ja
Publication of JP2005339375A publication Critical patent/JP2005339375A/ja
Application granted granted Critical
Publication of JP4379594B2 publication Critical patent/JP4379594B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】 ユーザの体験した視覚情報に基づいて、撮影者の視線方向を表現できる仮想空間を自動生成して、ユーザの体験した内容を、当該ユーザまたは他のユーザに対して提示することが可能な追体験空間生成装置を提供する。
【解決手段】 追体験空間生成システム1000では、天井のIRタグ群40と観測者2,4の頭頂部の赤外センサ12により、空間内での観測者の位置および観測者の姿勢を時間と関連付けて検出する。観測者2、4は、映像カメラ142により、観察者の行動にしたがってIRタグ10.1〜10.n,20.1〜20.mの付された対象物を含む画像を順次撮影し、記録データサーバ400は、この撮影された画像を時間軸上の順序情報と関連付けて取得し、記録する。ウォークスルー処理にあたっては、ユーザからの指示した視点からユーザの指定する時刻において、検出された観測者の位置および姿勢とに応じて、ユーザの視点から見た場合の仮想画像を、複数の観測者からの視点の画像を時空間的に整合させて、対象物または観測者に対応する透視映像が生成される。
【選択図】 図1

Description

本発明は、ユーザの体験に伴う映像等の記録情報を再構成して、ユーザの体験した内容を、当該ユーザまたは他のユーザに対して提示するための追体験空間生成装置の構成に関する。
近年では、デジタルカメラやビデオカメラが普及し携帯電話にもカメラ機能が搭載され、各家庭でも撮影機器を所有するのが普通になってきている。これに伴い撮影されたビデオ映像は次々と蓄積されDVD(Digital Versatile Disc)などの劣化のないデジタルメディアに記録され保存されている。
これらの映像の有効利用として、追体験や体験共有のための仮想空間を構築することで、展示会や美術館での知識共有、有形無形の文化財のアーカイブ化、教育支援などへの応用が考えられる。
仮想空間を構築する時、従来の手法では対象の3次元形状を丁寧にモデリングし、表面にテクスチャを貼り付けるなどしてより現実に近く見せるための技術を追求してきた(たとえば、非特許文献1を参照)。これは現実世界を忠実に再現しようという試みであるが、作りこみに時間がかかり多量で長時間の映像から仮想空間を構築するときにはこの方法は現実的ではない。さらには、丁寧な作りこみが逆に、いわゆる3次元酔いの原因となっている。また世界を均一に描画することになるので興味を引かない対象と注目を集める対象が同じように描かれる。このため仮想空間をウォークスルーするときに何を見るべきなのかという手がかりがなく、ユーザは興味のある対象を自分で探す必要がある。
一方で、非特許文献2では、複数視点の静止画を用いた擬似3次元空間を提案している。
ここでは、部分的につながりを持った写真群に対して表示する画像を連続的に透過処理を施しながら変化させることで擬似的に時間、空間移動をユーザが体験できる仕組みである。このアプローチは世界を均一に描画する非特許文献1とは異なり、静止画をベースに構成されているため、当然3次元形状の情報が欠落する。しかし静止画はカメラから撮られたものであり、撮影者の興味や関心といった情報を含んでおり、時間、空間的にハイライトシーンを切り取る効果がある。マウスベースのインタフェースであり、写真間を移動するときも余計な部分が書き込まれていないため不快感はない。このシステムには写真間をつなぐ編集を支援するための機能が付属しているが、依然として手作りである。またコンテンツ作成のためには多量の写真が必要であり、動的インタラクションや表情の変化といったものの表現には向かない。
Nakanishi, H., Yoshida, C., Nishimura, T. and Ishida, T.: FreeWalk: Suppoting Casual Meetings in a Network, Proc,CSCW’96, pp. 308.314 (1996). 田中浩也, 有川正俊, 柴崎亮介: 写真画像群の重なりを用いた広域的な擬似3次元空間, インタラクティブシステムとソフトウェアIX (WISS 2001) (暦元純一(編)), 日本ソフトウェア科学会, 近代科学社, pp. 75.84 (2001).
本発明の目的は、上記のような従来のアプローチの問題点を解決するためになされたものであって、ユーザの体験した視覚情報に基づいて、撮影者の視線方向を表現できる仮想空間を自動生成して、ユーザの体験した内容を、当該ユーザまたは他のユーザに対して提示することが可能な追体験空間生成装置を提供することである。
このような目的を達成するために、本発明の追体験空間生成装置は、所定の空間内で観測者が体験した視覚情報を仮想的な追体験空間として再構成して提示するための追体験空間生成装置であって、空間内での観測者の位置および観測者の姿勢を時間と関連付けて検出するための位置検出手段と、観測者の装着する撮像手段と、空間内の対象物および観測者にそれぞれ付され、光学的に対象物および観測者を識別可能な識別標識と、観測者の装着した撮像手段により、観察者の行動にしたがって順次撮影される対象物を含む画像を時間軸上の順序情報と関連付けて取得し、記録するための記録手段と、ユーザからの指示した視点からユーザの指定する時刻において、空間内で撮像手段が取得した画像情報を追体験空間として構成して提示するための仮想空間構成手段とを備え、仮想空間構成手段は、位置検出手段により検出された観測者の位置および姿勢とに応じて、ユーザの視点から見た場合の仮想画像を、少なくとも1人の観測者からの視点の画像を時空間的に整合させて、対象物または観測者に対応する透視映像を生成する時空間コラージュ生成手段を含む。
好ましくは、時空間コラージュ生成手段は、観測者のうちの少なくとも1人がユーザの指定した時刻において対象物または観測者を撮影していることに応じて、透視映像を生成する。
好ましくは、時空間コラージュ生成手段は、観測者の撮影した画像の法線ベクトルとユーザの視点から対象物または観測者に向かう視線ベクトルとに基づいて、画像を撮影した方向と視線ベクトルの方向とが、所定の値以下であることに応じて、透視映像を生成する。
好ましくは、時空間コラージュ生成手段は、観測者の撮影した画像の法線ベクトルとユーザの視点から対象物または観測者に向かう視線ベクトルとに基づいて、画像が視線ベクトルの方向に正対していくほど不透明度を高めるように時空間的に整合させて、透視映像を生成する。
以下、図面を参照して本発明の実施の形態について説明する。
以下に詳しく説明するが、本発明での追体験空間である仮想空間を自動的に生成するためには、大きくは2つの課題がある。
1つには各撮影者の位置、姿勢情報(各撮影者の視線の方向を特定する情報)を自動的に取得することである。このために位置検出システムが必要であり、以下の実施の形態では、一例として赤外線センサと赤外線タグを用いて位置検出システムを実現している。
またもう1つの課題として、仮想空間の構築手法がある。本発明では、それに対して「時空間コラージュ」というアプローチを採用する。
「時空間コラージュ」とは、複数視点の映像を時空間的に整合させて任意点からの透視映像を作るコラージュ手法である。この手法の特徴は使用する映像をビデオカメラで撮影した体験データをそのまま利用することである。複数視点の映像をコラージュ上に3次元仮想空間内に貼り付けるため、できあがった3次元仮想空間は不均一になる。しかし、それゆえにかえって、ビデオカメラの映像は撮影者の関心を反映しており、これを複数用いて追体験空間を構成すると、複数の撮影者で共通の関心を引いた対象がハイライトされて表現されることになり、逆に関心をもたれなかった対象は現実世界では存在していても仮想空間内では描画されないことになる。
[本発明のシステム構成]
以下では、本発明の1つの例として、展示会などのイベントなどの参加者間での知識共有を取り上げて説明する。ただし、本発明は、他の応用分野として、有形無形の文化財のアーカイブ化、教育支援などに適用することも可能である。
図1は、本発明の追体験空間生成システム1000の一例を示す概念図である。
図1では、観測者が2人だけが描かれているが、実際には、より多くの観測者がシステム1000内に存在してもよい。
図1に示すように、追体験空間生成システム1000においては、元々の観測者2や4は、各々、携帯型の体験キャプチャシステム22を装着している。この体験キャプチャシステム22は、着用可能な(以下、「ウェアラブルな」という)装着型記録用パーソナルコンピュータ(装着型記録用PC)100と、映像カメラ(可視光での映像撮影を行う画像撮影カメラと赤外線感知型センサ(IDトラッカ)とを含む)142と、マイク(図1では図示せず)とを備える。
また、各観測者2,4には、予め、赤外線を発するLED(Light Emitting Diode)タグ10.1〜10.n(n:自然数)が、付けられているものとする。赤外線を発するLEDタグ(以下、「IRタグ」と呼ぶ)10.1〜10.nの各々は、赤外線により、固有な識別信号を発している。このような、固有な識別信号は、上述した赤外線感知型センサ(以下、「IDトラッカ」)によって読込むことが可能である。
さらに、環境下において、観測される可能性のある対象物にも、IRタグ20.1〜10.m(m:自然数)が、付けられているものとする。IRタグ20.1〜20.mも、発する識別信号が異なる以外は、IRタグ10.1〜10.nと同様の構成を有する。
体験キャプチャシステム22は、マイクにより集音される音声データと、映像カメラ142により撮影される映像データと、IDトラッカにより撮影されるIRタグデータを、データ獲得期間(キャプチャ期間)のすべての期間にわたって記録する。たとえば、観測者2がある時点で位置する地点において、IDトラッカの視野の範囲内において光学的に検知できるIRタグのみがシステム22に記録される。IRタグ20.1〜20.mが付けられている対象物の位置については予め計測されており、IRタグ20.1〜20.mの識別信号とその位置とがデータベース化されているものとする。以後、観測者およびこれらの対象物を総称して「オブジェクト」と呼ぶことにする。オブジェクトは、上記識別信号で表現されるオブジェクトIDの他、型(人間(Human)、ユビキタス(Ubiquitous)、ポスター(Poster)…)等の属性を持つ。
なお、環境下には、IRタグのみを装着した人間が存在してもよい。
また、追体験空間生成システム1000では、複数の据置型の映像カメラ30も設置されており、所定の視野範囲を常時観測しているものとする。据置型の映像カメラ30も、可視光での映像撮影を行う映像撮影部と赤外線感知型センサとを含むものとする。この据置型の映像カメラ30で撮影された画像情報や、検知されたIRタグの情報は、設置型記録用パーソナルコンピュータ(設置型記録用PC:図示せず)に記録された後、たとえば、有線ネットワークを介して伝送可能なものとする。
さらに、位置検出システムとして、各観測者2および4は、その頭頂部に、赤外線センサ12を装着しており、一方で、天井には、予め定められた位置に格子状に配置されたIRタグ群40が設けられている。なお、位置検出システムとしては、このようなIRタグと赤外線センサとの組合せに限られず、各観測者2および4の位置を特定できるシステムであれば、たとえば、GPSのような他のシステムを用いることもできる。
また、観測者2、4の姿勢(視線の方向)も、このような位置検出システムにより検出可能であるが、たとえば、観測者が撮影した画像およぼこの画像内に写っている対象物の画面内での配置の情報も、観測者の姿勢の検出に用いることができる。
なお、装着型記録用PC100は、特に限定されないが、たとえば、無線によりLAN(Local Area Network)に接続する構成とすることが可能である。
装着型記録用PC100からの情報や設置型記録用PCからの情報は、記録データサーバ400で収集される。
図2は、図1に示した体験キャプチャシステム22の外観を示す模式的斜視図である。
体験キャプチャシステム22は、上述のとおり映像カメラ142を備えており、映像カメラ142には、赤外線により画像を撮影しオブジェクトの識別信号を獲得するためのIDトラッカ142.1と、可視光により画像(たとえば、動画像)を撮影するための画像撮影カメラ142.2とが含まれる。体験キャプチャシステム22は、さらに、観測者自身を識別するための赤外線タグ10.iと、観測者の音声を獲得するためのマイク144と、位置検出のために観測者の頭頂部に付けられる赤外線センサ12とを備える。
図2に示すように、体験キャプチャシステム22は、ユーザの頭部に装着される耳かけ式ネックバンド方式ヘッドセットとして構成され、ユーザの頭部に装着される。特に限定されないが、IDトラッカ142.1および画像撮影カメラ142.2は直方体形状の筐体に一体に内蔵され、赤外線タグ10.iは筐体の側面に一体に固定され、マイク144はユーザの口元付近に配置される。また、これも特に限定されないが、装着型記録用PC100は、ユーザに背負われて使用され、体験キャプチャシステム22の各検出デバイス、すなわち、IDトラッカ142.1、画像撮影カメラ142.2、赤外線センサ12およびマイク144からの各出力が装着型記録用PC100へ供給される。
人の顔の向きに一致させて、IDトラッカ142.1および画像撮影カメラ142.2を装着することで、視野内のどこに何が映っているかを知ることができる。
[追体験空間生成システム1000の構成]
図3は、追体験空間生成システム1000の構成をブロック図形式で示す図である。
追体験空間生成システム1000の構成は、大きくは2つに分けることが出来る。位置検出システム部とウォークスルー部である。図3では、このうち位置検出システム部の主要部を抽出して示す。
図3を参照して、位置検出システム部は、装着型センサ系と、据置型センサ系と、装着型センサ系からの情報を無線LANで獲得し、据置型センサ系からの情報を有線LANで獲得して、記録するための記録データサーバ400と、獲得された動画像データを格納するためのビデオデータデータベース402と、装着型センサ系および据置型センサ系によりとらえられるIRタグに関する情報を時間と関連付けて格納するためのデータベース404とを備える。
装着型センサ系には、上述したように、各観測者に装着される、IDトラッカ142.1と、画像撮影カメラ142.2と、装着型記録用PC100とが含まれる。
一方、据置型センサ系には、対象物ごとに設置される、IDトラッカ30.1と、画像撮影カメラ30.2と、据置型記録用PC200とが含まれる。IDトラッカ30.1、画像撮影カメラ30.2、据置型記録用PC200の構成は、それぞれ基本的に、IDトラッカ142.1、画像撮影カメラ142.2、装着型記録用PC100と同様である。
ビデオデータデータベース402は、獲得された動画像データを、当該動画像データを獲得したオブジェクトのID、獲得した時刻、獲得した位置を関連付けて格納する。データベース404は、オブジェクトのIDを表す識別信号とオブジェクトの属性と予め測定しうる当該オブジェクトの位置を関連付けて格納しておくほか、オブジェクトごとに、対応するIDトラッカにとらえられたIRタグの識別信号により特定されるオブジェクトIDと、とらえられた時刻、とらえられた画像内でのIRタグの2次元座標を格納する。
すなわち、IDトラッカは、赤外線に反応してIRタグから発光されるID情報を受け取り、そのIDを持つIRタグが画面のどの位置にあるか認識するもので、その座標とID番号、それらを取得した時刻をセットにしてデータベース404に書き込む。このデータはIDトラッカごとに管理される。
こうして記録されるデータに対しては、階層構造を用いて段階的に抽象化されたインデックス情報を付与していく。以下、各層にどのようなデータを格納するかを簡単に説明する。
ロウデータ(RawData)層では、センサによる生のデータを収集する。ここでは、センサごとにトラッカテーブルを保持し、IDトラッカにとらえられたタグのIDと時刻、とらえられた画像内での2次元座標を格納する。
セグメンテーション(Segmentation)層では、人が発話を行っていた区間をクラスタリングする。ここでは、オブジェクトごとにトーク(talk)テーブルを保持し、発話の開始時間、終了時間を格納する。
プリミティブ(Primitive)層では、2体のオブジェクト間のインタラクションを原始事象(primitive)として抽出する。オブジェクトごとに原始事象テーブルを保持し、オブジェクトが参加した原始事象についての情報を格納する。
イベント(Event)層では、時間的・空間的に共有性を有する原始事象を連結し、意味のある単位として「イベント」を抽出する。オブジェクトごとにイベントテーブルを保持し、オブジェクトが参加したイベントについての情報を格納する。
また、アプリケーションサーバ410は、位置検出のために使用されるアプリケーションプログラムを位置検出システム部を構成する各コンピュータに供給する。
このように、ビデオデータデータサーバ402や、データサーバ404に記録されたデータに基づいて、ウォークスルー部を構成するコンピュータ(図3には図示せず)が、追体験空間としての仮想空間を構成し、ユーザに提示する。
(位置検出システム部の動作)
位置検出システム部で必要となるのは図1の赤外線センサ12によって2次元画像として得られた天井の赤外線IRタグ40の位置である。IRタグ40の世界座標の位置は予め人の手によって実測している。データベース404には各センサ12ごとにタグ情報が書き込まれている。
図4は、位置検出システム部の動作を説明するためのフローチャートである。
位置検出システム部では、観測者のリストから位置計算するべき対象を決定し、天井のIRタグ40の位置をセンサ12で取得したデータを格納したデータベース404にアクセスし該当するデータだけを得る(ステップS110)。
このデータは歪んでいるためキャリブレーションを行う(ステップS112)。カメラ自体のキャリブレーションは、予めキャリブレーション用画像を撮影し(ステップS100)、前もってキャリブレーション計算を行っておき(ステップS102)、必要なパラメータを歪み除去プログラムで参照できるようにしておく(ステップS104)。
この後、天井に配置したIRタグの画像平面における座標の歪み除去を行ったものと(ステップS112)、予め測定していた世界座標の対応点を位置姿勢計算プログラムに渡す(ステップS114)。位置検出システム部で実行される位置姿勢計算プログラムでは、オブジェクト座標系からカメラ座標系に変換する回転行列と並進ベクトルを出力する。
この回転行列と並進ベクトルから位置と姿勢を計算し、その結果を、観測者ごとに時刻とともに位置姿勢ファイルとして、データベース404に出力する(ステップS116)。
(ウォークスルー部の動作の概要)
ウォークスルー部では、位置検出システム部で計算された位置姿勢情報を元に、それとは別に映像撮影用カメラで撮影された映像を基にして仮想空間を構築する。特に限定されないが、入力としてゲーム機のコントローラを使用し、この仮想空間は時空間コラージュの手法によって作られている。映像のリソースとして撮影されたビデオデータをそのまま用いることによって撮影者の興味が反映されることになる。
[体験キャプチャシステム22の構成]
図5は、体験キャプチャシステム22の構成をブロック図形式で示す図である。
図5を参照して、体験キャプチャシステム22の装着型記録用PC100は、メモリカードなどの外部媒体150上の情報を読込むための外部媒体ドライブ116と、それぞれバスBS1に接続されたCPU(Central Processing Unit )110と、ROM(Read Only Memory)およびRAM(Random Access Memory)を含むメモリ112と、直接アクセスメモリ装置、たとえば、ハードディスク114と、無線等による接続を用いてLANとデータの授受を行うための通信インタフェース118と、システムにより使用される時刻を提供するためのタイマ122とを備える。タイマ122は、記録データサーバ400からのシステムクロックに同期させてあるものとする。
さらに、装着型記録用PC100は、必要に応じてコンピュータ100に接続され、ユーザによるデータ入力に使用される入力装置160からのデータを受け取るための外部装置インタフェース120を備える。この外部装置インタフェース120は、観測者2が、その頭部に装着するヘッドセット140に装着されたIDトラッカ142.1、画像撮影カメラ142.2、赤外線センサ12およびマイク144からの画像データや音声データを受け取る。
なお、外部媒体150は、コンピュータ本体に対してインストールされるプログラム等の情報を記録可能な媒体である。また、必要に応じて、キャプチャされたデータを記録可能なものとする。
また、画像データの記録媒体として、ハードディスク114、あるいは、他の大容量の外部媒体を用いることで、体験キャプチャシステム22におけるコンピュータ100は、基本的には、汎用のモバイルコンピュータを用いることができる。もちろん、体験キャプチャシステム22におけるコンピュータ100を、汎用のモバイルコンピュータの代わりに、専用のハードウェアで構成してもよい。
[ウォークスルー部を構成するコンピュータ300のハードウェア構成]
図6は、ウォークスルー部を構成するコンピュータ300の一例を示す概念図である。
図6を参照して、ウォークスルー部は、観測者2,4等または第三者の操作に基づいて、観測者2,4等の体験した音声データおよび画像データへアクセスするためのコンピュータ300を備える。
図6を参照して、このコンピュータ300は、CD−ROM(Compact Disc Read-Only Memory )などのディスク媒体318上の情報を読込むためのディスクドライブ308および外部媒体150に対して情報を読み書きするための外部媒体ドライブ306を備えたコンピュータ本体302と、コンピュータ本体302に接続された表示装置としてのディスプレイ304と、同じくコンピュータ本体302に接続された入力装置としてのキーボード310およびマウス312と、ウォークスルー処理を行う際の主たる入力装置であるコントローラ340と、音声入力装置としてのマイク332と、音声出力装置としてのスピーカ334とを含む。
コントローラ340は、たとえば、ゲームコントローラと同様の構成を有し、十字キーによって前進、左右への平行移動が出来る。さらに、L1、R1ボタンで左右に向きを回転できる。L2,R2ボタンで時間の操作(早送り、巻き戻し)も可能である。
図7は、このコンピュータ300のハードウェア構成をブロック図形式で示す図である。
図7に示されるように、このコンピュータ300を構成するコンピュータ本体302は、ディスクドライブ308および外部媒体ドライブ306に加えて、それぞれバスBS2に接続されたCPU320と、ROMおよびRAMを含むメモリ322と、直接アクセスメモリ装置、たとえば、ハードディスク324と、マイク332、スピーカ334コントローラ340とデータの授受を行うためのインタフェース328とを含んでいる。
なお、インタフェース328を介して、コンピュータ300は、記録データサーバ400や、データベース402、404にアクセスできる。
以下の説明では、コンピュータ300が動作するにあたっては、体験キャプチャシステム22により獲得されたデータは、LANを介して、ハードディスク324に格納されるものとして説明を行う。
なお、ディスク媒体318は、コンピュータ本体に対してインストールされるプログラム等の情報を記録可能な媒体であれば、他の媒体、たとえば、DVD−ROM(Digital Versatile Disc)などでもよく、その場合は、コンピュータ本体302には、このような他の媒体を読取ることが可能なドライブ装置が設けられる。
本発明のウォークスルー部の主要部は、コンピュータハードウェアと、CPU320により実行されるソフトウェアとにより構成される。一般的にこうしたソフトウェアはCD−ROM318等の記憶媒体に格納されて流通し、ディスクドライブ308等により記憶媒体から読取られてハードディスク324に一旦格納される。または、ネットワーク上のアプリケーションサーバ410から一旦ハードディスク324にコピーされる。そうしてさらにハードディスク324からメモリ322中のRAMに読出されてCPU320により実行される。なお、ネットワーク接続されている場合には、ハードディスク324に格納することなくRAMに直接ロードして実行するようにしてもよい。
図5および図6に示したコンピュータのハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分は、CD−ROM318、ハードディスク324等の記憶媒体に記憶されたソフトウェアである。
(ウォークスルー部の動作)
図8は、コンピュータ300が、データベース402、404にアクセスすることにより獲得できるデータの一例を示す図である。
図8においては、被撮影対象である1つのオブジェクト、たとえば、オブジェクトAに注目し、画像撮影カメラ142.2や画像撮影カメラ30.2が、オブジェクトAを撮影した状況を時間経過とともに示す。
なお、以下では、画像撮影カメラを区別するために、画像撮影カメラと対応づいたIRタグの符号により、画像撮影カメラを参照することとする。たとえば、IRタグ10.1が付された観測者2の装着する画像撮影カメラをカメラ10.1と呼ぶ。
たとえば、時刻t1においては、オブジェクトAは、カメラ10.1、カメラ10.2、カメラ10.n、固定カメラ20.6によりとらえられている。
図9は、コンピュータ300が、データベース402、404にアクセスすることにより獲得できるデータの他の一例を示す図である。
図9においては、撮影主体である1つのオブジェクト、たとえば、カメラ10.1に対応する観測者に注目し、画像撮影カメラ10.1が、各オブジェクトを撮影した状況を時間経過とともに示す。
たとえば、時刻t2においては、カメラ10.1は、オブジェクトBをとらえており、同時刻において、カメラ10.n、固定カメラ20.mもオブジェクトBをとらえられている。
このように、データベース402、404にアクセスすることにより、任意の時刻、さらには、任意の場所において、すくなくとも1人以上の観測者により注目されていた、言い換えると、当該観測者とインターアクションをしていたオブジェクト(以下、「注目オブジェクト」と呼ぶ)を特定できる。
ウォークスルー部では、コントローラ340により指定された仮想空間内の視点位置および方向から見ることができる、指定された時刻における注目オブジェクトを、仮想空間内に、以下に説明する「時空間コラージュ」により構成する。
ウォークスルー部では、このような時空間コラージュにより、自動生成によって仮想空間を構築する。この方法では、現実世界を不均一に描画され、注目オブジェクトでなければ、存在していても仮想空間には現れない対象が出てくる、その代わり撮影者の視線方向が仮想空間でも表現され生き生きとした映像が生まれる。さらにソーシャルナビゲーション的効果も得られる。ここでソーシャルナビゲーションとは他の人の行動が自分の行動の手がかりとなる指示のことである。またこの手法ではカメラと対象の位置と向きさえわかれば自動で仮想空間を構築することが出来る。
(時空間コラージュ)
3次元仮想空間を構築する方法として従来とられていた手法は、物体の3次元形状を手入力もしくはモーションキャプチャなどのデバイスを用いて取得し、それに撮影した画像データなどを貼り付けてテクスチャとしたり、光源の設定、シェーディング、などいわゆるCG(Computer Graphics)のテクニックを駆使して現実に近づけることをその主題としてきている。
これに対して、本発明では、3次元仮想空間を構築する手法として「時空間コラージュ」を採用する。従来「コラージュ」とは写真の貼り付けの技法のことであるが、本発明では、それを3次元仮想空間に対して行う。
本発明では、時間も空間も、注目オブジェクトについては、現実世界になるべく忠実にコラージュを行なう。
(画像交差によるコラージュ)
図10は、このような時空間コラージュの一例であり、複数視点の画像から立体的な映像を作ったものである。
図11は、2人の観測者が1つの対象物を異なる視点から見た場合を示す概念図であり、図12は、このような2人の観測者の観測画像に基づいて、図10に示すような時空間コラージュを構成する場合を示す概念図である。
図11の状態で対象が観測者1および2により撮影されたとき、図12のように撮影者の視点に合わせて回転させて対象が元々あった場所に交差させて配置する。このとき撮影者から対象までの距離に応じて配置する画像のサイズを変える。これは距離に対して線形にして、遠くの対象ほど画像サイズを大きくする。
またウォークスルーのユーザの視線ベクトルと画像の法線ベクトルの角度のずれから画像の透明度を変えて配置する。
ここで、「画像の法線ベクトル」とは、大きさが1で、観測者の観測画面の法線に平行であって、観測対象物から観測者に向かうベクトルをいう。また、「ユーザの視線ベクトル」とは、大きさが1で、ウォークスルー部のユーザが仮想空間内で指定した位置から上記観測対象物に向かうベクトルをいう。したがって、画像の法線ベクトルとユーザの視線ベクトルと間の角が180度のときが、正対した場合に相当する。
画像の法線ベクトルとユーザの視線ベクトルと間の角が、所定の値、たとえば、90度以下のものは、ウォークスルーのユーザの視線と向きが逆になるので描画しない。このとき視線ベクトルの自由度は水平方向360度だけ考えて上下方向は考えない。
なお、ウォークスルーのユーザの見る時刻を1点に特定せず、仮想空間に時間的広がりを持たせる方法として対象の軌跡を描くことも可能である。これは描画すべき時刻の映像だけでなくそれと時間的に前後した映像を使うことによって物体の移動、表情の変化を効果的に描写することが出来る。実際の方法としては前後の映像データを保持しておき対象が連続的に変化しているときにそれらをその時々の位置にあわせて配置する。そのとき現在時刻に近いほど透明度を低く設定し、離れれば離れるほど薄くして消えていくような表現をする。
ウォークスルーをするのに必要なデータは、再現するインタラクションの開始時刻データ、描画すべき対象のリスト、撮影者のリスト、撮影者が設置型センサの場合はその世界座標における位置と姿勢情報、移動する対象の位置姿勢情報ファイル、被写体を特定するためのタグ情報ファイル、撮影された多視点ビデオデータである。実行すると指定した開始時刻からインタラクションを再現する。たとえば、移動対象を球で表現しその位置が人目で確認できるようにする。この移動対象に対してコラージュを用いて仮想空間を構築する。
本発明で採用する時空間コラージュは、上述したような画像交差による立体的コラージュである。指定された時刻において、各撮影者は、どの対象を捉えているかをタグ情報を用いて識別し、捉えている全ての対象に対して画像を配置する。まず撮影者と対象の距離を計算し、それによって画像サイズを決める。これは透視投影をモデリングした結果で撮影者から離れた物体ほど元の大きさは画像より大きいからである。
次に画像から切り出す範囲を決定する。タグ情報からどの対象が画像のどの位置にあるかがわかるのでこの情報を使って座標の周囲のエリアを切り出す。
続いて、撮影者の姿勢とウォークスルーユーザの姿勢(ユーザの視線ベクトル)から画像の半透明度を設定する。具体的に言うと、たとえば、半透明処理は周知の「アルファブレンディング」を用いて行うことができる。撮影者の姿勢(撮影された画像の法線ベクトル)とユーザの姿勢との間の角のコサインを計算したものを0から1の間に正規化したものに応じて、各画像のアルファ値(透明度に対応)を撮影者の姿勢とウォークスルーユーザの姿勢とが一致するほど不透明度が高くなるように設定する。このような設定を注目オブジェクトの画像の全ての撮影者に対応するものについて行いコラージュする。
(時間操作)
ウォークスルーユーザは単に移動や回転をするだけではなく、追体験空間の再現している時刻を変えることが出来る。これはビデオで言うならば早送りや巻き戻しに相当するものである。仮想空間構築に使用しているデータのうち時間にかかわるのは位置姿勢情報を格納したファイルとタグ情報を格納したファイル、コラージュに使用されるフレーム画像の3つである。フレーム画像はウォークスルー空間を構築する前処理としてビデオデータから各フレームを切り出してそれぞれのファイル名に時刻を記すことによって参照を容易にした。
(ウォークスルー画像)
図13は、4人の観測者2,4,6,8のインタラクションを撮影しその結果をウォークスルー空間で表示させた場合の例を示す図である。
図13では4人の人間の位置が頭上にあるポリゴンの輪で表現されている。その下に画像が貼り付けてある。この画像は3人の頭部搭載カメラで撮影された映像からフレームを切り出したものである。4人のうち観測者2,4,6が注目されているオブジェクトである。特に観測者2は、2つのカメラからの映像が使われている。それとは対照的にまったく描画されていないオブジェクト(観測者8)が存在する。これはそのときこのオブジェクトを捕らえているカメラが存在しないからである。このため、観測者8については、コラージュが生成されない。この対照的な描画はその場の人々の興味を反映しているといえる。
本発明では、「時空間コラージュ」という手法を提案し、自動生成によって仮想空間を構築するシステムを提供する。時空間コラージュとは複数の視点映像を時空間的に整合させて任意点からの透視映像を作り、現実世界を不均一に描画しているため、存在していても仮想空間には現れない対象が出てくるものの、撮影者の視線方向が仮想空間でも表現され生き生きとした映像が生まれる。さらにソーシャルナビゲーション的効果も得られる。ここでソーシャルナビゲーションとは他の人の行動が自分の行動の手がかりとなる指示のことである。またこの手法ではカメラと対象の位置と向きさえわかれば自動で仮想空間を構築することが出来る。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本発明の追体験空間生成システム1000の一例を示す概念図である。 図1に示した体験キャプチャシステム22の外観を示す模式的斜視図である。 追体験空間生成システム1000の構成をブロック図形式で示す図である。 位置検出システム部の動作を説明するためのフローチャートである。 体験キャプチャシステム22の構成をブロック図形式で示す図である。 ウォークスルー部を構成するコンピュータ300の一例を示す概念図である。 このコンピュータ300のハードウェア構成をブロック図形式で示す図である。 コンピュータ300が、データベース402、404にアクセスすることにより獲得できるデータの一例を示す図である。 コンピュータ300が、データベース402、404にアクセスすることにより獲得できるデータの他の一例を示す図である。 時空間コラージュの一例であり、複数視点の画像から立体的な映像を作ったものを示す図である。 2人の観測者が1つの対象物を異なる視点から見た場合を示す概念図である。 2人の観測者の観測画像に基づいて、図10に示すような時空間コラージュを構成する場合を示す概念図である。 4人の観測者2,4,6,8のインタラクションを撮影しその結果をウォークスルー空間で表示させた場合の例を示す図である。
符号の説明
2,4 観測者、10.1〜10.n IRタグ、12 赤外線センサ、20.1〜20.m、22 体験キャプチャシステム、30 据置型映像カメラ、30.1 IDトラッカ、30.2 画像撮影カメラ、100 装着型記録用PC、110 CPU、112 メモリ、114 ハードディスク、116 外部媒体ドライブ、118 通信インタフェース、120 外部装置インタフェース、122 タイマ、140 ヘッドセット、142 映像カメラ、142.1 IDトラッカ、142.2 画像撮影カメラ、144 マイク、150 外部媒体、300 据置型記録用PC、302 コンピュータ本体、304 ディスプレイ、306 外部媒体ドライブ、308 ディスクドライブ、310 キーボード、312 マウス、318 ディスク、320 CPU、322 メモリ、324 ハードディスク、328 インタフェース、340 コントローラ、1000 追体験空間生成システム。

Claims (4)

  1. 所定の空間内で観測者が体験した視覚情報を仮想的な追体験空間として再構成して提示するための追体験空間生成装置であって、
    前記空間内での前記観測者の位置および前記観測者の姿勢を時間と関連付けて検出するための位置検出手段と、
    前記観測者の装着する撮像手段と、
    前記空間内の対象物および前記観測者にそれぞれ付され、光学的に前記対象物および前記観測者を識別可能な識別標識と、
    前記観測者の装着した前記撮像手段により、前記観察者の行動にしたがって順次撮影される前記対象物を含む画像を時間軸上の順序情報と関連付けて取得し、記録するための記録手段と、
    ユーザからの指示した視点からユーザの指定する時刻において、前記空間内で前記撮像手段が取得した画像情報を前記追体験空間として構成して提示するための仮想空間構成手段とを備え、
    前記仮想空間構成手段は、前記位置検出手段により検出された前記観測者の前記位置および前記姿勢とに応じて、前記ユーザの視点から見た場合の仮想画像を、少なくとも1人の観測者からの視点の前記画像を時空間的に整合させて、前記対象物または前記観測者に対応する透視映像を生成する時空間コラージュ生成手段を含む、追体験空間生成装置。
  2. 前記時空間コラージュ生成手段は、前記観測者のうちの少なくとも1人が前記ユーザの指定した時刻において前記対象物または前記観測者を撮影していることに応じて、前記透視映像を生成する、請求項1記載の追体験空間生成装置。
  3. 前記時空間コラージュ生成手段は、前記観測者の撮影した前記画像の法線ベクトルと前記ユーザの視点から前記対象物または前記観測者に向かう視線ベクトルとに基づいて、前記画像を撮影した方向と前記視線ベクトルの方向とが、所定の値以下であることに応じて、前記透視映像を生成する、請求項1記載の追体験空間生成装置。
  4. 前記時空間コラージュ生成手段は、前記観測者の撮影した前記画像の法線ベクトルと前記ユーザの視点から前記対象物または前記観測者に向かう視線ベクトルとに基づいて、前記画像が前記視線ベクトルの方向に正対していくほど不透明度を高めるように時空間的に整合させて、前記透視映像を生成する、請求項1記載の追体験空間生成装置。
JP2004159812A 2004-05-28 2004-05-28 追体験空間生成装置 Expired - Lifetime JP4379594B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004159812A JP4379594B2 (ja) 2004-05-28 2004-05-28 追体験空間生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004159812A JP4379594B2 (ja) 2004-05-28 2004-05-28 追体験空間生成装置

Publications (2)

Publication Number Publication Date
JP2005339375A true JP2005339375A (ja) 2005-12-08
JP4379594B2 JP4379594B2 (ja) 2009-12-09

Family

ID=35492850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004159812A Expired - Lifetime JP4379594B2 (ja) 2004-05-28 2004-05-28 追体験空間生成装置

Country Status (1)

Country Link
JP (1) JP4379594B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013078037A (ja) * 2011-09-30 2013-04-25 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
CN106373195A (zh) * 2016-08-25 2017-02-01 北京国承万通信息科技有限公司 虚拟现实场景呈现方法和系统
JP6393387B1 (ja) * 2017-10-17 2018-09-19 株式会社コロプラ 仮想体験を提供するためのプログラム、コンピュータ、および方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013078037A (ja) * 2011-09-30 2013-04-25 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
CN106373195A (zh) * 2016-08-25 2017-02-01 北京国承万通信息科技有限公司 虚拟现实场景呈现方法和系统
CN106373195B (zh) * 2016-08-25 2019-06-25 北京国承万通信息科技有限公司 虚拟现实场景呈现方法和系统
JP6393387B1 (ja) * 2017-10-17 2018-09-19 株式会社コロプラ 仮想体験を提供するためのプログラム、コンピュータ、および方法
JP2019074962A (ja) * 2017-10-17 2019-05-16 株式会社コロプラ 仮想体験を提供するためのプログラム、コンピュータ、および方法

Also Published As

Publication number Publication date
JP4379594B2 (ja) 2009-12-09

Similar Documents

Publication Publication Date Title
JP7187446B2 (ja) 拡張された仮想現実
CN109891365B (zh) 虚拟现实和跨设备体验
US10055888B2 (en) Producing and consuming metadata within multi-dimensional data
CN105050670B (zh) 混合现实体验共享
US9201243B2 (en) Executable virtual objects associated with real objects
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
EP2887322B1 (en) Mixed reality holographic object development
US20140181630A1 (en) Method and apparatus for adding annotations to an image
WO2014150430A1 (en) Presenting object models in augmented reality images
JP6495538B2 (ja) イメージコンテンツ検索
JP2016511850A (ja) プレノプティックライトフィールドに対しアノテーションを付加するための方法および装置
US20230073750A1 (en) Augmented reality (ar) imprinting methods and systems
US20190155465A1 (en) Augmented media
JP2019509540A (ja) マルチメディア情報を処理する方法及び装置
CN109863746B (zh) 用于数据探索的沉浸式环境系统和视频投影模块
CN114119843A (zh) 构建增强现实图像
JP4379594B2 (ja) 追体験空間生成装置
CN112189183A (zh) 用于呈现音频和合成现实体验的方法和设备
CN111652986B (zh) 舞台效果呈现方法、装置、电子设备及存储介质
KR20180071492A (ko) 키넥트 센서를 이용한 실감형 콘텐츠 서비스 시스템
Farrugia et al. Augmented reality
JP2020005150A (ja) 録画再生装置及びプログラム
US20240073402A1 (en) Multi-perspective augmented reality experience
Hamadouche Augmented reality X-ray vision on optical see-through head mounted displays
Quinn Making the Absent Object Present: Towards a holographic museum of modern art (hMoMA)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090512

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090908

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150