以下、本発明の一実施の形態による体験表示装置を用いた体験表示システムについて図面を参照しながら説明する。図1は、本発明の一実施の形態による体験表示装置を用いた体験表示システムの構成を示すブロック図である。本実施の形態では、展示会場において説明員及び見学者が体験したインタラクションを表す体験履歴データを、階層構造を有するデータベースに蓄積し、この体験履歴データを体験ビデオカタログとして可視的に表示する場合について説明するが、この例に特に限定されず、ラウンドテーブルを囲んだ自由討論等の打合せ、ある物体や書類を囲んで複数人が作業を行う共同作業等の種々のイベントにおける、人間と人間、人間と人工物、人間と環境等の間の種々のインタラクションを表す体験履歴データに同様に適用することができる。
図1に示す体験表示システムは、人間用観測装置1、周囲状況観測装置2、ロボット型観測装置3、情報管理装置4、AV(オーディオ・ビデオ)ファイルサーバ5、素材作成用サーバ6、Webサーバ7、カタログ作成用コンピュータ8及び赤外線タグ9を備え、素材作成用サーバ6、Webサーバ7及びカタログ作成用コンピュータ8により体験表示装置が構成される。情報管理装置4は、クライアントコンピュータ部41及びデータ管理用サーバ45を備え、クライアントコンピュータ部41は、クライアントコンピュータ42〜44を含む。
なお、図1では、図示を容易にするために人間用観測装置1、周囲状況観測装置2、ロボット型観測装置3及び赤外線タグ9をそれぞれ1個のみ図示しているが、人間用観測装置1は説明員及び見学者ごとに設けられ、周囲状況観測装置2は複数の観測位置に設けられ、ロボット型観測装置3は必要数だけ設けられ、赤外線タグ9は説明員及び見学者のインタラクションに使用される対象物ごとに設けられ、クライアントコンピュータ42〜44は人間用観測装置1、周囲状況観測装置2及びロボット型観測装置3に対応してそれぞれ設けられる。
本実施の形態では、説明員、見学者等の人間、ロボット及び展示物等がイベントに参加するオブジェクトに該当し、オブジェクトの型を「HUMAN」、「UBIQ」及び「ROBOT」の3種類に分類し、「HUMAN」には説明員、見学者等の人間、「UBIQ」には展示物等の人工物(ユビキタス)、「ROBOT」には説明を補助するロボット(ロボット型観測装置3)がそれぞれ該当する。
赤外線タグ9は、人間用観測装置1、周囲状況観測装置2及びロボット型観測装置3により観測される対象物となる展示物自体又はその近傍若しくは展示会場の壁又は天井等に取り付けられ、対象物に対して一意的に割り付けられたID番号(識別情報)を赤外線の点滅により送信する。
人間用観測装置1は、説明員又は見学者に装着され、装着している説明員又は見学者のID番号を赤外線の点滅により送信する。また、人間用観測装置1は、説明員等の視界内に位置する赤外線タグ9等から送信される対象物のID番号及び赤外線タグ9等の赤外線画像内のXY座標を検出するとともに、赤外線タグ9を含む可視光画像を撮影し、検出したID番号及びXY座標等の観測情報及び撮影した可視光画像データ等の映像データをクライアントコンピュータ42へ出力する。また、人間用観測装置1は、人間用観測装置1を装着している説明員又は見学者の発話を検出して音声データ等の観測情報をクライアントコンピュータ42へ出力するとともに、生体データを検出してクライアントコンピュータ42へ出力する。
クライアントコンピュータ42は、ROM(リードオンリメモリ)、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、外部記憶装置、通信装置等を備えるクライアントコンピュータから構成され、人間用観測装置1により取得された観測情報をその取得時間とともにオブジェクトごとに記憶するとともに、記憶している観測情報のうち取得時間が所定間隔以下の複数の観測情報を一つのクラスタ情報として抽出し、抽出したクラスタ情報をオブジェクトごとに記憶し、データ管理用サーバ45及び素材作成用サーバ6へ無線等により送信する。また、クライアントコンピュータ42は、人間用観測装置1から出力される映像データ及び音声データを、各データの観測時間により特定可能な形式、例えば、観測時間とともにデータ管理用サーバ45へ無線等により送信する。
周囲状況観測装置2は、説明員及び見学者が位置する空間を構成する構造物、例えば展示会場の天井及び壁に固定され、撮影範囲内に位置する人間用観測装置1及び赤外線タグ9等から送信されるID番号並びに人間用観測装置1及び赤外線タグ9等の赤外線画像内のXY座標を検出するとともに、撮影範囲内に位置する人間用観測装置1及び赤外線タグ9等を含む可視光画像を撮影し、検出したID番号及びXY座標等の観測情報及び撮影した可視光画像データ等の映像データをクライアントコンピュータ43へ出力する。また、周囲状況観測装置2は、撮影範囲内に位置する説明員又は見学者の発話等を集音して音声データ等の観測情報をクライアントコンピュータ43へ出力する。
クライアントコンピュータ43は、ROM、CPU、RAM、外部記憶装置、通信装置等を備えるクライアントコンピュータから構成され、周囲状況観測装置2により取得された観測情報をその取得時間とともにオブジェクトごとに記憶するとともに、記憶している観測情報のうち取得時間が所定間隔以下の複数の観測情報を一つのクラスタ情報として抽出し、抽出したクラスタ情報をオブジェクトごとに記憶し、データ管理用サーバ45及び素材作成用サーバ6へ有線等により送信する。また、クライアントコンピュータ43は、周囲状況観測装置2から出力される映像データ及び音声データを、各データの観測時間により特定可能な形式、例えば、観測時間とともにデータ管理用サーバ45へ有線等により送信する。
ロボット型観測装置3は、例えば、視覚、聴覚及び触覚を有するヒューマノイド型自律移動ロボット等から構成され、ロボット自身のID番号を赤外線の点滅により送信する。また、ロボット型観測装置3は、ロボット自身の視界内に位置する赤外線タグ9等から送信される対象物のID番号及び赤外線タグ9等の赤外線画像内のXY座標を検出するとともに、赤外線タグ9を含む可視光画像を撮影し、検出したID番号及びXY座標等の観測情報及び撮影した可視光画像データ等をクライアントコンピュータ44へ出力する。また、ロボット型観測装置3は、ロボット自身の周辺に位置する説明員又は見学者の発話等を集音して音声データ等の観測情報をクライアントコンピュータ44へ出力する。
クライアントコンピュータ44は、ROM、CPU、RAM、外部記憶装置、通信装置等を備えるクライアントコンピュータから構成され、ロボット型観測装置3により取得された観測情報をその取得時間とともにオブジェクトごとに記憶するとともに、記憶している観測情報のうち取得時間が所定間隔以下の複数の観測情報を一つのクラスタ情報として抽出し、抽出したクラスタ情報をオブジェクトごとに記憶し、データ管理用サーバ45及び素材作成用サーバ6へ無線又は有線等により送信する。また、クライアントコンピュータ44は、ロボット型観測装置3から出力される映像データ及び音声データを、各データの観測時間により特定可能な形式、例えば、観測時間とともにデータ管理用サーバ45へ無線又は有線等により送信する。
なお、観測装置は上記の例に特に限定されず、例えば、視覚、聴覚、触覚及び体勢感覚等を有するぬいぐるみ型観測装置等を用い、ぬいぐるみ自身の視点から説明員及び見学者の状況等を撮影するようにしてもよい。また、観測装置として赤外線タグを用いているが、対象物を特定できれば、他の観測装置を用いてもよい。
データ管理用サーバ45は、ROM、CPU、RAM、外部記憶装置、通信装置等を備えるサーバコンピュータから構成され、有線又は無線を介して各クライアントコンピュータ42〜44と通信可能に接続される。データ管理用サーバ45は、各クライアントコンピュータ42〜44に記憶されているクラスタ情報を基に、予め定められた決定木に従ってオブジェクトの状態を表すステータスを推定し、推定したステータスを記憶するとともに、記憶しているステータスを基にオブジェクト間のイベントを抽出し、抽出したイベントを記憶する。また、データ管理用サーバ45は、入力される各データのうち映像データ及び音声データを、各データの観測時間により特定可能な形式、例えば、観測時間とともにAVファイルサーバ5に蓄積させる。
AVファイルサーバ5は、ROM、CPU、RAM、外部記憶装置、通信装置等を備えるサーバコンピュータから構成され、AVファイルサーバ5は、映像データ及び音声データ等をデータベース化して記憶する。
素材作成用サーバ6は、ROM、CPU、RAM、外部記憶装置、通信装置等を備えるサーバコンピュータから構成され、各クライアントコンピュータ42〜44に記憶されている観測情報及びクラスタ情報、データ管理用サーバ45に記憶されているステータス情報及びイベント情報、AVファイルサーバ5に記憶されている映像データ等を用いて、見学者等が体験したインタラクションを表す体験履歴データを可視的に表示する体験ビデオカタログの素材となるサムネイル画像及びビデオクリップ等を作成して各データのURL(Uniform Resource Locator)とともに蓄積する。
Webサーバ7は、ROM、CPU、RAM、外部記憶装置、通信装置等を備えるサーバコンピュータから構成され、カタログ作成用コンピュータ8からの要求に応じて、データ管理用サーバ45からイベント情報及びステータス情報を読み出したり、素材作成用サーバ6からサムネイル画像及びビデオクリップ等の体験履歴データを読み出し、ネットワーク10を介して体験履歴データ等をカタログ作成用コンピュータ8へ送信する。
ネットワーク10としては、例えば、インターネットが使用され、TCP/IP(Transmission Control Protocol/Internet Protocol)に従いWebサーバ7を介して素材作成用サーバ6等とカタログ作成用コンピュータ8との間で相互にデータ等が送受信される。なお、ネットワーク10としては、インターネットに特に限定されず、イントラネット等の他のネットワーク、または、インターネット、イントラネット等の種々のネットワークを組み合わせたネットワーク等を用いてもよい。また、ネットワークではなく、専用線等により素材作成用サーバ6及びカタログ作成用コンピュータ8を相互に接続してもよい。
カタログ作成用コンピュータ8は、入力装置、ROM、CPU、RAM、外部記憶装置、記録媒体駆動装置、通信装置及び表示装置等を備えるパーソナルコンピュータ等から構成され、表示対象となるメインユーザが体験したインタラクションを表す体験履歴データを体験ビデオカタログの形態で可視的に表示する。
図2は、図1に示す赤外線タグ9及び人間用観測装置1の構成を示すブロック図である。人間用観測装置1は、赤外線検出部11、画像撮影部12、赤外線タグ13、マイク部14及び生体検出部15を備える。人間用観測装置1は、耳かけ式ネックバンド方式ヘッドセットとして構成され、説明員又は見学者の頭部に装着される。赤外線検出部11及び画像撮影部12は直方体形状の筺体に一体に内蔵され、赤外線タグ13は筺体の側面に一体に固定され、マイク部14はユーザの口元付近に配置され、生体検出部15は、説明員又は見学者の指に装着され、クライアントコンピュータ42は、説明員又は見学者に背負われて使用される。
赤外線タグ9は、LED91及び駆動回路92を備える。LED91は、赤外線LED等から構成され、例えば、光通信用高出力発光ダイオード(スタンレイ社製DN311)等を用いることができ、指向性が弱く且つ可視光に近い800nm程度の赤外LEDを好適に用いることができる。
駆動回路92は、マイクロコンピュータ等から構成され、例えば、Atmel社製4MHz駆動マイコンAT90S2223等を用いることができ、赤外線タグ9が取り付けられた対象物に対して一意的に割り付けられたID番号が識別可能なようにLED91を点滅制御する。なお、LED91及び駆動回路92は、内部電池(図示省略)から電源を供給されている。
具体的には、駆動回路92は、マンチェスタ符号化方式によりエンコードしたID番号(6bit)及びパリティビットと、スタートビット(1bit)及びエンドビット(2bit)とを200Hz周期の点滅により繰り返し送信する。例えば、ID番号62の場合、ID:62→“01100101010101101111”(ここで、スタートビット(01)、ID番号6ビット、パリティビット(偶数10、奇数01)、エンドビット(1111))となる。
赤外線検出部11は、赤外線フィルタ111、レンズ112、CMOSイメージセンサ113及び画像処理装置114を備える。赤外線フィルタ111は、赤外線タグ9のLED91から発光される赤外線のうち主に近赤外線のみ透過させてレンズ112に近赤外線を導く。赤外線フィルタ111としては、例えば、可視光をブロックし、近赤外光をパスするエドモンド社製プラスチックIRパスフィルタを用いることができる。
レンズ112は、赤外線フィルタ111を透過した近赤外線をCMOSイメージセンサ113上に結像させる。レンズ112の画角は90度である。この場合、対面での会話状態等において比較的近距離で広範囲に位置する赤外線タグを容易に検出することができる。
CMOSイメージセンサ113は、レンズ112により結像された近赤外線から構成される近赤外線画像を撮影して画像処理装置114へ出力する。CMOSイメージセンサ113としては、例えば、三菱電機社製人工網膜LSI(M64283FP)等を用いることができ、この場合の解像度は128×128pixelである。
画像処理装置114は、CMOSイメージセンサ113の制御及びデータ処理を行い、CMOSイメージセンサ113に撮影された近赤外線画像から赤外線タグ9を検出し、検出した赤外線タグ9の点滅状態からID番号を検出するとともに、赤外線画像上の赤外線タグ9のXY座標を検出し、ID番号及びXY座標等のデータをRS232C等のデータ伝送規格に従ってクライアントコンピュータ42へ出力する。画像処理装置114としては、例えば、Cygnal社製49MHz駆動マイコンC8051F114を用いることができる。
この場合、CMOSイメージセンサ113を114200Hzのクロックで駆動させ、撮像(シャッター開放)後、1クロック毎に1pixelの明るさがアナログ値でシリアル出力される。このため、全画素撮影時の最短フレームレートは、(シャッタースピード)+(128×128×クロックスピード)となるが、128×128pixelのうち8×8pixelを検出領域に設定して500Hzのシャッタースピードで撮像した場合、400Hzのフレームレートを実現することができ、読み出し速度を高速化することができる。このように、赤外線タグ9の点滅周期(200Hz)の2倍のフレームレート(400Hz)で読み込むため、単一LEDを用いて非同期通信を行うことができる。なお、画角90度のレンズ112を使用したときに2mの距離で1pixelは、2.2cm×2.2cmの範囲に相当する。
画像撮影部12は、レンズ121及びCCDカメラ122を備える。レンズ121は、説明員又は見学者の視線方向に位置する、赤外線タグ9が取り付けられた対象物を含む可視光像をCCDカメラ122上に結像させる。CCDカメラ122は、可視光画像を撮影して映像データをクライアントコンピュータ42へ出力する。レンズ121及びCCDカメラ122としては、例えば、アナログビデオ出力を有するキーエンス社製小型CCDカメラ(水平画角44度)を用いることができる。ここで、レンズ121の光軸は、赤外線検出部11のレンズ112の光軸に合わせられており、説明員又は見学者の視線方向に位置する対象物を識別するだけでなく、当該対象物の画像も同時に撮影することができる。
赤外線タグ13は、LED131及び駆動回路132を備える。赤外線タグ13は、人間用観測装置1に一体に構成され、人間用観測装置1を装着する説明員又は見学者のID番号を送信する点を除き、赤外線タグ9と同様のハードウエアから構成され、同様に動作する。
マイク部14は、音声処理回路141及びスロートマイク142を備える。スロートマイク142は、説明員又は見学者の発話を検出して音声処理回路141へ出力し、音声処理回路141は録音された音声データをクライアントコンピュータ42へ出力する。
生体検出部15は、生体データ処理回路151及び生体センサ152を備え、例えば、人間の脈拍、手の表面の伝導性(発汗)、温度の3個のセンサを備える生体データ記録用モジュール(Procomp+)等から構成される。生体センサ152は、説明員又は見学者の脈拍、発汗状態及び体温を検出し、生体データ処理回路151は、検出された各データの平均値を数秒ごとに計算し、リアルタイムに生体データをAD変換してクライアントコンピュータ42へ送信する。
上記の赤外線検出部11等の各センサ類には、1オブジェクトが装着する単位すなわち人間用観測装置1を装着する人間ごとにまとめて一意のセンサID番号が付与され、センサID番号及び赤外線タグ13のID番号は、人間用観測装置1を装着するオブジェクトを特定するための一意のオブジェクトID番号と関連付けられ、オブジェクトID番号に対してオブジェクトの型が指定される。
したがって、人間用観測装置1が各観測情報とともにオブジェクトID番号をクライアントコンピュータ42へ出力し、クライアントコンピュータ42がクラスタ情報等とともにオブジェクトID番号をデータ管理用サーバ45等へ出力することにより、データ管理用サーバ45等の各装置においてクラスタ情報等がどのオブジェクトのものであるか及びオブジェクトの型を特定できるようにしている。周囲状況観測装置2及びロボット型観測装置3も、この点に関して同様である。
図3は、図1に示す周囲状況観測装置2の構成を示すブロック図である。図3に示す周囲状況観測装置2は、固定検出部21、画像撮影部22及びマイク部23を備える。固定検出部21は、赤外線フィルタ211、レンズ212、CMOSイメージセンサ213及び画像処理装置214を備える。画像撮影部22は、レンズ221及びCCDカメラ222を備える。マイク部23は、音声処理回路231及びマイクロホン232を備える。固定検出部21、画像撮影部22及びマイク部23は、上記の赤外線検出部11、画像撮影部12及びマイク部14と同様に構成され、同様に動作する。但し、周囲状況観測装置2のレンズ212の画角は60度であり、人間用観測装置1のレンズ112の画角より狭く設定され、マイクロホン232には無指向性のマイクロホンを用いている。
この場合、CMOSイメージセンサ213のピクセル当りの集光率が高くなり、遠距離に位置する赤外線タグ9,13を容易に発見することができる。また、説明員又は見学者の頭部に装着された人間用観測装置1だけでなく、説明員及び見学者が位置する空間を構成する構造物に固定された周囲状況観測装置2により、説明員、見学者並びに説明員及び見学者の視線方向の対象物を検出することができるので、異なる視点から説明員及び見学者の周囲の状況を観測することができる。なお、ロボット型観測装置3も、図3に示す周囲状況観測装置2と同様に構成され、同様に動作する。
次に、人間用観測装置1の赤外線タグ検出処理について説明する。この赤外線タグ検出処理は、画像処理装置114が予め記憶されている検出処理プログラムを実行することにより行われる処理であり、周囲状況観測装置2及びロボット型観測装置3でも同様の処理が行われる。
まず、画像処理装置114は、CMOSイメージセンサ113等を初期化し、全画面(128×128pixel)の赤外線画像を撮影する。次に、画像処理装置114は、赤外線画像の中から所定サイズの光点、例えば1pixelの光点を赤外線タグ9(LED91)として抽出し、所定サイズより大きな光点を排除する。このように、赤外線画像の中から所定サイズの光点を検出するという簡便な処理により赤外線タグ9を検出することができるので、画像処理装置114による赤外線タグ検出処理を高速化することができる。
次に、画像処理装置114は、抽出した光点を中心とする8×8pixelの領域を検出領域として決定し、CMOSイメージセンサ113により検出領域を既定回数、例えば、((送信ビット数+スタートビット数+エンドビット数)×2×2)回読み込み、読み込んだ赤外線画像から赤外線タグ9の点滅状態を検出してID番号を検出するとともに、パリティチェックを行い、読み込みデータの判定処理を行う。
このように、赤外線画像から光点を含む検出領域を決定し、この検出領域の赤外線画像のみを用いて赤外線タグ9の点滅状態を検出しているので、処理対象となる赤外線画像を必要最小限に限定することができ、画像処理装置114による赤外線タグ検出処理を高速化することができる。この赤外線タグ検出処理の高速化により、人の動きに充分に追従することができ、動き予測等の演算コストの高い処理を省略することができる。ここで、パリティチェックが正しければ、画像処理装置114は、赤外線タグ9のID番号及びXY座標を出力し、パリティチェックが正しくなければ、検出領域の読み込みを再度行い、上記の赤外線検出処理を検出されたすべての光点に対して行う。
このようにして、赤外線タグ9が取り付けられた対象物に対して一意的に割り付けられたID番号をLED91の点滅により送信し、説明員又は見学者に装着された人間用観測装置1により、説明員又は見学者の視線方向に位置する対象物を含む所定の撮影領域の赤外線画像が撮影され、撮影された赤外線画像を用いて赤外線タグ9のID番号が検出されるので、説明員又は見学者の視線方向に位置する対象物を識別することができる。
図4は、図1に示すクライアントコンピュータ42の構成を示すブロック図である。なお、他のクライアントコンピュータ43,44も、図4に示すクライアントコンピュータ42と同様に構成され、同様に動作するので、詳細な説明は省略する。
図4に示すクライアントコンピュータ42は、通信部411、データ管理部412、ローデータ記憶部413、クラスタ処理部414及びクラスタ記憶部415を備える。通信部411は、無線及び有線の通信インターフェースボード等から構成され、ローデータ記憶部413及びクラスタ記憶部415は、ハードディスクドライブ等の外部記憶装置等から構成され、データ管理部412及びクラスタ処理部414は、CPUが後述する情報管理プログラムを実行することにより実現される。
通信部411は、人間用観測装置1の画像処理装置114、CCDカメラ122及び音声処理回路141、素材作成用サーバ6並びにデータ管理用サーバ45との間のデータ通信を制御する。通信部411は、画像処理装置114から出力されるID番号及びXY座標及び音声処理回路141から出力される音声データを観測情報としてデータ管理部412へ出力し、CCDカメラ122から出力される映像データ及び音声処理回路141から出力される音声データをデータ管理用サーバ45へ出力する。
データ管理部412は、観測情報の一例である視覚情報として、通信部411から出力されるID番号及びXY座標を取得時間とともにローデータ記憶部413のトラッカーテーブルに記憶させる。また、データ管理部412は、観測情報の一例である聴覚情報として、通信部411から出力される音声データから発話の開始時間及び終了時間を特定し、特定した発話の開始時間及び終了時間をローデータ記憶部413のボイステーブルに記憶させる。なお、ローデータ記憶部413に記憶される観測情報(生データ)は上記の例に特に限定されず、生体検出部15で検出された生体データ等を同様に記憶してもよい。
図5は、図4に示すローデータ記憶部413のトラッカーテーブルのデータ構造を示す図である。ローデータ記憶部413では、図5に示すフィールド構成及びデータタイプのトラッカーテーブルが作成され、「time」に取得時間が、「x」にオブジェクトのX座標値が、「y」にオブジェクトのY座標値が、「tagname」にオブジェクトのID番号がそれぞれ記憶される。これらのデータにより、ID番号がtagnameである赤外線タグが時間timeに座標(x,y)において捕らえられたことがわかる。
図6は、図4に示すローデータ記憶部413のボイステーブルのデータ構造を示す図である。ローデータ記憶部413では、図6に示すフィールド構成及びデータタイプのボイステーブルが作成され、「time」に会話の開始時間又は終了時間が記憶され、開始時間が記憶された場合は「status」に「TURN_ON」が設定され、終了時間が記憶された場合は「status」に「TURN_OFF」が設定される。これらのデータにより、会話の開始時間及び終了時間がわかる。
クラスタ処理部414は、ローデータ記憶部413のトラッカーテーブル及びボイステーブルから視覚情報及び聴覚情報の取得時間を読み出し、オブジェクトごとに取得間隔が予め設定されている最大間隔以下の視覚情報及び聴覚情報をクラスタリングして視覚クラスタ情報及び聴覚クラスタ情報を作成し、作成した視覚クラスタ情報及び聴覚クラスタ情報をクラスタ記憶部415のルックテーブル及びトークテーブルに記憶させる。
図7は、図4に示すクラスタ記憶部415のルックテーブルのデータ構造を示す図である。クラスタ記憶部415では、図7に示すフィールド構成及びデータタイプのルックテーブルが作成され、「start」に視覚クラスタ情報を構成する複数の視覚情報のうち最初の視覚情報の取得時間が、「end」に最後の視覚情報の取得時間が、「id」にオブジェクトのID番号がそれぞれ記憶される。これらのデータにより、いつから(start)いつまで(end)何(id)を捕らえていたかがわかる。
また、ルックテーブルには、データ管理用サーバ45等の要求を満たすために視覚クラスタ情報の抽出終了を表す終了情報の格納領域が設けられ、「finalize」に“1”(真)又は“0”(偽)の終了情報が格納される。すなわち、クラスタ処理部414は、人間用観測装置1が赤外線タグを捕らえ始めたとき、その時間を「start」に格納するとともに、赤外線タグのID番号を「id」に格納し、その区間が続いている間は、「finalize」を“0”(偽)に設定する。その後、クラスタ処理部414は、現在の時間と人間用観測装置1から視覚情報が得られた時間との差が最大間隔以上になった場合、その区間が終了したものと判断して「finalize」を“1”(真)に設定し、その時間を「end」に格納する。したがって、データ管理用サーバ45等では、「finalize」の値が“0”(偽)である間は、人間用観測装置1が赤外線タグを捕らえていると判断することができる。
図8は、図4に示すクラスタ記憶部415のトークテーブルのデータ構造を示す図である。クラスタ記憶部415では、図8に示すフィールド構成及びデータタイプのトークテーブルが作成され、「start」に聴覚クラスタ情報を構成する複数の聴覚情報のうち最初の聴覚情報の開始時間が、「end」に最後の聴覚情報の終了時間がそれぞれ記憶され、上記と同様に、「finalize」に聴覚クラスタ情報の抽出終了を表す終了情報として“1”(真)又は“0”(偽)が格納される。すなわち、クラスタ処理部414は、ボイステーブルの「status」に“TURN_ON”が格納されると、その時間を「start」に格納するとともに、その区間が続いている間は、「finalize」を“0”(偽)に設定する。その後、ボイステーブルの「status」に“TURN_OFF”が格納されると、クラスタ処理部414は、その区間が終了したものと判断して「finalize」を“1”(真)に設定し、その時間を「end」に格納する。したがって、データ管理用サーバ45等では、「finalize」の値が“0”(偽)である間は、発話が行われていると判断することができる。
本実施の形態では、人間用観測装置1の視覚情報の最小取得間隔は100msec、聴覚情報の最小取得間隔は3secであるため、上記のクラスタリングに使用される最大間隔として20秒を用いているが、この例に特に限定されず、他の時間間隔を用いたり、視覚情報と聴覚情報とで異なる最大間隔を用いる等の種々の変更が可能である。
なお、クラスタ記憶部415では、ローデータ記憶部413と同様に人間用観測装置1等が観測情報を取得すると即座にデータ更新が行われるが、ルックテーブルのクラスタリングが終了するのは実際の時間より最大間隔だけ後になるため、「finalize」が真に設定されるまでには最大間隔だけの遅延が生じる。
また、データ管理部412は、ローデータ記憶部413及びクラスタ記憶部415に記憶されている観測情報及びクラスタ情報を読み出し、通信部411を用いて素材作成用サーバ6及びデータ管理用サーバ45へ出力する。
図9は、図1に示すデータ管理用サーバ45の構成を示すブロック図である。図9に示すデータ管理用サーバ45は、通信部451、データ管理部452、ステータス処理部453、ステータス記憶部454、イベント処理部455及びイベント記憶部456を備える。通信部451は、無線及び有線の通信インターフェースボード等から構成され、ステータス記憶部454及びイベント記憶部456は、ハードディスクドライブ等の外部記憶装置等から構成され、データ管理部452、ステータス処理部453及びイベント処理部455は、CPUが後述する情報管理プログラムを実行することにより実現される。
通信部451は、クライアントコンピュータ42〜44、AVファイルサーバ5、素材作成用サーバ6及びWebサーバ7との間のデータ通信を制御する。通信部451は、クライアントコンピュータ42〜44から出力されるクラスタ情報をデータ管理部452へ出力し、クライアントコンピュータ42〜44から出力される映像データ及び音声データをAVファイルサーバ5へ出力する。
データ管理部452は、通信部451から出力されるクラスタ情報をステータス処理部453へ出力する。ステータス処理部453は、クラスタ情報を基に決定木に従ってオブジェクトの状態を表すステータスを推定し、推定したステータスをステータス情報としてステータス記憶部454に記憶させる。ここで、各クラスタ情報は、オブジェクトが他の一つのオブジェクトを捕らえていることを示すものであり、ステータス処理部453は、オブジェクトの型を考慮した決定木を用いて2つのオブジェクト間のインタラクションを推定し、推定した2つのオブジェクト間のインタラクションをステータスとしてステータス記憶部454のステータステーブルに格納する。
図10は、図9に示すステータス記憶部454のステータステーブルのデータ構造を示す図である。ステータス記憶部454では、図10に示すフィールド構成及びデータタイプのステータステーブルがオブジェクトごとに作成され、「status」に2つのオブジェクト間のインタラクションが、「start」にその開始時間が、「end」にその終了時間が、「id」にインタラクションの対象となるオブジェクトのID番号がそれぞれ記憶される。これらのデータにより、いつから(start)いつまで(end)何(id)に対してとのような状態(status)であったかがわかる。
また、ステータス処理部453は、クラスタ記憶部415に記憶されているクラスタ情報のうち最小継続時間以上継続しているクラスタ情報のみを用いて2つのオブジェクト間のインタラクションを推定する。図11は、クラスタ情報のうち最小継続時間以上継続しているクラスタ情報のみを抽出する処理を模式的に説明する図である。
図11の(a)に示すように、観測情報RDが図示の時間間隔で得られた場合、クラスタ処理部414では、最大間隔T1以下の観測情報をクラスタリングするため、クラスタ記憶部415には6個のクラスタ情報C1〜C6が記憶される。このとき、図11の(b)に示すように、ステータス処理部453は、クラスタ情報C1〜C6のうち最小継続時間T2以上継続している2個のクラスタ情報C1,C4のみを抽出し、2個のクラスタ情報C1,C4のみを用いて2つのオブジェクト間のインタラクションを推定する。したがって、「finalize」が真となったクラスタ情報のうち、最小継続時間より短いクラスタ情報を意味のないものとして排除することができる。
図12は、図9に示すステータス処理部453において用いられる決定木の一例を示す図である。図12に示すように、ステータス処理部453は、クラスタ情報を有するオブジェクトの型すなわち自分の型が「HUMAN」、「UBIQ」及び「ROBOT」のいずれであるかをオブジェクトのID番号により判断する。
自分の型が「UBIQ」の場合、ステータス処理部453は、クラスタ情報により特定されるインタラクションの対象となるオブジェクトすなわち相手の型が「HUMAN」及び「ROBOT」のいずれであるかを視覚クラスタ情報の「id」により判断する。ステータス処理部453は、相手の型が「HUMAN」の場合、自分の「status」に自分が相手を捕らえていることを表す「CAPTURE」を格納するとともに、相手の「status」に相手から自分が捕らえられていることを表す「CAPTURED」を格納する。相手の型が「ROBOT」の場合も同様である。
自分の型が「HUMAN」の場合、ステータス処理部453は、相手の型が「HUMAN」、「UBIQ」及び「ROBOT」のいずれであるかを判断する。相手の型が「UBIQ」の場合、ステータス処理部453は、自分の「status」に自分が相手を見ていることを表す「LOOK AT」を格納するとともに、相手の「status」に相手から自分が見られていることを表す「LOOKED AT」を格納する。
相手の型が「HUMAN」の場合、ステータス処理部453は、お互いを捕らえているか否かを判断する。お互いを捕らえている場合、ステータス処理部453は、自分が発話しているか否かを判断し、発話している場合は自分の「status」に自分が相手に話し掛けていることを表す「TALK WITH」を格納し、発話していない場合は自分の「status」にお互いを捕らえていることを表す「LOOK TOGETHER」を格納する。ここで、相手の状態を判断していないのは、相手の決定木でも自らの状態の判定が行われるため、ここでの書き込みが不要だからである。他の判断も、上記と同様にして行われる。
なお、ステータス記憶部454では、クラスタ記憶部415に対して「finalize」が真となると即座にデータ更新が行われ、データ更新は実際の時間より最大間隔だけ遅延が生じる。
イベント処理部455は、ステータス記憶部454に記憶されているステータスを基にオブジェクト間のイベントを抽出し、抽出したイベントをイベント記憶部456に記憶させる。すなわち、イベント処理部455は、複数オブジェクトの状態に関して時間及び空間の重なりを調べ、予め決定した所定の規則を用いてそれらの区間に意味を与えることで3つ以上のオブジェクト間のインタラクションをイベントとして抽出し、イベント記憶部456のイベントネームテーブル及びイベントテーブルに格納する。
図13は、図9に示すイベント記憶部456のイベントネームテーブルのデータ構造を示す図である。イベント記憶部456では、図13に示すフィールド構成及びデータタイプのイベントネームテーブルが作成される。イベントネームテーブルは、発生したイベントの一覧であり、一つのみ作成される。各イベントには一意のイベントID番号が割り付けられ、イベントID番号が「eventid」に、イベントの名前が「name」に、その時間帯の開始時間が「start」に、終了時間が「end」にそれぞれ格納される。
図14は、図9に示すイベント記憶部456のイベントテーブルのデータ構造を示す図である。イベント記憶部456では、図14に示すフィールド構成及びデータタイプのイベントテーブルがオブジェクトごとに作成され、オブジェクトが参加したイベントのイベントID番号が「eventid」に、イベントの開始時間が「start」に、終了時間が「end」にそれぞれ格納される。これらのデータにより、オブジェクトがどのイベント(eventid)にいつから(start)いつまで(end)参加したかがわかる。また、上記のようにイベントネームテーブル及びイベントテーブルの二つのテーブルを用いることにより、イベントに参加するオブジェクトの数が変化する場合に対処することができる。
図15は、図9に示すイベント処理部455において抽出されるイベントの例を示す模式図である。図15の(a)はイベント「TOGETHER WITH」を、(b)はイベント「LOOK SAME OBJECT」、「TALK ABOUT」を、(c)はイベント「CO−LOOK」を、(d)はイベント「GROUP DISCUSSION」をそれぞれ示している。
まず、周囲状況観測装置2が複数の人間A,Bを捕らえている場合、人間が同じ場所に共存していることがわかるため、イベント処理部455は、このイベントをイベント「TOGETHER WITH」と判断する。この場合、ある時点で近くにいた人物がわかる。
上記の状態で、一緒にいた人間A,Bがそれぞれその区間内において周囲状況観測装置2が取り付けられた展示物の赤外線タグ9を見ていた場合、イベント処理部455は、発話していないときは、一緒に展示物を見ていることを表すイベント「LOOK SAME OBJECT」であると判断し、発話しているときは、その展示物についての話をしていることを表すイベント「TALK ABOUT」であると判断する。これは、人間は会話をするときにお互いを見ているとは限らず、この場合のように展示物を見ながらそれについて話すことが多いからである。
また、一緒にいた人間A,Bがそれぞれその区間内において周囲状況観測装置2が取り付けられた展示物の赤外線タグ9を見ているが、周囲状況観測装置2が人間A,Bを捕らえていない場合、イベント処理部455は、一緒に見ていることを単に表すイベント「CO−LOOK」であると判断する。
さらに、人間がある期間内に話している他の人間を特定することにより、イベント処理部455は、複数の人間が会話を行っていることを表すイベント「GROUP DISCUSSION」を抽出する。
ここで、イベント処理部455がイベント「GROUP DISCUSSION」を抽出する処理について詳細に説明する。図16は、図9に示すステータス記憶部454のステータステーブルの一例を示す図である。図16に示す例は、5つのオブジェクト1〜5があり、オブジェクト1〜4の型が「HUMAN」、オブジェクト5の型が「UBIQ」であり、図16の(a)はオブジェクト1のステータステーブル、(b)はオブジェクト2のステータステーブル、(c)はオブジェクト3のステータステーブル、(d)はオブジェクト4のステータステーブルをそれぞれ示している。
まず、イベント処理部455は、イベントの時間「start」、「end」及びイベントの参加者リスト「list」を用意し、「list」を初期化する。次に、イベント処理部455は、ステータス記憶部454のオブジェクト1のステータステーブル(図16の(a))を調べ、オブジェクト2と話したというデータを見つける。その継続時間(この場合、450−240=210(sec))が所定時間より充分長ければ、「start」及び「end」に240,450を設定し、「list」にオブジェクト1,2を追加する。さらに、イベント処理部455は、前後のデータを参照して同じ人間と話したデータを検索する。ここでは、700〜780(sec)までオブジェクト2と話したというデータが存在するため、イベント処理部455は、このデータとイベントとの間隔(この場合、700−450=250(sec))が所定間隔より小さければ同じイベントとみなし、「start」及び「end」を更新し、「start」及び「end」は240,780となる。
さらに、この区間に他の人間と話したデータがあれば、イベント処理部455は、「start」から「end」までの時間の重なりを調べ、これが所定時間より充分に大きければ、このオブジェクトもイベントの参加者であるとみなして「list」に追加し、「start」及び「end」を更新する。この結果、「start」=240、「end」=780、「list」=〔1,2,3〕となる。
次に、イベント処理部455は、オブジェクト1が見ていた人間(オブジェクト2,3)のステータステーブル(図16の(b)、(c))を調べる。まず、イベント処理部455は、オブジェクト2のステータステーブルを参照して「start」から「end」までの区間に近いデータのうち「status」が「TALK TO」であるデータを取り出し、その継続時間が所定時間より充分長ければ、「start」及び「end」を更新し、そのデータのオブジェクトが「list」に含まれていない場合は追加する。ここでは、「start」及び「end」が更新され、「start」及び「end」は120,780となり、「list」は変更されない。
上記と同様に、オブジェクト3のステータステーブルが処理され、オブジェクト4が追加され、「list」=〔1,2,3,4〕となる。次に、オブジェクト4のステータステーブルが調べられ、この場合、更新されるデータがないため、処理が終了される。
上記の処理が終了した後、イベント処理部455は、「list」の大きさが3以上になった場合(3人以上の人間が会話を行っている場合)、イベント「GROUP DISCUSSION」を発生させる。この結果、「start」=120から「end」=780までの区間においてオブジェクト1〜4がイベント「GROUP DISCUSSION」に参加したことがわかる。
他のイベントに関しても、上記と同様に処理が行われ、例えば、イベント「TOGETHER WITH」については、人間であるオブジェクトのステータステーブルのうち「status」が「CAPTURED」であるデータを検索してその近くにあるデータを統合し、その人間を捕らえた周囲状況観測装置2のステータステーブルを調べて同じ区間内に重複して捕らえられた人間が複数いれば、イベント「TOGETHER WITH」を発生させる。
なお、イベント処理部455が抽出するイベントは、上記の例に特に限定されず、他のイベントを抽出するようにしてもよい。また、イベント記憶部456では、ステータス情報がステータス記憶部454にある程度蓄積されなければ、イベントを抽出できないため、ある程度の時間の遅延が生じる。
また、データ管理部452は、ステータス記憶部454及びイベント記憶部456に記憶されているステータス情報及びイベント情報を読み出し、通信部451を用いて素材作成用サーバ6及びWebサーバ7へ出力する。
図17は、図1に示す情報管理装置4において構築されるデータベースの階層構造を示す模式図である。上記の構成により、情報管理装置4において、観測情報を記憶するローデータ層が各クライアントコンピュータ42〜44のローデータ記憶部413から構成され、観測情報より抽象度の高いクラスタ情報を記憶するクラスタ層がクラスタ記憶部415から構成され、クラスタ情報より抽象度の高いステータス情報を記憶するステータス層がデータ管理用サーバ45のステータス記憶部454から構成され、ステータス情報より抽象度の高いイベント情報を記憶するイベント層がイベント記憶部456から構成される。このように、情報管理装置4では、記憶される情報の抽象度に応じて各情報が階層的に管理される。
図18は、図1に示す素材作成用サーバ6の構成を示すブロック図である。図18に示す素材作成用サーバ6は、通信部61、制御部62、サムネイル作成部63、素材用ファイルサーバ64、ビデオ作成部65及びURL用ファイルサーバ66を備える。通信部61は、無線及び有線の通信インターフェースボード等から構成され、素材用ファイルサーバ64及びURL用ファイルサーバ66は、ハードディスクドライブ等の外部記憶装置等から構成され、制御部62、サムネイル作成部63及びビデオ作成部65は、CPUが後述する体験表示プログラムの素材作成プログラムを実行することにより実現される。
通信部61は、クライアントコンピュータ部41(クライアントコンピュータ42〜44)、AVファイルサーバ5、データ管理用サーバ45及びWebサーバ7との間のデータ通信を制御する。通信部61は、クライアントコンピュータ42〜44(ローデータ記憶部413)から出力されるトラッカーテーブルのID番号及びXY座標、AVファイルサーバ5から抽出された映像データ、及びデータ管理用サーバ45(ステータス記憶部454及びイベント記憶部456)から出力されるステータス情報及びイベント情報を制御部62へ出力する。
制御部62は、通信部61等を用いて、3つ以上のオブジェクト間のインタラクションを表すイベントを特定するためのイベント情報をイベント記憶部456から取得してサムネイル作成部63及びビデオ作成部65へ出力する。サムネイル作成部63は、取得したイベント情報を構成する2つのオブジェクト間のインタラクションを表すステータスを特定するためのステータス情報(第1のステータス情報)を取得するように制御部62に指示する。
制御部62は、通信部61等を用いて、サムネイル作成部63に指示されたステータス情報をステータス記憶部454から取得してサムネイル作成部63へ出力する。サムネイル作成部63は、取得したステータス情報により特定される2つのオブジェクト間のインタラクションを撮影した映像データを取得するように制御部62に指示する。
制御部62は、通信部61等を用いて、サムネイル作成部63に指示された映像データをAVファイルサーバ5から取得してサムネイル作成部63へ出力する。サムネイル作成部63は、取得した映像データから静止画像データであるサムネイル画像データを作成し、体験ビデオカタログの素材として素材用ファイルサーバ64に記憶させるとともに、記憶したサムネイル画像データのURLを特定するURLデータをURL用ファイルサーバ66に記憶させる。
ビデオ作成部65は、取得したイベント情報を構成する2つのオブジェクト間のインタラクションを表すステータスを特定するためのステータス情報(第1のステータス情報)及びイベントに参加していない他のオブジェクトのステータス情報のうち当該イベントの継続時間内でイベントに参加しているオブジェクトとのインタラクションを表すステータス情報(第2のステータス情報)を取得するように制御部62に指示する。
制御部62は、通信部61等を用いて、ビデオ作成部65に指示されたステータス情報をステータス記憶部454から取得してビデオ作成部65へ出力する。ビデオ作成部65は、取得したステータス情報により特定される2つのオブジェクト間のインタラクションを撮影した映像データを取得するように制御部62に指示する。
制御部62は、通信部61等を用いて、ビデオ作成部65に指示された映像データをAVファイルサーバ5から取得してビデオ作成部65へ出力する。ビデオ作成部65は、取得した映像データからオブジェクトが発話している映像を含む映像データであるビデオクリップを抽出し、抽出したビデオクリップを体験ビデオカタログの素材として素材用ファイルサーバ64にサムネイル画像データと対応付けて記憶させるとともに、記憶したビデオクリップのURLを特定するURLデータをURL用ファイルサーバ66に記憶させる。
また、制御部62は、素材用ファイルサーバ64及びURL用ファイルサーバ66に記憶されているサムネイル画像データ、ビデオクリップ及びこれらのURLデータを読み出し、通信部61を用いてWebサーバ7へ出力する。
図19は、図1に示すカタログ作成用コンピュータ8の構成を示すブロック図である。図19に示すカタログ作成用コンピュータ8は、通信部81、操作部82、XML作成部83、画像処理部84及び表示部85を備える。通信部81は、通信インターフェースボード等から構成され、操作部82はキーボード及びマウス等から構成され、表示部85はCRT(陰極線管)又は液晶表示装置等から構成され、XML作成部83はCPUが後述する体験表示プログラムの体験ビデオカタログ作成プログラムを実行することにより実現され、画像処理部84はCPUが後述する体験表示プログラムの体験ビデオカタログ表示プログラムを実行することにより実現される。
通信部81は、ネットワーク10を介してWebサーバ7との間のデータ通信を制御する。操作部82は、ユーザ、例えば見学者が自身の体験ビデオカタログを表示させる際、ユーザがID番号を入力したり、表示部85に表示されている複数のサムネイル画像の中から任意のサムネイル画像を選択するために使用され、入力されたID番号及び選択されたサムネイル画像をXML作成部83及び画像処理部84へ出力する。
XML作成部83は、入力されたID番号からユーザを特定して当該ユーザが参加したイベント数及びステータス数をデータ管理用サーバ45のステータス記憶部454及びイベント記憶部456から通信部81等を介して取得し、当該ユーザの経験に適した体験ビデオカタログのモデルを決定する。また、XML作成部83は、決定したモデルに応じてサムネイル画像データ及びビデオクリップを素材作成用サーバ6から通信部81等を介して取得し、XML形式の体験ビデオカタログファイルを作成して画像処理部84へ出力する。
画像処理部84は、XML形式の体験ビデオカタログファイルを解釈し、複数のサムネイル画像データにより構成される複数のサムネイル画像を、ユーザが参加したイベント数及びステータス数に応じて2次元的に配置する体験ビデオカタログを表示部85に表示させる。また、画像処理部84は、ユーザが操作部82を用いて選択したサムネイル画像に対してビデオクリップが対応付けられている場合、当該ビデオクリップによる動画を表示部85に表示させる。なお、画像処理部84は、ユーザが参加したイベント数又はステータス数に応じてサムネイル画像を2次元的に配置するようにしてもよい。
本実施の形態では、通信部61及び制御部62がイベント取得手段の一例に相当し、通信部61、制御部62、サムネイル作成部63及びビデオ作成部65がステータス取得手段の一例に相当し、通信部61、制御部62及びサムネイル作成部63が映像取得手段の一例に相当し、サムネイル作成部63が静止画像作成手段の一例に相当し、カタログ作成用コンピュータ8が表示手段の一例に相当する。また、通信部61、制御部62及びビデオ作成部65が映像抽出手段の一例に相当し、ビデオ作成部65が対応付け手段の一例に相当し、操作部82が選択手段の一例に相当し、通信部61、制御部62及びサムネイル作成部63が位置取得手段の一例に相当する。
次に、上記のように構成された体験表示システムの情報管理装置4による情報管理処理について説明する。図20は、図1に示す情報管理装置4の情報管理処理を説明するためのフローチャートである。なお、図18に示す情報管理処理は、クライアントコンピュータ42〜44及びデータ管理用サーバ45が予め記憶されている情報管理プログラムを実行することにより行われる処理である。
まず、ステップS11において、クライアントコンピュータ42〜44のデータ管理部412は、観測情報として、画像処理装置114から出力されるID番号及びXY座標及び音声処理回路141から出力される音声データを、通信部411を介して取得する。
次に、ステップS12において、データ管理部412は、観測情報として、ID番号及びXY座標を取得時間とともにローデータ記憶部413のトラッカーテーブルに記憶させ、音声データから発話の開始時間及び終了時間を特定し、特定した発話の開始時間及び終了時間をローデータ記憶部413のボイステーブルに記憶させる。
次に、ステップS13において、クラスタ処理部414は、ローデータ記憶部413のトラッカーテーブル等から取得時間を読み出し、オブジェクトごとに取得間隔が最大間隔以下の観測情報をクラスタリングしてクラスタ情報を作成し、作成したクラスタ情報をクラスタ記憶部415のルックテーブル及びトークテーブルに記憶させる。
次に、ステップS14において、クラスタ処理部414は、クラスタ区間が確定したか否かすなわち現在の時間と人間用観測装置1等から視覚情報が得られた時間との差が最大間隔以上になったか否かを判断し、クラスタ区間が確定していない場合はステップS11以降の処理を繰り返し、クラスタ区間が確定した場合はステップS15へ処理を移行する。
クラスタ区間が確定した場、ステップS15において、クラスタ処理部414は、ルックテーブルの「finalize」を“1”(真)に設定し、その時間を「end」に格納してクラスタ情報をファイナライズする。
次に、ステップS16において、データ管理用サーバ45のデータ管理部452は、通信部451及び通信部411を介してデータ管理部412に対してクラスタ記憶部415のクラスタ情報を送信するように要求し、送信されたクラスタ情報をステータス処理部453へ出力する。ステータス処理部453は、図12に示す決定木に従ってクラスタ情報から2つのオブジェクト間のインタラクションを推定する。
次に、ステップS17において、ステータス処理部453は、推定した2つのオブジェクト間のインタラクションをステータス情報としてステータス記憶部454のステータステーブルに記憶する。
次に、ステップS18において、イベント処理部455は、ステータス記憶部454に記憶されている2つのオブジェクト間のインタラクションに関して時間及び空間の重なりを調べてイベントを順次抽出し、抽出したイベントが確定したか否かすなわちイベントとして予め設定されている抽出条件を満たすか否かを判断し、イベントが確定していない場合はステップS11以降の処理を繰り返し、イベントが確定した場合はステップS19へ処理を移行する。
イベントが確定した場合、ステップS19において、イベント処理部455は、確定したイベントをイベント記憶部456のイベントネームテーブル及びイベントテーブルに記憶し、その後、ステップS11以降の処理を継続する。
上記の処理により、情報の抽象度に応じて各情報が階層的に記憶されるので、アプリケーションの特徴に応じてアクセスする階層を選択することができ、即時性の高い情報を用いるアプリケーションに対して下位の記憶手段から即時性の高い情報を提供することができるとともに、抽象性の高い情報を用いるアプリケーションに対して上位の記憶手段から抽象性の高い情報を提供することができ、種々のアプリケーションに対して適切な情報を適切なタイミングで提供することができる。
次に、上記のように構成された体験表示システムの素材作成用サーバ6による素材作成処理について説明する。図21は、図1に示す素材作成用サーバ6の素材作成処理を説明するためのフローチャートである。なお、図21に示す素材作成処理は、素材作成用サーバ6が予め記憶されている素材作成プログラムを実行することにより行われる処理である。
まず、ステップS21において、素材作成用サーバ6の制御部62は、通信部61等を用いて、データ管理用サーバ45に対してイベントが確定しているか否かを問合せ、データ管理用サーバ45から新たにイベントが確定している旨の通知を受信した場合はステップS22へ処理を移行し、データ管理用サーバ45から新たなイベントは確定していない旨の通知を受信した場合はステップS24へ処理を移行する。
イベントが確定している場合、ステップS22において、制御部62は、通信部61等を用いて、イベント情報をイベント記憶部456から取得してサムネイル作成部63へ出力し、サムネイル作成部63は、イベント情報からサムネイル画像を作成するイベントからのサムネイル作成処理を実行する。
図22は、図18に示すサムネイル作成部63におけるイベントからのサムネイル作成処理を説明するためのフローチャートである。まず、ステップS31において、サムネイル作成部63は、取得したイベント情報を構成する全てのステータス情報をステータス記憶部454から制御部62等を介して取得する。
次に、ステップS32において、サムネイル作成部63は、取得したステータス情報からインタラクションを行っているオブジェクトを特定し、当該オブジェクトのXY座標をローデータ記憶部413のトラッカーテーブルから制御部62等を介して取得し、取得したオブジェクトのXY座標からサムネイル画像を切り出す最適時間を決定する。具体的には、人間観測装置1を装着した人間Aの人間観測装置1により人間Bを含む画像が撮影されていた場合、サムネイル作成部63は、当該時間帯において予め定められた最適位置(例えば、人間Bの位置が画像の中心に位置する場合)と人間BのXY座標との距離差が最も小さい時間から順に一定数の切り出し時間を最適時間として決定する。
次に、ステップS33において、サムネイル作成部63は、決定した最適時間を含む映像データをAVファイルサーバ5から制御部62等を介して取得し、取得した映像データから最適時間の静止画像データをサムネイル画像データとして切り出し、素材用ファイルサーバ64に記憶させるとともに、記憶したサムネイル画像データのURLデータをURL用ファイルサーバ66に記憶させる。
次に、ステップS34において、サムネイル作成部63は、ステップS31において取得した全てのステータス情報に対して上記の処理が完了したか否かを判断し、全てのステータス情報に対する処理が完了していない場合はステップS32以降の処理を繰り返し、全てのステータス情報に対する処理が完了した場合は図21に示すステップS23へ処理を戻す。
図23は、イベントの一例を示す模式図であり、図24は、図23に示すイベントを構成するステータスを示す模式図である。図23に示す例は、ID番号1の人間のオブジェクトid1とID番号2の人間のオブジェクトid2とがお互いを捕らえていることを表す「LOOK TOGETHER」のステータスS1,S2にあり、さらに、オブジェクトid2はID番号5の人間のオブジェクトid5を見ている「LOOK AT」のステータスS3にあり、オブジェクトid1,id2,id5のステータスS1〜S3により複数の人間が会話を行っていることを表す「GROUP DISCUSSION」のイベントE1が構成されている。一方、周囲状況観測装置1を設置されたID番号5の展示物のオブジェクトがオブジェクトid1を捕らえている「CAPTURE」のステータスS4にあるが、ステータスS4はイベントE1を構成しない。この場合、図24に示すようにイベントE1を構成するステータスS1〜S3の各サムネイル画像データが作成され、イベントE1を構成しないステータスS4のサムネイル画像データは作成されない。
再び、図21を参照して、ステップS22の処理が終了した後、ステップS23において、制御部62は、取得したイベント情報をビデオ作成部65へ出力し、ビデオ作成部65は、イベント情報からビデオクリップを作成するイベントからのビデオクリップ作成処理を実行する。
図25は、図18に示すビデオ作成部65におけるイベントからのビデオクリップ作成処理を説明するためのフローチャートである。まず、ステップS41において、ビデオ作成部65は、取得したイベント情報を構成する全てのステータス情報をステータス記憶部454から制御部62等を介して取得する。
次に、ステップS42において、ビデオ作成部65は、イベントに参加したオブジェクトをイベント時間中に捕らえている、イベントに参加していないオブジェクトのステータス情報をステータス記憶部454から制御部62等を介して取得する。
次に、ステップS43において、ビデオ作成部65は、ステップS41,S42において取得したステータス情報を有するオブジェクトの聴覚情報をローデータ記憶部413のボイステーブルから制御部62等を介して受信し、各オブジェクトの発話時間を取得する。なお、発話時間は、AVファイルサーバ5に記憶されている音声データを用いて特定してもよい。
次に、ステップS44において、ビデオ作成部65は、取得したオブジェクトの発話時間を基にステータスの継続期間中に発話者がいるか否かを判断し、発話者がいる場合はステップS46へ処理を移行し、発話者がいない場合はステップS45へ処理を移行する。
発話者がいない場合、ステップS45において、ビデオ作成部65は、ステップS41,S42において取得したステータスのうちイベントを構成しないステータスに属する映像データをAVファイルサーバ5から制御部62等を介して優先的に抽出し、イベントを構成しないステータスに属する映像データがない場合はイベントを構成するステータスに属する映像データを抽出し、その後、処理をステップS51へ移行する。なお、ビデオ作成部65は、イベントを構成しないステータスに属する映像データ及びイベントを構成するステータスに属する映像データがない場合は映像データを抽出しない。
一方、発話者がいる場合、ステップS46において、ビデオ作成部65は、発話者が発話している時間を対象として映像データをAVファイルサーバ5から制御部62等を介して抽出し、発話者を捕らえている映像データがあるか否かを判断し、発話者を捕らえている映像データがある場合はステップS47へ処理を移行し、発話者を捕らえている映像データがない場合はステップS48へ処理を移行する。
発話者を捕らえている映像データがある場合、ステップS47において、ビデオ作成部65は、ステップS41,S42において取得したステータスのうちイベントを構成するステータスに属する映像データをAVファイルサーバ5から制御部62等を介して優先的に抽出し、イベントを構成するステータスに属する映像データがない場合はイベントを構成しないステータスに属する映像データを抽出し、その後、処理をステップS51へ移行する。
一方、発話者を捕らえている映像データがない場合、ステップS48において、イベントに参加したオブジェクトで発話していない人間を撮影している映像データがあるか否かを判断し、発話していない人間を撮影している映像データがある場合はステップS49へ処理を移行し、発話していない人間を撮影している映像データがない場合はステップS50へ処理を移行する。
発話していない人間を撮影している映像データがある場合、ステップS49において、ビデオ作成部65は、ステップS41,S42において取得したステータスのうちイベントを構成するステータスに属する映像データで且つイベントに参加したオブジェクトで発話していない人間を撮影している映像データをAVファイルサーバ5から制御部62等を介して優先的に抽出し、イベントを構成するステータスに属する映像データがない場合はイベントを構成しないステータスに属する映像データで且つイベントに参加したオブジェクトで発話していない人間を撮影している映像データを抽出し、その後、処理をステップS51へ移行する。
一方、発話していない人間を撮影している映像データがない場合、ステップS50において、ビデオ作成部65は、所定の映像データを抽出する、又は、映像データを抽出しない。
次に、ステップS51において、ビデオ作成部65は、ステップS41、S42において取得した全てのステータス情報に対して上記の処理が完了したか否かを判断し、全てのステータス情報に対する処理が完了していない場合はステップS44以降の処理を繰り返し、全てのステータス情報に対する処理が完了した場合はステップS52へ処理を移行する。
次に、ステップS52において、ビデオ作成部65は、抽出したビデオクリップをステータスごとに連結し、連結したビデオクリップをサムネイル画像データと対応付けて素材用ファイルサーバ64に記憶させるとともに、記憶したビデオクリップのURLデータをURL用ファイルサーバ66に記憶させ、その後、図21に示すステップS24へ処理を戻す。
図26は、図23に示す各ステータス及び発話状態の一例を示す模式図である。図26に示すように、期間T2〜T4においてオブジェクトid2が発話し、期間T4〜T6においてオブジェクトid1が発話し、期間T9〜T10においてオブジェクトid1が発話している場合、期間T1〜T3においてイベントを構成するステータスS1の映像データが抽出され、期間T3〜T5においてイベントを構成しないステータスS4の映像データが抽出され、期間T5〜T6においてイベントを構成するステータスS2の映像データが抽出され、期間T6〜T7においてイベントを構成しないステータスS4の映像データが抽出され、期間T7〜T8においてイベントを構成するステータスS2の映像データが抽出され、期間T11〜T12においてイベントを構成するステータスS3の映像データが抽出される。
再び、図21を参照して、ステップS24において、サムネイル作成部63は、予め設定された一定時間が経過したか否かを判断し、一定時間が経過していない場合はステップS21以降の処理を継続し、一定時間が経過した場合はステップS25へ処理を移行する。
一定時間が経過した場合、ステップS25において、サムネイル作成部63は、一定時間内に発生したステータス情報をステータス記憶部454から制御部62等を介して取得し、オブジェクトごとに一定時間内で継続時間の長いステータス情報(第3のステータス情報)を予め設定された一定数だけ抽出する。
次に、ステップS26において、サムネイル作成部63は、抽出されたステータス情報からサムネイル画像を作成するステータスからのサムネイル作成処理を実行する。このステータスからのサムネイル作成処理は、図22に示すステップS32〜S34と同様の処理であるため、図22を用いて以下に説明する。
まず、ステップS32において、サムネイル作成部63は、取得したステータス情報からインタラクションを行っているオブジェクトを特定し、当該オブジェクトのXY座標をローデータ記憶部413のトラッカーテーブルから制御部62等を介して取得し、取得したオブジェクトのXY座標からサムネイル画像を切り出す最適時間を決定する。
次に、ステップS33において、サムネイル作成部63は、決定した最適時間を含む映像データをAVファイルサーバ5から制御部62等を介して取得し、取得した映像データから最適時間の静止画像データをサムネイル画像データとして切り出し、素材用ファイルサーバ64に記憶させるとともに、記憶したサムネイル画像データのURLデータをURL用ファイルサーバ66に記憶させる。
次に、ステップS34において、サムネイル作成部63は、図21に示すステップS25において取得した全てのステータス情報に対して上記の処理が完了したか否かを判断し、全てのステータス情報に対する処理が完了していない場合はステップS32以降の処理を繰り返し、全てのステータス情報に対する処理が完了した場合は図21に示すステップS21以降の処理を継続する。
次に、上記のように構成された体験表示システムのカタログ作成用コンピュータ8による体験ビデオカタログ作成処理について説明する。図27は、図1に示すカタログ作成用コンピュータ8の体験ビデオカタログ作成処理を説明するためのフローチャートである。なお、図27に示す体験ビデオカタログ作成処理は、カタログ作成用コンピュータ8が予め記憶されている体験ビデオカタログ作成プログラムを実行することにより行われる処理である。
まず、カタログ作成用コンピュータ8のユーザ、例えば見学者が操作部82を操作して自身のユーザIDを入力すると、ステップS61において、操作部82は、ユーザIDを受け付け、ユーザIDをXML作成部83へ出力する。
次に、ステップS61において、XML作成部83は、ユーザIDにより特定されるオブジェクトのイベント情報及びステータス情報をデータ管理用サーバ45のイベント記憶部456及びステータス記憶部454から通信部81等を介して取得し、ユーザの経験したイベント数が所定数以上か否かを判断し、イベント数が所定数以上の場合にステップS63においてユーザのモデルを第1モデルに設定してステップS69へ処理を移行し、イベント数が所定数以上でない場合はステップS64へ処理を移行する。
図28は、第1モデルによる体験ビデオカタログの表示例を示す図である。図28に示すように、第1モデルによる体験ビデオカタログでは、イベント又はステータスとして検出されたユーザの行動履歴を表すサムネイル画像1〜16が略逆U字状の領域に配置され、体験ビデオカタログの周辺部には、後述する統計データ処理により得られたユーザの行動履歴に関連するサムネイル画像17〜23が配置される。このとき、体験ビデオカタログの中央上部に継続時間の長いイベント又はステータスを表すサムネイル画像9が大きく表示され、イベントを代表する重要度の高いサムネイル画像1,7,9,14,16にはイベントに応じて作成されたセリフを表示する吹き出しA〜Eが配置される。
なお、配置されるサムネイル画像の大きさ、数及び位置は、上記の例に特に限定されず、種々の変更が可能であり、例えば、ユーザの行動履歴を表示するコマ数を13個に設定し、5個のイベントが検出された場合、各イベントに3個、3個、3個、2個、2個のコマをそれぞれ割り当て、各イベントを構成するステータスのサムネイル画像を各コマに配置するようにしてもよい。このとき、割り振られたコマ数に充分なステータス数がない場合は、イベントを構成しないステータスのサムネイル画像を配置してもよい。また、体験ビデオカタログの所定位置にユーザごとに予め設定されているキャラクタの画像(例えば、やかんを模したキャラクタ)を配置してもよく、吹き出しをキャラクタのセリフとして表示してもよい。これらの点に関しては他のモデルも同様である。
イベント数が所定数以上ない場合、ステップS64において、XML作成部83は、取得したステータスの中に他の特定のユーザとのインタラクションを表すステータスが所定数以上あるか否かを判断し、他の特定のユーザとのインタラクションを表すステータスが所定数以上ある場合はステップS65においてユーザのモデルを第2モデルに設定してステップS69へ処理を移行し、他の特定のユーザとのインタラクションを表すステータスが所定数以上ない場合はステップS66へ処理を移行する。
図29は、第2モデルによる体験ビデオカタログの表示例を示す図である。図29に示すように、第2モデルによる体験ビデオカタログでは、他の特定のユーザの行動履歴を表すサムネイル画像1〜10が順に配置され、その横にユーザの行動履歴を表すサムネイル画像11〜21が配置され、体験ビデオカタログの右側部には、統計データ処理により得られたユーザの行動履歴に関連するサムネイル画像22〜28が配置される。また、イベントを代表する重要度の高いサムネイル画像7,8,11,12,15,21にはイベントに応じて作成されたセリフを表示する吹き出しA〜Fが配置され、統計データ処理によるサムネイル画像22〜28の近傍に吹き出しGが配置される。
他の特定のユーザとのインタラクションを表すステータスが所定数以上ない場合、ステップS66において、XML作成部83は、他の特定のユーザと所定時間以上一つのステータスを共有していたか否かを判断し、他の特定のユーザと所定時間以上一つのステータスを共有していた場合はステップS67においてユーザのモデルを第3モデルに設定してステップS69へ処理を移行し、他の特定のユーザと所定時間以上一つのステータスを共有していない場合はステップS68においてユーザのモデルを第4モデルに設定してステップS69へ処理を移行する。
図30は、第3モデルによる体験ビデオカタログの表示例を示す図である。図29に示すように、第3モデルによる体験ビデオカタログでは、ユーザの行動履歴を表すサムネイル画像1〜13が中央部に配置され、その周辺部には統計データ処理により得られたユーザの行動履歴に関連するサムネイル画像14〜20が配置される。また、ユーザの行動履歴を表すサムネイル画像1〜13のうち中央部のサムネイル画像1,2には他の特定のユーザと共有したステータスのサムネイル画像が大きく表示され、イベントを代表する重要度の高いサムネイル画像1,2,5,17にはイベントに応じて作成されたセリフを表示する吹き出しA〜Dが配置され、統計データ処理によるサムネイル画像10、15及び19,20の近傍に吹き出しE,Fが配置される。
図31は、第4モデルによる体験ビデオカタログの表示例を示す図である。図31に示すように、第4モデルによる体験ビデオカタログでは、ユーザの行動履歴を表すサムネイル画像1〜19が対角線上に配置され、その右下部及び左上部には統計データ処理により得られたユーザの行動履歴に関連するサムネイル画像20〜26及び30〜40が配置され、統計データ処理によるサムネイル画像20〜26の左下部に予め記憶されている会場の写真等のプリセットデータによるプリセット画像27〜29が配置される。また、イベントを代表する重要度の高いサムネイル画像1,6,7,14,17にはイベントに応じて作成されたセリフを表示する吹き出しA〜Eが配置され、統計データ処理によるサムネイル画像20〜26及び30〜40の近傍に吹き出しF,Gが配置され、予め記憶されているプリセット画像27〜29の近傍に吹き出しH,Iが配置される。
次に、ステップS69において、XML作成部83は、ステップS63,S65,S67,S68において設定されたモデルに応じてイベント及びステータスのサムネイル画像データ及びビデオクリップのURLを素材作成用サーバ6の素材用ファイルサーバ64及びURL用ファイルサーバ66から通信部81等を介して取得する。
次に、ステップS69において、XML作成部83は、通信部81等を介してデータ管理用サーバ45のステータス記憶部454及びイベント記憶部456に蓄積されているステータス情報及びイベント情報を取得して統計データ処理を実行し、ユーザの行動履歴に関連するサムネイル画像データのURLを素材作成用サーバ6のURL用ファイルサーバ66から通信部81等を介して取得する。
統計データ処理としては、例えば、所定のデータベースに格納されているユーザ間の類似性を数値化した値を参照してユーザと興味が近い人を抽出したり、ある時間までに各ブースを訪問した人の数を算出して展示物のランキングを決定したり、ある時間までに「LOOK AT」の総和時間の最も長い人又は短い人を、注目を集めた人又は注目を集めなかった人として抽出したり、ある時間までのイベント数が最も多い人又は最も少ない人を、活発にインタラクションを行った人又は活発にインタラクションを行わなかった人として抽出する等の処理が該当する。
次に、ステップS71において、XML作成部83は、予め記憶しているプリセットデータを追加する。次に、ステップS72において、XML作成部83は、上記の各処理で得られたデータを用いた体験ビデオカタログを表示するためのXMLファイルを作成する。
次に、上記のように構成された体験表示システムのカタログ作成用コンピュータ8による体験ビデオカタログ表示処理について説明する。図32は、図1に示すカタログ作成用コンピュータ8の体験ビデオカタログ表示処理を説明するためのフローチャートである。なお、図32に示す体験ビデオカタログ表示処理は、カタログ作成用コンピュータ8が予め記憶されている体験ビデオカタログ表示プログラムを実行することにより行われる処理である。
まず、ステップS81において、カタログ作成用コンピュータ8の画像処理部84は、XML作成部83により作成されたXMLファイルを読み込み、ステップS82において、読み込んだXMLファイルを解釈する。次に、ステップS83において、画像処理部84は、予め記憶されている複数のテンプレートの中から設定されているモデルに従って体験ビデオカタログのテンプレートを選択する。
次に、ステップS84において、画像処理部84は、XMLファイル内のURLを参照して各コマのサムネイル画像データを素材作成用サーバ6の素材用ファイルサーバ64から通信部81等を介して取得する。次に、ステップS85において、画像処理部84は、取得したサムネイル画像データをコマの大きさに合わせる等の加工を行う。次に、ステップS86において、画像処理部84は、予め設定されているコマのタイプ属性値に従って吹き出し用のテキストデータを作成する。
次に、ステップS87において、画像処理部84は、加工したサムネイル画像及び作成したテキストを描画して体験ビデオカタログを表示部85に表示する。次に、ステップS88において、画像処理部84は、ビデオクリップが対応付けられているサムネイル画像にビデオクリップのURLを埋め込む。次に、ステップS89において、画像処理部84は、全てのコマに対する処理が完了したか否かを判断し、全てのコマに対する処理が完了していない場合はステップS84移行の処理を繰り返し、全てのコマに対する処理が完了している場合は処理をステップS90に移行する。
次に、ステップS90において、画像処理部84は、プリセットデータによりプリセット画像を描画して表示部85に表示する。次に、画像処理部84は、ユーザが操作部82を操作してビデオクリップが対応付けられているサムネイル画像を選択したか否かを判断し、サムネイル画像が選択された場合はステップS92へ処理を移行し、サムネイル画像が選択されていない場合ステップS91の処理を繰り返す。
サムネイル画像が選択された場合、ステップS92において、画像処理部84は、選択されたサムネイル画像に対応付けられているビデオクリップのURLを参照して素材作成用サーバ6の素材用ファイルサーバ64から通信部81等を介してビデオクリップを取得し、取得したビデオクリップを再生して表示部85に表示する。
上記の処理により、本実施の形態では、素材作成用サーバ6によりユーザを含む3つ以上のオブジェクト間のインタラクションを表すイベントを特定するためのイベント情報が取得され、取得されたイベント情報を構成する2つのオブジェクト間のインタラクションを表すステータスを特定するためのステータス情報が取得され、取得されたステータス情報により特定される2つのオブジェクト間のインタラクションを撮影した映像データが取得され、取得された映像データからサムネイル画像が体験履歴データとして作成される。この結果、ユーザの経験を適切に表すサムネイル画像を作成することができるので、カタログ作成用コンピュータ8によりユーザが参加したイベント数及びステータス数に応じて複数のサムネイル画像を2次元的に配置して表示し、ユーザの経験を適切に表すサムネイル画像を用いてユーザの経験をリアルに一覧表示することができる。
なお、上記の説明では、素材作成用サーバ6、Webサーバ7及びカタログ作成用コンピュータ8により体験表示装置を構成したが、体験表示装置の構成はこの例に特に限定されず、素材作成用サーバ6及びカタログ作成用コンピュータ8の機能を一つのコンピュータにより実現したり、3台以上のコンピュータにより実現する等の種々の変更が可能である。