JP2004355308A - 体験表示装置、体験表示方法及び体験表示プログラム - Google Patents

体験表示装置、体験表示方法及び体験表示プログラム Download PDF

Info

Publication number
JP2004355308A
JP2004355308A JP2003151804A JP2003151804A JP2004355308A JP 2004355308 A JP2004355308 A JP 2004355308A JP 2003151804 A JP2003151804 A JP 2003151804A JP 2003151804 A JP2003151804 A JP 2003151804A JP 2004355308 A JP2004355308 A JP 2004355308A
Authority
JP
Japan
Prior art keywords
user
history data
experience
sub
experience history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003151804A
Other languages
English (en)
Other versions
JP4027267B2 (ja
Inventor
Atsushi Nakahara
淳 中原
Yasuyuki Sumi
康之 角
Kenji Mase
健二 間瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003151804A priority Critical patent/JP4027267B2/ja
Publication of JP2004355308A publication Critical patent/JP2004355308A/ja
Application granted granted Critical
Publication of JP4027267B2 publication Critical patent/JP4027267B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】複数の人間のインタラクションに対する多視点的な理解を容易にしてユーザ間のコミュニケーションを充分に促進することができる体験表示装置を提供する。
【解決手段】体験履歴データ取得部11は、メインユーザ及びサブユーザの体験履歴データを取得し、シリンダ作成部12は、メインユーザの体験履歴データを中心軸に沿って時系列的に一列に配置するとともに、サブユーザの体験履歴データをユーザごとにメインユーザの体験履歴データの回りに時系列的に一列に配置し、表示部14は、配置されたメインユーザ及びサブユーザの体験履歴データを表示する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、表示対象となるユーザ(人間)が体験したインタラクション(人間と人間又は人間と人工物との相互作用)を表す体験履歴データを可視的に表示する体験表示装置、体験表示方法及び体験表示プログラムに関するものである。
【0002】
【従来の技術】
従来、人間の体験履歴データを表現する方法として、学会参加や博物館見学などの体験履歴データをカジュアルな漫画形式の日記として表現することが行われている(例えば、非特許文献1参照)。
【0003】
また、他の表現方法としては、GUI(Graphical User Interface)でのファイル管理において、時系列に注目したアイコンの配置と、デスクトップの空間的なアイコンの配置とを折衷して情報を可視化しているものがある(例えば、非特許文献1参照)
【0004】
【非特許文献1】
坂本竜基他4名、コミックダイアリ:漫画表現を利用した経験や興味の伝達支援、情報処理学会論文誌、Vol.43、No.12、2002年、pp.3582−3596
【非特許文献2】
暦本純一、Time−Machine Computing:時間指向ユーザインターフェースの提案、インタラクティブシステムとソフトウェア VII、近代科学社、1999年
【0005】
【発明が解決しようとする課題】
しかしながら、前者の表現方法は、一人のユーザの視点に基づいた体験を表現することには適しているが、複数の他のユーザとのインタラクションによって体験が構成されていることを明示的に表現することができないため、複数の人間のインタラクションに対する多視点的な理解が困難であり、ユーザ間のコミュニケーションを充分に促進することができない。
【0006】
また、後者の表現方法では、複数ビューによる表示の切り替えを行っているため、視点の切り替えが不連続となり、上記と同様に、複数の人間のインタラクションに対する多視点的な理解が困難となり、ユーザ間のコミュニケーションを充分に促進することができない。
【0007】
本発明の目的は、複数の人間のインタラクションに対する多視点的な理解を容易にしてユーザ間のコミュニケーションを充分に促進することができる体験表示装置、体験表示方法及び体験表示プログラムを提供することである。
【0008】
【課題を解決するための手段および発明の効果】
本発明に係る体験表示装置は、メインユーザが体験したインタラクションを表す体験履歴データを可視的に表示する体験表示装置であって、メインユーザの体験履歴データと、メインユーザとインタラクションを行った複数のサブユーザの体験履歴データとを取得する取得手段と、仮想三次元空間内に第1の軸を規定するとともに、第1の軸を中心軸とする円筒の周面に沿って且つ第1の軸と平行な複数の第2の軸を規定し、メインユーザの体験履歴データを第1の軸に沿って時系列的に一列に配置するとともに、サブユーザの体験履歴データをユーザごとに第2の軸に沿って時系列的に一列に配置する配置手段と、配置手段により配置されたメインユーザ及びサブユーザの体験履歴データを表示する表示手段とを備えるものである。
【0009】
本発明に係る体験表示装置においては、メインユーザの体験履歴データと、メインユーザとインタラクションを行った複数のサブユーザの体験履歴データとが取得され、仮想三次元空間内に第1の軸が規定されるとともに、第1の軸を中心軸とする円筒の周面に沿って且つ第1の軸と平行な複数の第2の軸が規定され、取得されたメインユーザの体験履歴データが第1の軸に沿って時系列的に一列に配置されるとともに、取得されたサブユーザの体験履歴データがユーザごとに第2の軸に沿って時系列的に一列に配置され、配置されたメインユーザ及びサブユーザの体験履歴データが表示される。
【0010】
したがって、メインユーザの体験履歴データが時間軸に沿って一列に配置され、メインユーザの体験履歴データを中心軸として、メインユーザとインタラクションを行ったサブユーザの体験履歴データが円筒状に且つ時間軸に沿って一列に配置されるので、メインユーザ及びサブユーザの体験履歴データの時間的な遷移及びメインユーザとサブユーザとのインタラクションの関係を一目で理解することができ、複数の人間のインタラクションに対する多視点的な理解を容易にしてユーザ間のコミュニケーションを充分に促進することができる。
【0011】
体験履歴データは、メインユーザ又はサブユーザがインタラクションを行った時刻を特定するための時刻情報を含み、配置手段は、各体験履歴データの時刻情報に応じて、第1の軸を時間軸としてメインユーザの体験履歴データを時系列的に一列に配置するとともに、サブユーザの体験履歴データを時系列的に一列に配置することが好ましい。
【0012】
この場合、各体験履歴データの時刻情報に応じてメインユーザ及びサブユーザの体験履歴データがそれぞれ時系列的に一列に配置されるので、メインユーザ及びサブユーザの体験履歴データの時間的な流れを一目で理解することができる。
【0013】
体験履歴データは、メインユーザ又はサブユーザがインタラクションを行っている継続時間を特定するための継続時間情報と、メインユーザ又はサブユーザが体験したインタラクションを表す静止画像データとを含み、配置手段は、継続時間情報により特定される継続時間の長さに応じた透明度を静止画像データごとに決定し、表示手段は、配置手段により決定された透明度で静止画像データを体験履歴データとして表示することが好ましい。
【0014】
この場合、メインユーザ及びサブユーザの静止画像データがインタラクションが行われている継続時間の長さに応じた透明度で表示されるので、各静止画像の透明度によりインタラクションの継続時間の長短を一目で理解することができる。
【0015】
メインユーザの体験履歴データは、メインユーザがインタラクションを行ったサブユーザを特定するためのインタラクション対象特定情報をさらに含み、配置手段は、メインユーザの体験履歴データと、当該メインユーザの体験履歴データのインタラクション対象特定情報により特定されるサブユーザの体験履歴データの中から当該メインユーザの体験履歴データの時刻情報により特定される時刻に対して所定時間内のサブユーザの体験履歴データとを連結するためのリンク標識を作成し、表示手段は、配置手段により作成されたリンク標識とともにメインユーザ及びサブユーザの体験履歴データを表示することが好ましい。
【0016】
この場合、メインユーザの体験履歴データと、当該メインユーザの体験履歴データのインタラクション対象特定情報により特定されるサブユーザの体験履歴データの中から当該メインユーザの体験履歴データの時刻情報により特定される時刻に対して所定時間内のサブユーザの体験履歴データとを連結するためのリンク標識が作成され、作成されたリンク標識とともにメインユーザ及びサブユーザの体験履歴データが表示されるので、インタラクションを共有したメインユーザ及びサブユーザの体験履歴データ間をリンク標識により連結して表示することができ、インタラクションを共有したメインユーザ及びサブユーザの体験履歴データを一目で識別することができる。
【0017】
体験履歴データは、メインユーザ又はサブユーザが体験したインタラクションを表す静止画像データを含み、配置手段は、リンク標識の数に応じた透明度を静止画像データごとに決定し、表示手段は、配置手段により決定された透明度で静止画像データを体験履歴データとして表示することが好ましい。
【0018】
この場合、メインユーザ及びサブユーザの静止画像データがリンク標識の数に応じた透明度で表示されるので、各静止画像の透明度によりユーザ間のインタラクションが頻繁に行われた経験を一目で理解することができる。
【0019】
表示手段により表示されているメインユーザ及びサブユーザの体験履歴データを第1の軸に沿った方向に移動するための操作者の移動指示を受け付ける移動受付手段と、表示手段により表示されているメインユーザ及びサブユーザの体験履歴データを第1の軸を回転軸として回転するための操作者の回転指示を受け付ける回転受付手段とをさらに備え、表示手段は、移動受付手段によって受け付けられた移動指示に応じてメインユーザ及びサブユーザの体験履歴データを第1の軸に沿った方向に移動させて表示し、回転受付手段によって受け付けられた回転指示に応じてメインユーザ及びサブユーザの体験履歴データを第1の軸を回転軸として回転させて表示することが好ましい。
【0020】
この場合、メインユーザ及びサブユーザの体験履歴データを操作者の移動指示に応じて時間軸に沿って移動させたり、回転指示に応じて回転させて表示することができるので、マウス等の移動受付手段及び回転受付手段を用いた簡略な操作でメインユーザ及びサブユーザの体験履歴データの表示状態を変更することができる。
【0021】
表示手段により体験履歴データが表示されているサブユーザの中から操作者が選択したサブユーザをメインユーザとして受け付けるユーザ受付手段をさらに備え、取得手段は、ユーザ受付手段によって受け付けられたサブユーザとインタラクションを行った他のユーザの体験履歴データを取得し、配置手段は、ユーザ受付手段によって受け付けられたサブユーザの体験履歴データを第1の軸に沿って時系列的に一列に配置するとともに、取得手段により取得された他のユーザの体験履歴データをユーザごとに第2の軸に沿って時系列的に一列に配置することが好ましい。
【0022】
この場合、操作者が選択したサブユーザをメインユーザに切り替えて体験履歴データを表示することができるので、表示主体となるメインユーザの切り替えを容易に行うことができる。
【0023】
本発明に係る体験表示方法は、メインユーザが体験したインタラクションを表す体験履歴データを可視的に表示する体験表示方法であって、コンピュータが、メインユーザの体験履歴データと、メインユーザとインタラクションを行った複数のサブユーザの体験履歴データとを取得する取得ステップと、コンピュータが、仮想三次元空間内に第1の軸を規定するとともに、第1の軸を中心軸とする円筒の周面に沿って且つ第1の軸と平行な複数の第2の軸を規定し、メインユーザの体験履歴データを第1の軸に沿って時系列的に一列に配置するとともに、サブユーザの体験履歴データをユーザごとに第2の軸に沿って時系列的に一列に配置する配置ステップと、コンピュータが、配置手段により配置されたメインユーザ及びサブユーザの体験履歴データを表示する表示ステップとを含むものである。
【0024】
本発明に係る体験表示プログラムは、メインユーザが体験したインタラクションを表す体験履歴データを可視的に表示するための体験表示プログラムであって、メインユーザの体験履歴データと、メインユーザとインタラクションを行った複数のサブユーザの体験履歴データとを取得する取得手段と、仮想三次元空間内に第1の軸を規定するとともに、第1の軸を中心軸とする円筒の周面に沿って且つ第1の軸と平行な複数の第2の軸を規定し、メインユーザの体験履歴データを第1の軸に沿って時系列的に一列に配置するとともに、サブユーザの体験履歴データをユーザごとに第2の軸に沿って時系列的に一列に配置する配置手段と、配置手段により配置されたメインユーザ及びサブユーザの体験履歴データを表示する表示手段としてコンピュータを機能させるものである。
【0025】
【発明の実施の形態】
以下、本発明の一実施の形態による体験表示装置について図面を参照しながら説明する。図1は、本発明の一の実施の形態による体験表示装置を用いた体験表示システムの構成を示すブロック図である。本実施の形態では、展示会場において説明員及び訪問者が体験したインタラクションを表す体験履歴データを蓄積し、この体験履歴データを取得して可視的に表示する場合について説明するが、この例に特に限定されず、ラウンドテーブルを囲んだ自由討論等の打合せ、ある物体や書類を囲んで複数人が作業を行う共同作業等の種々のイベントにおける、人間と人間、人間と人工物、人間と環境等の間の種々のインタラクションを表す体験履歴データに同様に適用することができる。
【0026】
図1に示す体験表示システムは、体験表示装置1及び体験履歴データ蓄積サーバ2を備え、体験表示装置1及び体験履歴データ蓄積サーバ2は、ネットワーク3を介して相互に通信可能に接続される。体験履歴データ蓄積サーバ2は、展示会場において説明員が訪問者に展示内容を説明しているときに説明員及び訪問者が体験したインタラクションを表す体験履歴データを収集及び蓄積する。また、体験履歴データ蓄積サーバ2は、体験表示装置1の要求に応じて、メインユーザの体験履歴データと、メインユーザとインタラクションを行った複数のサブユーザの体験履歴データとをネットワーク3を介して体験表示装置1へ送信する。
【0027】
ネットワーク3としては、例えば、インターネットが使用され、TCP/IP(Transmission Control Protocol/Internet Protocol)に従い体験表示装置1及び体験履歴データ蓄積サーバ2間で相互にデータ等が送受信される。なお、ネットワーク3としては、インターネットに特に限定されず、イントラネット等の他のネットワーク、または、インターネット、イントラネット等の種々のネットワークを組み合わせたネットワーク等を用いてもよい。また、ネットワークではなく、専用線等により体験表示装置1及び体験履歴データ蓄積サーバ2を相互に接続してもよい。
【0028】
体験表示装置1は、ROM(リードオンリメモリ)、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、外部記憶装置、記録媒体駆動装置、入力部、通信部及び表示装置等を備える通常のコンピュータ等から構成され、表示対象となるメインユーザが体験したインタラクションを表す体験履歴データを可視的に表示する。
【0029】
入力部はキーボード、マウス等から構成され、通信部はモデム又はルーター等から構成され、表示装置はCRT(陰極線管)又は液晶表示装置等から構成される。また、ROMにはBIOS(Basic Input/Output System)等が予め記憶され、RAMはCPUの作業領域等として用いられ、ハードディスクドライブ等から構成される外部記憶装置にはOS(Operating System)及び体験表示プログラム等が予め記憶され、CPUがこれらのプログラムを実行することにより、体験履歴データ取得部11、シリンダ作成部12、体験履歴データ記憶部13、表示部14及び操作部15として機能する。
【0030】
なお、CD−ROM、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に体験表示プログラムが記録されている場合、CD−ROMドライブ、フレキシブルディスクドライブ等から構成される記録媒体駆動装置を用いて外部記憶装置に体験表示プログラムをインストールするようにしてもよい。また、体験表示プログラムがネットワーク3に接続された他のコンピュータ等に記憶されている場合、当該コンピュータからネットワーク3を介して体験表示プログラムをダウンロードするようにしてもよい。
【0031】
体験履歴データ取得部11は、通信部等から構成され、ネットワーク3を介して体験履歴データ蓄積サーバ2に、メインユーザの体験履歴データと、メインユーザとインタラクションを行った複数のサブユーザの体験履歴データとを要求し、体験履歴データ蓄積サーバ2から送信されたメインユーザの体験履歴データ及びサブユーザの体験履歴データを取得してシリンダ作成部12へ出力する。体験履歴データ記憶部13は、外部記憶装置又はRAM等から構成され、体験履歴データ取得部11により取得されたメインユーザの体験履歴データ及びサブユーザの体験履歴データをシリンダ作成部12を経由して記憶する。
【0032】
シリンダ作成部12は、CPU等から構成され、仮想三次元空間内に第1の軸を規定するとともに、第1の軸を中心軸とする円筒の周面に沿って且つ第1の軸と平行な複数の第2の軸を規定し、体験履歴データ取得部11により取得されたメインユーザの体験履歴データを第1の軸に沿って時系列的に一列に配置するとともに、体験履歴データ取得部11により取得されたサブユーザの体験履歴データをユーザごとに第2の軸に沿って時系列的に一列に配置した体験シリンダを作成する。表示部14は、表示装置等から構成され、メインユーザ及びサブユーザの体験履歴データが配置された後述する体験シリンダを三次元的に表示する。
【0033】
ここで、体験履歴データは、メインユーザ又はサブユーザがインタラクションを行った時刻を特定するための時刻情報としてインタラクションが開始された時刻を特定するための開始時間情報を含み、シリンダ作成部12は、各体験履歴データの開始時間情報に応じて、第1の軸を時間軸としてメインユーザの体験履歴データを時系列的に一列に配置するとともに、サブユーザの体験履歴データを時系列的に一列に配置する。
【0034】
また、体験履歴データは、メインユーザ又はサブユーザがインタラクションを行っている継続時間を特定するための継続時間情報と、メインユーザ又はサブユーザが体験したインタラクションを表す静止画像データとを含み、シリンダ作成部12は、継続時間情報により特定される継続時間の長さに応じた透明度の静止画像データを作成し、表示部14は、継続時間の長さに応じた透明度の静止画像データを体験履歴データとして表示する。
【0035】
さらに、メインユーザの体験履歴データは、メインユーザがインタラクションを行ったサブユーザを特定するためのインタラクション対象特定情報を含み、シリンダ作成部12は、メインユーザの体験履歴データと、当該メインユーザの体験履歴データのインタラクション対象特定情報により特定されるサブユーザの体験履歴データの中から当該メインユーザの体験履歴データの時刻情報により特定される時刻に対して所定時間内のサブユーザの体験履歴データとを連結するためのリンク標識を作成し、表示部14は、作成されたリンク標識とともにメインユーザ及びサブユーザの体験履歴データを三次元的に表示する。このとき、シリンダ作成部12は、リンク標識の数に応じた透明度の静止画像データを作成し、表示部14は、リンク標識の数に応じた透明度で静止画像データを体験履歴データとして表示する。
【0036】
操作部15は、マウス等から構成され、表示部14に表示されているメインユーザ及びサブユーザの体験履歴データを第1の軸に沿った方向に移動するための操作者(メインユーザ、サブユーザ又は他のユーザ)の移動指示を受け付け、また、メインユーザ及びサブユーザの体験履歴データを第1の軸を回転軸として回転するための操作者の回転指示を受け付ける。シリンダ作成部12は、受け付けられた移動指示に応じてメインユーザ及びサブユーザの体験履歴データを第1の軸に沿った方向に移動させ、また、受け付けられた回転指示に応じてメインユーザ及びサブユーザの体験履歴データを第1の軸を回転軸として回転させる。表示部14は、受け付けられた移動指示に応じてメインユーザ及びサブユーザの体験履歴データを第1の軸に沿った方向に移動させて表示し、また、受け付けられた回転指示に応じてメインユーザ及びサブユーザの体験履歴データを第1の軸を回転軸として回転させて表示する。
【0037】
また、操作部15は、表示部14に体験履歴データが表示されているサブユーザの中から操作者が選択したサブユーザをメインユーザとして受け付ける。シリンダ作成部12は、メインユーザとして受け付けたサブユーザとインタラクションを行った他のユーザの体験履歴データが体験履歴データ記憶部13に記憶されていない場合、体験履歴データ取得部11を用いて、記憶されていない他のユーザの体験履歴データを体験履歴データ蓄積サーバ2に要求し、体験履歴データ蓄積サーバ2から送信された他のユーザの体験履歴データを取得する。シリンダ作成部12は、操作部15によって受け付けられたサブユーザの体験履歴データを第1の軸に沿って時系列的に一列に配置するとともに、他のユーザの体験履歴データをユーザごとに第2の軸に沿って時系列的に一列に配置する。表示部14は、操作者が選択したサブユーザをメインユーザとする新たな体験シリンダを三次元的に表示する。
【0038】
本実施の形態では、体験履歴データ取得部11が取得手段の一例に相当し、シリンダ作成部12が配置手段の一例に相当し、表示部14が表示手段の一例に相当し、操作部15が移動受付手段、回転受付手段及びユーザ受付手段の一例に相当する。
【0039】
次に、図1に示す体験履歴データ蓄積サーバについて詳細に説明する。図2は、図1に示す体験履歴データ蓄積サーバの構成を示すブロック図である。図2に示す体験履歴データ蓄積サーバは、赤外線タグ101、人間用観測装置21、携帯型コンピュータ22、周囲状況観測装置23、据置型コンピュータ24、ロボット型観測装置25、ぬいぐるみ型観測装置26、データ取得用サーバ27、SQL(Structured Query Language)サーバ28、AV(オーディオ・ビデオ)データ用サーバ29、XML(eXtended Markup Language)データ作成サーバ30及びWebサーバ31を備える。
【0040】
なお、図2では、図示を容易にするために赤外線タグ101、人間用観測装置21、携帯型コンピュータ22、周囲状況観測装置23、据置型コンピュータ24、ロボット型観測装置25及びぬいぐるみ型観測装置26をそれぞれ1個のみ図示しているが、人間用観測装置21及び携帯型コンピュータ22は説明員及び訪問者ごとに設けられ、周囲状況観測装置23及び据置型コンピュータ24は複数の観測位置に設けられ、ロボット型観測装置25及びぬいぐるみ型観測装置26は必要数だけ設けられ、赤外線タグ101は説明員及び訪問者のインタラクションに使用される対象物ごとに設けられている。
【0041】
赤外線タグ101は、対象物となる展示物自体又はその近傍若しくは展示会場の壁又は天井等の人工物に取り付けられ、人工物に対して一意的に割り付けられたID番号(識別情報)を赤外線の点滅により送信する。
【0042】
人間用観測装置21は、説明員又は訪問者に装着され、装着している説明員又は訪問者のID番号を赤外線の点滅により送信する。また、人間用観測装置21は、説明員等の視界内に位置する赤外線タグ101から送信される対象物のID番号及び赤外線タグ101の赤外線画像内のXY座標を検出するとともに、赤外線タグ101を含む可視光画像をそのときの音声とともに撮影し、検出したID番号及びXY座標等の情報及び撮影した可視光画像データ等を携帯型コンピュータ22へ出力する。また、人間用観測装置21は、装着している説明員又は訪問者の生体データを検出して携帯型コンピュータ22へ出力する。
【0043】
携帯型コンピュータ22は、入力される各情報に対して時間情報の付加等の所定の処理を行い、各情報を無線によりデータ取得用サーバ27へ送信する。このように、上記の可視光画像データ及び音声データからなるビデオデータのインデックスとして、記録開始時刻情報、記録時間情報といった基本的な時間情報の他に、インタラクション対象特定情報となるID番号等が刻一刻とデータ取得用サーバ27送信される。
【0044】
周囲状況観測装置23は、説明員及び訪問者が位置する空間を構成する構造物すなわち展示会場の天井及び壁等に固定され、撮影範囲内に位置する人間用観測装置21及び赤外線タグ101から送信されるID番号並びに人間用観測装置21及び赤外線タグ101の赤外線画像内のXY座標を検出して据置型コンピュータ24へ出力する。また、周囲状況観測装置23は、撮影範囲内に位置する人間用観測装置21及び赤外線タグ101を含む可視光画像をそのときの音声とともに撮影し、撮影した可視光画像データ等を据置型コンピュータ24へ出力する。据置型コンピュータ24は、入力される各情報に対して時間情報の付加等の所定の処理を行い、各情報をデータ取得用サーバ27へ送信する。
【0045】
ロボット型観測装置25は、例えば、視覚、聴覚及び触覚を有するヒューマノイド型自律移動ロボット等から構成され、ロボット自身の視点から展示会場の状況、説明員及び訪問者の状況等を撮影、録音及び測定等して観測し、観測した映像データ、音声データ、視線方向データ、モーションデータ、触覚データ、位置データ等に時間情報を付加してデータ取得用サーバ27へ送信する。
【0046】
ぬいぐるみ型観測装置26は、例えば、視覚、聴覚、触覚及び体勢感覚を有するぬいぐるみ型観測装置等から構成され、説明員及び訪問者は通常のぬいぐるみで遊ぶ感覚でぬいぐるみを保持する。ぬいぐるみ型観測装置26は、ぬいぐるみ自身の視点から説明員及び訪問者の状況等を撮影、録音及び測定等して観測し、観測した映像データ、音声データ、視線方向データ、触覚データ、体勢データ等に時間情報を付加してデータ取得用サーバ27へ送信する。
【0047】
データ取得用サーバ27は、ROM、CPU、RAM及び外部記憶装置等を備えるサーバ装置から構成される。データ取得用サーバ27は、入力される各データのうち、記録開始時刻情報、記録時間情報、ID番号、XY座標及び生体データ等をSQLサーバ28に蓄積させ、映像データ及び音声データをAVデータ用サーバ29に蓄積させる。
【0048】
SQLサーバ28は、ROM、CPU、RAM及び外部記憶装置等を備えるサーバ装置から構成される。SQLサーバ28は、時間情報が付与されたID番号、XY座標及び生体データ等のインタラクションデータを機械可読な状態でデータベース化して記憶する。
【0049】
AVデータ用サーバ29は、ROM、CPU、RAM及び外部記憶装置等を備えるサーバ装置から構成される。AVデータ用サーバ29は、映像データ及び音声データ等のインタラクションデータを機械可読な状態でデータベース化して記憶する。なお、一度のセッションをひとつの膨大なビデオファイルにするのは現実的ではないので、AVデータ用サーバ29は、例えば、ビデオデータを1分ごとに別々のファイルとして記憶し、コーパスを利用する際にファイルが1分ごとにわかれていることを意識しなくてすむように、各ビデオデータのインデックスデータをSQLサーバ28により管理している。
【0050】
XMLデータ作成サーバ30は、入力装置、ROM、CPU、RAM、外部記憶装置及び表示装置等を備えるサーバ装置から構成される。XMLデータ作成サーバ30は、後述するXMLデータ作成処理を実行してXMLデータの形式で体験履歴データを作成する。
【0051】
Webサーバ31は、ROM、CPU、RAM、外部記憶装置、通信部等を備えるサーバ装置から構成される。Webサーバ31は、体験表示装置1からの要求に応じてXMLデータ作成サーバ30から体験履歴データを読み出し、体験履歴データをネットワーク3を介して体験表示装置1へ送信する。
【0052】
図3は、図2に示す赤外線タグ及び人間用観測装置の構成を示すブロック図である。人間用観測装置21は、赤外線検出部102、画像撮影部103、赤外線タグ104、マイク部105及び生体検出部106を備える。人間用観測装置21は、耳かけ式ネックバンド方式ヘッドセットとして構成され、説明員又は訪問者の頭部に装着される。赤外線検出部102及び画像撮影部103は直方体形状の筺体に一体に内蔵され、赤外線タグ104は筺体の側面に一体に固定され、マイク部105はユーザの口元付近に配置され、生体検出部106は、説明員又は訪問者の指に装着され、携帯型コンピュータ22は、説明員又は訪問者に背負われて使用される。
【0053】
赤外線タグ101は、LED111及び駆動回路112を備える。LED111は、赤外線LED等から構成され、例えば、光通信用高出力発光ダイオード(スタンレイ社製DN311)等を用いることができ、指向性が弱く且つ可視光に近い800nm程度の赤外LEDを好適に用いることができる。
【0054】
駆動回路112は、マイクロコンピュータ等から構成され、例えば、Atmel社製4MHz駆動マイコンAT90S2323等を用いることができ、赤外線タグ101が取り付けられた対象物に対して一意的に割り付けられたID番号が識別可能なようにLED111を点滅制御する。なお、LED111及び駆動回路112は、内部電池(図示省略)から電源を供給されている。
【0055】
具体的には、駆動回路112は、マンチェスタ符号化方式によりエンコードしたID番号(6bit)及びパリティビットと、スタートビット(1bit)及びエンドビット(2bit)とを200Hz周期の点滅により繰り返し送信する。例えば、ID番号62の場合、ID:62→“01100101010101101111”(ここで、スタートビット(01)、ID番号6ビット、パリティビット(偶数10、奇数01)、エンドビット(1111))となる。
【0056】
赤外線検出部102は、赤外線フィルタ121、レンズ122、CMOSイメージセンサ123及び画像処理装置124を備える。赤外線フィルタ121は、赤外線タグ101のLED111から発光される赤外線のうち主に近赤外線のみ透過させてレンズ122に近赤外線を導く。赤外線フィルタ121としては、例えば、可視光をブロックし、近赤外光をパスするエドモンド社製プラスチックIRパスフィルタを用いることができる。
【0057】
レンズ122は、赤外線フィルタ121を透過した近赤外線をCMOSイメージセンサ123上に結像させる。レンズ122の画角は90度である。この場合、対面での会話状態等において比較的近距離で広範囲に位置する赤外線タグを容易に検出することができる。
【0058】
CMOSイメージセンサ123は、レンズ122により結像された近赤外線から構成される近赤外線画像を撮影して画像処理装置124へ出力する。CMOSイメージセンサ123としては、例えば、三菱電機社製人口網膜LSI(M64283FP)等を用いることができ、この場合の解像度は128×128pixelである。
【0059】
画像処理装置124は、CMOSイメージセンサ123の制御及びデータ処理を行い、CMOSイメージセンサ123に撮影された近赤外線画像から赤外線タグ101を検出し、検出した赤外線タグ101の点滅状態からID番号を検出するとともに、赤外線画像上の赤外線タグ101のXY座標を検出し、ID番号及びXY座標等のデータをRS232C等のデータ伝送規格に従って携帯型コンピュータ22へ出力する。画像処理装置124としては、例えば、Cygnal社製49MHz駆動マイコンC8021F124を用いることができる。
【0060】
この場合、CMOSイメージセンサ123を115200Hzのクロックで駆動させ、撮像(シャッター開放)後、1クロック毎に1pixelの明るさがアナログ値でシリアル出力される。このため、全画素撮影時の最短フレームレートは、(シャッタースピード)+(128×128×クロックスピード)となるが、128×128pixelのうち8×8pixelを検出領域に設定して500Hzのシャッタースピードで撮像した場合、400Hzのフレームレートを実現することができ、読み出し速度を高速化することができる。このように、赤外線タグ101の点滅周期(200Hz)の2倍のフレームレート(400Hz)で読み込むため、単一LED111を用いて非同期通信を行うことができる。なお、画角90度のレンズ122を使用したときに2mの距離で1pixelは、2.2cm×2.2cmの範囲に相当する。
【0061】
画像撮影部103は、レンズ131及びCCDカメラ132を備える。レンズ131は、説明員又は訪問者の視線方向に位置する、赤外線タグ101が取り付けられた対象物を含む可視光像をCCDカメラ132上に結像させる。CCDカメラ132は、可視光画像を撮影して映像信号を携帯型コンピュータ22へ出力する。レンズ131及びCCDカメラ132としては、例えば、アナログビデオ出力を有するキーエンス社製小型CCDカメラ(水平画角44度)を用いることができる。ここで、レンズ131の光軸は、赤外線検出部102のレンズ122の光軸に合わせられており、説明員又は訪問者の視線方向に位置する対象物を識別するだけでなく、当該対象物の画像も同時に撮影することができる。
【0062】
赤外線タグ104は、LED141及び駆動回路142を備える。赤外線タグ104は、人間用観測装置21に一体に構成され、人間用観測装置21を装着する説明員又は訪問者のID番号を送信する点を除き、赤外線タグ101と同様のハードウエアから構成され、同様に動作する。
【0063】
マイク部105は、音声処理回路151及びマイクロホン152を備える。マイクロホン152は、説明員又は訪問者の発話又は周囲音を集音して音声処理回路151へ出力し、音声処理回路151は録音された音声信号を携帯型コンピュータ22へ出力する。
【0064】
生体検出部106は、生体データ処理回路161及び生体センサ162を備え、例えば、人間の脈拍、手の表面の伝導性(発汗)、温度の3個のセンサを備える生体データ記録用モジュール(Procomp+)等から構成される。生体センサ162は、説明員又は訪問者の脈拍、発汗状態及び体温を検出し、生体データ処理回路161は、検出された各データの平均値を数秒ごとに計算し、リアルタイムに生体データをAD変換して携帯型コンピュータ22へ送信する。
【0065】
図4は、図2に示す周囲状況観測装置の構成を示すブロック図である。図4に示す周囲状況観測装置23は、固定検出部202、画像撮影部203及びマイク部205を備える。固定検出部202は、赤外線フィルタ221、レンズ222、CMOSイメージセンサ223及び画像処理装置224を備える。画像撮影部203は、レンズ231及びCCDカメラ232を備える。マイク部205は、音声処理回路251及びマイクロホン252を備える。固定検出部202、画像撮影部203及びマイク部205は、上記の赤外線検出部102、画像撮影部103及びマイク部105と同様に構成され、同様に動作する。但し、周囲状況観測装置23のレンズ222の画角は60度であり、人間用観測装置21のレンズ122の画角より狭く設定され、マイクロホン252には無指向性のマイクロホンを用いている。
【0066】
この場合、CMOSイメージセンサ223のピクセル当りの集光率が高くなり、遠距離に位置する赤外線タグ101,104を容易に発見することができる。また、説明員又は訪問者の頭部に装着された人間用観測装置21だけでなく、説明員及び訪問者が位置する空間を構成する構造物に固定された周囲状況観測装置23により、説明員、訪問者並びに説明員及び訪問者の視線方向の対象物を検出することができるので、異なる視点から説明員及び訪問者の周囲の状況を観測することができる。
【0067】
次に、人間用観測装置21の赤外線タグ検出処理について説明する。この赤外線タグ検出処理は、画像処理装置124が予め記憶されている検出処理プログラムを実行することにより行われる処理であり、周囲状況観測装置23でも同様の処理が行われる。
【0068】
まず、画像処理装置124は、CMOSイメージセンサ123等を初期化し、全画面(128×128pixel)の赤外線画像を撮影する。次に、画像処理装置124は、赤外線画像の中から所定サイズの光点、例えば1pixelの光点を赤外線タグ101(LED111)として抽出し、所定サイズより大きな光点を排除する。このように、赤外線画像の中から所定サイズの光点を検出するという簡便な処理により赤外線タグ101を検出することができるので、画像処理装置124による赤外線タグ検出処理を高速化することができる。
【0069】
次に、画像処理装置124は、抽出した光点を中心とする8×8pixelの領域を検出領域として決定し、CMOSイメージセンサ123により検出領域を既定回数、例えば、((送信ビット数+スタートビット数+エンドビット数)×2×2)回読み込み、読み込んだ赤外線画像から赤外線タグ101の点滅状態を検出してID番号を検出するとともに、パリティチェックを行い、読み込みデータの判定処理を行う。
【0070】
このように、赤外線画像から光点を含む検出領域を決定し、この検出領域の赤外線画像のみを用いて赤外線タグ101の点滅状態を検出しているので、処理対象となる赤外線画像を必要最小限に限定することができ、画像処理装置124による赤外線タグ検出処理を高速化することができる。この赤外線タグ検出処理の高速化により、人の動きに充分に追従することができ、動き予測等の演算コストの高い処理を省略することができる。ここで、パリティチェックが正しければ、画像処理装置124は、赤外線タグ101のID番号及びXY座標を出力し、パリティチェックが正しくなければ、検出領域の読み込みを再度行い、上記の赤外線検出処理を検出されたすべての光点に対して行う。
【0071】
このようにして、赤外線タグ101が取り付けられた対象物に対して一意的に割り付けられたID番号をLED111の点滅により送信し、説明員又は訪問者に装着された人間用観測装置21により、説明員又は訪問者の視線方向に位置する対象物を含む所定の撮影領域の赤外線画像が撮影され、撮影された赤外線画像を用いて赤外線タグ101のID番号が検出されるので、説明員又は訪問者の視線方向に位置する対象物を識別することができる。
【0072】
図5は、図2に示す人間用観測装置、携帯型コンピュータ、周囲状況観測装置、ロボット型観測装置及びぬいぐるみ型観測装置の一例を説明するための模式図である。図5に示すように、説明員P1及び訪問者P3等が人間用観測装置21を頭部に装着するとともに、携帯型コンピュータ22を背負っている。赤外線タグ101は、訪問者P2等の胸部に装着されるとともに、環境側の対象物として、展示説明用のコンピュータM1及び展示説明用ボードB1、展示説明の補助用のロボット型観測装置25及びぬいぐるみ型観測装置26等に取り付けられ、それぞれ個別のID番号を送信する。また、展示会場の天井又は壁には、周囲状況観測装置23が取り付けられている。
【0073】
上記のように各装置が配置されることにより、例えば、人間用観測装置21により説明員P1の視界に入った訪問者P2等が対象物として識別され、周囲状況観測装置23により説明員P1が対象物として識別されるとともに、周囲状況観測装置23の周囲の対象物として訪問者P2、ロボット型観測装置25等が識別される。
【0074】
このようにして、展示会場内に遍在する周囲状況観測装置23等に加えて、インタラクションの主体となる説明員及び訪問者が身につけた人間用観測装置21を利用することにより、同一イベントを複数の観測装置により多角的に記録することができる。また、人間用観測装置21及び周囲状況観測装置23の視野に入った人や物体のID番号を自動認識することにより、蓄積されるビデオデータに実時間でインデックスをつけることができる。したがって、説明員及び訪問者は「見ること」で無意識のうちに他人や物体とのインタラクションにインデックスを付与することができる。
【0075】
また、ロボット型観測装置25及びぬいぐるみ型観測装置26等の多くのセンサが埋め込まれた擬人的インタフェースを、説明員及び訪問者とインタラクションを共に作り上げる協創パートナーとして利用することにより、これらの協創パートナーは、説明員及び訪問者とのインタラクションの身体的接触をセンシング・記録できるだけでなく、説明員及び訪問者に対して自発的にコミュニケーションを開始することができる。したがって、単に受動的に説明員及び訪問者のインタラクションを収集するだけでなく、説明員及び訪問者に対してインタラクションを仕掛けることができ、正確にインタラクションをセグメンテーションすることができる。
【0076】
上記の構成により、人間用観測装置21の赤外線検出部102及び周囲状況観測装置23の固定検出部202により検出された人間及び対象物のID番号と、人間用観測装置21の画像撮影部103及び周囲状況観測装置23の画像撮影部203により撮影されたビデオデータとがそれぞれの観測時刻を特定可能な状態で記憶されているので、各ビデオデータ内の人間及び対象物を識別して人間のインタラクションを人間及び/又は対象物との関係から解析することができ、人が何気なく扱っている言語化されていない日常常識を体系的に蓄積して機械可読な状態に辞書化することができる。
【0077】
この結果、展示会場における人と人のインタラクションにおける社会的プロトコルを分析・モデル化し、開放的な空間における複数人のインタラクションを様々なセンサ群で記録し、蓄積された大量のデータに緩い構造を与えて知識ベースとなるインタラクション・コーパスを作成することが可能となる。
【0078】
次に、上記のように構成された体験履歴データ蓄積サーバによるXMLデータ作成処理について説明する。図6は、図2に示す体験履歴データ蓄積サーバのXMLデータ作成処理を説明するためのフローチャートである。なお、図6に示すXMLデータ作成処理は、XMLデータ作成サーバ30等が予め記憶されているXMLデータ作成プログラムを実行することにより行われる処理である。
【0079】
まず、ステップS11において、XMLデータ作成サーバ30は、SQLサーバ28に蓄積されているID番号を取得する。例えば、説明員P1の人間用観測装置21により観測されたID番号を取得する。このID番号は、SQLサーバ28に蓄積される際に時間方向の塊にまとめられ、何が何時何分何秒に視界に入って何時何分何秒に視界からはずれたかといった情報すなわち断続的なID検出列にまとめられている。
【0080】
次に、ステップS12において、XMLデータ作成サーバ30は、取得したID番号が予め定めた最小検出時間以上検出されているか否かを判断し、最小検出時間以上検出されている場合はステップS13へ移行し、最小検出時間以上検出されていない場合はステップS11へ戻り、次のID番号を取得する。
【0081】
最小検出時間以上検出されている場合、ステップS13において、XMLデータ作成サーバ30は、取得したID番号が予め定めた最大間隔以上検出されていない場合があるか否かを判断し、最大間隔以上検出されていない場合がないときはステップS14へ移行し、最大間隔以上検出されていない場合があるときはステップS11へ戻り、次のID番号を取得する。
【0082】
最大間隔以上検出されていない場合がないとき、ステップS14において、XMLデータ作成サーバ30は、取得されたID番号が検出されている期間のビデオデータを一つのイベントとして決定する。ここで、イベントとは、同一の人間用観測装置21等により記録されたビデオデータから、特定の赤外線タグ101等が視界に入り続けている部分を切り出したクリップをいうものとし、インタラクションの最小単位すなわちインタラクションのプリミティブと捉えることができるものである。
【0083】
このように、最大間隔以上の間隔を空けずに且つ最小検出時間以上連続して検出されたID番号に対応するビデオデータを一つのイベントデータとして抽出しているので、人間のインタラクションの最小単位となるビデオデータをイベントデータとして抽出することができる。
【0084】
次に、ステップS15において、XMLデータ作成サーバ30は、SQLサーバ28に蓄積されているすべてのID番号を取得したか否かを判断し、すべてのID番号を取得した場合はステップS16へ移行し、すべてのID番号を取得していない場合はステップS11へ戻り、次のID番号を取得する。
【0085】
このように、断続的なID検出列からイベントを判定するにあたっては、ある人間用観測装置21等に、最大間隔以上の間隔を空けずに、特定の赤外線タグ101等が最小検出時間以上検出され続けた場合をイベントとして採用し、例えば、最小検出時間が5秒、人間用観測装置21により観測されたID検出列の最大間隔が20秒、周囲状況観測装置23により観測されたID検出列の最大間隔が10秒に設定されている。したがって、イベントの最小単位は5秒となり、また、同一の赤外線タグ101が検出されてもその間が人間用観測装置21により20秒以上(周囲状況観測装置23の場合は10秒以上)空いてしまった場合は、別のイベントに切り替わったものと判定する。例えば、誰かと会話していたときや何かを注視していたときに、少しの間だけ視線をはずした程度なら、イベントの切り替えには反映されない。
【0086】
なお、最小検出時間及び最大間隔は、上記の例に特に限定されず、最小検出時間及び最大間隔をともに5秒に設定したり、認知科学的な対話分析において、会話中のちょっとした視線の変化も個別のインタラクションのプリミティブとして分節したい場合に最大間隔の値をもっと小さくする等の種々の変更が可能である。
【0087】
すべてのID番号を取得した場合、ステップS16において、XMLデータ作成サーバ30は、決定したイベントのうち時間軸上で所定時間以上重なっているイベントがあるか否かを判断し、所定時間以上重なっているイベントがある場合はステップS17へ移行し、所定時間以上重なっているイベントがない場合はステップS18へ移行する。
【0088】
所定時間以上重なっているイベントがある場合、ステップS17において、XMLデータ作成サーバ30は、所定時間以上重なっているイベントを連結し、連結したイベントを一つのシーンとして決定する。シーンの判断基準となる所定時間として、例えば、最小検出時間の2分の1すなわち2.5秒を用いることができるが、この例に特に限定されず、他の期間を用いてもよい。
【0089】
ここで、シーンとは、ある意味を有する単位であり、複数のイベントを組み合わせて生成されるビデオストリームをいうものとする。例えば、説明員P1のためのシーンを構成しようとしている場合を考えると、説明員P1の人間用観測装置21がある赤外線タグ101を認識しているイベント、又は、説明員P1の赤外線タグ104が他人の人間用観測装置21や展示会場に設置した周囲状況観測装置23に捕えられているイベントが、所定時間以上連続しているのであれば、それらを連結させたシーンは、説明員P1にとって意味のあるシーンと解釈することができ、展示ブースの滞在シーンとか、会話シーンとかを決定することができる。
【0090】
このように、観測時間が所定時間以上重なっているイベントデータを一つのシーンデータとして連結しているので、人間のインタラクションとして意味のある適度な長さのビデオデータをシーンデータとして抽出することができる。
【0091】
次に、ステップS18において、XMLデータ作成サーバ30は、決定したイベントのうち同一空間内のイベントがあるか否かを判断し、同一空間内のイベントがある場合はステップS19へ移行し、同一空間内のイベントがない場合はステップS20へ移行する。
【0092】
同一空間内のイベントがある場合、ステップS19において、XMLデータ作成サーバ30は、同一空間内のイベントを連結し、連結したイベントを一つのシーンとして決定する。ここで、同一空間には、例えば、説明員P1と訪問者P2とが会話している空間が該当する。このように、説明員P1と訪問者P2とが会話している状態であると判定されるイベントがみつかったとき、説明員P1の赤外線タグ104が認識されていなかったとしても、訪問者P2の赤外線タグ104が周囲状況観測装置23に捉えられていた場合には、周囲状況観測装置23に訪問者P2と一緒に説明員P1も撮影されている可能性が高く、このビデオデータが説明員P1のシーンを構成するリソースとして採用される。
【0093】
これは、開放的な空間において複数人の任意のインタラクションを捕えようとするとき、通常オクルージョンの問題が起きるため、単一の観測装置が同時に全員の赤外線タグ104を捕えることは稀であるが、空間共有性を利用した複数の周囲状況観測装置23のリソースの連結を許すことにより、あるインタラクションの塊全体を捕えることができるためである。また、空間共有性による連結を多段階繰り返すと、展示会場全体のすべての人間がひとつのインタラクションに属すると解釈することになるので、本例では、空間共有性によるイベントの連結を1段階のみ許すこととしている。なお、空間共有性によるイベントの連結数は、この例に特に限定されず、どのようなサイズのインタラクションを観測したいのか等の目的に合わせて種々の変更が可能である。
【0094】
このように、観測場所が共通するイベントデータを一つのシーンデータとして連結しているので、空間的な位置関係から人間のインタラクションとして一塊とすべき映像データをシーンデータとして抽出することができる。
【0095】
次に、ステップS20において、XMLデータ作成サーバ30は、上記のようにして決定した複数のシーンを時間順に並べて連結する。次に、ステップS21において、XMLデータ作成サーバ30は、連結した各シーンに対して注釈を付加する。注釈としては、シーンの開始時間、シーンの説明、シーンの継続時間の各情報を付与する。
【0096】
ここで、シーンの説明を付加するため、XMLデータ作成サーバ30は、人及び対象物のID番号及びXY座標等を用いて、人と人、人と対象物等の位置関係を特定し、特定した位置関係を基に、予め設定している複数のイベントの種類の中からイベントの状態を判定する。
【0097】
図7は、イベントの種類を示す模式図である。すべてのイベントは、人間用観測装置21及び周囲状況観測装置23等が赤外線タグ101,104等を捕えるという意味では、これ以上単純化できないくらい単純な要素であるが、人間用観測装置21及び周囲状況観測装置23と赤外線タグ101,104を付与された対象物の組合わせにより様々な意味を解釈することが可能となる。
【0098】
例えば、図7の(a)に示すように、ある人Aが身につけている人間用観測装置21(図中の白丸)により他の人Bの赤外線タグ104(図中の黒丸)が観測され、同時に、人Bが身につけている人間用観測装置21により人Aの赤外線タグ104が観測されている場合、人Aと人Bとが対話している状態を意味する。
【0099】
また、環境側に設置された周囲状況観測装置23により人に付与された赤外線タグ104が観測された場合、その人があるエリアに滞在していることを意味し、図7の(b)に示すように、同一の周囲状況観測装置23(図中の白丸)により複数の人A,Bの赤外線タグ104が同時に観測された場合、それらの人々A,Bが同じエリアに共在する状態を意味する。
【0100】
また、図7の(c)に示すように、人Aが身につけている人間用観測装置21によりある対象物Cに付与された赤外線タグ101(図中の黒丸)が観測されている場合、その人Aがその対象物Cを注視している状態を意味する。また、複数の人の人間用観測装置21により同一の対象物の赤外線タグ101が同時に観測された場合、それらの人々が同じものに対して共同注意を向けている状態であると考えられる。さらに、共同注意に参加している人の人数が増えた場合、注意を向けられている対象物は重要な社会的イベントを担っている状態と考えられる。
【0101】
本例では、XMLデータ作成サーバ30は、上記の対話状態、共存状態及び注視状態の中からイベントの状態を決定する。なお、イベントの状態は、上記の例に特に限定されず、種々の変更及び付加が可能であり、以下のようにイベントの状態を決定してもよい。
【0102】
例えば、図7の(d)に示すように、環境側に設置された周囲状況観測装置23によりある対象物Cに付与された赤外線タグ101及びある人Aの赤外線タグ104が同時に観測されている場合、その人Aがその対象物Cのある場所を訪問している状態を意味するものと解釈してもよい。
【0103】
また、図7の(e)に示すように、ある人Aが身につけている人間用観測装置21により他の人Bの赤外線タグ104が観測され、且つそのイベントが最小検出時間の2倍以上継続されている場合、人Aが人Bを凝視している状態を意味するものと解釈してもよい。若しくは、図7の(c)に示すように、人Aが身につけている人間用観測装置21によりある対象物Cに付与された赤外線タグ101が観測され、且つそのイベントが最小検出時間の2倍以上継続されている場合、人が対象物を凝視している状態を意味するものと解釈してもよい。
【0104】
また、図7の(f)に示すように、人Aが身につけている人間用観測装置21によりある対象物Cに付与された赤外線タグ101が観測され、同時に、その対象物Cに設置された周囲状況観測装置23により人Aの赤外線タグ104が観測されている場合、その人Aがその対象物Cを注視している状態を意味するものと解釈してもよい。
【0105】
シーンの説明の生成には、上記のイベントの解釈に基づき、(1)図7の(a)に示す対話状態に対するTALKED WITH(I talked with (someone).)、(2)図7の(b)に示す共存状態に対するWAS WITH(I was with (someone).)、(3)図7の(c)に示す注視状態に対するLOOKED AT(I looked at (something).)の3種類のテンプレートを用いている。これらは、TALKED WITH>WAS WITH>LOOKED ATの順に優先順位を設定しており、シーンの中に対話イベントが認識されれば、シーン全体の注釈としてはTALKED WITHが採用される。なお、優先順位は上記の例に特に限定されず、種々の変更が可能であり、TALKED WITH>WAS WITH>LOOKED AT>VISITED(図7の(d)の状態)>STARED AT(図7の(e)等の状態)の順に優先順位を設定してもよい。
【0106】
このようして、XMLデータ作成サーバ30は、予め設定した複数のイベントの種類の中からイベントの状態を判定し、判定した状態の優先順位に応じてシーンの状態を決定し、決定した状態に対応するテンプレートを用いてシーンの説明を自動的に作成する。したがって、シーンデータのインタラクション状態に応じた説明を自動的に付与することができる。
【0107】
最後に、ステップS22において、XMLデータ作成サーバ30は、決定した各シーンから構成される体験履歴データをXMLフォーマットで作成する。図8は、XMLフォーマットで作成された体験履歴データの構成の一例を示す図である。図8に示す例では、ID番号「18」及びユーザの名前「nakahara」のユーザの体験履歴データがXMLフォーマットで作成され、体験履歴データは上記の処理により抽出されたシーンを単位として構成されている。また、各シーンの開始時間情報及び継続時間情報が「jikan」に格納されるとともに、各シーンにおいて当該ユーザとインタラクションを行った他のユーザ及び人工物のID番号がインタラクション対象特定情報として格納されている。また、図示を省略しているが、各シーンの開始時間等における静止画像データもシーンごとに格納されている。
【0108】
上記のようにして作成された体験履歴データが体験表示装置1へ送信され、体験表示装置1は、この体験履歴データを用いて体験シリンダを作成して3次元的に表示する。図9は、図1に示す体験表示装置により表示される体験シリンダの生成過程を説明するための模式図である。
【0109】
まず、図9の(a)に示すように、すべてのユーザの体験履歴データの中からメインユーザの体験履歴データのみをメインユーザのID番号を用いて抽出し、抽出したメインユーザの体験履歴データから複数のシーンのサムネイル画像S1〜S4,…が作成される。各サムネイル画像は、メッセージ追記用のテキストレイヤと、各シーンの静止画像を表示するための画像レイヤとを有しており、2つのレイヤは、基本的に半透明で表示され、後述するハイライト機能によってその透明度を変化させる。
【0110】
次に、図9の(b)に示すように、各サムネイル画像S1〜S5が時系列的に上から下へ一列に並べられ、帯状のスレッドであるメインスレッドT1が作成される。次に、図9の(c)に示すように、作成されたメインスレッドT1が、メインユーザのスレッドとして体験シリンダの中心軸である第1の軸CLに沿って配置される。
【0111】
次に、メインユーザの場合と同様に、すべてのユーザの体験履歴データの中からメインユーザとインタラクションを行ったサブユーザの体験履歴データのみをメインユーザのインタラクション対象特定情報(ID番号)を用いて抽出し、抽出したサブユーザの体験履歴データからサムネイル画像が作成される。次に、ユーザごとにサブユーザのスレッドとなるサブスレッドT2〜T7が作成され、各サブスレッドT2〜T7が第2の軸CCに沿って且つ第1の軸CLを時間軸として順次配置される。
【0112】
このように、メインユーザの視点を中心として、すべてのユーザの体験履歴データの中からメインユーザと関連のあった他のユーザの体験履歴データのみを各ユーザのID番号を用いてフィルタリングし、メインユーザのサムネイル画像を時系列的に並べたメインスレッドを中心としてサブユーザのサムネイル画像を時系列的に並べたサブスレッドを円筒状に並べた体験シリンダが作成される。
【0113】
次に、上記の体験シリンダを表示するための体験表示処理について説明する。図10は、図1に示す体験表示装置の体験表示処理を説明するためのフローチャートである。
【0114】
例えば、操作者が展示会での体験を上記の体験シリンダを用いて表示させるため、自身のID番号を操作部15を用いて入力すると、ステップS31において、シリンダ作成部12は、操作部15から入力されたID番号をメインユーザのID番号として受け付け、体験履歴データ取得部11を用いて当該ID番号を有するユーザの体験履歴データを体験履歴データ蓄積サーバ2に要求する。このとき、体験履歴データ蓄積サーバ2からメインユーザの体験履歴データとして各シーンの静止画像データ、インタラクション対象特定情報、開始時間情報及び継続時間情報等が送信されると、体験履歴データ取得部11は、各データを取得してシリンダ作成部12へ出力し、シリンダ作成部12は、メインユーザの体験履歴データとして取得した各データを体験履歴データ記憶部13に記憶させる。
【0115】
次に、ステップS32において、シリンダ作成部12は、入力されたシーンの体験履歴データに他のユーザのインタラクション対象特定情報があるか否かを判断し、インタラクション対象特定情報がない場合はステップS34へ処理を移行し、インタラクション対象特定情報がある場合はステップS33へ処理を移行する。
【0116】
インタラクション対象特定情報がある場合、ステップS33において、シリンダ作成部12は、インタラクション対象特定情報により特定されるID番号をサブユーザのID番号として受け付け、体験履歴データ取得部11を用いて当該ID番号を有するユーザの体験履歴データを体験履歴データ蓄積サーバ2に要求する。このとき、体験履歴データ蓄積サーバ2からサブユーザの体験履歴データとして各シーンの静止画像データ、インタラクション対象特定情報、開始時間情報及び継続時間情報等が送信されると、体験履歴データ取得部11は、各データを取得してシリンダ作成部12へ出力し、シリンダ作成部12は、サブユーザの体験履歴データとして取得した各データを体験履歴データ記憶部13に記憶させる。
【0117】
次に、ステップS34において、シリンダ作成部12は、メインユーザのすべてのシーンの体験履歴データに対してステップS32の判定処理を行ったか否かを判断し、すべてのシーンの体験履歴データに対して判定処理が終了していない場合はステップS32へ戻って以降の処理を継続して他のサブユーザの体験履歴データを順次取得し、すべてのシーンの体験履歴データに対して判定処理が終了した場合にステップS35へ処理を移行する。
【0118】
次に、ステップS35において、シリンダ作成部12は、取得したシーン間にリンクが存在するか否かを判断し、リンクが存在しない場合はステップS37へ処理を移行し、リンクが存在する場合はステップS36へ処理を移行する。具体的には、シリンダ作成部12は、メインユーザ及びサブユーザの各シーンの体験履歴データ内にインタラクション対象特定情報があるか否かを判断し、インタラクション対象特定情報がある場合に当該インタラクション対象特定情報により特定されるID番号を有するユーザがメインユーザ又はサブユーザに該当するか否かを判断し、該当するユーザがある場合にシーン間にリンクが存在すると判断し、その他の場合はシーン間にリンクが存在しないと判断する。
【0119】
取得したシーン間にリンクが存在する場合、ステップS36において、シリンダ作成部12は、インタラクション対象特定情報により特定されるID番号を有するユーザの各シーンの開始時間情報を参照して、インタラクション対象特定情報を含むシーンの開始時間情報により特定される時刻に対して所定時間内、例えば、±5秒以内のシーンを抽出し、インタラクション対象特定情報を含むシーンの体験履歴データと抽出されたシーンの体験履歴データとを連結するリンク標識を作成して体験履歴データ記憶部13に保存する。
【0120】
次に、ステップS37において、シリンダ作成部12は、メインユーザ及びサブユーザのすべてのシーンの体験履歴データに対してステップS35の判定処理を行ったか否かを判断し、すべてのシーンの体験履歴データに対して判定処理が終了していない場合はステップS35へ戻って以降の処理を継続して他のリンク標識を順次作成し、すべてのシーンの体験履歴データに対して判定処理が終了した場合にステップS38へ処理を移行する。
【0121】
次に、ステップS38において、シリンダ作成部12は、操作者が指定している表示モードがハイライト変更機能のうちのノーマルモードであるか否かを判断し、ノーマルモードである場合はステップS39へ処理を移行し、ノーマルモードでない場合はステップS40へ処理を移行する。ここで、ハイライト変更機能とは、サムネイル画像の画像レイヤ及びテキストレイヤの透明度を変化させることにより、強調して表示する情報を変化させる機能であり、上記のノーマルモード以外に社会的ハイライトモードとテキストモードとがあり、後述する操作画面を用いてユーザが任意のモードを選択することができる。また、ノーマルモードは個人の体験のハイライトに注目した表示モードであり、各ユーザのサムネイル画像の透明度がユーザごとに決定される。
【0122】
ノーマルモードの場合、ステップS39において、シリンダ作成部12は、体験履歴データの継続時間情報により特定される各シーンの継続時間に応じた透明度を各ユーザのサムネイル画像に決定し、決定した透明度をサムネイル画像に対応付けて体験履歴データ記憶部13に保存する。例えば、展示会で個人の見学体験のハイライトは滞在時間や社会的インタラクションの継続時間で測ることができるため、シリンダ作成部12は、シーンの時系列の長さから透明度を計算し、各ユーザのサムネイル画像の透明度として、当該サムネイル画像のシーンの継続時間を当該ユーザのすべてのシーンの最大継続時間で除算した値が算出される。この場合、後述する描画処理により、メインユーザ及びサブユーザのサムネイル画像がインタラクションが行われているシーンの継続時間の長さに応じた透明度で表示されるので、各サムネイル画像の透明度によりインタラクションの継続時間の長短を一目で理解することができる。
【0123】
次に、ステップS40において、シリンダ作成部12は、操作者が指定している表示モードが社会的ハイライトモードであるか否かを判断し、社会的ハイライトモードである場合はステップS41へ処理を移行し、社会的ハイライトモードでない場合はステップS42へ処理を移行する。ここで、社会的ハイライトモードとは、あるユーザの視点でフィルタリングした複数のユーザのシーン群から社会的なハイライトを表示するモードであり、社会的なハイライトとは、ユーザ間のインタラクションが頻繁に発生したシーン群である。
【0124】
社会的ハイライトモードの場合、ステップS41において、シリンダ作成部12は、体験履歴データのリンク標識の数に応じた透明度を各ユーザのサムネイル画像に対して決定し、決定した透明度をサムネイル画像に対応付けて体験履歴データ記憶部13に保存する。具体的には、シリンダ作成部12は、体験シリンダに含まれる連結したリンク標識をグループ化し、グループ内に含まれるリンク標識の数を計数し、各サムネイル画像の透明度として、当該サムネイル画像が有するリンク標識のグループの連結数を体験シリンダ全体の最大連結数で除算した値を算出する。
【0125】
図11は、リンク標識の計数例を示す模式図である。図11の(a)に示す例は4個のサムネイル画像Sに対してリンク標識が0の場合すなわちリンク標識による連結数が0の場合を示し、(b)に示す例は4個のサムネイル画像Sに対して1本のリンク標識Lがある場合すなわちリンク標識による連結数が1の場合を示し、(c)に示す例は4個のサムネイル画像Sに対して3本のリンク標識Lがある場合すなわちリンク標識による連結数が3の場合を示し、(d)に示す例は4個のサムネイル画像Sに対して5本のリンク標識Lがある場合すなわちリンク標識による連結数が5の場合を示している。このようにして計数された連結数に応じて各サムネイル画像の透明度が決定される。
【0126】
このように、メインユーザ及びサブユーザのサムネイル画像がリンク標識の数に応じた透明度で表示されるので、各サムネイル画像の透明度によりユーザ間のインタラクションが頻繁に行われた経験を一目で理解することができる。
【0127】
次に、ステップS42において、シリンダ作成部12は、操作者が指定している表示モードがテキストモードであるか否かを判断し、テキストモードである場合はステップS43へ処理を移行し、テキストモードでない場合はステップS44へ処理を移行する。ここで、テキストモードとは、体験履歴データ蓄積サーバ2においてユーザの体験が取得された後に、操作者が操作部15を用いて追記したメッセージテキストを強調表示するモードである。
【0128】
テキストモードの場合、ステップS43において、シリンダ作成部12は、各サムネイル画像の画像レイヤを通常より薄い所定の透明度に設定するとともに、メッセージテキストが追記されたテキストレイヤの透明度を不透明に設定し、設定した透明度をサムネイル画像に対応付けて体験履歴データ記憶部13に保存する。
【0129】
次に、ステップS44において、シリンダ作成部12は、メインユーザの体験履歴データを体験履歴データ記憶部13から読み出して体験シリンダの中心位置にメインスレッドを配置し、上記の表示モードに応じた透明度でメインスレッドを表示部14に描画する。
【0130】
次に、シリンダ作成部12は、ステップS45において、サブユーザの体験履歴データを体験履歴データ記憶部13から読み出し、サブユーザの数に応じてサブスレッド間の距離を算出し、ステップS46において、算出した距離を隔てて体験シリンダの円筒側面に各サブスレッドを配置し、上記の表示モードに応じた透明度で各サブスレッドを表示部14に描画する。ここで、サブスレッド間の距離としては、例えば、サブスレッド間が等間隔になる距離を用いることができる。
【0131】
次に、ステップS47において、シリンダ作成部12は、メインスレッド及びサブスレッドのリンク標識を体験履歴データ記憶部13から読み出して該当するサムネイル画像を連結するように各リンク標識を配置し、配置したリンク標識を表示部14に描画し、最終的に、メインユーザ及びサブユーザの体験履歴データを可視化した体験シリンダが表示部14に表示される。なお、上記の各描画処理には、公知のWeb3D技術を用いることができる。
【0132】
図12は、上記の体験表示処理により図1に示す体験表示装置の表示部に表示される操作画面の一例を示す図である。図12に示す操作画面G1は、メイン表示部D1、スレッド表示部D2、シーン表示部D3、データ表示部D4、検索部D5、テキスト操作部D6及び画面切り替え部D7から構成される。
【0133】
メイン表示部D1には、メインスレッドT1、複数のサブスレッドT2〜T4…及びリンク標識L1等から構成される体験シリンダが3次元的に表示され、例えば、メインスレッドT1のサムネイル画像S1とサブスレッドT2のサムネイル画像S2とがリンク標識L1により連結されて表示されている。操作者は、後述する体験シリンダ操作処理によりマウス等の操作部15を用いて体験シリンダを移動及び回転させることができ、体験シリンダを回転させることによって注目するユーザを変更したり、上下に移動することによって注目する時間を変更することができる。このように立体構造を用いて情報を可視化する際、3次元ナビゲーションが問題となるが、体験表示装置1では回転シリンダへの操作を回転及び上下方向の移動のみに制限することにより、操作者の負担を軽減している。
【0134】
スレッド表示部D2には、メイン表示部D1に表示されているメインスレッドT1及び複数のサブスレッドT2〜T4のユーザの名前が表示される。このとき、体験シリンダを構成する各ユーザのスレッドT1〜T4の座標に従ってユーザの名前が配置され、例えば、メインスレッドT1に対してメインユーザの名前として「nakahara」が配置される。シーン表示部D3には、各シーンの時間的位置が表示され、3つの表示領域のうち左側のラインは全体のシーンの位置を示し、中央のラインはメインユーザのシーンの位置を示し、右側のラインは後述するリンク検索及びテキスト検索の結果を表示する。
【0135】
データ表示部D4には、メイン表示部D1内で操作者が選択したサムネイル画像のシーンの詳細な情報が表示される。例えば、シーンの主体となるユーザの名前、シーンの日時、場所、インタラクションの相手となったユーザの名前等が表示される。検索部D5は、操作者が操作部15を用いて体験シリンダ全体から特定のユーザ間のリンク標識及び追記されたメッセージテキストを検索するために使用される。
【0136】
テキスト操作部D6は、操作者が操作部15を用いてメイン表示部D1において選択したサムネイル画像にメッセージテキストを記入するために使用される。例えば、サブスレッドT2のサムネイル画像S2に対して「AAA」のメッセージが追記されている。このようにメッセージを残すことにより、操作者は同じシーンに興味を持つ他のユーザと非同期的にコミュニケーションを図ることができる。
【0137】
画面切り替え部D7は、操作者がメイン表示部D1の表示方法を変更するために使用される。メイン表示部D1の表示方法としては、カメラ視点の変更、後述する体験シリンダの乗り換え、及び上記のノーマルモード、社会的ハイライトモード及びテキストモードの中から操作者が一つのモードを指定する強調表示情報の変更がある。カメラ視点の変更では、体験シリンダを外部から眺めた視点と、内部から透視した視点とを切り替えることができる。
【0138】
このように、本実施の形態では、メインユーザの各シーンのサムネイル画像を時間軸に沿って一列に配置したメインスレッドが表示され、メインユーザとインタラクションを行ったサブユーザの各シーンのサムネイル画像を時間軸に沿って一列に配置したサブスレッドが、メインスレッドを中心軸として円筒状に配置されて表示されるので、メインユーザ及びサブユーザのサムネイル画像の時間的な遷移及びメインユーザとサブユーザとのインタラクションの関係を一目で理解することができ、複数の人間のインタラクションに対する多視点的な理解を容易にしてユーザ間のコミュニケーションを充分に促進することができる。また、リンク標識とともにメインユーザ及びサブユーザのサムネイル画像が三次元的に表示されるので、インタラクションを共有したメインユーザ及びサブユーザのサムネイル画像間をリンク標識により連結して表示することができ、インタラクションを共有したメインユーザ及びサブユーザのシーンを一目で識別することができる。この結果、操作者は、見学体験後、自宅等においてWebブラウザを経由して自身の体験と他のユーザとの関わりを確認及び再発見することができる。
【0139】
次に、操作者の操作に応じて上記の体験シリンダを回転及び移動等させるための体験シリンダ操作処理について説明する。図13は、図1に示す体験表示装置の体験シリンダ操作処理を説明するためのフローチャートである。なお、以下では、操作部15としてマウスが使用されている場合を例に説明する。
【0140】
まず、ステップS51において、シリンダ作成部12は、操作者がマウスを操作することにより操作画面のメイン表示部の中央より右側にマウスカーソルが位置しているか否かを判断する。マウスカーソルが中央より右側に位置している場合、シリンダ作成部12は、ステップS52において、体験シリンダを左回りに回転させて表示部14に表示させ、マウスカーソルが中央より右側に位置していない場合は処理をステップS53へ移行する。
【0141】
次に、ステップS53において、シリンダ作成部12は、操作者がマウスを操作することにより操作画面のメイン表示部の中央より左側にマウスカーソルが位置しているか否かを判断する。マウスカーソルが中央より左側に位置している場合、シリンダ作成部12は、ステップS54において、体験シリンダを右回りに回転させて表示部14に表示させ、マウスカーソルが中央より左側に位置していない場合は処理をステップS55へ移行する。
【0142】
次に、ステップS55において、シリンダ作成部12は、操作者がマウスを操作することにより操作画面のメイン表示部の中央より上側にマウスカーソルが位置しているか否かを判断する。マウスカーソルが中央より上側に位置している場合、シリンダ作成部12は、ステップS56において、体験シリンダを下方向へ移動させて表示部14に表示させ、マウスカーソルが中央より上側に位置していない場合は処理をステップS57へ移行する。
【0143】
次に、ステップS57において、シリンダ作成部12は、操作者がマウスを操作することにより操作画面のメイン表示部の中央より下側にマウスカーソルが位置しているか否かを判断する。マウスカーソルが中央より下側に位置している場合、シリンダ作成部12は、ステップS58において、体験シリンダを上方向へ移動させて表示部14に表示させ、マウスカーソルが中央より下側に位置していない場合は処理をステップS59へ移行する。
【0144】
次に、ステップS59において、シリンダ作成部12は、操作者がマウスを操作することによりメイン表示部のサムネイル画像を左クリックしたか否かを判断する。サムネイル画像が左クリックされた場合、シリンダ作成部12は、ステップS60において、左クリックされたサムネイル画像の詳細情報を表示部14のデータ表示部に表示させ、サムネイル画像が左クリックされていない場合は処理をステップS61へ移行する。
【0145】
次に、ステップS61において、シリンダ作成部12は、操作者がマウスを操作することにより操作画面のメイン表示部上でマウスを右クリックしたか否かを判断する。マウスが右クリックされた場合、シリンダ作成部12は、ステップS62において、体験シリンダの回転及び移動を停止させて表示部14に表示させ、マウスが右クリックされていない場合は処理をステップS63へ移行する。
【0146】
次に、ステップS63において、シリンダ作成部12は、操作者がマウスを操作することにより操作画面のシーン表示部を左クリックしたか否かを判断する。シーン表示部が左クリックされた場合、シリンダ作成部12は、ステップS64において、左クリックされた位置に対応する時間に体験シリンダの表示位置を移動して表示部14に表示させ、ステップS64の処理後、又はシーン表示部が左クリックされていない場合、ステップS51へ戻って以降の処理を継続する。
【0147】
なお、各判断ステップの順序は、上記の例に特に限定されず、種々の変更が可能であり、また、割り込み処理により上記の処理を実行するようにしてよい。また、マウス等の操作部の各操作状態に対する回転、移動等の動作の組み合わせも上記の例に特に限定されず、種々の変更が可能であり、操作部もマウスに特に限定されず、ジョイステック等を用いてもよい。
【0148】
次に、体験シリンダの中から操作者が選択したサブユーザをメインユーザとして新たな体験シリンダを作成する体験シリンダ乗り換え処理について説明する。図14は、図1に示す体験表示装置の体験シリンダ乗り換え処理を説明するためのフローチャートである。
【0149】
図10に示す体験表示処理により、あるユーザをメインユーザとする体験シリンダが作成された後、操作者が画面切り替え部のユーザ切り替え欄に表示したいサブユーザの名前を入力すると、ステップS71において、シリンダ作成部12は、入力されたサブユーザのサブスレッドをメインスレッドに置き換える。次に、ステップS72において、シリンダ作成部12は、体験シリンダを構成する他のスレッドがメインスレッドに対するリンク標識を有しているか否かを判断し、メインスレッドとのリンク標識がない場合はステップS73において、当該スレッドを削除し、メインスレッドとのリンク標識がある場合はステップS74へ処理を移行する。
【0150】
次に、ステップS74において、シリンダ作成部12は、体験シリンダを構成する他の全てのスレッドに対してステップS72の判定処理が終了したか否かを判断し、判定処理が終了していないスレッドがある場合はステップS72へ移行して処理を継続し、全てのスレッドに対して判定処理が終了している場合はステップS75へ処理を移行する。
【0151】
全てのスレッドに対して判定処理が終了している場合、ステップS75において、シリンダ作成部12は、削除されていないスレッドの各シーンの体験履歴データに他のユーザのインタラクション対象特定情報があるか否かを判断し、インタラクション対象特定情報がない場合はステップS78へ処理を移行し、インタラクション対象特定情報がある場合はステップS76へ処理を移行する。
【0152】
インタラクション対象特定情報がある場合、ステップS76において、シリンダ作成部12は、インタラクション対象特定情報により特定されるID番号を有するユーザのスレッドが既存のサブスレッド内にあるか否かを判断し、既存のサブスレッド内にある場合はステップS78へ処理を移行し、既存のサブスレッド内にない場合はステップS77へ処理を移行する。
【0153】
既存のサブスレッド内にない場合、ステップS77において、シリンダ作成部12は、インタラクション対象特定情報により特定されるID番号をサブユーザのID番号として受け付け、体験履歴データ取得部11を用いて当該ID番号を有するユーザの体験履歴データを体験履歴データ蓄積サーバ2に要求する。このとき、体験履歴データ蓄積サーバ2からサブユーザの体験履歴データが送信されると、体験履歴データ取得部11は、送信されたサブユーザの体験履歴データを取得してシリンダ作成部12へ出力し、シリンダ作成部12は、サブユーザの体験履歴データを体験履歴データ記憶部13に記憶させる。
【0154】
次に、ステップS78において、シリンダ作成部12は、メインユーザのすべてのシーンの体験履歴データに対してステップS75,S76の判定処理を行ったか否かを判断し、すべての体験履歴データに対して判定処理が終了していない場合はステップS75へ戻って以降の処理を継続して他のサブユーザの体験履歴データを順次取得し、すべての体験履歴データに対して判定処理が終了した場合にステップS79へ処理を移行する。
【0155】
すべての体験履歴データに対して判定処理が終了した場合、ステップS79において、図10に示すステップS35〜S37のリンク作成処理が実行され、さらに、ステップS80において、図10に示すステップS38〜S47の3次元描画処理が実行される。このようにして、体験シリンダの中から操作者が選択したサブユーザをメインユーザとして新たな体験シリンダを作成して表示することができるので、表示主体となるメインユーザの切り替えを容易に行うことができる。
【0156】
なお、上記の説明では、体験履歴データとして静止画像を表示したが、表示されている静止画像の選択により動画像を表示したり、動画像を体験履歴データとして表示する等の種々の変更が可能である。
【0157】
また、体験履歴データとして人間の体験履歴データを表示したが、人間の体験履歴データに代えて又は付加してロボット型観測装置等の人工物の体験履歴データを表示するようにしてもよい。
【0158】
また、体験表示装置が体験履歴データを取得する体験履歴データ蓄積サーバの構成は、上記の例に特に限定されず、他の装置により取得された体験履歴データを単に記憶し、体験表示装置の要求に応じた体験履歴データを送信してもよく、種々の変更が可能である。
【図面の簡単な説明】
【図1】本発明の一の実施の形態による体験表示装置を用いた体験表示システムの構成を示すブロック図である。
【図2】図1に示す体験履歴データ蓄積サーバの構成を示すブロック図である。
【図3】図2に示す赤外線タグ及び人間用観測装置の構成を示すブロック図である。
【図4】図2に示す周囲状況観測装置の構成を示すブロック図である。
【図5】図2に示す人間用観測装置、携帯型コンピュータ、周囲状況観測装置、ロボット型観測装置及びぬいぐるみ型観測装置の一例を説明するための模式図である。
【図6】図2に示す体験履歴データ蓄積サーバのXMLデータ作成処理を説明するためのフローチャートである。
【図7】イベントの種類を示す模式図である。
【図8】XMLフォーマットで作成された体験履歴データの構成の一例を示す図である。
【図9】図1に示す体験表示装置により表示される体験シリンダの生成過程を説明するための模式図である。
【図10】図1に示す体験表示装置の体験表示処理を説明するためのフローチャートである。
【図11】リンク標識の計数例を示す模式図である。
【図12】図1に示す体験表示装置の表示部に表示される操作画面の一例を示す図である。
【図13】図1に示す体験表示装置の体験シリンダ操作処理を説明するためのフローチャートである。
【図14】図1に示す体験表示装置の体験シリンダ乗り換え処理を説明するためのフローチャートである。
【符号の説明】
1 体験表示装置
2 体験履歴データ蓄積サーバ
11 体験履歴データ取得部
12 シリンダ作成部
13 体験履歴データ記憶部
14 表示部
15 操作部

Claims (9)

  1. ユーザが体験したインタラクションを表す体験履歴データを可視的に表示する体験表示装置であって、
    メインユーザの体験履歴データと、メインユーザとインタラクションを行った複数のサブユーザの体験履歴データとを取得する取得手段と、
    仮想三次元空間内に第1の軸を規定するとともに、前記第1の軸を中心軸とする円筒の周面に沿って且つ前記第1の軸と平行な複数の第2の軸を規定し、メインユーザの体験履歴データを前記第1の軸に沿って時系列的に一列に配置するとともに、サブユーザの体験履歴データをユーザごとに前記第2の軸に沿って時系列的に一列に配置する配置手段と、
    前記配置手段により配置されたメインユーザ及びサブユーザの体験履歴データを表示する表示手段とを備えることを特徴とする体験表示装置。
  2. 前記体験履歴データは、メインユーザ又はサブユーザがインタラクションを行った時刻を特定するための時刻情報を含み、
    前記配置手段は、各体験履歴データの時刻情報に応じて、前記第1の軸を時間軸としてメインユーザの体験履歴データを時系列的に一列に配置するとともに、サブユーザの体験履歴データを時系列的に一列に配置することを特徴とする請求項1に記載の体験表示装置。
  3. 前記体験履歴データは、メインユーザ又はサブユーザがインタラクションを行っている継続時間を特定するための継続時間情報と、メインユーザ又はサブユーザが体験したインタラクションを表す静止画像データとを含み、
    前記配置手段は、前記継続時間情報により特定される継続時間の長さに応じた透明度を前記静止画像データごとに決定し、
    前記表示手段は、前記配置手段により決定された透明度で前記静止画像データを前記体験履歴データとして表示することを特徴とする請求項1又は2記載の体験表示装置。
  4. 前記メインユーザの体験履歴データは、メインユーザがインタラクションを行ったサブユーザを特定するためのインタラクション対象特定情報をさらに含み、
    前記配置手段は、前記メインユーザの体験履歴データと、当該メインユーザの体験履歴データのインタラクション対象特定情報により特定されるサブユーザの体験履歴データの中から当該メインユーザの体験履歴データの時刻情報により特定される時刻に対して所定時間内のサブユーザの体験履歴データとを連結するためのリンク標識を作成し、
    前記表示手段は、前記配置手段により作成されたリンク標識とともに前記メインユーザ及びサブユーザの体験履歴データを表示することを特徴とする請求項2記載の体験表示装置。
  5. 前記体験履歴データは、メインユーザ又はサブユーザが体験したインタラクションを表す静止画像データを含み、
    前記配置手段は、前記リンク標識の数に応じた透明度を前記静止画像データごとに決定し、
    前記表示手段は、前記配置手段により決定された透明度で前記静止画像データを前記体験履歴データとして表示することを特徴とする請求項4に記載の体験表示装置。
  6. 前記表示手段により表示されているメインユーザ及びサブユーザの体験履歴データを前記第1の軸に沿った方向に移動するための操作者の移動指示を受け付ける移動受付手段と、
    前記表示手段により表示されているメインユーザ及びサブユーザの体験履歴データを前記第1の軸を回転軸として回転するための操作者の回転指示を受け付ける回転受付手段とをさらに備え、
    前記表示手段は、前記移動受付手段によって受け付けられた移動指示に応じて前記メインユーザ及びサブユーザの体験履歴データを前記第1の軸に沿った方向に移動させて表示し、前記回転受付手段によって受け付けられた回転指示に応じて前記メインユーザ及びサブユーザの体験履歴データを前記第1の軸を回転軸として回転させて表示することを特徴とする請求項1〜5のいずれかに記載の体験表示装置。
  7. 前記表示手段により体験履歴データが表示されているサブユーザの中から操作者が選択したサブユーザをメインユーザとして受け付けるユーザ受付手段をさらに備え、
    前記取得手段は、前記ユーザ受付手段によって受け付けられたサブユーザとインタラクションを行った他のユーザの体験履歴データを取得し、
    前記配置手段は、前記ユーザ受付手段によって受け付けられたサブユーザの体験履歴データを前記第1の軸に沿って時系列的に一列に配置するとともに、前記取得手段により取得された他のユーザの体験履歴データをユーザごとに前記第2の軸に沿って時系列的に一列に配置することを特徴とする請求項1〜6のいずれかに記載の体験表示装置。
  8. メインユーザが体験したインタラクションを表す体験履歴データを可視的に表示する体験表示方法であって、
    コンピュータが、メインユーザの体験履歴データと、メインユーザとインタラクションを行った複数のサブユーザの体験履歴データとを取得する取得ステップと、
    前記コンピュータが、仮想三次元空間内に第1の軸を規定するとともに、前記第1の軸を中心軸とする円筒の周面に沿って且つ前記第1の軸と平行な複数の第2の軸を規定し、メインユーザの体験履歴データを前記第1の軸に沿って時系列的に一列に配置するとともに、サブユーザの体験履歴データをユーザごとに前記第2の軸に沿って時系列的に一列に配置する配置ステップと、
    前記コンピュータが、前記配置手段により配置されたメインユーザ及びサブユーザの体験履歴データを表示する表示ステップとを含むことを特徴とする体験表示方法。
  9. メインユーザが体験したインタラクションを表す体験履歴データを可視的に表示するための体験表示プログラムであって、
    メインユーザの体験履歴データと、メインユーザとインタラクションを行った複数のサブユーザの体験履歴データとを取得する取得手段と、
    仮想三次元空間内に第1の軸を規定するとともに、前記第1の軸を中心軸とする円筒の周面に沿って且つ前記第1の軸と平行な複数の第2の軸を規定し、メインユーザの体験履歴データを前記第1の軸に沿って時系列的に一列に配置するとともに、サブユーザの体験履歴データをユーザごとに前記第2の軸に沿って時系列的に一列に配置する配置手段と、
    前記配置手段により配置されたメインユーザ及びサブユーザの体験履歴データを表示する表示手段としてコンピュータを機能させることを特徴とする体験表示プログラム。
JP2003151804A 2003-05-29 2003-05-29 体験表示装置、体験表示方法及び体験表示プログラム Expired - Fee Related JP4027267B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003151804A JP4027267B2 (ja) 2003-05-29 2003-05-29 体験表示装置、体験表示方法及び体験表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003151804A JP4027267B2 (ja) 2003-05-29 2003-05-29 体験表示装置、体験表示方法及び体験表示プログラム

Publications (2)

Publication Number Publication Date
JP2004355308A true JP2004355308A (ja) 2004-12-16
JP4027267B2 JP4027267B2 (ja) 2007-12-26

Family

ID=34047190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003151804A Expired - Fee Related JP4027267B2 (ja) 2003-05-29 2003-05-29 体験表示装置、体験表示方法及び体験表示プログラム

Country Status (1)

Country Link
JP (1) JP4027267B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008176573A (ja) * 2007-01-18 2008-07-31 Hitachi Ltd インタラクションデータ表示装置、処理装置及び表示方法
JP2013532336A (ja) * 2010-06-15 2013-08-15 任天堂株式会社 オンラインコンテンツにアクセスするためのシステムおよび方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008176573A (ja) * 2007-01-18 2008-07-31 Hitachi Ltd インタラクションデータ表示装置、処理装置及び表示方法
US8234576B2 (en) 2007-01-18 2012-07-31 Hitachi, Ltd. Interaction data display apparatus, processing apparatus and method for displaying the interaction data
JP2013532336A (ja) * 2010-06-15 2013-08-15 任天堂株式会社 オンラインコンテンツにアクセスするためのシステムおよび方法
US10360278B2 (en) 2010-06-15 2019-07-23 Nintendo Of America Inc. System and method for accessing online content

Also Published As

Publication number Publication date
JP4027267B2 (ja) 2007-12-26

Similar Documents

Publication Publication Date Title
US11937895B1 (en) Method and apparatus for a compact and high resolution mind-view communicator
JP5898378B2 (ja) 情報処理装置およびアプリケーション実行方法
Kasahara et al. Jackin head: Immersive visual telepresence system with omnidirectional wearable camera
US20200193615A1 (en) Computer vision based monitoring system and method
JP5854806B2 (ja) 映像処理装置および映像処理方法
KR20160105439A (ko) 시선-기반 미디어 선택 및 편집을 위한 시스템들 및 방법들
US20120256950A1 (en) Medical support apparatus, medical support method, and medical support system
JP2005131713A (ja) コミュニケーションロボット
EP3616095A1 (en) Computer vision based monitoring system and method
Bazhenov et al. Use of everyday mobile video cameras in IoT applications
JP4095537B2 (ja) 体験表示装置、体験表示方法及び体験表示プログラム
JP4027267B2 (ja) 体験表示装置、体験表示方法及び体験表示プログラム
JP3936295B2 (ja) データベース作成装置
JP2017055175A (ja) 画像処理装置
WO2019044135A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2023121636A (ja) 情報処理システム、通信システム、画像共有方法、プログラム
JP2023140922A (ja) 表示端末、情報処理システム、通信システム、表示方法、情報処理方法、通信方法、及びプログラム
JP4012872B2 (ja) 情報管理装置、情報管理方法及び情報管理プログラム
JP7312465B2 (ja) 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム
JP4905651B2 (ja) 情報分析装置、情報分析方法及び情報分析プログラム
Fuchs et al. SmartLobby: A 24/7 Human-Machine-Interaction Space within an Office Environment.
US20240172940A1 (en) Method and apparatus for a compact and high resolution mind-view communicator
Ito et al. Implementation and evaluation of wearable sensor devices for recording and detecting conversational interaction
US20230316659A1 (en) Traveling in time and space continuum
WO2022130414A1 (en) Virtual presence device which uses trained humans to represent their hosts using man machine interface

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071009

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees