JP2004054886A - データベース作成装置 - Google Patents

データベース作成装置 Download PDF

Info

Publication number
JP2004054886A
JP2004054886A JP2003013347A JP2003013347A JP2004054886A JP 2004054886 A JP2004054886 A JP 2004054886A JP 2003013347 A JP2003013347 A JP 2003013347A JP 2003013347 A JP2003013347 A JP 2003013347A JP 2004054886 A JP2004054886 A JP 2004054886A
Authority
JP
Japan
Prior art keywords
interaction
data
human
observation
observation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003013347A
Other languages
English (en)
Other versions
JP3936295B2 (ja
Inventor
Yasuyuki Sumi
角 康之
Kenji Mase
間瀬 健二
Norihiro Hagita
萩田 紀博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003013347A priority Critical patent/JP3936295B2/ja
Publication of JP2004054886A publication Critical patent/JP2004054886A/ja
Application granted granted Critical
Publication of JP3936295B2 publication Critical patent/JP3936295B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】言語化されていない日常常識を自動的にデータベース化することができるデータベース作成装置を提供する。
【解決手段】周囲状況観測装置1a、講演者用観測装置1b、聴講者用観測装置1c、ロボット型観測装置1d及びぬいぐるみ型観測装置1eは、講演会における講演者及び聴講者のインタラクションを異なる視点から観測し、時間情報付加部2は、観測されたインタラクションデータに時間情報を付加し、インタラクション・コーパス3に蓄積してデータベースを作成する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、人間のインタラクション(相互作用)に関するインタラクションデータを蓄積したデータベースを作成するデータベース作成装置に関するものである。
【0002】
【従来の技術】
近年、人工知能研究の一分野としてオントロジー研究が行われ、例えば、大阪大学の溝口らはオントロジー工学を提唱し(例えば、非特許文献1参照)、東京大学やStanford大学でもオントロジーを中心に据えた人工物設計の理論構築が試みられている。また、日常常識を辞書化する試みとして、CYC、WordNet、EDR等のプロジェクトが行われている(例えば、非特許文献2参照)。
【0003】
【非特許文献1】
溝口理一郎、オントロジー研究の基礎と応用、人工知能学会誌、Vol.14、No.6、1999年、pp.977−988
【非特許文献2】
Communication of the ACM、Vol.38、No.11、1995年
【0004】
【発明が解決しようとする課題】
しかしながら、上記の試みは、人間の専門家が行う設計問題を機械化したエキスパートシステムの構築を動機としているため、対象となるデータが自ずと教科書的な専門知識に限られる傾向があり、人間が何気なく扱っている言語化されていない日常常識を取り扱うことができない。また、上記のCYC、WordNet、EDR等のプロジェクトにおける試みは人手によって行われ、扱われるデータも恣意的なものであるため、種々の日常常識を自動的にデータベース化することはできない。
【0005】
本発明の目的は、言語化されていない日常常識を自動的にデータベース化することができるデータベース作成装置を提供することである。
【0006】
【課題を解決するための手段および発明の効果】
(1)第1の発明
第1の発明に係るデータベース作成装置は、人間のインタラクションに関するインタラクションデータを蓄積したデータベースを作成するデータベース作成装置であって、人間のインタラクションを第1の視点から観測したインタラクションデータを出力する第1の観測手段と、第1の観測手段による観測時に、人間のインタラクションを第1の視点と異なる第2の視点から観測したインタラクションデータを出力する第2の観測手段と、第1及び第2の観測手段により観測されたインタラクションデータをデータベースとして蓄積する蓄積手段とを備えるものである。
【0007】
本発明に係るデータベース作成装置においては、人間のインタラクションが複数の異なる視点から観測され、観測されたインタラクションデータがデータベースとして蓄積され、人間のインタラクションに関するインタラクションデータを蓄積したデータベースが作成される。このようにして、一つの人間のインタラクションに対して視点の異なる複数のインタラクションデータを収集することにより、人が何気なく扱っている言語化されていない日常常識を体系的に蓄積して機械可読な状態に辞書化することができ、日常常識を自動的にデータベース化することができる。
【0008】
(2)第2の発明
第2の発明に係るデータベース作成装置は、第1の発明に係るデータベース作成装置の構成において、第1及び第2の観測手段のうちの少なくとも一方は、人間のインタラクションを観測するときに、人間のインタラクションを能動的に演出するものである。
【0009】
この場合、人間のインタラクションを能動的に演出しながら、人間のインタラクションを観測することができるので、人間のインタラクションを誘発させてインタラクションデータを容易に収集することができる。
【0010】
(3)第3の発明
第3の発明に係るデータベース作成装置は、第1又は第2の発明に係るデータベース作成装置の構成において、第1及び第2の観測手段のうちの一方は、インタラクションを行う人間の視点から観測したインタラクションデータを出力し、他方は、インタラクションを行う人間を含む周囲状況を観測したインタラクションデータを出力するものである。
【0011】
この場合、インタラクションを行う人間の視点から観測したインタラクションデータと、インタラクションを行う人間を含む周囲状況を観測したインタラクションデータとを収集することができるので、一つのインタラクションに対して局所的な視点及び全体的な視点からみた種々のインタラクションデータを容易に収集することができる。
【0012】
(4)第4の発明
第4の発明に係るデータベース作成装置は、第1又は第2の発明に係るデータベース作成装置の構成において、第1及び第2の観測手段のうちの少なくとも一方は、観測される人間とインタラクションを行う人工物を含み、人工物は、人工物自身の視点から人間のインタラクションを観測するものである。
【0013】
この場合、人間とインタラクションを行う人工物の視点から観測したインタラクションデータを収集することができるので、人間のインタラクションを客観的に且つ局所的に観測したインタラクションデータを容易に収集することができる。
【0014】
(5)第5の発明
第5の発明に係るデータベース作成装置は、第1〜第4のいずれかの発明に係るデータベース作成装置の構成において、蓄積手段は、観測時刻を特定可能な状態でインタラクションデータを蓄積する。
【0015】
この場合、複数のインタラクションデータの観測時刻を特定することができるので、一つのインタラクションデータの観測時刻における他のインタラクションデータを容易に特定することができる。
【0016】
(6)第6の発明
第6の発明に係るデータベース作成装置は、第1〜第5のいずれかの発明に係るデータベース作成装置の構成において、蓄積手段は、インタラクションデータの変化を基にインタラクションデータにインデックスを付与するものである。
【0017】
この場合、インタラクションデータが変化する部分にインデックスを付与することができるので、このインデックスを用いて人間のインタラクションのうち特定部分のインタラクションデータを自動的に抽出することができる。
【0018】
(7)第7の発明
第7の発明に係るデータベース作成装置は、第1〜第6のいずかの発明に係るデータベース作成装置の構成において、第1の観測手段は、インタラクションを行う人間に装着され、且つ、当該人間の視点から撮影した所定の撮影範囲内の映像情報を出力するとともに、当該撮影範囲内に位置する、人間のインタラクションに使用される対象物及び/又は他の人間を識別するための識別情報を出力する人間用観測装置を含み、第2の観測手段は、インタラクションを行う人間が位置する空間を構成する構造物に固定され、インタラクションを行う人間を含む周囲状況を撮影した所定の撮影範囲内の映像情報を出力するとともに、当該撮影範囲内に位置する、人間のインタラクションに使用される対象物及び/又は人間を識別するための識別情報を出力する周囲状況観測装置を含むものである。
【0019】
この場合、人間用観測装置及び周囲状況観測装置から出力される人間及び/又は対象物の識別情報を用いて、人間用観測装置及び周囲状況観測装置により撮影された映像情報に含まれる人間及び/又は対象物を識別することができるので、各映像内の人間及び/又は対象物を識別して人間のインタラクションを人間及び/又は対象物との関係から解析することができ、人が何気なく扱っている言語化されていない日常常識を体系的に蓄積して機械可読な状態に辞書化することができる。
【0020】
(8)第8の発明
第8の発明に係るデータベース作成装置は、第1〜第6のいずかの発明に係るデータベース作成装置の構成において、人間のインタラクションに使用される対象物に取り付けられ、対象物に対して一意的に割り付けられた識別情報に応じて赤外線を発光する発光装置をさらに備え、第1の観測手段は、人間に装着される人間用観測装置を含み、人間用観測装置は、当該人間用観測装置を装着する人間の視線方向に略一致させた光軸を有し、対象物を含む所定の撮影領域の赤外線画像を撮影する撮影手段と、撮影手段により撮影された赤外線画像を用いて発光装置を検出する発光装置検出手段と、発光装置検出手段により検出された発光装置の点滅状態を検出して当該発光装置の識別情報を検出する識別情報検出手段と、撮影手段の光軸に合わせた光軸を有し、当該人間用観測装置を装着する人間の視線方向の可視光画像を撮影する可視光撮影手段と、当該人間用観測装置を装着する人間に対して一意的に割り付けられた識別情報に応じて赤外線を発光する発光手段とを備え、第2の観測手段は、インタラクションを行う人間が位置する空間を構成する構造物に固定され、インタラクションを行う人間を含む周囲状況を観測する周囲状況観測装置を含み、周囲状況観測装置は、所定方向に設定された光軸を有し、インタラクションを行う人間を含む所定の撮影領域の赤外線画像を撮影する撮影手段と、撮影手段により撮影された赤外線画像を用いて発光装置及び/又は人間用観測装置の発光手段を検出する発光装置検出手段と、発光装置検出手段により検出された発光装置及び/又は人間用観測装置の発光手段の点滅状態を検出して発光装置及び/又は人間用観測装置の発光手段の識別情報を検出する識別情報検出手段と、撮影手段の光軸に合わせた光軸を有し、インタラクションを行う人間を含む所定の撮影領域の可視光画像を撮影する可視光撮影手段とを備え、蓄積手段は、人間用観測装置の識別情報検出手段及び周囲状況観測装置の識別情報検出手段により検出された識別情報と、人間用観測装置の可視光撮影手段及び周囲状況観測装置の可視光撮影手段により撮影された可視光画像データとをそれぞれの観測時刻を特定可能な状態で記憶するものである。
【0021】
この場合、人間用観測装置の識別情報検出手段及び周囲状況観測装置の識別情報検出手段により検出された人間及び/又は対象物の識別情報と、人間用観測装置の可視光撮影手段及び周囲状況観測装置の可視光撮影手段により撮影された可視光画像データとがそれぞれの観測時刻を特定可能な状態で記憶されているので、各可視光画像内の人間及び/又は対象物を識別して人間のインタラクションを人間及び/又は対象物との関係から解析することができ、人が何気なく扱っている言語化されていない日常常識を体系的に蓄積して機械可読な状態に辞書化することができる。
【0022】
(9)第9の発明
第9の発明に係るデータベース作成装置は、第8の発明に係るデータベース作成装置の構成において、蓄積手段に蓄積されている識別情報のうち第1の時間以上の間隔を空けずに且つ第2の時間以上連続して検出された識別情報とともに撮影された可視光画像データを一つのイベントデータとして抽出する抽出手段をさらに備えるものである。
【0023】
この場合、第1の時間以上の間隔を空けずに且つ第2の時間以上連続して検出された識別情報とともに撮影された可視光画像データを一つのイベントデータとして抽出しているので、人間のインタラクションの最小単位となる映像データをイベントデータとして抽出することができる。
【0024】
(10)第10の発明
第10の発明に係るデータベース作成装置は、第9の発明に係るデータベース作成装置の構成において、抽出手段により抽出されたイベントデータのうち観測時間が所定時間以上重なっているイベントデータを一つのシーンデータとして連結する第1の連結手段をさらに備えるものである。
【0025】
この場合、観測時間が所定時間以上重なっているイベントデータを一つのシーンデータとして連結しているので、人間のインタラクションとして意味のある適度な長さの映像データをシーンデータとして抽出することができる。
【0026】
(11)第11の発明
第11の発明に係るデータベース作成装置は、第9又は10の発明に係るデータベース作成装置の構成において、抽出手段により抽出されたイベントデータのうち観測場所が共通するイベントデータを一つのシーンデータとして連結する第2の連結手段をさらに備えるものである。
【0027】
この場合、観測場所が共通するイベントデータを一つのシーンデータとして連結しているので、空間的な位置関係から人間のインタラクションとして一塊とすべき映像データをシーンデータとして抽出することができる。
【0028】
(12)第12の発明
第12の発明に係るデータベース作成装置は、第11の発明に係るデータベース作成装置の構成において、人間用観測装置及び周囲状況観測装置により検出された識別情報に基づいて、予め設定されている複数のインタラクション状態の中から第2の連結手段により連結されたシーンデータのインタラクション状態を決定する決定手段と、決定手段により決定されたインタラクション状態に応じた注釈をシーンデータに付加する付加手段とをさらに備えるものである。
【0029】
この場合、予め設定されている複数のインタラクション状態の中から識別情報に基づいてシーンデータのインタラクション状態を決定し、決定されたインタラクション状態に応じた注釈をシーンデータに付加しているので、シーンデータのインタラクション状態に応じた注釈を自動的に付与することができ、このシーンデータを観測時間順に並べることにより、特定の人間のインタラクションに関するビデオサマリを自動的に作成することができる。
【0030】
【発明の実施の形態】
以下、本発明の各実施の形態によるデータベース作成装置について図面を参照しながら説明する。図1は、本発明の第1の実施の形態によるデータベース作成装置の構成を示すブロック図である。なお、本実施の形態では、講演会場において講演者が講演を行っている様子を複数の聴講者が聴講しているときに、講演者及び聴講者のインタラクションに関するインタラクションデータを蓄積した知識ベースを作成する場合について説明するが、本発明はこの例に特に限定されず、ラウンドテーブルを囲んだ自由討論等の打合せ、ある物体や書類を囲んで複数人が作業を行う共同作業等の種々のイベントにおける、人間と人間、人間と人工物、人間と環境等の間の種々のインタラクションに同様に適用することができる。
【0031】
図1に示すデータベース作成装置は、周囲状況観測装置1a、講演者用観測装置1b、聴講者用観測装置1c、ロボット型観測装置1d、ぬいぐるみ型観測装置1e、時間情報付与部2、インタラクション・コーパス3、インデックス付与部4及びデータ表示部5を備える。なお、図1では、図示を容易にするために1個の聴講者用観測装置1cのみを図示しているが、聴講者用観測装置1cは聴講者ごとに設けられている。
【0032】
周囲状況観測装置1aは、例えば、講演会場に設置された一つ又は複数のビデオカメラ及びマイクロホン等から構成され、講演者及び聴講者を含む講演会場の全体状況等を撮影及び録音等して観測し、インタラクションデータとして映像データ及び音声データ等を時間情報付与部2へ出力する。なお、周囲状況観測装置1aの構成は、観測するインタラクションが行われる状況等に応じて種々の変更が可能であり、複数のビデオカメラやマイクロホンを部屋の壁や天井等に埋め込んだり、家具、机及び椅子等に各種センサを埋め込むようにしてもよい。
【0033】
講演者用観測装置1bは、例えば、講演者が身に付けたビデオカメラ、マイクロホン、アイトラッカー、モーションキャプチャー用マーカ、脳波計測器、脈拍センサ、及びLED(発光ダイオード)付バッジ等から構成され、講演者の視点から講演会場の状況及び講演者自身の状況等を撮影、録音及び測定等して観測し、インタラクションデータとして映像データ、音声データ、視線方向データ、モーションデータ、脳波データ、脈拍データ、位置データ等を時間情報付与部2へ出力する。なお、講演者用観測装置1bの構成は、観測するインタラクション等に応じて種々の変更が可能であり、加速度センサやコンパスを利用して動き検出等を行うようにしてもよい。
【0034】
聴講者用観測装置1cは、例えば、聴講者が身に付けたビデオカメラ、マイクロホン、アイトラッカー、モーションキャプチャー用マーカ、脳波計測器、脈拍センサ、及びLED付バッジ等から構成され、聴講者の視点から講演会場の状況及び聴講者自身の状況等を撮影、録音及び測定等して観測し、インタラクションデータとして映像データ、音声データ、視線方向データ、モーションデータ、脳波データ、脈拍データ、位置データ等を時間情報付与部2へ出力する。
【0035】
ロボット型観測装置1dは、例えば、視覚、聴覚及び触覚を有するヒューマノイド型自律移動ロボット等から構成され、ロボット自身の視点から講演会場の状況、講演者及び聴講者の状況等を撮影、録音及び測定等して観測し、インタラクションデータとして映像データ、音声データ、視線方向データ、モーションデータ、触覚データ、位置データ等を時間情報付与部2へ出力する。
【0036】
また、ロボット型観測装置1dは、観測時に講演者又は聴講者のインタラクションを能動的に演出しながら、講演者又は聴講者のインタラクションを観測する。このように、講演者又は聴講者のインタラクションを能動的に演出しながら、講演者又は聴講者のインタラクションを観測することができるので、講演者又は聴講者のインタラクションを誘発させてインタラクションデータを容易に収集することができる。
【0037】
例えば、講演終了後に記念写真を撮影する場合、被写体の目線をカメラ方向に向けてリラックスした笑顔を演出して撮影することが望まれるが、ロボット型観測装置1dに指差しの動作を行わせることにより、被写体である講演者及び聴講者の目線を誘導して「はい笑って」というようなきっかけを与えることができる。また、ロボット型観測装置1dは、限られた観測装置群で講演者及び聴講者のインタラクションを的確に観測するために、観測に都合の良い場所や配置に講演者及び聴講者を導くようにジェスチャーや対話等を能動的に行ってインタラクションを演出するようにしてもよい。また、ロボット型観測装置1dと聴講者用観測装置1c等とを連動させ、聴講者用観測装置1c等が観測しているときに、ロボット型観測装置1dが所定のアクションを起して聴講者用観測装置1c等が観測しやすい状況を誘発させるようにしてもよい。なお、上記のようなインタラクションの能動的な演出は、他の観測装置を用いて行ってもよい。
【0038】
ぬいぐるみ型観測装置1eは、例えば、視覚、聴覚、触覚及び体勢感覚を有するぬいぐるみ型観測装置等から構成され、聴講者は通常のぬいぐるみで遊ぶ感覚でぬいぐるみを保持する。ぬいぐるみ型観測装置1eは、ぬいぐるみ自身の視点から聴講者の状況等を撮影、録音及び測定等して観測し、インタラクションデータとして映像データ、音声データ、視線方向データ、触覚データ、体勢データ等を時間情報付与部2へ出力する。なお、ぬいぐるみ型観測装置1eは、上記のようにインタラクションデータを取得するだけでなく、ロボット型観測装置1dと同様に聴講者等のインタラクションを能動的に演出するようにしてもよく、例えば、聴講者等にコメントを求めてインタラクションデータにアノテーションを付加するようにしてもよい。
【0039】
上記のように、講演者用観測装置1b及び聴講者用観測装置1cにより観測される講演者及び聴講者の視点から観測したインタラクションデータと、周囲状況観測装置1aにより観測される講演者及び聴講者を含む周囲状況を観測したインタラクションデータとを収集することができるので、講演会における講演者及び聴講者のインタラクションに対して局所的な視点及び全体的な視点からみた種々のインタラクションデータを容易に収集することができる。
【0040】
また、講演者及び聴講者とインタラクションを行う人工物であるロボット型観測装置1d及びぬいぐるみ型観測装置1eの視点から観測したインタラクションデータを収集することができるので、講演会における講演者及び聴講者のインタラクションに対して客観的に且つ局所的に観測されたインタラクションデータを容易に収集することができる。なお、各観測装置の種類及び数は、上記の例に特に限定されず、種々の変更が可能である。
【0041】
図2は、図1に示す周囲状況観測装置1a、ロボット型観測装置1d、ぬいぐるみ型観測装置1eの一例を説明するための模式図であり、図3は、図1に示す講演者用観測装置1bの一例を説明するための模式図である。図2に示す例は、講演会場である部屋において、講演者SPがプロジェクタPOにより所定のスライド画面をスクリーンSCに写して講演を行い、この講演を2人の聴講者A1,A2が椅子にかけて聴講している例である。
【0042】
上記の状態で、周囲状況観測装置1aとして、ビデオカメラ11aが講演会場となる部屋全体を撮影したビデオデータ(基本的に動かず静的なデータ)を出力し、ロボット型観測装置1dとして、ロボット11dが聴講者A1のインタラクションを能動的に演出しながらロボット11dの視線により聴講者A1のインタラクションを観測したビデオデータ(ロボット自身のタスクに応じた視野の映像データ及び音声データ)を出力し、ぬいぐるみ型観測装置1eとして、ぬいぐるみ11eが聴講者A2に抱きかかえられた状態でぬいぐるみ11eの視線により聴講者A2のインタラクションを観測したビデオデータ(聴講者等の持ち主の意図を反映した視線に応じた映像データ及び音声データ)を出力する。
【0043】
なお、図2では図示を省略しているが、講演者SPには、講演者用観測装置1bとして、図3に示すように、脳波計測器14b、ビデオカメラ15b、アイトラッカー16b、脈拍センサ17b、複数のモーションキャプチャー用マーカ18b、LEDバッジ19b及びマイクロホン20bが装着されている。なお、各聴講者A1,A2にも、聴講者用観測装置1cとして、同様に脳波計測器等が装着され、同様のインタラクションデータが取得されている。
【0044】
複数のマーカ18bが講演者SPの体の各部位に機械的に取り付けられるとともに、図2に示す複数のモーションキャプチャー用ビデオカメラ11b〜13bが複数のマーカ18bを撮影可能なように部屋の所定位置に設置され、モーションキャプチャシステムが構成される。ビデオカメラ11b〜13bは、複数のマーカ18bを撮影し、この撮影データから3次元空間における各マーカ18bの動きが検出され、講演者SPの手足の動きや手の曲げ角度等が数値的に検出される。
【0045】
ビデオカメラ15bは、講演者SPの両眼の略中心上部に装着され、講演者SPの視線方向の映像を撮影し、マイクロホン20bは、講演者SPの胸部に装着され、講演者SPの発話を採取する。脳波計測器14bは、講演者SPの脳波を測定し、脈拍センサ17bは、講演者SPの脈拍を測定し、アイトラッカー16bは、講演者SPの両眼の眼球運動を捉えて眼の向きと両眼視差とから視点を検出する。なお、視点は、ビデオカメラ15bの映像を用いて検出するようにしてもよい。
【0046】
また、図2に示すように複数のLEDマーカ12aがスクリーンSCに格子状に取り付けられており、ビデオカメラ15bは、複数のLEDマーカ12aを含む映像を撮影する。各LEDマーカ12aは、所定周期で高速に点滅を繰り返し、撮影された映像データの時間軸に0,1のパターンでマーカ自身のID及び関連情報等が埋め込まれる。これらの情報を用いて、講演者SPの視野が測定される。
【0047】
LEDバッジ19bは、小型のバッジ形状を有し、上記のLEDマーカ12aと同様に動作する。LEDバッジ19bは、図2に示すビデオカメラ11aによって撮影され、この撮影データから講演者SPの位置が検出される。
【0048】
上記のようにして観測される各インタラクションデータは、そのモダリティにより、例えば、ビデオデータ、動きデータ、生体データ、情報データに分類される。まず、ビデオデータとしては、映像データ及び音声データが含まれ、周囲状況観測装置1aによって観測される講演会場となる部屋全体を撮影したビデオデータ、講演者用観測装置1b及び聴講者用観測装置1cによって観測される講演者及び聴講者ごとの各個人の視線によるビデオデータ、ロボット型観測装置1dによって観測されるロボット11dの視線によるビデオデータ、ぬいぐるみ型観測装置1eによって観測されるぬいぐるみ11eの視線によるビデオデータが該当する。
【0049】
次に、動きデータとしては、人間の動きデータ、ロボットの動きデータ、ぬいぐるみの動きデータが含まれ、講演者用観測装置1b及び聴講者用観測装置1cによって観測される講演者SP及び聴講者A1,A2の動きデータが該当する。なお、ロボット11dの動きデータとしては、ロボット自身のタスクに応じた移動履歴を利用したり、上記のモーションキャプチャシステムを利用することにより、ロボット自身が自らプランニングした動作意図と実際の動作結果との相違を把握するようにしてもよい。また、ぬいぐるみ11eの動きデータとしては、ぬいぐるみ自体が自律的に動くわけではないが、持ち主である聴講者A2がぬいぐるみ11eに対して意識的又は無意識的に行う動作を蓄積するようにしてもよい。
【0050】
次に、生体データとしては、人間の脈拍データ、脳波データ、体温データ、発汗データ、視線(視点)データ等が含まれ、講演者用観測装置1b及び聴講者用観測装置1cによって観測される講演者SP及び聴講者A1,A2の脈拍データ及び脳波データが該当する。
【0051】
次に、情報データとして、観測されるイベントに先駆けて予め用意された電子的な情報もインタラクションデータの一部として取り扱うようにしてもよく、例えば、上記の講演会の場合、発表スライドの電子データ等が該当する。また、印刷物上に書いた手書きメモ、ノート型パソコンを用いて入力されたタイピングメモ等の観測されるイベント中に人間が残したメモや、胸に取り付けたマイクロホンを用いて録音された音声等の音声メモも、情報データに含まれ、これらのデータをインタラクションデータの一部として蓄積するようにしてもよい。
【0052】
再び、図1を参照して、時間情報付与部2、インタラクション・コーパス3、インデックス付与部4及びデータ表示部5は、例えば、入力装置、ROM(リードオンリメモリ)、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、外部記憶装置、表示装置等を備える単数又は複数のコンピュータ等から構成される。この場合、CPU等が所定のプログラムを実行することにより、時間情報付与部2、インタラクション・コーパス3、インデックス付与部4及びデータ表示部5として機能する。なお、時間情報付与部2、インタラクション・コーパス3、インデックス付与部4及びデータ表示部5の構成例は、この例に特に限定されず、全てのブロック又は一部のブロックを専用のハードウエアにより実現するようにしてもよい。
【0053】
時間情報付与部2は、CPU等から構成され、周囲状況観測装置1a、講演者用観測装置1b、聴講者用観測装置1c、ロボット型観測装置1d及びぬいぐるみ型観測装置1eから出力される各インタラクションデータに、観測時刻を特定するための時間情報を付加し、各インタラクションデータをインタラクション・コーパス3に蓄積する。
【0054】
すなわち、周囲状況観測装置1a、講演者用観測装置1b、聴講者用観測装置1c、ロボット型観測装置1d及びぬいぐるみ型観測装置1eは分散的に同一イベントを観測するため、観測された各インタラクションデータを統合利用するためには、時間的な同期を取る必要がある。このため、時間情報付与部2は、各インタラクションデータをインタラクション・コーパス3に蓄積する前に、リアルタイムで入力される各インタラクションデータに時間情報を付与して時間的な同期を取っている。このようにして、各インタラクションデータの観測時刻を特定することができるので、一つのインタラクションデータの観測時刻における他のインタラクションデータを容易に特定することができ、各インタラクションデータを容易に統合利用することができる。
【0055】
なお、時間的な同期を取る方法は、上記の例に特に限定されず、全ての観測装置1a〜1eがワールドクロック(世界に時計が一つだけしかないことを仮定した時刻)に合わせて観測動作を行ったり、また、各観測装置1a〜1eが独立に内部クロックを持ち、所定の同期信号を基準にオフセットを調整するようにしてもよい。例えば、観測開始時に部屋全体を照らすストロボをたき、このストロボの発光状態を各観測装置1a〜1eの映像データに記録するようにしてもよいし、LEDマーカを各人の視野に必ず入り易い位置に設置して時間情報を発信し続け、各観測装置1a〜1eの映像データに記録するようにしてもよい。なお、脈拍センサ等の生体データを観測する観測装置は、映像データを入力としないため、人間に装着されたビデオカメラと統合したウェアラブルシステムとして構成されることが好ましい。
【0056】
インタラクション・コーパス3は、外部記憶装置等から構成され、時間情報が付与された各インタラクションデータを機械可読な状態でデータベース化して記憶する。
【0057】
インデックス付与部4は、CPU等から構成され、インタラクション・コーパス3から所望のインタラクションデータを読み出し、読み出したインタラクションデータを解析してインタラクションデータの特定部分にインデックスを付与して再度インタラクション・コーパス3に記憶させる。
【0058】
例えば、インデックス付与部4は、各聴講者の視線データから複数の聴講者の視線がスクリーンの特定箇所に集中する瞬間等を特定したり、脈拍データ及び脳波データの生体データから講演者及び聴講者の気分の高まりを特定すること等により、多くの聴講者の関心が高まったタイミングを特定し、特定した箇所にインデックスを付与してもよい。また、聴講者が質問のために立ち上がった場合、脈拍や発汗が高まるので、これらの生体データを用いてインデックスを付与するようにしてもよい。このようにして、インタラクションデータが変化する部分にインデックスを付与することができるので、このインデックスを用いて聴講者等のインタラクションのうち特定部分のインタラクションデータを自動的に抽出することができる。
【0059】
なお、インデックスの付与例は、上記の例に特に限定されず、種々のインデックスを付与することができる。例えば、脈拍データ及び脳波データ等の生体データやメモを書く行為を表すデータ等を統計的に処理して講演会の評判を定量化し、複数の講演会のインタラクションデータがインタラクション・コーパス3に蓄積されたときに、評判の高い講演会のインタラクションデータにインデックスを付与するようにしてもよい。このとき、全ての聴講者のインタラクションデータを合計したデータだけでなく、自身の好みに近い聴講者のインタラクションデータを基にインデックスを付与するようにしてもよい。また、上述した情報データ等から複数の聴講者がメモを取るタイミングを特定して講演の内容上で重要なタイミングにインデックスを付与するようにしてもよい。
【0060】
データ表示部5は、表示装置等から構成され、時間情報又はインデックスを参照して聴講者等のユーザが選択した所定部分のインタラクションデータをインタラクション・コーパス3から読み出し、所定の表示画面に映像及び生体信号等を表示する。図4は、図1に示すデータ表示部5により表示される表示画面の一例を示す図である。図4に示す表示画面は、ぬいぐるみ型観測装置1eにより観測されたインタラクションデータを表示する日記ビューアであり、映像表示部VWに二つの映像V1〜V4,B1〜B4がそれぞれ時系列的に順次表示され、センサ信号表示部SWに視線方向データ、触覚データ、体勢データ等のデータS1〜S3が映像V1〜V4,B1〜B4と同期した状態で表示される。このようにして、ユーザは、所定日時の自身の状況等を容易に知ることができる。
【0061】
本実施の形態では、周囲状況観測装置1a、講演者用観測装置1b、聴講者用観測装置1c、ロボット型観測装置1d及びぬいぐるみ型観測装置1eが第1及び第2の観測手段の一例に相当し、時間情報付与部2、インタラクション・コーパス3及びインデックス付与部4が蓄積手段の一例に相当する。
【0062】
上記のように、本実施の形態では、周囲状況観測装置1a、講演者用観測装置1b、聴講者用観測装置1c、ロボット型観測装置1d及びぬいぐるみ型観測装置1eにより講演会における講演者及び聴講者のインタラクションが講演者、聴講者、ロボット、ぬいぐるみ等の異なる視点から観測され、観測されたインタラクションデータがインタラクション・コーパス3にデータベースとして蓄積され、講演者及び聴講者のインタラクションに関するインタラクションデータを蓄積したデータベースが作成される。このようにして、講演会という一つのイベントにおける講演者及び聴講者のインタラクションに対して視点の異なる複数のインタラクションデータを収集することにより、人間が何気なく扱っている言語化されていない日常常識を体系的に蓄積して機械可読な状態に辞書化することができ、講演会における日常常識を自動的にデータベース化することができる。
【0063】
また、講演中の手書きメモ、タイピングメモ及び発言等を、これらの実行タイミングや実行状況等を表す周辺状況データとともに、インタラクション・コーパス3に記録するようにしてもよく、この場合、インタラクションデータを検索又は再利用する際の精度を高めることができる。
【0064】
例えば、ノートに単に書かれた手書きメモ等は、書かれたタイミングやどのような周辺情報(例えば、講演中のスライド、他の人の発言等)によって喚起されて書かれたものなのか等がはっきりしない場合があるが、上記の周辺状況データをもインタラクション・コーパス3に蓄積する場合、誰がどのようなタイミングで又は他のどのような事象に関連して書いたものなのか等を判別することができる。
【0065】
このような属性からインデックスを作成してインタラクションデータに付加することにより、種々のインタラクションデータを容易に検索及び再利用することが可能となる。例えば、ある聴講者がノートに書いた手書きメモが講演中のどのスライドに対してのコメントであるかを特定した上で、この手書きメモを講演者に対してフィードバックすること等が可能となる。
【0066】
さらに、上記のようにして、社会的インタラクションにおける非言語的データをインタラクション・コーパス3に機械可読な状態で辞書化することができるので、ロボット、電子機器、家庭電気機器等の人間の社会的行為に参加する人工物に人間の社会的プロトコルを理解させることができる。例えば、質疑応答時や発言者交代時の身振り、手振り、声の抑揚等に埋め込まれた社会的インタラクションのプロトコルを定量化することができる。また、複数の人間の脈拍や体温の変化パターン等から同期性を検出することにより、複数の人間の生体データ間に存在する同期性等を見出すことができる。
【0067】
なお、上記の説明では、非言語的な日常常識をインタラクション・コーパス3にデータベース化して蓄積する場合について説明したが、インタラクション・コーパス3に蓄積されるデータは、上記の例に特に限定されず、非言語的な特定の専門技能や暗黙知と呼ばれる知識、言語化された日常常識及び専門知識等をも蓄積するようにしてもよい。
【0068】
また、上記のようにして作成されたインタラクション・コーパス3をインターネット等のネットワークを介して他のコンピュータ等と接続して、当該コンピュータによりインタラクションデータを検索及び再利用できるようにしてもよい。
【0069】
次に、本発明の第2の実施の形態によるデータベース作成装置について説明する。図5は、本発明の第2の実施の形態によるデータベース作成装置の構成を示すブロック図である。本実施の形態では、展示会場において説明員が訪問者に展示内容を説明しているときに、説明員及び訪問者のインタラクションに関するインタラクションデータを蓄積した知識ベースを作成する場合について説明する。
【0070】
図5に示すデータベース作成装置は、人間用観測装置51、携帯型コンピュータ52、周囲状況観測装置61、据置型コンピュータ62、ロボット型観測装置71、ぬいぐるみ型観測装置72、データ取得用サーバ81、SQL(Structured Query Language)サーバ91、AV(オーディオ・ビデオ)データ用サーバ92、アプリケーションサーバ93及び赤外線タグ101を備える。なお、図5では、図示を容易にするために人間用観測装置51、携帯型コンピュータ52、周囲状況観測装置61、据置型コンピュータ62、ロボット型観測装置71、ぬいぐるみ型観測装置72及び赤外線タグをそれぞれ1個のみ図示しているが、人間用観測装置51及び携帯型コンピュータ52は説明員及び訪問者ごとに設けられ、周囲状況観測装置61及び据置型コンピュータ62は複数の観測位置に設けられ、ロボット型観測装置71及びぬいぐるみ型観測装置72は必要数だけ設けられ、赤外線タグ101は説明員及び訪問者のインタラクションに使用される対象物ごとに設けられている。
【0071】
赤外線タグ101は、対象物となる展示物自体又はその近傍若しくは展示会場の壁又は天井等に取り付けられ、対象物に対して一意的に割り付けられたID番号(識別情報)を赤外線の点滅により送信する。
【0072】
人間用観測装置51は、説明員又は訪問者に装着され、装着している説明員又は訪問者のID番号を赤外線の点滅により送信する。また、人間用観測装置51は、説明員等の視界内に位置する赤外線タグ101から送信される対象物のID番号及び赤外線タグ101の赤外線画像内のXY座標を検出するとともに、赤外線タグ101を含む可視光画像をそのときの音声とともに撮影し、検出したID番号及びXY座標等の情報及び撮影した可視光画像データ等を携帯型コンピュータ52へ出力する。また、人間用観測装置51は、装着している説明員又は訪問者の生体データを検出して携帯型コンピュータ52へ出力する。
【0073】
携帯型コンピュータ52は、入力される各情報に対して時間情報の付加等の所定の処理を行い、各情報を無線によりデータ取得用サーバ81へ送信する。このように、上記の可視光画像データ及び音声データからなるビデオデータのインデックスとして、記録開始時刻、記録時間といった基本的データの他に、ID番号及び生体データが刻一刻とデータ取得用サーバ81送信される。
【0074】
周囲状況観測装置61は、説明員及び訪問者が位置する空間を構成する構造物すなわち展示会場の天井及び壁等に固定され、撮影範囲内に位置する人間用観測装置51及び赤外線タグ101から送信されるID番号並びに人間用観測装置51及び赤外線タグ101の赤外線画像内のXY座標を検出して据置型コンピュータ62へ出力する。また、周囲状況観測装置61は、撮影範囲内に位置する人間用観測装置51及び赤外線タグ101を含む可視光画像をそのときの音声とともに撮影し、撮影した可視光画像データ等を据置型コンピュータ62へ出力する。据置型コンピュータ62は、入力される各情報に対して時間情報の付加等の所定の処理を行い、各情報をデータ取得用サーバ81へ送信する。
【0075】
ロボット型観測装置71は、例えば、視覚、聴覚及び触覚を有するヒューマノイド型自律移動ロボット等から構成され、ロボット自身の視点から展示会場の状況、説明員及び訪問者の状況等を撮影、録音及び測定等して観測し、観測した映像データ、音声データ、視線方向データ、モーションデータ、触覚データ、位置データ等に時間情報を付加してデータ取得用サーバ81へ送信する。
【0076】
ぬいぐるみ型観測装置72は、例えば、視覚、聴覚、触覚及び体勢感覚を有するぬいぐるみ型観測装置等から構成され、説明員及び訪問者は通常のぬいぐるみで遊ぶ感覚でぬいぐるみを保持する。ぬいぐるみ型観測装置72は、ぬいぐるみ自身の視点から説明員及び訪問者の状況等を撮影、録音及び測定等して観測し、観測した映像データ、音声データ、視線方向データ、触覚データ、体勢データ等に時間情報を付加してデータ取得用サーバ81へ送信する。
【0077】
データ取得用サーバ81は、ROM、CPU、RAM及び外部記憶装置等を備えるサーバ装置から構成される。データ取得用サーバ81は、入力される各データのうち、ID番号、XY座標及び生体データ等をSQLサーバ91に蓄積させ、映像データ及び音声データをAVデータ用サーバ92に蓄積させる。
【0078】
SQLサーバ91は、ROM、CPU、RAM及び外部記憶装置等を備えるサーバ装置から構成される。SQLサーバ91は、時間情報が付与されたID番号、XY座標及び生体データ等のインタラクションデータを機械可読な状態でデータベース化して記憶する。
【0079】
AVデータ用サーバ92は、ROM、CPU、RAM及び外部記憶装置等を備えるサーバ装置から構成される。AVデータ用サーバ92は、映像データ及び音声データ等のインタラクションデータを機械可読な状態でデータベース化して記憶する。なお、一度のセッションをひとつの膨大なビデオファイルにするのは現実的ではないので、AVデータ用サーバ92は、例えば、ビデオデータを1分ごとに別々のファイルとして記憶し、コーパスを利用する際にファイルが1分ごとにわかれていることを意識しなくてすむように、各ビデオデータのインデックスデータをSQLサーバ91により管理している。
【0080】
アプリケーションサーバ93は、入力装置、ROM、CPU、RAM、外部記憶装置及び表示装置等を備えるサーバ装置から構成される。アプリケーションサーバ93は、後述するビデオサマリ作成処理を実行してビデオサマリを自動的に作成する。
【0081】
図6は、図5に示す赤外線タグ101及び人間用観測装置51の構成を示すブロック図である。人間用観測装置51は、赤外線検出部102、画像撮影部103、赤外線タグ104、マイク部105及び生体検出部106を備える。人間用観測装置51は、耳かけ式ネックバンド方式ヘッドセットとして構成され、説明員又は訪問者の頭部に装着される。赤外線検出部102及び画像撮影部103は直方体形状の筺体に一体に内蔵され、赤外線タグ104は筺体の側面に一体に固定され、マイク部105はユーザの口元付近に配置され、生体検出部106は、説明員又は訪問者の指に装着され、携帯型コンピュータ52は、説明員又は訪問者に背負われて使用される。
【0082】
赤外線タグ101は、LED111及び駆動回路112を備える。LED111は、赤外線LED等から構成され、例えば、光通信用高出力発光ダイオード(スタンレイ社製DN311)等を用いることができ、指向性が弱く且つ可視光に近い800nm程度の赤外LEDを好適に用いることができる。
【0083】
駆動回路112は、マイクロコンピュータ等から構成され、例えば、Atmel社製4MHz駆動マイコンAT90S2323等を用いることができ、赤外線タグ101が取り付けられた対象物に対して一意的に割り付けられたID番号が識別可能なようにLED111を点滅制御する。なお、LED111及び駆動回路112は、内部電池(図示省略)から電源を供給されている。
【0084】
具体的には、駆動回路112は、マンチェスタ符号化方式によりエンコードしたID番号(6bit)及びパリティビットと、スタートビット(1bit)及びエンドビット(2bit)とを200Hz周期の点滅により繰り返し送信する。例えば、ID番号62の場合、ID:62→“01100101010101101111”(ここで、スタートビット(01)、ID番号6ビット、パリティビット(偶数10、奇数01)、エンドビット(1111))となる。
【0085】
赤外線検出部102は、赤外線フィルタ121、レンズ122、CMOSイメージセンサ123及び画像処理装置124を備える。赤外線フィルタ121は、赤外線タグ101のLED111から発光される赤外線のうち主に近赤外線のみ透過させてレンズ122に近赤外線を導く。赤外線フィルタ121としては、例えば、可視光をブロックし、近赤外光をパスするエドモンド社製プラスチックIRパスフィルタを用いることができる。
【0086】
レンズ122は、赤外線フィルタ121を透過した近赤外線をCMOSイメージセンサ123上に結像させる。レンズ122の画角は90度である。この場合、対面での会話状態等において比較的近距離で広範囲に位置する赤外線タグを容易に検出することができる。
【0087】
CMOSイメージセンサ123は、レンズ122により結像された近赤外線から構成される近赤外線画像を撮影して画像処理装置124へ出力する。CMOSイメージセンサ123としては、例えば、三菱電機社製人口網膜LSI(M64283FP)等を用いることができ、この場合の解像度は128×128pixelである。
【0088】
画像処理装置124は、CMOSイメージセンサ123の制御及びデータ処理を行い、CMOSイメージセンサ123に撮影された近赤外線画像から赤外線タグ101を検出し、検出した赤外線タグ101の点滅状態からID番号を検出するとともに、赤外線画像上の赤外線タグ101のXY座標を検出し、ID番号及びXY座標等のデータをRS232C等のデータ伝送規格に従って携帯型コンピュータ52へ出力する。画像処理装置124としては、例えば、Cygnal社製49MHz駆動マイコンC8051F124を用いることができる。
【0089】
この場合、CMOSイメージセンサ123を115200Hzのクロックで駆動させ、撮像(シャッター開放)後、1クロック毎に1pixelの明るさがアナログ値でシリアル出力される。このため、全画素撮影時の最短フレームレートは、(シャッタースピード)+(128×128×クロックスピード)となるが、128×128pixelのうち8×8pixelを検出領域に設定して500Hzのシャッタースピードで撮像した場合、400Hzのフレームレートを実現することができ、読み出し速度を高速化することができる。このように、赤外線タグ101の点滅周期(200Hz)の2倍のフレームレート(400Hz)で読み込むため、単一LED61を用いて非同期通信を行うことができる。なお、画角90度のレンズ122を使用したときに2mの距離で1pixelは、2.2cm×2.2cmの範囲に相当する。
【0090】
画像撮影部103は、レンズ131及びCCDカメラ132を備える。レンズ131は、説明員又は訪問者の視線方向に位置する、赤外線タグ101が取り付けられた対象物を含む可視光像をCCDカメラ132上に結像させる。CCDカメラ132は、可視光画像を撮影して映像信号を携帯型コンピュータ52へ出力する。レンズ131及びCCDカメラ132としては、例えば、アナログビデオ出力を有するキーエンス社製小型CCDカメラ(水平画角44度)を用いることができる。ここで、レンズ131の光軸は、赤外線検出部102のレンズ122の光軸に合わせられており、説明員又は訪問者の視線方向に位置する対象物を識別するだけでなく、当該対象物の画像も同時に撮影することができる。
【0091】
赤外線タグ104は、LED141及び駆動回路142を備える。赤外線タグ104は、人間用観測装置51に一体に構成され、人間用観測装置51を装着する説明員又は訪問者のID番号を送信する点を除き、赤外線タグ101と同様のハードウエアから構成され、同様に動作する。
【0092】
マイク部105は、音声処理回路151及びマイクロホン152を備える。マイクロホン152は、説明員又は訪問者の発話又は周囲音を集音して音声処理回路151へ出力し、音声処理回路151は録音された音声信号を携帯型コンピュータ52へ出力する。
【0093】
生体検出部106は、生体データ処理回路161及び生体センサ162を備え、例えば、人間の脈拍、手の表面の伝導性(発汗)、温度の3個のセンサを備える生体データ記録用モジュール(Procomp+)等から構成される。生体センサ162は、説明員又は訪問者の脈拍、発汗状態及び体温を検出し、生体データ処理回路161は、検出された各データの平均値を数秒ごとに計算し、リアルタイムに生体データをAD変換して携帯型コンピュータ52へ送信する。
【0094】
図7は、図5に示す周囲状況観測装置61の構成を示すブロック図である。図7に示す周囲状況観測装置61は、固定検出部202、画像撮影部203及びマイク部205を備える。固定検出部202は、赤外線フィルタ221、レンズ222、CMOSイメージセンサ223及び画像処理装置224を備える。画像撮影部203は、レンズ231及びCCDカメラ232を備える。マイク部205は、音声処理回路251及びマイクロホン252を備える。固定検出部202、画像撮影部203及びマイク部205は、上記の赤外線検出部102、画像撮影部103及びマイク部105と同様に構成され、同様に動作する。但し、周囲状況観測装置61のレンズ222の画角は60度であり、人間用観測装置51のレンズ122の画角より狭く設定され、マイクロホン252には無指向性のマイクロホンを用いている。
【0095】
この場合、CMOSイメージセンサ223のピクセル当りの集光率が高くなり、遠距離に位置する赤外線タグ101,104を容易に発見することができる。また、説明員又は訪問者の頭部に装着された人間用観測装置51だけでなく、説明員及び訪問者が位置する空間を構成する構造物に固定された周囲状況観測装置61により、説明員、訪問者並びに説明員及び訪問者の視線方向の対象物を検出することができるので、異なる視点から説明員及び訪問者の周囲の状況を観測することができる。
【0096】
次に、人間用観測装置51の赤外線タグ検出処理について説明する。この赤外線タグ検出処理は、画像処理装置124が予め記憶されている検出処理プログラムを実行することにより行われる処理であり、周囲状況観測装置61でも同様の処理が行われる。
【0097】
まず、画像処理装置124は、CMOSイメージセンサ123等を初期化し、全画面(128×128pixel)の赤外線画像を撮影する。次に、画像処理装置124は、赤外線画像の中から所定サイズの光点、例えば1pixelの光点を赤外線タグ101(LED111)として抽出し、所定サイズより大きな光点を排除する。このように、赤外線画像の中から所定サイズの光点を検出するという簡便な処理により赤外線タグ101を検出することができるので、画像処理装置124による赤外線タグ検出処理を高速化することができる。
【0098】
次に、画像処理装置124は、抽出した光点を中心とする8×8pixelの領域を検出領域として決定し、CMOSイメージセンサ123により検出領域を既定回数、例えば、((送信ビット数+スタートビット数+エンドビット数)×2×2)回読み込み、読み込んだ赤外線画像から赤外線タグ101の点滅状態を検出してID番号を検出するとともに、パリティチェックを行い、読み込みデータの判定処理を行う。
【0099】
このように、赤外線画像から光点を含む検出領域を決定し、この検出領域の赤外線画像のみを用いて赤外線タグ101の点滅状態を検出しているので、処理対象となる赤外線画像を必要最小限に限定することができ、画像処理装置124による赤外線タグ検出処理を高速化することができる。この赤外線タグ検出処理の高速化により、人の動きに充分に追従することができ、動き予測等の演算コストの高い処理を省略することができる。ここで、パリティチェックが正しければ、画像処理装置124は、赤外線タグ101のID番号及びXY座標を出力し、パリティチェックが正しくなければ、検出領域の読み込みを再度行い、上記の赤外線検出処理を検出されたすべての光点に対して行う。
【0100】
このようにして、赤外線タグ101が取り付けられた対象物に対して一意的に割り付けられたID番号をLED111の点滅により送信し、説明員又は訪問者に装着された人間用観測装置51により、説明員又は訪問者の視線方向に位置する対象物を含む所定の撮影領域の赤外線画像が撮影され、撮影された赤外線画像を用いて赤外線タグ101のID番号が検出されるので、説明員又は訪問者の視線方向に位置する対象物を識別することができる。
【0101】
図8は、図5に示す人間用観測装置51、携帯型コンピュータ52、周囲状況観測装置61、ロボット型観測装置71及びぬいぐるみ型観測装置72の一例を説明するための模式図である。
【0102】
図8に示すように、説明員P1及び訪問者P3等が人間用観測装置51を頭部に装着するとともに、携帯型コンピュータ52を背負っている。赤外線タグ101は、訪問者P2等の胸部に装着されるとともに、環境側の対象物として、展示説明用のコンピュータM1及び展示説明用ボードB1、展示説明の補助用のロボット型観測装置71及びぬいぐるみ型観測装置72等に取り付けられ、それぞれ個別のID番号を送信する。また、展示会場の天井又は壁には、周囲状況観測装置61が取り付けられている。
【0103】
上記のように各装置が配置されることにより、例えば、人間用観測装置51により説明員P1の視界に入った訪問者P2等が対象物として識別され、周囲状況観測装置61により説明員P1が対象物として識別されるとともに、周囲状況観測装置61の周囲の対象物として訪問者P2、ロボット型観測装置71等が識別される。なお、ロボット型観測装置71及びぬいぐるみ型観測装置72により収集されるインタラクションデータは、図2に示すロボット11d及びぬいぐるみ11eと同様である。
【0104】
このようにして、展示会場内に遍在する周囲状況観測装置61等に加えて、インタラクションの主体となる説明員及び訪問者が身につけた人間用観測装置51を利用することにより、同一イベントを複数の観測装置により多角的に記録することができる。また、人間用観測装置51及び周囲状況観測装置61の視野に入った人や物体のID番号を自動認識することにより、蓄積されるビデオデータに実時間でインデックスをつけることができる。したがって、説明員及び訪問者は「見ること」で無意識のうちに他人や物体とのインタラクションにインデックスを付与することができる。
【0105】
また、ロボット型観測装置71及びぬいぐるみ型観測装置72等の多くのセンサが埋め込まれた擬人的インタフェースを、説明員及び訪問者とインタラクションを共に作り上げる協創パートナーとして利用することにより、これらの協創パートナーは、説明員及び訪問者とのインタラクションの身体的接触をセンシング・記録できるだけでなく、説明員及び訪問者に対して自発的にコミュニケーションを開始することができる。したがって、単に受動的に説明員及び訪問者のインタラクションを収集するだけでなく、説明員及び訪問者に対してインタラクションを仕掛けることができ、正確にインタラクションをセグメンテーションすることができる。
【0106】
上記の構成により、本実施の形態では、人間用観測装置51の赤外線検出部102及び周囲状況観測装置61の固定検出部202により検出された人間及び対象物のID番号と、人間用観測装置51の画像撮影部103及び周囲状況観測装置61の画像撮影部203により撮影されたビデオデータとがそれぞれの観測時刻を特定可能な状態で記憶されているので、各ビデオデータ内の人間及び対象物を識別して人間のインタラクションを人間及び/又は対象物との関係から解析することができ、人が何気なく扱っている言語化されていない日常常識を体系的に蓄積して機械可読な状態に辞書化することができる。
【0107】
この結果、展示会場における人と人のインタラクションにおける社会的プロトコルを分析・モデル化し、開放的な空間における複数人のインタラクションを様々なセンサ群で記録し、蓄積された大量のデータに緩い構造を与えて知識ベースとなるインタラクション・コーパスを作成することが可能となる。
【0108】
本実施の形態では、人間用観測装置51、周囲状況観測装置61、ロボット型観測装置71、ぬいぐるみ型観測装置72が第1及び第2の観測手段の一例に相当し、携帯型コンピュータ52、据置型コンピュータ62、ロボット型観測装置71、ぬいぐるみ型観測装置72、データ取得用サーバ81、SQLサーバ91、AVデータ用サーバ92、アプリケーションサーバ93が蓄積手段の一例に相当する。
【0109】
また、赤外線タグ101が発光装置の一例に相当し、人間用観測装置51が第1の観測手段及び人間用観測装置の一例に相当し、赤外線フィルタ121、レンズ122及びCMOSイメージセンサ123が撮影手段の一例に相当し、画像処理装置124が発光装置検出手段及び識別情報検出手段の一例に相当し、画像撮影部103が可視光撮影手段の一例に相当し、赤外線タグ104が発光手段の一例に相当する。また、周囲状況観測装置61が第2の観測手段及び周囲状況観測装置の一例に相当し、赤外線フィルタ221、レンズ222及びCMOSイメージセンサ223が撮影手段の一例に相当し、画像処理装置224が発光装置検出手段及び識別情報検出手段の一例に相当し、画像撮影部203が可視光撮影手段の一例に相当する。
【0110】
次に、上記のように構成されたデータベース作成装置によるビデオサマリ作成処理について説明する。図9は、図5に示すデータベース作成装置のビデオサマリ作成処理を説明するためのフローチャートである。なお、図9に示すビデオサマリ作成処理は、アプリケーションサーバ93等が予め記憶されているビデオサマリ作成プログラムを実行することにより行われる処理である。
【0111】
まず、ステップS11において、アプリケーションサーバ93は、SQLサーバ91に蓄積されているID番号を取得する。例えば、説明員P1の人間用観測装置51により観測されたID番号を取得する。このID番号は、SQLサーバ91に蓄積される際に時間方向の塊にまとめられ、何が何時何分何秒に視界に入って何時何分何秒に視界からはずれたかといった情報すなわち断続的なID検出列にまとめられている。
【0112】
次に、ステップS12において、アプリケーションサーバ93は、取得したID番号が予め定めた最小検出時間以上検出されているか否かを判断し、最小検出時間以上検出されている場合はステップS13へ移行し、最小検出時間以上検出されていない場合はステップS11へ戻り、次のID番号を取得する。
【0113】
最小検出時間以上検出されている場合、ステップS13において、アプリケーションサーバ93は、取得したID番号が予め定めた最大間隔以上検出されていない場合があるか否かを判断し、最大間隔以上検出されていない場合がないときはステップS14へ移行し、最大間隔以上検出されていない場合があるときはステップS11へ戻り、次のID番号を取得する。
【0114】
最大間隔以上検出されていない場合がないとき、ステップS14において、アプリケーションサーバ93は、取得されたID番号が検出されている期間のビデオデータを一つのイベントとして決定する。ここで、イベントとは、同一の人間用観測装置51等により記録されたビデオデータから、特定の赤外線タグ101等が視界に入り続けている部分を切り出したクリップをいうものとし、インタラクションの最小単位すなわちインタラクションのプリミティブと捉えることができるものである。
【0115】
このように、最大間隔以上の間隔を空けずに且つ最小検出時間以上連続して検出されたID番号に対応するビデオデータを一つのイベントデータとして抽出しているので、人間のインタラクションの最小単位となるビデオデータをイベントデータとして抽出することができる。
【0116】
次に、ステップS15において、アプリケーションサーバ93は、SQLサーバ91に蓄積されているすべてのID番号を取得したか否かを判断し、すべてのID番号を取得した場合はステップS16へ移行し、すべてのID番号を取得していない場合はステップS11へ戻り、次のID番号を取得する。
【0117】
このように、断続的なID検出列からイベントを判定するにあたっては、ある人間用観測装置51等に、最大間隔以上の間隔を空けずに、特定の赤外線タグ101等が最小検出時間以上検出され続けた場合をイベントとして採用し、本実施の形態では、最小検出時間を5秒、人間用観測装置51により観測されたID検出列の最大間隔を20秒、周囲状況観測装置61により観測されたID検出列の最大間隔を10秒に設定している。したがって、イベントの最小単位は5秒となり、また、同一の赤外線タグ101が検出されてもその間が人間用観測装置51により20秒以上(周囲状況観測装置61の場合は10秒以上)空いてしまった場合は、別のイベントに切り替わったものと判定する。例えば、誰かと会話していたときや何かを注視していたときに、少しの間だけ視線をはずした程度なら、イベントの切り替えには反映されない。
【0118】
なお、最小検出時間及び最大間隔は、上記の例に特に限定されず、最小検出時間及び最大間隔をともに5秒に設定したり、認知科学的な対話分析において、会話中のちょっとした視線の変化も個別のインタラクションのプリミティブとして分節したい場合に最大間隔の値をもっと小さくする等の種々の変更が可能である。
【0119】
すべてのID番号を取得した場合、ステップS16において、アプリケーションサーバ93は、決定したイベントのうち時間軸上で所定時間以上重なっているイベントがあるか否かを判断し、所定時間以上重なっているイベントがある場合はステップS17へ移行し、所定時間以上重なっているイベントがない場合はステップS18へ移行する。
【0120】
所定時間以上重なっているイベントがある場合、ステップS17において、アプリケーションサーバ93は、所定時間以上重なっているイベントを連結し、連結したイベントを一つのシーンとして決定する。シーンの判断基準となる所定時間として、本実施の形態では、最小検出時間の2分の1すなわち2.5秒を用いているが、この例に特に限定されず、他の期間を用いてもよい。
【0121】
ここで、シーンとは、ある意味を有する単位であり、複数のイベントを組み合わせて生成されるビデオストリームをいうものとする。例えば、説明員P1のためのシーンを構成しようとしている場合を考えると、説明員P1の人間用観測装置51がある赤外線タグ101を認識しているイベント、又は、説明員P1の赤外線タグ104が他人の人間用観測装置51や展示会場に設置した周囲状況観測装置61に捕えられているイベントが、所定時間以上連続しているのであれば、それらを連結させたシーンは、説明員P1にとって意味のあるシーンと解釈することができ、展示ブースの滞在シーンとか、会話シーンとかを決定することができる。
【0122】
このように、観測時間が所定時間以上重なっているイベントデータを一つのシーンデータとして連結しているので、人間のインタラクションとして意味のある適度な長さのビデオデータをシーンデータとして抽出することができる。
【0123】
次に、ステップS17において、アプリケーションサーバ93は、決定したイベントのうち同一空間内のイベントがあるか否かを判断し、同一空間内のイベントがある場合はステップS19へ移行し、同一空間内のイベントがない場合はステップS20へ移行する。
【0124】
同一空間内のイベントがある場合、ステップS19において、アプリケーションサーバ93は、同一空間内のイベントを連結し、連結したイベントを一つのシーンとして決定する。ここで、同一空間には、例えば、説明員P1と訪問者P2とが会話している空間が該当する。このように、説明員P1と訪問者P2とが会話している状態であると判定されるイベントがみつかったとき、説明員P1の赤外線タグ104が認識されていなかったとしても、訪問者P2の赤外線タグ104が周囲状況観測装置61に捉えられていた場合には、周囲状況観測装置61に訪問者P2と一緒に説明員P1も撮影されている可能性が高く、このビデオデータが説明員P1のシーンを構成するリソースとして採用される。
【0125】
これは、開放的な空間において複数人の任意のインタラクションを捕えようとするとき、通常オクルージョンの問題が起きるため、単一の観測装置が同時に全員の赤外線タグ104を捕えることは稀であるが、空間共有性を利用した複数の周囲状況観測装置61のリソースの連結を許すことにより、あるインタラクションの塊全体を捕えることができるためである。また、空間共有性による連結を多段階繰り返すと、展示会場全体のすべての人間がひとつのインタラクションに属すると解釈することになるので、本実施の形態では、空間共有性によるイベントの連結を1段階のみ許すこととしている。なお、空間共有性によるイベントの連結数は、この例に特に限定されず、どのようなサイズのインタラクションを観測したいのか等の目的に合わせて種々の変更が可能である。
【0126】
このように、観測場所が共通するイベントデータを一つのシーンデータとして連結しているので、空間的な位置関係から人間のインタラクションとして一塊とすべき映像データをシーンデータとして抽出することができる。
【0127】
次に、ステップS20において、アプリケーションサーバ93は、上記のようにして決定した複数のシーンを時間順に並べて連結する。次に、ステップS21において、アプリケーションサーバ93は、連結した各シーンに対して注釈を付加する。注釈としては、シーンの開始時刻、シーンの説明、シーンの時間を付与する。
【0128】
ここで、シーンの説明を付加するため、アプリケーションサーバ93は、人及び対象物のID番号及びXY座標等を用いて、人と人、人と対象物等の位置関係を特定し、特定した位置関係を基に、予め設定している複数のイベントの種類の中からイベントの状態を判定する。
【0129】
図10は、イベントの種類を示す模式図である。すべてのイベントは、人間用観測装置51及び周囲状況観測装置61等が赤外線タグ101,104等を捕えるという意味では、これ以上単純化できないくらい単純な要素であるが、人間用観測装置51及び周囲状況観測装置61と赤外線タグ101,104を付与された対象物の組合わせにより様々な意味を解釈することが可能となる。
【0130】
例えば、図10の(a)に示すように、ある人Aが身につけている人間用観測装置51(図中の白丸)により他の人Bの赤外線タグ104(図中の黒丸)が観測され、同時に、人Bが身につけている人間用観測装置51により人Aの赤外線タグ104が観測されている場合、人Aと人Bとが対話している状態を意味する。
【0131】
また、環境側に設置された周囲状況観測装置61により人に付与された赤外線タグ104が観測された場合、その人があるエリアに滞在していることを意味し、図10の(b)に示すように、同一の周囲状況観測装置61(図中の白丸)により複数の人A,Bの赤外線タグ104が同時に観測された場合、それらの人々A,Bが同じエリアに共在する状態を意味する。
【0132】
また、図10の(c)に示すように、人Aが身につけている人間用観測装置51によりある対象物Cに付与された赤外線タグ101(図中の黒丸)が観測されている場合、その人Aがその対象物Cを注視している状態を意味する。また、複数の人の人間用観測装置51により同一の対象物の赤外線タグ101が同時に観測された場合、それらの人々が同じものに対して共同注意を向けている状態であると考えられる。さらに、共同注意に参加している人の人数が増えた場合、注意を向けられている対象物は重要な社会的イベントを担っている状態と考えられる。
【0133】
本実施の形態では、アプリケーションサーバ93は、上記の対話状態、共存状態及び注視状態の中からイベントの状態を決定する。なお、イベントの状態は、上記の例に特に限定されず、種々の変更及び付加が可能であり、以下のようにイベントの状態を決定してもよい。
【0134】
例えば、図10の(d)に示すように、環境側に設置された周囲状況観測装置61によりある対象物Cに付与された赤外線タグ101及びある人Aの赤外線タグ104が同時に観測されている場合、その人Aがその対象物Cのある場所を訪問している状態を意味するものと解釈してもよい。
【0135】
また、図10の(e)に示すように、ある人Aが身につけている人間用観測装置51により他の人Bの赤外線タグ104が観測され、且つそのイベントが最小検出時間の2倍以上継続されている場合、人Aが人Bを凝視している状態を意味するものと解釈してもよい。若しくは、図10の(c)に示すように、人Aが身につけている人間用観測装置51によりある対象物Cに付与された赤外線タグ101が観測され、且つそのイベントが最小検出時間の2倍以上継続されている場合、人が対象物を凝視している状態を意味するものと解釈してもよい。
【0136】
また、図10の(f)に示すように、人Aが身につけている人間用観測装置51によりある対象物Cに付与された赤外線タグ101が観測され、同時に、その対象物Cに設置された周囲状況観測装置61により人Aの赤外線タグ104が観測されたている場合、その人Aがその対象物Cを注視している状態を意味するものと解釈してもよい。
【0137】
シーンの説明の生成には、上記のイベントの解釈に基づき、(1)図10の(a)に示す対話状態に対するTALKED WITH(I talked with (someone).)、(2)図10の(b)に示す共存状態に対するWAS WITH(I was with (someone).)、(3)図10の(c)に示す注視状態に対するLOOKED AT(I looked at (something).)の3種類のテンプレートを用いている。これらは、TALKED WITH>WAS WITH>LOOKED ATの順に優先順位を設定しており、シーンの中に対話イベントが認識されれば、シーン全体の注釈としてはTALKED WITHが採用される。なお、優先順位は上記の例に特に限定されず、種々の変更が可能であり、TALKED WITH>WAS WITH>LOOKED AT>VISITED(図10の(d)の状態)>STARED AT(図10の(e)等の状態)の順に優先順位を設定してもよい。
【0138】
このようして、アプリケーションサーバ93は、予め設定した複数のイベントの種類の中からイベントの状態を判定し、判定した状態の優先順位に応じてシーンの状態を決定し、決定した状態に対応するテンプレートを用いてシーンの説明を自動的に作成する。したがって、シーンデータのインタラクション状態に応じた説明を自動的に付与することができ、このシーンデータを観測時間順に並べて特定の人間のインタラクションに関するビデオサマリを自動的に作成することができる。
【0139】
最後に、ステップS22において、アプリケーションサーバ93は、作成したビデオサマリを表示する。図11は、ある訪問者が展示会場を見学した場合のビデオサマリの一例を示す図である。図11に示す例では、ある訪問者のために集められたシーンが時間順に並べてビデオサマリとして表示されている。
【0140】
ここで、シーンのアイコンとして、各シーンのサムネイル画像が用いられ、このアイコンをクリックすると所定の動画像表示プログラムが起動し、対応するシーンのビデオクリップが表示される。各シーンには、自動付与したシーンの開始時刻、シーンの説明、及びシーンの時間が表示される。また、展示会場での滞在時間が長くなるとシーンの数が多くなってくるので、クイックレビューが可能なように、シーンの時間的長さに応じてアイコンの濃淡を変えて表示している(図示省略)。この場合、長い時間のシーンは、訪問者にとってハイライトシーンとなる可能性が高く、このシーンの色を濃く表示することにより、全体を見渡したときに目にとまりやすくなる。
【0141】
このようにして作成されたビデオサマリでは、シーンを構成するイベントは、単一の観測装置により撮影されたものだけには限らないため、会話シーンであれば、自分の人間用観測装置51だけでなく相手の人間用観測装置51で記録された映像、さらには、二人を撮影している環境側の周囲状況観測装置61の映像が順々に表示される場合がある。
【0142】
また、シーンは時間の共有性と空間の共有性によって複数のイベントを集めて形成されるので、同じ時刻に複数のビデオデータが存在する場合があり、この場合、映像の切替を所定のルールに基づいて行っている。例えば、会話シーンの場合は、マイクロホン152のボリュームの大きい方の映像を優先し、どちらのボリュームも小さいとき(会話に沈黙があったとき)は周囲状況観測装置61の映像に切り替わるようにして、発話しているユーザの顔(実際は赤外線タグ104)が写っている映像が採用されるようにする。また、音声に関しては、会話シーンにおいて映像は切り替わっても、常に会話者2人のマイクの音をミックスしたものを利用してもよい。
【0143】
なお、ビデオサマリの表示例は、この例に特に限定されず、種々の変更が可能である。例えば、一つ一つのシーンを見ることすら面倒なユーザのために、各シーンを最大15秒ずつ切り出し、それらをフェードイン及びフェードアウト処理により連結して1本のクリップにまとめたサマリビデオを作り、そのアイコンをページの先頭に表示してもよい。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態によるデータベース作成装置の構成を示すブロック図である。
【図2】図1に示す周囲状況観測装置、ロボット型観測装置、ぬいぐるみ型観測装置の一例を説明するための模式図である。
【図3】図1に示す講演者用観測装置の一例を説明するための模式図である。
【図4】図1に示すデータ表示部により表示される表示画面の一例を示す図である。
【図5】本発明の第2の実施の形態によるデータベース作成装置の構成を示すブロック図である。
【図6】図5に示す赤外線タグ及び人間用観測装置の構成を示すブロック図である。
【図7】図5に示す周囲状況観測装置の構成を示すブロック図である。
【図8】図5に示す人間用観測装置、携帯型コンピュータ、周囲状況観測装置、ロボット型観測装置及びぬいぐるみ型観測装置の一例を説明するための模式図である。
【図9】図5に示すデータベース作成装置のビデオサマリ作成処理を説明するためのフローチャートである。
【図10】イベントの種類を示す模式図である。
【図11】ある訪問者が展示会場を見学した場合のビデオサマリの一例を示す図である。
【符号の説明】
1a 周囲状況観測装置
1b 講演者用観測装置
1c 聴講者用観測装置
1d ロボット型観測装置
1e ぬいぐるみ型観測装置
2 時間情報付与部
3 インタラクション・コーパス
4 インデックス付与部
5 データ表示部
51 人間用観測装置
52 携帯型コンピュータ
61 周囲状況観測装置
62 据置型コンピュータ
71 ロボット型観測装置
72 ぬいぐるみ型観測装置
81 データ取得用サーバ
91 SQLサーバ
92 AVデータ用サーバ
93 アプリケーションサーバ
101 赤外線タグ
102 赤外線検出部
103 画像撮影部
104 赤外線タグ
105 マイク部
106 生体検出部
111 LED
112 駆動回路
121 赤外線フィルタ
122 レンズ
123 CMOSイメージセンサ
124 画像処理装置
131 レンズ
132 CCDカメラ
141 LED
142 駆動回路
151 音声処理回路
152 マイクロホン
161 生体データ処理回路
162 生体センサ
202 固定検出部
203 画像撮影部
205 マイク部
221 赤外線フィルタ
222 レンズ
223 CMOSイメージセンサ
224 画像処理装置
231 レンズ
232 CCDカメラ
251 音声処理回路
252 マイクロホン

Claims (12)

  1. 人間のインタラクションに関するインタラクションデータを蓄積したデータベースを作成するデータベース作成装置であって、
    前記人間のインタラクションを第1の視点から観測したインタラクションデータを出力する第1の観測手段と、
    前記第1の観測手段による観測時に、前記人間のインタラクションを前記第1の視点と異なる第2の視点から観測したインタラクションデータを出力する第2の観測手段と、
    前記第1及び第2の観測手段により観測されたインタラクションデータをデータベースとして蓄積する蓄積手段とを備えることを特徴とするデータベース作成装置。
  2. 前記第1及び第2の観測手段のうちの少なくとも一方は、前記人間のインタラクションを観測するときに、前記人間のインタラクションを能動的に演出することを特徴とする請求項1記載のデータベース作成装置。
  3. 前記第1及び第2の観測手段のうちの一方は、インタラクションを行う人間の視点から観測したインタラクションデータを出力し、他方は、インタラクションを行う人間を含む周囲状況を観測したインタラクションデータを出力することを特徴とする請求項1又は2記載のデータベース作成装置。
  4. 前記第1及び第2の観測手段のうちの少なくとも一方は、観測される人間とインタラクションを行う人工物を含み、
    前記人工物は、人工物自身の視点から前記人間のインタラクションを観測することを特徴とする請求項1又は2記載のデータベース作成装置。
  5. 前記蓄積手段は、観測時刻を特定可能な状態で前記インタラクションデータを蓄積することを特徴とする請求項1〜4のいずれかに記載のデータベース作成装置。
  6. 前記蓄積手段は、前記インタラクションデータの変化を基に前記インタラクションデータにインデックスを付与することを特徴とする請求項1〜5のいずれかに記載のデータベース作成装置。
  7. 前記第1の観測手段は、インタラクションを行う人間に装着され、且つ、当該人間の視点から撮影した所定の撮影範囲内の映像情報を出力するとともに、当該撮影範囲内に位置する、人間のインタラクションに使用される対象物及び/又は他の人間を識別するための識別情報を出力する人間用観測装置を含み、
    前記第2の観測手段は、インタラクションを行う人間が位置する空間を構成する構造物に固定され、インタラクションを行う人間を含む周囲状況を撮影した所定の撮影範囲内の映像情報を出力するとともに、当該撮影範囲内に位置する、人間のインタラクションに使用される対象物及び/又は人間を識別するための識別情報を出力する周囲状況観測装置を含むことを特徴とする請求項1〜6のいずれかに記載のデータベース作成装置。
  8. 人間のインタラクションに使用される対象物に取り付けられ、前記対象物に対して一意的に割り付けられた識別情報に応じて赤外線を発光する発光装置をさらに備え、
    前記第1の観測手段は、人間に装着される人間用観測装置を含み、
    前記人間用観測装置は、
    当該人間用観測装置を装着する人間の視線方向に略一致させた光軸を有し、前記対象物を含む所定の撮影領域の赤外線画像を撮影する撮影手段と、
    前記撮影手段により撮影された赤外線画像を用いて前記発光装置を検出する発光装置検出手段と、
    前記発光装置検出手段により検出された発光装置の点滅状態を検出して当該発光装置の識別情報を検出する識別情報検出手段と、
    前記撮影手段の光軸に合わせた光軸を有し、当該人間用観測装置を装着する人間の視線方向の可視光画像を撮影する可視光撮影手段と、
    当該人間用観測装置を装着する人間に対して一意的に割り付けられた識別情報に応じて赤外線を発光する発光手段とを備え、
    前記第2の観測手段は、インタラクションを行う人間が位置する空間を構成する構造物に固定され、インタラクションを行う人間を含む周囲状況を観測する周囲状況観測装置を含み、
    前記周囲状況観測装置は、
    所定方向に設定された光軸を有し、インタラクションを行う人間を含む所定の撮影領域の赤外線画像を撮影する撮影手段と、
    前記撮影手段により撮影された赤外線画像を用いて前記発光装置及び/又は前記人間用観測装置の発光手段を検出する発光装置検出手段と、
    前記発光装置検出手段により検出された前記発光装置及び/又は前記人間用観測装置の発光手段の点滅状態を検出して前記発光装置及び/又は前記人間用観測装置の発光手段の識別情報を検出する識別情報検出手段と、
    前記撮影手段の光軸に合わせた光軸を有し、インタラクションを行う人間を含む所定の撮影領域の可視光画像を撮影する可視光撮影手段とを備え、
    前記蓄積手段は、前記人間用観測装置の識別情報検出手段及び前記周囲状況観測装置の識別情報検出手段により検出された識別情報と、前記人間用観測装置の可視光撮影手段及び前記周囲状況観測装置の可視光撮影手段により撮影された可視光画像データとをそれぞれの観測時刻を特定可能な状態で記憶することを特徴とする請求項1〜6のいずれかに記載のデータベース作成装置。
  9. 前記蓄積手段に蓄積されている識別情報のうち第1の時間以上の間隔を空けずに且つ第2の時間以上連続して検出された識別情報とともに撮影された可視光画像データを一つのイベントデータとして抽出する抽出手段をさらに備えることを特徴とする請求項8記載のデータベース作成装置。
  10. 前記抽出手段により抽出されたイベントデータのうち観測時間が所定時間以上重なっているイベントデータを一つのシーンデータとして連結する第1の連結手段をさらに備えることを特徴とする請求項9記載のデータベース作成装置。
  11. 前記抽出手段により抽出されたイベントデータのうち観測場所が共通するイベントデータを一つのシーンデータとして連結する第2の連結手段をさらに備えることを特徴とする請求項9又は10記載のデータベース作成装置。
  12. 前記人間用観測装置及び前記周囲状況観測装置により検出された識別情報に基づいて、予め設定されている複数のインタラクション状態の中から第2の連結手段により連結されたシーンデータのインタラクション状態を決定する決定手段と、
    前記決定手段により決定されたインタラクション状態に応じた注釈をシーンデータに付加する付加手段とをさらに備えることを特徴とする請求項11記載のデータベース作成装置。
JP2003013347A 2002-05-28 2003-01-22 データベース作成装置 Expired - Fee Related JP3936295B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003013347A JP3936295B2 (ja) 2002-05-28 2003-01-22 データベース作成装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002153712 2002-05-28
JP2003013347A JP3936295B2 (ja) 2002-05-28 2003-01-22 データベース作成装置

Publications (2)

Publication Number Publication Date
JP2004054886A true JP2004054886A (ja) 2004-02-19
JP3936295B2 JP3936295B2 (ja) 2007-06-27

Family

ID=31948971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003013347A Expired - Fee Related JP3936295B2 (ja) 2002-05-28 2003-01-22 データベース作成装置

Country Status (1)

Country Link
JP (1) JP3936295B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033329A (ja) * 2004-07-15 2006-02-02 Advanced Telecommunication Research Institute International 光学マーカシステム
JP2006227932A (ja) * 2005-02-17 2006-08-31 Yunimekku:Kk 二次元画像からの三次元解析方法とそれを実行するシステム
JP2008176573A (ja) * 2007-01-18 2008-07-31 Hitachi Ltd インタラクションデータ表示装置、処理装置及び表示方法
JP2012070259A (ja) * 2010-09-24 2012-04-05 Fuji Xerox Co Ltd 動作検出装置、記録システム及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6468084A (en) * 1987-09-09 1989-03-14 Nippon Telegraph & Telephone Skip-watching device for moving image signal
JPH1127609A (ja) * 1997-06-30 1999-01-29 Minolta Co Ltd 画像記録再生システム
JPH11134349A (ja) * 1997-10-28 1999-05-21 Fujitsu Ltd 環境適応型情報呈示装置及び実世界データベース
JP2000356942A (ja) * 1999-06-15 2000-12-26 Nec Corp 動作教示装置、動作教示方法及び動作教示プログラムを記録した記録媒体
JP2002152637A (ja) * 2000-11-14 2002-05-24 Ntt Docomo Inc 映像検索ファイル作成方法、ホームページ更新方法および映像検索方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6468084A (en) * 1987-09-09 1989-03-14 Nippon Telegraph & Telephone Skip-watching device for moving image signal
JPH1127609A (ja) * 1997-06-30 1999-01-29 Minolta Co Ltd 画像記録再生システム
JPH11134349A (ja) * 1997-10-28 1999-05-21 Fujitsu Ltd 環境適応型情報呈示装置及び実世界データベース
JP2000356942A (ja) * 1999-06-15 2000-12-26 Nec Corp 動作教示装置、動作教示方法及び動作教示プログラムを記録した記録媒体
JP2002152637A (ja) * 2000-11-14 2002-05-24 Ntt Docomo Inc 映像検索ファイル作成方法、ホームページ更新方法および映像検索方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
土井俊介他: "音声対話型パーソナルガイドエージェントシステム", 人工知能学会研究会資料(第47回 知識ベースシステム研究会資料), CSNG200100349010, 27 March 2000 (2000-03-27), JP, pages 55 - 60, ISSN: 0000796968 *
角康之他: "協創パートナーとインタラクションコーパスの研究", 人工知能学会研究会資料(第49回 人工知能基礎論研究会資料), CSNG200401039003, 5 September 2002 (2002-09-05), JP, pages 13 - 18, ISSN: 0000826754 *
間瀬健二: "持ち運べるインタフェースエージェント", 人工知能学会誌, vol. 第16巻 第6号, CSNG200400281005, 1 November 2001 (2001-11-01), JP, pages 779 - 784, ISSN: 0000796967 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033329A (ja) * 2004-07-15 2006-02-02 Advanced Telecommunication Research Institute International 光学マーカシステム
JP2006227932A (ja) * 2005-02-17 2006-08-31 Yunimekku:Kk 二次元画像からの三次元解析方法とそれを実行するシステム
JP4667900B2 (ja) * 2005-02-17 2011-04-13 株式会社ユニメック 二次元画像からの三次元解析方法とそれを実行するシステム
JP2008176573A (ja) * 2007-01-18 2008-07-31 Hitachi Ltd インタラクションデータ表示装置、処理装置及び表示方法
JP2012070259A (ja) * 2010-09-24 2012-04-05 Fuji Xerox Co Ltd 動作検出装置、記録システム及びプログラム

Also Published As

Publication number Publication date
JP3936295B2 (ja) 2007-06-27

Similar Documents

Publication Publication Date Title
US10674912B1 (en) Method and apparatus for a compact and high resolution mind-view communicator
US9390561B2 (en) Personal holographic billboard
TWI482108B (zh) To bring virtual social networks into real-life social systems and methods
KR20200026798A (ko) 이미지를 분석하기 위한 웨어러블기기 및 방법
US9646046B2 (en) Mental state data tagging for data collected from multiple sources
JP2020039029A (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
US20200275875A1 (en) Method for deriving and storing emotional conditions of humans
JP6728863B2 (ja) 情報処理システム
JP7416903B2 (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
US20240036312A1 (en) Augmented reality device and methods of use
JP2005131713A (ja) コミュニケーションロボット
Jayagopi et al. The vernissage corpus: A multimodal human-robot-interaction dataset
Mase et al. Ubiquitous experience media
JP3936295B2 (ja) データベース作成装置
JP4095537B2 (ja) 体験表示装置、体験表示方法及び体験表示プログラム
Hagita et al. Collaborative capturing of experiences with ubiquitous sensors and communication robots
WO2019044135A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP4012872B2 (ja) 情報管理装置、情報管理方法及び情報管理プログラム
Yu et al. Multimodal sensing, recognizing and browsing group social dynamics
Sumi et al. Collage of video and sound for raising the awareness of situated conversations
JP4905651B2 (ja) 情報分析装置、情報分析方法及び情報分析プログラム
JP4027267B2 (ja) 体験表示装置、体験表示方法及び体験表示プログラム
Abbas et al. A hybrid alert system for deaf people using context-aware computing and image processing
Ito et al. Implementation and evaluation of wearable sensor devices for recording and detecting conversational interaction
Tsuchikawa et al. Experience-sharing system using ubiquitous sensing environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070322

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees