JP4012872B2 - 情報管理装置、情報管理方法及び情報管理プログラム - Google Patents

情報管理装置、情報管理方法及び情報管理プログラム Download PDF

Info

Publication number
JP4012872B2
JP4012872B2 JP2003370462A JP2003370462A JP4012872B2 JP 4012872 B2 JP4012872 B2 JP 4012872B2 JP 2003370462 A JP2003370462 A JP 2003370462A JP 2003370462 A JP2003370462 A JP 2003370462A JP 4012872 B2 JP4012872 B2 JP 4012872B2
Authority
JP
Japan
Prior art keywords
information
visual
storage means
management
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003370462A
Other languages
English (en)
Other versions
JP2005136693A (ja
Inventor
禎宣 伊藤
昌史 高橋
康之 角
健二 間瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003370462A priority Critical patent/JP4012872B2/ja
Publication of JP2005136693A publication Critical patent/JP2005136693A/ja
Application granted granted Critical
Publication of JP4012872B2 publication Critical patent/JP4012872B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Recording Measured Values (AREA)

Description

本発明は、イベントに参加する複数のオブジェクトに関する情報を管理する情報管理装置、情報管理方法及び情報管理プログラムに関するものである。
人間が知覚する五感情報の中でも視覚情報は聴覚情報に並んで重要度が高いため、人間の体験及び行動の記録及び解析において、視覚情報の果たす役割は大きく、体験の記録にとって視覚情報は不可欠である。また、視覚情報には人の表情やジェスチャ、注視方向、人と物との位置関係など本人および周囲の環境に関する多くの情報が同時に含まれるため、蓄積した情報の利便性も高い。そのため、視覚情報を利用して個人の行動や人間同士のインタラクションを記録する手法が広く検討されている。
例えば、イベントに参加する各人物および環境に取り付けられた多数のカメラと赤外線タグ等の他のセンサとから構成される移動体検出装置を用いて各人物の移動位置を検出し、人間の行動及び人間同士のインタラクションを記録及び解析するシステムが開発され、多数のセンサから得られた情報を処理して抽象度の高い情報であるインタラクションを抽出している(非特許文献1参照)。
角康之他、「複数センサ群による協調的なインタラクションの記録」、インタラクション 2003、2003年、p.255−p.262
しかしながら、抽象度の高い情報を抽出するためには、時間的及び空間的に広範囲の情報を取得することが必要となり、当該情報を得るまでに一定の時間が必要となる。したがって、抽象度の高い情報を用いるアプリケーションで情報を利用するため、抽象度の高い情報を抽出した後に各情報を更新したのでは、情報の更新に時間的な遅延が発生し、即時性の高い情報を用いる他のアプリケーションに利用することができず、蓄積した情報を種々のアプリケーションで共用することができない。
本発明の目的は、種々のアプリケーションに対して適切な情報を適切なタイミングで提供することができる情報管理装置、情報管理方法及び情報管理プログラムを提供することである。
本発明に係る情報管理装置は、イベントに参加する人間を含む複数のオブジェクトに関する情報を管理する情報管理装置であって、オブジェクトの視界内に位置する他のオブジェクトを検出する対象物検出手段により検出されたオブジェクトを識別するための識別情報と、当該オブジェクトの位置を特定するための位置情報と、当該位置情報が検出された時刻を特定するための時間情報とを関連付けて視覚情報としてオブジェクトごとに第1の記憶手段に記憶する第1の管理手段と、第1の記憶手段に記憶されている視覚情報のうち時間情報の取得時刻の間隔が所定の最大間隔以下の複数の視覚情報を、オブジェクトが他のオブジェクトを視覚的に捕らえていることを示す、一つの視覚クラスタ情報としてオブジェクトごとに抽出し、抽出した視覚クラスタ情報の最初の時間情報及び最後の時間情報を当該視覚クラスタ情報の開始時間情報及び終了時間情報として識別情報とともにオブジェクトごとに第2の記憶手段に記憶する第2の管理手段と、前記第2の記憶手段に記憶されている視覚クラスタ情報をオブジェクトごとに読み出して当該オブジェクトの視界内に位置する他のオブジェクトを特定し、特定した他のオブジェクトの視覚クラスタ情報を読み出して他のオブジェクトの視界内に当該オブジェクトが位置するか否かを基準に人間を含む2つのオブジェクト間の視認状態を特定するための決定木に従って2つのオブジェクト間の視認状態を推定し、推定した視認状態をオブジェクトごとにインタラクション情報として第3の記憶手段に記憶する第3の管理手段と、前記第3の記憶手段に記憶されている視認状態を基に2人以上の人間を含む3つ以上のオブジェクト間のインタラクションを抽出し、抽出した3つ以上のオブジェクト間のインタラクションを前記インタラクション情報より抽象度の高いイベント情報として前記第4の記憶手段に記憶する第4の管理手段とを備えるものである。
本発明に係る情報管理装置では、オブジェクトの視界内に位置する他のオブジェクトを検出する対象物検出手段により検出されたオブジェクトを識別するための識別情報と、当該オブジェクトの位置を特定するための位置情報と、当該位置情報が検出された時刻を特定するための時間情報とを関連付けて視覚情報としてオブジェクトごとに第1の記憶手段に記憶されるので、実際に観測された視覚情報すなわち抽象度の最も低い情報を即座に第1の記憶手段に第1の階層として記憶することができる。また、第1の記憶手段に記憶されている視覚情報のうち時間情報の取得時刻の間隔が所定の最大間隔以下の複数の視覚情報、オブジェクトが他のオブジェクトを視覚的に捕らえていることを示す、一つの視覚クラスタ情報としてオブジェクトごとに抽出され、抽出された視覚クラスタ情報の最初の時間情報及び最後の時間情報が当該視覚クラスタ情報の開始時間情報及び終了時間情報として識別情報とともにオブジェクトごとに第2の記憶手段に記憶されるので、視覚情報が断続的に得られる場合でも、オブジェクトに対して意味のある視覚クラスタ情報すなわちより抽象化された情報を抽出して第2の記憶手段に第2の階層として記憶することができる。さらに、第2の記憶手段に記憶されている視覚クラスタ情報をオブジェクトごとに読み出して当該オブジェクトの視界内に位置する他のオブジェクトを特定し、特定した他のオブジェクトの視覚クラスタ情報を読み出して他のオブジェクトの視界内に当該オブジェクトが位置するか否かを基準に人間を含む2つのオブジェクト間の視認状態を特定するための決定木に従って2つのオブジェクト間の視認状態が推定され、推定された視認状態がオブジェクトごとにインタラクション情報として第3の記憶手段に記憶されるので、さらに抽象化された情報であるインタラクション情報を第3の記憶手段に第3の階層として記憶することができる。
このように、情報の抽象度に応じて各情報が階層的に記憶されているので、即時性の高い情報を用いるアプリケーションに対して下位の記憶手段から即時性の高い情報を提供することができるとともに、抽象性の高い情報を用いるアプリケーションに対して上位の記憶手段から抽象性の高い情報を提供することができ、種々のアプリケーションに対して適切な情報を適切なタイミングで提供することができる。
また、前記第3の記憶手段に記憶されている視認状態を基に2人以上の人間を含む3つ以上のオブジェクト間のインタラクションが抽出され、抽出された3つ以上のオブジェクト間のインタラクションがインタラクション情報より抽象度の高いイベント情報として第4の記憶手段に記憶されるので、さらに抽象化された情報であるイベント情報を第4の記憶手段に第4の階層として記憶することができ、情報の抽象度に応じて各情報がより階層的に記憶され、より抽象性の高い情報を用いるアプリケーションに対してより上位の記憶手段から抽象性の高い情報を提供することができ、より広範なアプリケーションに対して適切な情報を提供することができる。
また、第2の記憶手段に記憶されている視覚クラスタ情報をオブジェクトごとに読み出して当該オブジェクトの視界内に位置する他のオブジェクトを特定し、特定した他のオブジェクトの視覚クラスタ情報を読み出して他のオブジェクトの視界内に当該オブジェクトが位置するか否かを基準に人間を含む2つのオブジェクト間の視認状態を特定するための決定木に従って2つのオブジェクト間の視認状態を推定し、推定した視認状態を基に2人以上の人間を含む3つ以上のオブジェクト間のインタラクションを抽出しているので、多数のオブジェクト間のより複雑なインタラクションをイベント情報として抽出することができる。
また、人間が知覚する五感情報の中で最も重要度の高い視覚情報を用いて2つのオブジェクト間の視認状態を推定し、推定した視認状態を基に3つ以上のオブジェクト間のインタラクションを抽出しているので、人間が参加するイベントとして抽象度が高いイベント情報をより正確に推定することができる。
前記第2の管理手段は、前記視覚クラスタ情報を抽出する際、前記第2の記憶手段に対して、取得時刻の間隔前記最大間隔以下の2つの視覚情報がある場合に視覚クラスタ情報の記録を開始し、後続の2つの視覚情報の取得時刻の間隔前記最大間隔を越える場合に当該視覚クラスタ情報の終了を表す終了時間情報を記録して当該視覚クラスタ情報の記録を終了することが好ましい。
この場合、取得時刻の間隔最大間隔以下の2つの視覚情報がある場合に視覚クラスタ情報の記録を開始しているので、一つの視覚クラスタ情報が記録途中の場合でも、当該視覚クラスタ情報の存在を認識することができ、視覚クラスタ情報を必要とするアプリケーションに対して当該視覚クラスタ情報を過度な遅延を伴うことなく提供することができる。また、後続の2つの視覚情報の取得時刻の間隔最大間隔を越える場合に当該視覚クラスタ情報の終了を表す終了時間情報を記録しているので、視覚クラスタ情報の終了時点を確定することができる。
前記第3の管理手段は、前記第2の記憶手段に記憶されている視覚クラスタ情報のうち当該視覚クラスタ情報の開始時間情報及び終了時間情報により特定される期間が所定の最小継続期間以上となる視覚クラスタ情報を基に前記決定木に従って2つのオブジェクト間の視認状態を推定し、推定した視認状態をオブジェクトごとにインタラクション情報として前記第3の記憶手段に記憶することが好ましい。
この場合、視覚クラスタ情報の開始時間情報及び終了時間情報により特定される期間が最小継続期間以上となる視覚クラスタ情報のみを用いているので、継続期間の短い意味のない視覚クラスタ情報を排除し、継続期間の長い有意な視覚クラスタ情報を用いて2つのオブジェクト間の視認状態を正確に推定することができる。
前記オブジェクトは、互いに異なる複数種類のオブジェクトを含み、前記第3の管理手段は、オブジェクトの種類に応じて予め決定された決定木に従って2つのオブジェクト間の視認状態を推定し、推定した視認状態をオブジェクトごとにインタラクション情報として前記第3の記憶手段に記憶することが好ましい。
この場合、オブジェクトの種類に応じて予め決定された決定木に従って2つのオブジェクト間の視認状態を推定しているので、2つのオブジェクト間の視認状態を正確に推定することができる。
第1及び第2の管理手段は、クライアントコンピュータから構成され、第3及び第4の管理手段は、クライアントコンピュータと通信可能に接続されたサーバコンピュータから構成されることが好ましい。
この場合、抽象度の低い情報はクライアントコンピュータで処理され、抽象度の高い情報のみがサーバコンピュータで処理されるので、サーバコンピュータの負荷を軽減することができるとともに、情報管理装置へのアクセスに伴うネットワークのトラフィック量を低減することができる。
前記第1の管理手段は、さらに、前記対象物検出手段を装着した人間の発話を検出する発話検出手段により検出された発話の開始時刻及び終了時刻を特定するための発話情報を聴覚情報としてオブジェクトごとに前記第1の記憶手段に記憶し、前記第2の管理手段は、さらに、前記第1の記憶手段に記憶されている聴覚情報のうち発話情報の終了時刻と後続の発話情報の開始時刻との間の間隔が前記最大間隔以下の聴覚情報を一つの聴覚クラスタ情報としてオブジェクトごとに抽出し、抽出した聴覚情報の最初の開始時刻及び最後の終了時刻を当該聴覚クラスタ情報の開始時間情報及び終了時間情報としてオブジェクトごとに前記第2の記憶手段に記憶し、前記第3の管理手段は、さらに、前記第2の記憶手段に記憶されている聴覚クラスタ情報をオブジェクトごとに読み出して当該オブジェクトが発話しているか否かを基準に、人間を含む2つのオブジェクト間の会話状態を推定し、推定した会話状態をオブジェクトごとにインタラクション情報として前記第3の記憶手段に記憶し、前記第4の管理手段は、前記第3の記憶手段に記憶されている視認状態及び会話状態を基に2人以上の人間を含む3つ以上のオブジェクト間のインタラクションを抽出し、抽出した3つ以上のオブジェクト間のインタラクションをイベント情報として前記第4の記憶手段に記憶することが好ましい。
この場合、人間が知覚する五感情報の中で視覚情報に並んで重要度が高い聴覚情報を用いて2つのオブジェクト間の会話状態を推定し、推定した会話状態を基に3つ以上のオブジェクト間のインタラクションを抽出しているので、人間が参加するイベントとしてより抽象度が高いイベント情報をより正確に推定することができる。
本発明に係る情報管理方法は、オブジェクトの視界内に位置する他のオブジェクトを検出する対象物検出手段により検出されたオブジェクトを識別するための識別情報と、当該オブジェクトの位置を特定するための位置情報と、当該位置情報が検出された時刻を特定するための時間情報とを関連付けて視覚情報としてオブジェクトごとに第1の記憶手段に記憶する第1の管理手段と、前記第1の記憶手段に記憶されている視覚情報から視覚クラスタ情報を抽出する第2の管理手段と、前記第2の管理手段によって抽出された視覚クラスタ情報からインタラクション情報を抽出する第3の管理手段と、前記第3の管理手段によって抽出されたインタラクション情報からイベント情報を抽出する第4の管理手段とを備え、イベントに参加する人間を含む複数のオブジェクトに関する情報を管理する情報管理装置における情報管理方法であって、前記第2の管理手段が、前記第1の管理手段によって前記第1の記憶手段に記憶された視覚情報のうち時間情報の取得時刻の間隔が所定の最大間隔以下の複数の視覚情報を、オブジェクトが他のオブジェクトを視覚的に捕らえていることを示す、一つの視覚クラスタ情報としてオブジェクトごとに抽出し、抽出した視覚クラスタ情報の最初の時間情報及び最後の時間情報を当該視覚クラスタ情報の開始時間情報及び終了時間情報として識別情報とともにオブジェクトごとに第2の記憶手段に記憶するステップと、前記第3の管理手段が、前記第2の管理手段によって前記第2の記憶手段に記憶された視覚クラスタ情報をオブジェクトごとに読み出して当該オブジェクトの視界内に位置する他のオブジェクトを特定し、特定した他のオブジェクトの視覚クラスタ情報を読み出して他のオブジェクトの視界内に当該オブジェクトが位置するか否かを基準に人間を含む2つのオブジェクト間の視認状態を特定するための決定木に従って2つのオブジェクト間の視認状態を推定し、推定した視認状態をオブジェクトごとにインタラクション情報として第3の記憶手段に記憶するステップと、前記第4の管理手段が、前記第3の管理手段によって前記第3の記憶手段に記憶された視認状態を基に2人以上の人間を含む3つ以上のオブジェクト間のインタラクションを抽出し、抽出した3つ以上のオブジェクト間のインタラクションを前記インタラクション情報より抽象度の高いイベント情報として前記第4の記憶手段に記憶するステップとを含むものである。
本発明に係る情報管理プログラムは、イベントに参加する人間を含む複数のオブジェクトに関する情報を管理するための情報管理プログラムであって、オブジェクトの視界内に位置する他のオブジェクトを検出する対象物検出手段により検出されたオブジェクトを識別するための識別情報と、当該オブジェクトの位置を特定するための位置情報と、当該位置情報が検出された時刻を特定するための時間情報とを関連付けて視覚情報としてオブジェクトごとに第1の記憶手段に記憶する第1の管理手段と、前記第1の記憶手段に記憶されている視覚情報のうち時間情報の取得時刻の間隔が所定の最大間隔以下の複数の視覚情報を、オブジェクトが他のオブジェクトを視覚的に捕らえていることを示す、一つの視覚クラスタ情報としてオブジェクトごとに抽出し、抽出した視覚クラスタ情報の最初の時間情報及び最後の時間情報を当該視覚クラスタ情報の開始時間情報及び終了時間情報として識別情報とともにオブジェクトごとに第2の記憶手段に記憶する第2の管理手段と、前記第2の記憶手段に記憶されている視覚クラスタ情報をオブジェクトごとに読み出して当該オブジェクトの視界内に位置する他のオブジェクトを特定し、特定した他のオブジェクトの視覚クラスタ情報を読み出して他のオブジェクトの視界内に当該オブジェクトが位置するか否かを基準に人間を含む2つのオブジェクト間の視認状態を特定するための決定木に従って2つのオブジェクト間の視認状態を推定し、推定した視認状態をオブジェクトごとにインタラクション情報として第3の記憶手段に記憶する第3の管理手段と、前記第3の記憶手段に記憶されている視認状態を基に2人以上の人間を含む3つ以上のオブジェクト間のインタラクションを抽出し、抽出した3つ以上のオブジェクト間のインタラクションを前記インタラクション情報より抽象度の高いイベント情報として前記第4の記憶手段に記憶する第4の管理手段としてコンピュータを機能させるものである。
本発明によれば、情報の抽象度に応じて各情報が階層的に記憶され、即時性の高い情報を用いるアプリケーションに対して下位の記憶手段から即時性の高い情報を提供することができるとともに、抽象性の高い情報を用いるアプリケーションに対して上位の記憶手段から抽象性の高い情報を提供することができ、種々のアプリケーションに対して適切な情報を適切なタイミングで提供することができる。
以下、本発明の一実施の形態による情報管理装置を用いた情報管理システムについて図面を参照しながら説明する。図1は、本発明の一実施の形態による情報管理装置を用いた情報管理システムの構成を示すブロック図である。なお、本実施の形態では、展示会場において説明員が見学者に展示内容を説明しているときに、説明員及び見学者のインタラクション等に関する情報を管理する場合について説明するが、本発明はこの例に特に限定されず、ラウンドテーブルを囲んだ自由討論等の打合せ、ある物体や書類を囲んで複数人が作業を行う共同作業等の種々のイベントにおける、人間と人間、人間とロボット、人間と環境を構成する人工物等の間の種々のインタラクションに同様に適用することができる。
図1に示す情報管理システムは、人間用観測装置1、周囲状況観測装置2、ロボット型観測装置3、情報管理装置4、アプリケーションサーバ5〜7、AV(オーディオ・ビデオ)ファイルサーバ8及び赤外線タグ9を備える。情報管理装置4は、クライアントコンピュータ部41及びデータ管理用サーバ45を備え、クライアントコンピュータ部41は、クライアントコンピュータ42〜44を含む。
なお、図1では、図示を容易にするために人間用観測装置1、周囲状況観測装置2、ロボット型観測装置3及び赤外線タグ9をそれぞれ1個のみ図示しているが、人間用観測装置1は説明員及び見学者ごとに設けられ、周囲状況観測装置2は複数の観測位置に設けられ、ロボット型観測装置3は必要数だけ設けられ、赤外線タグ9は説明員及び見学者のインタラクションに使用される対象物ごとに設けられている。また、クライアントコンピュータ42〜44は人間用観測装置1、周囲状況観測装置2及びロボット型観測装置3に対応してそれぞれ設けられ、アプリケーションサーバ5〜7は、アプリケーションごとに設けられる。
本実施の形態では、説明員、見学者等の人間、ロボット及び展示物等がイベントに参加するオブジェクトに該当し、オブジェクトの型を「HUMAN」、「UBIQ」及び「ROBOT」の3種類に分類し、「HUMAN」には説明員、見学者等の人間、「UBIQ」には展示物等の人工物(ユビキタス)、「ROBOT」には説明を補助するロボット(ロボット型観測装置3)がそれぞれ該当する。
赤外線タグ9は、人間用観測装置1、周囲状況観測装置2及びロボット型観測装置3により観測される対象物となる展示物自体又はその近傍若しくは展示会場の壁又は天井等に取り付けられ、対象物に対して一意的に割り付けられたID番号(識別情報)を赤外線の点滅により送信する。
人間用観測装置1は、説明員又は見学者に装着され、装着している説明員又は見学者のID番号を赤外線の点滅により送信する。また、人間用観測装置1は、説明員等の視界内に位置する赤外線タグ9等から送信される対象物のID番号及び赤外線タグ9等の赤外線画像内のXY座標を検出するとともに、赤外線タグ9を含む可視光画像を撮影し、検出したID番号及びXY座標等の観測情報及び撮影した可視光画像データ等の映像データをクライアントコンピュータ42へ出力する。また、人間用観測装置1は、人間用観測装置1を装着している説明員又は見学者の発話を検出して音声データ等の観測情報をクライアントコンピュータ42へ出力するとともに、生体データを検出してクライアントコンピュータ42へ出力する。
クライアントコンピュータ42は、ROM(リードオンリメモリ)、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、外部記憶装置、通信装置等を備えるクライアントコンピュータから構成され、人間用観測装置1により取得された観測情報をその取得時間とともにオブジェクトごとに記憶するとともに、記憶している観測情報のうち取得時間が所定間隔以下の複数の観測情報を一つのクラスタ情報として抽出し、抽出したクラスタ情報をオブジェクトごとに記憶し、データ管理用サーバ45及びアプリケーションサーバ5,7へ無線等により送信する。また、クライアントコンピュータ42は、人間用観測装置1から出力される映像データ及び音声データをデータ管理用サーバ45へ無線等により送信する。
周囲状況観測装置2は、説明員及び見学者が位置する空間を構成する構造物、例えば展示会場の天井及び壁に固定され、撮影範囲内に位置する人間用観測装置1及び赤外線タグ9等から送信されるID番号並びに人間用観測装置1及び赤外線タグ9等の赤外線画像内のXY座標を検出するとともに、撮影範囲内に位置する人間用観測装置1及び赤外線タグ9等を含む可視光画像を撮影し、検出したID番号及びXY座標等の観測情報及び撮影した可視光画像データ等の映像データをクライアントコンピュータ43へ出力する。また、周囲状況観測装置2は、撮影範囲内に位置する説明員又は見学者の発話等を集音して音声データ等の観測情報をクライアントコンピュータ43へ出力する。
クライアントコンピュータ43は、ROM、CPU、RAM、外部記憶装置、通信装置等を備えるクライアントコンピュータから構成され、周囲状況観測装置2により取得された観測情報をその取得時間とともにオブジェクトごとに記憶するとともに、記憶している観測情報のうち取得時間が所定間隔以下の複数の観測情報を一つのクラスタ情報として抽出し、抽出したクラスタ情報をオブジェクトごとに記憶し、データ管理用サーバ45及びアプリケーションサーバ5,7へ有線等により送信する。また、クライアントコンピュータ43は、周囲状況観測装置2から出力される映像データ及び音声データをデータ管理用サーバ45へ有線等により送信する。
ロボット型観測装置3は、例えば、視覚、聴覚及び触覚を有するヒューマノイド型自律移動ロボット等から構成され、ロボット自身のID番号を赤外線の点滅により送信する。また、ロボット型観測装置3は、ロボット自身の視界内に位置する赤外線タグ9等から送信される対象物のID番号及び赤外線タグ9等の赤外線画像内のXY座標を検出するとともに、赤外線タグ9を含む可視光画像を撮影し、検出したID番号及びXY座標等の観測情報及び撮影した可視光画像データ等をクライアントコンピュータ44へ出力する。また、ロボット型観測装置3は、ロボット自身の周辺に位置する説明員又は見学者の発話等を集音して音声データ等の観測情報をクライアントコンピュータ44へ出力する。
クライアントコンピュータ44は、ROM、CPU、RAM、外部記憶装置、通信装置等を備えるクライアントコンピュータから構成され、ロボット型観測装置3により取得された観測情報をその取得時間とともにオブジェクトごとに記憶するとともに、記憶している観測情報のうち取得時間が所定間隔以下の複数の観測情報を一つのクラスタ情報として抽出し、抽出したクラスタ情報をオブジェクトごとに記憶し、データ管理用サーバ45及びアプリケーションサーバ5,7へ無線又は有線等により送信する。また、クライアントコンピュータ44は、ロボット型観測装置3から出力される映像データ及び音声データをデータ管理用サーバ45へ無線又は有線等により送信する。
なお、観測装置は上記の例に特に限定されず、例えば、視覚、聴覚、触覚及び体勢感覚等を有するぬいぐるみ型観測装置等を用い、ぬいぐるみ自身の視点から説明員及び見学者の状況等を撮影するようにしてもよい。また、観測装置として赤外線タグを用いているが、対象物を特定できれば、他の観測装置を用いてもよい。
データ管理用サーバ45は、ROM、CPU、RAM、外部記憶装置、通信装置等を備えるサーバコンピュータから構成され、有線又は無線を介して各クライアントコンピュータ42〜44と通信可能に接続される。データ管理用サーバ45は、各クライアントコンピュータ42〜44に記憶されているクラスタ情報を基に、予め定められた決定木に従ってオブジェクトの状態を推定し、推定したオブジェクトの状態を記憶するとともに、記憶しているオブジェクトの状態を基にオブジェクト間のイベントを抽出し、抽出したイベントを記憶する。また、データ管理用サーバ45は、入力される各データのうち映像データ及び音声データをAVファイルサーバ8に蓄積させる。
AVファイルサーバ8は、ROM、CPU、RAM、外部記憶装置、通信装置等を備えるサーバコンピュータから構成され、AVファイルサーバ8は、映像データ及び音声データ等をデータベース化して記憶する。
アプリケーションサーバ5は、ROM、CPU、RAM、外部記憶装置、通信装置等を備えるサーバコンピュータから構成され、各クライアントコンピュータ42〜44に記憶されているクラスタ情報等を用いて各ブースの盛況情報や人間に関する情報等を人間用観測装置1に設けられたヘッドマウントディスプレイに表示して種々の情報を提示する。
アプリケーションサーバ6は、入力装置、ROM、CPU、RAM、外部記憶装置、通信装置及び表示装置等を備えるサーバコンピュータから構成され、データ管理用サーバ45に記憶されているオブジェクトの状態及びイベント等に従い、AVファイルサーバ8に記憶されている映像データ等を用いて見学者の体験履歴を表示するビデオサマリを作成して表示する。
アプリケーションサーバ7は、ROM、CPU、RAM、外部記憶装置、通信装置等を備えるサーバコンピュータから構成され、各クライアントコンピュータ42〜44に記憶されているクラスタ情報及びデータ管理用サーバ45に記憶されているオブジェクトの状態等を用いて、ロボット型観測装置3が見学者等とのインタラクションを積極的に演出するようにロボット型観測装置3の動作を制御する。
図2は、図1に示す赤外線タグ9及び人間用観測装置1の構成を示すブロック図である。人間用観測装置1は、赤外線検出部11、画像撮影部12、赤外線タグ13、マイク部14、生体検出部15及び情報提示部16を備える。人間用観測装置1は、耳かけ式ネックバンド方式ヘッドセットとヘッドマウントディスプレイとが一体にされたヘッドセット一体型ヘッドマウントディスプレイとして構成され、説明員又は見学者の頭部に装着される。赤外線検出部11及び画像撮影部12は直方体形状の筺体に一体に内蔵され、赤外線タグ13は筺体の側面に一体に固定され、マイク部14はユーザの口元付近に配置され、生体検出部15は、説明員又は見学者の指に装着され、情報提示部16は、説明員又は見学者の眼前に配置され、クライアントコンピュータ42は、説明員又は見学者に背負われて使用される。
赤外線タグ9は、LED91及び駆動回路92を備える。LED91は、赤外線LED等から構成され、例えば、光通信用高出力発光ダイオード(スタンレイ社製DN311)等を用いることができ、指向性が弱く且つ可視光に近い800nm程度の赤外LEDを好適に用いることができる。
駆動回路92は、マイクロコンピュータ等から構成され、例えば、Atmel社製4MHz駆動マイコンAT90S2223等を用いることができ、赤外線タグ9が取り付けられた対象物に対して一意的に割り付けられたID番号が識別可能なようにLED91を点滅制御する。なお、LED91及び駆動回路92は、内部電池(図示省略)から電源を供給されている。
具体的には、駆動回路92は、マンチェスタ符号化方式によりエンコードしたID番号(6bit)及びパリティビットと、スタートビット(1bit)及びエンドビット(2bit)とを200Hz周期の点滅により繰り返し送信する。例えば、ID番号62の場合、ID:62→“01100101010101101111”(ここで、スタートビット(01)、ID番号6ビット、パリティビット(偶数10、奇数01)、エンドビット(1111))となる。
赤外線検出部11は、赤外線フィルタ111、レンズ112、CMOSイメージセンサ113及び画像処理装置114を備える。赤外線フィルタ111は、赤外線タグ9のLED91から発光される赤外線のうち主に近赤外線のみ透過させてレンズ112に近赤外線を導く。赤外線フィルタ111としては、例えば、可視光をブロックし、近赤外光をパスするエドモンド社製プラスチックIRパスフィルタを用いることができる。
レンズ112は、赤外線フィルタ111を透過した近赤外線をCMOSイメージセンサ113上に結像させる。レンズ112の画角は90度である。この場合、対面での会話状態等において比較的近距離で広範囲に位置する赤外線タグを容易に検出することができる。
CMOSイメージセンサ113は、レンズ112により結像された近赤外線から構成される近赤外線画像を撮影して画像処理装置114へ出力する。CMOSイメージセンサ113としては、例えば、三菱電機社製人口網膜LSI(M64283FP)等を用いることができ、この場合の解像度は128×128pixelである。
画像処理装置114は、CMOSイメージセンサ113の制御及びデータ処理を行い、CMOSイメージセンサ113に撮影された近赤外線画像から赤外線タグ9を検出し、検出した赤外線タグ9の点滅状態からID番号を検出するとともに、赤外線画像上の赤外線タグ9のXY座標を検出し、ID番号及びXY座標等のデータをRS232C等のデータ伝送規格に従ってクライアントコンピュータ42へ出力する。画像処理装置114としては、例えば、Cygnal社製49MHz駆動マイコンC8051F114を用いることができる。
この場合、CMOSイメージセンサ113を114200Hzのクロックで駆動させ、撮像(シャッター開放)後、1クロック毎に1pixelの明るさがアナログ値でシリアル出力される。このため、全画素撮影時の最短フレームレートは、(シャッタースピード)+(128×128×クロックスピード)となるが、128×128pixelのうち8×8pixelを検出領域に設定して500Hzのシャッタースピードで撮像した場合、400Hzのフレームレートを実現することができ、読み出し速度を高速化することができる。このように、赤外線タグ9の点滅周期(200Hz)の2倍のフレームレート(400Hz)で読み込むため、単一LEDを用いて非同期通信を行うことができる。なお、画角90度のレンズ112を使用したときに2mの距離で1pixelは、2.2cm×2.2cmの範囲に相当する。
画像撮影部12は、レンズ121及びCCDカメラ122を備える。レンズ121は、説明員又は見学者の視線方向に位置する、赤外線タグ9が取り付けられた対象物を含む可視光像をCCDカメラ122上に結像させる。CCDカメラ122は、可視光画像を撮影して映像データをクライアントコンピュータ42へ出力する。レンズ121及びCCDカメラ122としては、例えば、アナログビデオ出力を有するキーエンス社製小型CCDカメラ(水平画角44度)を用いることができる。ここで、レンズ121の光軸は、赤外線検出部11のレンズ112の光軸に合わせられており、説明員又は見学者の視線方向に位置する対象物を識別するだけでなく、当該対象物の画像も同時に撮影することができる。
赤外線タグ13は、LED131及び駆動回路132を備える。赤外線タグ13は、人間用観測装置1に一体に構成され、人間用観測装置1を装着する説明員又は見学者のID番号を送信する点を除き、赤外線タグ9と同様のハードウエアから構成され、同様に動作する。
マイク部14は、音声処理回路141及びスロートマイク142を備える。スロートマイク142は、説明員又は見学者の発話を検出して音声処理回路141へ出力し、音声処理回路141は録音された音声データをクライアントコンピュータ42へ出力する。
生体検出部15は、生体データ処理回路151及び生体センサ152を備え、例えば、人間の脈拍、手の表面の伝導性(発汗)、温度の3個のセンサを備える生体データ記録用モジュール(Procomp+)等から構成される。生体センサ152は、説明員又は見学者の脈拍、発汗状態及び体温を検出し、生体データ処理回路151は、検出された各データの平均値を数秒ごとに計算し、リアルタイムに生体データをAD変換してクライアントコンピュータ42へ送信する。
情報提示部16は、ヘッドマウントディスプレイ161等から構成され、ヘッドマウントディスプレイ161は、アプリケーションサーバ5から無線等により送信された各ブースの盛況情報や人間に関する情報等を表示し、説明員又は見学者に当該情報を提示する。
上記の赤外線検出部11等の各センサ類には、1オブジェクトが装着する単位すなわち人間用観測装置1を装着する人間ごとにまとめて一意のセンサID番号が付与され、センサID番号及び赤外線タグ13のID番号は、人間用観測装置1を装着するオブジェクトを特定するための一意のオブジェクトID番号と関連付けられ、オブジェクトID番号に対してオブジェクトの型が指定される。
したがって、人間用観測装置1が各観測情報とともにオブジェクトID番号をクライアントコンピュータ42へ出力し、クライアントコンピュータ42がクラスタ情報等とともにオブジェクトID番号をデータ管理用サーバ45等へ出力することにより、データ管理用サーバ45等の各装置においてクラスタ情報等がどのオブジェクトのものであるか及びオブジェクトの型を特定できるようにしている。周囲状況観測装置2及びロボット型観測装置3も、この点に関して同様である。
図3は、図1に示す周囲状況観測装置2の構成を示すブロック図である。図3に示す周囲状況観測装置2は、固定検出部21、画像撮影部22及びマイク部23を備える。固定検出部21は、赤外線フィルタ211、レンズ212、CMOSイメージセンサ213及び画像処理装置214を備える。画像撮影部22は、レンズ221及びCCDカメラ222を備える。マイク部23は、音声処理回路231及びマイクロホン232を備える。固定検出部21、画像撮影部22及びマイク部23は、上記の赤外線検出部11、画像撮影部12及びマイク部14と同様に構成され、同様に動作する。但し、周囲状況観測装置2のレンズ212の画角は60度であり、人間用観測装置1のレンズ112の画角より狭く設定され、マイクロホン232には無指向性のマイクロホンを用いている。
この場合、CMOSイメージセンサ213のピクセル当りの集光率が高くなり、遠距離に位置する赤外線タグ9,13を容易に発見することができる。また、説明員又は見学者の頭部に装着された人間用観測装置1だけでなく、説明員及び見学者が位置する空間を構成する構造物に固定された周囲状況観測装置2により、説明員、見学者並びに説明員及び見学者の視線方向の対象物を検出することができるので、異なる視点から説明員及び見学者の周囲の状況を観測することができる。なお、ロボット型観測装置3も、図3に示す周囲状況観測装置2と同様に構成され、同様に動作する。
次に、人間用観測装置1の赤外線タグ検出処理について説明する。この赤外線タグ検出処理は、画像処理装置114が予め記憶されている検出処理プログラムを実行することにより行われる処理であり、周囲状況観測装置2及びロボット型観測装置3でも同様の処理が行われる。
まず、画像処理装置114は、CMOSイメージセンサ113等を初期化し、全画面(128×128pixel)の赤外線画像を撮影する。次に、画像処理装置114は、赤外線画像の中から所定サイズの光点、例えば1pixelの光点を赤外線タグ9(LED91)として抽出し、所定サイズより大きな光点を排除する。このように、赤外線画像の中から所定サイズの光点を検出するという簡便な処理により赤外線タグ9を検出することができるので、画像処理装置114による赤外線タグ検出処理を高速化することができる。
次に、画像処理装置114は、抽出した光点を中心とする8×8pixelの領域を検出領域として決定し、CMOSイメージセンサ113により検出領域を既定回数、例えば、((送信ビット数+スタートビット数+エンドビット数)×2×2)回読み込み、読み込んだ赤外線画像から赤外線タグ9の点滅状態を検出してID番号を検出するとともに、パリティチェックを行い、読み込みデータの判定処理を行う。
このように、赤外線画像から光点を含む検出領域を決定し、この検出領域の赤外線画像のみを用いて赤外線タグ9の点滅状態を検出しているので、処理対象となる赤外線画像を必要最小限に限定することができ、画像処理装置114による赤外線タグ検出処理を高速化することができる。この赤外線タグ検出処理の高速化により、人の動きに充分に追従することができ、動き予測等の演算コストの高い処理を省略することができる。ここで、パリティチェックが正しければ、画像処理装置114は、赤外線タグ9のID番号及びXY座標を出力し、パリティチェックが正しくなければ、検出領域の読み込みを再度行い、上記の赤外線検出処理を検出されたすべての光点に対して行う。
このようにして、赤外線タグ9が取り付けられた対象物に対して一意的に割り付けられたID番号をLED91の点滅により送信し、説明員又は見学者に装着された人間用観測装置1により、説明員又は見学者の視線方向に位置する対象物を含む所定の撮影領域の赤外線画像が撮影され、撮影された赤外線画像を用いて赤外線タグ9のID番号が検出されるので、説明員又は見学者の視線方向に位置する対象物を識別することができる。
図4は、図1に示すクライアントコンピュータ42の構成を示すブロック図である。なお、他のクライアントコンピュータ43,44も、図4に示すクライアントコンピュータ42と同様に構成され、同様に動作するので、詳細な説明は省略する。
図4に示すクライアントコンピュータ42は、通信部411、データ管理部412、ローデータ記憶部413、クラスタ処理部414及びクラスタ記憶部415を備える。通信部411は、無線及び有線の通信インターフェースボード等から構成され、ローデータ記憶部413及びクラスタ記憶部415は、ハードディスクドライブ等の外部記憶装置等から構成され、データ管理部412及びクラスタ処理部414は、CPUが後述する情報管理プログラムを実行することにより実現される。
通信部411は、人間用観測装置1の画像処理装置114、CCDカメラ122及び音声処理回路141、アプリケーションサーバ5並びにデータ管理用サーバ45との間のデータ通信を制御する。通信部411は、画像処理装置114から出力されるID番号及びXY座標及び音声処理回路141から出力される音声データを観測情報としてデータ管理部412へ出力し、CCDカメラ122から出力される映像データ及び音声処理回路141から出力される音声データをデータ管理用サーバ45へ出力する。
データ管理部412は、観測情報の一例である視覚情報として、通信部411から出力されるID番号及びXY座標を取得時間とともにローデータ記憶部413のトラッカーテーブルに記憶させる。また、データ管理部412は、観測情報の一例である聴覚情報として、通信部411から出力される音声データから発話の開始時間及び終了時間を特定し、特定した発話の開始時間及び終了時間をローデータ記憶部413のボイステーブルに記憶させる。なお、ローデータ記憶部413に記憶される観測情報(生データ)は上記の例に特に限定されず、生体検出部15で検出された生体データ等を同様に記憶してもよい。
図5は、図4に示すローデータ記憶部413のトラッカーテーブルのデータ構造を示す図である。ローデータ記憶部413では、図5に示すフィールド構成及びデータタイプのトラッカーテーブルが作成され、「time」に取得時間が、「x」にオブジェクトのX座標値が、「y」にオブジェクトのY座標値が、「tagname」にオブジェクトのID番号がそれぞれ記憶される。これらのデータにより、ID番号がtagnameである赤外線タグが時間timeに座標(x,y)において捕らえられたことがわかる。
図6は、図4に示すローデータ記憶部413のボイステーブルのデータ構造を示す図である。ローデータ記憶部413では、図6に示すフィールド構成及びデータタイプのボイステーブルが作成され、「time」に会話の開始時間又は終了時間が記憶され、開始時間が記憶された場合は「status」に「TURN_ON」が設定され、終了時間が記憶された場合は「status」に「TURN_OFF」が設定される。これらのデータにより、会話の開始時間及び終了時間がわかる。
クラスタ処理部414は、ローデータ記憶部413のトラッカーテーブル及びボイステーブルから視覚情報及び聴覚情報の取得時間を読み出し、オブジェクトごとに取得間隔が予め設定されている最大間隔以下の視覚情報及び聴覚情報をクラスタリングして視覚クラスタ情報及び聴覚クラスタ情報を作成し、作成した視覚クラスタ情報及び聴覚クラスタ情報をクラスタ記憶部415のルックテーブル及びトークテーブルに記憶させる。
図7は、図4に示すクラスタ記憶部415のルックテーブルのデータ構造を示す図である。クラスタ記憶部415では、図7に示すフィールド構成及びデータタイプのルックテーブルが作成され、「start」に視覚クラスタ情報を構成する複数の視覚情報のうち最初の視覚情報の取得時間が、「end」に最後の視覚情報の取得時間が、「id」にオブジェクトのID番号がそれぞれ記憶される。これらのデータにより、いつから(start)いつまで(end)何(id)を捕らえていたかがわかる。
また、ルックテーブルには、アプリケーションサーバ5等の要求を満たすために視覚クラスタ情報の抽出終了を表す終了情報の格納領域が設けられ、「finalize」に“1”(真)又は“0”(偽)の終了情報が格納される。すなわち、クラスタ処理部414は、人間用観測装置1が赤外線タグを捕らえ始めたとき、その時間を「start」に格納するとともに、赤外線タグのID番号を「id」に格納し、その区間が続いている間は、「finalize」を“0”(偽)に設定する。その後、クラスタ処理部414は、現在の時間と人間用観測装置1から視覚情報が得られた時間との差が最大間隔以上になった場合、その区間が終了したものと判断して「finalize」を“1”(真)に設定し、その時間を「end」に格納する。したがって、アプリケーションサーバ5等では、「finalize」の値が“0”(偽)である間は、人間用観測装置1が赤外線タグを捕らえていると判断することができる。
図8は、図4に示すクラスタ記憶部415のトークテーブルのデータ構造を示す図である。クラスタ記憶部415では、図8に示すフィールド構成及びデータタイプのトークテーブルが作成され、「start」に聴覚クラスタ情報を構成する複数の聴覚情報のうち最初の聴覚情報の開始時間が、「end」に最後の聴覚情報の終了時間がそれぞれ記憶され、上記と同様に、「finalize」に聴覚クラスタ情報の抽出終了を表す終了情報として“1”(真)又は“0”(偽)が格納される。すなわち、クラスタ処理部414は、ボイステーブルの「status」に“TURN_ON”が格納されると、その時間を「start」に格納するとともに、その区間が続いている間は、「finalize」を“0”(偽)に設定する。その後、ボイステーブルの「status」に“TURN_OFF”が格納されると、クラスタ処理部414は、その区間が終了したものと判断して「finalize」を“1”(真)に設定し、その時間を「end」に格納する。したがって、アプリケーションサーバ5等では、「finalize」の値が“0”(偽)である間は、発話が行われていると判断することができる。
本実施の形態では、人間用観測装置1の視覚情報の最小取得間隔は100msec、聴覚情報の最小取得間隔は3secであるため、上記のクラスタリングに使用される最大間隔として20秒を用いているが、この例に特に限定されず、他の時間間隔を用いたり、視覚情報と聴覚情報とで異なる最大間隔を用いる等の種々の変更が可能である。
なお、クラスタ記憶部415では、ローデータ記憶部413と同様に人間用観測装置1等が観測情報を取得すると即座にデータ更新が行われるが、ルックテーブルのクラスタリングが終了するのは実際の時間より最大間隔だけ後になるため、「finalize」が真に設定されるまでには最大間隔だけの遅延が生じる。
また、データ管理部412は、ローデータ記憶部413及びクラスタ記憶部415に記憶されている観測情報及びクラスタ情報を読み出し、通信部411を用いてアプリケーションサーバ5及びデータ管理用サーバ45へ出力する。
図9は、図1に示すデータ管理用サーバ45の構成を示すブロック図である。図9に示すデータ管理用サーバ45は、通信部451、データ管理部452、インタラクション処理部453、インタラクション記憶部454、イベント処理部455及びイベント記憶部456を備える。通信部451は、無線及び有線の通信インターフェースボード等から構成され、インタラクション記憶部454及びイベント記憶部456は、ハードディスクドライブ等の外部記憶装置等から構成され、データ管理部452、インタラクション処理部453及びイベント処理部455は、CPUが後述する情報管理プログラムを実行することにより実現される。
通信部451は、クライアントコンピュータ42〜44、アプリケーションサーバ6,7及びAVファイルサーバ8との間のデータ通信を制御する。通信部451は、クライアントコンピュータ42〜44から出力されるクラスタ情報をデータ管理部452へ出力し、クライアントコンピュータ42〜44から出力される映像データ及び音声データをAVファイルサーバ8へ出力する。
データ管理部452は、通信部451から出力されるクラスタ情報をインタラクション処理部453へ出力する。インタラクション処理部453は、クラスタ情報を基に決定木に従ってオブジェクトの状態を推定し、推定したオブジェクトの状態をインタラクション情報としてインタラクション記憶部454に記憶させる。ここで、各クラスタ情報は、オブジェクトが他の一つのオブジェクトを捕らえていることを示すものであり、インタラクション処理部453は、オブジェクトの型を考慮した決定木を用いて2つのオブジェクト間のインタラクションを推定し、推定した2つのオブジェクト間のインタラクションをオブジェクトの状態としてインタラクション記憶部454のステータステーブルに格納する。
図10は、図9に示すインタラクション記憶部454のステータステーブルのデータ構造を示す図である。インタラクション記憶部454では、図10に示すフィールド構成及びデータタイプのステータステーブルがオブジェクトごとに作成され、「status」に2つのオブジェクト間のインタラクションが、「start」にその開始時間が、「end」にその終了時間が、「id」にインタラクションの対象となるオブジェクトのID番号がそれぞれ記憶される。これらのデータにより、いつから(start)いつまで(end)何(id)に対してとのような状態(status)であったかがわかる。
また、インタラクション処理部453は、クラスタ記憶部415に記憶されているクラスタ情報のうち最小継続時間以上継続しているクラスタ情報のみを用いて2つのオブジェクト間のインタラクションを推定する。図11は、クラスタ情報のうち最小継続時間以上継続しているクラスタ情報のみを抽出する処理を模式的に説明する図である。
図11の(a)に示すように、観測情報RDが図示の時間間隔で得られた場合、クラスタ処理部414では、最大間隔T1以下の観測情報をクラスタリングするため、クラスタ記憶部415には6個のクラスタ情報C1〜C6が記憶される。このとき、図11の(b)に示すように、インタラクション処理部453は、クラスタ情報C1〜C6のうち最小継続時間T2以上継続している2個のクラスタ情報C1,C4のみを抽出し、2個のクラスタ情報C1,C4のみを用いて2つのオブジェクト間のインタラクションを推定する。したがって、「finalize」が真となったクラスタ情報のうち、最小継続時間より短いクラスタ情報を意味のないものとして排除することができる。
図12は、図9に示すインタラクション処理部453において用いられる決定木の一例を示す図である。図12に示すように、インタラクション処理部453は、クラスタ情報を有するオブジェクトの型すなわち自分の型が「HUMAN」、「UBIQ」及び「ROBOT」のいずれであるかをオブジェクトのID番号により判断する。
自分の型が「UBIQ」の場合、インタラクション処理部453は、クラスタ情報により特定されるインタラクションの対象となるオブジェクトすなわち相手の型が「HUMAN」及び「ROBOT」のいずれであるかを視覚クラスタ情報の「id」により判断する。インタラクション処理部453は、相手の型が「HUMAN」の場合、自分の「status」に自分が相手を捕らえていることを表す「CAPTURE」を格納するとともに、相手の「status」に相手から自分が捕らえられていることを表す「CAPTURED」を格納する。相手の型が「ROBOT」の場合も同様である。
自分の型が「HUMAN」の場合、インタラクション処理部453は、相手の型が「HUMAN」、「UBIQ」及び「ROBOT」のいずれであるかを判断する。相手の型が「UBIQ」の場合、インタラクション処理部453は、自分の「status」に自分が相手を見ていることを表す「LOOK AT」を格納するとともに、相手の「status」に相手から自分が見られていることを表す「LOOKED AT」を格納する。
相手の型が「HUMAN」の場合、インタラクション処理部453は、お互いを捕らえているか否かを判断する。お互いを捕らえている場合、インタラクション処理部453は、自分が発話しているか否かを判断し、発話している場合は自分の「status」に自分が相手に話し掛けていることを表す「TALK WITH」を格納し、発話していない場合は自分の「status」にお互いを捕らえていることを表す「LOOK TOGETHER」を格納する。ここで、相手の状態を判断していないのは、相手の決定木でも自らの状態の判定が行われるため、ここでの書き込みが不要だからである。他の判断も、上記と同様にして行われる。
なお、インタラクション記憶部454では、クラスタ記憶部415に対して「finalize」が真となると即座にデータ更新が行われ、データ更新は実際の時間より最大間隔だけ遅延が生じる。
イベント処理部455は、インタラクション記憶部454に記憶されているオブジェクトの状態を基にオブジェクト間のイベントを抽出し、抽出したイベントをイベント記憶部456に記憶させる。すなわち、イベント処理部455は、複数オブジェクトの状態に関して時間及び空間の重なりを調べ、予め決定した所定の規則を用いてそれらの区間に意味を与えることで3つ以上のオブジェクト間のインタラクションをイベントとして抽出し、イベント記憶部456のイベントネームテーブル及びイベントテーブルに格納する。
図13は、図9に示すイベント記憶部456のイベントネームテーブルのデータ構造を示す図である。イベント記憶部456では、図13に示すフィールド構成及びデータタイプのイベントネームテーブルが作成される。イベントネームテーブルは、発生したイベントの一覧であり、一つのみ作成される。各イベントには一意のイベントID番号が割り付けられ、イベントID番号が「eventid」に、イベントの名前が「name」に、その時間帯の開示時間が「start」に、終了時間が「end」にそれぞれ格納される。
図14は、図9に示すイベント記憶部456のイベントテーブルのデータ構造を示す図である。イベント記憶部456では、図14に示すフィールド構成及びデータタイプのイベントテーブルがオブジェクトごとに作成され、オブジェクトが参加したイベントのイベントID番号が「eventid」に、イベントの開示時間が「start」に、終了時間が「end」にそれぞれ格納される。これらのデータにより、オブジェクトがどのイベント(eventid)にいつから(start)いつまで(end)参加したかがわかる。また、上記のようにイベントネームテーブル及びイベントテーブルの二つのテーブルを用いることにより、イベントに参加するオブジェクトの数が変化する場合に対処することができる。
図15は、図9に示すイベント処理部455において抽出されるイベントの例を示す模式図である。図15の(a)はイベント「TOGETHER WITH」を、(b)はイベント「LOOK SAME OBJECT」、「TALK ABOUT」を、(c)はイベント「CO−LOOK」を、(d)はイベント「GROUP DISCUSSION」をそれぞれ示している。
まず、周囲状況観測装置2が複数の人間A,Bを捕らえている場合、人間が同じ場所に共存していることがわかるため、イベント処理部455は、このイベントをイベント「TOGETHER WITH」と判断する。この場合、ある時点で近くにいた人物がわかる。
上記の状態で、一緒にいた人間A,Bがそれぞれその区間内において周囲状況観測装置2が取り付けられた展示物の赤外線タグ9を見ていた場合、イベント処理部455は、発話していないときは、一緒に展示物を見ていることを表すイベント「LOOK SAME OBJECT」であると判断し、発話しているときは、その展示物についての話をしていることを表すイベント「TALK ABOUT」であると判断する。これは、人間は会話をするときにお互いを見ているとは限らず、この場合のように展示物を見ながらそれについて話すことが多いからである。
また、一緒にいた人間A,Bがそれぞれその区間内において周囲状況観測装置2が取り付けられた展示物の赤外線タグ9を見ているが、周囲状況観測装置2が人間A,Bを捕らえていない場合、イベント処理部455は、一緒に見ていることを単に表すイベント「CO−LOOK」であると判断する。
さらに、人間がある期間内に話している他の人間を特定することにより、イベント処理部455は、複数の人間が会話を行っていることを表すイベント「GROUP DISCUSSION」を抽出する。
ここで、イベント処理部455がイベント「GROUP DISCUSSION」を抽出する処理について詳細に説明する。図16は、図9に示すインタラクション記憶部454のステータステーブルの一例を示す図である。図16に示す例は、5つのオブジェクト1〜5があり、オブジェクト1〜4の型が「HUMAN」、オブジェクト5の型が「UBIQ」であり、図16の(a)はオブジェクト1のステータステーブル、(b)はオブジェクト2のステータステーブル、(c)はオブジェクト3のステータステーブル、(d)はオブジェクト4のステータステーブルをそれぞれ示している。
まず、イベント処理部455は、イベントの時間「start」、「end」及びイベントの参加者リスト「list」を用意し、「list」を初期化する。次に、イベント処理部455は、インタラクション記憶部454のオブジェクト1のステータステーブル(図16の(a))を調べ、オブジェクト2と話したというデータを見つける。その継続時間(この場合、450−240=210(sec))が所定時間より充分長ければ、「start」及び「end」に240,450を設定し、「list」にオブジェクト1,2を追加する。さらに、イベント処理部455は、前後のデータを参照して同じ人間と話したデータを検索する。ここでは、700〜780(sec)までオブジェクト2と話したというデータが存在するため、イベント処理部455は、このデータとイベントとの間隔(この場合、700−450=250(sec))が所定間隔より小さければ同じイベントとみなし、「start」及び「end」を更新し、「start」及び「end」は240,780となる。
さらに、この区間に他の人間と話したデータがあれば、イベント処理部455は、「start」から「end」までの時間の重なりを調べ、これが所定時間より充分に大きければ、このオブジェクトもイベントの参加者であるとみなして「list」に追加し、「start」及び「end」を更新する。この結果、「start」=240、「end」=780、「list」=〔1,2,3〕となる。
次に、イベント処理部455は、オブジェクト1が見ていた人間(オブジェクト2,3)のステータステーブル(図16の(b)、(c))を調べる。まず、イベント処理部455は、オブジェクト2のステータステーブルを参照して「start」から「end」までの区間に近いデータのうち「status」が「TALK TO」であるデータを取り出し、その継続時間が所定時間より充分長ければ、「start」及び「end」を更新し、そのデータのオブジェクトが「list」に含まれていない場合は追加する。ここでは、「start」及び「end」が更新され、「start」及び「end」は120,780となり、「list」は変更されない。
上記と同様に、オブジェクト3のステータステーブルが処理され、オブジェクト4が追加され、「list」=〔1,2,3,4〕となる。次に、オブジェクト4のステータステーブルが調べられ、この場合、更新されるデータがないため、処理が終了される。
上記の処理が終了した後、イベント処理部455は、「list」の大きさが3以上になった場合(3人以上の人間が会話を行っている場合)、イベント「GROUP DISCUSSION」を発生させる。この結果、「start」=120から「end」=780までの区間においてオブジェクト1〜4がイベント「GROUP DISCUSSION」に参加したことがわかる。
他のイベントに関しても、上記と同様に処理が行われ、例えば、イベント「TOGETHER WITH」については、人間であるオブジェクトのステータステーブルのうち「status」が「CAPTURED」であるデータを検索してその近くにあるデータを統合し、その人間を捕らえた周囲状況観測装置2のステータステーブルを調べて同じ区間内に重複して捕らえられた人間が複数いれば、イベント「TOGETHER WITH」を発生させる。
なお、イベント処理部455が抽出するイベントは、上記の例に特に限定されず、他のイベントを抽出するようにしてもよい。また、イベント記憶部456では、インタラクション情報がインタラクション記憶部454にある程度蓄積されなければ、イベントを抽出できないため、ある程度の時間の遅延が生じる。
また、データ管理部452は、インタラクション記憶部454及びイベント記憶部456に記憶されているインタラクション情報及びイベント情報を読み出し、通信部451を用いてアプリケーションサーバ6,7へ出力する。
図17は、図1に示す情報管理装置4において構築されるデータベースの階層構造を示す模式図である。上記の構成により、情報管理装置4において、観測情報を記憶するローデータ層が各クライアントコンピュータ42〜44のローデータ記憶部413から構成され、観測情報より抽象度の高いクラスタ情報を記憶するクラスタ層がクラスタ記憶部415から構成され、クラスタ情報より抽象度の高いインタラクション情報を記憶するインタラクション層がデータ管理用サーバ45のインタラクション記憶部454から構成され、インタラクション情報より抽象度の高いイベント情報を記憶するイベント層がイベント記憶部456から構成される。このように、情報管理部4では、記憶される情報の抽象度に応じて各情報が階層的に管理される。
本実施の形態では、人間用観測装置1、周囲状況観測装置2及びロボット型観測装置3が観測手段及び対象物検出手段の一例に相当し、人間用観測装置1が発話検出手段の一例に相当し、ローデータ記憶部413が第1の記憶手段の一例に相当し、データ管理部412が第1の管理手段の一例に相当し、クラスタデータ記憶部415が第2の記憶手段の一例に相当し、データ管理部412及びクラスタ処理部414が第2の管理手段の一例に相当し、インタラクション記憶部454が第3の記憶手段の一例に相当し、データ管理部452及びインタラクション処理部453が第3の管理手段の一例に相当し、イベント記憶部456が第4の記憶手段の一例に相当し、データ管理部452及びイベント処理部455が第4の管理手段の一例に相当する。
次に、上記のように構成された情報管理システムの情報管理装置4による情報管理処理について説明する。図18は、図1に示す情報管理装置4の情報管理処理を説明するためのフローチャートである。なお、図18に示す情報管理処理は、クライアントコンピュータ42〜44及びデータ管理用サーバ45が予め記憶されている情報管理プログラムを実行することにより行われる処理である。
まず、ステップS11において、クライアントコンピュータ42〜44のデータ管理部412は、観測情報として、画像処理装置114から出力されるID番号及びXY座標及び音声処理回路141から出力される音声データを、通信部411を介して取得する。
次に、ステップS12において、データ管理部412は、観測情報として、ID番号及びXY座標を取得時間とともにローデータ記憶部413のトラッカーテーブルに記憶させ、音声データから発話の開始時間及び終了時間を特定し、特定した発話の開始時間及び終了時間をローデータ記憶部413のボイステーブルに記憶させる。
次に、ステップS13において、クラスタ処理部414は、ローデータ記憶部413のトラッカーテーブル等から取得時間を読み出し、オブジェクトごとに取得間隔が最大間隔以下の観測情報をクラスタリングしてクラスタ情報を作成し、作成したクラスタ情報をクラスタ記憶部415のルックテーブル及びトークテーブルに記憶させる。
次に、ステップS14において、クラスタ処理部414は、クラスタ区間が確定したか否かすなわち現在の時間と人間用観測装置1等から視覚情報が得られた時間との差が最大間隔以上になったか否かを判断し、クラスタ区間が確定していない場合はステップS11以降の処理を繰り返し、クラスタ区間が確定した場合はステップS15へ処理を移行する。
クラスタ区間が確定した場、ステップS15において、クラスタ処理部414は、ルックテーブルの「finalize」を“1”(真)に設定し、その時間を「end」に格納してクラスタ情報をファイナライズする。
次に、ステップS16において、データ管理用サーバ45のデータ管理部452は、通信部451及び通信部411を介してデータ管理部412に対してクラスタ記憶部415のクラスタ情報を送信するように要求し、送信されたクラスタ情報をインタラクション処理部453へ出力する。インタラクション処理部453は、図12に示す決定木に従ってクラスタ情報から2つのオブジェクト間のインタラクションを推定する。
次に、ステップS17において、インタラクション処理部453は、推定した2つのオブジェクト間のインタラクションをインタラクション情報としてインタラクション記憶部454のステータステーブルに記憶する。
次に、ステップS18において、イベント処理部455は、インタラクション記憶部454に記憶されている2つのオブジェクト間のインタラクションに関して時間及び空間の重なりを調べてイベントを順次抽出し、抽出したイベントが確定したか否かすなわちイベントとして予め設定されている抽出条件を満たすか否かを判断し、イベントが確定していない場合はステップS11以降の処理を繰り返し、イベントが確定した場合はステップS19へ処理を移行する。
イベントが確定した場合、ステップS19において、イベント処理部455は、確定したイベントをイベント記憶部456のイベントネームテーブル及びイベントテーブルに記憶し、その後、ステップS11以降の処理を継続する。
上記の処理により、情報の抽象度に応じて各情報が階層的に記憶されるので、アプリケーションの特徴に応じてアクセスする階層を選択することができ、即時性の高い情報を用いるアプリケーションに対して下位の記憶手段から即時性の高い情報を提供することができるとともに、抽象性の高い情報を用いるアプリケーションに対して上位の記憶手段から抽象性の高い情報を提供することができ、種々のアプリケーションに対して適切な情報を適切なタイミングで提供することができる。
例えば、アプリケーションサーバ5は、各クライアントコンピュータ42〜44のクラスタ記憶部415にアクセスしてクラスタ情報を読み出し、「finalize」が“0”(偽)のデータを有する人間のヘッドマウントディスプレイ161に各ブースの盛況情報や人に関する情報等を時間的な遅延なしに表示して提示することができる。
また、アプリケーションサーバ6は、データ管理用サーバ45のイベント記憶部456にアクセスしてイベント情報を読み出し、このイベント情報を用いてAVファイルサーバ8に記憶されている映像データ等にインデキシングを行うとともに、インタラクション記憶部454にアクセスしてインタラクション情報を参照して各見学者のビデオサマリを作成することができ、抽象度の高いインデキシングを行うことができる。このビデオサマリは、例えば、ある見学者のために集められた各イベントのサムネイル画像を時間順に並べて表示し、各サムネイル画像をクリックすると対応するイベントのビデオクリップが表示されるものである。
さらに、アプリケーションサーバ7は、各クライアントコンピュータ42〜44のクラスタ記憶部415にアクセスしてクラスタ情報を読み出し、「finalize」が“0”(偽)のデータを有する人間を時間的な遅延なしに抽出するとともに、データ管理用サーバ45のインタラクション記憶部454にアクセスして、抽出した人間のインタラクション情報を読み出してこれまでの行動履歴を取得し、この行動履歴等に基づいてロボット型観測装置3が人間とのインタラクションを積極的に演出するようにロボット型観測装置3の動作を制御することができる。
また、本実施の形態では、ローデータ記憶部413及びクラスタ記憶部415を各クライアントコンピュータ42〜44に実装して観測情報及びクラスタ情報に関する処理を各クライアントコンピュータ42〜44で実行し、インタラクション記憶部454及びイベント記憶部456をデータ管理用サーバ45に実装してインタラクション情報及びイベント情報に関する処理をデータ管理用サーバ45で実行しているので、データ管理用サーバ45の負荷を軽減することができるとともに、情報管理装置4へのアクセスに伴うネットワークのトラフィック量を低減することができる。
なお、上記の説明では、観測情報及びクラスタ情報に関する処理とインタラクション情報及びイベント情報に関する処理とを分散して実行しているが、この例に特に限定されず、一つのコンピュータで全ての処理を実行したり、各情報ごとに異なるコンピュータで実行する等の種々の変更が可能である。
本発明の一実施の形態による情報管理装置を用いた情報管理システムの構成を示すブロック図である。 図1に示す赤外線タグ及び人間用観測装置の構成を示すブロック図である。 図1に示す周囲状況観測装置の構成を示すブロック図である。 図1に示すクライアントコンピュータの構成を示すブロック図である。 図4に示すローデータ記憶部のトラッカーテーブルのデータ構造を示す図である。 図4に示すローデータ記憶部のボイステーブルのデータ構造を示す図である。 図4に示すクラスタ記憶部のルックテーブルのデータ構造を示す図である。 図4に示すクラスタ記憶部のトークテーブルのデータ構造を示す図である。 図1に示すデータ管理用サーバの構成を示すブロック図である。 図9に示すインタラクション記憶部のステータステーブルのデータ構造を示す図である。 クラスタ情報のうち最小継続時間以上継続しているクラスタ情報のみを抽出する処理を模式的に説明する図である。 図9に示すインタラクション処理部において用いられる決定木の一例を示す図である。 図9に示すイベント記憶部のイベントネームテーブルのデータ構造を示す図である。 図9に示すイベント記憶部のイベントテーブルのデータ構造を示す図である。 図9に示すイベント処理部において抽出されるイベントの例を示す模式図である。 図9に示すインタラクション記憶部のステータステーブルの一例を示す図である。 図1に示す情報管理装置において構築されるデータベースの階層構造を示す模式図である。 図1に示す情報管理装置の情報管理処理を説明するためのフローチャートである。
符号の説明
1 人間用観測装置
2 周囲状況観測装置
3 ロボット型観測装置
4 情報管理装置
5〜7 アプリケーションサーバ
8 AVファイルサーバ
9 赤外線タグ
41 クライアントコンピュータ部
42〜44 クライアントコンピュータ
45 データ管理用サーバ
411 通信部
412 データ管理部
413 ローデータ記憶部
414 クラスタ処理部
415 クラスタ記憶部
451 通信部
452 データ管理部
453 インタラクション処理部
454 インタラクション記憶部
455 イベント処理部
456 イベント記憶部

Claims (8)

  1. イベントに参加する人間を含む複数のオブジェクトに関する情報を管理する情報管理装置であって、
    オブジェクトの視界内に位置する他のオブジェクトを検出する対象物検出手段により検出されたオブジェクトを識別するための識別情報と、当該オブジェクトの位置を特定するための位置情報と、当該位置情報が検出された時刻を特定するための時間情報とを関連付けて視覚情報としてオブジェクトごとに第1の記憶手段に記憶する第1の管理手段と、
    前記第1の記憶手段に記憶されている視覚情報のうち時間情報の取得時刻の間隔が所定の最大間隔以下の複数の視覚情報を、オブジェクトが他のオブジェクトを視覚的に捕らえていることを示す、一つの視覚クラスタ情報としてオブジェクトごとに抽出し、抽出した視覚クラスタ情報の最初の時間情報及び最後の時間情報を当該視覚クラスタ情報の開始時間情報及び終了時間情報として識別情報とともにオブジェクトごとに第2の記憶手段に記憶する第2の管理手段と、
    前記第2の記憶手段に記憶されている視覚クラスタ情報をオブジェクトごとに読み出して当該オブジェクトの視界内に位置する他のオブジェクトを特定し、特定した他のオブジェクトの視覚クラスタ情報を読み出して他のオブジェクトの視界内に当該オブジェクトが位置するか否かを基準に人間を含む2つのオブジェクト間の視認状態を特定するための決定木に従って2つのオブジェクト間の視認状態を推定し、推定した視認状態をオブジェクトごとにインタラクション情報として第3の記憶手段に記憶する第3の管理手段と
    前記第3の記憶手段に記憶されている視認状態を基に2人以上の人間を含む3つ以上のオブジェクト間のインタラクションを抽出し、抽出した3つ以上のオブジェクト間のインタラクションを前記インタラクション情報より抽象度の高いイベント情報として前記第4の記憶手段に記憶する第4の管理手段とを備えることを特徴とする情報管理装置。
  2. 前記第2の管理手段は、前記視覚クラスタ情報を抽出する際、前記第2の記憶手段に対して、取得時刻の間隔前記最大間隔以下の2つの視覚情報がある場合に視覚クラスタ情報の記録を開始し、後続の2つの視覚情報の取得時刻の間隔前記最大間隔を越える場合に当該視覚クラスタ情報の終了を表す終了時間情報を記録して当該視覚クラスタ情報の記録を終了することを特徴とする請求項1記載の情報管理装置。
  3. 前記第3の管理手段は、前記第2の記憶手段に記憶されている視覚クラスタ情報のうち当該視覚クラスタ情報の開始時間情報及び終了時間情報により特定される期間が所定の最小継続期間以上となる視覚クラスタ情報を基に前記決定木に従って2つのオブジェクト間の視認状態を推定し、推定した視認状態をオブジェクトごとにインタラクション情報として前記第3の記憶手段に記憶することを特徴とする請求項1又は2記載の情報管理装置。
  4. 前記オブジェクトは、互いに異なる複数種類のオブジェクトを含み、
    前記第3の管理手段は、オブジェクトの種類に応じて予め決定された決定木に従って2つのオブジェクト間の視認状態を推定し、推定した視認状態をオブジェクトごとにインタラクション情報として前記第3の記憶手段に記憶することを特徴とする請求項1〜3のいずれかに記載の情報管理装置。
  5. 前記第1及び第2の管理手段は、クライアントコンピュータから構成され、
    前記第3及び第4の管理手段は、前記クライアントコンピュータと通信可能に接続されたサーバコンピュータから構成されることを特徴とする請求項1〜4のいずれかに記載の情報管理装置。
  6. 記第1の管理手段は、さらに、前記対象物検出手段を装着した人間の発話を検出する発話検出手段により検出された発話の開始時刻及び終了時刻を特定するための発話情報を聴覚情報としてオブジェクトごとに前記第1の記憶手段に記憶し、
    前記第2の管理手段は、さらに、前記第1の記憶手段に記憶されている聴覚情報のうち発話情報の終了時刻と後続の発話情報の開始時刻との間の間隔が前記最大間隔以下の聴覚情報を一つの聴覚クラスタ情報としてオブジェクトごとに抽出し、抽出した聴覚情報の最初の開始時刻及び最後の終了時刻を当該聴覚クラスタ情報の開始時間情報及び終了時間情報としてオブジェクトごとに前記第2の記憶手段に記憶し、
    前記第3の管理手段は、さらに、前記第2の記憶手段に記憶されている聴覚クラスタ情報をオブジェクトごとに読み出して当該オブジェクトが発話しているか否かを基準に、人間を含む2つのオブジェクト間の会話状態を推定し、推定した会話状態をオブジェクトごとにインタラクション情報として前記第3の記憶手段に記憶し、
    前記第4の管理手段は、前記第3の記憶手段に記憶されている視認状態及び会話状態を基に2人以上の人間を含む3つ以上のオブジェクト間のインタラクションを抽出し、抽出した3つ以上のオブジェクト間のインタラクションをイベント情報として前記第4の記憶手段に記憶することを特徴とする請求項1〜5のいずれかに記載の情報管理装置。
  7. オブジェクトの視界内に位置する他のオブジェクトを検出する対象物検出手段により検出されたオブジェクトを識別するための識別情報と、当該オブジェクトの位置を特定するための位置情報と、当該位置情報が検出された時刻を特定するための時間情報とを関連付けて視覚情報としてオブジェクトごとに第1の記憶手段に記憶する第1の管理手段と、前記第1の記憶手段に記憶されている視覚情報から視覚クラスタ情報を抽出する第2の管理手段と、前記第2の管理手段によって抽出された視覚クラスタ情報からインタラクション情報を抽出する第3の管理手段と、前記第3の管理手段によって抽出されたインタラクション情報からイベント情報を抽出する第4の管理手段とを備え、イベントに参加する人間を含む複数のオブジェクトに関する情報を管理する情報管理装置における情報管理方法であって
    第2の管理手段が、前記第1の管理手段によって前記第1の記憶手段に記憶された視覚情報のうち時間情報の取得時刻の間隔が所定の最大間隔以下の複数の視覚情報を、オブジェクトが他のオブジェクトを視覚的に捕らえていることを示す、一つの視覚クラスタ情報としてオブジェクトごとに抽出し、抽出した視覚クラスタ情報の最初の時間情報及び最後の時間情報を当該視覚クラスタ情報の開始時間情報及び終了時間情報として識別情報とともにオブジェクトごとに第2の記憶手段に記憶するステップと、
    前記第3の管理手段が、前記第2の管理手段によって前記第2の記憶手段に記憶された視覚クラスタ情報をオブジェクトごとに読み出して当該オブジェクトの視界内に位置する他のオブジェクトを特定し、特定した他のオブジェクトの視覚クラスタ情報を読み出して他のオブジェクトの視界内に当該オブジェクトが位置するか否かを基準に人間を含む2つのオブジェクト間の視認状態を特定するための決定木に従って2つのオブジェクト間の視認状態を推定し、推定した視認状態をオブジェクトごとにインタラクション情報として第3の記憶手段に記憶するステップと
    前記第4の管理手段が、前記第3の管理手段によって前記第3の記憶手段に記憶された視認状態を基に2人以上の人間を含む3つ以上のオブジェクト間のインタラクションを抽出し、抽出した3つ以上のオブジェクト間のインタラクションを前記インタラクション情報より抽象度の高いイベント情報として前記第4の記憶手段に記憶するステップとを含むことを特徴とする情報管理方法。
  8. イベントに参加する人間を含む複数のオブジェクトに関する情報を管理するための情報管理プログラムであって、
    オブジェクトの視界内に位置する他のオブジェクトを検出する対象物検出手段により検出されたオブジェクトを識別するための識別情報と、当該オブジェクトの位置を特定するための位置情報と、当該位置情報が検出された時刻を特定するための時間情報とを関連付けて視覚情報としてオブジェクトごとに第1の記憶手段に記憶する第1の管理手段と、
    前記第1の記憶手段に記憶されている視覚情報のうち時間情報の取得時刻の間隔が所定の最大間隔以下の複数の視覚情報を、オブジェクトが他のオブジェクトを視覚的に捕らえていることを示す、一つの視覚クラスタ情報としてオブジェクトごとに抽出し、抽出した視覚クラスタ情報の最初の時間情報及び最後の時間情報を当該視覚クラスタ情報の開始時間情報及び終了時間情報として識別情報とともにオブジェクトごとに第2の記憶手段に記憶する第2の管理手段と、
    前記第2の記憶手段に記憶されている視覚クラスタ情報をオブジェクトごとに読み出して当該オブジェクトの視界内に位置する他のオブジェクトを特定し、特定した他のオブジェクトの視覚クラスタ情報を読み出して他のオブジェクトの視界内に当該オブジェクトが位置するか否かを基準に人間を含む2つのオブジェクト間の視認状態を特定するための決定木に従って2つのオブジェクト間の視認状態を推定し、推定した視認状態をオブジェクトごとにインタラクション情報として第3の記憶手段に記憶する第3の管理手段と
    前記第3の記憶手段に記憶されている視認状態を基に2人以上の人間を含む3つ以上のオブジェクト間のインタラクションを抽出し、抽出した3つ以上のオブジェクト間のインタラクションを前記インタラクション情報より抽象度の高いイベント情報として前記第4の記憶手段に記憶する第4の管理手段としてコンピュータを機能させることを特徴とする情報管理プログラム。
JP2003370462A 2003-10-30 2003-10-30 情報管理装置、情報管理方法及び情報管理プログラム Expired - Fee Related JP4012872B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003370462A JP4012872B2 (ja) 2003-10-30 2003-10-30 情報管理装置、情報管理方法及び情報管理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003370462A JP4012872B2 (ja) 2003-10-30 2003-10-30 情報管理装置、情報管理方法及び情報管理プログラム

Publications (2)

Publication Number Publication Date
JP2005136693A JP2005136693A (ja) 2005-05-26
JP4012872B2 true JP4012872B2 (ja) 2007-11-21

Family

ID=34647469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003370462A Expired - Fee Related JP4012872B2 (ja) 2003-10-30 2003-10-30 情報管理装置、情報管理方法及び情報管理プログラム

Country Status (1)

Country Link
JP (1) JP4012872B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4905651B2 (ja) * 2006-03-16 2012-03-28 株式会社国際電気通信基礎技術研究所 情報分析装置、情報分析方法及び情報分析プログラム
JP2019191751A (ja) 2018-04-20 2019-10-31 オリンパス株式会社 周辺機器、通信システム、中央制御機器、通信方法及び通信プログラム

Also Published As

Publication number Publication date
JP2005136693A (ja) 2005-05-26

Similar Documents

Publication Publication Date Title
US9390561B2 (en) Personal holographic billboard
US9536350B2 (en) Touch and social cues as inputs into a computer
US20130177296A1 (en) Generating metadata for user experiences
KR20210047373A (ko) 이미지를 분석하기 위한 웨어러블기기 및 방법
WO2003025859A1 (fr) Dispositif d'interface
JPWO2015186447A1 (ja) 情報処理装置、撮影装置、画像共有システム、情報処理方法およびプログラム
JP7375770B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2020057111A (ja) 表情判定システム、プログラム及び表情判定方法
JP2005131713A (ja) コミュニケーションロボット
Abbas et al. A hybrid alert system for deaf people using context-aware computing and image processing
JP7416903B2 (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
US20110176025A1 (en) Video information processing apparatus, video information processing method, and computer-readable storage medium
Jayagopi et al. The vernissage corpus: A multimodal human-robot-interaction dataset
JP4095537B2 (ja) 体験表示装置、体験表示方法及び体験表示プログラム
WO2019044135A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP4012872B2 (ja) 情報管理装置、情報管理方法及び情報管理プログラム
JP7266984B2 (ja) サーバ装置
KR20210070119A (ko) 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템
CN107783639A (zh) 虚拟现实休闲学习系统
US11227148B2 (en) Information processing apparatus, information processing method, information processing program, and information processing system
JP3936295B2 (ja) データベース作成装置
JP6283620B2 (ja) 所定の空間における生体情報取得装置、生体情報取得方法及び生体情報取得プログラム
US20220134544A1 (en) System and method for continuously sharing behavioral states of a creature
JP4905651B2 (ja) 情報分析装置、情報分析方法及び情報分析プログラム
Fuchs et al. SmartLobby: Using a 24/7 remote head-eye-tracking for content personalization

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070910

R150 Certificate of patent or registration of utility model

Ref document number: 4012872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100914

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100914

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110914

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110914

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120914

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120914

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130914

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees