JP2006228150A - インタラクションデータ抽出装置 - Google Patents

インタラクションデータ抽出装置 Download PDF

Info

Publication number
JP2006228150A
JP2006228150A JP2005044631A JP2005044631A JP2006228150A JP 2006228150 A JP2006228150 A JP 2006228150A JP 2005044631 A JP2005044631 A JP 2005044631A JP 2005044631 A JP2005044631 A JP 2005044631A JP 2006228150 A JP2006228150 A JP 2006228150A
Authority
JP
Japan
Prior art keywords
interaction
pattern
data
patterns
interaction data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005044631A
Other languages
English (en)
Other versions
JP4604225B2 (ja
Inventor
Tomoyuki Morita
友幸 森田
Kenji Mase
健二 間瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005044631A priority Critical patent/JP4604225B2/ja
Publication of JP2006228150A publication Critical patent/JP2006228150A/ja
Application granted granted Critical
Publication of JP4604225B2 publication Critical patent/JP4604225B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 この発明は、センサ群から得られたデータを元に作成されたインタラクション・コーパスの中で、重要なインタラクションのパターンを抽出することを目的とする。
【解決手段】 この発明のインタラクションデータ抽出装置は、インタラクションデータを格納する記憶データベース3と、記憶データベース3に格納されたインタラクションデータからパターンのモデル化を行いインタラクションのパターンを抽出するインタラクション抽出手段6と、このインタラクション抽出手段6から抽出されたパターンの集合の情報に基づき分析対象とするデータの「特異さ」に応じてインタラクションデータの重要度を評価するインタラクション評価手段7と、を備え、インタラクション評価手段7から得られた「特異さ」に基づき、インタラクションデータの特徴的パターンを抽出する。
【選択図】 図1

Description

この発明は、インタラクションデータ抽出装置、特にインタラクション・コーパスのパターン抽出に関するものである。
人が装着するウェアラブルセンサセットに加えて、環境に偏在するセンサ群を利用して、映像、音声、注視状況といった情報を複合的に観測し蓄積することでインタラクションのコーパス(インタラクション・コーパス)を構築する試みが進められている。また、センサ群を利用してデータを蓄積するだけでは再利用性に乏しいため、人のインタラクションの構造を体系化し、記録された生データに対してインデックスをつけることで、さらに可用性の高いコーパスとして構築する試みがなされている。
これらの試みにおいて、インデックスを付与する対象となるインタラクションの種類の選別は設計者の直感に頼っている。このような方法は、人間にとって知覚しやすく直感的に重要と思えるものは選別できるが、そこで選んだものが重要なインタラクションを全て網羅しているかどうかなどを確かめる方法は存在せず、見落としや間違いが含まれる可能性がある。
近年、データを元に知識発見を行うデータマイニング手法が盛んに開発・利用されてきており、医療など様々な分野で専門家の全く想像できなかったような知識が発見されている。人と人、人と物のインタラクションを記録したデータに対してもそこにインタラクションを分析する上で重要な情報が記録されているならば、データを元にインタラクションに関する知識を発見することが可能であり有用である。
データマイニングの分野では「サポート」又は「サポート率」と呼ばれる指標が利用される(例えば、非特許文献1参照)。サポートは基本的には全体の数と対象の数の比である。
パターンの評価にサポートを用いるとすれば、パターンAのサポート=(パターンAに含まれるエピソード数)/(抽出された全エピソード数)、又はパターンAのサポート=(パターンAに含まれるエピソードの合計発生時間)/(抽出された全エピソードの合計発生時間)、という2種類の評価手法が考えられる。
宮下真一、宮野悟、「発見科学とデータマイニング」、bit別冊、共立出版(2000)
上記したデータマイニングの手法は、実質的に対象パターンの発生数もしくは発生時間を比較するためにしか用いることができない。基本的に多く発生するパターンほど重要であろうと考えられるが、単純に数や時間でそのパターンの重要さを測定することは適切でない場合も多い。例えば、観測されうる各事象の確率が異なるような場合には、観測された事象の数量だけでその事象の重要さを測るのは適切でない。
そこで、この発明は、センサ群から得られたデータを元に作成されたインタラクション・コーパスの中で、注視及び発話の区間を記録した低レベル層のデータを解析することにより、重要なインタラクションのパターンを抽出することを目的とする。
この発明のインタラクションデータ抽出装置は、インタラクションデータを格納する記憶手段と、この記憶手段に格納されたインタラクションデータからパターンのモデル化を行いインタラクションのパターンを抽出するインタラクション抽出手段と、このインタラクション抽出手段から抽出されたパターンの集合の情報に基づき分析対象とするデータの「特異さ」に応じてインタラクションデータの重要度を評価するインタラクション評価手段と、を備え、前記インタラクション評価手段から得られた「特異さ」に基づき、インタラクションデータの特徴的パターンを抽出することを特徴とする。
また、観察者が装着し、視野内に入った対象物の認識を行い前記記憶手段にインタラクションデータを与える観察者観測センサと、この観察者観測センサによる観測時に、前記人間のインタラクションを観察者観測センサとは異なる視点から観測したインタラクションデータを前記記憶手段に与える物体観測センサと、前記両センサからのデータに時間情報を付加する時間情報付与手段と、を備えるように構成することができる。
また、前記記憶手段にインタラクションの解釈の抽象度に合わせて階層構造でインタラクション・コーパスが格納され、最上層の階層に上記「特異さ」により評価されたデータを格納するとよい。
また、前記インタラクション抽出手段は、得られたエピソードの集合をモデルに変換し、互いに同型性を判定し、同型のエピソードを集合として纏めるように構成することができる。
また、前記インタラクション評価手段は、パターンを構成する可能性のあるイベントの組み合わせ全てについてその確率を求め、それらの和を求めてそのパターンの発生確率を求め、その確率に観測の総時間をかけることでパターンの発生期待量を算出するように構成すればよい。
この発明によれば、「特異さ」という評価パターンを用いることで、インタラクション・コーパスから重要なデータを容易に抽出することができる。また、パターンの評価基準として用いた「特異さ」という尺度を発生回数、発生時間、サポート率と比較して有効であり、インタラクション・コーパスで現在用いられているCompositeと見出されたパターンの比較を行い、この方法により見逃されていた重要なパターンがあることが分かった。
従って、この発明によれば、重要なパターンを確実且つ容易にデータマイニングすることができる。
この発明の実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付し、説明の重複を避けるためにその説明は繰返さない。
図1はこの発明の実施形態にかかるデータベース抽出装置の構成を示すブロック図である。図1に示すように、この抽出装置は、観察者観測センサ1、物体観測センサ2、記録データベース3、インタラクションデータに時間情報等を付与するための時間情報付与手段4、階層判別手段5、インタラクション抽出手段6、インタラクション・パターン評価手段7、システムを制御する制御手段8、情報を表示するデータ表示部9を備える。なお、インタラクションデータに時間情報等を付与するための時間情報付与手段4、階層判別手段5、インタラクション抽出手段6、インタラクション・パターン評価手段7、システムを制御する制御手段8は、この実施形態では、独立のブロックとして記載しているが、パーソナルコンピュータなどを用いて、それぞれの機能を有するようにプログラムすることで、各構成を達成するように構成しても良い。
インタラクション・コーパスは、人と人、人と物のインタラクションを記録し分析することを目的として開発がなされている。
この実施形態においては、インストラクションの記録のために、観察者観測センサ1、物体観測センサ2を用いる。観察者観測センサ1は、観察者が装着するためのウェアブルなヘッドセンサタイプで構成され、また、物体観測センサ2は、環境設置型の据え置きタイプで構成される。
観察者観測センサ1は、視野内に入った対象物の認識を行うために、赤外線IDタグシステムを使用している。赤外線IDタグシステムは、赤外線IDタグ(以下、IRタグという。)と赤外線IDセンサ(以下、IRトラッカという。)とで構成され、赤外線LEDの点滅パターンによって固有のIDを発信できるIRタグを認識対象に取り付け、それを認識するIRトラッカを観察者の顔の向きに一致させて装着することで、視野内のどこに何が存在しているかを記録することができる。さらに、観察者観測センサ1には、発話の検出および記録のためにマイクを用いている。マイクは、例えば、近接用マイクで構成され、この近接マイクにより、発話の検出等を行う。発話区間の検出は、マイク入力のボリュームを閾値処理することに行われる。なお、環境音の影響が大きいときには、声帯の振動から発話のボリュームが測定できるスローとマイクを用いることもできる。
また、観察者観測センサ1には、IRタグに近接して撮影用カメラが設置され、装着者の視界を記録し、その映像中で何がどこにあるのか大まかに把握できるように構成されている。
一方、物体観測センサ2も上記した観察者観測センサのマイク以外の構成を備え、物体の所定箇所にそれぞれの構成部品が装着されている。
両観測センサ1、2から得られたデータは、記録用データベース3に与えられ、蓄えられる。記録用データベース3に与えられるデータには、両観測センサ1,2からのインタラクションデータを統合的に利用するために、時間的同期がとられている。このために、時間情報付与手段4により、各インタラクションデータを記録用データベース3に格納する前に、リアルタイムで入力される各インタラクションデータに時間情報を付与して時間的な同期を取っている。このようにして、各インタラクションデータの観測時刻を特定できるので、一つのインタラクションデータにおける他のインタラクションデータを容易に特定することができ、各インタラクションデータの統合利用が可能となるとともに、各インタラクションデータの発生時間等を把握することができる。
なお、時間的な同期を取る方法は、上記の例に限らず、種々の方法がある。例えば、各観測センサ1,2が独立した内部クロックを持ち、所定の同期信号を基準としてオフセットを調整するようにしても良い。
ところで、インタラクション・コーパスは、図2に示すように、インタラクションの解釈の抽象度に合わせて4階層の階層構造を持っている。各層は一つ下の階層データを統合して、より抽象度の高いデータを記録している。各階層は、階層判別手段5によりインタラクションの解釈の抽象度に応じて判別され、その判別された結果に基づき階層データとして記録用データベース3に格納される。
まず、最下層のRawData層には、各観察装置1,2から得られた断続的な生のデータが時刻と観測値の組という形式で記録用データベース3に格納される。このため、記録用データベース3は、観測センサ1,2より得られるデータに時間情報を付加したデータを格納する領域、階層判別手段5により判別された階層に基づいた階層データを格納する領域を有する。
第2階層であるSegmentation層は、RawData層の生データに対して、階層判別手段5が時間でクラスタリングを行い、複数の連続区間に結合・分割することで、動作主体が注視と発話を行っていた区間を推定して記録用データベース3に記録する。第3階層であるPrimitive層は、階層判別手段5がSegmentation層のデータを統合して、図3に示すような人のインタラクションの基本単位となる情報を記録データベース3に格納する。最上位階層であるCompositive層は、階層判別手段5がPrimitive層のデータを統合し、「討論」「質疑応答」といった各ドメインに依存する複合的なインタラクション(Composite)の情報を記録データベース3に格納する。この発明では、この階層に後述するように「特異さ」というパラメータを更に付加する。
この発明は、上記した記録データベース3に格納されたインタラクションの中から重要と思われるインタラクション・パターンを抽出するものである。この抽出する方法として、以下に述べるように、各パターンの総発生量と発生期待値(パターンの発生量の期待値)の比(「特異さ」という)を用いて抽出する。
インタラクションは、同時発生的もしくは時系列的に起こる複数の出来事の集合と見ることができる。この明細書の説明において、個々の出来事をイベントと呼び、複数のイベントの集合をエピソードと呼ぶこととする。また、個々の人間やもの等を総称してオブジェクトと呼ぶ。インタラクションは、複数のオブジェクトがイベントを介して関連しているエピソードである。
実世界で起こっている様々なインタラクションには、パターンがあると言える。例えば、「人物Aが人物Bに何かを話す」というインタラクションも日常の中でよく起こるパターンである。このようなパターンのことをインタラクション・パターンと定義することにする。インタラクション・パターンは、イベント群の発生パターンとして観測される。この発明は、イベント群の中からパターンを抽出し、インタラクション・パターンを見出すことである。上述したように、インタラクション・パターンには、同時発生的なものと時系列的なものとがあるが、この実施形態では、同時発生的なものについて抽出することを対象としている。
インタラクションを構成する要素として、「見る」および「発話する」という2種類の行動が特に重要と考え、また、インタラクション・コーパスにおいてもこれら2種類の行動の情報が利用できるので、この実施形態では、これらをインタラクション・パターンを構成するイベントとして使用する。なお、「見る」というイベントを「LOOKイベント」(又は、単に「LOOK」)、「発話する」というイベントを「SPEAKイベント」(又は、単に「SPEAK」)ということにする。
インタラクション・コーパス上では、LOOKイベントおよびSPEAKイベントは、その行動の主体、行動の開始時刻および終了時刻を持つ。さらに、LOOKイベントのみそれらに加えて客体の情報を持つ。
インタラクション・パターンを抽出するために、パターンのモデル化を行っている。同時発生的なパターンを扱うために、モデルは同時刻に発生しているイベントの集合を表現できるものでなければならない。また、この実施形態では、同時発生という状況を対象としているので、イベントの開始および終了時刻、発生順序などの情報は必要ない。そこで、この実施形態では、以下のように、有向グラフとしてモデル化する。すなわち、オブジェクトをノード(節点)、LOOKイベントを始点が主体、終点が客体である有向エッジ(辺)とし、SPEAKイベントを始点および終点が主体である有向エッジ(自己ループ)とする有向グラフとして考えている。各エッジはイベントの属性(LOOK又はSPEAK)を持ち、各ノードはオブジェクトの属性(HUMAN、DISPLAYなど)を持つ。なお、見やすさのために図中では自己ループをノードにハッチングを施すことで表現している。例えば、「人物Aが人物Bを見て発話する」というパターンは図4のように表現され、また、このパターンは、インタラクション・コーパス上では図5のように現れる。
次に、このモデルに定義を与える。辺の属性の集合をPe、ノードの属性の集合をPnとすると、このモデルGは、ノードの集合V、辺の集合E、辺に2つのノードの対と属性を対応させる関数f、ノードに属性を対応させる関数gの4項組(V,E,f,g)として定義される。各定義は次の通りである。
Pn:ノードの属性の集合
Pe:辺の属性の集合
V :ノードの集合
E :辺の集合
f :E→V×V×Pe
g :V→Pn
G :(V,E,f,g)
ここで、モデルG1とG2が同型であるとは、全単射θ:V(G1)→V(G2)、φ:E(G1)→E(G2)が存在して、すべてのe∈E(G1)に対して、f(e)={u,v,pe}Λg(e)={pn}⇔f(φ(e))={θ(u),θ(v),p}Λg(φ(e))={pn}となる時とし、G1≡G2と示す。関係≡は明らかに反射律、対象律、推移律が成立し同値関係である。なお、エピソードAおよびエピソードBから作成されたモデルGaおよびGbが同型であるとき、エピソードAエピソードBも同型であるという。
なお、この実施形態では、LOOKおよびSPEAKという2種類のイベントのみを用いているが、他のイベントの情報が利用可能であり重要であると考えられる場合には、主体および客体の両方の情報を持つイベント、例えば、「AがBを触る」などは有向リンクとして、主体の情報のみを持つイベント、例えば「Aが頷く」などは自己ループとして表現することでこの実施形態の手法を適用できる。また、どちらが主体でどちらが客体か断定できないイベント、例えば「AとBが握手する」などの場合もあるが、この場合も2本のリンクとして表現すれば同様に適用できる。
記録データベース3に格納されたインタラクション・コーパス3のデータをインタラクション抽出手段6によりインストラクション・パターンの抽出を行う。この実施形態では、記録データベース3に格納したインタラクション・コーパスの第2階層(Segmentation層)のデータを用いる。ここでは、同時発生しているイベントの考えられるすべての組み合わせを抽出し、前述したモデルで同型のものを集計する。ここでの操作は、全体としては、時間軸情報に基づき解析対象データの開始時刻から終了時刻まで走査しながら各時点でのイベントの組み合わせを全て抽出して行き、パターン毎の発生時間を合計することで対応できるが、この実施形態では、この方法と等価の次の方法で抽出を行う。
まず、インタラクション抽出手段6は、記録データベース3に格納された全イベント集合から、同時発生している部分集合(エピソード)を全て抽出する。ここで全ての部分集合を抽出するのは、実環境下では様々なイベントが同時に起こっており、インタラクション・パターンはその一部分として現れるであろうと考えられるからである。なお、「同時発生している」とは、そのエピソード中の全てのイベントが同時に起こっている瞬間が存在するということである。換言すれば、エピソード(Episode)中の全イベント(e)の開始時間(e.start)の最大値が終了時間(e.end)の最小値より小であるということである。図6に示す例では、イベントAとイベントBは同時発生しているが、イベントAとイベントC、イベントBとイベントCは同時発生していない。
次に、インタラクション抽出手段6は得られたエピソードの集合を前述したモデルに変換し、互いに同型性を判定して行き、同型のエピソードを集合として纏める。この操作により、エピソードの集合は関係≡による同値類に分割される。各同値類はそれぞれ個別のインタラクション・パターンを表し、その要素はそのパターンで記述されるエピソードである。各エピソードに対して、次式を用いて持続時間T(Episode)を求める。
Figure 2006228150
そして、求めた持続時間を同値類の全てのエピソードについて加算することにより、そのパターンの総発生時間T(pattern)を次式により求める。
Figure 2006228150
次に、インタラクション抽出手段6で抽出したパターンの集合をインタラクション・パターン評価手段7でパターンの評価を行う。
得られたパターンの集合は、観測の対象としたデータ中で起こっていると考えられる全てのパターンを含んでいる。それらの中には、インタラクションを解釈する上で重要なものが含まれているが、偶然に発生した重要でないものも多量に含まれている。そこで、より重要なパターンを提示するために各パターンに評価を与える必要がある。
前述したように、データマイニングの分野では「サポート」又は「サポート率」と呼ばれる指標が利用される(例えば、非特許文献1参照)。サポートは基本的には全体の数と対象の数の比である。
パターンの評価にサポートを用いた手法は、実質的に対象パターンの発生数もしくは発生時間を比較するためにしか用いることができない。基本的に多く発生するパターンほど重要であろうと考えられるが、単純に数や時間でそのパターンの重要さを測定することは適切でない場合も多い。例えば、観測されうる各事象の確率が異なるような場合には、観測された事象の数量だけでその事象の重要さを測るのは適切でない。
この実施形態で対象とするインタラクション・パターンにおいても、パターンを構成するLOOKやSPEAKは量的に偏っており、単純に発生量で比較してしまうと、多く発生しているイベントを含むパターンが重要であると認識されることになる。そこで、この発明では、分析対象とするデータ中での各イベントの量的偏りを考慮してランダムにイベントを発生した場合のあるパターンの発生量の期待値(ランダム系列における発生期待量)とそのパターンの実際の発生量との比を用いる。この比は実際に起こった量が偶然に起こるであろう量からどの程度偏っているかを表し、実際に起こった量が自然な状態から異なっているという意味からこの実施形態では「特異さ」と定義する。特異さは次のように表せる。
特異さ=(実際の発生量)/(ランダム系列における発生期待量)
この「特異さ」の値が大きいほど、そのパターンの発生量は自然か状態から偏っており、重要なパターンであると考えられる。
そこで、この実施形態では、インタラクション・パターン評価手段7にパターン発生期待量算出手段71を設け、パターン発生期待量を算出している。このパターン発生期待量算出手段71が行う動作について説明する。
まず、パターン発生期待量算出手段71は、各オブジェクト間での各イベント種別の総発生時間を求める。そして、イベントが時間的に均一に且つイベント間で独立の発生していると仮定した時のある瞬間にそのイベントが発生している確率(発生確率)を求める。特定のイベントの組み合わせの発生確率は、各イベントの発生確率の積で求められる。パターンを構成する可能性のあるイベントの組み合わせ全てについてその確率を求め、それらの和を求めるとそのパターンの発生確率が求められる。その確率に観測の総時間をかけることでパターンの発生期待量が求められる。
つぎに、上記パターンの発生期待量を求める例を更に説明する。全イベント集合は、各オブジェクト間のLOOKの有無を表す時刻tに関する関数(式(1))と、各オブジェクトのSPEAKの有無を表す時刻tに関する関数(式(2))の集合は式(3)に示すように表せる。
Figure 2006228150
Figure 2006228150
Figure 2006228150
また、LOOK(oa→ob)が起こった総時間T(La→b)およびSPEAK(oa)が起こった総時間T(sa)は、観測の開始時間t0と終了時間t1を用いて式(4)、式(5)として表される。
Figure 2006228150
Figure 2006228150
時刻tにLOOK(oa→ob)が起こっている事象をLoa→ob,tとし、時刻tにSPEAK(oa)が起こっているという事象をSa,tとする。LOOK(oa→ob)およびSPEAK(oa)が時刻t0からt1の間で均一に起こっていると考えると、時刻tにLOOK(oa→ob)が起こっている確率P(Loa→ob,t)および時刻tにSPEAK(oa)が起こっている確率P(Soa,t)は次のように表せる((6)(7))。
Figure 2006228150
Figure 2006228150
なお、全てのLoa→ob,tおよびし、Soa,tは互いに独立であるとしている。
ここで、P(Loa→ob,t)およびP(sa,t)は左辺にパラメタtを含んでいるにも関わらず、右辺はtの関数ではないが、これは各イベントが時間的に均一に発生していると仮定しているからで、本質的にはtの関数となる。ここでは、tを省略してP(Loa→ob)およびP(sa)と記載する。
イベントの集合Eが構成するパターンのモデルをM(E)と表す。パターン(Pattern)は、そのモデルPatteren.Modelを構成するイベントの集合(式(8))の考えられる全ての組み合わせの集合(式(9))である。
Figure 2006228150
Figure 2006228150
イベントの集合Eに含まれる全てのイベントが同時に起こる確率P(E)は、各イベントが起こる事象を独立と見なしているので、各イベントが起こる確率の積として以下の式(10)のように表せる。
Figure 2006228150
パターンPatternが時刻tに起こる確率P(Pattern)は、各パターンに含まれる各イベント集合のうちどれか起こっていればよいので、各イベントの起こる確率の和で表せる(式(11))。
Figure 2006228150
時刻t0からt1の間にパターンPatternが発生している時間の合計の期待値(発生期待量)は、次のようになる(式(12))。
Figure 2006228150
ただし、E{・}は「・」の発生期待量を表す。
例として、人物A,B,Cがいる時の図4に示すパターンの発生期待量を求める。このパターンを構成するイベントの組み合わせは、次の6種類である(式(13))。よって、このパターンの発生期待量は、次のようになる(しき(14))。
Figure 2006228150
Figure 2006228150
P(LA→B),P(LA→C)・・・,P(SA),P(SB),P(SC)は上述した確率の式で求められる。
上記した式に基づいて、パターン発生期待量算出手段71は、パターンの発生期待量を求める。そして、インタラクション・パターン評価手段7は、ランダム系列における発生期待量を分母とし、インタラクショ抽出手段6より得られた実際の発生量を分子として、「特異さ」を算出する。この算出された「特異さ」は、インタラクション抽出手段6、システムを制御する制御手段8に与えられ、記録データベース3のデータに「特異さ」というデータを付加する。そして、制御手段8は、この「特異さ」に基づいて、パターンを抽出させ、そして、抽出した結果がデータ表示部9に表示される。
次に、この発明にかかるインタラクション・パターン評価について具体的な例に基づいて更に説明する。
図7に示すように、説明員2名、見学者3名の人物5名が参加し、2つの大型ディスプレイを用いて約1時間半の疑似ポスター展示会を行ったものである。人物5名は、ウェアラブルタイプの観察者観測センサ1を装着している。この観察者観測センサ1には、マイク、IRタグ、IRトラッカ、カメラを備えている。
また、ディスプレイ10の中央部には、据え置きタイプの物体観測センサ2が取り付けられている。この物体観測センサ2にはIRタグ、IRトラッカ、カメラを備えている。さらに、ディスプレイには、IRタグ21がそれぞれ画面の左右二箇所に取り付けられている。
各見学者は、自由に移動して2つの展示を見学し、各説明員はそれぞれ1枚ずつのディスプレイの横から移動せずに見学者に対して展示の説明を行う。
観察者観測センサ1、物体観測センサ2から無線通信などの手法により、記録データベース3に時間情報が付与された所望のデータが格納される。格納されたデータから構築されたインタラクション・コーパスのデータに対して、インタラクション抽出手段6、インタラクション・パターン評価手段7により、インタラクションパターンの抽出を行った。
得られたデータ中でのオブジェクトごとの各イベントの総発生時間及び総発生回数は、表1乃至表4のようになった。これら表において、D1、D2はそれぞれディスプレイ10を表し、H1〜H5はそれぞれ人物を表しており、行方向が主体で列方向が客体である。例えば、人物H1から人物H3へのLOOKは67回、合計398.8秒起こっている。
Figure 2006228150
Figure 2006228150
Figure 2006228150
Figure 2006228150
抽出されたパターンをパターンに関連するオブジェクトの数を2,3,4にそれぞれ限定した場合のパターン数、特異さを表5に示す。ここで”、特異さ>1.0”は、特異さの値が1.0より大きかったパターンの数を示している。関連するオブジェクトの数が5以上のパターンに関しては、特異さの値が1を超えたものが存在しなかったため示していない。
Figure 2006228150
上記の抽出したパターンのうち、上位5位までのパターンを図8ないし図10に、それぞれのパターンについての発生回数、総発生時間、発生期待量および特異さの値を表6乃至表8に示す。なお、これら図にいて、ハッチングを施している人は発話している状態を示している。
Figure 2006228150
Figure 2006228150
Figure 2006228150
各パターンは「関連するオブジェクト数−順位」で示している。例えば、オブジェクト数2の3位なら「2−3」という名前で示す。
抽出された各パターンの起きている時間のビデオ映像から大まかに何が起きているかを確認することにより、各パターンに解釈を与え、その結果を表9に示す。
Figure 2006228150
オブジェクトの数が2のパターンは、インタラクションの最も基本的な構成要素を示している。パターン2−1、2−4、2−5は、会話において少なくとも一方が発話している状態、向き合っている状態、両方同時に発話している(クロストーク)状態を示しており、会話を記述するためには重要なパターンと考えられる。尚、パターンにおいて発話がないノードは、発話していないのではなく、そのノードの発話に関してはドントケアであることを意味している。これに関しては後述する。パターン2−2及び2−3は、人物がディスプレイを見ている状態と人物がディスプレイを見て発話している状態を示している。これは、説明者及び見学者はディスプレイを見ながら会話している時間が長いため重要なパターンとして抽出されており、展示会という場面で重要なパターンと考えられる。
オブジェクトの数が3のパターンは、展示会における基本的なパターンを示している。パターン3−1,3−2,3−3は説明員はディスプレイに背を向け見学者がディスプレイと説明員の両方を見ている状況での会話のパターンを示しており、展示会においてインタラクションの基本要素となるパターンであると考えられる。パターン3−4及び3−5は2名の人物がディスプレイを見ながら会話している状況でのパターンを示している。
オブジェクトの数が4のパターンは、基本的にはオブジェクトの数2のパターンと要素数3のパターンの複合パターンになっている。パターン4−1は3−1と2−2、パターン4−2は3−3−と2−2、パターン4−4は4−2と2−4が同時に起きているパターンである。
オブジェクト数が5以上のパターンは得られなかったが、これは見学者が3人であり、1つの展示に対して4人以上集まることがなかったためである。
「特異さ」という評価基準の妥当性について検討する。表1及び表2から、各イベントの発生量には大きな差があることが分かる。「特異さ」という評価基準は、各イベントの発生量を吸収するための基準である。
発生回数を評価指標として用いた場合、抽出される上位パターンは図11に示すようになる。人間とディスプレイ間の注視回数が多いこと、発話は注視に比べて発生回数が多いことを理由にこれらのパターンが抽出されている。
総発生時間を評価指標として用いた場合、抽出される上位パターンは図12に示すようになる。人間とディスプレイ間の注視回数が多いこと、発生時間においては発話は条件を絞るだけになることからこれらのパターンが抽出されている。 サポート率を用いた場合に関しては、発生回数または発生時間を用いた場合と同等である。
発生回数、総発生時間のどちらを用いた場合も、関連するイベント数が比較的少ないパターンの方が条件が緩くなるため発生しやすくなり抽出されやすくなっている。これらは、イベントの偏りに大きく左右されており、また、関連にイベント数の少ないパターンほど抽出されやすいため好ましくない。サポート率に関しても発生回数または発生時間を用いた場合と同等であるので好ましくない。
一方、「特異さ」は、発生期待量で割ることでイベントの量的偏りを吸収しており、関連イベント数の大小に関しても偏り無くパターンを評価することが出来ている(図9参照)。特に、重要なのは、図11(a)〜(c)及び図12(a)〜(c)では人同士のLOOKを含むパターンが含まれていないが、図9(a)〜(c)で含まれている点である。これは表1及び表3から分かるように、人同士のLOOKは人−ディスプレイ間のLOOKと比較して少ないため、当然それを含むパターンは数量的に多くは観察されにくいからである。また、表6乃至表8から特異さの値は総発生時間や発生回数とはあまり関係なく分布しており、関連イベント数やイベントの組み合わせによる元々の発生しやすさを吸収できていることが分かる。
但し、特異さの値は、関連オブジェクト数が2,3,4の時の値と比べると関連オブジェクト数に応じて指数関数的に増加するように見える。この性質により関連オブジェクト数の違うパターン同士の重要度を比較するためには用いることが出来ない。しかし、関連オブジェクト数に応じてそのパターンの粒度には大きな差があるように感じられ、関連オブジェクト数が違うパターン同士で重要度を比較する必要はないと考えられる。
現在、抽出されたパターンは単純に特異さの値が高いものから順に提示しているのみである。しかし、各パターンは独立ではなく包含関係がある。例えば、パターン2−1に分類されるエピソードの集合はパターン2−4に分類されるエピソードの集合の部分集合である。なぜなら、パターン2−1はパターン2−4に更に「少なくともどちらか一方が発話している」という条件を付加したパターンであるからである。
このような包含関係を元に、より制約の緩いパターンを上になるようグラフ形状で提示することにより、パターン間の関係が分かりやすくなるだろう。
上記実施形態により抽出されたパターンは、現在のインタラクション・コーパスにおいては、Composite層に含まれると考えられる。通常のインタラクション・コーパスでは、Compositeとして図13に示すものが使用されている。これらはこの実施形態でのインタラクション・パターンのモデルでは、図14のように表される。これらと実施例により抽出されたパターンとの比較を行う。
まず、オブジェクト数2のパターンについて見ると、パターン2−4にCOLOOKが現れている。また、パターン2−1はこれに一方の発話が加わったパターンであるが、これはPrimitive層のTALK_TOに近いと考える。TALK_TOでは両方向のLOOKを規定していないが、それと同等のパターンは発生回数914回、発生時間671秒、特異さ1.04と特異さが低い値を示しており重要ではないように見える。一方、パターン2−1はオブジェクト数2のパターンでは特異さの値が最も大きく、また互いに向き合って一方が発話するという状況は直感的にも重要だと考えられる。
オブジェクト数3のパターンでは、抽出されたパターンは上位では基本的にCompositeには無いものであった。パターン3−1〜3−3は、説明員と見学者とのやり取りの状態を表しており、全く予想されなかったが重要なパターンである。パターン3−4,3−5は、基本的にはTALK_ABOUTの状態で、一方が他方に視線を送っている状態であると考える。一方、TALK_ABOUTと同等のパターンは発生回数704回、発生時間691.12秒、特異さ6.53、順位は9位であった。このパターンが上位に来なかったのは、説明員が2名、見学者が3名という状況で、説明員は基本的にディスプレイの横に立って見学者を見ている場合が多く、2人で同時にディスプレイを見て話すということが少なかったためと思われる。説明員を配置せず、複数の見学者に自由に展示物の見学をさせればTALK_ABOUTが上位に来ると考えられる。LOOK_WITHと同等のパターンは発生回数560回、発生時間2264秒、特異さ2.06、順位は29位であった。これもTALK_ABOUTと同様であると考えられる。TOGETHER_WITH及びJOINT_ATTENTIONと同等のパターンは特異さが1に満たなかった。これは、これが単純な状態(そばにいる、同じものを見ている)を表しているパターンであり、このパターンが起こりやすくなる要因が存在しないため抽出されなかったと考えられる。
オブジェクト数4のパターンは、オブジェクト数3のパターンとオブジェクト数2のパターンの単純な組み合わせであり、重要ではないと考えられる。
以上のように、パターン2−1の表す2者間での会話のパターン、パターン3−1〜3−3の表す説明員と見学者での会話のパターン、パターン3−4,3−5の表すディスプレイを見ながら2者の会話のパターンの3種類のパターンがこの実施例で見いだした新たな重要なパターンであると考えられる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
この発明は、人と人、人と物のインタラクションについての分析、体系化に適用することができる。
この発明の実施形態にかかるデータベース抽出装置の構成を示すブロック図である。 インタラクションの階層的モデルを示す説明図である。 インタラクションのPrimitiveの例を示す模式図である。 インタラクション・パターンの例を示す模式図である。 インタラクション・コーパス中のデータを示す模式図である。 この発明の実施形態にかかるインタラクション抽出手段における抽出アルゴリズムのイメージを示す図である。 この発明の実施形態による動作を説明するための実験概要図である。 この発明の実施形態にてオブジェクト数2の上位5パターンを示す模式図である。 この発明の実施形態にてオブジェクト数3の上位5パターンを示す模式図である。 この発明の実施形態にてオブジェクト数4の上位5パターンを示す模式図である。 発生回数を評価基準に用いた場合の上位3パターンを示す模式図である。 総発生時間を評価基準に用いた場合の上位3パターンを示す模式図である。 通常の展示会のCompositeを示す模式図である。 通常の展示会のCompositeのモデルを示す模式図である。
符号の説明
1 観察者観測センサ1、2 物体観測センサ2、3 記録データベース、4 時間情報付与手段、5 階層判別手段、6 インタラクション抽出手段、7 インタラクション・パターン評価手段、8 制御手段8、9 データ表示部。

Claims (5)

  1. インタラクションデータを格納する記憶手段と、この記憶手段に格納されたインタラクションデータからパターンのモデル化を行いインタラクションのパターンを抽出するインタラクション抽出手段と、このインタラクション抽出手段から抽出されたパターンの集合の情報に基づき分析対象とするデータのパターンの発生期待量とそのパターンの比(以下、「特異さ」という)に応じてインタラクションデータの重要度を評価するインタラクション評価手段と、を備え、前記インタラクション評価手段から得られた「特異さ」に基づき、インタラクションデータの特徴的パターンを抽出することを特徴とするインタラクションデータ抽出装置。
  2. 観察者が装着し、視野内に入った対象物の認識を行い前記記憶手段にインタラクションデータを与える観察者観測センサと、この観察者観測センサによる観測時に、前記人間のインタラクションを観察者観測センサとは異なる視点から観測したインタラクションデータを前記記憶手段に与える物体観測センサと、前記両センサからのデータに時間情報を付加する時間情報付与手段と、を備えることを特徴とする請求項1に記載のインタラクションデータ抽出装置。
  3. 前記記憶手段にインタラクションの解釈の抽象度に合わせて階層構造でインタラクション・コーパスが格納され、最上層の階層に上記「特異さ」により評価されたデータが格納されることを特徴とする請求項1又は2に記載のインタラクションデータ抽出装置。
  4. 前記インタラクション抽出手段は、得られたエピソードの集合をモデルに変換し、互いに同型性を判定し、同型のエピソードを集合として纏めることを特徴とする請求項1又は2に記載のインタラクションデータ抽出装置。
  5. 前記インタラクション評価手段は、パターンを構成する可能性のあるイベントの組み合わせ全てについてその確率を求め、それらの和を求めてそのパターンの発生確率を求め、その確率に観測の総時間をかけることでパターンの発生期待量を算出することを特徴とする請求項1に記載のインタラクションデータ抽出装置。
JP2005044631A 2005-02-21 2005-02-21 インタラクションデータ抽出装置 Expired - Fee Related JP4604225B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005044631A JP4604225B2 (ja) 2005-02-21 2005-02-21 インタラクションデータ抽出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005044631A JP4604225B2 (ja) 2005-02-21 2005-02-21 インタラクションデータ抽出装置

Publications (2)

Publication Number Publication Date
JP2006228150A true JP2006228150A (ja) 2006-08-31
JP4604225B2 JP4604225B2 (ja) 2011-01-05

Family

ID=36989454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005044631A Expired - Fee Related JP4604225B2 (ja) 2005-02-21 2005-02-21 インタラクションデータ抽出装置

Country Status (1)

Country Link
JP (1) JP4604225B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171343A (ja) * 2007-01-15 2008-07-24 Hitachi Ltd 集団解析システム、および集団解析装置
US8112448B2 (en) 2008-08-01 2012-02-07 Mitsubishi Electric Corporation Table classification device, table classification method, and table classification program
US8234576B2 (en) 2007-01-18 2012-07-31 Hitachi, Ltd. Interaction data display apparatus, processing apparatus and method for displaying the interaction data
US9430616B2 (en) 2013-03-27 2016-08-30 International Business Machines Corporation Extracting clinical care pathways correlated with outcomes
US10365945B2 (en) 2013-03-27 2019-07-30 International Business Machines Corporation Clustering based process deviation detection

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
CSNG200300681001, 大田智数、外3名, "ウェアラブル環境における行動履歴を用いた情報提示", 電子情報通信学会技術研究報告(DE2001−1〜15), 20010605, 第101巻,第110号, p.1−7, JP, 社団法人電子情報通信学会 *
CSNG200500021012, 角康之、外4名, "協調的なインタラクションの記録と解釈", 情報処理学会論文誌, 20031115, 第44巻,第11号, p.2628−2637, JP, 社団法人情報処理学会 *
CSNG200600729011, 森田友幸、外5名, "マルチモーダルインタラクション記録からのパターン発見手法", 情報処理学会論文誌, 20060115, 第47巻,第1号, p.121−130, JP, 社団法人情報処理学会 *
CSNJ200610047241, 森田友幸、外4名, "インタラクション解釈のための発見的パターン抽出法", 電子情報通信学会2005年総合大会講演論文集 基礎・境界, 20050307, p.241 *
JPN6010033166, 大田智数、外3名, "ウェアラブル環境における行動履歴を用いた情報提示", 電子情報通信学会技術研究報告(DE2001−1〜15), 20010605, 第101巻,第110号, p.1−7, JP, 社団法人電子情報通信学会 *
JPN6010033168, 角康之、外4名, "協調的なインタラクションの記録と解釈", 情報処理学会論文誌, 20031115, 第44巻,第11号, p.2628−2637, JP, 社団法人情報処理学会 *
JPN6010033169, 高橋昌史、外5名, "インタラクション解釈における階層構造の検討", 第18回人工知能学会全国大会オンラインプログラム[online], 20040426, p.1−4 *
JPN6010033171, 森田友幸、外4名, "インタラクション解釈のための発見的パターン抽出法", 電子情報通信学会2005年総合大会講演論文集 基礎・境界, 20050307, p.241 *
JPN6010033172, 森田友幸、外5名, "マルチモーダルインタラクション記録からのパターン発見手法", 情報処理学会論文誌, 20060115, 第47巻,第1号, p.121−130, JP, 社団法人情報処理学会 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171343A (ja) * 2007-01-15 2008-07-24 Hitachi Ltd 集団解析システム、および集団解析装置
US8234576B2 (en) 2007-01-18 2012-07-31 Hitachi, Ltd. Interaction data display apparatus, processing apparatus and method for displaying the interaction data
US8112448B2 (en) 2008-08-01 2012-02-07 Mitsubishi Electric Corporation Table classification device, table classification method, and table classification program
US9430616B2 (en) 2013-03-27 2016-08-30 International Business Machines Corporation Extracting clinical care pathways correlated with outcomes
US10181012B2 (en) 2013-03-27 2019-01-15 International Business Machines Corporation Extracting clinical care pathways correlated with outcomes
US10365945B2 (en) 2013-03-27 2019-07-30 International Business Machines Corporation Clustering based process deviation detection
US10365946B2 (en) 2013-03-27 2019-07-30 International Business Machines Corporation Clustering based process deviation detection

Also Published As

Publication number Publication date
JP4604225B2 (ja) 2011-01-05

Similar Documents

Publication Publication Date Title
Riboni et al. Unsupervised recognition of interleaved activities of daily living through ontological and probabilistic reasoning
WO2020163970A1 (en) System and method for adverse event detection or severity estimation from surgical data
Atallah et al. The use of pervasive sensing for behaviour profiling—a survey
Lan et al. Discriminative latent models for recognizing contextual group activities
Sundstedt et al. Visual attention and gaze behavior in games: An object-based approach
JP4604225B2 (ja) インタラクションデータ抽出装置
Hung et al. Detecting conversing groups with a single worn accelerometer
CN108764007A (zh) 基于ocr与文本分析技术对注意力的测量方法
Becattini et al. Understanding human reactions looking at facial microexpressions with an event camera
Sujal et al. Mental health analysis of employees using machine learning techniques
US11688062B2 (en) Medical device for transcription of appearances in an image to text with machine learning
Alvarez et al. Multimodal monitoring of Parkinson's and Alzheimer's patients using the ICT4LIFE platform
JP7071717B2 (ja) イベント系列抽出装置、イベント系列抽出方法およびイベント抽出プログラム
Duan et al. Boss: A benchmark for human belief prediction in object-context scenarios
Cabrera-Quiros et al. Multimodal self-assessed personality estimation during crowded mingle scenarios using wearables devices and cameras
JP7306152B2 (ja) 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム
Urizar et al. Emotion estimation in crowds: A survey
US20230237844A1 (en) Detecting emotional state of a user based on facial appearance and visual perception information
Sharma et al. The challenge of metrics in automated dietary monitoring as analysis transitions from small data to big data
JP7452558B2 (ja) 処理装置、処理方法及びプログラム
Dong et al. Identifying factors for human desire inference in smart home environments
Yang et al. Wearable Structured Mental-Sensing-Graph Measurement
WO2022005623A1 (en) Machine learning pipeline
Dietrich et al. Reflect yourself! Opportunities and limits of wearable activity recognition for self-tracking
Zolfaghari et al. Enhancing Kitchen Activity Recognition: A Benchmark Study of the Rostock KTA Dataset

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100914

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees