JP6322927B2 - インタラクション装置、インタラクションプログラムおよびインタラクション方法 - Google Patents

インタラクション装置、インタラクションプログラムおよびインタラクション方法 Download PDF

Info

Publication number
JP6322927B2
JP6322927B2 JP2013168554A JP2013168554A JP6322927B2 JP 6322927 B2 JP6322927 B2 JP 6322927B2 JP 2013168554 A JP2013168554 A JP 2013168554A JP 2013168554 A JP2013168554 A JP 2013168554A JP 6322927 B2 JP6322927 B2 JP 6322927B2
Authority
JP
Japan
Prior art keywords
subject
action
unit
output device
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013168554A
Other languages
English (en)
Other versions
JP2015036915A (ja
Inventor
金岡 利知
利知 金岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013168554A priority Critical patent/JP6322927B2/ja
Publication of JP2015036915A publication Critical patent/JP2015036915A/ja
Application granted granted Critical
Publication of JP6322927B2 publication Critical patent/JP6322927B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、人との間で言語および非言語によるコミュニケーションを行うインタラクション装置、インタラクションプログラムおよびインタラクション方法に関する。
従来、人物と、ロボットやディスプレイに表示される人物や動物等との間で、発話や身振り等の働きかけ(インタラクションとも称する)を実行してコミュニケーションを行う技術が提案されている。
例えば、ロボット等のインタラクション装置は、人物の視線や発話、人物との距離等の情報を取得し、取得した情報に基づいて、人物に対する働きかけの内容や人物に働きかけるタイミング等を決定する技術が提案されている(特許文献1、非特許文献1参照)。
特開2011−681号公報
米澤朋子、山添大丈、内海章、安部伸治、「ユーザの視線・発話に対するクロスモダルアウェアネス〜ユーザ状況把握を表すロボット〜」、HAIシンポジウム2009、2C-3、2009年
例えば、インタラクション装置への働きかけの意思がない人物が、インタラクション装置を見ながらインタラクション装置の前を通り過ぎる場合がある。このような場合に、インタラクション装置が、通り過ぎる人物に発話や身振り等の働きかけを行うと、インタラクション装置から発話等の働きかけを受けた人物は、働きかけを不自然に感じ、あるいは働きかけを不快に思う場合がある。
1つの側面では、本発明は、人物が違和感を持ちにくいタイミングで、インタラクション装置に人物への働きかけを行わせることを目的とする。
一つの観点によるインタラクション装置は、出力装置からの働きかけを受ける対象者による出力装置への働きかけを検出し、検出した各対象者を識別し、識別した各対象者と各対象者による働きかけの検出結果とを対応付ける検出部と、検出部により検出された対象者による働きかけに基づいて、対象者の働きかけの特徴を示す特徴量をそれぞれ求める演算部と、演算部により求められた各対象者の特徴量のそれぞれに基づいて、出力装置の対象者への働きかけを変化させる制御部と、を含む。
別の観点によるインタラクションプログラムは、出力装置からの働きかけを受ける対象者による出力装置への働きかけを検出し、検出した各対象者を識別し、識別した各対象者と各対象者による働きかけの検出結果とを対応付け、検出された対象者による働きかけに基づいて、対象者の働きかけの特徴を示す特徴量をそれぞれ求め、求められ各対象者の特徴量のそれぞれに基づいて出力装置の対象者への働きかけを変化させる、処理をコンピュータに実行させる。
別の観点によるインタラクション方法は、出力装置からの働きかけを受ける対象者による出力装置への働きかけ検出し、検出した各対象者を識別し、識別した各対象者と各対象者による働きかけの検出結果とを対応付け、検出された対象者による働きかけに基づいて、対象者の働きかけの特徴を示す特徴量をそれぞれ求め、求められ各対象者の特徴量のそれぞれに基づいて出力装置の対象者への働きかけ変化させる。
人物が違和感を持ちにくいタイミングで、インタラクション装置に人物への働きかけを行わせることができる。
インタラクション装置の一実施形態を示す図である。 図1に示した検出部により検出される対象者の働きかけの一例を示す図である。 図1に示したインタラクション装置におけるインタラクション処理の例を示す図である。 インタラクション装置の別実施形態を示す図である。 対象者の働きかけを示すテーブルの一例を示す図である。 図5に示す対象者の働きかけを示すテーブルの一例の続きを示す図である。 図6に示す対象者の働きかけを示すテーブルの一例の続きを示す図である。 対象者の出力装置に対する働きかけの意思の強さの定義の例を示す図である。 図4に示す推定部が指標値の推定に用いる遷移条件のテーブルの一例を示す図である。 対象者Uのインタラクション意思値、指標値および主要状態の時間変化の一例を示す図である。 図4に示したインタラクション装置におけるインタラクション処理の例を示す図である。 インタラクション装置の別実施形態を示す図である。 図12に示したインタラクション装置におけるインタラクション処理の例を示す図である。 インタラクション装置の別実施形態を示す図である。 識別子ごとの対象者の働きかけを示すテーブルの一例を示す図である。 図14に示したインタラクション装置におけるインタラクション処理の例を示す図である。 図14に示すインタラクション装置のハードウェア構成の一例を示す図である。
以下、図面を用いて実施形態について説明する。
図1は、インタラクション装置の一実施形態を示す。
図1に示すインタラクション装置100は、検出部10、演算部20、推定部30および制御部40を有する。また、インタラクション装置100は、カメラ1および出力装置2と接続される。なお、カメラ1および出力装置2は、インタラクション装置100に含まれてもよい。以下の説明では、出力装置2からの働きかけを受ける人物を対象者Uと称する。
カメラ1は、例えば、出力装置2に対向する領域を撮影することで画像を生成し、生成した画像をインタラクション装置100の検出部10に出力する。例えば、出力装置2は、出力装置2への働きかけを行う対象者Uを含む領域に対向して設置される。カメラ1は、毎秒数コマから数十コマのフレームレートで撮影可能な性能を有する。なお、カメラ1と出力装置2とは、一体に配置されてもよい。
出力装置2は、インタラクション装置100からの制御に応じて、対象者Uに対して働きかけを行う。出力装置2は、例えば、サーボモータにより動く顔および腕等の部材やスピーカ等を有し、対象者Uに対して、身振り等の働きかけや発話を行うロボットである。あるいは、出力装置2は、液晶モニタ等のディスプレイであり、インタラクション装置100からの制御に応じて、対象者Uに対して、発話や身振り等の働きかけを行う人物や動物等のキャラクターを表示してもよい。
検出部10は、カメラ1により撮影された画像を取得し、取得した画像に基づいて、対象者Uの出力装置2を介してインタラクション装置100への働きかけを検出する。例えば、検出部10は、取得した画像から輝度の不連続な変化を示すエッジ等の特徴点を抽出し、抽出した特徴点の分布に基づいて対象者Uの顔、腕、胴体等の輪郭を特定する。そして、検出部10は、特定した輪郭に基づいて対象者Uを検出する。また、検出部10は、例えば、特定した対象者Uの顔、目、鼻、耳、あるいは口等の輪郭の形状や互いの位置の関係に基づいて、対象者Uの顔の向きや視線の方向、あるいは対象者Uの表情等を、対象者Uによる働きかけとして検出する。なお、検出部10は、対象者Uの顔や手等の輪郭の位置の時間変化から、対象者Uの動きを検出し、対象者Uが手を振る動作やうなずく動作等を、対象者Uの働きかけとして検出してもよい。検出部10が検出する対象者Uの働きかけの例については、図2で説明する。
例えば、検出部10は、検出した対象者の働きかけを演算部20に出力する。そして、検出部10は、カメラ1から受ける次の画像を用いて対象者Uの検出動作を繰り返す。
なお、検出部10は、人物の顔や胴体等の画像のテンプレートと、撮影した画像との相関を示す相関係数を求め、求めた相関係数が所定の値以上となる画像領域を対象者Uとして検出してもよい。例えば、人物の顔や胴体等の画像のテンプレートは、インタラクション装置100が内蔵するEEPROM(Electrically Erasable Programmable Read-Only Memory)等の記憶部に予め記憶される。
演算部20は、検出部10により順次に検出される対象者Uによる働きかけに基づいて、対象者Uの働きかけの特徴を示す特徴量を求める。例えば、演算部20は、検出部10により検出された過去の対象者Uによる働きかけに基づいて、検出された対象者Uの顔の向きや視線の方向、表情、あるいは動作等の対象者Uの働きかけのばらつきの度合いを特徴量として求める。これは、例えば、対象者Uは、出力装置2とコミュニケーションを取りたいという関心が高いほど、出力装置2に対して様々なバリエーションの身振り等の働きかけを行い、出力装置2の興味を対象者Uの方に向けようとするためである。なお、例えば、演算部20は、検出部10により検出された対象者Uによる働きかけを、インタラクション装置100が内蔵するEEPROM等の記憶部に順次に記憶する。また、演算部20は、求めた対象者Uの働きかけの特徴を示す特徴量を推定部30に出力する。演算部20による特徴量を求める例は、図4から図7でも説明する。
推定部30は、演算部20により求められた対象者Uの働きかけの特徴を示す特徴量に基づいて、対象者Uの出力装置2への働きかけの意思の強さを推定する。例えば、推定部30は、演算部20から受けた対象者Uの働きかけのばらつきの度合いと所定の閾値とを比較する。推定部30は、例えば、対象者Uの働きかけのばらつきの度合いが所定の閾値より大きい場合、対象者Uには、出力装置2に対する働きかけの意思を、他の場合より強く有すると推定する。一方、推定部30は、対象者Uの働きかけのばらつきの度合いが所定の閾値以下の場合、対象者Uには、出力装置2に対する働きかけの意思がない、あるいは働きかけ意思が他の場合より弱いと推定する。推定部30は、推定結果を対象者Uの出力装置2への働きかけの意思の強さとして制御部40に出力する。推定部30による働きかけの意思の強さを推定する例は、図8から図10でも説明する。
制御部40は、推定部30により推定される対象者Uから出力装置2への働きかけの意思の強さに応じて、出力装置2の対象者Uへの働きかけを変化させる。例えば、制御部40は、対象者Uの出力装置2に対する働きかけの意思の強さに応じて、検出部10で検出される対象者Uの働きかけに対応して、EEPROM等の記憶部に予め登録された働きかけを出力装置2に実行させる。例えば、制御部40は、対象者Uが出力装置2に対する働きかけの意思を有すると推定された場合で、対象者Uが手を振っていることが検出された場合に、対象者Uに対して手を振る等の動作を出力装置2に実行させる。一方、制御部40は、例えば、対象者Uの出力装置2に対する働きかけの意思がないと推定され、対象者Uが出力装置2をじっと見ていることが検出された場合に、対象者Uが手を振る等の動作をするまで対象者Uの様子を見守る動作を、出力装置2に実行させる。あるいは、制御部40は、出力装置2に対する働きかけの意思がない対象者Uに対して、発話や身振り等の働きかけを出力装置2に実行させることで、対象者Uに出力装置2への働きかけの意思を持たせるようにしてもよい。
図2は、図1に示した検出部10により検出される対象者Uの働きかけの一例を示す。図2(a)から図2(d)は、検出部10から受けたカメラ1により撮影された対象者Uの画像1aをそれぞれ示す。図2(a)に示す画像1aは、対象者Uが出力装置2から見て左側の方に視線を向けている場合を示す。図2(b)は、対象者Uが出力装置2の方を向いているが、対象者Uの顔の中心が画像1aの対角線(破線で示す)の交点である画像1aの中心(またはカメラ1の光軸方向)から外れ、対象者Uの視線と出力装置2の向きとが互いにずれている場合を示す。図2(c)に示す画像1aは、対象者Uが出力装置2から見て右側の方に視線を向けている場合を示す。図2(d)に示す画像1aは、対象者Uが出力装置2の方に視線を向け、対象者Uの顔の中心が画像1aの中心と一致する場合で、対象者Uの視線と出力装置2の向きとが一致する場合を示す。検出部10は、例えば、検出された対象者Uの顔、目、鼻、耳、あるいは口等の輪郭の位置、および画像の中心位置に基づいて、対象者Uの顔の向きや視線の方向を検出する。検出部10は、検出した対象者Uの顔の向きや視線の方向等を、対象者Uの働きかけを示す情報の一部として図1に示す演算部20に出力する。
図3は、図1に示したインタラクション装置100におけるインタラクション処理の例を示す。ここで、インタラクション処理とは、インタラクション装置100が対象者Uに対する働きかけの動作を、例えば、出力装置2に行わせる処理である。ステップS10,S20,S30およびS40は、インタラクション装置100に搭載されるプロセッサがインタラクションプログラムを実行することにより実行される。すなわち、図3は、インタラクションプログラムおよびインタラクション方法の一実施形態を示す。この場合、図1に示した検出部10、演算部20、推定部30および制御部40は、インタラクションプログラムの実行により実現される。なお、図3に示す処理は、インタラクション装置100に搭載されるハードウェアにより実行されてもよい。この場合、図1に示した検出部10、演算部20、推定部30および制御部40は、インタラクション装置100内に配置される回路により実現される。
ステップS10において、検出部10は、カメラ1により撮影された対象者Uを含む画像に基づいて、図1で説明したように、対象者Uによる働きかけを検出する。
次に、ステップS20において、演算部20は、検出部10により順次に検出される対象者Uによる働きかけに基づいて、図1で説明したように、対象者Uの働きかけの特徴を示す特徴量を求め、求めた特徴量を推定部30に出力する。
次に、ステップS30において、推定部30は、演算部20から受けた対象者Uの働きかけの特徴を示す特徴量に基づいて、図1で説明したように、対象者Uの出力装置2への働きかけの意思の強さを推定する。推定部30は、推定した対象者Uの意思の強さを制御部40に出力する。
次に、ステップS40において、制御部40は、推定部30により推定された対象者Uの意思の強さに応じて、図1で説明したように、出力装置2の対象者Uへの働きかけを変化させる。
そして、インタラクション装置100によるインタラクション処理は終了する。なお、図3に示したフローは、繰り返し実行されてもよく、所定の頻度で実行されてもよい。
以上、この実施形態では、演算部20は、検出部10により検出された対象者Uによる働きかけに基づいて、対象者Uの働きかけの特徴を示す特徴量を算出する。推定部30は、求められた特徴量に基づいて、対象者Uの出力装置2への働きかけの意思の強さを推定し、制御部40は、推定された対象者Uの意思の強さに応じて、出力装置2の対象者Uへの働きかけを変化させる。これにより、インタラクション装置100は、例えば、対象者Uの出力装置2への働きかけの意思が強いことが推定された場合に、出力装置2による対象者Uへの働きかけを行わせることができる。すなわち、インタラクション装置100は、出力装置2を介して、対象者Uが違和感を持ちにくいタイミングで、対象者Uへの働きかけを行わせることができる。
図4は、インタラクション装置の別実施形態を示す。なお、図4に示すインタラクション装置100aの各要素のうち、図1に示すインタラクション装置100の要素と同一または同様の機能を有するものについては、同一の符号を付し説明を省略する。
マイクロホン3は、例えば、出力装置2の周辺の音声を電気信号に変換し、変換した電気信号を音声データとして検出部10aに出力する。なお、マイクロホン3は、出力装置2とともに一体に配置されてもよい。
タッチセンサ4は、例えば、対象者Uにより出力装置2が触られた場合、対象者Uにより触られたことを示す電気信号を接触データとして検出部10aに出力する。なお、タッチセンサ4は、出力装置2とともに一体に配置されてもよい。
検出部10aは、カメラ1から撮影された画像を、マイクロホン3から音声データを、およびタッチセンサ4から接触データをそれぞれ取得する。検出部10aは、例えば、取得した画像、音声データおよび接触データに基づいて、対象者Uによる出力装置2への働きかけを検出する。例えば、検出部10aは、特定した対象者Uの顔、目、鼻、耳、あるいは口等の輪郭の形状や互いの位置の関係に基づいて、対象者Uの顔の向きや視線の方向、あるいは対象者Uの表情や動作等を、対象者Uによる働きかけとして検出する。
また、検出部10aは、例えば、画像における対象者Uの大きさに基づいて、出力装置2から対象者Uまでの距離を、対象者Uによる働きかけの1つとして検出する。なお、例えば、測距センサが出力装置2に配置される場合に、検出部10aは、配置された測距センサから出力される距離の情報に基づいて、出力装置2から対象者Uまでの距離を検出してもよい。
また、検出部10aは、例えば、取得した音声データに基づいて、出力装置2の周囲で発せられた音声を検出する。検出部10aは、例えば、音声が検出され、撮影された画像から対象者Uが検出された場合、検出された対象者Uの口の動きと、検出された音声が発せられたタイミングとの比較から、検出された音声が対象者Uにより発せられた音声か否かを判定する。検出部10aは、対象者Uの口の動きと、検出された音声のタイミングとが一致する場合、対象者Uが音声を発したと判定し、対象者Uによる働きかけとして検出する。一方、検出部10aは、対象者Uの口の動きと、検出された音声のタイミングとが異なる場合、対象者Uと異なる人物が音声を発したと判定し、対象者Uによる働きかけとしない。なお、検出部10aは、画像から対象者Uを検出せず、音声を検出した場合、画像に写っていない人物を、検出した音声を発した対象者Uとし、検出した音声を対象者Uによる働きかけとして検出することが好ましい。
また、検出部10aは、例えば、取得した接触データに基づいて、タッチセンサ4を触った対象者Uを検出する。検出部10aは、例えば、タッチセンサ4が触られ、撮影された画像から対象者Uを検出した場合、対象者Uがタッチセンサ4を触ったと判定し、対象者Uによる働きかけとして検出する。一方、検出部10aは、画像から対象者Uを検出せず、タッチセンサ4が触られた場合、画像に写っていない人物を対象者Uとし、タッチセンサ4が触られたことを対象者Uによる働きかけとして検出することが好ましい。
検出部10aは、例えば、時刻を計時するクロック回路を含み、クロック回路から出力される時刻を示す情報を対象者Uによる働きかけの検出結果に付加し、1秒等の所定の時間間隔で、演算部20aおよび制御部40aにそれぞれ出力する。
演算部20aは、検出部10aにより順次に検出される対象者Uによる働きかけに基づいて、対象者Uの働きかけの特徴を示す特徴量を求める。演算部20aは、例えば、検出部10aにより検出された過去の対象者Uによる働きかけに基づいて、対象者Uの働きかけの特徴を示す特徴量を求め、求めた特徴量を推定部30aに出力する。また、演算部20aは、例えば、求めた特徴量を、検出部10aにより検出された対象者Uによる働きかけの検出結果とともに、記憶部50に割り当てられた対象者Uの働きかけを示すテーブル51の格納領域に順次に記憶する。なお、記憶部50は、EEPROMやRAM(Random Access Memory)等である。演算部20aの動作については、図5から図7において説明する。
推定部30aは、演算部20aより求められた対象者Uの働きかけの特徴を示す特徴量に基づいて、対象者Uの出力装置2への働きかけの意思の強さを推定する。推定部30aの動作については、図8から図10において説明する。
制御部40aは、検出部10aにより検出される対象者Uによる働きかけおよび推定部30aにより推定される対象者Uから出力装置2への働きかけの意思の強さに応じて、出力装置2の対象者Uへの働きかけを変化させる。例えば、制御部40aは、図1に示した制御部40と同様に、対象者Uの出力装置2に対する働きかけの意思の強さに応じて、検出部10aで検出される対象者Uの働きかけに対応して、記憶部50に予め登録された働きかけを出力装置2に実行させる。
図5から図7は、対象者Uの働きかけを示すテーブルの一例を示す。図5から図7に示すテーブル51は、対象者Uによる働きかけが検出部10aにより検出された時刻、対象者Uによる働きかけ、主要状態、関数H’(t)、距離、関数I(t)および指標値の各格納領域を含む。主要状態は、対象者Uの働きかけの種類の中で、最も高い頻度で検出された働きかけを示し、後述する式(6)を用いて演算部20aにより求められテーブル51に格納される。関数H’(t)は、後述する式(4)を用いて演算部20aにより求められテーブル51に格納される。関数I(t)は、後述する式(5)を用いて演算部20aにより求められテーブル51に格納される。距離は、出力装置2から対象者Uまでの距離を示し、検出部10aにより検出され、演算部20aによりテーブル51に格納される。指標値は、対象者Uの出力装置2に対する働きかけの意思の強さを示し、推定部30aによりテーブル51に格納される。指標値の格納領域については、推定部30aの動作とともに、図8から図10において説明する。
時刻の格納領域には、演算部20aが、例えば、1秒等の所定の時間間隔で、検出部10aから受ける検出結果に付加された時刻を格納する。図5から図7に示すテーブル51の時刻の格納領域には、例えば、10時0分0秒から10時0分49秒の各時刻が格納される。
対象者Uの働きかけの格納領域は、例えば、“FL(Face Left)”、“FR(Face Right)”、“FF(Face Front)”、“EC(Eye Contact)”、“FE(Face Expression)”の格納領域を含む。さらに、対象者Uの働きかけの格納領域は、“GS(Gesture)”、“ND(Nod)”、“RO(Roll)”、“SP(Speech)”、“TC(Touch)”および“NF(No Face)”の領域を含む。なお、対象者Uの働きかけの種類は、これに限定されず、他の働きかけの種類を含んでもよい。
領域FLは、図2(a)に示すように、対象者Uが出力装置2から見て左側の方に視線を向けていること、すなわち、働きかけ“FL”が検出された時に“1”にセットされる。領域FRは、図2(c)に示すように、対象者Uが出力装置2から見て右側の方に視線を向けていること、すなわち、働きかけ“FR”が検出された時に“1”にセットされる。領域FFは、図2(b)に示すように、対象者Uが出力装置2の方を向いているが、対象者Uの視線と出力装置2の向きとが一致しないこと、すなわち、働きかけ“FF”が検出された時に“1”にセットされる。領域ECは、図2(d)に示すように、対象者Uが出力装置2の方に視線を向け、対象者Uの視線と出力装置2の向きとが一致すること、すなわち、働きかけ“EC”が検出された時に“1”にセットされる。
また、領域FEは、対象者Uが笑顔、怒り顔、あるいは悲しんでいる等の表情をしていること、すなわち、働きかけ“FE”が検出された時に“1”にセットされる。領域GSは、対象者Uが手振りや身振り等の動作をしていること、すなわち、働きかけ“GS”が検出された時に“1”にセットされる。領域SPは、対象者Uが出力装置2に発話していること、すなわち、働きかけ“SP”が検出された時に“1”にセットされる。領域NDは、対象者Uが頭を上下に振ってうなずく動作をしていること、すなわち、働きかけ“ND”が検出された時に“1”にセットされる。領域ROは、対象者Uが頭を左右に振る動作をしていること、すなわち、働きかけ“RO”が検出された時に“1”にセットされる。領域TCは、対象者Uがタッチセンサ4に触れたこと、すなわち、働きかけ“TC”が検出された時に“1”にセットされる。なお、領域FL、FR、FF、EC、FE、GS、ND、RO、SPおよびTCは、対応する働きかけが検出部10aにより検出されない場合、“0”にリセットされる。
領域NFは、領域FL、FR、FF、EC、FE、GS、ND、RO、SPおよびTCが全て“0”にリセットされている場合に、“1”にセットされる。すなわち、領域NFは、検出部10aにより対象者Uによる働きかけが検出されなかった場合に“1”にセットされる。一方、領域NFは、領域FL、FR、FF、EC、FE、GS、ND、RO、SPおよびTCのいずれかが「1」にセットされている場合、“0”にリセットされる。
なお、図5から図7では、テーブル51を見やすくするために、“1”にセットされた領域FL、FR、FF、EC、FE、GS、ND、RO、SP、TCおよびNFは、網掛けで示される。
例えば、図5から図7において、領域NFが“1”にセットされた10時0分0秒から4秒、19秒、20秒、22秒および39秒から49秒の各時刻は、対象者Uによる働きかけが検出部10aにより検出されなかったことを示す。
図5から図7において、領域FFが“1”にセットされた10時0分15秒、18秒、24秒および38秒の各時刻は、出力装置2に向いた対象者Uの視線が出力装置2の向きと一致しないことが、対象者Uによる働きかけとして検出されたことを示す。領域ECが“1”にセットされた10時0分5秒から14秒、16秒、17秒、21秒、23秒および25秒から37秒の各時刻は、出力装置2に向いた対象者Uの視線が出力装置2の向きと一致したことが、対象者Uによる働きかけとして検出されたことを示す。領域FEが“1”にセットされた10時0分7秒、13秒、16秒および34秒の各時刻は、対象者Uが笑顔、怒り顔、あるいは悲しんでいる等の表情を浮かべたことが、対象者Uによる働きかけとして検出されたことを示す。領域NDが“1”にセットされた10時0分13秒の時刻は、対象者Uがうなずく動作をしたことが、対象者Uによる働きかけとして検出されたことを示す。領域TCが“1”にセットされた10時0分17秒および18秒の各時刻は、対象者Uがタッチセンサ4を触ったことが、対象者Uによる働きかけとして検出されたことを示す。
次に、関数H’(t)の格納領域について説明する。演算部20aは、例えば、式(1)を用いて、現在の時刻tから所定の時間前までの期間における「1」の値が格納された働きかけの種類の総数N(t)を求める。すなわち、働きかけの種類の総数N(t)は、現在の時刻tから所定の時間前までの期間に一度でも図1に示した検出部10によって検出された働きかけの種類の総数であり、対象者Uから出力装置2への働きかけの多彩さを示す。
Figure 0006322927
ここで、“T”は、現在の時刻tから所定の時間前までの期間を示し、例えば、10秒等と設定される。“devent(t−i)”は、現在の時刻tからi秒前の時刻における領域FL、FR、FF、EC、FE、GS、ND、RO、SP、TCおよびNFに格納された“0”または“1”の値を示す。式(1)の展開された各項に示されるように、“event”は、領域FL、FR、FF、EC、FE、GS、ND、RO、SP、TCおよびNFのそれぞれに対応する対象者Uによる働きかけの種類を示す。
また、演算部20aは、式(2)に基づいて、領域FL 、FR、FF、EC、FE、GS、ND、RO、SP、TCおよびNFそれぞれに対応する種類の働きかけが検出された発生確率pevent(t)を求める。“event”は、式(1)と同様に、領域FL、FR、FF、EC、FE、GS、ND、RO、SP、TCおよびNFのそれぞれに対応する対象者Uによる働きかけの種類を示す。
Figure 0006322927
演算部20aは、求めた各種類の働きかけの発生確率pevent(t)を式(3)に代入して、例えば、対象者Uによる働きかけのばらつきを示す平均情報量である関数H(t)を求める。
Figure 0006322927
そして、演算部20aは、式(4)に基づいて、求めた平均情報量H(t)から関数H’(t)に変換する。つまり、演算部20aは、平均情報量H(t)が増加する場合、現在の時刻tの平均情報量H(t)の値を現在の時刻tの関数H’(t)の値とする。一方、演算部20aは、平均情報量H(t)が減少する場合、現在の時刻tの平均情報量H(t)と1秒前の関数H(t−1)との値を平均した値を関数H’(t)の値とする。以下の説明では、関数H’(t)の値は、平滑化された平均情報量と称される。
Figure 0006322927
平均情報量をH(t)からH’(t)に変換することで、新奇な刺激に対しては急激に興味を持つ対象者Uの反応を示し、興味の低下時には過去の記憶を保持することで、対象者Uの出力装置2への働きかけの意思の度合いが断続的になることを抑制できる。この結果、推定部30aは、対象者Uの出力装置2への働きかけの意思の強さを精度良く推定することができる。演算部20aは、求めた平滑化された平均情報量H’(t)の値を平滑化された平均情報量H’(t)の格納領域に格納する。
例えば、演算部20aは、式(5)を用いて、平滑化された平均情報量H’(t)に対して出力装置2から対象者Uまでの距離を重み付けした関数I(t)を、対象者Uによる働きかけのばらつきの大きさを示す分散情報として求める。以下の説明では、関数I(t)の値は、インタラクション意思値と称する。
Figure 0006322927
ここで、式(5)に含まれる定数Xは、対象者Uが出力装置2に対して親しみを持っていることを示す対人距離を示す。例えば、定数Xは、0.5メートル等の距離に設定される。また、式(5)に含まれる変数Dis(t)は、検出部10aにより検出された出力装置2から対象者Uまでの距離を示し、図5から図7に示すテーブル51の距離の格納領域に格納された値である。演算部20aは、求めたインタラクション意思値I(t)の値を、テーブル51の関数I(t)の格納領域に格納する。なお、演算部20aは、インタラクション意思値I(t)を、対象者Uによる働きかけのばらつきの大きさを示す分散情報として求めたが、これに限定されない。例えば、演算部20aは、平均情報量H(t)や平滑化された平均情報量H’(t)を、対象者Uによる働きかけのばらつきの大きさを示す分散情報として求めてもよい。
また、演算部20aは、例えば、求めた各種類の働きかけが検出された発生確率peventのうち、式(6)に基づいて、最も高い発生確率で検出された働きかけを、対象者Uの主要状態と判定する。
Figure 0006322927
演算部20aは、主要状態と判定した働きかけを、図5から図7に示すテーブル51の主要状態の格納領域に格納する。主要状態は、図4に示した検出部10aにより検出された対象者Uによる働きかけの種類の中で、他の種類より高い頻度で検出された働きかけを示す指向情報の一例である。
図8は、対象者Uの出力装置2に対する働きかけの意思の強さの定義の例を示す。図8に示すように、対象者Uの出力装置2に対する働きかけの意思の強さは、例えば、4段階の指標値S(t)によって定義される。なお、対象者Uの出力装置2に対する働きかけの意思の強さは、4段階に限定されず、2以上の複数の指標値S(t)で定義されることが好ましい。
例えば、推定部30aが指標値S(t)を“0”にセットした場合には、画像、音声データおよび接触データから、対象者Uの働きかけが検出部10aにより検出されないことを示す。推定部30aが指標値S(t)を“1”にセットした場合には、例えば、画像、音声データおよび接触データのいずれかから対象者Uの働きかけが検出部10aにより検出されたことを示す。また、推定部30aが指標値S(t)を“1”にセットした場合には、対象者Uが出力装置2に対して働きかけの意思がない場合にも適用される。推定部30aが指標値S(t)を“2”にセットした場合には、対象者Uが出力装置2に対して働きかけの意思があることを示す。推定部30aが指標値S(t)を“3”にセットした場合には、出力装置2に対する対象者Uの働きかけの意思が、指標値S(t)が“2”にセットされた場合より強いことを示す。
図9は、図4に示す推定部30aが指標値S(t)の推定に用いる遷移条件のテーブルの一例を示す。図9に示すテーブル52は、例えば、記憶部50に割り当てられた格納領域に予め記憶される。テーブル52は、遷移条件、現在の時刻tより1秒前の過去の指標値S(t−1)および現在の時刻tにおける現在の指標値S(t)の格納領域を含む。
遷移条件の格納領域の1行目は、 例えば、検出部10aが、画像、音声データおよび接触データから、現在の時刻tから1秒前において対象者Uの働きかけを検出しなかった場合で、現在の時刻tにおいて対象者Uの働きかけを検出した場合の遷移条件を示す。例えば、推定部30aは、図5から図7に示すテーブル51から、現在の時刻tより1秒前の時刻における指標値の格納領域に格納された値を、過去の指標値S(t−1)として読み込む。推定部30aは、読み込んだ過去の指標値S(t−1)が“0”で、現在の時刻tに検出部10aより対象者Uによる働きかけを検出したという結果を受けた場合、「対象者を検出(DETECT_HUMAN)」と判定する。推定部30aは、過去の指標値S(t−1)の“0”から現在の指標値S(t)を“1”に遷移させる。そして、推定部30aは、現在の指標値S(t)の値を、テーブル51の現在の時刻tにおける指標値の格納領域に格納する。
図9に示す遷移条件の格納領域の2行目は、例えば、検出部10aが、画像、音声データおよび接触データから、一定の期間以上に亘って対象者Uの働きかけを検出しなかった場合の遷移条件を示す。例えば、図5から図7に示すテーブル51において、現在の時刻tから一定の期間前までに亘って、領域NFが連続して“1”にセットされた場合、推定部30aは、「対象者を不検出(LOST_HUMAN)」と判定する。推定部30aは、指標値S(t−1)の“Y”から指標値S(t)を“0”に遷移させる。また、推定部30aは、現在の指標値S(t)を、テーブル51の現在の時刻tにおける指標値の格納領域に格納する。ここで、過去の指標値S(t−1)の“Y”は、“1”、“2”および“3”のいずれかを示す。
また、一定の期間は、例えば、20秒以上等に設定される。すなわち、現在の時刻tにおいて、検出部10aにより対象者Uによる働きかけが検出されず、演算部20aにより領域NFが“1”にセットされたとしても、推定部30aは、「対象者を不検出(LOST_HUMAN)」と直ちに判定しない。例えば、出力装置2が、インタラクション装置100aからの制御に応じて、対象者Uの働きかけを追跡する場合に、対象者Uがカメラ1の撮影範囲から一瞬外れる場合がある。対象者Uがカメラ1の撮影範囲から外れる度に、推定部30aが「対象者を不検出(LOST_HUMAN)」と判定した場合、インタラクション装置100aによる出力装置2の動作は不自然となる。そこで、出力装置2の動作が不自然とならないように、推定部30aは、現在の時刻tから一定の期間前までの領域NFに“1”が連続してセットされた場合に、「対象者を不検出(LOST_HUMAN)」と判定する。
図9に示す遷移条件の格納領域の3行目から5行目は、推定部30aが、指標値S(t)を“1”から“2”、“2”から“3”、あるいは“3”から“2”に遷移させる遷移条件を示す。例えば、推定部30aは、図5から図7に示すテーブル51において、現在の時刻tより1秒前の時刻における指標値の格納領域に格納された値を、過去の指標値S(t−1)として読み込む。演算部20aにより求められた現在の時刻tの主要状態が働きかけ“FF”または“EC”で、インタラクション意思値I(t)が閾値Th12より大きい場合、推定部30aは、指標値S(t−1)の“1”から指標値S(t)を“2”に遷移させる。また、演算部20aにより求められた現在の時刻tの主要状態が働きかけ“FF”または“EC”で、インタラクション意思値I(t)が閾値Th23より大きい場合、推定部30aは、指標値S(t−1)の“2”から指標値S(t)を“3”に遷移させる。また、演算部20aにより算出された現在の時刻tの主要状態が働きかけ“FF”または“EC”で、インタラクション意思値I(t)が閾値Th32より小さい場合、推定部30aは、指標値S(t−1)の“3”から指標値S(t)を“2”に遷移させる。そして、推定部30aは、現在の指標値S(t)を、テーブル51の現在の時刻tにおける指標値の格納領域に格納する。
図9に示す遷移条件の格納領域の6行目および7行目は、推定部30aが、指標値S(t)を“2”から“1”または“3”から“1”に遷移させる遷移条件を示す。例えば、推定部30aは、図5から図7に示すテーブル51において、現在の時刻tから1秒前の時刻における指標値の格納領域に格納された値を、過去の指標値S(t−1)として読み込む。読み込んだ過去の指標値S(t−1)が“2”または“3”の場合で、演算部20aにより求められた現在の時刻tのインタラクション意思値I(t)が閾値Th21より小さい場合、推定部30aは、現在の指標値S(t)を“1”に遷移させる。そして、推定部30aは、現在の指標値S(t)を、テーブル51の現在の時刻tにおける指標値の格納領域に格納する。
なお、推定部30aは、図9に示す遷移条件のいずれも満たさない場合、過去の指標値S(t−1)の値を現在の時刻tの指標値S(t)として維持し、テーブル51の現在の時刻tにおける指標値の格納領域に格納する。
図10は、対象者Uのインタラクション意思値I(t)、指標値S(t)および主要状態の時間変化の一例を示す。図10に示すように、横軸は、例えば、図5から図7に示すテーブル51の時刻を含む10時0分0秒から50秒の範囲の時刻を示す。縦軸は、対象者Uのインタラクション意思値I(t)を示す。そして、図10は、図5から図7に示すテーブル51に格納されたインタラクション意思値I(t)の値を破線の折れ線で示す。また、図10に示すグラフの上段には、推定部30aにより推定された対象者Uの出力装置2に対する働きかけの意思の強さを示す指標値S(t)と、演算部20aにより求められた対象者Uの主要状態とを示す。また、図10に示すように、図9に示すテーブル52における遷移条件の閾値Th12,Th23,Th32,Th21は、例えば、“1.0”,“2.0”,“1.5”,“0.5”にそれぞれ設定される。なお、閾値Th12,Th23,Th32,Th21は、“1.0”,“2.0”,“1.5”,“0.5”にそれぞれ設定されたが、これに限定されない。推定部30aは、閾値Th12,Th23,Th32,Th21として、例えば、対象者Uの性別や年齢に応じて予め設定した値を用いてもよい。また、閾値Th12と閾値Th21とは同じ値に設定され、閾値Th23と閾値Th32とは同じ値に設定されてもよい。また、推定部30aは、例えば、対象者Uからの出力装置2への働きかけをもとに学習し、閾値Th12,Th23,Th32,Th21の値を適宜変更してもよい。
図10に示すように、10時0分0秒から4秒の各時刻において、インタラクション意思値I(t)は“0”の値を示す。これは、図5に示すように、10時0分0秒から4秒の各時刻において、領域NFが“1”にセットされ、対象者Uの働きかけが検出部10aにより検出されなかったことによる。なお、10時0分0秒から一定の期間前までの領域NFに“1”が連続してセットされているものとする。これにより、10時0分0秒から4秒の各時刻において、演算部20aは、式(1)から式(5)に基づいて、インタラクション意思値I(t)として“0”の値を算出する。また、10時0分0秒から4秒の各時刻から一定の期間前までの領域NFに“1”が連続してセットされることから、推定部30aは、テーブル52の遷移条件に基づいて、「対象者を不検出(LOST_HUMAN)」と判定する。推定部30aは、10時0分0秒から4秒の各時刻の指標値S(t)を“0”にセットする。
なお、10時0分0秒からの5秒間の期間において、推定部30aが「対象者を不検出(LOST_HUMAN)」と判定したが、図5に示すように、距離の格納領域には、例えば、検出部10aにより最後に検出された対象者Uの距離が格納される。ただし、推定部30aが「対象者を不検出(LOST_HUMAN)」と判定した場合には、例えば、距離の格納領域に“0”の値が格納されてもよいし、測距センサ等を用いて検出部10aにより検出された壁や柱等の距離が格納されてもよい。
図5に示すように、10時0分5秒の時刻において、検出部10aにより、対象者Uによる働きかけ“EC”の検出を示す領域ECが“1”にセットされる。対象者Uによる新たな働きかけ(この例では“EC”)の検出により、検出された働きかけの種類が増えたことから、演算部20aは、例えば、“0”より大きなインタラクション意思値I(t)を算出する。また、10時0分5秒の時刻に対象者Uによる働きかけが検出部10aより検出されたことから、推定部30aは、「対象者を不検出(LOST_HUMAN)」の状態から、「対象者を検出(DETECT_HUMAN)」と判定する。そして、推定部30aは、1秒前の時刻である10時0分4秒の指標値S(t−1)が“0”から指標値S(t)を“1”に遷移させる条件が満たされたと判定し、10時0分5秒の指標値S(t)を“1”にセットする。なお、10時0分5の時刻までのT秒間では、領域NFに対応する働きかけの発生確率が、領域ECに対応する働きかけの発生確率より大きいことから、演算部20aは、10時0分5秒の時刻の主要状態を領域NFに対応する働きかけとする。
図5に示すように、時刻10時0分6秒からの8秒間に亘って、働きかけ“EC”が、検出され、時刻10時0分7秒に働きかけ“FE”が検出され、時刻10時0分13秒に働きかけ“FE”と働きかけ“ND”とが検出される。また、図5に示すように、時刻10時0分6秒からの8秒間の期間に、検出された距離が小さくなることから、検出された対象者Uが出力装置2に近づいて来ることを示す。すなわち、時刻10時0分6秒からの8秒間の期間に、検出された働きかけの種類を示す総数N(t)が増加し、出力装置2と対象者Uとの距離が短くなることで、図10に示すように、演算部20aにより求められるインタラクション意思値I(t)が増加する。また、時刻10時0分9秒において、働きかけ“EC”が検出された発生確率が、働きかけ“NF”が検出された発生確率より大きくなることから、演算部20aは、対象者Uの主要状態を働きかけ“EC”とする。ただし、図10に示すように、時刻10時0分9秒からの6秒間において、主要状態は働きかけ“EC”となるが、演算部20aにより求められたインタラクション意思値I(t)は閾値Th12以下である。したがって、推定部30aは、図9に示すテーブル52の遷移条件に基づき、現在の指標値S(t)を“1”に遷移させる。
図5に示すように、時刻10時0分15秒からの6秒間の期間において、検出された対象者Uが出力装置2にさらに近づくとともに、検出された働きかけの種類を示す総数N(t)が増加する。これにより、図10に示すように、演算部20aにより求められたインタラクション意思値I(t)はさらに増加する。図10に示すように、時刻10時0分15秒において、演算部20aは、閾値Th12より大きいインタラクション意思値I(t)を算出し、主要状態として働きかけ“EC”を求める。推定部30aは、図9に示すテーブル52の遷移条件に基づき、指標値S(t−1)の“1”から指標値S(t)の“2”に遷移させる。また、時刻10時0分17秒において、演算部20aは、閾値Th23より大きいインタラクション意思値I(t)を算出し、主要状態として働きかけ“EC”を求めることから、推定部30aは、指標値S(t−1)の“2”から指標値S(t)の“3”に遷移させる。
なお、図6に示すように、時刻10時0分19秒および20秒において、領域NFが“1”にセットされることから、検出部10aが、対象者Uの働きかけを見失ったことを示す。しかしながら、図5および図6に示すように、10時0分19秒および20秒から一定の期間前において、領域NFに“1”が連続してセットされていないことから、推定部30aは、「対象者を不検出(LOST_HUMAN)」と判定しない。そして、推定部30aは、指標値S(t)を“3”に維持する。
図5および図6に示すように、時刻10時0分21秒からの17秒間の期間において、検出された対象者Uが出力装置2から遠ざかるとともに、検出された働きかけの種類を示す総数N(t)が減少する。これにより、図10に示すように、演算部20aにより求められたインタラクション意思値I(t)は減少に転じる。時刻10時0分24秒において、演算部20aは、閾値Th32より小さいインタラクション意思値I(t)を算出し、主要状態として働きかけ“EC”を求める。推定部30aは、図9に示すテーブル52の遷移条件に基づき、指標値S(t−1)の“3”から指標値S(t)の“2”に遷移させる。また、時刻10時0分32秒において、演算部20aは、閾値Th21より小さいインタラクション意思値I(t)を算出し、推定部30aは、テーブル52の遷移条件に基づき、指標値S(t−1)の“2”から指標値S(t)の“1”に遷移させる。
なお、図10に示すように、時刻10時0分38秒から12秒間の期間において、インタラクション意思値I(t)が一時的に増加する。これは、図7に示すように、検出部10aは、時刻10時0分38秒からの12秒間の期間において、働きかけ“FF”および働きかけ“NF”のいずれかを検出する。また、検出部10aは、時刻10時0分38秒から10秒前の時刻10時0分29秒までの期間において働きかけ“EC”を、時刻10時0分34秒に働きかけ“FE”をそれぞれ検出する。つまり、時刻10時0分38秒から12秒間の期間において、検出された働きかけの種類を示す総数N(t)が一時的に増加したために、インタラクション意思値I(t)が一時的に増加した。ただし、時刻10時0分38秒からの12秒間の期間において、演算部20aにより求められたインタラクション意思値I(t)は、閾値Th12以下であることから、推定部30aは、テーブル52の遷移条件に基づき、指標値S(t)を“1”に維持する。そして、時刻10時0分49秒以降において、一定の期間に亘って、領域NFに“1”が連続してセットされた場合、推定部30aは、「対象者を不検出(LOST_HUMAN)」と判定し、指標値S(t)を“0”に遷移させる。
図11は、図4に示したインタラクション装置100aにおけるインタラクション処理の例を示す。ステップS100,S110,S120,S130およびS140は、インタラクション装置100aに搭載されるプロセッサがインタラクションプログラムを実行することにより実行される。すなわち、図11は、インタラクションプログラムおよびインタラクション方法の別実施形態を示す。この場合、図4に示した検出部10a、演算部20a、推定部30aおよび制御部40aは、インタラクションプログラムの実行により実現される。なお、図11に示す処理は、インタラクション装置100aに搭載されるハードウェアにより実行されてもよい。この場合、図4に示した検出部10a、演算部20a、推定部30aおよび制御部40aは、インタラクション装置100a内に配置される回路により実現される。
ステップS100において、検出部10aは、カメラ1により撮影された画像、マイクロホン3により取得された音声データ、およびタッチセンサ4により取得された接触データに基づいて、図4で説明したように、対象者Uによる働きかけを検出する。
次に、ステップS110において、演算部20aは、検出部10aにより順次に検出される対象者Uによる働きかけに基づいて、図4から図7で説明したように、対象者Uの働きかけの特徴を示す特徴量を求める。演算部20aは、例えば、式(1)から式(6)を用いて求めた特徴量を推定部30aに出力する。また、演算部20aは、求めた特徴量を、検出部10aにより検出された対象者Uによる働きかけの検出結果とともに、図5から図7に示すテーブル51に順次に格納する。
次に、ステップS120において、推定部30aは、演算部20aから受けた対象者Uの働きかけの特徴を示す特徴量と、図9に示すテーブル52の遷移条件とに基づいて、対象者Uの出力装置2への働きかけの意思の強さとして指標値S(t)の値を推定する。推定部30aは、推定した指標値S(t)を制御部40に出力する。
次に、ステップS130において、制御部40aは、検出部10aにより検出された対象者Uによる働きかけおよび推定部30aにより推定された対象者Uの意思の強さに応じて、出力装置2の対象者Uへの働きかけを変化させる。
次に、ステップS140において、インタラクション装置100aは、例えば、インタラクション装置100aに含まれるキーボードやタッチパネル等の入力装置を介して、終了指示を受けたか否かを判定する。インタラクション装置100aは、終了指示を受けた場合(YES)、一連の処理を終了する。一方、インタラクション装置100aは、終了指示を受けていない場合(NO)、処理をステップS100に移行する。
以上、この実施形態では、演算部20aは、検出部10aに検出された対象者Uによる働きかけに基づいて、対象者Uの働きかけの特徴を示す特徴量として、式(1)から式(6)を用い対象者Uのインタラクション意思値I(t)と主要意思とを求める。推定部30aは、演算部20aで求められた特徴量と図9に示すテーブル52の遷移条件とに基づいて、対象者Uの出力装置2への働きかけの意思の強さを推定する。制御部40は、検出された対象者Uによる働きかけおよび推定された対象者Uの意思の強さに応じて、出力装置2の対象者Uへの働きかけを変化させる。これにより、インタラクション装置100aは、例えば、対象者Uの出力装置2への働きかけの意思が強いことが推定された場合に、出力装置2による対象者Uへの働きかけを行わせることができる。すなわち、インタラクション装置100aは、出力装置2を介して、対象者Uが違和感を持ちにくいタイミングで、対象者Uへの働きかけを行わせることができる。
また、推定部30aが、演算部20aにより求められた特徴量とともに、図9に示すテーブル52の遷移条件を用いることで、対象者Uの働きかけの意思の強さをロバストに推定することができ、対象者Uに配慮した出力装置2の働きかけが可能となる。
なお、検出部10aは、取得した音声データに基づいて、出力装置2の周囲で発せられた音声を検出したが、これに限定されない。例えば、検出部10aは、音声データに対して音声認識の処理を施し、対象者Uによる働きかけを検出してもよい。
なお、検出部10aにより検出される対象者Uは1人としたが、これに限定されない。例えば、検出部10aが、複数の対象者Uを検出した場合、検出した各対象者Uを識別する識別子を検出された各対象者Uによる働きかけの検出結果に付加するのがよい。演算部20aは、付加された識別子に基づいて、各対象者Uの働きかけの特徴を示す特徴量をそれぞれ求め、推定部30aは、検出結果と各対象者Uの特徴量とに基づいて、各対象者Uの出力装置2への働きかけの意思の強さをそれぞれ推定するのがよい。
なお、領域NFは、領域FL、FR、FF、EC、FE、GS、ND、RO、SPおよびTCが全て“0”にリセットされている場合に、“1”にセットされるとしたが、これに限定されない。例えば、検出部10aが、音声データや接触データから対象者Uの働きかけを検出し、検出された対象者Uが画像に撮影されていない場合、演算部20aは、領域SPや領域TCを“1”にセットするとともに、領域NFを“1”にセットしてもよい。
なお、演算部20aは、インタラクション意思値I(t)を求めるにあたり、式(4)に基づいて、平均情報量H(t)を平滑化された平均情報量H’(t)に変換したが、これに限定されない。例えば、演算部20aは、平均情報量H(t)が減少する場合、現在の時刻tの平均情報量H(t)の値より1秒前の平均情報量H(t−1)の値を重み付けして、平滑化された平均情報量H’(t)の値を算出してもよい。あるいは、演算部20aは、平均情報量H(t)の値に対して、窓関数やローパスフィルタ等を用いた加重平均処理を施し、平滑化された平均情報量H’(t)として求めてもよい。
なお、演算部20aは、式(3)に基づいて、平均情報量H(t)を算出したがこれに限定されない。例えば、演算部20aは、式(7)に基づいて、平均情報量H(t)を算出してもよい。
Figure 0006322927
ここで、“p1event”は、eventごとの働きかけが検出された発生確率を示し、“p1event・log2(p1event)”の値は、eventごとに予め計算され記憶部50に記憶される。演算部20aは、記憶部50から記憶されたp1event・log2(p1event)の値を読み込み、式(7)に基づいて、平均情報量H(t)を算出する。p1event・log2(p1event)の値が予め計算されていることにより、演算部20aは、発生確率および発生確率の対数の計算を省略することができ、演算部20aの演算量を式(3)を用いる場合と比べて削減することができる。
図12は、インタラクション装置の別実施形態を示す。なお、図12に示すインタラクション装置100bの各要素のうち、図4に示すインタラクション装置100aの要素と同一または同様の機能を有するものについては、同一の符号を付し説明を省略する。ただし、演算部20aは、検出部10aにより順次に検出される対象者Uによる働きかけに基づいて、算出した対象者Uの働きかけの特徴を示す特徴量を推定部30aとともに、判定部60に出力する。
判定部60は、例えば、演算部20aにより求められた対象者Uの働きかけの特徴を示す特徴量に基づいて、対象者Uが所定の働きかけに偏っているか否かを判定する。
ここで、例えば、働きかけ“EC”が連続して検出され、他の種類の働きが検出されない状態が続いている場合に、対象者Uは、出力装置2への働きかけの意思がなく、単に出力装置2を眺めている可能性が高い。このような場合に、演算部20aによって求められる平均情報量H(t)およびインタラクション意思値I(t)は“0”または“0”に近い値となる。なお、他の種類の働きかけである働きかけ“FL”、“FR”、“FF”、“FE”、“GS”、“ND”、“RO”、“SP”、“TC”および“NF”についても同様である。
そこで、判定部60は、演算部20aにより求められた特徴量のうち、平均情報量H(t)および主要状態に基づいて、例えば、平均情報量H(t)が所定値以下である場合、対象者Uが、所定の働きかけである主要状態に偏っていると判定する。一方、受けた平均情報量H(t)の値が所定値より大きい場合、判定部60は、対象者Uが所定の働きかけである主要状態に偏っていないと判定する。判定部60は、判定結果を制御部40bに出力する。なお、判定部60は、関数H(t)と主要状態とに基づいて判定したが、これに限定されない。例えば、判定部60は、主要状態とともに、インタラクション意思値I(t)または平滑化された平均情報量H’(t)に基づいて判定してもよい。また、所定値は、判定部60の判定精度に応じて設定されるのが好ましい。
制御部40bは、検出部10aにより検出された対象者Uによる働きかけ、推定部30により推定される対象者Uから出力装置2への働きかけの意思の強さ、および判定部60の判定結果に応じて、出力装置2の対象者Uへの働きかけを変化させる。例えば、制御部40bは、図1に示した制御部40と同様に、対象者Uの出力装置2に対する働きかけの意思の強さに応じて、検出部10aで検出される対象者Uの働きかけに対応して、記憶部50に予め登録された働きかけを出力装置2に実行させる。
図13は、図12に示したインタラクション装置100bにおけるインタラクション処理の例を示す。なお、図13に示す処理のうち、図11に示す処理と同一または同様の処理については、同一のステップの符号を付し説明を省略する。図13に示す処理は、インタラクション装置100bに搭載されるプロセッサがインタラクションプログラムを実行することにより実行される。すなわち、図13は、インタラクションプログラムおよびインタラクション方法の別実施形態を示す。この場合、図12に示した検出部10a、演算部20a、推定部30a、制御部40bおよび判定部60は、インタラクションプログラムの実行により実現される。なお、図13に示す処理は、インタラクション装置100bに搭載されるハードウェアにより実行されてもよい。この場合、図12に示した検出部10a、演算部20a、推定部30a、制御部40bおよび判定部60は、インタラクション装置100b内に配置される回路により実現される。
ステップS110aにおいて、演算部20aは、検出部10aにより順次に検出される対象者Uによる働きかけに基づいて、図4から図7で説明したように、対象者Uの働きかけの特徴を示す特徴量を求める。演算部20aは、算出した対象者Uの働きかけの特徴を示す特徴量を推定部30aおよび判定部60にそれぞれ出力する。
ステップS125において、判定部60は、演算部20aから受けた対象者Uの働きかけの特徴を示す特徴量に基づいて、図12で説明したように、対象者Uが所定の働きかけに偏っているか否かを判定する。判定部60は、判定結果を制御部40bに出力する。
次に、ステップS130aにおいて、制御部40bは、検出部10aにより検出された対象者Uの働きかけ、推定部30aにより推定された対象者Uの意思の強さ、および判定部60の判定結果に応じて、出力装置2の対象者Uへの働きかけを変化させる。
次に、ステップS140aにおいて、インタラクション装置100bは、例えば、インタラクション装置100bに含まれるキーボードやタッチパネル等の入力装置を介して、終了指示を受けたか否かを判定する。インタラクション装置100bは、終了指示を受けた場合(YES)、一連の処理を終了する。一方、インタラクション装置100bは、終了指示を受けていない場合(NO)、処理をステップS100に移行する。
以上、この実施形態では、演算部20aは、検出部10aに検出された対象者Uによる働きかけに基づいて、対象者Uの働きかけの特徴を示す特徴量として、式(1)から式(6)を用い対象者Uのインタラクション意思値I(t)と主要意思とを求める。推定部30aは、演算部20aで求められた特徴量と図9に示すテーブル52の遷移条件とに基づいて、対象者Uの出力装置2への働きかけの意思の強さを推定する。また、判定部60は、演算部20aにより求められた特徴量に基づいて、対象者Uが所定の働きかけに偏っているか否かを判定する。制御部40aは、検出された対象者Uによる働きかけ、推定された対象者Uの意思の強さおよび判定部60の判定結果に応じて、出力装置2の対象者Uへの働きかけを変化させる。例えば、対象者Uが出力装置2を漫然と眺めている場合等、対象者Uからの働きかけが偏っていると判定した場合に、制御部40aは、対象者Uの働きかけの意思がない場合と同様の働きかけを出力装置2に行わせる。これにより、インタラクション装置100bは、出力装置2を介して、対象者Uが違和感を持ちにくいタイミングで、対象者Uへの働きかけを行わせることができる。
また、推定部30aが、演算部20aにより求められた特徴量とともに、図9に示すテーブル52の遷移条件を用いることで、対象者Uの働きかけの意思の強さをロバストに推定することができ、対象者Uに配慮した出力装置2の働きかけが可能となる。
なお、検出部10aは、取得した音声データに基づいて、出力装置2の周囲で発せられた音声を検出したが、これに限定されない。例えば、検出部10aは、音声データに対して音声認識の処理を施し、対象者Uによる働きかけを検出してもよい。
なお、検出部10aにより検出される対象者Uは1人としたが、これに限定されない。例えば、検出部10aが、複数の対象者Uを検出した場合、検出した各対象者Uを識別する識別子を検出された各対象者Uによる働きかけの検出結果に付加するのがよい。演算部20aは、付加された識別子に基づいて、各対象者Uの働きかけの特徴を示す特徴量をそれぞれ求め、推定部30aは、検出結果と各対象者Uの特徴量とに基づいて、各対象者Uの出力装置2への働きかけの意思の強さをそれぞれ推定するのがよい。また、判定部60は、各対象者Uの特徴量に基づいて、対象者Uが所定の働きかけに偏っているか否かを判定するのがよい。
なお、検出部10bは、図4から図11で説明した実施形態と同様に、音声データや接触データから対象者Uの働きかけ“SP”や働きかけ“TC”を検出した場合でも、対象者Uが画像に撮影されていない場合に、働きかけ“NF”を検出してもよい。
なお、演算部20aは、図4から図11で説明した実施形態と同様に、インタラクション意思値I(t)を求めるために、平均情報量H(t)の値より1秒前の平均情報量H(t−1)の値を重み付けし、平滑化された平均情報量H’(t)の値を算出してもよい。あるいは、演算部20aは、平均情報量H(t)の値に対して、窓関数やローパスフィルタ等を用いた加重平均処理を施すことで、平滑化された平均情報量H’(t)を求めてもよい。
なお、演算部20aは、図4から図11で説明した実施形態と同様に、平均情報量H(t)の算出に、式(7)を用いてもよい。
図14は、インタラクション装置の別実施形態を示す。なお、図14に示すインタラクション装置100cの各要素のうち、図12に示すインタラクション装置100bの要素と同一または同様の機能を有するものについては、同一の符号を付し説明を省略する。
検出部10bは、カメラ1から撮影された画像を、マイクロホン3から音声データを、およびタッチセンサ4から接触データをそれぞれ取得する。検出部10bは、例えば、取得した画像、音声データおよび接触データに基づいて、図4に示した検出部10aと同様に、対象者Uによる出力装置2への働きかけを検出する。また、検出部10bは、図4に示した検出部10aと同様に、例えば、画像における対象者Uの大きさに基づいて、出力装置2から対象者Uまでの距離を、対象者Uによる働きかけの1つとして検出する。
例えば、検出部10bは、複数の対象者Uを検出した場合、検出した各対象者Uを識別する識別子K(1)−K(M)を検出された対象者Uによる働きかけの検出結果に付加する。検出部10bは、識別子K(1)−K(M)が付加された検出結果を、制御部40cおよび処理部70(70(1)−70(M))に出力する(Mは正の整数)。
処理部70(1)−70(M)は、演算部20b、推定部30bおよび判定部60aをそれぞれ含む。処理部70(1)−70(M)は、識別子K(1)−K(M)が付加された検出結果を検出部10bより受けて、演算部20bへ出力する。なお、図14では、処理部70(1)−70(M)のうち、処理部70(1)が、演算部20b、推定部30bおよび判定部60aを含むことを示すが、他の処理部70(2)−70(M)についても同様に、演算部20b、推定部30bおよび判定部60aを含む。以下において、処理部70(1)の動作について説明し、処理部70(2)−70(M)についても同様の機能を有し、説明を省略する。
処理部70(1)の演算部20bは、例えば、検出部10bより識別子K(1)−K(M)が付加された検出結果を受け、受けた結果のうち予め設定された識別子K(1)が付加された検出結果を抽出する。演算部20bは、抽出した識別子K(1)の働きかけを示す検出結果に基づいて、識別子K(1)の対象者Uの働きかけの特徴を示す特徴量を求める。演算部20bは、例えば、検出部10bにより検出された過去の識別子K(1)の対象者Uによる働きかけに基づいて、識別子K(1)の対象者Uの働きかけの特徴を示す特徴量を求め、求めた特徴量を推定部30bおよび判定部60aに出力する。また、演算部20bは、例えば、求めた特徴量を、識別子K(1)の対象者Uによる働きかけの検出結果とともに、記憶部50に割り当てられたテーブル51(1)−51(M)の格納領域のうち、識別子K(1)の対象者Uのテーブル51(1)に順次に記憶する。テーブル51(1)−51(M)については、図15で説明する。
処理部70(1)の推定部30bは、演算部20bにより求められた識別子K(1)の対象者Uの働きかけの特徴を示す特徴量に基づいて、識別子K(1)の対象者Uの出力装置2への働きかけの意思の強さを推定する。推定部30bは、推定した識別子K(1)の対象者Uの出力装置2への働きかけの意思の強さを選択部80に出力する。
処理部70(1)の判定部60aは、例えば、演算部20bにより求められた識別子K(1)の対象者Uの働きかけの特徴を示す特徴量に基づいて、識別子K(1)の対象者Uが所定の働きかけに偏っているか否かを判定する。例えば、判定部60aは、求められた識別子K(1)の対象者Uの平均情報量H(t)および主要状態に基づいて、平均情報量H(t)が所定値以下である場合、識別子K(1)の対象者Uが、所定の働きかけである主要状態に偏っていると判定する。一方、判定部60aは、識別子K(1)の対象者Uの平均情報量H(t)の値が所定値より大きい場合、識別子K(1)対象者Uが所定の働きかけである主要状態に偏っていないと判定する。判定部60aは、判定結果を選択部80に出力する。なお、判定部60aは、平均情報量H(t)と主要状態とに基づいて判定したが、これに限定されない。例えば、判定部60aは、主要状態とともに、インタラクション意思値I(t)または平滑化された平均情報量H’(t)に基づいて判定してもよい。また、所定値は、判定部60aの判定精度に応じて設定されるのが好ましい。
選択部80は、例えば、処理部70(1)−70(M)の推定部30bおよび判定部60aそれぞれから、識別子K(1)−K(M)の対象者Uの推定された意思の強さおよび判定結果をそれぞれ受ける。選択部80は、受けた識別子K(1)−K(M)の対象者Uの推定された意思の強さおよび判定結果のうち、いずれかの対象者Uの推定された意思の強さおよび判定結果を選択する。例えば、選択部80は、予め設定された識別子K(m)の対象者Uの推定された意思の強さおよび判定結果を選択し、選択した識別子K(m)の対象者Uの推定された意思の強さおよび判定結果を制御部40cに出力する(mは1からLの正の整数)。なお、選択部80は、予め設定された識別子K(m)の対象者Uの推定された意思の強さおよび判定結果を選択したが、これに限定されない。例えば、選択部80は、出力装置2からの距離が最も近い、または最も遠い対象者Uの推定された意思の強さおよび判定結果を選択してもよい。あるいは、選択部80は、指標値S(t)が最も大きい、または最も小さい対象者Uの推定された意思の強さおよび判定結果を選択してもよい。さらに、選択部80は、インタラクション装置100cに含まれるキーボードやタッチパネル等を用いて、指定された対象者Uの推定された意思の強さおよび判定結果を選択してもよい。
制御部40cは、検出部10bにより検出された複数の対象者Uによる働きかけと、選択部80により選択された対象者Uの推定部30bにより推定された意思の強さおよび判定部60aの判定結果とに応じて、出力装置2の対象者Uへの働きかけを変化させる。例えば、制御部40cは、図12に示す制御部40bと同様に、選択された対象者Uの働きかけの意思の強さに応じて、選択された対象者Uの検出部10bで検出される働きかけに対応して、記憶部50に予め登録された働きかけを出力装置2に実行させる。
図15は、識別子K(j)ごとの対象者Uの働きかけを示すテーブルの一例を示す。図15に示すテーブル51(1)−51(M)は、識別子K(1)−K(M)の対象者Uにそれぞれ対応する。テーブル51(1)−51(M)は、検出部10bにより働きかけが検出された時刻、対象者Uの働きかけ、主要状態、平滑化された平均情報量H’(t)、距離、インタラクション意思値I(t)および指標値の各格納領域を含む。なお、図15では、テーブル51(1)−51(M)のうち、テーブル51(1)の格納領域を示すが、他のテーブル51(2)−51(M)についても同様である。また、図15に示すテーブル51(1)の各格納領域に格納されたデータは、例えば、図5から図7に示すテーブル51と同様であり説明を省略する。
図16は、図14に示したインタラクション装置100cにおけるインタラクション処理の例を示す。ステップS200,S210,S220,S230,S240,S250,S260およびS270の処理は、インタラクション装置100cに搭載されるプロセッサがインタラクションプログラムを実行することにより実行される。すなわち、図16は、インタラクションプログラムおよびインタラクション方法の別実施形態を示す。この場合、図14に示した検出部10b、演算部20b、推定部30b、制御部40c、判定部60a、処理部70(1)−70(M)および選択部80は、インタラクションプログラムの実行により実現される。なお、図16に示す処理は、インタラクション装置100cに搭載されるハードウェアにより実行されてもよい。この場合、図14に示した検出部10b、演算部20b、推定部30b、制御部40c、判定部60a、処理部70(1)−70(M)および選択部80は、インタラクション装置100c内に配置される回路により実現される。
ステップS200において、検出部10bは、カメラ1により撮影された画像、マイクロホン3により取得された音声データ、およびタッチセンサ4により取得された接触データに基づいて、図14で説明したように、複数の対象者Uによる働きかけを検出する。検出部10bは、検出した各対象者Uを識別する識別子K(1)−K(L)を検出された複数の対象者Uによる働きかけの検出結果に付加し、識別子K(1)−K(M)が付加された検出結果を、制御部40cおよび処理部70(1)−70(M)に出力する。
次に、ステップS210において、各処理部70の演算部20bは、識別子K(1)−K(M)が付加された検出結果を検出部10bからそれぞれ受け、演算部20bごとに予め設定された識別子K(j)が付加された検出結果をそれぞれ抽出する。ここで、jは1からMの正の整数である。
次に、ステップS220において、各処理部70の演算部20bは、抽出した識別子K(j)の対象者Uによる働きかけを示す検出結果に基づいて、図4から図14で説明したように、識別子K(j)の対象者Uの働きかけの特徴を示す特徴量を求める。演算部20bは、例えば、式(1)から式(6)を用いて求めた特徴量を推定部30bおよび判定部60aに出力する。また、演算部20bは、求めた識別子K(j)の対象者Uの特徴量を、識別子K(j)の対象者Uによる働きかけを示す検出結果とともに、図15に示すテーブル51(j)に順次に格納する。
次に、ステップS230において、各処理部70の推定部30bは、演算部20bにより求められた識別子K(j)の対象者Uの働きかけの特徴量に基づいて、識別子K(j)の対象者Uの出力装置2への働きかけの意思の強さとして指標値S(t)を推定する。各処理部70の推定部30bは、図9に示すテーブル52の遷移条件に基づいて、推定した指標値S(t)を、テーブル51(j)に格納するとともに、選択部80に出力する。
次に、ステップS240において、各処理部70の判定部60aは、演算部20bから受けた識別子K(j)の対象者Uの働きかけの特徴量に基づいて、図14で説明したように、識別子K(j)の対象者Uが所定の働きかけに偏っているか否かを判定する。各処理部70の判定部60aは、判定結果を選択部80に出力する。
次に、ステップS250において、選択部80は、処理部70(1)−70(M)の推定部30bおよび判定部60aから、識別子K(1)−K(M)の対象者Uの推定された意思の強さおよび判定結果をそれぞれ受ける。選択部80は、いずれかの対象者Uの推定された意思の強さおよび判定結果を選択する。選択部80は、選択した対象者Uの推定された意思の強さおよび判定結果を制御部40cに出力する。
次に、ステップS260において、制御部40cは、検出部10bにより検出された複数の対象者Uによる働きかけと、選択部80により選択された対象者Uの推定された意思の強さおよび判定結果とに応じて、出力装置2の対象者Uへの働きかけを変化させる。
次に、ステップS270において、インタラクション装置100cは、例えば、インタラクション装置100cに含まれるキーボードやタッチパネル等の入力装置を介して、終了指示を受けたか否かを判定する。インタラクション装置100cは、終了指示を受けた場合(YES)、一連の処理を終了する。一方、インタラクション装置100cは、終了指示を受けていない場合(NO)、処理をステップS200に移行する。
以上、この実施形態では、各処理部70の演算部20bは、検出部10bに検出された複数の対象者Uのうち、識別子K(j)の対象者Uによる働きかけに基づいて、識別子K(j)の対象者Uの働きかけの特徴を示す特徴量を算出する。各処理部70の推定部30bは、演算部20bで求められた特徴量と図9に示すテーブル52の遷移条件とに基づいて、識別子K(j)の対象者Uの出力装置2への働きかけの意思の強さを推定する。また、各処理部70の判定部60aは、演算部20aにより求められた特徴量に基づいて、識別子K(j)の対象者Uが所定の働きかけに偏っているか否かを判定する。制御部40cは、検出された複数の対象者Uによる働きかけと、選択部80により選択された対象者Uの推定された意思および判定部60aの判定結果に応じて、出力装置2の選択された対象者Uへの働きかけを変化させる。例えば、出力装置2を漫然と眺めている等、選択部80により選択された対象者Uの働きかけが偏っていると判定された場合に、制御部40cは、対象者Uの働きかけの意思がない場合と同様の働きかけを出力装置2に行わせる。これにより、インタラクション装置100cは、出力装置2を介して、対象者Uが違和感を持ちにくいタイミングで、対象者Uへの働きかけを行わせることができる。
また、推定部30bは、演算部20bで求められた特徴量とともに、図9に示すテーブル52の遷移条件を用いることで、識別子K(j)の対象者Uの働きかけの意思の強さをロバストに推定することができ、対象者Uに配慮した出力装置2の働きかけが可能となる。
なお、検出部10bは、取得した音声データに基づいて、出力装置2の周囲で発せられた音声を検出したが、これに限定されない。例えば、検出部10bは、音声データに対して音声認識の処理を施し、対象者Uによる働きかけを検出してもよい。
なお、検出部10bは、図4から図13で説明した実施形態と同様に、音声データや接触データから識別子K(j)の対象者Uの働きかけ“SP”や働きかけ“TC”を検出した場合で、画像に撮影されていない場合に、働きかけ“NF”を検出してもよい。
なお、演算部20bは、図4から図13で説明した実施形態と同様に、インタラクション意思値I(t)を求めるために、平均情報量H(t)の値より1秒前の平均情報量H(t−1)の値を重み付けし、平滑化された平均情報量H’(t)の値を算出してもよい。あるいは、演算部20bは、平均情報量H(t)の値に対して、窓関数やローパスフィルタ等を用いた加重平均処理を施すことで、平滑化された平均情報量H’(t)を求めてもよい。
なお、演算部20aは、図4から図13で説明した実施形態と同様に、平均情報量H(t)の算出に、式(7)を用いてもよい。
なお、処理部70(1)−70(M)の演算部20bは、識別子K(1)−K(M)の対象者Uによる働きかけの検出結果と、求めた識別子K(1)−K(M)の対象者Uの特徴量とを、テーブル51(1)−51(M)にそれぞれ格納したが、これに限定されない。例えば、処理部70(1)−70(M)の演算部20bは、識別子K(1)−K(M)の対象者Uによる働きかけの検出結果と、求めた識別子K(1)−K(M)の対象者Uの特徴量とを、1つのテーブルに格納してもよい。この場合、処理部70(1)−70(M)の演算部20bは、識別子K(1)−K(M)の情報も1つのテーブルに格納することが好ましい。
なお、インタラクション装置100cの処理部70(1)−70(M)は、判定部60aを有したが、これに限定されない。例えば、判定部60aが省略され、選択部80は、処理部70(1)−70(M)の推定部30bにより識別子K(1)−K(M)の対象者Uの推定された意思の強さをそれぞれ受け、例えば、最も強い意思が推定された対象者Uを選択してもよい。
なお、インタラクション装置100cは選択部80を有したが、これに限定されない。例えば、制御部40cが、選択部80の機能を有してもよい。その場合には、処理部70(1)−70(M)の推定部30bおよび判定部60aは、識別子K(j)の対象者Uの推定された意思の強さおよび判定結果を制御部40cに直接出力する。
図17は、図14に示すインタラクション装置100cのハードウェア構成の一例を示す。なお、図17に示した要素のうち、図14に示した要素と同等のものについては、同一の符号を付して示し、説明は省略する。
コンピュータ装置200は、プロセッサ210、メモリ220、ハードディスク装置230、I/O(Input/Output)インタフェース240およびロボットインタフェース250を含む。また、コンピュータ装置200は、表示装置260、光学ドライブ装置270、入力装置280およびネットワークインタフェース290をさらに含む。プロセッサ210、メモリ220、ハードディスク装置230、I/Oインタフェース240、ロボットインタフェース250、表示装置260、光学ドライブ装置270、入力装置280およびネットワークインタフェース290は、バスを介し互いに接続される。また、プロセッサ210、メモリ220、ハードディスク装置230、I/Oインタフェース240およびロボットインタフェース250は、インタラクション装置100cに含まれる。
コンピュータ装置200は、I/Oインタフェース240を介してカメラ1、マイクロホン3およびタッチセンサ4に接続される。そして、プロセッサ210は、I/Oインタフェース240を介して、カメラ1で撮影された画像、マイクロホンで取得された音声データおよびタッチセンサで取得された接触データをそれぞれ受ける。
また、ロボットインタフェース250には、例えば、出力装置2としてクマ型のロボットCRが接続され、プロセッサ210は、ロボットインタフェース250を介して、ロボットCRとの間で情報の授受を行う。なお、ロボットCRは、プロセッサ210からの指示に応じて首や腕、足等を動かすためのサーボモータ等を有する。また、カメラ1、マイクロホン3およびタッチセンサ4は、ロボットCRに一体に配置されてもよい。
また、表示装置260は、液晶モニタ等のディスプレイである。表示装置260は、ロボットCRの代わりに、インタラクション装置100cからの制御に応じて、対象者Uに対して、発話や身振り等の働きかけを行う人物や動物等のキャラクターを表示してもよい。
光学ドライブ装置270は、光ディスク等のリムーバブルディスク275を装着可能であり、装着したリムーバブルディスク275に記録された情報の読み出しおよび記録を行う。
入力装置280は、例えば、キーボードやタッチパネル、マウス等である。インタラクション装置100cの操作者は、入力装置280を操作し、例えば、ロボットCRが働きかける対象者Uの指定や、対象者Uの働きかけの意思の強さに応じてロボットCRを動作させるための各種閾値の設定等を入力する。なお、インタラクション装置100cの操作者は、例えば、高齢者等の対象者Uに対して介護等を行う見守りサービス等を依頼した人物等である。インタラクション装置100cの操作者は、インタラクション装置100cが設置された場所から離れた場所に居住していてもよい。インタラクション装置100cから離れた場所にいる操作者は、例えば、ネットワークNWおよびネットワークインタフェース290を介して、インタラクション装置100cに対する指示を入力してもよい。
また、メモリ220は、コンピュータ装置200のオペレーティングシステムとともに、プロセッサ210がインタラクション処理を実行するためのアプリケーションプログラムを格納する。また、メモリ220は、対象者Uによる働きかけを検出するために、人物の顔、腕、胴体、足等の各輪郭の情報やテーブル52等を予め記憶してもよい。
なお、インタラクション処理を実行するためのアプリケーションプログラムは、例えば、リムーバブルディスク275に記録して頒布することができる。そして、リムーバブルディスク275を光学ドライブ装置270に装着して読み込み処理を行うことにより、インタラクション処理を実行するためのアプリケーションプログラムは、メモリ220やハードディスク装置230に格納されてもよい。また、コンピュータ装置200は、ネットワークインタフェース290を介し、ネットワークNWからインタラクション処理を実行するためのアプリケーションプログラムをダウンロードし、メモリ220やハードディスク装置230に格納してもよい。
また、プロセッサ210は、インタラクション処理のアプリケーションプログラムを実行することで、検出部10b、演算部20b、推定部30b、制御部40c、判定部60a、処理部70(1)−70(M)および選択部80として機能する。また、プロセッサ210は、インタラクション処理のアプリケーションプログラムを実行することで、例えば、メモリ220に割り当てられた記憶領域にテーブル51(1)−51(M)をそれぞれ格納する。
つまり、インタラクション装置100cは、プロセッサ210、メモリ220、ハードディスク装置230、I/Oインタフェース240およびロボットインタフェース250の協働によって実現する。
インタラクション処理のためのアプリケーションプログラムは、カメラ1、マイクロホン3およびタッチセンサ4等から取得したデータに基づいて、複数の対象者Uによる働きかけをそれぞれ検出する処理をプロセッサ210に実行させるプログラムを含む。また、インタラクション処理のためのアプリケーションプログラムは、検出した各対象者Uによる働きかけに基づいて、各対象者Uの働きかけの特徴を示す特徴量を求める処理をプロセッサ210に実行させるプログラムを含む。また、インタラクション処理のためのアプリケーションプログラムは、各対象者UのロボットCRへの働きかけの意思の強さを推定する処理をプロセッサ210に実行させるプログラムを含む。また、インタラクション処理のためのアプリケーションプログラムは、各対象者Uの検出結果、選択された対象者UのロボットCRへの働きかけの意思の強さおよび判定結果に基づいて、ロボットCRを制御する処理をプロセッサ210に実行させるプログラムを含む。
以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲がその精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
出力装置からの働きかけを受ける対象者による出力装置への働きかけを検出する検出部と、
前記検出部により検出された前記対象者による働きかけに基づいて、前記対象者の働きかけの特徴を示す特徴量を求める演算部と、
求めた前記特徴量に基づいて、前記対象者の前記出力装置への働きかけの意思の強さを推定する推定部と、
前記推定部により推定された前記対象者の意思の強さに応じて、前記出力装置の前記対象者への働きかけを変化させる制御部と、
を備えることを特徴とするインタラクション装置。
(付記2)
付記1に記載のインタラクション装置において、
前記演算部は、前記検出部により検出された前記対象者による働きかけの種類および前記働きかけが検出された頻度の少なくとも一方のばらつきの大きさを示す分散情報を含む前記特徴量を求め、
前記推定部は、前記分散情報により、前記ばらつきが所定値より大きいことが示される場合に、前記対象者の前記出力装置への働きかけ意思が他の場合よりも強いと推定する
ことを特徴とするインタラクション装置。
(付記3)
付記2に記載のインタラクション装置において、
前記演算部は、前記検出部により検出された前記対象者による働きかけの種類の中で、他の種類より高い頻度で検出された働きかけを示す指向情報を前記特徴量の一部として求め、
前記推定部は、前記指向情報により第1の種類の働きかけが他の種類よりも高い頻度で検出されたことが示された場合に、前記分散情報で示される前記ばらつきと前記意思の強さを示す複数の段階のそれぞれについて設定した閾値との比較に基づいて、前記意思の強さを示す指標値を求める
ことを特徴とするインタラクション装置。
(付記4)
付記3に記載のインタラクション装置において、
前記分散情報および前記指向情報に基づいて、前記対象者による働きかけが第1の働きかけに偏っているか否かを判定する判定部を備え、
前記制御部は、前記検出部により検出された前記対象者による働きかけおよび前記推定部により推定された前記対象者の意思の強さとともに、前記判定部による判定結果に基づいて、前記出力装置の前記対象者への働きかけを変化させる
ことを特徴とするインタラクション装置。
(付記5)
付記1に記載のインタラクション装置において、
前記検出部は、複数の前記対象者を検出した場合、検出した前記各対象者を識別する識別子を前記検出部により検出された前記各対象者による働きかけの検出結果に付加し、
前記演算部は、前記検出結果に付加された前記識別子に基づいて、前記各対象者の前記特徴量をそれぞれ求め、
前記推定部は、前記検出部により検出された前記各対象者の前記特徴量に基づいて、前記各対象者の前記出力装置への働きかけの意思の強さをそれぞれ推定する
ことを特徴とするインタラクション装置。
(付記6)
付記5に記載のインタラクション装置において、
前記推定部により推定された複数の前記対象者の前記意思の強さのうち、前記対象者のいずれか1つの意思の強さを選択する選択部を備える
ことを特徴とするインタラクション装置。
(付記7)
出力装置からの働きかけを受ける対象者による出力装置への働きかけを検出し、
前記検出の処理により検出された前記対象者による働きかけに基づいて、前記対象者の働きかけの特徴を示す特徴量を求め、
求めた前記特徴量に基づいて、前記対象者の前記出力装置への働きかけの意思の強さを推定し、
前記推定の処理により推定された前記対象者の意思の強さに応じて、前記出力装置の前記対象者への働きかけを変化させる、
処理をコンピュータに実行させるインタラクションプログラム。
(付記8)
付記7に記載のインタラクションプログラムにおいて、
前記特徴量を求める処理は、前記検出の処理により検出された前記対象者による働きかけの種類および前記働きかけが検出された頻度の少なくとも一方のばらつきの大きさを示す分散情報を含む前記特徴量を求め、
前記推定の処理は、前記分散情報により、前記ばらつきが所定値より大きいことが示される場合に、前記対象者の前記出力装置への働きかけ意思が他の場合よりも強いと推定する
ことを特徴とするインタラクションプログラム。
(付記9)
付記8に記載のインタラクションプログラムにおいて、
前記特徴量を求める処理は、前記検出の処理により検出された前記対象者による働きかけの種類の中で、他の種類より高い頻度で検出された働きかけを示す指向情報を前記特徴量の一部として求め、
前記推定の処理は、前記指向情報により第1の種類の働きかけが他の種類よりも高い頻度で検出されたことが示された場合に、前記分散情報で示される前記ばらつきと前記意思の強さを示す複数の段階のそれぞれについて設定した閾値との比較に基づいて、前記意思の強さを示す指標値を求める
ことを特徴とするインタラクションプログラム。
(付記10)
付記9に記載のインタラクションプログラムにおいて、
前記分散情報および前記指向情報に基づいて、前記対象者による働きかけが第1の働きかけに偏っているか否かを判定する処理を備え、
前記出力装置を制御する処理は、前記検出の処理により検出された前記対象者による働きかけおよび前記推定の処理により推定された前記対象者の意思の強さとともに、前記判定の処理による判定結果に基づいて、前記出力装置の前記対象者への働きかけを変化させる
ことを特徴とするインタラクションプログラム。
(付記11)
付記7に記載のインタラクションプログラムにおいて、
前記検出の処理は、複数の前記対象者を検出した場合、検出した前記各対象者を識別する識別子を前記検出部により検出された前記各対象者による働きかけの検出結果に付加し、
前記特徴量を求める処理は、前記検出結果に付加された前記識別子に基づいて、前記各対象者の前記特徴量をそれぞれ求め、
前記意思を推定する処理は、前記検出部により検出された前記各対象者の前記特徴量に基づいて、前記各対象者の前記出力装置への働きかけの意思の強さをそれぞれ推定する、
ことを特徴とするインタラクションプログラム。
(付記12)
付記9に記載のインタラクションプログラムにおいて、
前記推定の処理により推定された複数の前記対象者の前記意思の強さのうち、前記対象者のいずれか1つの意思の強さを選択する処理を備える
ことを特徴とするインタラクションプログラム。
(付記13)
出力装置からの働きかけを受ける対象者による出力装置への働きかけを検出部により検出し、
前記検出部により検出された前記対象者による働きかけに基づいて、前記対象者の働きかけの特徴を示す特徴量を演算部により求め、
求めた前記特徴量に基づいて、前記対象者の前記出力装置への働きかけの意思の強さを推定部により推定し、
前記推定部により推定された前記対象者の意思の強さに応じて、前記出力装置の前記対象者への働きかけを制御部により変化させる、
ことを特徴とするインタラクション方法。
(付記14)
付記13に記載のインタラクション方法において、
前記演算部による処理は、前記検出部により検出された前記対象者による働きかけの種類および前記働きかけが検出された頻度の少なくとも一方のばらつきの大きさを示す分散情報を含む前記特徴量を求め、
前記推定部による処理は、前記分散情報により、前記ばらつきが所定値より大きいことが示される場合に、前記対象者の前記出力装置への働きかけ意思が他の場合よりも強いと推定する
ことを特徴とするインタラクション方法。
(付記15)
付記14に記載のインタラクション方法において、
前記演算部による処理は、前記検出部により検出された前記対象者による働きかけの種類の中で、他の種類より高い頻度で検出された働きかけを示す指向情報を前記特徴量の一部として求め、
前記推定部による処理は、前記指向情報により第1の種類の働きかけが他の種類よりも高い頻度で検出されたことが示された場合に、前記分散情報で示される前記ばらつきと前記意思の強さを示す複数の段階のそれぞれについて設定した閾値との比較に基づいて、前記意思の強さを示す指標値を求める
ことを特徴とするインタラクション方法。
(付記16)
付記15に記載のインタラクション方法において、
前記分散情報および前記指向情報に基づいて、前記対象者による働きかけが第1の働きかけに偏っているか否かを判定部により判定する処理を備え、
前記制御部による処理は、前記検出部により検出された前記対象者による働きかけおよび前記推定部により推定された前記対象者の意思の強さとともに、前記判定部による判定結果に基づいて、前記出力装置の前記対象者への働きかけを変化させる
ことを特徴とするインタラクション方法。
(付記17)
付記13に記載のインタラクション方法において、
前記検出部による処理は、複数の前記対象者を検出した場合、検出した前記各対象者を識別する識別子を前記検出部により検出された前記各対象者による働きかけの検出結果に付加し、
前記演算部による処理は、前記検出結果に付加された前記識別子に基づいて、前記各対象者の前記特徴量をそれぞれ求め、
前記推定部による処理は、前記検出部により検出された前記各対象者の前記特徴量に基づいて、前記各対象者の前記出力装置への働きかけの意思の強さをそれぞれ推定する、
ことを特徴とするインタラクションプログラム。
(付記18)
付記17に記載のインタラクション方法において、
前記推定部により推定された複数の前記対象者の前記意思の強さのうち、前記対象者のいずれか1つの意思の強さを選択部により選択する処理を備える
ことを特徴とするインタラクション方法。
1…カメラ;2…出力装置;3…マイクロホン;4…タッチセンサ;10,10a,10b…検出部;20,20a,20b…演算部;30,30a,30b…推定部;40,40a,40b,40c…制御部;50…記憶部;51,51(1)−51(M),52…テーブル;60,61a…判定部;70(1)−70(M)…処理部;100,100a,100b,100c…インタラクション装置;200…コンピュータ装置;210…プロセッサ;220…メモリ;230…ハードディスク装置;240…I/Oインタフェース;250…ロボットインタフェース;260…表示装置;270…光ドライブ装置;275…リムーバブルディスク;280…入力装置;290…ネットワークインタフェース;U…対象者;CR…ロボット;NW…ネットワーク

Claims (6)

  1. 出力装置からの働きかけを受ける対象者による出力装置への働きかけを検出し、検出した各対象者を識別し、識別した前記各対象者と前記各対象者による働きかけの検出結果とを対応付ける検出部と、
    前記検出部により検出された前記対象者による働きかけの種類と前記働きかけの種類毎の頻度とに基づいて、前記働きかけのばらつきの大きさを示す分散情報を含む特徴量をそれぞれ求める演算部と、
    求めた前記特徴量に基づいて、前記対象者の前記出力装置への働きかけの強さを推定する推定部と、
    前記推定部により推定された前記象者の働きかけの強さ応じて、前記出力装置の前記対象者への働きかけを変化させる制御部と、
    を備えることを特徴とするインタラクション装置。
  2. 請求項1に記載のインタラクション装置において、
    前記検出部は、カメラにより撮影された画像を取得し、取得された画像に基づいて、前記働きかけを検出することを特徴とするインタラクション装置。
  3. 請求項1または請求項2に記載のインタラクション装置において、
    前記出力装置は、サーボモータによる動く顔の部材を有するロボットであることを特徴とするインタラクション装置。
  4. 請求項1から請求項3のいずれか一項に記載のインタラクション装置において、
    記推定部により推定された前対象者の働きかけの強さのうち、前記対象者のいずれか1つの働きかけの強さを選択する選択部とを備えることを特徴とするインタラクション装置。
  5. 出力装置からの働きかけを受ける対象者による出力装置への働きかけを検出し、検出した各対象者を識別し、識別した前記各対象者と前記各対象者による働きかけの検出結果とを対応付け、
    検出された前記対象者による働きかけの種類と前記働きかけの種類毎の頻度とに基づいて、前記働きかけのばらつきの大きさを示す分散情報を含む特徴量をそれぞれ求め、
    求めた前記特徴量に基づいて、前記対象者の前記出力装置への働きかけの強さを推定し、
    推定された前記象者の働きかけの強さ応じて、前記出力装置の前記対象者への働きかけを変化させる、
    処理をコンピュータに実行させるインタラクションプログラム。
  6. 出力装置からの働きかけを受ける対象者による出力装置への働きかけを検出し、検出した各対象者を識別し、識別した前記各対象者と前記各対象者による働きかけの検出結果とを対応付け、
    検出された前記対象者による働きかけの種類と前記働きかけの種類毎の頻度とに基づいて、前記働きかけのばらつきの大きさを示す分散情報を含む特徴量をそれぞれ求め、
    求めた前記特徴量に基づいて、前記対象者の前記出力装置への働きかけの強さを推定し、
    推定された前記象者の働きかけの強さ応じて、前記出力装置の前記対象者への働きかけを変化させる、
    ことを特徴とするインタラクション方法。
JP2013168554A 2013-08-14 2013-08-14 インタラクション装置、インタラクションプログラムおよびインタラクション方法 Active JP6322927B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013168554A JP6322927B2 (ja) 2013-08-14 2013-08-14 インタラクション装置、インタラクションプログラムおよびインタラクション方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013168554A JP6322927B2 (ja) 2013-08-14 2013-08-14 インタラクション装置、インタラクションプログラムおよびインタラクション方法

Publications (2)

Publication Number Publication Date
JP2015036915A JP2015036915A (ja) 2015-02-23
JP6322927B2 true JP6322927B2 (ja) 2018-05-16

Family

ID=52687374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013168554A Active JP6322927B2 (ja) 2013-08-14 2013-08-14 インタラクション装置、インタラクションプログラムおよびインタラクション方法

Country Status (1)

Country Link
JP (1) JP6322927B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109542216B (zh) * 2018-10-11 2022-11-22 平安科技(深圳)有限公司 人机交互方法、系统、计算机设备及存储介质
KR102374448B1 (ko) * 2018-11-02 2022-03-15 서울대학교산학협력단 사용자의 의도 예측 방법 및 이를 수행하기 위한 장치
WO2020091568A1 (ko) * 2018-11-02 2020-05-07 서울대학교 산학협력단 사용자의 의도 예측 방법 및 이를 수행하기 위한 장치
CN110297616B (zh) * 2019-05-31 2023-06-02 百度在线网络技术(北京)有限公司 话术的生成方法、装置、设备以及存储介质
CN110716641B (zh) * 2019-08-28 2021-07-23 北京市商汤科技开发有限公司 交互方法、装置、设备以及存储介质
CN110716634A (zh) * 2019-08-28 2020-01-21 北京市商汤科技开发有限公司 交互方法、装置、设备以及显示设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3721870B2 (ja) * 1999-07-26 2005-11-30 セイコーエプソン株式会社 出力制御システム
JP2002178282A (ja) * 2000-10-05 2002-06-25 Sony Corp ロボット装置及びその制御方法
JP2007125629A (ja) * 2005-11-01 2007-05-24 Sony Corp ロボット装置及びその行動制御方法
JP4976903B2 (ja) * 2007-04-05 2012-07-18 本田技研工業株式会社 ロボット

Also Published As

Publication number Publication date
JP2015036915A (ja) 2015-02-23

Similar Documents

Publication Publication Date Title
JP6322927B2 (ja) インタラクション装置、インタラクションプログラムおよびインタラクション方法
JP6467965B2 (ja) 感情推定装置及び感情推定方法
US11937929B2 (en) Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders
US10795441B2 (en) Method of recognizing user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method
US8781991B2 (en) Emotion recognition apparatus and method
WO2017143948A1 (zh) 一种唤醒智能机器人的方法及智能机器人
JP2013114595A (ja) 情報処理装置、情報処理方法及びプログラム
WO2016165614A1 (zh) 一种即时视频中的表情识别方法和电子设备
CN109793526B (zh) 测谎方法、装置、计算机设备和存储介质
JP6109288B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN111144266B (zh) 人脸表情的识别方法及装置
JP7278972B2 (ja) 表情解析技術を用いた商品に対するモニタの反応を評価するための情報処理装置、情報処理システム、情報処理方法、及び、プログラム
WO2020244160A1 (zh) 终端设备控制方法、装置、计算机设备及可读存储介质
Ponce-López et al. Non-verbal communication analysis in victim–offender mediations
CN111540383A (zh) 语音会话装置及其控制装置、控制程序以及控制方法
KR101734845B1 (ko) 시각 분석을 이용하는 감정 분류 장치 및 그 방법
JP6819633B2 (ja) 個人識別装置および特徴収集装置
WO2019235190A1 (ja) 情報処理装置、情報処理方法、プログラム及び対話システム
JP2018060374A (ja) 情報処理装置、評価システムおよびプログラム
EP2793102A2 (en) Information processing device
US11055517B2 (en) Non-contact human input method and non-contact human input system
JP7327776B2 (ja) 表情推定装置、感情判定装置、表情推定方法及びプログラム
CN115210754A (zh) 易接近性判定装置、易接近性判定方法以及程序
JP2020201755A (ja) 集中度計測装置、集中度計測方法、およびプログラム
JP7106041B2 (ja) 情報処理装置、感情推定方法、及び感情推定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170512

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20170803

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170803

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170912

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171110

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R150 Certificate of patent or registration of utility model

Ref document number: 6322927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150