JP2004321621A - Method and program for puzzlement detection - Google Patents
Method and program for puzzlement detection Download PDFInfo
- Publication number
- JP2004321621A JP2004321621A JP2003122991A JP2003122991A JP2004321621A JP 2004321621 A JP2004321621 A JP 2004321621A JP 2003122991 A JP2003122991 A JP 2003122991A JP 2003122991 A JP2003122991 A JP 2003122991A JP 2004321621 A JP2004321621 A JP 2004321621A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- embarrassment
- confused
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、戸惑い検出方法及びプログラムに係り、詳しくは視線の観察のみで戸惑いの状態を自動検出する戸惑い検出方法に関するものである。
【0002】
【従来の技術】
従来より、人間の感情などを外部観察により検出しようとする試みがなされていた。それは、例えばマン−マシン インタフェースの改善のために、ユーザが操作上戸惑いを感じる操作をピックアップして問題点を抽出するためなどに用いられる。その方法としては、顔の位置、腕の動作、音声、筋肉の変化、発汗、心拍数、血圧或いは表情など様々なデータを検出して、これらの検出データに基づいて被験者の感情を推測していた。だが、1種類だけの検出データでは推測の精度が上がらず、複数の検出データに基づいて感情を推測するものが多かった。
【0003】
そこで、特許文献1に示すような視線情報解析装置などが提案された。この視線情報解析装置では、眼球運動検出装置によって眼球の運動を検出し、解析装置によって検出された眼球の時系列変化を周波数領域で解析し、画像入力部画像入力部から入力された表示される画像の内容を表示内容解析装置で解析し、両者を統合解析部で統合処理をすることにより、被験者の心理的な観察状態、画像に対する客観的な評価について信頼性の高いデータを得るものである(要約参照)。このような視線情報解析装置であれば、画像を評価しようとする被験者の意思決定過程を、眼球運動の時間軸上で見た挙動の変化と、提示される画像内容と眼球運動との相関付けから推定し、人の画像に対する客観的な評価結果を得ることができる。なお、特許文献2には、視線の位置の検出の方法の一例が開示されている。
【0004】
【特許文献1】
特開平6−162号公報 図1
【特許文献2】
特開平6−319701号公報
【0005】
【発明が解決しようとする課題】
しかしながら、この視線情報解析装置では、画像内容が既知で、眼球の挙動が未知の場合、または眼球の挙動が既知で、画像内容が未知の場合、それぞれの未知量を予め記述された予測関数で推定することはできても、実際の戸惑いまでも検出できるものではないという問題があった。
【0006】
上記課題を解決するため、本発明は、視線を観察するだけで、被験者の戸惑いを自動的に検出できる戸惑い検出方法を提供することを目的とする。
【0007】
【課題を解決するための手段】
請求項1に係る戸惑い検出方法では、入力手段と表示手段とを備えたコンピュータが、所定時間間隔で視線検出手段により被験者の視線の位置を検出する視線位置検出のステップと、検出した視線の位置の変化を視線速度データとして生成する視線速度データ生成のステップと、所定個数の連続して生成された視線速度データを視線速度履歴データとして記憶する視線速度履歴データ記憶のステップと、前記視線速度履歴データを所定のパターンと比較することで、被験者が戸惑いの状態であるか否かを判断する戸惑い判定のステップとを実行することを要旨とする。
【0008】
この構成に係る戸惑い検出方法では、視線位置検出のステップで検出した視線の位置を、視線速度データ生成のステップで速度データとして生成し、視線速度履歴データ記憶のステップで視線速度履歴データとして記憶する。この視線速度履歴データを戸惑い判定のステップで所定のパターンと比較することで被験者が戸惑いの状態であるか否かを判断することができるという効果がある。
【0009】
請求項2に係る戸惑い検出方法では、請求項1に記載の戸惑い検出方法の構成に加え、前記視線位置検出のステップにおいて、所定時間間隔が、200分の1秒以上、15分の1以下であることを要旨とする。
【0010】
この構成に係る戸惑い検出方法では、請求項1に記載の戸惑い検出方法の効果に加え、視線位置検出のステップにおける所定時間間隔を200分の1秒以上、15分の1以下とすることで、被験者の戸惑いの検出を実用的な時間の遅れ無しに、かつコンピュータの処理量を過多にせず処理することができるという効果がある。特に30分の1秒においては、最も好ましい結果を得ることができた。
【0011】
請求項3に係る戸惑い検出方法では、請求項1又は請求項2に記載の戸惑い検出方法の構成に加え、前記視線速度履歴データ記憶のステップにおいて、視線速度履歴データとして連続して検出される視線速度データの所定個数が少なくとも30以上であることを要旨とする。
【0012】
この構成に係る戸惑い検出方法では、請求項1又は請求項2に記載の戸惑い検出方法の効果に加え、視線速度履歴データとして連続して検出される視線速度データの所定個数を少なくとも30以上とすることで、所定のパターンとの比較をするために必要な情報量を確保することができるという効果がある。
【0013】
請求項4に係る戸惑い検出方法では、請求項1乃至請求項3のいずれか1項に記載の戸惑い検出方法の構成に加え、前記視線速度履歴データ記憶のステップにおいて、視線速度履歴データとして連続して検出される視線速度データの合計時間長が0.5秒以上5秒以下であることを要旨とする。
【0014】
この構成に係る戸惑い検出方法では、請求項1乃至請求項3のいずれか1項に記載の戸惑い検出方法の効果に加え、前記視線速度履歴データ記憶のステップにおける視線速度履歴データとして連続して検出される視線速度データの合計時間長を0.5秒以上とすることで精度の信頼性を確保し、5秒以下とすることで処理速度の向上や処理の負担の軽減をはかることで、戸惑いの状態を判断するのに必要かつ十分な時間とすることができるという効果がある。
【0015】
請求項5に係る戸惑い検出方法では、請求項1乃至請求項4のいずれか1項に記載の戸惑い検出方法の構成に加え、前記視線速度履歴データ記憶のステップにおいて、前記視線速度データ生成のステップで視線の速度データを生成する毎に前記視線速度履歴データを生成し記憶することを要旨とする。
【0016】
この構成に係る戸惑い検出方法では、請求項1乃至請求項4のいずれか1項に記載の戸惑い検出方法の効果に加え、視線速度履歴データ記憶のステップにおける視線速度履歴データを生成し記憶するタイミングを視線速度データ生成のステップで視線速度データを生成する毎にすることで、検出時間の遅れを生じることなく精度良く戸惑いの状態を判断することができるという効果がある。
【0017】
請求項6に係る戸惑い検出方法では、請求項1乃至請求項5のいずれか1項に記載の戸惑い検出方法の構成に加え、前記戸惑い判定のステップは、ニューラルネットワークを用いたパターンマッチングによることを要旨とする。
【0018】
この構成に係る戸惑い検出方法では、請求項1乃至請求項5のいずれか1項に記載の戸惑い検出方法の効果に加え、戸惑い判定のステップを、ニューラルネットワークを用いたパターンマッチングによることで、非線形の複雑なパターンの視線速度履歴をもつ戸惑いの状態でも高速かつ正確に検出することができるという効果がある。
【0019】
請求項7に係る戸惑い検出方法では、請求項6に記載の戸惑い検出方法の構成に加え、前記戸惑い判定のステップにおいて、前記ニューラルネットワークはフィードフォワード方式の階層型ニューラルネットワークであって、ノード関数がシグモイド関数を用いたことを要旨とする。
【0020】
この構成に係る戸惑い検出方法では、請求項6に記載の戸惑い検出方法の効果に加え、ノード関数をシグモイド関数とすることで、戸惑い状態の検出精度を高めることができるという効果がある。
【0021】
請求項8に係る戸惑い検出方法では、請求項7に記載の戸惑い検出方法の構成に加え、前記戸惑い判定のステップにおいて、比較される所定のパターンは、被験者に正解がない若しくは正解が重複する設問により解答を画面上で選択させるトラップを回答させる状態における前記視線速度履歴データに基づいて生成する学習のステップをさらに実行することを要旨とする。
【0022】
この構成に係る戸惑い検出方法では、請求項7に記載の戸惑い検出方法の効果に加え、戸惑い判定のステップにおいて、比較される所定のパターンを、被験者に対して、正解がない若しくは正解が重複する設問により解答を画面上で選択させるトラップを回答させることで、直ちにかつ確実に被験者に戸惑いの状態を導出させ、この状態を学習することで比較される所定パターンの精度を高めることができるという効果がある。
【0023】
請求項9に係る戸惑い検出方法では、請求項8に記載の戸惑い検出方法の構成に加え、前記学習のステップにおいて、前記トラップが表示されている時間中の特定の時間の視線速度履歴データのみを学習し、前記トラップが表示されている時間中の他の時間の視線速度履歴データは学習しないことを要旨とする。
【0024】
この構成に係る戸惑い検出方法では、請求項8に記載の戸惑い検出方法の効果に加え、学習のステップにおいて、トラップが表示されている時間中の特定の時間、例えば最初の視線速度履歴データのみを学習し、トラップが表示されている時間中の他の視線速度履歴データは学習しないことで戸惑いが現に生じている確度の高いデータのみを用いて学習させ、確度の低いデータを排除することで学習効果を高めることができるという効果がある。
【0025】
請求項10に係る戸惑い検出方法では、請求項1乃至請求項9のいずれかに記載の戸惑い検出方法の構成に加え、前記戸惑い判定のステップにおいて、被験者が戸惑いの状態であるか否かを判断する視線速度履歴データと所定のパターンとの比較は、所定の閾値を基準として一致又は不一致の2値で行われることを要旨とする。
【0026】
この構成に係る戸惑い検出方法では、請求項1乃至請求項9のいずれか1項に記載の戸惑い検出方法の効果に加え、戸惑い判定のステップにおける視線速度履歴データのパターンと所定のパターンとのパターンマッチングによる比較を所定の閾値を基準として一致又は不一致の2値で出力させることで、処理量を軽減させ処理を高速化することができるという効果がある。
【0027】
請求項11に係る戸惑い検出プログラムでは、入力手段と表示手段とを備えたコンピュータに、所定時間間隔で視線検出手段により被験者の視線の位置を検出する視線位置検出のステップと、検出した視線の位置の変化を視線速度データとして生成する視線速度データ生成のステップと、所定個数の連続して生成された視線速度データを視線速度履歴データとして記憶する視線速度履歴データ記憶のステップと、前記視線速度履歴データを所定のパターンと比較することで、被験者が戸惑いの状態であるか否かを判断する戸惑い判定のステップとを実行させることを要旨とする。
【0028】
この構成に係る戸惑い検出プログラムでは、コンピュータに視線位置検出のステップで検出させた視線の位置を、視線速度データ生成のステップで視線速度データとして生成させ、視線速度履歴データ記憶のステップで視線速度履歴データとして記憶させる。この視線速度履歴データを戸惑い判定のステップで所定のパターンと比較させることで被験者が戸惑いの状態であるか否かを判断する処理を実行させることができるという効果がある。
【0029】
【発明の実施の形態】
以下、本発明を具体化した一実施形態である戸惑い検出システム1により実行される人の戸惑い検出方法を図1〜図11に従って説明する。ここで、「戸惑い」とは、本実施形態においては、人がコンピュータ端末等の操作時において、どのように操作したらよいか判らなくなる困惑状態をいうものとする。図1は、戸惑い検出システム1の構成を示すブロック図である。
【0030】
(ハード構成)
戸惑い検出システム1は、CPU3、RAM4、ROM5を備えた周知のパーソナルコンピュータから構成されるコンピュータ2を備える。このコンピュータ2には、入出力を制御するインタフェース6を介して、外部記憶装置であるHDD(Hard Disk Drive)7が接続されている。また、CRT(Cathode−Ray Tube)やLC(Liquid Crystal)からなる出力手段、表示手段であるディスプレー8を備える。なお、図示を省略したが検出を管理するためのモニタを備えてよく、また、出力手段としてプリンタなどを備えてもよい。また、入力手段であるキーボード9、マウス10を備える。なお、シリアル入力が可能な他の入力手段を用いてもよい。また、被験者の全体を捉えるモニタカメラ11と、被験者の眼球をアップで映し出す視線検出用カメラ12と、視線認識対象の眼球Eの角膜上に結像させるための幾何学的な特徴を有する図形パターンの光源P1,P2を備える。
【0031】
本実施形態の戸惑い検出システム1を構成するコンピュータ2は、図1では1つのCPU3を備えた1台のコンピュータ2により構成されているが、複数のCPUを備え、或いは複数のコンピュータを備えて構成されてもよい。特に、ニューラルネットワークの処理は大量の演算を必要とするため、十分な能力を備えたものが望ましい。例えば、本発明者の実験では、動作クロック3GHz程度のパーソナルコンピュータ4台で並列処理を行い、動作確認を行っている。また、処理を機能毎に複数のコンピュータに分散化してもよい。
【0032】
図2はHDD7の記憶内容を模式的に示す図である。HDD7は、OS(オペレーションシステム)7a、本発明の戸惑い検出プログラム7bや視線位置検出プログラム7c等のプログラムが記憶される。また、戸惑いを示す視線速度履歴データのパターンが学習されたニューラルネットワーク7d、さらに検出された視線速度データの一時保存ファイル7e、ここから生成された視線速度履歴データのファイル7fなどのファイルが記憶される。
【0033】
視線検出用カメラ12、光源P1,P2は、視線速度検出のために視線の認識を行う。これらが本発明の視線検出手段の一部に相当する。視線認識に使われている特徴点としては、瞳孔、黒目、角膜反射像、水晶体反射像等様々なものが使われている。それらの中でも、角膜反射像は、輝度が高く抽出しやすいことから、非常によく使われている特徴点である。この特徴点を用いた視線認識技術の一つとしてアイマークレコーダがあげられる。これは、眼球の回転中心と眼球を観測する観測系と点光源の位置が固定されているという条件(具体的には、観測系、光源の付いた装置を頭部に固定する。)の下では、角膜反射像は眼球の回転に応じて移動するという性質を用いたものである。角膜上皮が球面の一部としてモデル化されている場合には、複数の角膜反射像の位置から角膜の曲率中心を求めることができる。
【0034】
また、例えば、上述の特許文献2に開示されている視線認識装置などでは、頭部に検出のための装置を装着しなくても視線を認識することができる。本実施形態ではこの方法を例に視線の認識を説明し、詳細な説明は省略する。この視線の認識方法では、視線認識対象の眼球Eの角膜上に結像させるための幾何学的な特徴を有する図形パターンの光源P1、P2を被験者の視界の両サイドに被験者の眼球に照射する。角膜上に結像された図形パターンを撮像装置で撮像し、その結像した図形パターンの特徴・位置から眼球Eの角膜曲率中心を幾何学的に計算して求める。そして求められた眼球角膜曲率中心情報を用いて視線を認識する。
【0035】
ここで、本実施態様の被験者の戸惑いの検出のための学習の概略について説明する。図3は、視線の位置を検出する方法を示す図である。まず、被験者はディスプレー8を見ながら、キーボード9、マウス10が操作可能な状態で着座して待機する。このとき、図3に示すように被験者の眼球Eと略同じ高さの前方両サイドには、被験者の視界に入るように光源P1,P2が配置される。光源P1には十字形、光源P2には円形の光源パターンが形成されており、視線検出用カメラ12により被験者の眼球に結像した光源パターンの映像を記録する。視線検出用カメラ12は、例えばCCDビデオカメラで、コンピュータ2に制御されて時刻情報とともにHDD7に映像のデータが記録される。
【0036】
撮影された映像から図形パターンの特徴・位置がコンピュータ2によって認識され、眼球Eの角膜曲率中心が幾何学的に計算して求められる。そして求められた眼球角膜曲率中心情報を用いて視線を認識する。この際、眼球角膜曲率中心情報に加えて、瞳孔中心位置等の眼球の他の情報を用いて視線を認識する。このようにして本実施形態では、所定間隔、例えば30分の1秒毎の間隔で視線が認識される。この手順が、本発明の所定時間間隔で視線検出手段により被験者の視線の位置を検出する視線位置検出のステップに相当する。
【0037】
なお、本発明者の試行錯誤の結果、この視線位置検出のステップにおいては、所定時間間隔が、30分の1秒が最も好ましいことがわかったが、少なくとも200分の1秒以上、15分の1以下の範囲内であればよい。15分の1秒を超える時間間隔であっても視線の速度を把握できるが、それ以上の間隔であると、その時間間隔内に視線が往復した動きをした場合等の影響が大きくなりやすく、検出する速度の精度が下がり好ましくはない。一方、200分の1秒以下であると、現状のコンピュータの処理能力では負担が大きくなる。もちろん将来的にコンピュータの処理能力が向上すれば200分の1秒未満の時間間隔とすることも可能である。なお、眼球の動きは大きく視線を変える動きと、視線方向を保ったまま振動するような動きを示しているため、必ずしも戸惑いを検出するためには、間隔が短ければよいというわけではない。
【0038】
そして、ここで認識された眼球角膜曲率中心の位置と、その30分の1秒前に認識された眼球角膜曲率中心の位置の移動距離を視線速度として計測する。あるいは、このとき認識された視線の方向と30分の1秒前に認識された視線の方向とから視線の角度の差を視線の角速度として計測する。そしてこれが1フレームの視線速度データとなる。この手順が、本発明の検出した視線の位置の変化を視線速度データとして生成する視線速度データ生成のステップに相当する。このとき測定時間は30分の1秒で一定であるため、計測された角速度若しくは移動距離は、いずれも視線速度に比例する。
本発明でいう「視線速度」は、例えば、所定時間当たりの眼球中心からの角膜曲率中心の移動する角速度、若しくは眼球の角膜曲率中心の移動距離のいずれでもよい。視線速度の変化をパターンで判断するため、時系列に速度変化が把握できればよいからである。眼球全体は概ね球体であるから、いずれの数値であって、速度変化の傾向はほぼ同一となるから同等の精度が期待できるからである。また、眼球の正確な形状の把握の困難さなど、観測値が技術的な問題から理論的な真の数値に対して誤差が含まれていると考えられる場合がある。しかしそのような場合でも本発明では、速度変化のパターンマッチングにより判断するため、そのままの未加工の生データを用いることができ、あえて修正や加工をする必要がない。比較するいずれのパターンにも同等に誤差が含まれることになるからである。したがって、被験者による学習やテストなども、観測条件を同一にする限り極めて簡易な処理とすることができる。
【0039】
次に、このように検出された視線速度データが視線速度履歴データとしてHDD7に記憶される。この「視線速度履歴データ」は、連続した50フレームの視線速度データを1つの塊として「パターン」としたものである。つまり、30分の1秒毎で50フレームであるので、1つの視線速度履歴データのパターンは、およそ1.7秒の時間長となる。
【0040】
30分の1秒毎に集計する視線速度履歴データをシフトしながら直近の連続する50フレーム分からこのパターンを生成する。この手順が、本発明の所定個数の連続して生成された視線速度データを視線速度履歴データとして記憶する視線速度履歴データ記憶のステップに相当する。視線速度履歴データ記憶のステップにおいて、視線速度生成のステップで視線の速度データを生成する毎に視線速度履歴データを記憶することが好ましい。ただし、処理の負担などを考慮して、視線の速度データを生成する毎ではなく、1つおき、あるいはそれ以上の間隔で視線速度履歴データを生成するようにすることもできる。戸惑いを検出する被験者から得たパターンを「比較パターン」、戸惑い状態が導出された被験者から学習して得たパターンを「戸惑いパターン」という。但し、「戸惑いパターン」は、ニューラルネットワークにより記憶された概念的なもので、視線速度履歴データとして顕在化されたものではない。
【0041】
なお、本実施形態では、望ましい例として視線速度履歴データを構成する連続した視線速度データの数を50フレームとしているが、視線速度履歴データとして連続して検出される速度データの所定個数が少なくとも30以上であれば、十分な精度となる。また、本実施形態では、望ましい例として、1つの視線速度履歴データのパターンの時間長が、およそ1.7秒の時間長とされているが、視線速度履歴記憶データのステップにおいて、視線速度履歴データとして連続して検出される速度データの時間長が0.5秒以上5秒以下であれば好ましい。視線速度履歴データの時間長が0.5秒未満であるとサンプリングの時間間隔にもよるが、パターンとしてデータ不足になりやすい。一方、時間長が5秒を超えると、時間内に戸惑い状態が解消してしまう場合もあり、却って精度が低下する虞がある。
【0042】
(トラップの表示)次に、戸惑い状態にある被験者の視線速度履歴データのパターンをニューラルネットワークが記憶するための「戸惑いパターン」を取得する「トラップ」による学習を説明する。本実施形態では、戸惑い判定のステップにおいて、「比較パターン」とパターンマッチングにより比較される戸惑い状態か否かの基準とされる所定のパターンである「戸惑いパターン」は、学習によりニューロネットワークの中にその特徴が取得される。この学習は、被験者に誤操作をしやすい操作をさせたり、「正解がない設問」若しくは「正解が重複する設問」により解答を画面上で選択させるトラップを回答させたりする。そして、戸惑い状態における視線速度履歴データを「教師」として、ニューラルネットワークに入力する。この手順は、本発明の学習のステップに相当する。学習においては、被験者にはコンピュータのモニタを見せながら、「戸惑い」導出用のプログラムが表示させるディスプレー8の画面の指示に従って、キーボード9、マウス10からキー入力、マウス入力をさせる。本実施形態では、このプログラムで表示させる「戸惑い」導出用の画面を「トラップ」、このプログラムを「トラッププログラム」と呼ぶ。
【0043】
(トラップT0)このトラッププログラムは、例えば、アプリケーションソフトウエアのインストール画面を模した画面を表示させる。被験者が通常馴染んでいるOSにより示されるアプリケーションソフトのインストール画面と同様の画面が連続して表示される。ここには、このOSで共通な画面が示され、例えば、操作に必要な「次へ」ボタン、「戻る」ボタン、「キャンセル」ボタンも、このOSに共通な配列で表示されている。ところが、図4に示すように、このトラップT0では、「次へ」ボタンT0aと、「戻る」ボタンT0bが通常の配列とは逆になっている。同じような正しい配列のメッセージボックスが連続して出現した後で、全体としてはそれまでのメッセージボックスと同じであるが、トラップT0では、操作ボタンだけが図4に示すように通常の配列と異なった配列で表示される。そのため、被験者は操作ミスを起こしそうになり戸惑いを生じるか、さらに誤操作をしてしまった場合もやはり戸惑いを生じる。従って確実に「通常状態(戸惑いを生じていない状態)」にある被験者に「戸惑い状態(戸惑いを生じている状態)」を導出できる。
(トラップT1)また、図5に示すトラップT1では、「目標値」T1aと「現在値」T1bが表示され、「現在値」T1bにボタンT1c若しくはボタンT1dを選択してクリックすることでその選択した数が加算されて目標値にするものである。しかし、「現在値9」に対して「+2」しても「−2」しても、「目標値10」にはならないため、被験者は戸惑い状態となる。極めて、分かり易い設定であり、かつ被験者は与えられた条件では解決できないことが短時間にわかるため、戸惑い状態の発生が速やかで、発生時間が管理しやすいものである。
【0044】
(トラップT2)図6に示すトラップT2では、正解の選択肢がある計算問題が順次示された後にトラップT2が表示される。トラップT2では問題T2aに示された「2+2=?」という、瞬時に計算できる問題に対して、解答T2bが「5」、解答T2cが「6」、解答2dが「7」と、正解の「4」に当たる解答がない。一定時間後、正解が候補の中に出現する。従って、確実に被験者に戸惑い状態を導出することができる。
【0045】
(トラップT3)図7に示すトラップT3では、指示項目T3aに示された「次の数字を選択して下さい 28」という指示に対して、解答T3bが「28」、解答T3cが「28」、解答T3dが「28」といずれも正解である。そのため、被験者は、これらの解答のいずれを選択すべきか根拠を見いだせず、極めて短時間に被験者に戸惑い状態を導出することができる。
【0046】
(トラップT4)そして、図8に示すトラップT4では、図5に示すトラップT1と同様に、順次設問が表示されるが、現在値T4bを目標値T4aにするための加算又は減算するボタンが表示されるべき設問であるにも拘わらず、解答に必要なボタン表示がなく、解答不能になる。この場合も被験者に直ちに戸惑い状態を導出させることができる。
【0047】
以上例示したようなトラップT0〜トラップT4によれば、設定した時間に表示することで被験者に直ちに戸惑い状態を導出できる。そのため、確実に戸惑い状態の視線をサンプリングすることができ、確実に戸惑い状態にある中で視線速度履歴データを採取して入力し、適切な「教師」として学習させることができる。
【0048】
(トラップ以外の戸惑い)なお、上記トラップは、戸惑い状態を所定時刻に確実に導出させることができるため、学習の効果を高めることができる。ただし、このようなトラップによらなくても、正しい操作であっても経験的に戸惑いを生じる操作、例えば、表示している意味が分かりにくい、或いは誤操作が著しく多い、被験者が操作を停止して考え込む等々明らかな戸惑い状態を生じている操作を再現して学習させることもできる。
【0049】
このトラップT0〜T4では、短時間のうちに確実に被験者を戸惑い状態にできるが、必ずしもトラップを表示している間、ずっと被験者に戸惑い状態が継続されて導出されている訳ではない。つまり、トラップT0乃至トラップT4等を表示してから、被験者がこれを理解して戸惑い状態になるまでには被験者の違いやトラップの種類により若干のリードタームの差があり、さらに状況を理解し戸惑い状態が解消するまでにも時間差がある。そこで、学習のステップにおいて、トラップが表示されている時間中の特定の時間、例えば、表示から3秒経過したときを戸惑い状態としてサンプリングする。それ以外は、戸惑い状態か通常状態かの判別が困難であるため、戸惑い状態としても通常状態としても学習のデータとしてサンプリングしないようにする。このような構成とすることで、確実に適切な「教師」のみを学習させることで学習の精度を向上させている。ここで、図9は、学習のステップにおけるニューラルネットワークの学習を示す模式図である。ここでは、「H istory of eye movement speed」と表示された部分EMが、視線速度を示し、網がけで表示された部分がトラップtが表示された時間である。その下部の「0 0 0…1 」で表示された部分がサンプリングのタイミングを示す。ここに示すようにトラップtが表示されるまでのサンプリングS0では通常状態を示す「0」としてサンプリングしている。また、トラップtが表示された最初のサンプリングS1では、戸惑い状態を示す「1」のサンプルとして学習させるが、その後に続くサンプリングS2は、「0」とも「1」ともサンプリングしない。トラップtの表示が終了した後はサンプリングS3で通常状態の「0」としてサンプリングする。
【0050】
(戸惑い検出)次に、以上のような学習を行ったニューラルネットワークを用いて被験者の戸惑いを検出する方法について説明する。上述のように被験者は視線の検出を行える状態で、戸惑いを検出したい作業を行う。この作業は、パーソナルコンピュータのアプリケーションソフトの操作や、銀行のATM(Automated−Teller Machine)の操作、その他機械の操作用コンソールなど、マン−マシン インタフェースに関わるものが代表的なものである。これらは、操作時に戸惑いを生じないことがマン−マシン インタフェースの向上に直接関係するためである。また、これらは操作の履歴が時間情報と共に再現しやすいからである。もちろん作業はこれらに限らず、印刷された文書や写真、映像などを見せたときの反応などを調べることもできる。本実施形態では、視線の認識を行うため、被験者が見ている対象物を画面表示しながら、その画像上でアイポイントを表示するようなこともできる。また、モニタカメラ11により被験者自身の表情や、動作を映像として記録しておくこともできる。
【0051】
本実施形態では、視線速度履歴データの作成と同時にモニタカメラ11で被験者のデジタルビデオ映像を記録する。これは、時刻情報とともに記録され、時刻情報は、画面に時刻をスーパインポーズをしたり、視線速度履歴データとの同期をはかるために用いられる。このデジタルビデオ映像からは、被験者の態度、表情などが映し出され、戸惑い状態の発現との関連を観察できる。
【0052】
もちろん、マルチ画面として、被験者が見ている表示画面、被験者の表情、被験者の眼球、観測された数値・パターン、戸惑いの発現の表示を同一画面に表示することも好ましい。
【0053】
このような作業を行いつつ、前記視線速度履歴データをニューラルネットワークでパターンマッチングにより比較することで、被験者が戸惑いの状態であるか否かを判断する。この手順が本発明の戸惑い判定のステップに相当する。この手順はニューラルネットワークを用いたパターンマッチングにより、パターンが一致するとの判断、即ち、ニューラルネットワークが「1」を出力した場合は、戸惑い状態が発現していると判断する。また、パターンが一致しないと判断された場合は「0」が出力される。即ち、本実施形態では、戸惑い判定のステップにおいて、被験者が戸惑いの状態であるか否かを判断する視線速度履歴と所定のパターンとの比較は、所定の閾値を基準として一致を示す「1」、又は不一致を示す「0」の2値のいずれかで出力される。
【0054】
本実施形態の戸惑い判定のステップでは、ニューラルネットワークにより戸惑いの判定をしている。そのため、他の方法に比較してパターンマッチングの精度が高く確実に戸惑いの発現を捉えることができる。本実施形態のニューラルネットワークは、教師あり学習アルゴリズムを備えた階層型ニューラルネットワークであって、入力された信号は内部で前向きのみに流れるフィードフォワード方式で処理される。また、ノード関数はシグモイド関数を用いている(図11参照)。本発明者らは、トラップT0〜T4を用いた実験を行い、これらのデータを使ってニューラルネットワークによる戸惑い状態検出モデルを作成した。実験データを学習データとして使った結果、収束するモデルが作成された。そして学習後のニューラルネットワークの認識結果を図10に示す。ここに示すように、全視線速度履歴WHに対して、学習したトラップを示した部分PTでは、検出結果DRに示すように戸惑い状態として検出されている。さらに、実験データに5%のノイズを加えたデータを戸惑い状態検出モデルに与え、戸惑い状態の検出テストを行った。その結果、全ての戸惑い状態ポイントを特定することができた。
【0055】
次に、作成した戸惑い状態検出ニューラルネットワークモデルを検証するために、未知データとして被験者10人を対象にトラップT2の基本パターン画面を使って検証実験を行った。検証実験データをモデルに入力して戸惑い状態検出を行った。ここで図12は、検証実験データをモデルに入力して未知の戸惑い状態の検出を行った結果を示す図である。図は、横軸が時間軸であり、上段の枠の部分が、戸惑い状態パターン画面であるトラップt1〜t10が表示されていた時間である。下段の下に伸びている線がモデルが戸惑い状態と判定した箇所を示している。その結果、図12に示すように戸惑い状態検出モデルは、10の未知のトラップt1〜t10に対して、t10以外は戸惑い状態を検出し、90%の検出率を示した。
【0056】
上記実施形態の戸惑い検出方法によれば、以下のような特徴を得ることができる。
・ 上記戸惑い検出方法では、被験者の視線を観察するだけで、他の要素を含まずに被験者の戸惑いを検出することができるという効果がある。したがって、被験者に負担をかけず、かつ極めて容易に被験者の戸惑いを検出できる。このように戸惑いを正確に検出することで、通常の観察では摘出できない戸惑い状態の発生を客観的かつ確実に検出することで、マン−マシン インターフェースの問題部分を摘出することができる。
【0057】
・ また、戸惑い状態の判定にニューラルネットワークを用いているため、複雑な視線速度履歴データを的確に判断し、精度の高い検出をすることができるという効果がある。特に、本実施形態のニューラルネットワークは、パターンマッチングに適した教師あり学習アルゴリズムを備えた階層型ニューラルネットワークである。加えて入力された信号は内部で前向きのみに流れるフィードフォワード方式で処理され、ノード関数はシグモイド関数を用いている。そのため、パーソナルコンピュータなどを用いて、高い精度の判定を行うことができるという効果がある。
【0058】
・ また、ニューラルネットワークの学習に、トラップT0〜T4を用いているため、精度の高い学習を行わせることができるという効果がある。
なお、上記実施形態は以下のように変更してもよい。
【0059】
○ 本実施形態では、戸惑い判定のステップを、フィードフォワード方式のニューラルネットワークを用いたパターンマッチングにより処理しているが、バックプロパゲーション(誤差逆伝播法)の学習アルゴリズムで行ってもよい。その他にも、ボルツマンマシン、これを簡易化した平均場近似学習マシンや、RBFネット(放射状基関数ネット)、学習ベクトル量子化、ファジー・アートマップ、コグニトロンなど種々の技法を採用又は応用しうるものである。
【0060】
○ 本実施形態では、戸惑い判定のステップを、入力信号の処理の流れでノード関数がシグモイド関数を用いたニューラルネットワークを用いているが、他にも閾値関数などを用い得る。また、シグモイド関数や閾値関数においても、さらに「ゆらぎ」をプラスした処理をしてもよく、入力和をそのまま出力する線形関数などによることも考えられる。また、ボルツマンマシンであれば傾きを次第に急にする。
【0061】
【発明の効果】
以上、詳述したように、本願発明では、本発明は、視線を観察するだけで、被験者の戸惑いを自動的にかつ適切に検出できるという効果がある。
【図面の簡単な説明】
【図1】戸惑い検出システム1の構成を示すブロック図。
【図2】HDD7の記憶内容を模式的に示す図。
【図3】視線の位置を検出する方法を示す図。
【図4】トラップT0を示す図。
【図5】トラップT1を示す図。
【図6】トラップT2を示す図。
【図7】トラップT3を示す図。
【図8】トラップT4を示す図。
【図9】ニューラルネットワークの学習を示す模式図。
【図10】学習後の全視線速度履歴とトラップの位置と戸惑いの検出の関係を示す図。
【図11】シグモイド関数の例を示す図。
【図12】検証実験データをモデルに入力して未知の戸惑い状態の検出を行った結果を示す図。
【符号の説明】
1…戸惑い検出装置、2…コンピュータ、3…CPU、4…RAM、5…ROM、6…インタフェース、7…HDD、8…ディスプレー、9…キーボード、10…マウス、11…モニタカメラ、12…視線検出用カメラ、P1,P2…光源、T0〜T4…トラップ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a confused detection method and program, and more particularly, to a confused detection method for automatically detecting a confused state only by observing a line of sight.
[0002]
[Prior art]
Conventionally, attempts have been made to detect human emotions and the like by external observation. It is used, for example, to pick up an operation in which the user feels confused in operation and to extract a problem, for example, to improve a man-machine interface. As the method, various data such as face position, arm movement, voice, muscle change, sweating, heart rate, blood pressure or facial expression are detected, and the subject's emotion is estimated based on the detected data. Was. However, the accuracy of estimation was not improved with only one type of detection data, and in many cases, emotions were estimated based on a plurality of detection data.
[0003]
Therefore, a line-of-sight information analyzing device as shown in
[0004]
[Patent Document 1]
JP-A-6-162 FIG.
[Patent Document 2]
JP-A-6-319701
[0005]
[Problems to be solved by the invention]
However, in this gaze information analysis device, when the image content is known and the behavior of the eyeball is unknown, or when the behavior of the eyeball is known and the image content is unknown, each unknown amount is calculated using a prediction function described in advance. There was a problem that even if it could be estimated, it could not be detected even in actual puzzle.
[0006]
In order to solve the above-mentioned problems, an object of the present invention is to provide a confused detection method that can automatically detect confused subjects only by observing the line of sight.
[0007]
[Means for Solving the Problems]
In the embarrassment detection method according to
[0008]
In the embarrassment detection method according to this configuration, the gaze position detected in the gaze position detection step is generated as speed data in the gaze speed data generation step, and stored as gaze speed history data in the gaze speed history data storage step. . By comparing the line-of-sight speed history data with a predetermined pattern in the embarrassment determination step, it is possible to determine whether or not the subject is confused.
[0009]
In the embarrassment detection method according to
[0010]
In the embarrassment detection method according to this configuration, in addition to the effect of the embarrassment detection method according to
[0011]
In the embarrassment detection method according to
[0012]
In the embarrassment detection method according to this configuration, in addition to the effects of the embarrassment detection method according to
[0013]
In the embarrassment detection method according to claim 4, in addition to the configuration of the embarrassment detection method according to any one of
[0014]
In the embarrassment detection method according to this configuration, in addition to the effects of the embarrassment detection method according to any one of
[0015]
In the embarrassment detection method according to
[0016]
In the embarrassment detection method according to this configuration, in addition to the effect of the embarrassment detection method according to any one of
[0017]
In the embarrassment detection method according to
[0018]
In the embarrassment detection method according to this configuration, in addition to the effect of the embarrassment detection method according to any one of
[0019]
In the embarrassment detection method according to
[0020]
In the embarrassment detection method according to this configuration, in addition to the effect of the embarrassment detection method according to
[0021]
In the embarrassment detection method according to
[0022]
In the embarrassment detection method according to this configuration, in addition to the effect of the embarrassment detection method according to
[0023]
In the embarrassment detection method according to
[0024]
In the embarrassment detection method according to this configuration, in addition to the effect of the embarrassment detection method according to
[0025]
In the embarrassment detection method according to
[0026]
In the embarrassment detection method according to this configuration, in addition to the effect of the embarrassment detection method according to any one of
[0027]
The embarrassment detection program according to
[0028]
In the embarrassment detection program according to this configuration, the computer causes the computer to generate the gaze position detected in the gaze position detection step as gaze speed data in the gaze speed data generation step, and stores the gaze speed history in the gaze speed history data storage step. Store as data. By comparing the line-of-sight speed history data with a predetermined pattern in the confused determination step, it is possible to execute a process of determining whether or not the subject is in a confused state.
[0029]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a method for detecting embarrassment of a person performed by the
[0030]
(Hardware configuration)
The
[0031]
Although the
[0032]
FIG. 2 is a diagram schematically showing the storage contents of the
[0033]
The line-of-
[0034]
Further, for example, in the gaze recognition device disclosed in
[0035]
Here, an outline of the learning for detecting the embarrassment of the subject according to the present embodiment will be described. FIG. 3 is a diagram illustrating a method of detecting the position of the line of sight. First, the subject sits and waits while watching the
[0036]
The features and positions of the graphic pattern are recognized by the
[0037]
As a result of trial and error by the inventor, it has been found that, in this gaze position detecting step, the predetermined time interval is most preferably 1/30 second, but at least 1/200 second or more and 15 minutes or more. It may be within the range of 1 or less. Even if the time interval exceeds 1/15 second, the speed of the line of sight can be grasped, but if the time interval is longer than that, the effect of the case where the line of sight reciprocates within the time interval tends to be large, The accuracy of the detection speed decreases, which is not preferable. On the other hand, if the time is less than 1/200 second, the load on the current computer's processing capacity increases. Of course, if the processing capability of the computer is improved in the future, it is possible to set the time interval to less than 1/200 second. In addition, since the movement of the eyeball greatly changes the line of sight and the movement that vibrates while maintaining the direction of the line of sight, it is not always necessary that the interval is short in order to detect embarrassment.
[0038]
Then, the movement distance between the position of the eyeball corneal curvature center recognized here and the position of the eyeball corneal curvature center recognized 1/30 second before that is measured as the line-of-sight velocity. Alternatively, a difference between the angle of the line of sight from the direction of the line of sight recognized at this time and the direction of the line of sight recognized 1/30 second earlier is measured as the angular velocity of the line of sight. This becomes the line-of-sight velocity data for one frame. This procedure corresponds to a line-of-sight speed data generation step of generating a detected line-of-sight position change as line-of-sight speed data according to the present invention. At this time, since the measurement time is constant at 1/30 second, the measured angular velocity or moving distance is proportional to the line-of-sight velocity.
The “line-of-sight velocity” in the present invention may be, for example, either an angular velocity at which the center of the corneal curvature moves from the center of the eyeball per predetermined time or a moving distance of the center of the corneal curvature of the eyeball. This is because the change in the line-of-sight speed is determined by a pattern, so that the change in speed can be grasped in a time series. This is because the entire eyeball is almost a sphere, and any numerical value is obtained, and the tendency of the speed change is almost the same, so that the same accuracy can be expected. Further, there is a case where an observation value is considered to include an error with respect to a theoretical true numerical value due to a technical problem, such as difficulty in grasping an accurate shape of an eyeball. However, even in such a case, in the present invention, since the determination is made by pattern matching of the speed change, the raw data as it is can be used as it is, and there is no need to make any correction or processing. This is because any pattern to be compared includes an error equally. Therefore, learning and testing by the subject can be extremely simple processing as long as the observation conditions are the same.
[0039]
Next, the line-of-sight speed data thus detected is stored in the
[0040]
This pattern is generated from the latest 50 consecutive frames while shifting the line-of-sight speed history data to be counted every 1/30 second. This procedure corresponds to a gaze speed history data storage step of storing a predetermined number of continuously generated gaze speed data as gaze speed history data of the present invention. In the gaze speed history data storage step, it is preferable to store the gaze speed history data each time the gaze speed data is generated in the gaze speed generation step. However, in consideration of the processing load and the like, the line-of-sight speed history data may be generated not every time the line-of-sight speed data is generated, but at every other or more intervals. A pattern obtained from a subject who detects embarrassment is referred to as a “comparison pattern”, and a pattern obtained by learning from a subject whose confused state is derived is referred to as a “confused pattern”. However, the “embarrassed pattern” is a conceptual one stored by a neural network, and is not actualized as eye-gaze velocity history data.
[0041]
In the present embodiment, as a desirable example, the number of continuous line-of-sight speed data constituting the line-of-sight speed history data is set to 50 frames, but the predetermined number of the speed data continuously detected as the line-of-sight speed history data is at least 30. Above is sufficient accuracy. In the present embodiment, as a desirable example, the time length of one pattern of the line-of-sight speed history data is set to a time length of approximately 1.7 seconds. It is preferable that the time length of the speed data continuously detected as data is 0.5 seconds or more and 5 seconds or less. If the time length of the line-of-sight speed history data is less than 0.5 seconds, depending on the sampling time interval, data shortage tends to occur as a pattern. On the other hand, if the time length exceeds 5 seconds, the confused state may be resolved within the time, and the accuracy may be reduced.
[0042]
(Display of Trap) Next, learning by "trap" for acquiring a "confused pattern" for the neural network to store the pattern of the line-of-sight speed history data of the subject in a confused state will be described. In the present embodiment, in the embarrassment determination step, the `` embarrassment pattern '' which is a predetermined pattern which is a criterion for determining whether or not the embarrassment state is compared by the `` comparison pattern '' and the pattern matching is stored in the neural network by learning. The feature is obtained. In this learning, the subject is caused to perform an operation that is likely to cause an erroneous operation, or the subject is answered by a trap that allows the user to select an answer on the screen based on “a question having no correct answer” or “a question having a correct answer overlapping”. Then, the line-of-sight speed history data in the puzzled state is input to the neural network as "teacher". This procedure corresponds to the learning step of the present invention. In the learning, the subject inputs a key and a mouse from the
[0043]
(Trap T0) This trap program displays, for example, a screen imitating an installation screen of application software. A screen similar to the application software installation screen indicated by the OS to which the subject is usually familiar is continuously displayed. Here, a screen common to this OS is shown. For example, a “next” button, a “return” button, and a “cancel” button required for the operation are also displayed in an array common to this OS. However, as shown in FIG. 4, in the trap T0, the “next” button T0a and the “return” button T0b are reversed from the normal arrangement. After the message boxes of the same correct arrangement appear successively, they are the same as the previous message boxes as a whole, but in the trap T0, only the operation buttons are different from the normal arrangement as shown in FIG. Is displayed in an array. For this reason, the subject is likely to make an operation error, causing embarrassment, or even erroneously operating, causing embarrassment. Therefore, a "confused state (a state in which embarrassment is occurring)" can be reliably derived for a subject who is in a "normal state (a state in which embarrassment has not occurred)".
(Trap T1) In the trap T1 shown in FIG. 5, a "target value" T1a and a "current value" T1b are displayed, and the button T1c or the button T1d is selected and clicked on the "current value" T1b. Are added to the target value. However, even if “+2” or “−2” with respect to “
[0044]
(Trap T2) In the trap T2 shown in FIG. 6, the trap T2 is displayed after the calculation questions having correct choices are sequentially displayed. In the trap T2, the answer T2b is "5", the answer T2c is "6", the answer 2d is "7", and the correct answer is "2 + 2 =?" Shown in the question T2a. No answer to "4." After a certain time, the correct answer appears in the candidates. Therefore, it is possible to reliably confuse the subject with the confused state.
[0045]
(Trap T3) In the trap T3 shown in FIG. 7, in response to the instruction "Please select the
[0046]
(Trap T4) Then, in the trap T4 shown in FIG. 8, questions are sequentially displayed as in the trap T1 shown in FIG. 5, but a button for adding or subtracting the current value T4b to the target value T4a is displayed. Despite the question to be asked, there is no button display required for answering, and the answer cannot be answered. Also in this case, the subject can be immediately brought out of the puzzled state.
[0047]
According to the traps T0 to T4 as exemplified above, the display at the set time can immediately elicit a confused state for the subject. Therefore, it is possible to reliably sample the line of sight in a puzzled state, to collect and input the line-of-sight velocity history data in the state of being puzzled, and to learn as an appropriate “teacher”.
[0048]
(Essence other than trap) Note that the above trap can surely derive an embarrassed state at a predetermined time, so that the effect of learning can be enhanced. However, even without such a trap, an operation that causes embarrassment even if it is a correct operation, for example, the meaning of the display is difficult to understand, or the number of erroneous operations is extremely large. It is also possible to learn by reproducing an operation causing an apparent embarrassment state such as thinking.
[0049]
In the traps T0 to T4, the subject can be surely put in a confused state in a short time. However, the confused state is not always derived while the trap is being displayed. In other words, after displaying the traps T0 to T4 and the like, there is a slight difference in the lead terms depending on the difference between the subjects and the type of the trap from the time when the subject understands this and becomes confused, and further understands the situation. There is a time lag before the embarrassment is resolved. Therefore, in the learning step, sampling is performed as a confused state at a specific time during which the trap is displayed, for example, when three seconds have elapsed from the display. In other cases, it is difficult to determine whether it is a puzzled state or a normal state. Therefore, sampling is not performed as learning data in both the puzzled state and the normal state. With such a configuration, the learning accuracy is improved by ensuring that only the appropriate “teacher” is learned. Here, FIG. 9 is a schematic diagram showing learning of the neural network in the learning step. Here, the portion EM displayed as “History of eye movement speed” indicates the line-of-sight speed, and the portion displayed as a shaded portion is the time during which the trap t is displayed. .. 1 at the lower part indicates the sampling timing. As shown here, in the sampling S0 until the trap t is displayed, sampling is performed as "0" indicating a normal state. Further, in the first sampling S1 in which the trap t is displayed, learning is performed as a sample of "1" indicating a puzzled state, but in subsequent sampling S2, neither "0" nor "1" is sampled. After the display of the trap t is completed, sampling is performed as "0" in the normal state in sampling S3.
[0050]
(Detection of Puzzle) Next, a method of detecting the embarrassment of the subject using the neural network that has learned as described above will be described. As described above, the subject performs an operation to detect embarrassment in a state where the gaze can be detected. This work is typically related to a man-machine interface such as operation of application software of a personal computer, operation of an ATM (Automated-Teller Machine) of a bank, and a console for operating other machines. These are because the lack of confusion during operation is directly related to the improvement of the man-machine interface. In addition, these are because the operation history is easily reproduced together with the time information. Of course, the work is not limited to these, and it is also possible to examine a reaction when a printed document, photograph, video, or the like is shown. In the present embodiment, in order to recognize the line of sight, an eye point can be displayed on the image while the target object that the subject is looking at is displayed on the screen. In addition, the expression and movement of the subject himself can be recorded as video by the
[0051]
In the present embodiment, the digital video image of the subject is recorded by the
[0052]
Of course, as the multi-screen, it is also preferable to display the display screen that the subject is looking at, the expression of the subject, the eyeball of the subject, the observed numerical value / pattern, and the expression of the embarrassment on the same screen.
[0053]
While performing such operations, it is determined whether or not the subject is in a confused state by comparing the line-of-sight speed history data by pattern matching using a neural network. This procedure corresponds to the confused judgment step of the present invention. In this procedure, it is determined by pattern matching using a neural network that the patterns match, that is, if the neural network outputs “1”, it is determined that a confused state has developed. If it is determined that the patterns do not match, “0” is output. That is, in the present embodiment, in the embarrassment determination step, the comparison between the line-of-sight speed history for determining whether the subject is embarrassed or not and the predetermined pattern is “1” indicating a match based on a predetermined threshold. , Or "0" indicating a mismatch.
[0054]
In the embarrassment determination step of the present embodiment, embarrassment is determined by a neural network. Therefore, compared to other methods, the accuracy of pattern matching is high, and it is possible to surely grasp the occurrence of embarrassment. The neural network according to the present embodiment is a hierarchical neural network having a supervised learning algorithm, and an input signal is processed by a feedforward method that internally flows only forward. The sigmoid function is used as the node function (see FIG. 11). The present inventors conducted an experiment using traps T0 to T4, and created a confused state detection model using a neural network using these data. Using the experimental data as training data, a converging model was created. FIG. 10 shows the recognition result of the neural network after learning. As shown here, for the entire line-of-sight velocity history WH, the part PT indicating the learned trap is detected as a confused state as indicated by the detection result DR. Further, data obtained by adding 5% noise to the experimental data was given to a puzzled state detection model, and a puzzled state detection test was performed. As a result, all confused state points could be identified.
[0055]
Next, in order to verify the created confused state detection neural network model, a verification experiment was performed using the basic pattern screen of the trap T2 on 10 subjects as unknown data. The verification experiment data was input to the model to detect the confused state. Here, FIG. 12 is a diagram illustrating a result of inputting verification experiment data into a model and detecting an unknown puzzled state. In the figure, the horizontal axis is the time axis, and the upper frame portion is the time during which traps t1 to t10, which are confusing state pattern screens, are displayed. A line extending below the lower part indicates a place where the model is determined to be confused. As a result, as shown in FIG. 12, the confused state detection model detected the confused state except for t10 for ten unknown traps t1 to t10, and showed a detection rate of 90%.
[0056]
According to the puzzle detection method of the above embodiment, the following features can be obtained.
-The above-mentioned embarrassment detection method has an effect that embarrassment of the subject can be detected only by observing the gaze of the subject without including other elements. Therefore, it is possible to extremely easily detect the embarrassment of the subject without placing a burden on the subject. By accurately detecting the embarrassment as described above, the occurrence of the embarrassment state that cannot be extracted by ordinary observation is objectively and reliably detected, so that the problematic portion of the man-machine interface can be extracted.
[0057]
In addition, since the neural network is used for the determination of the embarrassed state, there is an effect that it is possible to accurately determine complicated line-of-sight speed history data and perform highly accurate detection. In particular, the neural network of the present embodiment is a hierarchical neural network having a supervised learning algorithm suitable for pattern matching. In addition, the input signal is processed in a feed-forward manner that flows only in the forward direction internally, and the sigmoid function is used as the node function. Therefore, there is an effect that determination with high accuracy can be performed using a personal computer or the like.
[0058]
Further, since the traps T0 to T4 are used for learning the neural network, there is an effect that highly accurate learning can be performed.
The above embodiment may be modified as follows.
[0059]
In the present embodiment, the embarrassment determination step is processed by pattern matching using a feedforward neural network, but may be performed by a learning algorithm of back propagation (error back propagation method). In addition, various techniques such as Boltzmann machine, a simplified mean-field approximation learning machine, RBF net (radial basis function net), learning vector quantization, fuzzy art map, and cognitron can be adopted or applied. It is.
[0060]
In the present embodiment, the neural network using the sigmoid function as the node function in the flow of the processing of the input signal is used as the confusing judgment step, but a threshold function or the like may be used. Also, in the sigmoid function and the threshold function, a process to which “fluctuation” is added may be performed, and a linear function that outputs the input sum as it is may be considered. In the case of a Boltzmann machine, the inclination is gradually increased.
[0061]
【The invention's effect】
As described above in detail, according to the present invention, the present invention has an effect that the embarrassment of the subject can be automatically and appropriately detected only by observing the line of sight.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a
FIG. 2 is a diagram schematically showing storage contents of an
FIG. 3 is a diagram showing a method of detecting the position of a line of sight.
FIG. 4 is a diagram showing a trap T0.
FIG. 5 is a diagram showing a trap T1.
FIG. 6 is a diagram showing a trap T2.
FIG. 7 is a diagram showing a trap T3.
FIG. 8 is a diagram showing a trap T4.
FIG. 9 is a schematic diagram showing learning of a neural network.
FIG. 10 is a diagram showing the relationship between the entire line-of-sight velocity history after learning, the position of a trap, and the detection of embarrassment.
FIG. 11 is a diagram showing an example of a sigmoid function.
FIG. 12 is a diagram showing a result of inputting verification experiment data into a model and detecting an unknown puzzled state;
[Explanation of symbols]
DESCRIPTION OF
Claims (11)
所定時間間隔で視線検出手段により被験者の視線の位置を検出する視線位置検出のステップと、
検出した視線の位置の変化を視線速度データとして生成する視線速度データ生成のステップと、
所定個数の連続して生成された視線速度データを視線速度履歴データとして記憶する視線速度履歴データ記憶のステップと、
前記視線速度履歴データを所定のパターンと比較することで、被験者が戸惑いの状態であるか否かを判断する戸惑い判定のステップと
を実行することを特徴とする戸惑い検出方法。A computer comprising input means and display means,
Gaze position detection step of detecting the position of the gaze of the subject by the gaze detection means at predetermined time intervals,
A line-of-sight speed data generation step of generating a change in the position of the detected line of sight as line-of-sight speed data,
A step of storing a predetermined number of continuously generated line-of-sight speed data as line-of-sight speed history data,
A confused determination step of determining whether or not the subject is confused by comparing the line-of-sight speed history data with a predetermined pattern.
所定時間間隔で視線検出手段により被験者の視線の位置を検出する視線位置検出のステップと、
検出した視線の位置の変化を視線速度データとして生成する視線速度データ生成のステップと、
所定個数の連続して生成された視線速度データを視線速度履歴データとして記憶する視線速度履歴データ記憶のステップと、
前記視線速度履歴データを所定のパターンと比較することで、被験者が戸惑いの状態であるか否かを判断する戸惑い判定のステップと
を実行させることを特徴とする戸惑い検出プログラム。A computer having input means and display means,
Gaze position detection step of detecting the position of the gaze of the subject by the gaze detection means at predetermined time intervals,
A line-of-sight speed data generation step of generating a change in the position of the detected line of sight as line-of-sight speed data,
A step of storing a predetermined number of continuously generated line-of-sight speed data as line-of-sight speed history data,
A confused determination step of comparing the line-of-sight speed history data with a predetermined pattern to determine whether or not the subject is in a confused state.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003122991A JP4054713B2 (en) | 2003-04-25 | 2003-04-25 | Puzzled detection method and puzzled detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003122991A JP4054713B2 (en) | 2003-04-25 | 2003-04-25 | Puzzled detection method and puzzled detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004321621A true JP2004321621A (en) | 2004-11-18 |
JP4054713B2 JP4054713B2 (en) | 2008-03-05 |
Family
ID=33500998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003122991A Expired - Fee Related JP4054713B2 (en) | 2003-04-25 | 2003-04-25 | Puzzled detection method and puzzled detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4054713B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180012874A (en) * | 2015-06-25 | 2018-02-06 | 인텔 코포레이션 | Technology for controlling the visual correction of a wearable computing device |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06162A (en) * | 1992-06-22 | 1994-01-11 | A T R Tsushin Syst Kenkyusho:Kk | Sight line information analyzing device |
JPH06161983A (en) * | 1992-11-20 | 1994-06-10 | Wacom Co Ltd | Pattern matching system |
JPH07136116A (en) * | 1993-06-25 | 1995-05-30 | Atr Tsushin Syst Kenkyusho:Kk | Line of sight analyzer |
JPH07249197A (en) * | 1994-03-10 | 1995-09-26 | Mitsubishi Electric Corp | Detecting device for state of person |
JPH10207615A (en) * | 1997-01-22 | 1998-08-07 | Tec Corp | Network system |
JPH11225967A (en) * | 1998-02-12 | 1999-08-24 | Morita Mfg Co Ltd | Oculogyration analysis method, oculogyration display and diagnosis device, and recording medium in which private diagnosis file is recorded |
WO2002009025A1 (en) * | 2000-07-24 | 2002-01-31 | Seeing Machines Pty Ltd | Facial image processing system |
-
2003
- 2003-04-25 JP JP2003122991A patent/JP4054713B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06162A (en) * | 1992-06-22 | 1994-01-11 | A T R Tsushin Syst Kenkyusho:Kk | Sight line information analyzing device |
JPH06161983A (en) * | 1992-11-20 | 1994-06-10 | Wacom Co Ltd | Pattern matching system |
JPH07136116A (en) * | 1993-06-25 | 1995-05-30 | Atr Tsushin Syst Kenkyusho:Kk | Line of sight analyzer |
JPH07249197A (en) * | 1994-03-10 | 1995-09-26 | Mitsubishi Electric Corp | Detecting device for state of person |
JPH10207615A (en) * | 1997-01-22 | 1998-08-07 | Tec Corp | Network system |
JPH11225967A (en) * | 1998-02-12 | 1999-08-24 | Morita Mfg Co Ltd | Oculogyration analysis method, oculogyration display and diagnosis device, and recording medium in which private diagnosis file is recorded |
WO2002009025A1 (en) * | 2000-07-24 | 2002-01-31 | Seeing Machines Pty Ltd | Facial image processing system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180012874A (en) * | 2015-06-25 | 2018-02-06 | 인텔 코포레이션 | Technology for controlling the visual correction of a wearable computing device |
KR102670780B1 (en) * | 2015-06-25 | 2024-05-29 | 인텔 코포레이션 | Technology to control visual correction of wearable computing devices |
Also Published As
Publication number | Publication date |
---|---|
JP4054713B2 (en) | 2008-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6907563B2 (en) | Image processing device and image processing program | |
CN104054038B (en) | Individual identification device and individual discrimination method | |
JP5317415B2 (en) | Image output apparatus, image output method, and image output program | |
JP4869978B2 (en) | Image recording apparatus, image recording method, and image recording program | |
JP6878923B2 (en) | Image processing equipment, image processing system, and image processing program | |
WO2016090376A1 (en) | Eye tracking via patterned contact lenses | |
US11663845B2 (en) | Method and apparatus for privacy protected assessment of movement disorder video recordings | |
JP5044237B2 (en) | Image recording apparatus, image recording method, and image recording program | |
US20200337627A1 (en) | Cognitive health assessment system | |
US20230309882A1 (en) | Multispectral reality detector system | |
Zhang et al. | A human-in-the-loop deep learning paradigm for synergic visual evaluation in children | |
JP7209954B2 (en) | Nystagmus analysis system | |
JPWO2019207800A1 (en) | Ophthalmic image processing equipment and ophthalmic image processing program | |
Wei et al. | Human action understanding and movement error identification for the treatment of patients with Parkinson's disease | |
WO2023189309A1 (en) | Computer program, information processing method, and information processing device | |
CN117316440A (en) | Intelligent facial paralysis degree evaluation method based on machine learning facial feature calculation | |
Patel et al. | Glaucoma detection using mask region-based convolutional neural networks | |
US20230137366A1 (en) | Multimodal Dialog-Based Remote Patient Monitoring of Motor Function | |
JP4054713B2 (en) | Puzzled detection method and puzzled detection program | |
JP6865996B1 (en) | Cognitive / motor dysfunction evaluation system and cognitive / motor dysfunction evaluation program | |
US20210259603A1 (en) | Method for evaluating a risk of neurodevelopmental disorder with a child | |
KR102247712B1 (en) | Method for skin diagnosis using big data and the device thereof | |
WO2022054677A1 (en) | Program, information processing device, information processing method, and information processing program | |
Kalliojärvi | Early Detection of Dementia by Analysing Video Footage: Analysis of movement during instructionless viewing | |
CN118512173B (en) | Deep learning-based children hearing detection method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071210 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101214 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131214 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |