JP4054713B2 - Puzzled detection method and puzzled detection program - Google Patents

Puzzled detection method and puzzled detection program Download PDF

Info

Publication number
JP4054713B2
JP4054713B2 JP2003122991A JP2003122991A JP4054713B2 JP 4054713 B2 JP4054713 B2 JP 4054713B2 JP 2003122991 A JP2003122991 A JP 2003122991A JP 2003122991 A JP2003122991 A JP 2003122991A JP 4054713 B2 JP4054713 B2 JP 4054713B2
Authority
JP
Japan
Prior art keywords
line
gaze
sight
history data
confusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003122991A
Other languages
Japanese (ja)
Other versions
JP2004321621A (en
Inventor
佐々木  実
京虎 崔
憲之 青山
悠子 谷口
忠彦 福田
靖哲 田中
正士 中村
浩司 吉川
Original Assignee
忠彦 福田
株式会社電算システム
財団法人ソフトピアジャパン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 忠彦 福田, 株式会社電算システム, 財団法人ソフトピアジャパン filed Critical 忠彦 福田
Priority to JP2003122991A priority Critical patent/JP4054713B2/en
Publication of JP2004321621A publication Critical patent/JP2004321621A/en
Application granted granted Critical
Publication of JP4054713B2 publication Critical patent/JP4054713B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、戸惑い検出方法及びプログラムに係り、詳しくは視線の観察のみで戸惑いの状態を自動検出する戸惑い検出方法に関するものである。
【0002】
【従来の技術】
従来より、人間の感情などを外部観察により検出しようとする試みがなされていた。それは、例えばマン−マシン インタフェースの改善のために、ユーザが操作上戸惑いを感じる操作をピックアップして問題点を抽出するためなどに用いられる。その方法としては、顔の位置、腕の動作、音声、筋肉の変化、発汗、心拍数、血圧或いは表情など様々なデータを検出して、これらの検出データに基づいて被験者の感情を推測していた。だが、1種類だけの検出データでは推測の精度が上がらず、複数の検出データに基づいて感情を推測するものが多かった。
【0003】
そこで、特許文献1に示すような視線情報解析装置などが提案された。この視線情報解析装置では、眼球運動検出装置によって眼球の運動を検出し、解析装置によって検出された眼球の時系列変化を周波数領域で解析し、画像入力部画像入力部から入力された表示される画像の内容を表示内容解析装置で解析し、両者を統合解析部で統合処理をすることにより、被験者の心理的な観察状態、画像に対する客観的な評価について信頼性の高いデータを得るものである(要約参照)。このような視線情報解析装置であれば、画像を評価しようとする被験者の意思決定過程を、眼球運動の時間軸上で見た挙動の変化と、提示される画像内容と眼球運動との相関付けから推定し、人の画像に対する客観的な評価結果を得ることができる。なお、特許文献2には、視線の位置の検出の方法の一例が開示されている。
【0004】
【特許文献1】
特開平6−162号公報 図1
【特許文献2】
特開平6−319701号公報
【0005】
【発明が解決しようとする課題】
しかしながら、この視線情報解析装置では、画像内容が既知で、眼球の挙動が未知の場合、または眼球の挙動が既知で、画像内容が未知の場合、それぞれの未知量を予め記述された予測関数で推定することはできても、実際の戸惑いまでも検出できるものではないという問題があった。
【0006】
上記課題を解決するため、本発明は、視線を観察するだけで、被験者の戸惑いを自動的に検出できる戸惑い検出方法を提供することを目的とする。
【0007】
【課題を解決するための手段】
請求項1に係る戸惑い検出方法では、入力手段と表示手段とを備えたコンピュータが、所定時間間隔で視線検出手段により被験者の視線の位置を検出する視線位置検出のステップと、検出した視線の位置の変化を視線速度データとして生成する視線速度データ生成のステップと、所定個数の連続して生成された視線速度データを視線速度履歴データとして記憶する視線速度履歴データ記憶のステップと、前記視線速度履歴データを所定のパターンと比較することで、被験者が戸惑いの状態であるか否かを判断する戸惑い判定のステップとを実行することを要旨とする。
【0008】
この構成に係る戸惑い検出方法では、視線位置検出のステップで検出した視線の位置を、視線速度データ生成のステップで速度データとして生成し、視線速度履歴データ記憶のステップで視線速度履歴データとして記憶する。この視線速度履歴データを戸惑い判定のステップで所定のパターンと比較することで被験者が戸惑いの状態であるか否かを判断することができるという効果がある。
【0009】
請求項2に係る戸惑い検出方法では、請求項1に記載の戸惑い検出方法の構成に加え、前記視線位置検出のステップにおいて、所定時間間隔が、200分の1秒以上、15分の1以下であることを要旨とする。
【0010】
この構成に係る戸惑い検出方法では、請求項1に記載の戸惑い検出方法の効果に加え、視線位置検出のステップにおける所定時間間隔を200分の1秒以上、15分の1以下とすることで、被験者の戸惑いの検出を実用的な時間の遅れ無しに、かつコンピュータの処理量を過多にせず処理することができるという効果がある。特に30分の1秒においては、最も好ましい結果を得ることができた。
【0011】
請求項3に係る戸惑い検出方法では、請求項1又は請求項2に記載の戸惑い検出方法の構成に加え、前記視線速度履歴データ記憶のステップにおいて、視線速度履歴データとして連続して検出される視線速度データの所定個数が少なくとも30以上であることを要旨とする。
【0012】
この構成に係る戸惑い検出方法では、請求項1又は請求項2に記載の戸惑い検出方法の効果に加え、視線速度履歴データとして連続して検出される視線速度データの所定個数を少なくとも30以上とすることで、所定のパターンとの比較をするために必要な情報量を確保することができるという効果がある。
【0013】
請求項4に係る戸惑い検出方法では、請求項1乃至請求項3のいずれか1項に記載の戸惑い検出方法の構成に加え、前記視線速度履歴データ記憶のステップにおいて、視線速度履歴データとして連続して検出される視線速度データの合計時間長が0.5秒以上5秒以下であることを要旨とする。
【0014】
この構成に係る戸惑い検出方法では、請求項1乃至請求項3のいずれか1項に記載の戸惑い検出方法の効果に加え、前記視線速度履歴データ記憶のステップにおける視線速度履歴データとして連続して検出される視線速度データの合計時間長を0.5秒以上とすることで精度の信頼性を確保し、5秒以下とすることで処理速度の向上や処理の負担の軽減をはかることで、戸惑いの状態を判断するのに必要かつ十分な時間とすることができるという効果がある。
【0015】
請求項5に係る戸惑い検出方法では、請求項1乃至請求項4のいずれか1項に記載の戸惑い検出方法の構成に加え、前記視線速度履歴データ記憶のステップにおいて、前記視線速度データ生成のステップで視線の速度データを生成する毎に前記視線速度履歴データを生成し記憶することを要旨とする。
【0016】
この構成に係る戸惑い検出方法では、請求項1乃至請求項4のいずれか1項に記載の戸惑い検出方法の効果に加え、視線速度履歴データ記憶のステップにおける視線速度履歴データを生成し記憶するタイミングを視線速度データ生成のステップで視線速度データを生成する毎にすることで、検出時間の遅れを生じることなく精度良く戸惑いの状態を判断することができるという効果がある。
【0017】
請求項6に係る戸惑い検出方法では、請求項1乃至請求項5のいずれか1項に記載の戸惑い検出方法の構成に加え、前記戸惑い判定のステップは、ニューラルネットワークを用いたパターンマッチングによることを要旨とする。
【0018】
この構成に係る戸惑い検出方法では、請求項1乃至請求項5のいずれか1項に記載の戸惑い検出方法の効果に加え、戸惑い判定のステップを、ニューラルネットワークを用いたパターンマッチングによることで、非線形の複雑なパターンの視線速度履歴をもつ戸惑いの状態でも高速かつ正確に検出することができるという効果がある。
【0019】
請求項7に係る戸惑い検出方法では、請求項6に記載の戸惑い検出方法の構成に加え、前記戸惑い判定のステップにおいて、前記ニューラルネットワークはフィードフォワード方式の階層型ニューラルネットワークであって、ノード関数がシグモイド関数を用いたことを要旨とする。
【0020】
この構成に係る戸惑い検出方法では、請求項6に記載の戸惑い検出方法の効果に加え、ノード関数をシグモイド関数とすることで、戸惑い状態の検出精度を高めることができるという効果がある。
【0021】
請求項8に係る戸惑い検出方法では、請求項7に記載の戸惑い検出方法の構成に加え、前記戸惑い判定のステップにおいて、比較される所定のパターンは、被験者に正解がない若しくは正解が重複する設問により解答を画面上で選択させるトラップを回答させる状態における前記視線速度履歴データに基づいて生成する学習のステップをさらに実行することを要旨とする。
【0022】
この構成に係る戸惑い検出方法では、請求項7に記載の戸惑い検出方法の効果に加え、戸惑い判定のステップにおいて、比較される所定のパターンを、被験者に対して、正解がない若しくは正解が重複する設問により解答を画面上で選択させるトラップを回答させることで、直ちにかつ確実に被験者に戸惑いの状態を導出させ、この状態を学習することで比較される所定パターンの精度を高めることができるという効果がある。
【0023】
請求項9に係る戸惑い検出方法では、請求項8に記載の戸惑い検出方法の構成に加え、前記学習のステップにおいて、前記トラップが表示されている時間中の特定の時間の視線速度履歴データのみを学習し、前記トラップが表示されている時間中の他の時間の視線速度履歴データは学習しないことを要旨とする。
【0024】
この構成に係る戸惑い検出方法では、請求項8に記載の戸惑い検出方法の効果に加え、学習のステップにおいて、トラップが表示されている時間中の特定の時間、例えば最初の視線速度履歴データのみを学習し、トラップが表示されている時間中の他の視線速度履歴データは学習しないことで戸惑いが現に生じている確度の高いデータのみを用いて学習させ、確度の低いデータを排除することで学習効果を高めることができるという効果がある。
【0025】
請求項10に係る戸惑い検出方法では、請求項1乃至請求項9のいずれかに記載の戸惑い検出方法の構成に加え、前記戸惑い判定のステップにおいて、被験者が戸惑いの状態であるか否かを判断する視線速度履歴データと所定のパターンとの比較は、所定の閾値を基準として一致又は不一致の2値で行われることを要旨とする。
【0026】
この構成に係る戸惑い検出方法では、請求項1乃至請求項9のいずれか1項に記載の戸惑い検出方法の効果に加え、戸惑い判定のステップにおける視線速度履歴データのパターンと所定のパターンとのパターンマッチングによる比較を所定の閾値を基準として一致又は不一致の2値で出力させることで、処理量を軽減させ処理を高速化することができるという効果がある。
【0027】
請求項11に係る戸惑い検出プログラムでは、入力手段と表示手段とを備えたコンピュータに、所定時間間隔で視線検出手段により被験者の視線の位置を検出する視線位置検出のステップと、検出した視線の位置の変化を視線速度データとして生成する視線速度データ生成のステップと、所定個数の連続して生成された視線速度データを視線速度履歴データとして記憶する視線速度履歴データ記憶のステップと、前記視線速度履歴データを所定のパターンと比較することで、被験者が戸惑いの状態であるか否かを判断する戸惑い判定のステップとを実行させることを要旨とする。
【0028】
この構成に係る戸惑い検出プログラムでは、コンピュータに視線位置検出のステップで検出させた視線の位置を、視線速度データ生成のステップで視線速度データとして生成させ、視線速度履歴データ記憶のステップで視線速度履歴データとして記憶させる。この視線速度履歴データを戸惑い判定のステップで所定のパターンと比較させることで被験者が戸惑いの状態であるか否かを判断する処理を実行させることができるという効果がある。
【0029】
【発明の実施の形態】
以下、本発明を具体化した一実施形態である戸惑い検出システム1により実行される人の戸惑い検出方法を図1〜図11に従って説明する。ここで、「戸惑い」とは、本実施形態においては、人がコンピュータ端末等の操作時において、どのように操作したらよいか判らなくなる困惑状態をいうものとする。図1は、戸惑い検出システム1の構成を示すブロック図である。
【0030】
(ハード構成)
戸惑い検出システム1は、CPU3、RAM4、ROM5を備えた周知のパーソナルコンピュータから構成されるコンピュータ2を備える。このコンピュータ2には、入出力を制御するインタフェース6を介して、外部記憶装置であるHDD(Hard Disk Drive)7が接続されている。また、CRT(Cathode−Ray Tube)やLC(Liquid Crystal)からなる出力手段、表示手段であるディスプレー8を備える。なお、図示を省略したが検出を管理するためのモニタを備えてよく、また、出力手段としてプリンタなどを備えてもよい。また、入力手段であるキーボード9、マウス10を備える。なお、シリアル入力が可能な他の入力手段を用いてもよい。また、被験者の全体を捉えるモニタカメラ11と、被験者の眼球をアップで映し出す視線検出用カメラ12と、視線認識対象の眼球Eの角膜上に結像させるための幾何学的な特徴を有する図形パターンの光源P1,P2を備える。
【0031】
本実施形態の戸惑い検出システム1を構成するコンピュータ2は、図1では1つのCPU3を備えた1台のコンピュータ2により構成されているが、複数のCPUを備え、或いは複数のコンピュータを備えて構成されてもよい。特に、ニューラルネットワークの処理は大量の演算を必要とするため、十分な能力を備えたものが望ましい。例えば、本発明者の実験では、動作クロック3GHz程度のパーソナルコンピュータ4台で並列処理を行い、動作確認を行っている。また、処理を機能毎に複数のコンピュータに分散化してもよい。
【0032】
図2はHDD7の記憶内容を模式的に示す図である。HDD7は、OS(オペレーションシステム)7a、本発明の戸惑い検出プログラム7bや視線位置検出プログラム7c等のプログラムが記憶される。また、戸惑いを示す視線速度履歴データのパターンが学習されたニューラルネットワーク7d、さらに検出された視線速度データの一時保存ファイル7e、ここから生成された視線速度履歴データのファイル7fなどのファイルが記憶される。
【0033】
視線検出用カメラ12、光源P1,P2は、視線速度検出のために視線の認識を行う。これらが本発明の視線検出手段の一部に相当する。視線認識に使われている特徴点としては、瞳孔、黒目、角膜反射像、水晶体反射像等様々なものが使われている。それらの中でも、角膜反射像は、輝度が高く抽出しやすいことから、非常によく使われている特徴点である。この特徴点を用いた視線認識技術の一つとしてアイマークレコーダがあげられる。これは、眼球の回転中心と眼球を観測する観測系と点光源の位置が固定されているという条件(具体的には、観測系、光源の付いた装置を頭部に固定する。)の下では、角膜反射像は眼球の回転に応じて移動するという性質を用いたものである。角膜上皮が球面の一部としてモデル化されている場合には、複数の角膜反射像の位置から角膜の曲率中心を求めることができる。
【0034】
また、例えば、上述の特許文献2に開示されている視線認識装置などでは、頭部に検出のための装置を装着しなくても視線を認識することができる。本実施形態ではこの方法を例に視線の認識を説明し、詳細な説明は省略する。この視線の認識方法では、視線認識対象の眼球Eの角膜上に結像させるための幾何学的な特徴を有する図形パターンの光源P1、P2を被験者の視界の両サイドに被験者の眼球に照射する。角膜上に結像された図形パターンを撮像装置で撮像し、その結像した図形パターンの特徴・位置から眼球Eの角膜曲率中心を幾何学的に計算して求める。そして求められた眼球角膜曲率中心情報を用いて視線を認識する。
【0035】
ここで、本実施態様の被験者の戸惑いの検出のための学習の概略について説明する。図3は、視線の位置を検出する方法を示す図である。まず、被験者はディスプレー8を見ながら、キーボード9、マウス10が操作可能な状態で着座して待機する。このとき、図3に示すように被験者の眼球Eと略同じ高さの前方両サイドには、被験者の視界に入るように光源P1,P2が配置される。光源P1には十字形、光源P2には円形の光源パターンが形成されており、視線検出用カメラ12により被験者の眼球に結像した光源パターンの映像を記録する。視線検出用カメラ12は、例えばCCDビデオカメラで、コンピュータ2に制御されて時刻情報とともにHDD7に映像のデータが記録される。
【0036】
撮影された映像から図形パターンの特徴・位置がコンピュータ2によって認識され、眼球Eの角膜曲率中心が幾何学的に計算して求められる。そして求められた眼球角膜曲率中心情報を用いて視線を認識する。この際、眼球角膜曲率中心情報に加えて、瞳孔中心位置等の眼球の他の情報を用いて視線を認識する。このようにして本実施形態では、所定間隔、例えば30分の1秒毎の間隔で視線が認識される。この手順が、本発明の所定時間間隔で視線検出手段により被験者の視線の位置を検出する視線位置検出のステップに相当する。
【0037】
なお、本発明者の試行錯誤の結果、この視線位置検出のステップにおいては、所定時間間隔が、30分の1秒が最も好ましいことがわかったが、少なくとも200分の1秒以上、15分の1以下の範囲内であればよい。15分の1秒を超える時間間隔であっても視線の速度を把握できるが、それ以上の間隔であると、その時間間隔内に視線が往復した動きをした場合等の影響が大きくなりやすく、検出する速度の精度が下がり好ましくはない。一方、200分の1秒以下であると、現状のコンピュータの処理能力では負担が大きくなる。もちろん将来的にコンピュータの処理能力が向上すれば200分の1秒未満の時間間隔とすることも可能である。なお、眼球の動きは大きく視線を変える動きと、視線方向を保ったまま振動するような動きを示しているため、必ずしも戸惑いを検出するためには、間隔が短ければよいというわけではない。
【0038】
そして、ここで認識された眼球角膜曲率中心の位置と、その30分の1秒前に認識された眼球角膜曲率中心の位置の移動距離を視線速度として計測する。あるいは、このとき認識された視線の方向と30分の1秒前に認識された視線の方向とから視線の角度の差を視線の角速度として計測する。そしてこれが1フレームの視線速度データとなる。この手順が、本発明の検出した視線の位置の変化を視線速度データとして生成する視線速度データ生成のステップに相当する。このとき測定時間は30分の1秒で一定であるため、計測された角速度若しくは移動距離は、いずれも視線速度に比例する。
本発明でいう「視線速度」は、例えば、所定時間当たりの眼球中心からの角膜曲率中心の移動する角速度、若しくは眼球の角膜曲率中心の移動距離のいずれでもよい。視線速度の変化をパターンで判断するため、時系列に速度変化が把握できればよいからである。眼球全体は概ね球体であるから、いずれの数値であって、速度変化の傾向はほぼ同一となるから同等の精度が期待できるからである。また、眼球の正確な形状の把握の困難さなど、観測値が技術的な問題から理論的な真の数値に対して誤差が含まれていると考えられる場合がある。しかしそのような場合でも本発明では、速度変化のパターンマッチングにより判断するため、そのままの未加工の生データを用いることができ、あえて修正や加工をする必要がない。比較するいずれのパターンにも同等に誤差が含まれることになるからである。したがって、被験者による学習やテストなども、観測条件を同一にする限り極めて簡易な処理とすることができる。
【0039】
次に、このように検出された視線速度データが視線速度履歴データとしてHDD7に記憶される。この「視線速度履歴データ」は、連続した50フレームの視線速度データを1つの塊として「パターン」としたものである。つまり、30分の1秒毎で50フレームであるので、1つの視線速度履歴データのパターンは、およそ1.7秒の時間長となる。
【0040】
30分の1秒毎に集計する視線速度履歴データをシフトしながら直近の連続する50フレーム分からこのパターンを生成する。この手順が、本発明の所定個数の連続して生成された視線速度データを視線速度履歴データとして記憶する視線速度履歴データ記憶のステップに相当する。視線速度履歴データ記憶のステップにおいて、視線速度生成のステップで視線の速度データを生成する毎に視線速度履歴データを記憶することが好ましい。ただし、処理の負担などを考慮して、視線の速度データを生成する毎ではなく、1つおき、あるいはそれ以上の間隔で視線速度履歴データを生成するようにすることもできる。戸惑いを検出する被験者から得たパターンを「比較パターン」、戸惑い状態が導出された被験者から学習して得たパターンを「戸惑いパターン」という。但し、「戸惑いパターン」は、ニューラルネットワークにより記憶された概念的なもので、視線速度履歴データとして顕在化されたものではない。
【0041】
なお、本実施形態では、望ましい例として視線速度履歴データを構成する連続した視線速度データの数を50フレームとしているが、視線速度履歴データとして連続して検出される速度データの所定個数が少なくとも30以上であれば、十分な精度となる。また、本実施形態では、望ましい例として、1つの視線速度履歴データのパターンの時間長が、およそ1.7秒の時間長とされているが、視線速度履歴記憶データのステップにおいて、視線速度履歴データとして連続して検出される速度データの時間長が0.5秒以上5秒以下であれば好ましい。視線速度履歴データの時間長が0.5秒未満であるとサンプリングの時間間隔にもよるが、パターンとしてデータ不足になりやすい。一方、時間長が5秒を超えると、時間内に戸惑い状態が解消してしまう場合もあり、却って精度が低下する虞がある。
【0042】
(トラップの表示)次に、戸惑い状態にある被験者の視線速度履歴データのパターンをニューラルネットワークが記憶するための「戸惑いパターン」を取得する「トラップ」による学習を説明する。本実施形態では、戸惑い判定のステップにおいて、「比較パターン」とパターンマッチングにより比較される戸惑い状態か否かの基準とされる所定のパターンである「戸惑いパターン」は、学習によりニューロネットワークの中にその特徴が取得される。この学習は、被験者に誤操作をしやすい操作をさせたり、「正解がない設問」若しくは「正解が重複する設問」により解答を画面上で選択させるトラップを回答させたりする。そして、戸惑い状態における視線速度履歴データを「教師」として、ニューラルネットワークに入力する。この手順は、本発明の学習のステップに相当する。学習においては、被験者にはコンピュータのモニタを見せながら、「戸惑い」導出用のプログラムが表示させるディスプレー8の画面の指示に従って、キーボード9、マウス10からキー入力、マウス入力をさせる。本実施形態では、このプログラムで表示させる「戸惑い」導出用の画面を「トラップ」、このプログラムを「トラッププログラム」と呼ぶ。
【0043】
(トラップT0)このトラッププログラムは、例えば、アプリケーションソフトウエアのインストール画面を模した画面を表示させる。被験者が通常馴染んでいるOSにより示されるアプリケーションソフトのインストール画面と同様の画面が連続して表示される。ここには、このOSで共通な画面が示され、例えば、操作に必要な「次へ」ボタン、「戻る」ボタン、「キャンセル」ボタンも、このOSに共通な配列で表示されている。ところが、図4に示すように、このトラップT0では、「次へ」ボタンT0aと、「戻る」ボタンT0bが通常の配列とは逆になっている。同じような正しい配列のメッセージボックスが連続して出現した後で、全体としてはそれまでのメッセージボックスと同じであるが、トラップT0では、操作ボタンだけが図4に示すように通常の配列と異なった配列で表示される。そのため、被験者は操作ミスを起こしそうになり戸惑いを生じるか、さらに誤操作をしてしまった場合もやはり戸惑いを生じる。従って確実に「通常状態(戸惑いを生じていない状態)」にある被験者に「戸惑い状態(戸惑いを生じている状態)」を導出できる。
(トラップT1)また、図5に示すトラップT1では、「目標値」T1aと「現在値」T1bが表示され、「現在値」T1bにボタンT1c若しくはボタンT1dを選択してクリックすることでその選択した数が加算されて目標値にするものである。しかし、「現在値9」に対して「+2」しても「−2」しても、「目標値10」にはならないため、被験者は戸惑い状態となる。極めて、分かり易い設定であり、かつ被験者は与えられた条件では解決できないことが短時間にわかるため、戸惑い状態の発生が速やかで、発生時間が管理しやすいものである。
【0044】
(トラップT2)図6に示すトラップT2では、正解の選択肢がある計算問題が順次示された後にトラップT2が表示される。トラップT2では問題T2aに示された「2+2=?」という、瞬時に計算できる問題に対して、解答T2bが「5」、解答T2cが「6」、解答2dが「7」と、正解の「4」に当たる解答がない。一定時間後、正解が候補の中に出現する。従って、確実に被験者に戸惑い状態を導出することができる。
【0045】
(トラップT3)図7に示すトラップT3では、指示項目T3aに示された「次の数字を選択して下さい 28」という指示に対して、解答T3bが「28」、解答T3cが「28」、解答T3dが「28」といずれも正解である。そのため、被験者は、これらの解答のいずれを選択すべきか根拠を見いだせず、極めて短時間に被験者に戸惑い状態を導出することができる。
【0046】
(トラップT4)そして、図8に示すトラップT4では、図5に示すトラップT1と同様に、順次設問が表示されるが、現在値T4bを目標値T4aにするための加算又は減算するボタンが表示されるべき設問であるにも拘わらず、解答に必要なボタン表示がなく、解答不能になる。この場合も被験者に直ちに戸惑い状態を導出させることができる。
【0047】
以上例示したようなトラップT0〜トラップT4によれば、設定した時間に表示することで被験者に直ちに戸惑い状態を導出できる。そのため、確実に戸惑い状態の視線をサンプリングすることができ、確実に戸惑い状態にある中で視線速度履歴データを採取して入力し、適切な「教師」として学習させることができる。
【0048】
(トラップ以外の戸惑い)なお、上記トラップは、戸惑い状態を所定時刻に確実に導出させることができるため、学習の効果を高めることができる。ただし、このようなトラップによらなくても、正しい操作であっても経験的に戸惑いを生じる操作、例えば、表示している意味が分かりにくい、或いは誤操作が著しく多い、被験者が操作を停止して考え込む等々明らかな戸惑い状態を生じている操作を再現して学習させることもできる。
【0049】
このトラップT0〜T4では、短時間のうちに確実に被験者を戸惑い状態にできるが、必ずしもトラップを表示している間、ずっと被験者に戸惑い状態が継続されて導出されている訳ではない。つまり、トラップT0乃至トラップT4等を表示してから、被験者がこれを理解して戸惑い状態になるまでには被験者の違いやトラップの種類により若干のリードタームの差があり、さらに状況を理解し戸惑い状態が解消するまでにも時間差がある。そこで、学習のステップにおいて、トラップが表示されている時間中の特定の時間、例えば、表示から3秒経過したときを戸惑い状態としてサンプリングする。それ以外は、戸惑い状態か通常状態かの判別が困難であるため、戸惑い状態としても通常状態としても学習のデータとしてサンプリングしないようにする。このような構成とすることで、確実に適切な「教師」のみを学習させることで学習の精度を向上させている。ここで、図9は、学習のステップにおけるニューラルネットワークの学習を示す模式図である。ここでは、「H istory of eye movement speed」と表示された部分EMが、視線速度を示し、網がけで表示された部分がトラップtが表示された時間である。その下部の「0 0 0…1 」で表示された部分がサンプリングのタイミングを示す。ここに示すようにトラップtが表示されるまでのサンプリングS0では通常状態を示す「0」としてサンプリングしている。また、トラップtが表示された最初のサンプリングS1では、戸惑い状態を示す「1」のサンプルとして学習させるが、その後に続くサンプリングS2は、「0」とも「1」ともサンプリングしない。トラップtの表示が終了した後はサンプリングS3で通常状態の「0」としてサンプリングする。
【0050】
(戸惑い検出)次に、以上のような学習を行ったニューラルネットワークを用いて被験者の戸惑いを検出する方法について説明する。上述のように被験者は視線の検出を行える状態で、戸惑いを検出したい作業を行う。この作業は、パーソナルコンピュータのアプリケーションソフトの操作や、銀行のATM(Automated−Teller Machine)の操作、その他機械の操作用コンソールなど、マン−マシン インタフェースに関わるものが代表的なものである。これらは、操作時に戸惑いを生じないことがマン−マシン インタフェースの向上に直接関係するためである。また、これらは操作の履歴が時間情報と共に再現しやすいからである。もちろん作業はこれらに限らず、印刷された文書や写真、映像などを見せたときの反応などを調べることもできる。本実施形態では、視線の認識を行うため、被験者が見ている対象物を画面表示しながら、その画像上でアイポイントを表示するようなこともできる。また、モニタカメラ11により被験者自身の表情や、動作を映像として記録しておくこともできる。
【0051】
本実施形態では、視線速度履歴データの作成と同時にモニタカメラ11で被験者のデジタルビデオ映像を記録する。これは、時刻情報とともに記録され、時刻情報は、画面に時刻をスーパインポーズをしたり、視線速度履歴データとの同期をはかるために用いられる。このデジタルビデオ映像からは、被験者の態度、表情などが映し出され、戸惑い状態の発現との関連を観察できる。
【0052】
もちろん、マルチ画面として、被験者が見ている表示画面、被験者の表情、被験者の眼球、観測された数値・パターン、戸惑いの発現の表示を同一画面に表示することも好ましい。
【0053】
このような作業を行いつつ、前記視線速度履歴データをニューラルネットワークでパターンマッチングにより比較することで、被験者が戸惑いの状態であるか否かを判断する。この手順が本発明の戸惑い判定のステップに相当する。この手順はニューラルネットワークを用いたパターンマッチングにより、パターンが一致するとの判断、即ち、ニューラルネットワークが「1」を出力した場合は、戸惑い状態が発現していると判断する。また、パターンが一致しないと判断された場合は「0」が出力される。即ち、本実施形態では、戸惑い判定のステップにおいて、被験者が戸惑いの状態であるか否かを判断する視線速度履歴と所定のパターンとの比較は、所定の閾値を基準として一致を示す「1」、又は不一致を示す「0」の2値のいずれかで出力される。
【0054】
本実施形態の戸惑い判定のステップでは、ニューラルネットワークにより戸惑いの判定をしている。そのため、他の方法に比較してパターンマッチングの精度が高く確実に戸惑いの発現を捉えることができる。本実施形態のニューラルネットワークは、教師あり学習アルゴリズムを備えた階層型ニューラルネットワークであって、入力された信号は内部で前向きのみに流れるフィードフォワード方式で処理される。また、ノード関数はシグモイド関数を用いている(図11参照)。本発明者らは、トラップT0〜T4を用いた実験を行い、これらのデータを使ってニューラルネットワークによる戸惑い状態検出モデルを作成した。実験データを学習データとして使った結果、収束するモデルが作成された。そして学習後のニューラルネットワークの認識結果を図10に示す。ここに示すように、全視線速度履歴WHに対して、学習したトラップを示した部分PTでは、検出結果DRに示すように戸惑い状態として検出されている。さらに、実験データに5%のノイズを加えたデータを戸惑い状態検出モデルに与え、戸惑い状態の検出テストを行った。その結果、全ての戸惑い状態ポイントを特定することができた。
【0055】
次に、作成した戸惑い状態検出ニューラルネットワークモデルを検証するために、未知データとして被験者10人を対象にトラップT2の基本パターン画面を使って検証実験を行った。検証実験データをモデルに入力して戸惑い状態検出を行った。ここで図12は、検証実験データをモデルに入力して未知の戸惑い状態の検出を行った結果を示す図である。図は、横軸が時間軸であり、上段の枠の部分が、戸惑い状態パターン画面であるトラップt1〜t10が表示されていた時間である。下段の下に伸びている線がモデルが戸惑い状態と判定した箇所を示している。その結果、図12に示すように戸惑い状態検出モデルは、10の未知のトラップt1〜t10に対して、t10以外は戸惑い状態を検出し、90%の検出率を示した。
【0056】
上記実施形態の戸惑い検出方法によれば、以下のような特徴を得ることができる。
・ 上記戸惑い検出方法では、被験者の視線を観察するだけで、他の要素を含まずに被験者の戸惑いを検出することができるという効果がある。したがって、被験者に負担をかけず、かつ極めて容易に被験者の戸惑いを検出できる。このように戸惑いを正確に検出することで、通常の観察では摘出できない戸惑い状態の発生を客観的かつ確実に検出することで、マン−マシン インターフェースの問題部分を摘出することができる。
【0057】
・ また、戸惑い状態の判定にニューラルネットワークを用いているため、複雑な視線速度履歴データを的確に判断し、精度の高い検出をすることができるという効果がある。特に、本実施形態のニューラルネットワークは、パターンマッチングに適した教師あり学習アルゴリズムを備えた階層型ニューラルネットワークである。加えて入力された信号は内部で前向きのみに流れるフィードフォワード方式で処理され、ノード関数はシグモイド関数を用いている。そのため、パーソナルコンピュータなどを用いて、高い精度の判定を行うことができるという効果がある。
【0058】
・ また、ニューラルネットワークの学習に、トラップT0〜T4を用いているため、精度の高い学習を行わせることができるという効果がある。
なお、上記実施形態は以下のように変更してもよい。
【0059】
○ 本実施形態では、戸惑い判定のステップを、フィードフォワード方式のニューラルネットワークを用いたパターンマッチングにより処理しているが、バックプロパゲーション(誤差逆伝播法)の学習アルゴリズムで行ってもよい。その他にも、ボルツマンマシン、これを簡易化した平均場近似学習マシンや、RBFネット(放射状基関数ネット)、学習ベクトル量子化、ファジー・アートマップ、コグニトロンなど種々の技法を採用又は応用しうるものである。
【0060】
○ 本実施形態では、戸惑い判定のステップを、入力信号の処理の流れでノード関数がシグモイド関数を用いたニューラルネットワークを用いているが、他にも閾値関数などを用い得る。また、シグモイド関数や閾値関数においても、さらに「ゆらぎ」をプラスした処理をしてもよく、入力和をそのまま出力する線形関数などによることも考えられる。また、ボルツマンマシンであれば傾きを次第に急にする。
【0061】
【発明の効果】
以上、詳述したように、本願発明では、本発明は、視線を観察するだけで、被験者の戸惑いを自動的にかつ適切に検出できるという効果がある。
【図面の簡単な説明】
【図1】 戸惑い検出システム1の構成を示すブロック図。
【図2】 HDD7の記憶内容を模式的に示す図。
【図3】 視線の位置を検出する方法を示す図。
【図4】 トラップT0を示す図。
【図5】 トラップT1を示す図。
【図6】 トラップT2を示す図。
【図7】 トラップT3を示す図。
【図8】 トラップT4を示す図。
【図9】 ニューラルネットワークの学習を示す模式図。
【図10】 学習後の全視線速度履歴とトラップの位置と戸惑いの検出の関係を示す図。
【図11】 シグモイド関数の例を示す図。
【図12】 検証実験データをモデルに入力して未知の戸惑い状態の検出を行った結果を示す図。
【符号の説明】
1…戸惑い検出装置、2…コンピュータ、3…CPU、4…RAM、5…ROM、6…インタフェース、7…HDD、8…ディスプレー、9…キーボード、10…マウス、11…モニタカメラ、12…視線検出用カメラ、P1,P2…光源、T0〜T4…トラップ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a confusion detection method and program, and more particularly to a confusion detection method for automatically detecting a confusion state only by observing a line of sight.
[0002]
[Prior art]
Conventionally, attempts have been made to detect human emotions by external observation. It is used, for example, to extract problems by picking up operations that the user feels uncomfortable in order to improve the man-machine interface. As the method, various data such as face position, arm movement, voice, muscle change, sweating, heart rate, blood pressure or facial expression are detected, and the emotion of the subject is estimated based on these detection data. It was. However, only one type of detection data does not improve the accuracy of estimation, and there are many that estimate emotion based on a plurality of detection data.
[0003]
Therefore, a line-of-sight information analysis apparatus as shown in Patent Document 1 has been proposed. In this line-of-sight information analyzer, the eye movement is detected by the eye movement detector, the time-series change of the eye detected by the analyzer is analyzed in the frequency domain, and the image input unit is displayed as input from the image input unit Analyzing the contents of an image with a display content analysis device and integrating them with an integrated analysis unit, we obtain highly reliable data on the subject's psychological observation state and objective evaluation of the image (See summary). With such a line-of-sight information analysis device, the subject's decision-making process for evaluating an image is correlated with the change in behavior seen on the time axis of eye movement and the displayed image content and eye movement. It is possible to obtain an objective evaluation result for a human image. Note that Patent Literature 2 discloses an example of a method for detecting the position of the line of sight.
[0004]
[Patent Document 1]
Japanese Patent Laid-Open No. 6-162 FIG.
[Patent Document 2]
Japanese Patent Laid-Open No. 6-319701
[0005]
[Problems to be solved by the invention]
However, in this line-of-sight information analysis apparatus, when the image content is known and the behavior of the eyeball is unknown, or when the behavior of the eyeball is known and the image content is unknown, each unknown amount is represented by a prediction function described in advance. There is a problem that even though it can be estimated, it cannot be detected even in actual confusion.
[0006]
In order to solve the above-described problems, an object of the present invention is to provide a confusion detection method capable of automatically detecting a confusion of a subject simply by observing a line of sight.
[0007]
[Means for Solving the Problems]
In the confusion detection method according to claim 1, a step of gaze position detection in which a computer including input means and display means detects the gaze position of the subject by the gaze detection means at predetermined time intervals, and the detected gaze position A line-of-sight speed data generation step for generating a change in the eye-gaze speed data, a line-of-sight speed history data storage step for storing a predetermined number of continuously generated line-of-sight speed data as line-of-sight speed history data, and the line-of-sight speed history The gist of the present invention is to execute a puzzle determination step of determining whether or not the subject is in a puzzled state by comparing the data with a predetermined pattern.
[0008]
In the confusion detection method according to this configuration, the line-of-sight position detected in the line-of-sight position detection step is generated as speed data in the line-of-sight speed data generation step, and is stored as line-of-sight speed history data in the line-of-sight speed history data storage step. . There is an effect that it is possible to determine whether or not the subject is in a confused state by comparing this line-of-sight speed history data with a predetermined pattern in the confusing determination step.
[0009]
In the puzzle detection method according to claim 2, in addition to the configuration of the puzzle detection method according to claim 1, in the step of detecting the gaze position, the predetermined time interval is 1/200 second or more and 1/15 or less. It is a summary.
[0010]
In the confusion detection method according to this configuration, in addition to the effect of the confusion detection method according to claim 1, by setting the predetermined time interval in the step of gaze position detection to 1/200 second or more and 1/15 or less, There is an effect that the detection of the subject's confusion can be processed without a practical time delay and without excessively processing the computer. In particular, the most preferable result could be obtained in 1/30 second.
[0011]
In the puzzle detection method according to claim 3, in addition to the configuration of the puzzle detection method according to claim 1 or 2, the line of sight continuously detected as line of sight velocity history data in the step of storing the line of sight velocity history data. The gist is that the predetermined number of velocity data is at least 30 or more.
[0012]
In the confusion detection method according to this configuration, in addition to the effect of the confusion detection method according to claim 1 or claim 2, the predetermined number of visual velocity data continuously detected as visual velocity history data is at least 30 or more. Thus, there is an effect that an amount of information necessary for comparison with a predetermined pattern can be ensured.
[0013]
In addition to the configuration of the confusion detection method according to any one of claims 1 to 3, in the confusion detection method according to claim 4, in the step of storing the line-of-sight speed history data, the line-of-sight speed history data is continuously recorded. The total time length of the line-of-sight velocity data detected in this manner is from 0.5 seconds to 5 seconds.
[0014]
In the confusion detection method according to this configuration, in addition to the effect of the confusion detection method according to any one of claims 1 to 3, detection is continuously detected as visual line speed history data in the step of storing the visual line speed history data. The reliability of accuracy is ensured by setting the total time length of the line-of-sight velocity data to 0.5 seconds or more, and it is confusing by improving the processing speed and reducing the processing burden by making it 5 seconds or less. There is an effect that it is possible to make the time necessary and sufficient to determine the state of
[0015]
In the confusion detection method according to claim 5, in addition to the constitution of the confusion detection method according to any one of claims 1 to 4, in the step of storing the line-of-sight velocity history data, the step of generating the line-of-sight velocity data The gist speed history data is generated and stored every time the gaze speed data is generated.
[0016]
In the confusion detection method according to this configuration, in addition to the effect of the confusion detection method according to any one of claims 1 to 4, timing for generating and storing gaze speed history data in the step of gaze speed history data storage Whenever the visual velocity data is generated in the visual velocity data generation step, there is an effect that it is possible to accurately determine the confusion state without causing a detection time delay.
[0017]
In the puzzle detection method according to claim 6, in addition to the configuration of the puzzle detection method according to any one of claims 1 to 5, the puzzle determination step is performed by pattern matching using a neural network. The gist.
[0018]
In the confusion detection method according to this configuration, in addition to the effect of the confusion detection method according to any one of claims 1 to 5, the confusion determination step is performed by pattern matching using a neural network. Even in a confused state having a gaze speed history of a complicated pattern, it is possible to detect at high speed and accurately.
[0019]
In the puzzle detection method according to claim 7, in addition to the configuration of the puzzle detection method according to claim 6, in the puzzle determination step, the neural network is a feed-forward hierarchical neural network, and a node function is The gist is that a sigmoid function is used.
[0020]
In the confusion detection method according to this configuration, in addition to the effect of the confusion detection method according to the sixth aspect, there is an effect that the detection accuracy of the confusion state can be improved by making the node function a sigmoid function.
[0021]
In the puzzle detection method according to claim 8, in addition to the configuration of the puzzle detection method according to claim 7, in the puzzle determination step, the predetermined pattern to be compared is a question in which the subject has no correct answer or duplicate correct answers. The gist of the present invention is to further execute a learning step that is generated based on the line-of-sight velocity history data in a state in which a trap for selecting an answer on the screen is answered.
[0022]
In the confusion detection method according to this configuration, in addition to the effect of the confusion detection method according to claim 7, in the step of confusion determination, the predetermined pattern to be compared has no correct answer or duplicate correct answers for the subject. The effect of being able to improve the accuracy of the predetermined pattern to be compared by letting the subject derive the state of confusion immediately and surely by letting the answer to select the answer on the screen by the question and learning this state There is.
[0023]
In the puzzle detection method according to claim 9, in addition to the configuration of the puzzle detection method according to claim 8, in the learning step, only gaze speed history data at a specific time in the time when the trap is displayed is obtained. The gist is that the eye gaze speed history data at other times during the time when the trap is displayed is not learned.
[0024]
In the confusion detection method according to this configuration, in addition to the effect of the confusion detection method according to claim 8, in the learning step, only a specific time during the time when the trap is displayed, for example, only the first gaze speed history data is obtained. Learning and not learning other gaze speed history data during the time when the trap is displayed, learning by using only highly accurate data that is actually confused and eliminating low accuracy data There is an effect that the effect can be enhanced.
[0025]
In the puzzle detection method according to claim 10, in addition to the configuration of the puzzle detection method according to any one of claims 1 to 9, it is determined whether or not the subject is in a puzzle state in the puzzle determination step. The gist speed history data to be compared with the predetermined pattern is summarized to be a binary value that matches or does not match with a predetermined threshold as a reference.
[0026]
In the confusion detection method according to this configuration, in addition to the effect of the confusion detection method according to any one of claims 1 to 9, a pattern of line-of-sight speed history data and a predetermined pattern in the confusion determination step By outputting the comparison by matching with binary values that match or do not match with a predetermined threshold as a reference, there is an effect that the processing amount can be reduced and the processing speed can be increased.
[0027]
In the puzzle detection program according to claim 11, a step of gaze position detection in which a gaze detection unit detects a gaze position of a subject by a gaze detection unit at a predetermined time interval on a computer including an input unit and a display unit, and the detected gaze position A line-of-sight speed data generation step for generating a change in the eye-gaze speed data, a line-of-sight speed history data storage step for storing a predetermined number of continuously generated line-of-sight speed data as line-of-sight speed history data, and the line-of-sight speed history The gist of the present invention is to execute a puzzle determination step of determining whether or not the subject is in a puzzled state by comparing the data with a predetermined pattern.
[0028]
In the confusion detection program according to this configuration, the line-of-sight position detected by the computer in the line-of-sight position detection step is generated as line-of-sight speed data in the line-of-sight speed data generation step, and the line-of-sight speed history data is stored in the line-of-sight speed history data storage step. Store as data. By comparing this line-of-sight speed history data with a predetermined pattern in the puzzle determination step, there is an effect that a process for determining whether or not the subject is in a puzzle state can be executed.
[0029]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a human confusion detection method executed by the confusion detection system 1 according to an embodiment of the present invention will be described with reference to FIGS. Here, in the present embodiment, “confused” refers to a confusion state in which a person cannot know how to operate a computer terminal or the like. FIG. 1 is a block diagram showing a configuration of the puzzle detection system 1.
[0030]
(Hardware configuration)
The puzzle detection system 1 includes a computer 2 configured by a known personal computer including a CPU 3, a RAM 4, and a ROM 5. An HDD (Hard Disk Drive) 7 that is an external storage device is connected to the computer 2 via an interface 6 that controls input / output. Moreover, the display 8 which is an output means and display means which consist of CRT (Cathode-Ray Tube) and LC (Liquid Crystal) is provided. Although not shown, a monitor for managing detection may be provided, and a printer or the like may be provided as output means. In addition, a keyboard 9 and a mouse 10 are provided as input means. Note that other input means capable of serial input may be used. In addition, a monitor camera 11 that captures the entire subject, a gaze detection camera 12 that projects the subject's eyeball up, and a graphic pattern having a geometric feature for forming an image on the cornea of the eyeball E that is subject to gaze recognition. Light sources P1 and P2.
[0031]
The computer 2 constituting the puzzle detection system 1 according to the present embodiment is configured by one computer 2 having one CPU 3 in FIG. 1, but includes a plurality of CPUs or a plurality of computers. May be. In particular, the processing of the neural network requires a large amount of computation, so that it is desirable to have sufficient capability. For example, in the experiment of the present inventor, parallel processing is performed by four personal computers having an operation clock of about 3 GHz, and the operation is confirmed. Further, the processing may be distributed to a plurality of computers for each function.
[0032]
FIG. 2 is a diagram schematically showing the contents stored in the HDD 7. The HDD 7 stores programs such as an OS (Operation System) 7a, a puzzle detection program 7b of the present invention, and a line-of-sight position detection program 7c. Also stored are a neural network 7d in which a pattern of gaze speed history data indicating confusion has been learned, a temporarily saved file 7e of detected gaze speed data, a file 7f of gaze speed history data generated therefrom, and the like. The
[0033]
The line-of-sight detection camera 12 and the light sources P1 and P2 perform line-of-sight recognition for line-of-sight speed detection. These correspond to a part of the line-of-sight detection means of the present invention. Various features such as pupils, black eyes, cornea reflection images, and lens reflection images are used as feature points used for line-of-sight recognition. Among them, the cornea reflection image is a feature point that is very often used because of its high brightness and easy extraction. One of the line-of-sight recognition techniques using these feature points is an eye mark recorder. This is under the condition that the center of the eyeball, the observation system for observing the eyeball, and the position of the point light source are fixed (specifically, the observation system and the device with the light source are fixed to the head). Then, the cornea reflection image uses the property of moving according to the rotation of the eyeball. When the corneal epithelium is modeled as a part of a spherical surface, the center of curvature of the cornea can be obtained from the positions of a plurality of corneal reflection images.
[0034]
Further, for example, in the gaze recognition device disclosed in Patent Document 2 described above, it is possible to recognize the gaze without wearing a detection device on the head. In the present embodiment, the recognition of the line of sight will be described using this method as an example, and detailed description thereof will be omitted. In this line-of-sight recognition method, the subject's eyeball is irradiated on both sides of the subject's field of vision with light sources P1 and P2 having a geometric feature for forming an image on the cornea of the eyeball E to be recognized. . The figure pattern imaged on the cornea is imaged by an imaging device, and the corneal curvature center of the eyeball E is calculated geometrically from the feature / position of the imaged figure pattern. Then, the line of sight is recognized using the obtained eyeball corneal curvature center information.
[0035]
Here, an outline of learning for detecting the confusion of the subject according to the present embodiment will be described. FIG. 3 is a diagram illustrating a method for detecting the position of the line of sight. First, while looking at the display 8, the subject sits in a state where the keyboard 9 and the mouse 10 can be operated and stands by. At this time, as shown in FIG. 3, light sources P <b> 1 and P <b> 2 are arranged on both front sides that are substantially the same height as the eyeball E of the subject so as to enter the field of view of the subject. The light source P1 is formed with a cross-shaped light source pattern, and the light source P2 is formed with a circular light source pattern, and an image of the light source pattern formed on the eyeball of the subject by the line-of-sight detection camera 12 is recorded. The line-of-sight detection camera 12 is a CCD video camera, for example, and is controlled by the computer 2 to record video data on the HDD 7 together with time information.
[0036]
The feature / position of the figure pattern is recognized by the computer 2 from the photographed image, and the corneal curvature center of the eyeball E is obtained by geometric calculation. Then, the line of sight is recognized using the obtained eyeball corneal curvature center information. At this time, the line of sight is recognized using other information of the eyeball such as the pupil center position in addition to the eyeball corneal curvature center information. In this way, in the present embodiment, the line of sight is recognized at a predetermined interval, for example, every 30 seconds. This procedure corresponds to a gaze position detection step in which the gaze detection means detects the gaze position of the subject at a predetermined time interval according to the present invention.
[0037]
As a result of trial and error by the present inventor, it was found that the predetermined time interval is most preferably 1/30 second in this gaze position detection step, but at least 1/200 second or more and 15 minutes. It may be within the range of 1 or less. Even if it is a time interval exceeding 1/15 second, the speed of the line of sight can be grasped, but if it is longer than that, the influence such as when the line of sight moves back and forth within the time interval is likely to increase, The accuracy of the detection speed decreases, which is not preferable. On the other hand, if it is 1/200 second or less, the load of the current computer processing capacity increases. Of course, if the processing capability of the computer is improved in the future, the time interval can be set to less than 1/200 second. Note that the movement of the eyeball shows a movement that greatly changes the line of sight and a movement that vibrates while maintaining the direction of the line of sight, so that the interval is not necessarily short in order to detect confusion.
[0038]
Then, the movement distance between the position of the center of the eyeball corneal curvature recognized here and the position of the center of the eyeball corneal curvature recognized 30 seconds before that is measured as the visual line velocity. Alternatively, the difference in the gaze angle is measured as the gaze angular velocity from the gaze direction recognized at this time and the gaze direction recognized 1/30 second ago. This becomes the gaze speed data of one frame. This procedure corresponds to a line-of-sight speed data generation step of generating a change in the position of the line-of-sight detected by the present invention as line-of-sight speed data. At this time, since the measurement time is constant at 1/30 second, the measured angular velocity or moving distance is proportional to the line-of-sight velocity.
The “line-of-sight velocity” referred to in the present invention may be, for example, either the angular velocity of movement of the corneal curvature center from the eyeball center per predetermined time or the movement distance of the corneal curvature center of the eyeball. This is because the change in the line-of-sight speed is determined by the pattern, and it is only necessary to grasp the speed change in time series. This is because since the entire eyeball is generally a sphere, any numerical value and the tendency of speed change are almost the same, so that equivalent accuracy can be expected. In addition, there are cases where the observed value includes an error from the theoretical true numerical value due to technical problems, such as difficulty in grasping the exact shape of the eyeball. However, even in such a case, in the present invention, since the determination is made by the pattern matching of the speed change, the raw raw data can be used as it is, and there is no need to modify or process it. This is because any pattern to be compared includes an error equally. Therefore, learning and testing by the subject can be extremely simple as long as the observation conditions are the same.
[0039]
Next, the line-of-sight speed data detected in this way is stored in the HDD 7 as line-of-sight speed history data. This “line-of-sight speed history data” is a series of 50 frames of line-of-sight speed data as a single “pattern”. That is, since there are 50 frames every 1 / 30th of a second, the pattern of one gaze speed history data has a time length of about 1.7 seconds.
[0040]
This pattern is generated from the latest 50 consecutive frames while shifting the line-of-sight speed history data to be aggregated every 1/30 second. This procedure corresponds to the step of storing gaze speed history data in which a predetermined number of continuously generated gaze speed data of the present invention is stored as gaze speed history data. In the step of storing the line-of-sight speed history data, it is preferable to store the line-of-sight speed history data every time the line-of-sight speed data is generated in the line-of-sight speed generation step. However, in consideration of the processing load, the line-of-sight speed history data may be generated at every other interval or more than every time the line-of-sight speed data is generated. A pattern obtained from a subject who detects confusion is referred to as a “comparison pattern”, and a pattern obtained by learning from a subject from whom a confusion is derived is referred to as a “confused pattern”. However, the “confusing pattern” is a conceptual pattern stored by the neural network, and is not manifested as line-of-sight speed history data.
[0041]
In the present embodiment, as a desirable example, the number of continuous line-of-sight speed data constituting the line-of-sight speed history data is 50 frames, but the predetermined number of speed data continuously detected as the line-of-sight speed history data is at least 30. If it is above, it will become sufficient precision. In this embodiment, as a desirable example, the time length of one line-of-sight speed history data pattern is approximately 1.7 seconds, but in the step of line-of-sight speed history storage data, It is preferable that the time length of the speed data continuously detected as data is 0.5 seconds or more and 5 seconds or less. If the time length of the line-of-sight speed history data is less than 0.5 seconds, the data tends to be insufficient as a pattern although it depends on the sampling time interval. On the other hand, if the time length exceeds 5 seconds, the puzzled state may be resolved within the time, and the accuracy may be lowered.
[0042]
(Display of Trap) Next, learning by “trap” for acquiring a “confused pattern” for the neural network to store the pattern of the gaze speed history data of the subject who is in a confused state will be described. In this embodiment, in the step of determining confusion, a “confused pattern”, which is a predetermined pattern that is used as a reference for whether or not a confusion state is compared with the “comparison pattern” by pattern matching, is included in the neuro network by learning. That feature is acquired. In this learning, the subject is caused to perform an operation that is easy to perform an erroneous operation, or a trap that causes an answer to be selected on the screen by “a question with no correct answer” or “a question with duplicate correct answers” is answered. Then, the gaze speed history data in the confused state is input to the neural network as “teacher”. This procedure corresponds to the learning step of the present invention. In the learning, the subject is made to perform key input and mouse input from the keyboard 9 and the mouse 10 according to the instructions on the screen of the display 8 displayed by the program for deriving “confused” while showing the computer monitor. In the present embodiment, the “confusing” derivation screen displayed by this program is called “trap”, and this program is called “trap program”.
[0043]
(Trap T0) This trap program displays, for example, a screen simulating an application software installation screen. A screen similar to the installation screen of the application software indicated by the OS that the subject is usually familiar with is continuously displayed. Here, a screen common to the OS is shown. For example, a “next” button, a “back” button, and a “cancel” button necessary for the operation are also displayed in an arrangement common to the OS. However, as shown in FIG. 4, in this trap T0, the “next” button T0a and the “back” button T0b are reversed from the normal arrangement. After message boxes with the same correct arrangement appear continuously, the whole is the same as the previous message boxes. However, in the trap T0, only the operation buttons are different from the normal arrangement as shown in FIG. Are displayed in a sequence. Therefore, the test subject is likely to make an operation error and is confused, or even when the operation is further erroneous, the test subject is also confused. Accordingly, it is possible to reliably derive the “confused state (the state in which confusion is caused)” to the subject who is in the “normal state (the state in which no confusion occurs)”.
(Trap T1) Further, in the trap T1 shown in FIG. 5, "target value" T1a and "current value" T1b are displayed, and the selection is made by selecting the button T1c or the button T1d and clicking on the "current value" T1b. These numbers are added to the target value. However, since “+2” or “−2” with respect to “current value 9” does not become “target value 10”, the subject becomes confused. The setting is extremely easy to understand, and since the test subject can quickly understand that the problem cannot be solved under the given conditions, the occurrence of the confusion is quick and the generation time is easy to manage.
[0044]
(Trap T2) In the trap T2 shown in FIG. 6, the trap T2 is displayed after the calculation problems with correct choices are sequentially displayed. In the trap T2, the answer T2b is “5”, the answer T2c is “6”, the answer 2d is “7”, and the correct answer is “2 + 2 =?” Shown in the question T2a. There is no answer to 4 ”. After a certain time, the correct answer appears in the candidates. Therefore, it is possible to reliably derive a puzzled state from the subject.
[0045]
(Trap T3) In the trap T3 shown in FIG. 7, the answer T3b is “28”, the answer T3c is “28” in response to the instruction “Please select the next number 28” shown in the instruction item T3a. The answer T3d is “28” and both are correct answers. Therefore, the test subject cannot find out the basis of which of these answers should be selected, and can derive a puzzled state from the test subject in a very short time.
[0046]
(Trap T4) In the trap T4 shown in FIG. 8, the questions are sequentially displayed as in the trap T1 shown in FIG. 5, but a button for adding or subtracting the current value T4b to the target value T4a is displayed. Despite being a question to be asked, there is no button display necessary for answering, and answering becomes impossible. In this case as well, the subject can be immediately confused.
[0047]
According to the traps T0 to T4 as exemplified above, it is possible to immediately derive a puzzled state from the subject by displaying it at the set time. Therefore, it is possible to reliably sample the gaze in a confused state, and to collect and input gaze speed history data in a surely confused state, and to learn as an appropriate “teacher”.
[0048]
(Embarrassment other than traps) In addition, since the above-mentioned trap can surely derive a puzzled state at a predetermined time, the effect of learning can be enhanced. However, even if it is not based on such a trap, an operation that causes confusing experience even if it is a correct operation, for example, it is difficult to understand the displayed meaning or there are many erroneous operations, and the subject stops the operation. It is also possible to reproduce and learn an operation that causes an obvious confusion such as thinking.
[0049]
In this trap T0 to T4, the subject can be surely confused in a short time, but the confused state is not always derived from the subject while the trap is displayed. In other words, there is a slight difference in lead terms depending on the subject and the type of trap until the subject understands this and becomes confused after displaying the traps T0 to T4. There is also a time difference before the puzzled state is resolved. Therefore, in the learning step, a specific time during the time when the trap is displayed, for example, when 3 seconds have elapsed from the display, is sampled as a confused state. Other than that, since it is difficult to discriminate between the confused state and the normal state, neither the confused state nor the normal state is sampled as learning data. By adopting such a configuration, only the appropriate “teacher” is surely learned to improve the accuracy of learning. Here, FIG. 9 is a schematic diagram showing learning of the neural network in the learning step. Here, the part EM displayed as “H istory of eye movement speed” indicates the line-of-sight speed, and the part displayed by shading is the time when the trap t is displayed. The portion indicated by “0 0 0... 1” at the bottom indicates the sampling timing. As shown here, the sampling S0 until the trap t is displayed is sampled as “0” indicating the normal state. In the first sampling S1 where the trap t is displayed, learning is performed as a sample of “1” indicating a confused state, but subsequent sampling S2 does not sample “0” or “1”. After the display of the trap t is completed, sampling is performed as “0” in the normal state in sampling S3.
[0050]
(Detection of confusion) Next, a method for detecting the confusion of a subject using a neural network that has been subjected to learning as described above will be described. As described above, the subject performs an operation for detecting the confusion in a state where the gaze can be detected. This work is typically related to a man-machine interface, such as operation of application software of a personal computer, operation of an ATM (Automated-Teller Machine) of a bank, and other machine operation consoles. This is because it is directly related to the improvement of the man-machine interface that no confusion occurs during operation. Moreover, these are because the history of operation is easy to reproduce with time information. Of course, the work is not limited to these, and it is possible to examine the reaction when a printed document, photograph, video, etc. is shown. In the present embodiment, in order to recognize the line of sight, it is also possible to display an eye point on the image while displaying the object that the subject is viewing on the screen. The monitor camera 11 can also record the subject's own facial expressions and actions as video.
[0051]
In this embodiment, the digital video image of the subject is recorded by the monitor camera 11 simultaneously with the creation of the line-of-sight speed history data. This is recorded together with the time information, and the time information is used to superimpose the time on the screen and to synchronize with the visual line speed history data. From this digital video image, the subject's attitude, facial expression, etc. are projected, and the relationship with the onset of confusion can be observed.
[0052]
Of course, as a multi-screen, it is also preferable to display on the same screen the display screen that the subject is viewing, the facial expression of the subject, the eyeball of the subject, the observed numerical value / pattern, and the expression of confusion.
[0053]
While performing such work, it is determined whether or not the subject is in a confused state by comparing the line-of-sight speed history data by pattern matching using a neural network. This procedure corresponds to the puzzle determination step of the present invention. In this procedure, it is determined by pattern matching using a neural network that the patterns match, that is, if the neural network outputs “1”, it is determined that a confusing state has occurred. If it is determined that the patterns do not match, “0” is output. That is, in this embodiment, in the step of determining confusion, the comparison between the line-of-sight speed history for determining whether or not the subject is in a state of confusion and a predetermined pattern indicates “1” indicating a match based on a predetermined threshold. Or a binary value of “0” indicating a mismatch.
[0054]
In the puzzle determination step of this embodiment, the puzzle is determined by a neural network. Therefore, compared with other methods, the accuracy of pattern matching is high, and the expression of confusion can be captured with certainty. The neural network according to the present embodiment is a hierarchical neural network having a supervised learning algorithm, and an input signal is processed in a feedforward manner in which only the forward flow flows inside. The node function uses a sigmoid function (see FIG. 11). The inventors conducted experiments using the traps T0 to T4 and created a puzzle state detection model using a neural network using these data. As a result of using experimental data as learning data, a converging model was created. FIG. 10 shows the recognition result of the neural network after learning. As shown here, with respect to the total line-of-sight speed history WH, the partial PT indicating the learned trap is detected as a confused state as shown in the detection result DR. Furthermore, a test for detecting a confused state was performed by giving data obtained by adding 5% noise to the experimental data to the confused state detecting model. As a result, all puzzled state points could be identified.
[0055]
Next, in order to verify the puzzled state detection neural network model created, a verification experiment was performed using the basic pattern screen of the trap T2 for 10 subjects as unknown data. The verification experiment data was input into the model and the confusion state was detected. Here, FIG. 12 is a diagram showing a result of detecting unknown confusion by inputting verification experiment data into the model. In the figure, the horizontal axis is the time axis, and the upper frame portion is the time when the traps t1 to t10 which are puzzled state pattern screens are displayed. The line extending below the lower row shows the part that the model has judged to be confused. As a result, as shown in FIG. 12, the puzzled state detection model detected a puzzled state except for t10 with respect to 10 unknown traps t1 to t10, and showed a detection rate of 90%.
[0056]
According to the puzzle detection method of the above embodiment, the following features can be obtained.
-The above-described confusion detection method has an effect that the confusion of the subject can be detected without observing other elements only by observing the subject's line of sight. Therefore, the subject's confusion can be detected very easily without placing a burden on the subject. By accurately detecting the puzzle as described above, it is possible to objectively and reliably detect the occurrence of the puzzled state that cannot be extracted by ordinary observation, thereby extracting the problematic part of the man-machine interface.
[0057]
In addition, since the neural network is used for the determination of the confused state, there is an effect that complicated gaze speed history data can be accurately determined and highly accurate detection can be performed. In particular, the neural network of this embodiment is a hierarchical neural network provided with a supervised learning algorithm suitable for pattern matching. In addition, the input signal is processed in a feed-forward manner that flows only forward in the interior, and the sigmoid function is used as the node function. Therefore, there is an effect that determination with high accuracy can be performed using a personal computer or the like.
[0058]
Further, since the traps T0 to T4 are used for learning of the neural network, there is an effect that highly accurate learning can be performed.
In addition, you may change the said embodiment as follows.
[0059]
In this embodiment, the puzzle determination step is processed by pattern matching using a feedforward type neural network, but may be performed by a learning algorithm of back propagation (error back propagation method). In addition to this, various techniques such as Boltzmann machine, mean field approximation learning machine that simplifies this, RBF net (radial basis function net), learning vector quantization, fuzzy art map, cognitoron, etc. can be adopted or applied. It is.
[0060]
In this embodiment, the step of determining confusion uses a neural network in which the node function uses a sigmoid function in the flow of input signal processing, but a threshold function or the like can also be used. In addition, the sigmoid function and the threshold function may be further processed by adding “fluctuation”, and may be a linear function that outputs the input sum as it is. In the case of a Boltzmann machine, the inclination gradually becomes steeper.
[0061]
【The invention's effect】
As described above in detail, in the present invention, the present invention has an effect that it is possible to automatically and appropriately detect the subject's confusion only by observing the line of sight.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a puzzle detection system 1;
FIG. 2 is a diagram schematically showing storage contents of an HDD.
FIG. 3 is a diagram illustrating a method for detecting the position of a line of sight.
FIG. 4 is a diagram showing a trap T0.
FIG. 5 is a diagram showing a trap T1.
FIG. 6 is a diagram showing a trap T2.
FIG. 7 is a diagram showing a trap T3.
FIG. 8 is a diagram showing a trap T4.
FIG. 9 is a schematic diagram showing learning of a neural network.
FIG. 10 is a diagram illustrating a relationship between a total line-of-sight speed history after learning, a trap position, and a perplexity detection.
FIG. 11 is a diagram showing an example of a sigmoid function.
FIG. 12 is a diagram showing a result of detecting unknown confusion by inputting verification experiment data into a model.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Confusion detection apparatus, 2 ... Computer, 3 ... CPU, 4 ... RAM, 5 ... ROM, 6 ... Interface, 7 ... HDD, 8 ... Display, 9 ... Keyboard, 10 ... Mouse, 11 ... Monitor camera, 12 ... Line of sight Camera for detection, P1, P2 ... Light source, T0-T4 ... Trap

Claims (11)

入力手段と表示手段とを備えたコンピュータが、
所定時間間隔で視線検出手段により被験者の視線の位置を検出する視線位置検出のステップと、
検出した視線の位置の変化を視線速度データとして生成する視線速度データ生成のステップと、
所定個数の連続して生成された視線速度データを視線速度履歴データとして記憶する視線速度履歴データ記憶のステップと、
前記視線速度履歴データを所定のパターンと比較することで、被験者が戸惑いの状態であるか否かを判断する戸惑い判定のステップと
を実行することを特徴とする戸惑い検出方法。
A computer provided with an input means and a display means,
A step of gaze position detection for detecting the position of the gaze of the subject by the gaze detection means at a predetermined time interval;
Gaze velocity data generation step for generating the detected gaze position change as gaze velocity data;
A step of storing gaze speed history data for storing a predetermined number of continuously generated gaze speed data as gaze speed history data;
A puzzle detection method comprising: performing a puzzle determination step of determining whether or not a subject is in a puzzle state by comparing the line-of-sight speed history data with a predetermined pattern.
前記視線位置検出のステップにおいて、所定時間間隔が、200分の1秒以上、15分の1以下であることを特徴とする請求項1に記載の戸惑い検出方法。2. The confusion detection method according to claim 1, wherein in the line-of-sight position detection step, the predetermined time interval is not less than 1/200 seconds and not more than 1/15. 前記視線速度履歴データ記憶のステップにおいて、視線速度履歴データとして連続して検出される視線速度データの所定個数が少なくとも30以上であることを特徴とする請求項1又は請求項2に記載の戸惑い検出方法。3. The confusion detection according to claim 1, wherein, in the step of storing the line-of-sight speed history data, a predetermined number of the line-of-sight speed data continuously detected as the line-of-sight speed history data is at least 30 or more. Method. 前記視線速度履歴データ記憶のステップにおいて、視線速度履歴データとして連続して検出される視線速度データの合計時間長が0.5秒以上5秒以下であることを特徴とする請求項1乃至請求項3のいずれか1項に記載の戸惑い検出方法。The total time length of the line-of-sight speed data continuously detected as the line-of-sight speed history data in the step of storing the line-of-sight speed history data is 0.5 second or more and 5 seconds or less. 4. The confusion detection method according to any one of 3 above. 前記視線速度履歴データ記憶のステップにおいて、前記視線速度データ生成のステップで視線速度データを生成する毎に前記視線速度履歴データを生成し記憶することを特徴とする請求項1乃至請求項4のいずれか1項に記載の戸惑い検出方法。5. The visual line speed history data is generated and stored every time the visual line speed data is generated in the visual line speed data generation step in the step of storing the visual line speed history data. The confusion detection method according to claim 1. 前記戸惑い判定のステップは、ニューラルネットワークを用いたパターンマッチングによることを特徴とする請求項1乃至請求項5のいずれか1項に記載の戸惑い検出方法。6. The puzzle detection method according to claim 1, wherein the puzzle determination step is performed by pattern matching using a neural network. 前記戸惑い判定のステップにおいて、前記ニューラルネットワークはフィードフォワード方式の階層型ニューラルネットワークであって、ノード関数がシグモイド関数を用いたことを特徴とする請求項6に記載の戸惑い検出方法。7. The confusion detection method according to claim 6, wherein, in the confusion determination step, the neural network is a feed-forward hierarchical neural network, and a node function uses a sigmoid function. 前記戸惑い判定のステップにおいて、比較される所定のパターンは、被験者に正解がない若しくは正解が重複する設問により解答を画面上で選択させるトラップを回答させる状態における前記視線速度履歴データに基づいて生成する学習のステップをさらに実行することを特徴とする請求項7に記載の戸惑い検出方法。In the puzzle determination step, the predetermined pattern to be compared is generated based on the line-of-sight speed history data in a state in which a subject is made to answer a trap that selects an answer on the screen according to a question with no correct answer or a correct answer. 8. The confusion detection method according to claim 7, further comprising executing a learning step. 前記学習のステップにおいて、前記トラップが表示されている時間中の特定の時間の視線速度履歴データのみを学習し、前記トラップが表示されている時間中の他の時間の視線速度履歴データは学習しないことを特徴とする請求項8に記載の戸惑い検出方法。In the learning step, only the gaze speed history data at a specific time during the time when the trap is displayed is learned, and the gaze speed history data at other times during the time when the trap is displayed is not learned. The confusion detection method according to claim 8. 前記戸惑い判定のステップにおいて、被験者が戸惑いの状態であるか否かを判断する視線速度履歴データと所定のパターンとの比較は、所定の閾値を基準として一致又は不一致の2値で行われることを特徴とする請求項1乃至請求項9のいずれかに記載の戸惑い検出方法。In the step of determining confusion, the comparison between the line-of-sight speed history data and the predetermined pattern for determining whether or not the subject is in a state of confusion is performed with binary values that match or do not match with a predetermined threshold as a reference. The confusion detection method according to any one of claims 1 to 9, characterized in that: 入力手段と表示手段とを備えたコンピュータに、
所定時間間隔で視線検出手段により被験者の視線の位置を検出する視線位置検出のステップと、
検出した視線の位置の変化を視線速度データとして生成する視線速度データ生成のステップと、
所定個数の連続して生成された視線速度データを視線速度履歴データとして記憶する視線速度履歴データ記憶のステップと、
前記視線速度履歴データを所定のパターンと比較することで、被験者が戸惑いの状態であるか否かを判断する戸惑い判定のステップと
を実行させることを特徴とする戸惑い検出プログラム。
In a computer equipped with input means and display means,
A step of gaze position detection for detecting the position of the gaze of the subject by the gaze detection means at a predetermined time interval;
Gaze velocity data generation step for generating the detected gaze position change as gaze velocity data;
A step of storing gaze speed history data for storing a predetermined number of continuously generated gaze speed data as gaze speed history data;
A puzzle detection program that executes a puzzle determination step of determining whether or not a subject is in a puzzle state by comparing the line-of-sight speed history data with a predetermined pattern.
JP2003122991A 2003-04-25 2003-04-25 Puzzled detection method and puzzled detection program Expired - Fee Related JP4054713B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003122991A JP4054713B2 (en) 2003-04-25 2003-04-25 Puzzled detection method and puzzled detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003122991A JP4054713B2 (en) 2003-04-25 2003-04-25 Puzzled detection method and puzzled detection program

Publications (2)

Publication Number Publication Date
JP2004321621A JP2004321621A (en) 2004-11-18
JP4054713B2 true JP4054713B2 (en) 2008-03-05

Family

ID=33500998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003122991A Expired - Fee Related JP4054713B2 (en) 2003-04-25 2003-04-25 Puzzled detection method and puzzled detection program

Country Status (1)

Country Link
JP (1) JP4054713B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9939644B2 (en) * 2015-06-25 2018-04-10 Intel Corporation Technologies for controlling vision correction of a wearable computing device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0653106B2 (en) * 1992-06-22 1994-07-20 株式会社エイ・ティ・アール通信システム研究所 Line-of-sight information analyzer
JPH06161983A (en) * 1992-11-20 1994-06-10 Wacom Co Ltd Pattern matching system
JP2607215B2 (en) * 1993-06-25 1997-05-07 株式会社エイ・ティ・アール通信システム研究所 Eye gaze analyzer
JP3293308B2 (en) * 1994-03-10 2002-06-17 三菱電機株式会社 Person state detection device
JPH10207615A (en) * 1997-01-22 1998-08-07 Tec Corp Network system
JP3730005B2 (en) * 1998-02-12 2005-12-21 株式会社モリタ製作所 Eye movement analysis method, eye movement analysis system, and eye movement display diagnostic apparatus
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system

Also Published As

Publication number Publication date
JP2004321621A (en) 2004-11-18

Similar Documents

Publication Publication Date Title
KR101898414B1 (en) A 3-dimensional measurement method for eye movement and fully automated deep-learning based system for vertigo diagnosis
JP6907563B2 (en) Image processing device and image processing program
KR101785255B1 (en) Shape discrimination vision assessment and tracking system
CN102209488B (en) Image processing equipment and method and faultage image capture apparatus and method
JP4622702B2 (en) Video surveillance device
WO2018039158A1 (en) Method and apparatus for determining health status
JP6878923B2 (en) Image processing equipment, image processing system, and image processing program
KR102155309B1 (en) Method for predicting cognitive impairment, server, user device and application implementing the method
US20220044821A1 (en) Systems and methods for diagnosing a stroke condition
CN112673378A (en) Purchase generator, monitoring device, method for generating push generator, and push generator generation program
CN109285602A (en) Main module, system and method for self-examination eyes of user
KR102306279B1 (en) Method for facilitating diagnosis of fundus image, apparatus therefor and system including the same
Yugha et al. An automated glaucoma detection from fundus images based on deep learning network
WO2021132307A1 (en) Ophthalmic image processing method, ophthalmic image processing device, and ophthalmic image processing program
JPWO2019207800A1 (en) Ophthalmic image processing equipment and ophthalmic image processing program
JP2019208852A (en) Ophthalmologic image processing apparatus and ophthalmologic image processing program
JP4054713B2 (en) Puzzled detection method and puzzled detection program
JP7209954B2 (en) Nystagmus analysis system
WO2023189309A1 (en) Computer program, information processing method, and information processing device
JP6832005B2 (en) Subject judgment device, method, and program
JPWO2020116351A1 (en) Diagnostic support device and diagnostic support program
JP6865996B1 (en) Cognitive / motor dysfunction evaluation system and cognitive / motor dysfunction evaluation program
JP2012217797A (en) Method and system for evaluating memory retentivity
KR20210128138A (en) Mental disease inspection system and inspecting method for mental disease
WO2022054677A1 (en) Program, information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131214

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees