JP4116858B2 - Line-of-sight measurement accuracy evaluation apparatus, line-of-sight measurement accuracy evaluation method, line-of-sight measurement accuracy evaluation program, and computer-readable recording medium recording the program - Google Patents

Line-of-sight measurement accuracy evaluation apparatus, line-of-sight measurement accuracy evaluation method, line-of-sight measurement accuracy evaluation program, and computer-readable recording medium recording the program Download PDF

Info

Publication number
JP4116858B2
JP4116858B2 JP2002294472A JP2002294472A JP4116858B2 JP 4116858 B2 JP4116858 B2 JP 4116858B2 JP 2002294472 A JP2002294472 A JP 2002294472A JP 2002294472 A JP2002294472 A JP 2002294472A JP 4116858 B2 JP4116858 B2 JP 4116858B2
Authority
JP
Japan
Prior art keywords
user
line
measurement accuracy
sight
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002294472A
Other languages
Japanese (ja)
Other versions
JP2004129684A (en
Inventor
竜一郎 東中
健彦 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002294472A priority Critical patent/JP4116858B2/en
Publication of JP2004129684A publication Critical patent/JP2004129684A/en
Application granted granted Critical
Publication of JP4116858B2 publication Critical patent/JP4116858B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、ユーザにより複数の対象物が見分けられる作業で用いられる視線測定装置の測定精度を評価する視線測定精度評価装置及びその方法と、その視線測定精度評価装置の実現に用いられる視線測定精度評価プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体とに関する。
【0002】
【従来の技術】
身体にハンディキャップを持つ人がコンピュータを利用できるようにするためにとか、健常者がキーボード操作を行わずにコンピュータを利用できるようにするためになどの理由から、ユーザの視線を用いてコンピュータを操作する視線インタフェースに関する研究が進められている。
【0003】
この視線インタフェースにより、例えば、コンピュータの画面上にメニューやボタンやアイコンなどを表示し、視線でそれを選択・操作することにより、コンピュータを利用できるようになったり、コンピュータの画面上に表示される単語を視線で選択し、音声で辞書情報の表示を要求することにより、その単語の辞書情報を表示できるようになるといったように、キーボード操作に依らずにコンピュータを操作することが可能となる。
【0004】
このような視線インタフェースを実現するために、ユーザの視線を測定する様々な原理に基づく視線測定装置が提案されている(例えば、特許文献1参照)。
【0005】
従来では、これらの視線測定装置の測定精度の評価尺度として、実際にユーザが注視している位置と視線測定装置が測定した位置との間の距離を用いるようにしている。
【0006】
すなわち、従来技術では、実際にユーザが注視している位置と視線測定装置が測定した位置との間の距離が小さければ小さいほど、視線測定装置の測定精度が良いと判断するようにしている。
【0007】
【特許文献1】
特開平10−14882号公報
【0008】
【発明が解決しようとする課題】
しかしながら、ユーザの注視する対象物(ユーザの見分ける対象物)が空間中に占める領域はさまざまな形状をしている。
【0009】
これから、従来技術のように、実際にユーザが注視している位置と視線測定装置が測定した位置との間の距離を使って、視線測定装置の測定精度を評価するようにしていると、対象物が空間中に占める領域の形状を一切考慮していないことから、視線測定装置の測定精度を正確に評価できていないという問題がある。
【0010】
すなわち、従来技術に従って測定精度の高い視線測定装置であると評価される視線測定装置であっても、わずかな誤差のために、目的の対象物であると判定できなかったり、他の対象物であると判定してしまうことがある。
【0011】
また、従来技術に従って測定精度の十分高くない視線測定装置であると評価される視線測定装置であっても、その誤差が対象物の判定に影響を与えないことがあったり、その誤差が効果的に作用することで対象物の判定に寄与することがある。
【0012】
例えば、ユーザが電子文書中の単語を見つける作業を行う場合を考えると、単語が横書き文書の場合、一般に横方向に長い矩形を持つことから、視線測定装置の横方向の誤差は単語領域の判定に与える影響が少ないことが挙げられる。
【0013】
このように、上述の距離が小さいことが必ずしも高い測定精度にはつながらず、また、上述の距離が大きいとされる場合においても、ユーザの見分ける対象物によっては測定精度の高い場合がある。
【0014】
したがって、従来技術のように、対象物が空間中に占める領域の形状を一切考慮しないで、実際にユーザが注視している位置と視線測定装置が測定した位置との間の距離を使って視線測定装置の測定精度を評価するという方法は適当な方法とは言えない。
【0015】
本発明はかかる事情に鑑みてなされたものであって、ユーザの見分ける対象物の領域形状を考慮した形で視線測定装置の測定精度を評価することで、視線測定装置の測定精度を適切に評価できるようにする新たな視線測定精度評価技術の提供を目的とする。
【0016】
【課題を解決するための手段】
(1)ユーザに対して対象物を1つずつ順次提示することにより視線測定装置の測定精度を評価する構成
本発明の視線測定精度評価装置は、ユーザにより複数の対象物が見分けられる作業で用いられる視線測定装置の測定精度を評価する場合にあって、ユーザに対して、その作業の対象となる対象物(その作業で用いられる対象物と全く同じものである必要はなく、その作業で用いられる可能性のあるものでもよい)を1つずつ順次提示することにより視線測定装置の測定精度を評価するという構成を採る場合には、(イ)その作業の対象となる各対象物毎に定義されて、各対象物毎に異なるものとなるその対象物が空間中に占める領域を決定する手段と、(ロ)ユーザに対して対象物を1つずつ順次提示して、その対象物への注視を指示する手段と、(ハ)視線測定装置の測定結果と提示した対象物の占める領域の情報とに基づいて、ユーザが注視していると思われる個所が提示した対象物の占める領域に含まれているのか否かを対象物毎に判断する手段と、(ニ)その判断結果の集計に基づいて、視線測定装置の測定精度の評価値を算出する手段とを備えるように構成する。
【0017】
以上の各処理手段はコンピュータプログラムで実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供することができる。
【0018】
このように構成される本発明の視線測定精度評価装置では、ユーザに対して対象物を1つずつ順次提示することにより視線測定装置の測定精度を評価する処理を行うので、先ず最初に、各対象物の空間中に占める領域を決定して、その領域の情報をメモリに保持させる。
【0019】
続いて、その対象物をユーザに順次提示して、ユーザに対して、その対象物を注視させるように指示し、これに応答して、ユーザが対象物を注視することになる。
【0020】
ユーザが対象物を注視しているときに、評価対象となる視線測定装置がユーザの視線を測定することになるので、その視線測定装置の測定結果と、メモリに保持されている提示した対象物の領域の情報とに基づいて、ユーザが注視していると思われる個所が提示した対象物に含まれているのか否かを判断して、対象物を順次提示することにより得られるその判断結果の集計に基づいて、視線測定装置の測定精度の評価値を算出する。
【0021】
このようにして、本発明では、ユーザの見分ける対象物の領域形状を考慮した形で視線測定装置の測定精度を評価するという構成を採ることから、ユーザの見分ける対象物に適合した形で視線測定装置の測定精度を評価できるようになることで、視線測定装置の測定精度を適切に評価できるようになる。
【0022】
(2)ユーザに対して複数の対象物の配置されたものを提示することにより視線測定装置の測定精度を評価する構成
本発明の視線測定精度評価装置は、ユーザにより複数の対象物が見分けられる作業で用いられる視線測定装置の測定精度を評価する場合にあって、ユーザに対して、その作業の対象となる複数の対象物(その作業で用いられる対象物と全く同じものである必要はなく、その作業で用いられる可能性のあるものでもよい)の配置されたものを提示することにより視線測定装置の測定精度を評価するという構成を採る場合には、(イ)その作業の対象となる複数の対象物の配置されたものを構成する各対象物毎に定義されて、各対象物毎に異なるものとなるその対象物が空間中に占める領域を決定する手段と、(ロ)ユーザに対してその対象物配置を提示する手段と、(ハ)ユーザからの入力や、ユーザに対して注視すべき対象物を誘導することにより、提示した対象物配置の中からユーザが実際に注視している対象物を取得する手段と、(ニ)視線測定装置の測定結果と提示した対象物の占める領域の情報とに基づいて、ユーザが注視していると思われる対象物を推定する手段と、(ホ)取得した対象物と推定した対象物とが一致するのか否かを対象物毎に判断する手段と、(ヘ)その判断結果の集計に基づいて、視線測定装置の測定精度の評価値を算出する手段とを備えるように構成する。
【0023】
以上の各処理手段はコンピュータプログラムで実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供することができる。
【0024】
このように構成される本発明の視線測定精度評価装置では、ユーザに対して対象物の配置されたものを提示することにより視線測定装置の測定精度を評価する処理を行うので、先ず最初に、その対象物配置を構成する各対象物の空間中に占める領域を決定して、その領域の情報をメモリに保持させる。
【0025】
続いて、その対象物配置をユーザに提示して、ユーザに対して、その対象物配置の中に含まれる対象物を順次注視させるように指示し、これに応答して、ユーザが対象物を注視することになるので、その対象物配置の中からユーザが実際に注視している対象物を取得する。
【0026】
このユーザが実際に注視している対象物の取得処理については、ユーザの明示的な指定によりユーザが実際に注視している対象物を取得したり、ユーザに対して注視すべき対象物を誘導することによりユーザが実際に注視している対象物を取得することで行う。
【0027】
ユーザが対象物を注視しているときに、評価対象となる視線測定装置がユーザの視線を測定することになるので、その視線測定装置の測定結果と、メモリに保持されている各対象物の領域の情報とに基づいて、ユーザが注視していると思われる対象物を推定する。
【0028】
そして、そのようにして取得した対象物とそのようにして推定した対象物とが一致するのか否かを判断して、ユーザが複数の対象物を順次注視することにより得られるその判断結果の集計に基づいて、視線測定装置の測定精度の評価値を算出する。
【0029】
このようにして、本発明では、ユーザの見分ける対象物の領域形状を考慮した形で視線測定装置の測定精度を評価するという構成を採ることから、ユーザの見分ける対象物に適合した形で視線測定装置の測定精度を評価できるようになることで、視線測定装置の測定精度を適切に評価できるようになる。
【0030】
【発明の実施の形態】
以下、電子文書の単語認識精度を計測するシステム(以下、単語認識精度測定システム)に適用した実施の形態に従って本発明を詳細に説明する。
【0031】
この単語認識精度測定システムは、ユーザが電子文書上に表示される様々な単語の1つを注視する場合に、視線測定装置を使って、どの単語が注視されたのかを認識するようにして、例えば、その単語の辞書情報を表示するといったような処理を行うプログラムを起動するように動作する。
【0032】
図1に、このような単語認識精度測定システムに用いられる視線測定装置の測定精度の評価を行う本発明の視線測定精度評価装置1の装置構成の一実施形態例を図示する。
【0033】
ここで、図中、2は評価対象となる視線測定装置、3は視線測定装置2の測定精度の評価に用いる電子文書を格納する電子文書ファイル、4は電子文書ファイル3に格納される電子文書を表示する表示装置である。
【0034】
本発明の視線測定精度評価装置1は、ユーザにより操作されることになるボタン10の他に、視線測定部100と、対象物領域抽出部101と、メモリ部102と、注視領域推定部103と、注視領域取得部104と、精度算出部105とを備える。
【0035】
この視線測定部100は、視線測定装置2の測定するユーザの視線情報を入力して、ユーザが注視している表示装置4に表示される電子文書上の座標(x,y)を求めて、それを出力する。
【0036】
対象物領域抽出部101は、電子文書ファイル3から電子文書情報を取得して、その電子文書に含まれる単語を抽出し、フォントや単語長などの情報から、それらの抽出した単語毎に電子文書上で占めている領域を計算して、それらの領域の情報をメモリ部102に保持させる。
【0037】
後述することから分かるように、本実施形態例における電子文書上では単語は矩形領域を占めており、これから、単語領域は、例えば、その矩形領域の左上の点の座標と幅と高さ(left,top,width,height)とで規定されることになる。これから、メモリ部102には、この(left,top,width,height)で表される各単語の領域情報が保持されることになる。
【0038】
また、電子文書に含まれる単語の抽出方法としては、形態素解析を用いる方法や、空白区切りを用いる方法などがあるが、本実施形態例では、空白を単語境界として単語を抽出する方法を用いている。
【0039】
注視領域推定部103は、視線測定部100の出力するユーザが注視している座標と、メモリ部102に保持されている単語領域情報とから、ユーザが注視していると思われる単語(表示装置4に表示されている電子文書の単語)を推定して、それを出力する。
【0040】
視線測定部100の出力するユーザが注視している座標は2次元座標(x,y)であり、一方、メモリ部102は、電子文書中のそれぞれの単語の領域情報として(left,top,width,height)を保持している。
【0041】
これから、注視領域推定部103は、(x,y)と(left,top,width,height)とを比較して、xが“left”と“left+width"の間にあり、yが“top"と"top−height”の間にあるような単語を探索して、該当する単語があれば、その単語を推定結果として出力する。
【0042】
注視領域取得部104は、表示装置4に対して、電子文書ファイル3に格納される電子文書の表示を指示するとともに、その指示に応答して表示装置4に表示される電子文書の単語の中からユーザが注視している単語を取得して、それを出力する。
【0043】
この取得方法として2つの方法がある。その1つは、ユーザ自身が注視している単語をマウスなどのクリック操作などにより通知させるようにして、それを取得する方法である。もう1つは、特定の単語の背景色を変えるなどの特殊効果を加えることで、ユーザの視線を認知的に惹きつけて誘導することにより、ユーザが注視している単語を取得する方法である。
【0044】
本実施形態例では、特定の単語の背景色を変えることによりユーザに対して注視すべき単語を提示し、これを注視したときにユーザがボタン10を押すという規約を設けて、そのボタン10の操作を検出することにより、ユーザが注視している単語(背景色を変更させた単語)を取得するという方法を用いる。
【0045】
精度算出部105は、注視領域推定部103の出力する単語の情報と、注視領域取得部104の出力する単語の情報とを受け取り、この2つを比較することで、ユーザが実際に注視している単語と、視線測定装置2の測定結果により得られたユーザが注視していると推定される単語とが同じであるのか否かをチェックして、その判定結果を記録し集計して、その集計結果から視線測定装置2の測定精度の評価値を算出して、それを出力する。
【0046】
図2及び図3に、このように構成される本発明の視線測定精度評価装置1が実行する処理フローの一実施形態例を図示する。
【0047】
次に、この処理フローに従って、このように構成される本発明の視線測定精度評価装置1が実行することになる視線測定装置2の測定精度の評価処理について詳細に説明する。
【0048】
本発明の視線測定精度評価装置1は、視線測定装置2の測定精度の評価処理に入る前に、その前処理として、図2の処理フローに示すように、電子文書ファイル3から電子文書情報を取得して、単語間の空白を検出することでその電子文書に含まれる単語を抽出し、それらの抽出した単語毎に電子文書上で占めている領域を計算して、それらの領域の情報をメモリ部102に保持させるように処理する。
【0049】
このようにして、メモリ部102に、電子文書ファイル3に格納される電子文書に含まれる単語の領域情報が保持されることになる。
【0050】
この前処理を終えた後、本発明の視線測定精度評価装置1は、視線測定装置2の測定精度の評価要求が発行されると、図3の処理フローに示すように、先ず最初に、ステップ20で、変数iに“0”をセットするとともに、変数jに“1”をセットする。
【0051】
続いて、ステップ21で、表示装置4に対して、電子文書ファイル3に格納される電子文書の表示を指示することで、電子文書ファイル3に格納される電子文書を表示装置4に表示する。
【0052】
例えば、図4に示すような複数の単語の配置されたもので構成される電子文書を表示装置4に表示するのである。なお、図4では、「AIDS」、「なにとぞ」、「アクロバティックだ」、「コムソモール」、「スパンクレープ」という複数の単語の背景色が変更されている例を示しているが、後述することから分かるように、実際には、1つの単語のみの背景色が変更されることになる。
【0053】
続いて、ステップ22で、特定の単語を指定して、表示装置4に対して、その単語の背景色を変更することを指示することで、表示装置4に表示している単語の中の特定の単語の背景色を変更することで、ユーザに対して、その背景色の変更した単語を注視することを指示する。
【0054】
この単語注視指示を受けて、ユーザは、背景色の変更された単語の注視に入って、その注視を行っているときに、ボタン10を押す操作を行う。
【0055】
これから、続いて、ステップ23で、ユーザによりボタン10が押されるのを待って、ボタン10が押されることを検出すると、ステップ24に進んで、視線測定装置2の測定するユーザの視線情報を入力する。
【0056】
続いて、ステップ25で、入力した視線情報の指す電子文書上の座標(x,y)を求める。
【0057】
続いて、ステップ26で、メモリ部102に保持されている単語領域情報に従って、ステップ25で求めた電子文書上の座標(x,y)が単語位置を指しているのか否かを判断する。すなわち、視線測定装置2の測定した視線情報が電子文書上の単語位置を指しているのか否かを判断するのである。
【0058】
この判断処理に従って、視線測定装置2の測定した視線情報が電子文書上の単語位置を指していることを判断するときには、ステップ27に進んで、その単語が背景色の変更した単語であるのか否かを判断して、その単語が背景色の変更した単語であることを判断するときには、ステップ28に進んで、変数iの値を1つインクリメントする。
【0059】
すなわち、視線測定装置2の測定した視線情報がユーザの注視している単語位置を指していることを判断するときには、変数iの値を1つインクリメントするのである。
【0060】
一方、ステップ27で、視線測定装置2の測定した視線情報の指す単語が背景色の変更した単語でないことを判断するときには、ステップ28の処理を省略し、そして、ステップ26で、視線測定装置2の測定した視線情報が電子文書上の単語位置を指していないことを判断するときにも、ステップ28の処理を省略する。
【0061】
このようにして、ステップ28で変数iの値を1つインクリメントし、あるいは、ステップ28の処理を省略すると、続いて、ステップ29で、変数jの値が予め設定される最大値jmax に到達したのか否かを判断する。
【0062】
この判断処理に従って、変数jの値が予め設定される最大値jmax に到達していないことを判断するときには、ステップ30に進んで、変数jの値を1つインクリメントしてから、ステップ22に戻っていくことで、変数jの値が予め設定される最大値jmax に到達するまで、ステップ22〜ステップ28の処理を繰り返していく。
【0063】
一方、ステップ29で、変数jの値が予め設定される最大値jmax に到達したことを判断するときには、ステップ31に進んで、「R=i/j」という算出式に従って、視線測定装置2の測定精度の評価値Rを算出し、続くステップ32で、それを出力して、処理を終了する。
【0064】
このようにして、本発明の視線測定精度評価装置1は、図5に示すように、例えば10個の単語を注視対象として選択した場合にあって、例えば9個の単語について視線測定装置2の測定結果が正しいものとなった場合には、「R=0.9」という値を示す測定精度の評価値Rを算出して、それを視線測定装置2の測定精度の評価値として出力するように処理するのである。
【0065】
ここで、視線測定装置2の測定精度の評価値Rとして、「R=i/j」という算出式に従って算出されるものを用いたが、「R=(j−i)/j」という算出式に従って算出されるものを用いてもよい。
【0066】
このように、本発明の視線測定精度評価装置1では、ユーザの見分ける対象物の領域形状を考慮した形で視線測定装置2の測定精度を評価することから、視線測定装置2の測定精度を適切に評価できるようになる。
【0067】
本発明の視線測定精度評価装置1は、図3の処理フローに従う場合には、図4に示すような複数の単語の配置されたもので構成される電子文書を表示装置4に表示することで、視線測定装置2の測定精度の評価値Rを算出するという構成を採ったが、このような電子文書を表示装置4に表示するのではなくて、このような電子文書に含まれる単語を1つずつ適当に選択して、それを表示装置4に表示することで、視線測定装置2の測定精度の評価値Rを算出するという構成を採ることでも、ユーザの見分ける対象物の領域形状を考慮した形で視線測定装置2の測定精度を評価することが可能である。
【0068】
図6に、この構成を採る場合に、本発明の視線測定精度評価装置1が実行する処理フローの一実施形態例を図示する。
【0069】
本発明の視線測定精度評価装置1は、この図6の処理フローに従う場合には、先ず最初に、ステップ40で、変数iに“0”をセットするとともに、変数jに“1”をセットする。
【0070】
続いて、ステップ41で、電子文書ファイル3に格納される電子文書に含まれる単語を1つ選択し、続くステップ42で、表示装置4に対して、その単語の表示を指示することで、その単語のみを表示装置4に表示する。
【0071】
このときの単語の表示位置については、メモリ部102に保持されている単語領域情報の指す表示位置に従うことになるが、それとは全く関係のない表示位置を新たに設定して、その表示位置に表示するようにしてもよい。
【0072】
この単語表示を受けて、ユーザは、この表示される単語の注視に入って、その注視を行っているときに、ボタン10を押す操作を行う。
【0073】
これから、続いて、ステップ43で、ユーザによりボタン10が押されるのを待って、ボタン10が押されることを検出すると、ステップ44に進んで、視線測定装置2の測定するユーザの視線情報を入力する。
【0074】
続いて、ステップ45で、入力した視線情報の指す電子文書上の座標(x,y)を求める。但し、この電子文書は、ステップ41で選択した単語のみで構成されている。
【0075】
続いて、ステップ46で、メモリ部102に保持されている単語領域情報に従って、ステップ45で求めた電子文書上の座標(x,y)が単語位置を指しているのか否かを判断する。すなわち、視線測定装置2の測定した視線情報が表示装置4に表示している単語位置を指しているのか否かを判断するのである。
【0076】
この判断処理に従って、視線測定装置2の測定した視線情報が電子文書上の単語位置を指していることを判断するときには、ステップ47に進んで、変数iの値を1つインクリメントする。
【0077】
すなわち、視線測定装置2の測定した視線情報がユーザの注視している単語位置を指していることを判断するときには、変数iの値を1つインクリメントするのである。
【0078】
一方、ステップ46で、視線測定装置2の測定した視線情報が表示装置4に表示している単語位置を指していないことを判断するときには、ステップ47の処理を省略する。
【0079】
このようにして、ステップ47で変数iの値を1つインクリメントし、あるいは、ステップ47の処理を省略すると、続いて、ステップ48で、変数jの値が予め設定される最大値jmax に到達したのか否かを判断する。
【0080】
この判断処理に従って、変数jの値が予め設定される最大値jmax に到達していないことを判断するときには、ステップ49に進んで、変数jの値を1つインクリメントしてから、ステップ41に戻っていくことで、変数jの値が予め設定される最大値jmax に到達するまで、ステップ41〜ステップ47の処理を繰り返していく。
【0081】
一方、ステップ48で、変数jの値が予め設定される最大値jmax に到達したことを判断するときには、ステップ50に進んで、「R=i/j」という算出式に従って、視線測定装置2の測定精度の評価値Rを算出し、続くステップ51で、それを出力して、処理を終了する。
【0082】
このようにして、本発明の視線測定精度評価装置1は、図6の処理フローに従うときにも、図5に示したように、例えば10個の単語を注視対象として選択した場合にあって、例えば9個の単語について視線測定装置2の測定結果が正しいものとなった場合には、「R=0.9」という値を示す測定精度の評価値Rを算出して、それを視線測定装置2の測定精度の評価値として出力するように処理するのである。
【0083】
図示実施形態例に従って本発明を説明したが、本発明はこれに限定されるものではない。例えば、実施形態例では、単語認識精度測定システムに用いられる視線測定装置の測定精度の評価を具体例にして本発明について説明したが、本発明は、単語認識精度測定システム以外のシステムに用いられる視線測定装置の測定精度の評価に対してもそのまま適用できるものである。
【0084】
【発明の効果】
以上説明したように、本発明では、ユーザの見分ける対象物の領域形状を考慮した形で視線測定装置の測定精度を評価するという構成を採ることから、ユーザの見分ける対象物に適合した形で視線測定装置の測定精度を評価できるようになることで、視線測定装置の測定精度を適切に評価できるようになる。
【0085】
これから、ある特定の作業を目的として視線測定装置を選定する場合に、その作業に応じた精度を知ることによって、作業目的に合った適切な視線測定装置を選定することができるようになる。
【0086】
さらに、実験などで視線測定装置を利用する場合に、実験の目的に応じた精度を用いて視線測定装置の性能を提示することにより、実験の有効性を客観的に示すことができるようになる。
【図面の簡単な説明】
【図1】本発明の視線測定精度評価装置の装置構成の一実施形態例である。
【図2】本発明の視線測定精度評価装置が実行する処理フローの一実施形態例である。
【図3】本発明の視線測定精度評価装置が実行する処理フローの一実施形態例である。
【図4】視線測定精度評価処理に用いる電子文書の一例である。
【図5】視線測定精度評価処理の説明図である。
【図6】本発明の視線測定精度評価装置が実行する処理フローの他の実施形態例である。
【符号の説明】
1 視線測定精度評価装置
2 視線測定装置
3 電子文書ファイル
4 表示装置
10 ボタン
100 視線測定部
101 対象物領域抽出部
102 メモリ部
103 注視領域推定部
104 注視領域取得部
105 精度算出部
[0001]
BACKGROUND OF THE INVENTION
The present invention provides a user Double A gaze measurement accuracy evaluation apparatus and method for evaluating the measurement accuracy of a gaze measurement apparatus used in an operation for identifying a number of objects, a gaze measurement accuracy evaluation program used for realizing the gaze measurement accuracy evaluation apparatus, and a program thereof Recorded Computer readable And a recording medium.
[0002]
[Prior art]
Use the user's line of sight to make it possible for people with handicap in the body to use the computer, or to make it possible for healthy people to use the computer without keyboard operation. Research on the gaze interface to be operated is ongoing.
[0003]
With this line-of-sight interface, for example, menus, buttons, icons, etc. are displayed on the computer screen, and the computer can be used or displayed on the computer screen by selecting and operating with the line of sight. By selecting a word with a line of sight and requesting display of dictionary information by voice, it becomes possible to display the dictionary information of the word so that the computer can be operated without depending on the keyboard operation.
[0004]
In order to realize such a line-of-sight interface, a line-of-sight measurement device based on various principles for measuring the line of sight of a user has been proposed (see, for example, Patent Document 1).
[0005]
Conventionally, as an evaluation measure of the measurement accuracy of these line-of-sight measurement devices, the distance between the position where the user is actually gazing and the position measured by the line-of-sight measurement device is used.
[0006]
That is, in the prior art, it is determined that the smaller the distance between the position where the user is actually gazing and the position measured by the line-of-sight measurement apparatus is, the better the measurement accuracy of the line-of-sight measurement apparatus is.
[0007]
[Patent Document 1]
Japanese Patent Laid-Open No. 10-14882
[0008]
[Problems to be solved by the invention]
However, the area occupied in the space by the object to be watched by the user (the object to be identified by the user) has various shapes.
[0009]
From now on, as in the prior art, using the distance between the position where the user is actually gazing and the position measured by the line-of-sight measurement device, the measurement accuracy of the line-of-sight measurement device is evaluated. Since the shape of the area occupied by the object in the space is not considered at all, there is a problem that the measurement accuracy of the visual line measuring device cannot be accurately evaluated.
[0010]
In other words, even a line-of-sight measuring apparatus that is evaluated as a line-of-sight measuring apparatus with high measurement accuracy according to the prior art cannot be determined to be the target object due to a slight error, It may be determined that there is.
[0011]
Moreover, even if the eye gaze measuring apparatus is evaluated as a gaze measuring apparatus that does not have sufficiently high measurement accuracy according to the conventional technology, the error may not affect the determination of the object, or the error may be effective. May contribute to the determination of the object.
[0012]
For example, when a user performs a task of finding a word in an electronic document, if the word is a horizontally written document, it generally has a long rectangle in the horizontal direction. It is mentioned that there is little influence on.
[0013]
Thus, the above-mentioned small distance does not necessarily lead to high measurement accuracy, and even when the above-mentioned distance is large, the measurement accuracy may be high depending on the object to be identified by the user.
[0014]
Therefore, unlike the prior art, the line of sight is determined using the distance between the position where the user is actually gazing and the position measured by the line-of-sight measurement device without considering the shape of the area occupied by the object in the space. The method of evaluating the measurement accuracy of the measuring device is not an appropriate method.
[0015]
The present invention has been made in view of such circumstances, and by appropriately evaluating the measurement accuracy of the visual line measuring device by evaluating the measurement accuracy of the visual line measuring device in consideration of the region shape of the object that the user can distinguish. The purpose is to provide a new gaze measurement accuracy evaluation technique that enables this.
[0016]
[Means for Solving the Problems]
(1) Configuration for evaluating the measurement accuracy of the line-of-sight measurement apparatus by sequentially presenting objects one by one to the user
The gaze measurement accuracy evaluation apparatus of the present invention is Double When evaluating the measurement accuracy of a line-of-sight measuring device used in an operation where a number of objects can be identified, the object to be used for the operation (the same object as that used in the operation) When it adopts a configuration that evaluates the measurement accuracy of the line-of-sight measuring device by sequentially presenting one by one, it may be used in that work) (I) Each object to be worked on The object that is defined for each object and is different for each object A means of determining the area occupied in space; (B) Means for sequentially presenting objects one by one to the user and instructing gaze on the objects; (C) Measurement results of the line-of-sight measuring device Occupied by the presented object Based on the area information, the object presented by the location that the user is likely to be watching Area occupied by Whether it is included in For each object Means to judge, (D) And a means for calculating an evaluation value of the measurement accuracy of the line-of-sight measurement device based on the total of the determination results.
[0017]
Each of the above processing means can be realized by a computer program, and the computer program can be provided by being recorded on a recording medium such as a semiconductor memory.
[0018]
In the line-of-sight measurement accuracy evaluation apparatus of the present invention configured as described above, a process for evaluating the measurement accuracy of the line-of-sight measurement apparatus is performed by sequentially presenting objects one by one to the user. An area occupied in the space of the object is determined, and information on the area is held in the memory.
[0019]
Subsequently, the object is sequentially presented to the user, and the user is instructed to gaze at the object. In response, the user gazes at the object.
[0020]
Since the gaze measuring device to be evaluated measures the user's gaze when the user is gazing at the target, the measurement result of the gaze measuring device and the presented target held in the memory The judgment result obtained by judging whether or not the location that the user seems to be gazing is included in the presented object based on the information of the area and sequentially presenting the object An evaluation value of the measurement accuracy of the line-of-sight measurement device is calculated based on the above total.
[0021]
In this way, in the present invention, since the measurement accuracy of the visual line measuring device is evaluated in consideration of the area shape of the target object that the user can distinguish, the visual line measurement is performed in a form that matches the target object that the user can identify. Since the measurement accuracy of the apparatus can be evaluated, the measurement accuracy of the line-of-sight measurement apparatus can be appropriately evaluated.
[0022]
(2) Configuration for evaluating the measurement accuracy of the line-of-sight measurement device by presenting a plurality of objects arranged to the user
The gaze measurement accuracy evaluation apparatus of the present invention is Double When evaluating the measurement accuracy of a line-of-sight measuring device used in an operation in which a number of objects can be distinguished, a plurality of objects that are the objects of the operation (the objects used in the operation are completely different In the case of adopting a configuration in which the measurement accuracy of the eye gaze measuring device is evaluated by presenting the arranged ones (which need not be the same and may be used in the work) (I) Each object that constitutes an arrangement of a plurality of objects that are the targets of the work The object that is defined for each object and is different for each object A means of determining the area occupied in space; (B) Means for presenting the object arrangement to the user; (C) By guiding the input from the user or the object to be watched by the user, Means for acquiring an object that the user is actually watching from the presented object arrangement; (D) Measurement results of the line-of-sight measuring device Occupied by the presented object Based on the region information, a means for estimating an object that the user is likely to be watching, (E) Whether the acquired object matches the estimated object For each object Means to judge, (F) And a means for calculating an evaluation value of the measurement accuracy of the line-of-sight measurement device based on the total of the determination results.
[0023]
Each of the above processing means can be realized by a computer program, and the computer program can be provided by being recorded on a recording medium such as a semiconductor memory.
[0024]
In the line-of-sight measurement accuracy evaluation apparatus of the present invention configured as described above, since the process of evaluating the measurement accuracy of the line-of-sight measurement apparatus is performed by presenting the object arranged to the user, first, An area occupying the space of each object constituting the object arrangement is determined, and information on the area is held in the memory.
[0025]
Subsequently, the object arrangement is presented to the user, and the user is instructed to sequentially watch the objects included in the object arrangement. In response, the user selects the object arrangement. Since the object is to be watched, the object actually being watched by the user is acquired from the object arrangement.
[0026]
About the acquisition process of the object that this user is actually watching Yu -Acquire the target object that the user is actually gazing by explicitly specifying the user, or acquire the target object that the user is actually gazing by guiding the target object to be watched by the user. Do that.
[0027]
Since the gaze measuring device to be evaluated measures the user's gaze while the user is gazing at the target, the measurement result of the gaze measuring device and each target held in the memory are measured. Based on the information of the area, the target object that the user seems to be watching is estimated.
[0028]
Then, it is determined whether or not the object thus acquired matches the object estimated in this way, and the determination results obtained by the user sequentially gazing at the plurality of objects are aggregated. Based on the above, the evaluation value of the measurement accuracy of the visual line measuring device is calculated.
[0029]
In this way, in the present invention, since the measurement accuracy of the visual line measuring device is evaluated in consideration of the area shape of the target object that the user can distinguish, the visual line measurement is performed in a form that matches the target object that the user can identify. Since the measurement accuracy of the apparatus can be evaluated, the measurement accuracy of the line-of-sight measurement apparatus can be appropriately evaluated.
[0030]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail according to an embodiment applied to a system for measuring word recognition accuracy of an electronic document (hereinafter referred to as a word recognition accuracy measurement system).
[0031]
The word recognition accuracy measurement system uses a line-of-sight measurement device to recognize which word is watched when a user gazes at one of various words displayed on an electronic document. For example, it operates to start a program that performs processing such as displaying dictionary information of the word.
[0032]
FIG. 1 illustrates an embodiment of an apparatus configuration of an eye gaze measurement accuracy evaluation apparatus 1 of the present invention that evaluates measurement accuracy of an eye gaze measurement apparatus used in such a word recognition accuracy measurement system.
[0033]
Here, in the figure, 2 is a visual line measuring device to be evaluated, 3 is an electronic document file for storing an electronic document used for evaluation of measurement accuracy of the visual line measuring device 2, and 4 is an electronic document stored in the electronic document file 3 Is a display device.
[0034]
The line-of-sight measurement accuracy evaluation apparatus 1 of the present invention includes a line-of-sight measurement unit 100, an object region extraction unit 101, a memory unit 102, and a gaze region estimation unit 103, in addition to the button 10 to be operated by the user. , A gaze area acquisition unit 104 and an accuracy calculation unit 105.
[0035]
The line-of-sight measurement unit 100 inputs the line-of-sight information of the user to be measured by the line-of-sight measurement device 2, and obtains the coordinates (x, y) on the electronic document displayed on the display device 4 being watched by the user, Output it.
[0036]
The object area extraction unit 101 acquires electronic document information from the electronic document file 3, extracts words included in the electronic document, and extracts electronic documents for each extracted word from information such as font and word length. The areas occupied above are calculated, and information on these areas is stored in the memory unit 102.
[0037]
As will be understood from the description below, the word occupies a rectangular area on the electronic document in this embodiment. From now on, the word area is, for example, the coordinates, width and height (left) of the upper left point of the rectangular area. , top, width, height). Thus, the memory unit 102 holds the area information of each word represented by (left, top, width, height).
[0038]
In addition, as a method for extracting words included in an electronic document, there are a method using morphological analysis, a method using blank delimiters, and the like. In this embodiment, a method for extracting words using a blank as a word boundary is used. Yes.
[0039]
The gaze area estimation unit 103 is configured to display a word (display device) that is considered to be gazed by the user from the coordinates that the user outputs from the gaze measurement unit 100 and the word area information stored in the memory unit 102. 4) is estimated and output.
[0040]
The coordinates of the gaze measuring unit 100 that the user is watching are two-dimensional coordinates (x, y), while the memory unit 102 is (left, top, width) as region information of each word in the electronic document. , height).
[0041]
From this, the gaze area estimation unit 103 compares (x, y) with (left, top, width, height), and x is between “left” and “left + width”, and y is “top”. A word such as “top-height” is searched, and if there is a corresponding word, the word is output as an estimation result.
[0042]
The gaze area acquisition unit 104 instructs the display device 4 to display the electronic document stored in the electronic document file 3, and in response to the instruction, among the words of the electronic document displayed on the display device 4. The word which the user is gazing at is acquired and output it.
[0043]
There are two acquisition methods. One of them is a method of acquiring a word being watched by the user by notifying the word by a click operation using a mouse or the like. The other is a method of acquiring a word being watched by a user by adding a special effect such as changing the background color of a specific word to induce the user's line of sight cognitively. .
[0044]
In this embodiment, a word to be watched is presented to the user by changing the background color of a specific word, and a rule that the user presses the button 10 when watching the word is provided. By detecting the operation, a method of acquiring a word that the user is gazing at (a word whose background color has been changed) is used.
[0045]
The accuracy calculation unit 105 receives the word information output from the gaze area estimation unit 103 and the word information output from the gaze area acquisition unit 104, and compares the two so that the user actually watches. And whether or not the word estimated from the measurement result of the line-of-sight measurement device 2 is the same as the word estimated to be watched by the user is recorded, and the determination result is recorded and aggregated. An evaluation value of the measurement accuracy of the line-of-sight measurement device 2 is calculated from the counting result and is output.
[0046]
FIG. 2 and FIG. 3 illustrate an embodiment of the processing flow executed by the eye gaze measurement accuracy evaluation apparatus 1 of the present invention configured as described above.
[0047]
Next, according to this processing flow, the measurement accuracy evaluation process of the eye gaze measurement apparatus 2 executed by the eye gaze measurement accuracy evaluation apparatus 1 of the present invention configured as described above will be described in detail.
[0048]
As shown in the processing flow of FIG. 2, the visual measurement accuracy evaluation apparatus 1 according to the present invention enters the electronic document information from the electronic document file 3 as the preprocessing before entering the measurement accuracy evaluation process of the visual measurement apparatus 2. Obtaining and extracting the words contained in the electronic document by detecting white space between the words, calculating the area occupied on the electronic document for each extracted word, and obtaining information on those areas Processing is performed so as to be held in the memory unit 102.
[0049]
In this manner, the memory unit 102 holds the area information of the words included in the electronic document stored in the electronic document file 3.
[0050]
After completing this pre-processing, when the gaze measurement accuracy evaluation apparatus 1 of the present invention issues a measurement accuracy evaluation request of the gaze measurement apparatus 2, as shown in the process flow of FIG. At 20, the variable i is set to “0” and the variable j is set to “1”.
[0051]
Subsequently, in step 21, the electronic document stored in the electronic document file 3 is displayed on the display device 4 by instructing the display device 4 to display the electronic document stored in the electronic document file 3.
[0052]
For example, an electronic document composed of a plurality of words arranged as shown in FIG. 4 is displayed on the display device 4. FIG. 4 shows an example in which the background colors of a plurality of words “AIDS”, “Nanitozo”, “Acrobatic”, “Commosemol”, and “Spancrepe” are changed. As can be seen, the background color of only one word is actually changed.
[0053]
Subsequently, in step 22, a specific word is specified, and the display device 4 is instructed to change the background color of the word, thereby specifying the word displayed on the display device 4. By changing the background color of the word, the user is instructed to watch the word with the changed background color.
[0054]
Upon receiving this word gazing instruction, the user enters the gazing of the word whose background color has been changed and performs an operation of pressing the button 10 while gazing.
[0055]
Subsequently, in step 23, after waiting for the user to press the button 10 and detecting that the button 10 is pressed, the process proceeds to step 24 to input the user's line-of-sight information measured by the line-of-sight measurement device 2. To do.
[0056]
Subsequently, in step 25, coordinates (x, y) on the electronic document indicated by the input line-of-sight information are obtained.
[0057]
Subsequently, in step 26, it is determined whether or not the coordinates (x, y) on the electronic document obtained in step 25 indicate the word position according to the word area information held in the memory unit 102. That is, it is determined whether or not the line-of-sight information measured by the line-of-sight measurement device 2 indicates a word position on the electronic document.
[0058]
When it is determined that the line-of-sight information measured by the line-of-sight measurement device 2 indicates a word position on the electronic document according to this determination processing, the process proceeds to step 27 to determine whether the word is a word whose background color has been changed. When it is determined that the word is a word whose background color has been changed, the process proceeds to step 28 to increment the value of the variable i by one.
[0059]
That is, when it is determined that the line-of-sight information measured by the line-of-sight measurement device 2 indicates the word position that the user is gazing at, the value of the variable i is incremented by one.
[0060]
On the other hand, when it is determined in step 27 that the word indicated by the line-of-sight information measured by the line-of-sight measuring device 2 is not a word whose background color has been changed, the processing in step 28 is omitted, and in step 26, the line-of-sight measuring device 2 The processing in step 28 is also omitted when it is determined that the measured line-of-sight information does not point to a word position on the electronic document.
[0061]
In this way, if the value of the variable i is incremented by 1 in step 28, or if the processing of step 28 is omitted, then, in step 29, the value of the variable j reaches the preset maximum value jmax. It is determined whether or not.
[0062]
When it is determined that the value of the variable j has not reached the preset maximum value jmax according to this determination processing, the routine proceeds to step 30 where the value of the variable j is incremented by one and then returns to step 22. By doing so, the processing from step 22 to step 28 is repeated until the value of the variable j reaches a preset maximum value jmax.
[0063]
On the other hand, when it is determined in step 29 that the value of the variable j has reached the preset maximum value jmax, the process proceeds to step 31 in accordance with the calculation formula “R = i / j”. An evaluation value R of measurement accuracy is calculated, and in the subsequent step 32, it is output and the process is terminated.
[0064]
In this way, the gaze measurement accuracy evaluation apparatus 1 of the present invention, as shown in FIG. 5, for example, when 10 words are selected as the gaze target, When the measurement result is correct, an evaluation value R of measurement accuracy indicating a value of “R = 0.9” is calculated and output as an evaluation value of measurement accuracy of the line-of-sight measurement device 2. Is processed.
[0065]
Here, as the evaluation value R of the measurement accuracy of the line-of-sight measurement device 2, the one calculated according to the calculation formula “R = i / j” is used, but the calculation formula “R = (j−i) / j”. You may use what is calculated according to.
[0066]
As described above, the gaze measurement accuracy evaluation apparatus 1 according to the present invention evaluates the measurement accuracy of the gaze measurement apparatus 2 in consideration of the region shape of the object that is identified by the user. Can be evaluated.
[0067]
When the gaze measurement accuracy evaluation apparatus 1 according to the present invention follows the processing flow of FIG. 3, an electronic document composed of a plurality of words arranged as shown in FIG. 4 is displayed on the display device 4. The evaluation value R of the measurement accuracy of the line-of-sight measurement device 2 is calculated. However, instead of displaying such an electronic document on the display device 4, a word contained in such an electronic document is set to 1 The area shape of the object to be recognized by the user can be taken into consideration by adopting a configuration in which the evaluation value R of the measurement accuracy of the line-of-sight measurement device 2 is calculated by appropriately selecting each one and displaying it on the display device 4 In this way, it is possible to evaluate the measurement accuracy of the line-of-sight measurement device 2.
[0068]
FIG. 6 illustrates an example of a processing flow executed by the visual measurement accuracy evaluation apparatus 1 of the present invention when this configuration is adopted.
[0069]
When the line-of-sight measurement accuracy evaluation apparatus 1 according to the present invention follows the processing flow of FIG. 6, first, in step 40, “0” is set to the variable i and “1” is set to the variable j. .
[0070]
Subsequently, in step 41, one word included in the electronic document stored in the electronic document file 3 is selected, and in the subsequent step 42, the display device 4 is instructed to display the word. Only the word is displayed on the display device 4.
[0071]
The display position of the word at this time follows the display position indicated by the word area information held in the memory unit 102, but a display position that is completely unrelated to the display position is newly set, and the display position is set as the display position. You may make it display.
[0072]
Upon receiving this word display, the user enters the gaze of the displayed word and performs an operation of pressing the button 10 while gazing.
[0073]
Subsequently, in step 43, the user waits for the button 10 to be pressed, and when it is detected that the button 10 is pressed, the process proceeds to step 44, and the user's line-of-sight information measured by the line-of-sight measuring device 2 is input. To do.
[0074]
Subsequently, in step 45, coordinates (x, y) on the electronic document indicated by the input line-of-sight information are obtained. However, this electronic document is composed only of the word selected in step 41.
[0075]
Subsequently, in step 46, it is determined whether or not the coordinates (x, y) on the electronic document obtained in step 45 indicate the word position according to the word area information held in the memory unit 102. That is, it is determined whether or not the line-of-sight information measured by the line-of-sight measurement device 2 indicates the word position displayed on the display device 4.
[0076]
When it is determined that the line-of-sight information measured by the line-of-sight measurement device 2 indicates a word position on the electronic document according to this determination process, the process proceeds to step 47 and the value of the variable i is incremented by one.
[0077]
That is, when it is determined that the line-of-sight information measured by the line-of-sight measurement device 2 indicates the word position that the user is gazing at, the value of the variable i is incremented by one.
[0078]
On the other hand, when it is determined in step 46 that the line-of-sight information measured by the line-of-sight measurement device 2 does not point to the word position displayed on the display device 4, the processing in step 47 is omitted.
[0079]
In this way, if the value of the variable i is incremented by 1 in step 47, or if the processing of step 47 is omitted, then, in step 48, the value of the variable j reaches the preset maximum value jmax. It is determined whether or not.
[0080]
When it is determined that the value of the variable j has not reached the preset maximum value jmax according to this determination processing, the routine proceeds to step 49, the value of the variable j is incremented by 1, and the routine returns to step 41. By doing so, the processing of step 41 to step 47 is repeated until the value of the variable j reaches a preset maximum value jmax.
[0081]
On the other hand, when it is determined in step 48 that the value of the variable j has reached the preset maximum value jmax, the process proceeds to step 50 and the visual line measuring device 2 of the line-of-sight measuring device 2 follows the calculation formula “R = i / j”. An evaluation value R of measurement accuracy is calculated, and in the subsequent step 51, it is output and the process is terminated.
[0082]
In this way, the gaze measurement accuracy evaluation apparatus 1 of the present invention, when following the processing flow of FIG. 6, as shown in FIG. 5, for example, when 10 words are selected as gaze targets, For example, when the measurement result of the line-of-sight measurement device 2 is correct for nine words, an evaluation value R of measurement accuracy indicating a value of “R = 0.9” is calculated, and is used as the line-of-sight measurement device. It is processed so as to be output as an evaluation value of the measurement accuracy of 2.
[0083]
Although the present invention has been described according to the illustrated embodiment, the present invention is not limited to this. For example, in the embodiment, the present invention has been described by taking the measurement accuracy evaluation of the eye gaze measuring device used in the word recognition accuracy measurement system as a specific example, but the present invention is used in a system other than the word recognition accuracy measurement system. The present invention can also be applied to the evaluation of the measurement accuracy of the line-of-sight measurement apparatus.
[0084]
【The invention's effect】
As described above, the present invention adopts a configuration in which the measurement accuracy of the visual line measuring device is evaluated in consideration of the area shape of the target object that the user can distinguish, so that the line of sight conforms to the target object that the user can distinguish. Since the measurement accuracy of the measurement device can be evaluated, the measurement accuracy of the visual line measurement device can be appropriately evaluated.
[0085]
From this point, when selecting a line-of-sight measuring device for the purpose of a specific work, it becomes possible to select an appropriate line-of-sight measuring device suitable for the work purpose by knowing the accuracy according to the work.
[0086]
Furthermore, when the gaze measuring device is used in an experiment or the like, the effectiveness of the experiment can be objectively shown by presenting the performance of the gaze measuring device with accuracy according to the purpose of the experiment. .
[Brief description of the drawings]
FIG. 1 is an example of an apparatus configuration of an eye gaze measurement accuracy evaluation apparatus according to the present invention.
FIG. 2 is an example of a processing flow executed by the visual measurement accuracy evaluation apparatus of the present invention.
FIG. 3 is an example of a processing flow executed by the visual measurement accuracy evaluation apparatus of the present invention.
FIG. 4 is an example of an electronic document used for visual line measurement accuracy evaluation processing.
FIG. 5 is an explanatory diagram of a gaze measurement accuracy evaluation process.
FIG. 6 is another embodiment of the processing flow executed by the eye gaze measurement accuracy evaluation apparatus of the present invention.
[Explanation of symbols]
1 Gaze measurement accuracy evaluation device
2 Line-of-sight measurement device
3 Electronic document files
4 display devices
10 buttons
100 Eye gaze measurement unit
101 Object region extraction unit
102 Memory part
103 gaze area estimation unit
104 Gaze area acquisition unit
105 Accuracy calculator

Claims (10)

ユーザにより複数の対象物が見分けられる作業で用いられる視線測定装置の測定精度を評価する視線測定精度評価装置であって、
上記作業の対象となる各対象物毎に定義されて、各対象物毎に異なるものとなるその対象物が空間中に占める領域を決定する手段と、
ユーザに対して上記対象物を1つずつ順次提示して、その対象物への注視を指示する手段と、
視線測定装置の測定結果と上記提示した対象物の占める領域の情報とに基づいて、ユーザが注視していると思われる個所が上記提示した対象物の占める領域に含まれているのか否かを対象物毎に判断する手段と、
上記判断結果の集計に基づいて、視線測定装置の測定精度の評価値を算出する手段とを備えることを、
特徴とする視線測定精度評価装置。
A line-of-sight measurement accuracy evaluation apparatus for evaluating the measurement accuracy of the visual line measuring device used in the work of the object number by the user Rifuku is recognizable,
Means for determining an area in the space that is defined for each object that is the target of the work and that is different for each object ;
Means for sequentially presenting the objects one by one to the user and instructing the user to gaze at the objects;
Measurement results and based on the information of the area occupied by the presented subject matter of the line of sight measuring device, whether or not the location where the user appears to be gazing is included in an area occupied by the object mentioned above presented Means for judging for each object ;
And a means for calculating an evaluation value of the measurement accuracy of the line-of-sight measurement device based on the total of the determination results,
Characteristic gaze measurement accuracy evaluation device.
ユーザにより複数の対象物が見分けられる作業で用いられる視線測定装置の測定精度を評価する視線測定精度評価装置であって、
上記作業の対象となる複数の対象物の配置されたものを構成する各対象物毎に定義されて、各対象物毎に異なるものとなるその対象物が空間中に占める領域を決定する手段と、
ユーザに対して上記対象物配置を提示する手段と、
ユーザからの入力に従って、上記提示した対象物配置の中からユーザが実際に注視している対象物を取得する手段と、
視線測定装置の測定結果と上記提示した対象物の占める領域の情報とに基づいて、ユーザが注視していると思われる対象物を推定する手段と、
上記取得した対象物と上記推定した対象物とが一致するのか否かを対象物毎に判断する手段と、
上記判断結果の集計に基づいて、視線測定装置の測定精度の評価値を算出する手段とを備えることを、
特徴とする視線測定精度評価装置。
A line-of-sight measurement accuracy evaluation apparatus for evaluating the measurement accuracy of the visual line measuring device used in the work of the object number by the user Rifuku is recognizable,
Means for determining an area in the space that is defined for each object that constitutes a plurality of objects that are targets of the work and that is different for each object ; ,
Means for presenting the object arrangement to the user;
In accordance with the input from the user, it means for obtaining an object the user from the object arrangement and the upper Symbol presentation is actually gaze,
Based on the measurement result of the line-of-sight measurement device and the information of the area occupied by the presented object, a means for estimating the object that the user seems to be gazing on,
Means for determining for each object whether or not the acquired object matches the estimated object;
And a means for calculating an evaluation value of the measurement accuracy of the line-of-sight measurement device based on the total of the determination results,
Characteristic gaze measurement accuracy evaluation device.
ユーザにより複数の対象物が見分けられる作業で用いられる視線測定装置の測定精度を評価する視線測定精度評価装置であって、
上記作業の対象となる複数の対象物の配置されたものを構成する各対象物毎に定義されて、各対象物毎に異なるものとなるその対象物が空間中に占める領域を決定する手段と、
ユーザに対して上記対象物配置を提示する手段と、
ユーザに対して注視すべき対象物を誘導することにより、上記提示した対象物配置の中からユーザが実際に注視している対象物を取得する手段と、
視線測定装置の測定結果と上記提示した対象物の占める領域の情報とに基づいて、ユーザが注視していると思われる対象物を推定する手段と、
上記取得した対象物と上記推定した対象物とが一致するのか否かを対象物毎に判断する手段と、
上記判断結果の集計に基づいて、視線測定装置の測定精度の評価値を算出する手段とを備えることを、
特徴とする視線測定精度評価装置。
A line-of-sight measurement accuracy evaluation apparatus for evaluating the measurement accuracy of the visual line measuring device used in the work of the object number by the user Rifuku is recognizable,
Means for determining an area in the space that is defined for each object that constitutes a plurality of objects that are targets of the work and that is different for each object ; ,
Means for presenting the object arrangement to the user;
By inducing an object to look carefully to a user, it means for obtaining an object the user from the object arrangement and the upper Symbol presentation is actually gaze,
Based on the measurement result of the line-of-sight measurement device and the information of the area occupied by the presented object, a means for estimating the object that the user seems to be gazing on,
Means for determining for each object whether or not the acquired object matches the estimated object;
And a means for calculating an evaluation value of the measurement accuracy of the line-of-sight measurement device based on the total of the determination results,
Characteristic gaze measurement accuracy evaluation device.
ユーザにより複数の対象物が見分けられる作業で用いられる視線測定装置の測定精度を評価する視線測定精度評価方法であって、
上記作業の対象となる各対象物毎に定義されて、各対象物毎に異なるものとなるその対象物が空間中に占める領域を決定して、その領域の情報をメモリに保持させる過程と、
ユーザに対して上記対象物を1つずつ順次提示して、その対象物への注視を指示する過程と、
視線測定装置の測定結果と上記メモリに保持されている上記提示した対象物の占める領域の情報とに基づいて、ユーザが注視していると思われる個所が上記提示した対象物の占める領域に含まれているのか否かを対象物毎に判断する過程と、
上記判断結果の集計に基づいて、視線測定装置の測定精度の評価値を算出する過程とを備えることを、
特徴とする視線測定精度評価方法。
A line-of-sight measurement accuracy evaluation method for evaluating the measurement accuracy of the visual line measuring device used in the work of the object number by the user Rifuku is recognizable,
A process that is defined for each object that is the target of the above-described work and that is different for each object , determines a region that the object occupies in the space , and stores information on the region in a memory;
A process of sequentially presenting the objects one by one to the user and instructing the user to pay attention to the objects;
Based on the measurement result of the line-of-sight measurement device and the information on the area occupied by the presented object held in the memory, the area considered to be watched by the user is included in the area occupied by the presented object. A process for determining whether or not each object is
A step of calculating an evaluation value of the measurement accuracy of the line-of-sight measurement device based on the aggregation of the determination results,
Characteristic gaze measurement accuracy evaluation method.
ユーザにより複数の対象物が見分けられる作業で用いられる視線測定装置の測定精度を評価する視線測定精度評価方法であって、
上記作業の対象となる複数の対象物の配置されたものを構成する各対象物毎に定義されて、各対象物毎に異なるものとなるその対象物が空間中に占める領域を決定して、その領域の情報をメモリに保持させる過程と、
ユーザに対して上記対象物配置を提示する過程と、
ユーザからの入力に従って、上記提示した対象物配置の中からユーザが実際に注視している対象物を取得する過程と、
視線測定装置の測定結果と上記メモリに保持されている上記提示した対象物の占める領域の情報とに基づいて、ユーザが注視していると思われる対象物を推定する過程と、
上記取得した対象物と上記推定した対象物とが一致するのか否かを対象物毎に判断する過程と、
上記判断結果の集計に基づいて、視線測定装置の測定精度の評価値を算出する過程とを備えることを、
特徴とする視線測定精度評価方法。
A line-of-sight measurement accuracy evaluation method for evaluating the measurement accuracy of the visual line measuring device used in the work of the object number by the user Rifuku is recognizable,
It is defined for each object that constitutes an arrangement of a plurality of objects that are the targets of the above work, and determines the area that the object that is different for each object occupies in the space, The process of storing the information of the area in the memory,
Presenting the object placement to the user;
In accordance with the input from the user, the process of acquiring the object the user from the object arrangement and the upper Symbol presentation is actually gaze,
Based on the measurement result of the visual line measuring device and the information of the area occupied by the presented object held in the memory, a process of estimating the object that the user seems to be watching,
A process for determining for each object whether or not the acquired object and the estimated object match;
A step of calculating an evaluation value of the measurement accuracy of the line-of-sight measurement device based on the aggregation of the determination results,
Characteristic gaze measurement accuracy evaluation method.
ユーザにより複数の対象物が見分けられる作業で用いられる視線測定装置の測定精度を評価する視線測定精度評価方法であって、
上記作業の対象となる複数の対象物の配置されたものを構成する各対象物毎に定義されて、各対象物毎に異なるものとなるその対象物が空間中に占める領域を決定して、その領域の情報をメモリに保持させる過程と、
ユーザに対して上記対象物配置を提示する過程と、
ユーザに対して注視すべき対象物を誘導することにより、上記提示した対象物配置の中からユーザが実際に注視している対象物を取得する過程と、
視線測定装置の測定結果と上記メモリに保持されている上記提示した対象物の占める領域の情報とに基づいて、ユーザが注視していると思われる対象物を推定する過程と、
上記取得した対象物と上記推定した対象物とが一致するのか否かを対象物毎に判断する過程と、
上記判断結果の集計に基づいて、視線測定装置の測定精度の評価値を算出する過程とを備えることを、
特徴とする視線測定精度評価方法。
A line-of-sight measurement accuracy evaluation method for evaluating the measurement accuracy of the visual line measuring device used in the work of the object number by the user Rifuku is recognizable,
It is defined for each object that constitutes an arrangement of a plurality of objects that are the targets of the above work, and determines the area that the object that is different for each object occupies in the space, The process of storing the information of the area in the memory,
Presenting the object placement to the user;
By inducing an object to look carefully to a user, the method comprising: obtaining an object the user from the object arrangement and the upper Symbol presentation is actually gaze,
Based on the measurement result of the visual line measuring device and the information of the area occupied by the presented object held in the memory, a process of estimating the object that the user seems to be watching,
A process for determining for each object whether or not the acquired object and the estimated object match;
A step of calculating an evaluation value of the measurement accuracy of the line-of-sight measurement device based on the aggregation of the determination results,
Characteristic gaze measurement accuracy evaluation method.
ユーザにより複数の対象物が見分けられる作業で用いられる視線測定装置の測定精度を評価する視線測定精度評価装置の実現に用いられる視線測定精度評価プログラムであって、
上記作業の対象となる各対象物毎に定義されて、各対象物毎に異なるものとなるその対象物が空間中に占める領域を決定する手段と、
ユーザに対して上記対象物を1つずつ順次提示して、その対象物への注視を指示する手段と、
視線測定装置の測定結果と上記提示した対象物の占める領域の情報とに基づいて、ユーザが注視していると思われる個所が上記提示した対象物の占める領域に含まれているのか否かを対象物毎に判断する手段と、
上記判断結果の集計に基づいて、視線測定装置の測定精度の評価値を算出する手段として、コンピュータを機能させるための視線測定精度評価プログラム。
A line of sight measurement accuracy evaluation program used for realization of the line of sight measurement accuracy evaluation apparatus for evaluating the measurement accuracy of the visual line measuring apparatus used in working the object number of by the user Rifuku is recognizable,
Means for determining an area in the space that is defined for each object that is the target of the work and that is different for each object ;
Means for sequentially presenting the objects one by one to the user and instructing the user to gaze at the objects;
Measurement results and based on the information of the area occupied by the presented subject matter of the line of sight measuring device, whether or not the location where the user appears to be gazing is included in an area occupied by the object mentioned above presented Means for judging for each object ;
A line-of-sight measurement accuracy evaluation program for causing a computer to function as means for calculating an evaluation value of the measurement accuracy of the line-of-sight measurement device based on the total of the determination results.
ユーザにより複数の対象物が見分けられる作業で用いられる視線測定装置の測定精度を評価する視線測定精度評価装置の実現に用いられる視線測定精度評価プログラムであって、
上記作業の対象となる複数の対象物の配置されたものを構成する各対象物毎に定義されて、各対象物毎に異なるものとなるその対象物が空間中に占める領域を決定する手段と、
ユーザに対して上記対象物配置を提示する手段と、
ユーザからの入力に従って、上記提示した対象物配置の中からユーザが実際に注視している対象物を取得する手段と、
視線測定装置の測定結果と上記提示した対象物の占める領域の情報とに基づいて、ユーザが注視していると思われる対象物を推定する手段と、
上記取得した対象物と上記推定した対象物とが一致するのか否かを対象物毎に判断する手段と、
上記判断結果の集計に基づいて、視線測定装置の測定精度の評価値を算出する手段として、コンピュータを機能させるための視線測定精度評価プログラム。
A line of sight measurement accuracy evaluation program used for realization of the line of sight measurement accuracy evaluation apparatus for evaluating the measurement accuracy of the visual line measuring apparatus used in working the object number of by the user Rifuku is recognizable,
Means for determining an area in the space that is defined for each object that constitutes a plurality of objects that are targets of the work and that is different for each object ; ,
Means for presenting the object arrangement to the user;
In accordance with the input from the user, it means for obtaining an object the user from the object arrangement and the upper Symbol presentation is actually gaze,
Based on the measurement result of the line-of-sight measurement device and the information of the area occupied by the presented object, a means for estimating the object that the user seems to be gazing on,
Means for determining for each object whether or not the acquired object matches the estimated object;
A line-of-sight measurement accuracy evaluation program for causing a computer to function as means for calculating an evaluation value of the measurement accuracy of the line-of-sight measurement device based on the total of the determination results.
ユーザにより複数の対象物が見分けられる作業で用いられる視線測定装置の測定精度を評価する視線測定精度評価装置の実現に用いられる視線測定精度評価プログラムであって、
上記作業の対象となる複数の対象物の配置されたものを構成する各対象物毎に定義されて、各対象物毎に異なるものとなるその対象物が空間中に占める領域を決定する手段と、
ユーザに対して上記対象物配置を提示する手段と、
ユーザに対して注視すべき対象物を誘導することにより、上記提示した対象物配置の中からユーザが実際に注視している対象物を取得する手段と、
視線測定装置の測定結果と上記提示した対象物の占める領域の情報とに基づいて、ユーザが注視していると思われる対象物を推定する手段と、
上記取得した対象物と上記推定した対象物とが一致するのか否かを対象物毎に判断する手段と、
上記判断結果の集計に基づいて、視線測定装置の測定精度の評価値を算出する手段として、コンピュータを機能させるための視線測定精度評価プログラム。
A line of sight measurement accuracy evaluation program used for realization of the line of sight measurement accuracy evaluation apparatus for evaluating the measurement accuracy of the visual line measuring apparatus used in working the object number of by the user Rifuku is recognizable,
Means for determining an area in the space that is defined for each object that constitutes a plurality of objects that are targets of the work and that is different for each object ; ,
Means for presenting the object arrangement to the user;
By inducing an object to look carefully to a user, it means for obtaining an object the user from the object arrangement and the upper Symbol presentation is actually gaze,
Based on the measurement result of the line-of-sight measurement device and the information of the area occupied by the presented object, a means for estimating the object that the user seems to be gazing on,
Means for determining for each object whether or not the acquired object matches the estimated object;
A line-of-sight measurement accuracy evaluation program for causing a computer to function as means for calculating an evaluation value of the measurement accuracy of the line-of-sight measurement device based on the total of the determination results.
請求項7ないしのいずれか1項に記載の視線測定精度評価プログラムを記録したコンピュータ読み取り可能な記録媒体。A computer-readable recording medium on which the visual measurement accuracy evaluation program according to any one of claims 7 to 9 is recorded.
JP2002294472A 2002-10-08 2002-10-08 Line-of-sight measurement accuracy evaluation apparatus, line-of-sight measurement accuracy evaluation method, line-of-sight measurement accuracy evaluation program, and computer-readable recording medium recording the program Expired - Fee Related JP4116858B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002294472A JP4116858B2 (en) 2002-10-08 2002-10-08 Line-of-sight measurement accuracy evaluation apparatus, line-of-sight measurement accuracy evaluation method, line-of-sight measurement accuracy evaluation program, and computer-readable recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002294472A JP4116858B2 (en) 2002-10-08 2002-10-08 Line-of-sight measurement accuracy evaluation apparatus, line-of-sight measurement accuracy evaluation method, line-of-sight measurement accuracy evaluation program, and computer-readable recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2004129684A JP2004129684A (en) 2004-04-30
JP4116858B2 true JP4116858B2 (en) 2008-07-09

Family

ID=32285003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002294472A Expired - Fee Related JP4116858B2 (en) 2002-10-08 2002-10-08 Line-of-sight measurement accuracy evaluation apparatus, line-of-sight measurement accuracy evaluation method, line-of-sight measurement accuracy evaluation program, and computer-readable recording medium recording the program

Country Status (1)

Country Link
JP (1) JP4116858B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8148806B2 (en) 2000-05-19 2012-04-03 Megica Corporation Multiple chips bonded to packaging structure with low noise and multiple selectable functions

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061218A (en) * 2008-09-01 2010-03-18 Fujifilm Corp Web advertising effect measurement device, web advertising effect measurement method, and program
CN111208904A (en) * 2020-01-08 2020-05-29 北京未动科技有限公司 Sight estimation equipment performance evaluation method, system and equipment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8148806B2 (en) 2000-05-19 2012-04-03 Megica Corporation Multiple chips bonded to packaging structure with low noise and multiple selectable functions

Also Published As

Publication number Publication date
JP2004129684A (en) 2004-04-30

Similar Documents

Publication Publication Date Title
US9672421B2 (en) Method and apparatus for recording reading behavior
US9489574B2 (en) Apparatus and method for enhancing user recognition
CN104750406B (en) Monitoring equipment and display interface layout adjusting method and device thereof
US9836130B2 (en) Operation input device, operation input method, and program
CN103782251A (en) Computer device operable with user's eye movement and method for operating the computer device
KR20090119107A (en) Gaze tracking apparatus and method using difference image entropy
TW201322049A (en) Electronic device and read guiding method thereof
EP2845077A2 (en) User input processing with eye tracking
KR102252851B1 (en) Automatic analysis system for picture for cognitive ability test and recording medium for the same
EP2905680A1 (en) Information processing apparatus, information processing method, and program
US10152472B2 (en) Apparatus and method for generating summary data of E-book or E-note
KR20140125207A (en) Method and apparatus for analyzing image for comprehending testee's psychology and recording medium thereof
US10936472B2 (en) Screen recording preparation method for evaluating software usability
US11109810B2 (en) Information display device, biological signal measurement system, and computer program product
US11237712B2 (en) Information processing device, biomedical-signal measuring system, display method, and recording medium storing program code
JP4116858B2 (en) Line-of-sight measurement accuracy evaluation apparatus, line-of-sight measurement accuracy evaluation method, line-of-sight measurement accuracy evaluation program, and computer-readable recording medium recording the program
EP2916261A2 (en) Detecting device and detecting method
KR102240228B1 (en) Method and system for scoring drawing test results through object closure determination
CN111124109A (en) Interactive mode selection method, intelligent terminal, equipment and storage medium
CN103577715B (en) Case history input unit and case history input method
US8705823B2 (en) Software product for breast examination result mapping, recording, comparing, and/or tracking
JP6390458B2 (en) Information processing apparatus, information processing system, information processing method, and information processing program
WO2018161421A1 (en) Performance test method and performance test apparatus for touch display screen of terminal device
JP2010233737A (en) Body type determination method, body type determination system, and monitoring system using the same
JP5246496B2 (en) calculator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070306

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070502

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080418

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120425

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130425

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140425

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees