JP5387557B2 - 情報処理装置及び方法、並びにプログラム - Google Patents
情報処理装置及び方法、並びにプログラム Download PDFInfo
- Publication number
- JP5387557B2 JP5387557B2 JP2010290417A JP2010290417A JP5387557B2 JP 5387557 B2 JP5387557 B2 JP 5387557B2 JP 2010290417 A JP2010290417 A JP 2010290417A JP 2010290417 A JP2010290417 A JP 2010290417A JP 5387557 B2 JP5387557 B2 JP 5387557B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- line
- sight
- detecting
- eyeball
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Multimedia (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Eye Examination Apparatus (AREA)
Description
近年、このような要求に応えるために、人間の眼球の視線位置を検出する技術が研究開発されている(特許文献1乃至3参照)。
しかしながら、マウス等価操作をするだけのために頭部が束縛されることは、ユーザにとって不快であり、このような頭部の束縛がない状態でマウス等価操作を実現することが要望されている状況である。
表示部を備えた情報処理装置であって、
接続された撮像手段から供給される撮像データ内にある眼球の特定部位を表す画像を第1の画像として検出する第1の画像検出手段と、
前記撮像データ上での前記第1の画像の位置を特定する第1検出手段と、
前記撮像データ内から前記眼球に写りこんだ特定形状の物体を表す画像を第2の画像として検出する第2の画像検出手段と、
前記撮像データ上での前記第2の画像の位置を特定する第2検出手段と、
前記第1の画像の位置と、前記第2の画像の位置との関係に基づき、前記撮像手段で撮像された眼球における視線移動量を検出する視線移動量検出手段と、
前記視線移動量検出手段により検出された前記視線移動量に基づいてマウスポインタを前記表示部内で移動させるマウスポインタ制御手段と、
前記第1の画像の位置と前記第2の画像の位置の変化の基準となる基準ズレ量を設定する基準ズレ量設定手段と、を有し、
前記基準ズレ量設定手段は、前記マウスポインタの移動にあわせて前記基準ズレ量を更新することを特徴とする情報処理装置を提供する。
図1に示すように、視線入力装置1は、デジタルフォトフレームとして構成されている。視線入力装置1の正面(図1に図示されていない方の面)には、表示部11と、撮像部12と、が設けられている。
ユーザは、頭部を何ら束縛されることなく、その眼球2で表示部11を見ながら視線を動かすだけで、マウス等価操作を行うことができる。
即ち、視線入力装置1は、ユーザの眼球2の視線位置を検出し、その検出結果に基づいてマウス等価操作を認識し、マウス等価操作により指示される情報(マウスポインタの移動指示やクリックによる選択指示等)を入力して、対応する処理を実行できる。
即ち、図2には、撮像部12が眼球2を撮像した結果得られる画像(以下、「撮像画像」と呼ぶ)の一例が示されている。
撮像画像には、眼球2の像の領域3(以下、「眼球領域3」と呼ぶ)が含まれている。眼球領域3には、眼球2の瞳の像の領域(以下、「瞳領域4」と呼ぶ)と、眼球2に映り込んだ表示部11の像の領域(以下、「表示部像領域5」と呼ぶ)と、が含まれている。
なお、撮像部12の撮像対象の眼球2は、左右どちらのものでも構わないが、本実施形態では左目のものが予め採用されている。ただし、眼球2として右目のものが予め採用されていてもよいし、事後的に左右の何れかを選択できるようにしてもよい。
さらに、撮像部12の撮像対象は両目であってもよく、この場合、視線入力装置1は、後述するクリック等価操作等、様々なマウス等価操作を両目の動作の組み合わせとして検出することができる。
撮像画像のデータから瞳孔を正確に検出する技術自体は公知であり、瞳領域4の位置は、当該技術により検出された瞳孔の中心点によって代表させることができる。しかしながら、眼球領域3全体の位置を正確に検出することは、眼球2と固定的な位置関係にある測定装置を設けない限り非常に困難である。このような測定装置を設けなくとも目頭や目尻などの特徴部分は検出できるが、このような特徴部分は、瞳孔ほど鮮明ではなく、眼球領域3の正確な位置を特定するためには利用できない。
それ故、眼球領域3の位置を特定するためには、結局のところ、瞳孔を最も重要な特徴部分として検出することになる。この場合、当然ながら、瞳孔に基づいてそれぞれ特定された、眼球領域3の位置と瞳領域4の位置とを区別することは実質上できない。
このように、瞳領域4以外の特徴部分によって眼球領域3の位置を検出できる技術がない限り、眼球領域3の位置と瞳領域4の位置とを分離して検出することは非常に困難である。
それ故、特許文献1乃至3のような従来技術では、眼球の位置をある程度固定する必要があり、何かしらのユーザの頭部の束縛がなされることが前提となっていた。
しかしながら、このような頭部の束縛はユーザにとって不快であり、煩わしさに耐えない。
即ち、不動基準点として、従来の眼球領域3の位置の代わりに、瞳領域4の位置とは独立して検出することが可能な表示部像領域5の位置が採用される。この場合、不動基準点としての表示部像領域5の位置に対する、移動基準点としての瞳領域4の位置の相対的変化を検出することで、視線検出が実現される。
図3に示すように、本実施形態では、瞳領域4の位置を代表する瞳中心Mは、例えば、瞳領域4の重心として特定することができる。
ここで、本実施形態では、撮像画像における所定領域の重心は、当該所定領域を構成する全画素の座標の平均値として求められるものとする。
即ち、撮像画像において、瞳領域4の重心の横座標は、瞳領域4を構成する全画素の各横座標の平均値として算出される。同様に、撮像画像においては、瞳領域4の重心の縦座標は、瞳領域4を構成する全画素の各縦座標の平均値として算出される。
このようにして算出された瞳中心Mが、本実施形態の移動基準点として用いられることになる。
即ち、本実施形態では、撮像画像のうち、横方向の最下線に沿って右から左に向かう軸が、横座標を示す軸であり、X軸として採用されている。一方、撮像画像のうち、縦方向の最右線に沿って下から上に向かう軸が、縦座標を示す軸であり、Y軸として採用されている。
このような座標が本実施形態で採用されているのは、眼球2が表示部11と差し向かいになっているため、眼球2の視線がユーザから見て左から右に動く時、連続して撮像される複数の撮像画像の中では、瞳中心Mは逆に右から左に動くという鏡像関係を考慮したためである。また、後述する視線検出処理において、表示部11の座標系のX軸の方向を、一般的通念に従い、左から右に向かって定義できるようにするためである。
図4に示すように、表示部像領域5の像中心Zは、表示部像領域5の位置を代表する点、即ち表示部像領域5の略中心の点であるため、本実施形態の不動基準点として用いられる。
表示部像領域5は、眼球2に像として映り込んだ表示部11が撮像された結果得られた領域であるため湾曲しているが、略長方形として近似的に取り扱うことが可能である。即ち、表示部像領域5は、図4に示す4つの頂点V1乃至V4からなる略長方形として近似的に取り扱うことができる。このように取り扱うことで、撮像画像から4つの頂点V1乃至V4を検出し、これらの4つの頂点V1乃至V4の重心を像中心Zとして容易に算出することができる。
即ち、撮像画像において、像中心Zの横座標は、4つの頂点V1乃至V4の横座標の平均値として算出される。同様に、像中心Zの縦座標は、4つの頂点V1乃至V4の縦座標の平均値として算出される。
このようにして算出された像中心Zが、本実施形態の不動基準点として用いられることになる。
また、像中心Zを算出するという観点では、表示部像領域を湾曲した形状として撮像画像から忠実に切り出して用いる必要は特にない。例えば、表示部像領域5の境界部分に内接する正確な長方形を切り出し、当該長方形を用いて像中心Zを算出することも可能である。即ち、このような長方形の形状のように、データとして扱い易くなる形状で表示部像領域5を切り出すようにしてもよい。
ここで注目すべき点は、眼球領域3全体は、ユーザが顔を動かせば、撮像画像の中で動いてしまうのであるが、ユーザが表示部11を注視している限り、眼球領域3に対して表示部像領域5は相対的に略静止しているという点である。
また、上述したように、瞳領域4の位置に対して、眼球領域3の位置を独立に特定することは難しいが、表示部領域5の位置を独立に特定することは容易に可能である点も注目すべきである。
これらの注目すべき点を考慮すると、眼球領域3に対して相対的に略静止している表示部領域5の像中心Zを、眼球領域3の位置に代わる不動基準点として採用し、瞳中心M(移動基準点)と像中心Z(不動基準点)との相対的位置関係を表わすズレ量を導入することで、視線検出が容易に可能になる。
図5に示すように、撮像画像の座標系において、像中心Zから瞳中心Mに向かうベクトルV(x,y)をズレ量として定義すると、このズレ量の変化は、ユーザの眼球2の視線位置の変化に比例していると把握することができる。よって、このズレ量の変化を検出することによって、視線検出が容易に可能になる。
即ち、ユーザは、表示部11の中央位置を注視しながら、視線入力装置1に対する所定の操作を行うことで、キャリブレーションが行われる。
ここで、視線入力装置1に対する所定の操作は、特に限定されないが、本実施形態では、図示はしないが、視線入力装置1に設けられている専用の物理スイッチ(以下、「キャリブレーションスイッチ」と呼ぶ)の押下操作が採用されている。
即ち、本実施形態のキャリブレーションは、キャリブレーションスイッチの押下操作を契機として実行され、この時に検出された像中心Zから瞳中心Moに向かうズレ量Vo(xo,yo)が、基準ズレ量の初期値として設定される。
ここで、視線の移動ベクトルの単位は何でもよいので、本実施形態では、比例定数を1として、差分ベクトル△V(△x,△y)がそのまま視線の移動ベクトルとして採用されるものとする。
このようにして、本実施形態では、視線の移動ベクトル△V(△x,△y)を検出することによって、視線検出が実現される。
視線入力装置1は、視線の移動ベクトル△V(△x,△y)を再び検出した時、ユーザの姿勢がそれほど変わっていなければ、前回のキャリブレーションは依然有効であるため、マウスポインタをユーザの視線に追随させて移動させる処理を再開することができる。
勿論、ユーザが視線を激しく動かしたり、大きく姿勢を変えたりすれば、ユーザの視線位置とマウスポインタの位置とが一致しなくなる場合もある。しかしながら、そのような場合であっても、視線入力装置1は、キャリブレーションを再び行うことにより、ユーザの視線位置とマウスポインタの位置とを一致させることが容易にできる。
次に、図1の視線入力装置1が有する機能のうち、このような視線検出の手法に従った入力処理の実行機能を発揮させるための機能的構成について説明する。
例えば、視線入力装置1は、動作モードとして、視線の動きを活用したマウス等価操作を受け付けて動作するモード(以下、「視線モード」と呼ぶ)と、従来から存在する、通常のマウス操作を受け付けて動作するモード(以下、「通常モード」と呼ぶ)と、を有している。
このため、図示はしないが、視線モードを選択指示するためのスイッチ(以下、「視線モードスイッチ」と呼ぶ)や、通常モードを選択指示するためのスイッチ(以下、「通常モードスイッチ」と呼ぶ)が、操作部13の一部として設けられている。
このため、視線モードスイッチが押下操作される度にキャリブレーションを行う仕様にすることで、視線モードスイッチに対して、視線モードの選択指示機能に加えて、キャリブレーションの開始指示機能も割り当てられたことと等価になる。よって、操作部13の構成要素としてキャリブレーションスイッチは必ずしも必須ではない。
しかしながら、使い易さの観点からすると、視線モードの選択指示機能と、キャリブレーションの開始指示機能とは、それぞれ別のスイッチに割り当てた方がユーザには分かり易くなり好適であるため、本実施形態ではキャリブレーションスイッチが視線モードスイッチとは独立して設けられている。
具体的には例えば、基準検出部21は、撮像画像のうち瞳中心Mを中心とした所定範囲の中から、平均輝度が所定の閾値以上となる長方形の領域であって、幅と高さが所定の条件を満たす領域を、表示部像領域5として特定する。
ここで、所定の条件として、幅と高さが所定の範囲内に収まると同時に、幅と高さの比が所定の範囲内に収まる、という条件が本実施形態では採用されている。
このような条件を課すのは、表示部領域5として誤認するおそれがある像、例えば眼球2に映り込んだ明るい長方形の像、具体的には例えば蛍光灯や遠方の窓の像を排除するためである。
その後、基準検出部21は、このようにして特定した表示部像領域5から、上述したようにして像中心Zの座標を算出する。
また、基準検出部21は、その後に基準ズレ量Vo(xo,yo)を更新する毎に(更新の詳細については後述する)、それを基準情報の1つとして視線検出部22に供給する。
即ち、視線検出部22は、ズレ量V(x,y)が供給される毎に、当該ズレ量V(x,y)と、その段階で保持している基準ズレ量Vo(xo,yo)とを用いて、視線の移動ベクトル△V(△x,△y)を算出することで、視線検出を行う。
換言すると、視線検出部22は、視線の移動ベクトル△V(△x,△y)に対応するマウスポインタの移動量(その移動量分だけ移動させる指示)を、次のようにして認識する。
即ち、視線検出部22は、視線の横方向(X軸方向)の移動量△xが所定の閾値を超えた場合に、移動量△xに所定の比例定数を乗じた量を、マウスポインタの横方向の移動量として認識する。
同様に、視線検出部22操作内容は、視線の縦方向(Y軸方向)の移動量△yが所定の閾値を超えた場合に、移動量△yに所定の比例定数を乗じた量を、マウスポインタの縦方向の移動量として認識する。
これらの認識結果は、マウス等価操作の内容として視線検出部22から操作内容入力部23に供給される。
例えば、マウスポインタの移動量が視線検出部22から供給された場合、操作内容入力部23は、当該移動量を入力して、入力した移動量だけマウスポインタを移動させる処理を実行する。即ち、操作内容入力部23は、マウスポインタの移動量を表示制御部64に通知する。
即ち、表示制御部64は、操作内容入力部23から通知された移動量に基づいて、表示部11の座標系におけるマウスポインタの位置を更新する。これにより、表示部11に表示されたGUI用の画面内において、マウスポインタが実際に移動する(そのような動画像が表示される)ことになる。
これにより、前述の如く、瞳中心Mが撮像画像の座標系において左に動いた時、マウスポインタは表示部11の座標系において右に動くという鏡像関係を満たすことができる。なお、この詳細については、図11を参照して後述する。
即ち、視線検出部22は、マウスポインタを横方向に△xに比例する移動量だけ移動させた場合、基準ズレ量Voの横方向の要素xoに対して移動量△xを加算する(即ち、xo=xとする)ように、基準ズレ量Vo(xo,yo)を更新する。同様に、視線検出部22は、マウスポインタを縦方向に△yに比例する移動量だけ移動させた場合、基準ズレ量Voの縦方向の要素yoに対して移動量△yを加算する(つまり、yo=yとする)ように、基準ズレ量Vo(xo,yo)を更新する。
このようにして基準ズレ量Vo(xo,yo)が更新されて、その更新結果が視線検出部22に保持されると、次回からは、新しいマウスポインタの位置からの視線の移動の検出が可能になる。
なお、上述のように、所定の閾値を超えた場合にのみマウスポインタの位置を更新するのは、人間の視線が常に揺らいでいるという性質のため、マウスポインタも無用に揺らいでしまう現象を回避するためである。
即ち、視線検出部22は、瞬きを検出する公知の手法に従って、撮像画像のデータから瞬き動作を検出する。この場合、視線検出部22は、所定の時間内に2回連続して瞬き動作を検出した場合、クリック操作と等価の操作が行われたと認識し、その認識結果を操作内容入力部23に供給する。
操作内容入力部23は、このような認識結果が供給されると、クリック操作に対応付けられた指示内容、例えばアイコンの選択の指示等の内容を入力し、入力した内容に応じた処理(アイコンの選択等の処理)を実行する。
なお、マウス操作には、クリック操作として、いわゆる左クリックと右クリックが存在する。このような左クリックと右クリックとに区別する必要がある場合には、例えば左目の2回連続の瞬き動作に対して左クリックと等価な操作を割り当て、右目の2回連続の瞬き動作に対して右クリックと等価な操作を割り当てればよい。
音声出力制御部25は、操作内容入力部23から供給された情報で特定される音声、例えばクリックと等価な操作がなされた場合にはいわゆるクリック音を音声出力部15から出力させる制御を実行する。
ただし、上述した図6の機能的構成は例示に過ぎず、上述の各種機能を装置全体として発揮可能であれば、視線入力装置1は任意の機能的構成を取ることができる。
情報入力処理は、例えば、視線入力装置1の電源が投入されて、ユーザにより所定の操作がなされたことを契機として開始され、次のようなステップS1乃至S12の処理が実行される。
具体的には例えば、主制御部14は、後述するステップS2のSW処理により設定される動作モードの初期設定として、通常モードを設定する。
なお、本実施形態では、動作モードの初期設定として視線モードを設定することは禁止されているものとする。視線モードの開始時にはキャリブレーションの実行が伴うので、ユーザが視線モードを開始するという明示の指示が必要なためである。
SW処理とは、複数の選択肢が存在するモードについて所定の選択肢を選択したり、複数の状態が存在するフラグについて初期状態を選択したりして、設定する処理をいう。
例えば本実施形態のSW処理では、動作モードとして、通常モードと視線モードとのうちユーザにより選択されたモードが設定される。
なお、SW処理のさらなる詳細については、図8を参照して後述する。
ステップS4において、操作内容入力部23は、通常のマウス操作を認識する。
その後、処理はステップS9に進む。ただし、ステップS9以降の処理については、後述する。
ステップS5において、基準検出部21は、基準検出処理を実行する。
基準検出処理とは、上述した図2乃至図5を参照して主要な処理を説明済みであるが、眼球2が撮像された結果得られる撮像画像のデータから、基準情報を検出する処理、即ち、瞳中心M(移動基準点)と像中心Z(不動基準点)とを検出し、それらの検出結果に基づいてズレ量V(x,y)を算出したり、基準ズレ量Vo(xo,yo)を算出(更新を含む)する処理をいう。なお、基準検出処理のさらなる詳細については、図9を参照して後述する。
ステップS7において、主制御部14は、所定のエラー処理を実行する。
その後、処理はステップS5の基準検出処理に戻される。即ち、ステップS5の基準検出処理で像中心Zの検出に成功するまでの間、ステップS5乃至S7のループ処理が繰り返される。
視線検出処理とは、ステップS5の基準検出処理で検出されたズレ量V(x,y)及び基準ズレ量(xo,yo)に基づいて視線の移動ベクトル△V(△x,△y)を求めることによって、視線検出を行い、その視線検出結果に基づいてマウスポインタの移動指示を認識する(マウスポインタの移動量を決定する)等の処理をいう。また、ユーザの瞬きを検出し、クリック操作と等価の操作を認識する処理も、視線検出処理の一部として含まれている。要するに、視線検出処理とは、視線検出を行い、その検出結果等に基づいてマウス等価操作の内容を認識する処理をいう。
なお、視線検出処理のさらなる詳細については、図10を参照して後述する。
処理の終了の指示は、特に限定されず、例えば視線入力装置1の電源が遮断される指示等、各種各様の指示を処理の終了の指示として採用することができる。
処理の終了がまだ指示されていない場合、ステップS12においてNOであると判定されて、処理はステップS2に戻され、それ以降の処理が繰り返される。
即ち、処理の終了が指示されるまでの間、ステップS2乃至S12の処理が繰り返し実行され、ユーザがマウス等価操作又は通常のマウス操作を行う度に、その操作の内容が入力され、入力された内容に応じた処理が実行される。
その後、処理の終了が指示されると、ステップS12においてYESであると判定されて、視線入力処理の全体が終了となる。
次に、このような視線入力処理のうち、ステップS2のSW処理の詳細な流れについて説明する。
図8は、SW処理の詳細な流れを説明するフローチャートである。
ここで、スイッチ状態とは、ON状態又はOFF状態を意味する。また、スイッチ状態が取得されるスイッチは、本実施形態では、通常モードスイッチ、視線モードスイッチ、及びキャリブレーションスイッチである。
ここで、CFフラグとは、キャリブレーション処理が必要か否かを示すフラグである。即ち、CFフラグが「1」に設定されている場合には、キャリブレーション処理が不要であることを意味する。一方、本ステップS23の処理後のように、CFフラグが「0」に設定されている場合には、キャリブレーション処理が不要であることを意味する。
この後、処理はステップS25に進む。ただし、ステップS25以降の処理については後述する。
ステップS24において、主制御部14は、CFフラグを「1」に設定する。即ち、この場合には、キャリブレーション処理が必要である旨が設定されたことになる。
この場合、ステップS23の処理でCF=0に設定されていたとしても、視線モードスイッチの押下操作が優先されて、CF=1に設定され、キャリブレーション処理が必要である旨の設定がなされる。
ステップS29において、主制御部14は、視線入力装置1の動作モードとして通常モードを設定する。
これにより、SW処理は終了する。
すると、上述したように、ステップS3の処理で、視線入力装置1の動作モードが視線モードであるか否かが判定され、視線モードであれば、ステップS5の基準検出処理が実行されることになる。
図9は、基準検出処理の詳細な流れを説明するフローチャートである。
像中心検出処理とは、上述した不動基準点としての像中心Zを検出する処理をいう。
なお、像中心検出処理のさらなる詳細については、図12乃至図14を参照して後述する。
ステップS46において、基準検出部21は、基準検出処理失敗のフラグを立てる。
これにより、基準検出処理は終了する。即ち、図7のステップS5の処理は終了して、次のステップS6の処理でNOであると判定されて、ステップS7のエラー処理が実行されることになる。
この場合、ステップS6においてYESであると判定され、ステップS8の視線検出処理が実行されることになる。
図10は、視線検出処理の詳細な流れを説明するフローチャートである。
このため、視線の移動ベクトル△Vの横方向(X軸方向)の要素△xの絶対値が10pix以下の場合には、ユーザはマウスポインタを移動させるつもりがないのに、視線の揺らぎ等で若干視線が移動した可能性があるとして、マウスポインタの移動の指示操作は認識されない。
従って、このような場合には、ステップS62においてNOであると判定され、マウスポインタの移動の指示操作を認識するための処理であるステップS63及びS64の処理は実行されずに、処理はステップS65に進む。ただし、ステップS65以降の処理については、後述する。
これにより、次回の視線検出処理のステップS61の処理では、今回の現在のズレ量Vの横方向(X軸方向)の要素xが基準となって、視線の移動ベクトル△V(△x,△y)が求められることになる。
このため、視線の移動ベクトル△Vの縦方向(Y軸方向)の要素△yの絶対値が10pix以下の場合には、ユーザはマウスポインタを移動させるつもりがないのに、視線の揺らぎ等で若干視線が移動した可能性があるとして、マウスポインタの移動の指示操作は認識されない。
従って、このような場合には、ステップS65においてNOであると判定され、マウスポインタの移動の指示操作を認識するための処理であるステップS66及びS67の処理は実行されずに、処理はステップS68に進む。ただし、ステップS68以降の処理については、後述する。
これにより、次回の視線検出処理のステップS61の処理では、今回の現在のズレ量Vの縦方向(Y軸方向)の要素yが基準となって、視線の移動ベクトル△V(△x,△y)が求められることになる。
即ち、図7のステップS8の処理は終了し、処理はステップS9に進む。この場合、ステップS63とS66のうち少なくとも一方の処理が実行されているならば、ステップS9の処理で、マウスポインタの移動の指示が入力されて、次のステップS10の処理でマウスポインタが移動する(そのようなGUI用の画像が表示される)。
即ち、図7のステップS8の処理は終了し、処理はステップS9に進む。この場合も、ステップS63とS66のうち少なくとも一方の処理が実行されているならば、ステップS9の処理で、マウスポインタの移動の指示が入力されて、次のステップS10の処理でマウスポインタが移動する(そのようなGUI用の画像が表示される)。
これにより、視線検出処理は終了し、即ち、図7のステップS8の処理は終了し、処理はステップS9に進む。
この場合、ステップS9の処理で、クリック操作に対応付けられた指示(例えばアイコンの選択等の指示)が入力されて、指示に従った処理が適宜実行される。
なお、ステップS62及びS65で採用されている10pixや、ステップS69で採用されている200msといった値は、例示に過ぎず、その趣旨(誤検出防止)を逸脱しない範囲内で自在に変更可能な値である。
図11は、視線検出処理によって決定される、マウスポインタ移動の方向を説明する図である。
図11(A)は、撮像画像の座標系の原点を像中心Zに取り直した座標系において、瞳中心Mが動く方向を示した図である。像中心Zを原点に取れば、瞳中心Mの座標はズレ量V(x,y)と一致した座標(x,y)で表される。
また、図11(B)は、表示部11の座標系において、中央位置を原点に取った場合に、図11(A)の視線位置の移動に応じてマウスポインタが動く方向を示した図である。
図11(A)において、瞳中心Mが、初期ズレ量Voの座標(xo,yo)から、現在のズレ量V(x,y)まで左上方向に動いた時、図11(B)に示すように、マウスポインタは右上に動くことになる。
これは、上述の通り、図11(A)における撮像された瞳中心Mの移動方向と図11(B)におけるユーザから見た視線位置の移動方向が鏡像関係になっているためである。
ステップS83において、基準検出部21は、像中心検出失敗を表すフラグを立てる。これにより、像中心検出処理は終了する。即ち、図9のステップS44の処理が終了し、処理はステップS45に進む。この場合、ステップS45の処理でNOであると判定されて、基準検出失敗のフラグが立てられ、基準検出処理が終了し、即ち、図7のステップS5の処理が終了し、ステップS6の処理でNOであると判定された後、ステップS7のエラー処理が実行されることになる。
ステップS84において、基準検出部21は、検出した領域を表示部像領域5として、その重心を、像中心Zの座標として算出する。
即ち、このような試みで検出が成功した領域が、表示部像領域5として特定されることになる。
なお、この例では、表示制御部64は、表示部11を制御して、認識信号で変調した光を発光する機能を持っているものとする。
即ち、このような試みで検出が成功した領域が、表示部像領域5として特定されることになる。
なお、「所定の時間」は、特に限定されないが、200ms程度以下にすると好適である。200msを超えると、視線検出の反応が遅くなる可能性があるからである。
表示部11は、所定形状の表示領域を有し、当該表示領域に画像を表示させる。
撮像部12は、表示領域が映り込んだユーザの眼球2を撮像することによって、撮像画像のデータを生成する。
基準検出部21は、撮像部12により生成された撮像画像のデータから、ユーザの視線移動に伴って動く移動基準点と、ユーザの視線移動があっても略静止していると判断できる不動基準点とを検出し、不動基準点から移動基準点までを示すベクトルをズレ量V(x,y)として生成する。
視線検出部22は、過去に生成された基準ズレ量Vo(xo,yo)と、今回生成されたズレ量V(x,y)とに基づいて、ユーザの視線の移動量として移動ベクトル△V(△x,△y)を検出する。
これにより、視線入力装置1は、ユーザの頭部を何ら束縛することなく、視線検出によってマウス等価操作を受け付けることができるので、ユーザは頭部も両手も自由な状態でマウス等価操作をすることができる。
ここで、タッチパネルはパネルの表面に指の油が付くし、タッチパッドは指が擦れる感触を嫌がるユーザが多い。また、リモートコントローラは操作に手間が掛かる。視線入力装置1は、これらのユーザインタフェース全ての欠点を無くして、快適なユーザインタフェースを実現できる。
また、ユーザは、表示部11を注視している限り、視線検出は確実に行われるので、安定したマウス等価操作が実現できる。ユーザが視線を外しても、同じ姿勢で注視し直すだけで、マウス等価操作を再開できる。
即ち、ユーザが視線モードスイッチを押下操作をする時は、それまで通常モードで移動させていたマウスポインタを注視している場合が多いと思われるので、マウスポインタの現在位置を初期位置とする、というキャリブレーションも可能である。
これに対して、ユーザがキャリブレーションスイッチを押下する時は、キャリブレーションをやり直すという意識が強いと思われるので、上述の実施形態のように、表示部11の中央位置をマウスポインタの初期位置とする、というキャリブレーションを実行することができる。
しかしながら、本発明は、特にこれに限定されず、上述の視線検出を実行可能な電子機器一般に適用することができる。具体的には例えば、本発明は、パーソナルコンピュータ、携帯型ナビゲーション装置、ポータブルゲーム機、携帯電話、携帯情報端末等に幅広く適用可能である。
RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータ等も適宜記憶される。
通信部107は、インターネット等を介して他の装置との間で行う通信を制御する。
リムーバブルメディア111は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されているROM102や、記憶部106に含まれるハードディスク等で構成される。
Claims (6)
- 表示部を備えた情報処理装置であって、
接続された撮像手段から供給される撮像データ内にある眼球の特定部位を表す画像を第1の画像として検出する第1の画像検出手段と、前記撮像データ上での前記第1の画像の位置を特定する第1検出手段と、
前記撮像データ内から前記眼球に写りこんだ特定形状の物体を表す画像を第2の画像として検出する第2の画像検出手段と、前記撮像データ上での前記第2の画像の位置を特定する第2検出手段と、
前記第1の画像の位置と、前記第2の画像の位置との関係に基づき、前記撮像手段で撮像された眼球における視線移動量を検出する視線移動量検出手段と、
前記視線移動量検出手段により検出された前記視線移動量に基づいてマウスポインタを前記表示部内で移動させるマウスポインタ制御手段と、
前記第1の画像の位置と前記第2の画像の位置の変化の基準となる基準ズレ量を設定する基準ズレ量設定手段と、を有し、
前記基準ズレ量設定手段は、前記マウスポインタの移動にあわせて前記基準ズレ量を更新することを特徴とする情報処理装置。 - 前記第2の画像検出手段は、縦横のサイズと縦横の比が所定の範囲内である画像を前記第2の画像として検出する請求項1に記載の情報処理装置。
- 前記表示部は、第2の画像を表示し、
前記眼球に映り込んだ画像は、前記表示部に表示された前記第2の画像である請求項2に記載の情報処理装置。 - 前記情報処理装置はさらに、瞬きを所定時間内に所定回数の動作が行われたかを検出する瞬き検出手段と、前記動作を検出した場合にマウスのクリック操作がなされたことを示す通知信号を発生させる通知手段とを有する請求項3に記載の情報処理装置。
- 表示部を備え、接続された撮像手段から供給される撮像データ内の画像から視線の移動量を検出する情報処理装置に用いられるコンピュータを、
前記撮像手段から供給される撮像データ内にある眼球の特定部位を表す画像を第1の画像として検出する第1の画像検出手段と、
前記撮像データ上での前記第1の画像の位置を特定する第1検出手段と、
前記撮像データ内から前記眼球に写りこんだ特定形状の物体を表す画像を第2の画像として検出する第2の画像検出手段と、
前記撮像データ上での前記第2の画像の位置を特定する第2検出手段と、
前記第1の画像の位置と、前記第2の画像の位置との関係に基づき、前記撮像手段で撮像された眼球における視線移動量を検出する視線移動量検出手段と、
前記視線移動量検出手段により検出された前記視線移動量に基づいてマウスポインタを前記表示部内で移動させるマウスポインタ制御手段と、
前記第1の画像の位置と前記第2の画像の位置の変化の基準となる基準ズレ量を設定する基準ズレ量設定手段と、して機能させるプログラムであって、
前記基準ズレ量設定手段は、前記マウスポインタの移動にあわせて前記基準ズレ量を更新することを特徴とする。 - 表示部を備え、接続された撮像手段から供給される撮像データ内の画像から視線の移動量を検出する情報処理方法であって、
前記撮像手段から供給される撮像データ内にある眼球の特定部位を表す画像を第1の画像として検出する第1の画像検出ステップと、
前記撮像データ上での前記第1の画像の位置を特定する第1検出ステップと、
前記撮像データ内から前記眼球に写りこんだ特定形状の物体を表す画像を第2の画像として検出する第2の画像検出ステップと、前記撮像データ上での前記第2の画像の位置を特定する第2検出ステップと、
前記第1の画像の位置と、前記第2の画像の位置との関係に基づき、前記撮像手段で撮像された眼球における視線移動量を検出する視線移動量検出ステップと、
前記視線移動量検出ステップにより検出された前記視線移動量に基づいてマウスポインタを前記表示部内で移動させるマウスポインタ制御ステップと、
前記第1の画像の位置と前記第2の画像の位置の変化の基準となる基準ズレ量を設定する基準ズレ量設定ステップと、を含む情報処理方法であって、
前記基準ズレ量設定ステップは、前記マウスポインタの移動にあわせて前記基準ズレ量を更新することを特徴とする。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010290417A JP5387557B2 (ja) | 2010-12-27 | 2010-12-27 | 情報処理装置及び方法、並びにプログラム |
US13/336,235 US8523358B2 (en) | 2010-12-27 | 2011-12-23 | Information processing apparatus, method, and storage medium storing program |
CN201110443180.7A CN102609085B (zh) | 2010-12-27 | 2011-12-27 | 信息处理装置及方法、以及程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010290417A JP5387557B2 (ja) | 2010-12-27 | 2010-12-27 | 情報処理装置及び方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012137970A JP2012137970A (ja) | 2012-07-19 |
JP5387557B2 true JP5387557B2 (ja) | 2014-01-15 |
Family
ID=46316322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010290417A Active JP5387557B2 (ja) | 2010-12-27 | 2010-12-27 | 情報処理装置及び方法、並びにプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8523358B2 (ja) |
JP (1) | JP5387557B2 (ja) |
CN (1) | CN102609085B (ja) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101919010B1 (ko) * | 2012-03-08 | 2018-11-16 | 삼성전자주식회사 | 안구 동작에 기초한 디바이스의 제어 방법 및 이를 위한 디바이스 |
CN102880290B (zh) * | 2012-08-24 | 2016-06-22 | 中兴通讯股份有限公司 | 一种显示控制方法、装置及终端 |
JP5229928B1 (ja) * | 2012-08-30 | 2013-07-03 | 広太郎 海野 | 注視位置特定装置、および注視位置特定プログラム |
KR102007817B1 (ko) * | 2012-12-21 | 2019-08-07 | 엘지디스플레이 주식회사 | 기준 데이터 보정방법과 이를 이용한 터치 스크린 장치 |
US10884577B2 (en) * | 2013-01-15 | 2021-01-05 | Poow Innovation Ltd. | Identification of dynamic icons based on eye movement |
US9167147B2 (en) | 2013-02-15 | 2015-10-20 | International Business Machines Corporation | Mobile device field of view region determination |
US9041645B2 (en) | 2013-02-15 | 2015-05-26 | International Business Machines Corporation | Transparent display field of view region determination |
US9179833B2 (en) | 2013-02-28 | 2015-11-10 | Carl Zeiss Meditec, Inc. | Systems and methods for improved ease and accuracy of gaze tracking |
US11747895B2 (en) * | 2013-03-15 | 2023-09-05 | Intuitive Surgical Operations, Inc. | Robotic system providing user selectable actions associated with gaze tracking |
US9582075B2 (en) * | 2013-07-19 | 2017-02-28 | Nvidia Corporation | Gaze-tracking eye illumination from display |
KR102037417B1 (ko) | 2013-08-13 | 2019-10-28 | 삼성전자주식회사 | 홍채 영상 촬영 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 홍채 영상 촬영 장치 |
KR20150032019A (ko) * | 2013-09-17 | 2015-03-25 | 한국전자통신연구원 | 시선 추적 기반의 사용자 인터페이스 방법 및 그 장치 |
WO2015104884A1 (ja) * | 2014-01-08 | 2015-07-16 | ソニー株式会社 | 情報処理システム、情報処理方法およびプログラム |
CN104808836B (zh) * | 2014-01-23 | 2017-12-01 | 京瓷办公信息系统株式会社 | 电子设备及操作支援方法 |
US9733728B2 (en) * | 2014-03-03 | 2017-08-15 | Seiko Epson Corporation | Position detecting device and position detecting method |
EP3137968B1 (en) * | 2014-04-29 | 2019-10-16 | Hewlett-Packard Development Company, L.P. | Gaze detector using reference frames in media |
CN104090659B (zh) * | 2014-07-08 | 2017-04-05 | 重庆金瓯科技发展有限责任公司 | 基于人眼图像和视线追踪的操作指针指示控制设备 |
JP6365267B2 (ja) * | 2014-11-27 | 2018-08-01 | 富士通株式会社 | 表示装置、表示方法及び表示プログラム |
DE102015204281A1 (de) * | 2015-03-10 | 2016-09-15 | Robert Bosch Gmbh | Verfahren zur Kalibrierung einer Kamera für eine Blickrichtungserkennung in einem Fahrzeug, Vorrichtung für ein Kraftfahrzeug mit einer Kamera und mindestens einem weiteren Element und Computerprogrammprodukt |
CN106325480A (zh) * | 2015-06-30 | 2017-01-11 | 天津三星电子有限公司 | 基于视线追踪的鼠标控制设备及其方法 |
CN106708251A (zh) * | 2015-08-12 | 2017-05-24 | 天津电眼科技有限公司 | 一种基于眼球追踪技术的智能眼镜控制方法 |
JP2017091327A (ja) * | 2015-11-12 | 2017-05-25 | 富士通株式会社 | ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム |
CN105700677A (zh) * | 2015-12-29 | 2016-06-22 | 努比亚技术有限公司 | 一种移动终端及其控制方法 |
CN105930044A (zh) * | 2016-04-20 | 2016-09-07 | 乐视控股(北京)有限公司 | 一种显示页面定位的方法和系统 |
JP2018194998A (ja) * | 2017-05-16 | 2018-12-06 | 富士通周辺機株式会社 | 情報処理装置及び情報処理方法 |
CN107357430A (zh) * | 2017-07-13 | 2017-11-17 | 湖南海翼电子商务股份有限公司 | 自动记录阅读位置的方法与装置 |
US10782793B2 (en) * | 2017-08-10 | 2020-09-22 | Google Llc | Context-sensitive hand interaction |
US10552986B1 (en) * | 2018-07-20 | 2020-02-04 | Banuba Limited | Computer systems and computer-implemented methods configured to track multiple eye-gaze and heartrate related parameters during users' interaction with electronic computing devices |
CN109460202A (zh) * | 2018-09-29 | 2019-03-12 | 努比亚技术有限公司 | 一种显示控制方法、终端及计算机可读存储介质 |
US11720178B2 (en) | 2019-03-15 | 2023-08-08 | Sony Group Corporation | Information processing device, information processing method, and computer-readable recording medium |
JP7433860B2 (ja) * | 2019-11-26 | 2024-02-20 | キヤノン株式会社 | 電子機器及び電子機器の制御方法 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4836670A (en) * | 1987-08-19 | 1989-06-06 | Center For Innovative Technology | Eye movement detector |
JPH06289985A (ja) * | 1993-03-31 | 1994-10-18 | Sega Enterp Ltd | 入力装置 |
JPH06347866A (ja) | 1993-06-10 | 1994-12-22 | Nikon Corp | 視線検出装置、角膜曲率中心位置検出装置および瞳孔中心位置検出装置 |
US5471542A (en) * | 1993-09-27 | 1995-11-28 | Ragland; Richard R. | Point-of-gaze tracker |
JP3453911B2 (ja) * | 1995-03-02 | 2003-10-06 | 富士ゼロックス株式会社 | 視線認識装置 |
JPH0918760A (ja) | 1995-06-30 | 1997-01-17 | Canon Inc | 視線検出装置およびこれに用いる撮像装置 |
JP3814322B2 (ja) * | 1996-01-24 | 2006-08-30 | キヤノン株式会社 | データ入力装置及びデータ入力方法 |
US5912721A (en) * | 1996-03-13 | 1999-06-15 | Kabushiki Kaisha Toshiba | Gaze detection apparatus and its method as well as information display apparatus |
US5731805A (en) * | 1996-06-25 | 1998-03-24 | Sun Microsystems, Inc. | Method and apparatus for eyetrack-driven text enlargement |
JPH10187334A (ja) * | 1996-12-26 | 1998-07-14 | Canon Inc | 情報入力方法および情報入力装置と情報入力用記憶媒体 |
US6351273B1 (en) * | 1997-04-30 | 2002-02-26 | Jerome H. Lemelson | System and methods for controlling automatic scrolling of information on a display or screen |
WO1999003066A1 (de) * | 1997-07-09 | 1999-01-21 | Siemens Aktiengesellschaft | Verfahren und vorrichtung zum erfassen einer reflektierenden fläche eines menschen |
US6106119A (en) * | 1998-10-16 | 2000-08-22 | The Board Of Trustees Of The Leland Stanford Junior University | Method for presenting high level interpretations of eye tracking data correlated to saved display images |
JP2001061785A (ja) | 1999-08-26 | 2001-03-13 | Shimadzu Corp | 視線検出方法及びその装置 |
JP2004318823A (ja) * | 2003-03-28 | 2004-11-11 | Seiko Epson Corp | 情報表示システム、情報処理装置、ポインティング装置および情報表示システムにおけるポインタマーク表示方法 |
US20050047629A1 (en) * | 2003-08-25 | 2005-03-03 | International Business Machines Corporation | System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking |
JP4517049B2 (ja) * | 2003-12-25 | 2010-08-04 | 国立大学法人静岡大学 | 視線検出方法および視線検出装置 |
JP4491604B2 (ja) * | 2004-12-17 | 2010-06-30 | 国立大学法人静岡大学 | 瞳孔検出装置 |
US20060209013A1 (en) * | 2005-03-17 | 2006-09-21 | Mr. Dirk Fengels | Method of controlling a machine connected to a display by line of vision |
JP2006323769A (ja) * | 2005-05-20 | 2006-11-30 | Tokai Univ | 対面入力装置 |
JP2007029126A (ja) | 2005-07-22 | 2007-02-08 | System Artware:Kk | 視線検出装置 |
JP2007066274A (ja) * | 2005-08-26 | 2007-03-15 | Tokyo Institute Of Technology | 画像認識方式 |
JP4609253B2 (ja) | 2005-09-08 | 2011-01-12 | オムロン株式会社 | なりすまし検出装置及び顔認証装置 |
JP2007271773A (ja) * | 2006-03-30 | 2007-10-18 | Fujitsu Hitachi Plasma Display Ltd | プラズマディスプレイ装置 |
TWI432172B (zh) * | 2008-10-27 | 2014-04-01 | Utechzone Co Ltd | Pupil location method, pupil positioning system and storage media |
TWI398796B (zh) * | 2009-03-27 | 2013-06-11 | Utechzone Co Ltd | Pupil tracking methods and systems, and correction methods and correction modules for pupil tracking |
JP2010233896A (ja) | 2009-03-31 | 2010-10-21 | Fujifilm Corp | 超音波診断装置 |
JP2010262478A (ja) * | 2009-05-07 | 2010-11-18 | Toyota Motor Corp | 車両制御システム及び安全確認判定装置 |
-
2010
- 2010-12-27 JP JP2010290417A patent/JP5387557B2/ja active Active
-
2011
- 2011-12-23 US US13/336,235 patent/US8523358B2/en active Active
- 2011-12-27 CN CN201110443180.7A patent/CN102609085B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN102609085B (zh) | 2014-10-15 |
US20120162603A1 (en) | 2012-06-28 |
JP2012137970A (ja) | 2012-07-19 |
CN102609085A (zh) | 2012-07-25 |
US8523358B2 (en) | 2013-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5387557B2 (ja) | 情報処理装置及び方法、並びにプログラム | |
US20210295602A1 (en) | Systems, Methods, and Graphical User Interfaces for Displaying and Manipulating Virtual Objects in Augmented Reality Environments | |
JP6131540B2 (ja) | タブレット端末、操作受付方法および操作受付プログラム | |
CN105765513B (zh) | 信息处理装置、信息处理方法和程序 | |
EP2862042B1 (en) | User interface interaction for transparent head-mounted displays | |
EP2866123A2 (en) | Screen operation apparatus and screen operation method | |
EP3144775B1 (en) | Information processing system and information processing method | |
US10642348B2 (en) | Display device and image display method | |
CN106605187B (zh) | 信息处理装置、信息处理方法以及程序 | |
KR20150116871A (ko) | Hdm에 대한 인간―신체―제스처―기반 영역 및 볼륨 선택 | |
KR20150090840A (ko) | 디스플레이 화면의 영역을 보호하는 디바이스 및 방법 | |
WO2009147870A1 (ja) | 入力検出装置、入力検出方法、プログラム、および記録媒体 | |
US20150199111A1 (en) | Gui system, display processing device, and input processing device | |
WO2014201831A1 (en) | Wearable smart glasses as well as device and method for controlling the same | |
US20210117048A1 (en) | Adaptive assistive technology techniques for computing devices | |
US11915671B2 (en) | Eye gaze control of magnification user interface | |
KR20160109443A (ko) | 시선 추적을 이용한 디스플레이 장치 및 방법 | |
US20220413606A1 (en) | Optical system providing accurate eye-tracking and related method | |
JP2016071539A (ja) | 電子機器 | |
KR102005406B1 (ko) | 디스플레이 장치 및 그 제어 방법 | |
WO2023166893A1 (ja) | 情報処理システム、情報処理方法、及び情報処理プログラム | |
JP2014106677A (ja) | 表示制御装置、表示方法、および表示プログラム | |
JP7314196B2 (ja) | 端末装置、端末装置の制御方法および端末装置の制御プログラム | |
JP7383471B2 (ja) | 電子機器およびその制御方法 | |
US12008160B2 (en) | Eye tracking based selection of a user interface (UI) element based on targeting criteria |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130923 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5387557 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |