JP2012065781A - Line-of-sight detection device, and correction coefficient determination program - Google Patents
Line-of-sight detection device, and correction coefficient determination program Download PDFInfo
- Publication number
- JP2012065781A JP2012065781A JP2010212061A JP2010212061A JP2012065781A JP 2012065781 A JP2012065781 A JP 2012065781A JP 2010212061 A JP2010212061 A JP 2010212061A JP 2010212061 A JP2010212061 A JP 2010212061A JP 2012065781 A JP2012065781 A JP 2012065781A
- Authority
- JP
- Japan
- Prior art keywords
- correction coefficient
- user
- line
- calculated
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、視線検出装置等に関する。 The present invention relates to a line-of-sight detection device and the like.
人の視線を検出する技術として、近赤外線等を利用者の眼球に照射して、角膜表面における反射像の位置から得られる角膜曲率中心と瞳孔中心から視線を検出するものがある。この技術を利用することで、利用者が注視するディスプレイ上の位置を判定することができる。例えば、利用者はキーボードを操作しなくても、ディスプレイ上のオブジェクトを注視することで、オブジェクトを選択することができる。 As a technique for detecting a person's line of sight, there is a technique for irradiating a user's eyeball with near infrared rays or the like and detecting the line of sight from the center of the corneal curvature obtained from the position of the reflected image on the corneal surface and the center of the pupil. By using this technique, it is possible to determine the position on the display where the user is gazing. For example, the user can select an object by gazing at the object on the display without operating the keyboard.
しかし、角膜表面における反射像を利用して検出される視線によって判定されるディスプレイ上の位置と、実際に利用者が注視している位置との間には誤差が生じる場合がある。誤差が生じると、利用者が視線によってディスプレイ上の所定のオブジェクトを選択しようとした場合には、意図しないオブジェクトが選択されてしまう場合がある。誤差が発生する要因としては、角膜表面における光の屈折率、眼球形状、眼球中心に対する基準点のズレなどがある。 However, there may be an error between the position on the display determined by the line of sight detected using the reflection image on the corneal surface and the position where the user is actually gazing. If an error occurs, an unintended object may be selected when the user tries to select a predetermined object on the display by his / her line of sight. Factors that cause errors include the refractive index of light on the corneal surface, the shape of the eyeball, and the deviation of the reference point with respect to the center of the eyeball.
上記の誤差を補正するために、視線キャリブレーションが行われる。この視線キャリブレーションでは、角膜表面における反射像から求められるディスプレイ上の位置と、実際のディスプレイ上の位置との誤差を埋める補正係数を算出する。この補正係数を利用することで、誤差がなくなり、利用者は快適にディスプレイ上のオブジェクトを選択することができる。 In order to correct the above error, line-of-sight calibration is performed. In this line-of-sight calibration, a correction coefficient that fills an error between the position on the display obtained from the reflection image on the cornea surface and the actual position on the display is calculated. By using this correction coefficient, there is no error, and the user can comfortably select an object on the display.
ここで、従来の視線キャリブレーションの一例について説明する。図16は、従来の視線キャリブレーションの一例を説明するための図である。図16に示すように、従来技術では、ディスプレイ10を複数の領域に分割し、領域内にパターン11を表示させる。このパターン11は、矢印の順に移動する。利用者は、ディスプレイ上に表示されるパターン11を順に追っていく。そして、従来技術では、パターン11が表示されている領域毎に、視線から判定したディスプレイ10上の位置と領域の位置との誤差を求め、この誤差が小さくなるような補正係数を算出する。
Here, an example of conventional line-of-sight calibration will be described. FIG. 16 is a diagram for explaining an example of conventional line-of-sight calibration. As shown in FIG. 16, in the related art, the
しかしながら、上述した従来技術では、視線キャリブレーションを実行する場合に、ユーザに係る負担が大きいという問題があった。 However, the above-described conventional technique has a problem that the burden on the user is large when the line-of-sight calibration is executed.
例えば、図16に示した方法により視線キャリブレーションを実行する場合には、利用者はディスプレイ10に表示されるパターン11を見続けることになり、時間もかかるため、利用者にとって大きな負担となる。
For example, when the line-of-sight calibration is executed by the method shown in FIG. 16, the user continues to watch the
開示の技術は、上記に鑑みてなされたものであって、利用者に負担をかけることなく視線キャリブレーションを実行することができる視線検出装置および補正係数算出プログラムを提供することを目的とする。 The disclosed technique has been made in view of the above, and an object thereof is to provide a gaze detection apparatus and a correction coefficient calculation program capable of performing gaze calibration without imposing a burden on the user.
開示の視線検出装置は、画面に表示されたオブジェクトが利用者によって選択された場合に、選択されたオブジェクトと画面に表示された他のオブジェクトとの関係に基づいて、利用者が視線入力を行う場合の誤差を補正するための補正係数を算出する補正係数算出部を有する。また、開示の視線検出装置は、補正係数と、利用者の目を被写体として含んだ画像から求められた該目に関する特徴量とに基づいて、利用者が注視している画面上の座標を検出する座標位置検出部を有することを要件とする。 In the disclosed gaze detection device, when an object displayed on the screen is selected by the user, the user performs gaze input based on the relationship between the selected object and another object displayed on the screen. A correction coefficient calculation unit for calculating a correction coefficient for correcting the error in the case. Further, the disclosed gaze detection device detects coordinates on the screen on which the user is gazing, based on the correction coefficient and the feature amount related to the eye obtained from an image including the user's eye as a subject. It is a requirement to have a coordinate position detection unit.
開示の視線検出装置によれば、利用者に負担をかけることなく視線キャリブレーションを実行することができるという効果を奏する。 According to the disclosed gaze detection apparatus, gaze calibration can be executed without imposing a burden on the user.
以下に、本願の開示する視線検出装置および補正係数算出プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。 Embodiments of a line-of-sight detection device and a correction coefficient calculation program disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.
本実施例にかかる視線検出装置の構成について説明する。図1は、本実施例にかかる視線検出装置の機能構成を示す図である。図1に示すように、この視線検出装置100は、記憶部101、カメラ102、目検出部103、特徴量抽出部104、入力部105、画面表示部106、操作情報取得部107を有する。また、視線検出装置100は、選択オブジェクト判定部108、重要度判定部109、補正係数算出部110、注視位置検出部111、画面制御部112を有する。
A configuration of the line-of-sight detection apparatus according to the present embodiment will be described. FIG. 1 is a diagram illustrating a functional configuration of the visual line detection device according to the present embodiment. As illustrated in FIG. 1, the line-of-
記憶部101は、利用者の視線キャリブレーションを実行するための各種データを記憶する記憶部である。図1に示すように、記憶部101は、特徴量管理テーブル101a、個人パラメータ101b、オブジェクト座標データ101c、補正係数管理テーブル101d、補正係数データ101eを記憶する。
The
このうち、特徴量管理テーブル101aは、特徴量を保持するテーブルである。この特徴量は、目の瞳孔中心と角膜反射像を基に特定される値である。目の瞳孔中心および角膜反射像の説明は後述する。図2は、特徴量管理テーブルのデータ構造の一例を示す図である。図2に示すように、特徴量管理テーブル101aでは、特徴量が順に記憶されている。 Among these, the feature amount management table 101a is a table that holds feature amounts. This feature amount is a value specified based on the pupil center of the eye and the cornea reflection image. The description of the pupil center of the eye and the cornea reflection image will be given later. FIG. 2 is a diagram illustrating an example of a data structure of the feature amount management table. As shown in FIG. 2, the feature amount management table 101a stores feature amounts in order.
個人パラメータ101bは、利用者毎の眼球半径を保持する。図3は、個人パラメータのデータ構造の一例を示す図である。図3に示すように、この個人パラメータ101bは、利用者を識別する利用者識別情報と、眼球半径とを対応づけて保持する。
The
オブジェクト座標データ101cは、オブジェクトの画面上の座標を保持する。図4は、オブジェクト座標データのデータ構造の一例を示す図である。図4に示すように、このオブジェクト座標データ101cは、オブジェクトを識別するオブジェクト識別情報と、座標とを対応づけて保持する。この座標は、画面上のオブジェクトの座標である。
The
補正係数管理テーブル101dは、補正係数の候補を保持するテーブルである。以下の説明において、補正係数の候補を仮の補正係数と表記する。図5は、補正係数管理テーブルのデータ構造の一例を示す図である。図5に示すように、この補正係数管理テーブル101dは、仮の補正係数と重要度フラグとを対応づけて保持する。ここで、重要度フラグは、該当する仮の補正係数が重要であるか否かを識別するためのフラグである。 The correction coefficient management table 101d is a table that holds correction coefficient candidates. In the following description, a correction coefficient candidate is referred to as a temporary correction coefficient. FIG. 5 is a diagram illustrating an example of the data structure of the correction coefficient management table. As shown in FIG. 5, the correction coefficient management table 101d holds a temporary correction coefficient and an importance flag in association with each other. Here, the importance flag is a flag for identifying whether or not the corresponding temporary correction coefficient is important.
補正係数データ101eは、角膜表面における反射像から求められるディスプレイ上の位置と、実際のディスプレイ上の位置との誤差を埋めるデータである。後述する注視位置検出部111は、この補正係数データ101eを利用して、利用者の注視位置を検出する。
The
図1の説明に戻る。カメラ102は、利用者の顔を撮影する装置である。カメラ102が利用者の顔を撮影する場合には、可視光または赤外線が利用者の目に照射されているものとする。カメラ102は、撮影した画像データを目検出部103、注視位置検出部111に出力する。
Returning to the description of FIG. The
なお、カメラ102は、入力部105から出力される制御信号に合わせて、画像データを目検出部103に出力する。この制御信号は、利用者がマウスをクリックしたタイミングや、タッチパネルをタッチしたタイミングに合わせて入力部105から出力される信号である。カメラ102は、注視位置検出部111に対しては、画像データを常時出力する。
The
目検出部103は、画像データに含まれる目の領域を検出する処理部である。目検出部103は、目の領域を検出した後に、目の領域の画像データを特徴量抽出部104に出力する。
The
目検出部103が、目の領域を検出する処理の一例について説明する。例えば、目検出部103は、人物の目の特徴を含むパターンを保持しており、このパターンと画像データとをマッチングさせることで、目が存在する領域を画像データから判定する。または、目検出部103は、画像データから目頭や目尻といった目の特徴点を画像データから抽出し、抽出した特徴点の位置を基にして、目の領域を判定してもよい。
An example of processing in which the
特徴量抽出部104は、目の領域の画像データから目の特徴量を抽出する処理部である。特徴量抽出部104は、抽出した特徴量を特徴量管理テーブル101aに登録する。
The feature
例えば、特徴量抽出部104は、画像データから目の瞳孔中心と、角膜反射像とを検出し、瞳孔中心と角膜反射像との距離を目の特徴量として抽出する。ここで、角膜反射像は、利用者の目に光りが入射することで発生する像である。図6は、目の特徴量を説明するための図である。図6に示すように、利用者の目20には、瞳孔中心21と、角膜反射像22とが存在する。例えば、目の特徴量は、瞳孔中心21の位置から、角膜反射像22の位置までの距離23に対応する。
For example, the feature
なお、特徴量抽出部104が抽出する特徴量は、利用者がマウスをクリックしたタイミングや、タッチパネルをタッチしたタイミングに対応するものとする。
Note that the feature value extracted by the feature
入力部105は、利用者が視線検出装置100に各種の情報を入力するために利用する入力装置である。例えば、入力部105は、キーボードやマウスなどに対応する。利用者は、入力部105を操作して、画面表示部106に表示されるオブジェクトを選択する。ここで、オブジェクトは、例えば、アイコン、フォルダ、ウインドウのボタンに対応する。また、利用者がログインする場合などには、入力部105を操作して、ID(Identification)やパスワード等を入力する。利用者が操作した情報は、入力部105から操作情報取得部107、補正係数算出部110に出力される。
The
また、例えば、入力部105は、利用者がマウスをクリックしたタイミングや、タッチパネルをタッチしたタイミングに合わせて、制御信号をカメラ102に出力する。
For example, the
図7は、利用者の操作例を示す図(1)である。図7に示す例では、利用者30は、マウス等を操作して、マウスポインタ31を移動させ、ウインドウのボタン32をクリックする。このように、ボタン32をクリックする場合、利用者30は、ボタン32を注視していると考えられる。
FIG. 7 is a diagram (1) illustrating a user operation example. In the example shown in FIG. 7, the
画面表示部106は、ディスプレイやタッチパネル等の表示装置に対応する。例えば、利用者は、画面表示部106に表示されるオブジェクトをタッチすることで、オブジェクトを選択する。利用者が操作した情報は、画面表示部106から操作情報取得部107に出力される。
The
図8は、利用者の操作例を示す図(2)である。図8に示す例では、利用者30は、利用者の手30aによって、タッチパネル上のアイコン33をタッチする。このように、アイコン33をタッチする場合、利用者30は、アイコン33を注視しているものと考えられる。
FIG. 8 is a diagram (2) illustrating a user operation example. In the example shown in FIG. 8, the
操作情報取得部107は、入力部105および画面表示部106から利用者の操作データを取得し、取得した操作データを選択オブジェクト判定部108に出力する。この操作データは、利用者がマウスポインタでクリックした画面上の座標、または、利用者がタッチした画面上の座標を含む。また、操作データは、マウスポインタをクリックした時点から所定の時間前までの、マウスポインタの移動速度を含む。マウスポインタの移動速度の単位は、例えばpixel数/秒となる。
The operation
選択オブジェクト判定部108は、操作データを基にして、利用者が選択したオブジェクトを判定する処理部である。例えば、選択オブジェクト判定部108は、クリックされた座標と、オブジェクト座標データ101cとを比較して、利用者が選択したオブジェクトを判定する。以下の説明において、利用者が選択したオブジェクトを選択オブジェクトと表記する。
The selected
例えば、選択オブジェクト判定部108は、クリックされた座標が(X1、Y1)の場合には、オブジェクト識別番号「1001」のオブジェクトを選択オブジェクトとして判定する。同様に、選択オブジェクト判定部108は、タッチされた座標が(X1、Y1)の場合には、オブジェクト識別番号「1001」のオブジェクトを選択オブジェクトとして判定する。選択オブジェクト判定部108は、選択オブジェクトの識別情報を重要度判定部109に出力する。また、選択オブジェクト判定部108は、操作データを重要度判定部109に出力する。
For example, if the clicked coordinates are (X1, Y1), the selected
重要度判定部109は、選択オブジェクトとその他のオブジェクトとの関係に基づいて、仮の補正係数の重要度を判定する処理部である。重要度判定部109は、注視判定部の一例である。ここで、仮の補正係数は、利用者が選択オブジェクトを選択した時点での視線から求められる画面上の座標と、選択オブジェクトとの誤差を補正する係数である。この仮の補正係数は、利用者が選択オブジェクトを選択する度に、後述の補正係数算出部110によって算出される。重要度判定部109は、仮の補正係数の重要度を「オブジェクト間の距離」、「オブジェクトの密度」、「マウスポインタの移動速度」に基づいて判定する。重要度判定部109は、判定結果を補正係数算出部110に出力する。
The
まず、重要度判定部109が、オブジェクト間の距離に基づいて重要度を判定する処理について説明する。選択オブジェクトと、他のオブジェクトとの距離が小さければ、利用者は、選択オブジェクトをより狭い領域で注視していると考えられ、注視具合が高い。このため、オブジェクト間の距離が小さい場合には、この時点で求められる仮の補正係数の重要度が高い。これに対して、選択オブジェクトと、他のオブジェクトとの距離が大きければ、利用者は、選択オブジェクトを広い領域で注視していると考えられ、注視具合が低い。このため、オブジェクト間の距離が大きい場合には、この時点で求められる仮の補正係数の重要度が低い。
First, a process in which the importance
具体的に、重要度判定部109は、選択オブジェクトの識別情報と、オブジェクト座標データ101cとを比較して、選択オブジェクトの座標を判定する。そして、重要度判定部109は、選択オブジェクトの座標とオブジェクト座標データ101cとを比較して、選択オブジェクトの座標と、この座標に最も近いオブジェクトの座標との距離を算出する。重要度判定部109は、算出した距離が所定の距離未満の場合には、仮の補正係数の重要度が高いと判定する。これに対して、重要度判定部109は、算出した距離が所定の距離以上の場合には、仮の補正係数の重要度が低いと判定する。
Specifically, the
重量度判定部109が、オブジェクトの密度に基づいて重要度を判定する処理について説明する。図9および図10は、オブジェクトの密度と利用者の注視具合との関係を説明するための図である。図9に示すように、選択オブジェクト34の周りに他のオブジェクト35〜41が密集している場合には、利用者は、選択オブジェクトを含む狭い領域34aを注視していると考えられ、注視具合が高い。このため、オブジェクトの密度が高い場合には、この時点で求められる仮の補正係数の重要度が高い。これに対して、図10に示すように、選択オブジェクト42の周りに他のオブジェクト43が密集していない場合には、利用者は、選択オブジェクトを含む広い領域42aを見ていると考えられ、注視具合が低い。このため、オブジェクトの密度が低い場合には、この時点で求められる仮の補正係数の重要度が低い。
A process in which the
具体的に、重要度判定部109は、選択オブジェクトの識別情報と、オブジェクト座標データ101cとを比較して、選択オブジェクトの座標を判定する。そして、重要度判定部109は、選択オブジェクトの座標とオブジェクト座標データ101cとを比較して、選択オブジェクトの座標を中心とした所定の範囲内に含まれるオブジェクトの数を計数する。重要度判定部109は、計数した数が所定の数以上の場合には、仮の補正係数の重要度が高いと判定する。これに対して、重要度判定部109は、計数した数が所定の数未満の場合には、仮の補正係数の重要度が低いと判定する。
Specifically, the
重要度判定部109が、マウスポインタの移動速度に基づいて重要度を判定する処理について説明する。図11は、目的のオブジェクトにマウスポインタを移動させる場合の挙動を説明するための図である。一般的に、利用者は、選択対象となるオブジェクト32とマウスポインタ31との距離が離れている場合には、マウスポインタを高速に移動させる。そして、利用者は、選択対象となるオブジェクト32とマウスポインタ31との距離が近づくにつれて、マウスポインタ31の位置を微調整するべく、移動速度を低速にする。
A process in which the importance
図12は、マウスポインタを選択対象となるオブジェクトまで移動させる場合の移動速度との関係を示す図である。図12の縦軸は移動速度の速さを示し、横軸は時間を示す。時間か経過するに従い、マウスポインタは、選択対象となるオブジェクトに近づくものとする。また、図12において、時間Tのタイミングで、選択対象のオブジェクトがクリックされるものとする。図12に示すように、時間がTに近づくにつれて、移動速度は小さくなる。 FIG. 12 is a diagram illustrating a relationship with a moving speed when the mouse pointer is moved to an object to be selected. The vertical axis in FIG. 12 indicates the speed of movement speed, and the horizontal axis indicates time. As the time elapses, the mouse pointer approaches the object to be selected. In FIG. 12, it is assumed that an object to be selected is clicked at time T. As shown in FIG. 12, as the time approaches T, the moving speed decreases.
すなわち、マウスポインタの移動速度が小さいと、利用者は、選択対象となるオブジェクトを注視していると考えられ、注視具合が高い。このため、移動速度が小さい場合には、この時点で求められる仮の補正係数の重要度が高い。これに対して、移動速度が大きいと、利用者は、選択対象となるオブジェクトを注視していないものと考えられ、注視具合が低い。このため、移動速度が大きい場合には、この時点で求められる仮の補正係数の重要度が低い。 That is, when the moving speed of the mouse pointer is low, it is considered that the user is gazing at the object to be selected, and the degree of gazing is high. For this reason, when the moving speed is low, the importance of the temporary correction coefficient obtained at this time is high. On the other hand, if the moving speed is high, it is considered that the user is not gazing at the object to be selected, and the degree of gazing is low. For this reason, when the moving speed is high, the importance of the temporary correction coefficient obtained at this time is low.
具体的に、重要度判定部109は、選択オブジェクトが選択されたタイミングから所定時間前のタイミングまでのマウスポインタの移動速度の平均値を算出する。そして、重要度判定部109は、移動速度の平均値が所定の速度未満の場合には、仮の補正係数の重要度が高いと判定する。これに対して、重要度判定部109は、移動速度の平均値が所定の速度以上の場合には、仮の補正係数の重要度が低いと判定する。
Specifically, the importance
補正係数算出部110は、複数の仮の補正係数と、この仮の補正係数の重要度に基づいて、補正係数を算出する処理部である。まず、補正係数算出部110が仮の補正係数を算出する処理について説明した後に、補正係数を算出する処理について説明する。
The correction
補正係数算出部110が仮の補正係数を算出する処理について説明する。補正係数算出部110は、入力部105から利用者識別情報を取得し、この利用者識別情報に対応する眼球半径の情報を個人パラメータ101bから取得する。そして、補正係数算出部110は、特徴点管理テーブル101aの特徴量と、眼球半径とを基にして利用者の視線θを算出する。特徴量をx、眼球半径をrとすると、視線θは式(1)によって算出できる。
θ=Asin−1(x/r)+B・・・(1)
式(1)のA、Bは、所定の定数である。
A process in which the correction
θ = Asin −1 (x / r) + B (1)
A and B in the formula (1) are predetermined constants.
補正係数算出部110は、視線θを算出した後に、視線θによって利用者が注視している画面上の座標を算出する。図13は、視線θと画面上の座標との関係を示す図である。図13に示すように、画面40と利用者の目41との距離をDとすると、座標Xと水平方向の視線θ1との関係は、式(2)によって表すことができる。
X=D×{a×tanθ1+b}・・・(2)
また、図示は省略するが、Y座標と重力方向の視線θ2との関係は、式(3)によって表すことができる。式(2)、(3)に含まれるa、bは仮の補正係数である。
Y=D×{a×tanθ2+b}・・・(3)
After calculating the line of sight θ, the correction
X = D × {a × tan θ 1 + b} (2)
Although not shown, the relationship between the Y coordinate and the line of sight θ 2 in the direction of gravity can be expressed by Expression (3). A and b included in the equations (2) and (3) are provisional correction coefficients.
Y = D × {a × tan θ 2 + b} (3)
補正係数算出部110は、オブジェクト座標データ101cから選択オブジェクトの座標を検出し、検出した座標と、式(2)、(3)から求められる座標との差が最小となる仮の補正係数a、bの値を特定する。補正係数算出部110は、利用者によってオブジェクトが選択される度に、仮の補正係数を順次算出し、補正係数管理テーブル101dに仮の補正係数を登録する。
The correction
なお、補正係数算出部110は、仮の補正係数を算出した時点で、重要度判定部109の判定結果を取得する。仮の補正係数の重要度が高いと判定されている場合には、仮の補正係数を補正係数管理テーブル101dに格納する際に、重要度フラグを「オン」にする。これに対して、補正係数算出部110は、仮の補正係数の重要度が低いと判定されている場合には、仮の補正係数を補正係数管理テーブル101dに格納する際に、重要度フラグを「オフ」にする。
The correction
続いて、補正係数算出部110が、上記算出した仮の補正係数を基にして、補正係数を算出する処理について説明する。補正係数算出部110は、仮の補正係数のうち、重要度フラグが「オン」となっている仮の補正係数に重み付けを行う。補正係数算出部110は、重み付けを行った仮の補正係数と、他の仮の補正係数を基にして、補正係数を算出する。
Subsequently, a process in which the correction
例えば、図5に示すように、仮の補正係数a2、b2の重要度フラグがオンとなり、他の仮の補正係数a1、b1、a3、b3の重要度フラグがオフとなる場合には、仮の補正係数a2、b2に重み付けを行って補正係数a、bを算出する。この場合、例えば、補正係数算出部110は、補正係数aを(a1+a2×2+a3)/4によって算出し、補正係数bを(b1+b2×2+b3)/4によって算出する。補正係数算出部110は、算出結果によって、補正係数データ101eを更新する。例えば、補正係数算出部110は、利用者が選択オブジェクトを選択して、特徴量が特徴量管理テーブル101aに登録される度に、上記処理を繰り返し実行する。
For example, as shown in FIG. 5, if the importance flags of the temporary correction coefficients a2 and b2 are turned on and the importance flags of the other temporary correction coefficients a1, b1, a3, and b3 are turned off, Correction coefficients a2 and b2 are weighted to calculate correction coefficients a and b. In this case, for example, the correction
注視位置検出部111は、利用者が注視している画面上の座標を検出する処理部である。注視位置検出部111は、検出した座標を画面制御部112に出力する。
The gaze
具体的に、注視位置検出部111は、目検出部103、特徴量抽出部104と同様にして、利用者の特徴量を抽出する。また、注視位置検出部111は、補正係数算出部110と同様にして、特徴量と眼球半径から利用者の視線θを算出する。注視位置検出部111は、視線θを算出した後に、視線θと、補正係数データ101eの補正係数と、式(2)、(3)に基づいて、利用者が注視する座標を算出する。視線位置検出部111は、上記処理を繰り返し実行する。
Specifically, the gaze
画面制御部112は、注視位置検出部111の検出結果に基づいて、各種の画面制御を実行する処理部である。例えば、画面制御部112は、所定時間、オブジェクトと視線から得られる座標とが重なっている場合には、該オブジェクトがクリックされたものと判定し、該オブジェクトを選択する。また、画面制御部112は、視線の座標の変化方向に合わせて、画面をスクロールさせる。また、画像制御部112は、所定時間、視線の座標が変化しない場合には、該座標の領域を拡大する。
The
次に、本実施例に係る視線検出装置100の処理手順について説明する。図14は、視線検出装置が補正係数を算出する場合の処理手順を示すフローチャートである。例えば、図14に示す処理は、利用者によってマウスがクリックされたことを契機にして実行される。図14に示すように、視線検出装置100は、操作データを取得し(ステップS101)、選択されたオブジェクトを判定する(ステップS102)。
Next, a processing procedure of the eye
視線検出装置100は、選択オブジェクトとその他のオブジェクトとの関係から、仮の補正係数の重要度を判定し、補正係数管理テーブル101dを更新する(ステップS103)。視線検出装置100は、補正係数管理テーブル101dを基にして、補正係数を算出する(ステップS104)。図14に示す処理は、利用者によってマウスがクリックされた場合に、繰り返し実行される。
The line-of-
次に、本実施例にかかる視線検出装置100の効果について説明する。視線検出装置100は、利用者がオブジェクトを選択する度に、仮の補正係数を求めておく。そして、視線検出装置100は、選択オブジェクトとその他のオブジェクトとの関係に基づいて、複数の仮の補正係数のうち、利用者の注視具合が高い場合に算出された仮の補正係数に重きをおき、補正係数を算出する。視線検出装置100は、利用者の操作に便乗して補正係数を算出するので、利用者に視線キャリブレーションを意識させることはない。このため、視線キャリブレーションを行う場合に、利用者にかかる負担を軽減させることができる。
Next, effects of the line-of-
また、視線検出装置100は、オブジェクト間の距離に基づいて、仮の補正係数の重み付けを行うので、利用者の注視具合が高い場合に算出された仮の補正係数の値を、補正係数の値により反映させることができる。このため、補正係数の精度が向上し、利用者の注視する座標を正確に算出することができる。
Further, since the line-of-
また、視線検出装置100は、オブジェクトの密度に基づいて、仮の補正係数の重み付けを行うので、利用者の注視具合が高い場合に算出された仮の補正係数の値を、補正係数の値により反映させることができる。このため、補正係数の精度が向上し、利用者の注視する座標を正確に算出することができる。
In addition, since the line-of-
また、視線検出装置100は、マウスポインタの移動速度に基づいて、仮の補正係数の重み付けを行うので、利用者の注視具合が高い場合に算出された仮の補正係数の値を、補正係数の値により反映させることができる。このため、補正係数の精度が向上し、利用者の注視する座標を正確に算出することができる。
In addition, since the line-of-
また、視線検出装置100は、個人パラメータ101bから利用者に対応する眼球半径の情報を取得し、この眼球半径の情報を利用して補正係数を算出する。このため、個人差による誤差をなくし、正確に補正係数を算出することができる。
The line-of-
次に、視線検出装置が、補正係数を算出する場合のその他の例について説明する。まず、オブジェクトの密度に基づいて、補正係数を算出する場合について説明する。あるタイミングでオブジェクトが選択された事象を事象1とし、事象1とは異なるタイミングで異なるオブジェクトが選択された事象を事象2とする。事象1および事象2の条件を下記に示すものとする。 Next, another example when the line-of-sight detection apparatus calculates a correction coefficient will be described. First, a case where the correction coefficient is calculated based on the density of the object will be described. An event in which an object is selected at a certain timing is referred to as event 1, and an event in which a different object is selected at a different timing from event 1 is referred to as event 2. The conditions for event 1 and event 2 are as follows.
事象1では、選択オブジェクトの周囲50pixel四方内に他のオブジェクトが5個存在するものとする。他のオブジェクトをそれぞれ他オブジェクト1〜5とする。選択オブジェクトと他オブジェクト1との距離を距離p11、選択オブジェクトと他オブジェクト2との距離をp12、選択オブジェクトと他オブジェクト3との距離をp13とする。また、選択オブジェクトと他オブジェクト4との距離をp14、選択オブジェクトと他オブジェクト5との距離をp15とする。また、選択オブジェクトを選択した場合に算出した仮の補正係数をa1、b1とする。 In event 1, it is assumed that there are five other objects in the 50 pixel square around the selected object. The other objects are referred to as other objects 1 to 5, respectively. The distance between the selected object and the other object 1 is a distance p11, the distance between the selected object and the other object 2 is p12, and the distance between the selected object and the other object 3 is p13. Further, the distance between the selected object and the other object 4 is p14, and the distance between the selected object and the other object 5 is p15. Further, the temporary correction coefficients calculated when the selected object is selected are a1 and b1.
事象2では、選択オブジェクトの周囲50pixel四方内に他のオブジェクトが2個存在するものとする。他のオブジェクトをそれぞれ他オブジェクト1,2とする。選択オブジェクトと他オブジェクト1との距離を距離p21、選択オブジェクトと他オブジェクト2との距離をp22とする。また、選択オブジェクトを選択した場合に算出した仮の補正係数をa2、b2とする。 In event 2, it is assumed that two other objects exist within 50 pixels square around the selected object. The other objects are referred to as other objects 1 and 2, respectively. The distance between the selected object and the other object 1 is a distance p21, and the distance between the selected object and the other object 2 is p22. Further, the temporary correction coefficients calculated when the selected object is selected are a2 and b2.
以上のように事象1、2を仮定した場合において、補正係数算出部110が、補正係数を算出する場合について説明する。例えば、補正係数算出部110は、選択オブジェクトの周囲50pixel四方内に存在する「他のオブジェクトの数」を重み付けの係数とする。この方法では、補正係数算出部110は、
a=(5×a1+2×a2)/7・・・(4)
b=(5×b1+2×b2)/7・・・(5)
によって、補正係数a、bを算出する。
A case where the correction
a = (5 × a1 + 2 × a2) / 7 (4)
b = (5 × b1 + 2 × b2) / 7 (5)
To calculate the correction coefficients a and b.
また、以上のように事象1、2を仮定した場合において、補正係数算出部110は「選択オブジェクトと他オブジェクトとの距離」を重み付けの係数としてもよい。この方法では、補正係数算出部110は、
a=1/k×{(1/p11+1/p12+1/p13+1/p14+1/p15)×a1+(1/p21+1/p22)×a2)}・・・(6)
b=1/k×{(1/p11+1/p12+1/p13+1/p14+1/p15)×b1+(1/p21+1/p22)×b2)}・・・(7)
によって、補正係数a、bを算出する。式(6)、(7)のkは、式(8)によって表される。
k=1/p11+1/p12+1/p13+1/p14+1/p15+1/p21+1/p22・・・(8)
Further, when events 1 and 2 are assumed as described above, the correction
a = 1 / k × {(1 / p11 + 1 / p12 + 1 / p13 + 1 / p14 + 1 / p15) × a1 + (1 / p21 + 1 / p22) × a2)} (6)
b = 1 / k × {(1 / p11 + 1 / p12 + 1 / p13 + 1 / p14 + 1 / p15) × b1 + (1 / p21 + 1 / p22) × b2)} (7)
To calculate the correction coefficients a and b. K in the equations (6) and (7) is expressed by the equation (8).
k = 1 / p11 + 1 / p12 + 1 / p13 + 1 / p14 + 1 / p15 + 1 / p21 + 1 / p22 (8)
次に、マウスポインタの移動速度に基づいて、補正係数を算出する場合について説明する。一事例として、マウスポインタの移動速度が基準値以下で停止するまでに5フレームの画像データが存在すると仮定する。時系列順に、第一フレーム、第二フレーム、第三フレーム、第四フレーム、第五フレームとする。ここでは、補正係数算出部110は、フレームが切り替わる度に、仮の補正係数を算出するものとする。
Next, a case where the correction coefficient is calculated based on the moving speed of the mouse pointer will be described. As an example, it is assumed that there are 5 frames of image data before the moving speed of the mouse pointer is stopped below a reference value. The first frame, the second frame, the third frame, the fourth frame, and the fifth frame are set in time series order. Here, it is assumed that the correction
第一フレームで求めた仮の補正係数をa1、b1とし、第二フレームで求めた仮の補正係数をa2、b2とし、第三フレームで求めた仮の補正係数をa3、b3とする。第四フレームで求めた仮の補正係数をa4、b4とし、第五フレームで求めた仮の補正係数をa5、b5とする。 The temporary correction coefficients obtained in the first frame are a1 and b1, the temporary correction coefficients obtained in the second frame are a2 and b2, and the temporary correction coefficients obtained in the third frame are a3 and b3. The provisional correction coefficients obtained in the fourth frame are a4 and b4, and the provisional correction coefficients obtained in the fifth frame are a5 and b5.
第一フレームにおけるマウスポインタの移動速度をv1、第二フレームにおけるマウスポインタの移動速度をv2、第三フレームにおけるマウスポインタの移動速度をv3とする。第四フレームにおけるマウスポインタの移動速度をv4、第五フレームにおけるマウスポインタの移動速度をv5とする。 The moving speed of the mouse pointer in the first frame is v1, the moving speed of the mouse pointer in the second frame is v2, and the moving speed of the mouse pointer in the third frame is v3. The moving speed of the mouse pointer in the fourth frame is v4, and the moving speed of the mouse pointer in the fifth frame is v5.
以上のように仮の補正係数および移動速度を仮定した場合において、補正係数算出部110は、例えば、
a=m×(a1/v1+a2/v2+a3/v3+a4/v4+a5/v5)・・・(9)
b=m×(b1/v1+b2/v2+b3/v3+b4/v4+b5/v5)・・・(10)
によって補正係数a、bを算出する。式(9)、(10)のmは、式(11)によって表される。
m=1/v1+1/v2+1/v3+1/v4+1/v5・・・(11)
In the case where the temporary correction coefficient and the moving speed are assumed as described above, the correction
a = m × (a1 / v1 + a2 / v2 + a3 / v3 + a4 / v4 + a5 / v5) (9)
b = m × (b1 / v1 + b2 / v2 + b3 / v3 + b4 / v4 + b5 / v5) (10)
To calculate correction coefficients a and b. M in the equations (9) and (10) is expressed by the equation (11).
m = 1 / v1 + 1 / v2 + 1 / v3 + 1 / v4 + 1 / v5 (11)
ところで、図1に示した目検出装置103、特徴量抽出部104、操作情報取得部107、選択オブジェクト判定部108、重要度判定部109、補正係数算出部110、注視位置検出部111、画面制御部112は、各種集積装置に対応する。この集積装置は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。または、上記処理部103、104、107〜112は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。
By the way, the
また、図1に示した記憶部101は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
Further, the
視線検出装置100は、既知のパーソナルコンピュータ、ワークステーション、携帯電話、PHS端末、移動体通信端末またはPDAなどの情報処理装置に、視線検出装置100の各機能を搭載することによって実現することもできる。
The line-of-
図15は、実施例にかかる視線検出装置を構成するコンピュータのハードウェア構成を示す図である。図15に示すように、このコンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、モニタ203を有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る媒体読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うネットワークインターフェース装置205を有する。また、コンピュータ200は、画像を撮影する複数のカメラ206と、各種情報を一時記憶するRAM207と、ハードディスク装置208を有する。各装置201〜208は、バス209に接続される。
FIG. 15 is a diagram illustrating a hardware configuration of a computer constituting the visual line detection device according to the embodiment. As illustrated in FIG. 15, the
そして、ハードディスク装置208は、補正係数算出プログラム208a、注視位置検出プログラム208b、各種データ208cを記憶する。補正係数算出プログラム208aは、目検出部103、特徴量抽出部104、操作情報取得部107、選択オブジェクト判定部108、補正係数算出部110と同様の機能を有する。注視位置検出部プログラム208bは、注視位置検出部111に対応する。各種データ208cは、特徴量管理テーブル101a、個人パラメータ101b、オブジェクト座標データ101d、補正係数管理テーブル101d、補正係数データ101eに対応する情報を含む。
The
CPU201は、補正係数算出部プログラム208a、注視位置検出プログラム208b、各種データ208cをハードディスク装置208から読み出してRAM207に展開する。補正係数算出プログラム208aは、補正係数算出プロセス207aとして機能する。注視位置検出プログラム208bは、注視位置検出プロセス207bとして機能する。補正係数算出プロセス207aは、各種データ207cを利用して、仮の補正係数に重み付けを行って補系係数を算出し、注視位置検出プロセス207bは、補正係数を利用して、利用者の注視する位置を検出する。
The
なお、上記の補正係数算出部プログラム208a、注視位置検出プログラム208bは、必ずしもハードディスク装置208に格納されている必要はない。例えば、CD−ROM等の記憶媒体に記憶されたプログラムを、コンピュータ200が読み出して実行するようにしてもよい。また、公衆回線、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等にこのプログラムを記憶させておき、コンピュータ200がこれらからプログラムを読み出して実行するようにしてもよい。
Note that the correction coefficient
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。 The following supplementary notes are further disclosed with respect to the embodiments including the above examples.
(付記1)画面に表示されたオブジェクトが利用者によって選択された場合に、選択されたオブジェクトと前記画面に表示された他のオブジェクトとの関係に基づいて、前記利用者が視線入力を行う場合の誤差を補正するための補正係数を算出する補正係数算出部と、
前記補正係数算出部により算出された前記補正係数と、前記利用者の目を被写体として含んだ画像から求められた該目に関する特徴量とに基づいて、前記利用者が注視している画面上の座標を検出する座標位置検出部と
を有することを特徴とする視線検出装置。
(Supplementary note 1) When an object displayed on the screen is selected by the user, the user performs a line-of-sight input based on the relationship between the selected object and another object displayed on the screen. A correction coefficient calculation unit for calculating a correction coefficient for correcting the error of
On the screen on which the user is gazing, based on the correction coefficient calculated by the correction coefficient calculation unit and a feature amount related to the eye obtained from an image including the user's eye as a subject A line-of-sight detection apparatus comprising: a coordinate position detection unit that detects coordinates.
(付記2)前記視線検出装置は更に、選択された前記オブジェクトと前記画面に表示された前記他のオブジェクトとの関係に基づいて、選択された前記オブジェクトを前記利用者が注視しているか否かを判定する注視判定部を有し、
前記補正係数算出部は、前記利用者によって前記オブジェクトが選択される度に仮の補正係数を算出し、算出した前記仮の補正係数のうち、前記注視判定部によってオブジェクトを注視していると判定された際に算出した仮の補正係数と、オブジェクトを注視していないと判定された際に算出した仮の補正係数にそれぞれ異なる重み付けを行い、重み付けを行った各仮の補正係数を基にして、補正係数を算出することを特徴とする付記1に記載の視線検出装置。
(Supplementary Note 2) The line-of-sight detection device further determines whether the user is gazing at the selected object based on the relationship between the selected object and the other object displayed on the screen. A gaze determination unit for determining
The correction coefficient calculation unit calculates a temporary correction coefficient every time the user selects the object, and determines that the gaze determination unit is gazing at the object among the calculated temporary correction coefficients. The temporary correction coefficient calculated when the object is calculated and the temporary correction coefficient calculated when it is determined that the object is not watched are weighted differently, and each weighted temporary correction coefficient is used as a basis. The line-of-sight detection apparatus according to appendix 1, wherein a correction coefficient is calculated.
(付記3)前記補正係数算出部は、選択されたオブジェクトと他のオブジェクトとの距離に基づいて仮の補正係数に重み付けを行い、補正係数を算出することを特徴とする付記2に記載の視線検出装置。 (Supplementary note 3) The line of sight according to supplementary note 2, wherein the correction coefficient calculation unit weights the temporary correction coefficient based on a distance between the selected object and another object, and calculates the correction coefficient. Detection device.
(付記4)前記補正係数算出部は、選択されたオブジェクト周辺の他のオブジェクトの密度に基づいて仮の補正係数の重み付けを行い、補正係数を算出することを特徴とする付記2に記載の視線検出装置。 (Supplementary note 4) The line of sight according to supplementary note 2, wherein the correction coefficient calculation unit calculates a correction coefficient by weighting a temporary correction coefficient based on a density of other objects around the selected object. Detection device.
(付記5)前記補正係数算出部は、オブジェクトが選択された時間から所定時間前までのマウスポインタの移動速度に基づいて仮の補正係数の重み付けを行い、補正係数を算出することを特徴とする付記2に記載の視線検出装置。 (Additional remark 5) The said correction coefficient calculation part weights a temporary correction coefficient based on the moving speed of the mouse pointer from the time when the object was selected to the predetermined time before, and calculates a correction coefficient, It is characterized by the above-mentioned. The line-of-sight detection device according to attachment 2.
(付記6)前記補正係数算出部は、利用者識別情報と眼球半径とを対応付けて記憶する記憶部参照し、入力された利用者識別情報を基にして、該利用者識別情報に対応する眼球半径を特定し、該眼球半径を更に利用して補正係数を算出することを特徴とする付記1〜5のいずれか一つに記載の視線検出装置。 (Additional remark 6) The said correction coefficient calculation part refers to the memory | storage part which matches and memorize | stores user identification information and an eyeball radius, and respond | corresponds to this user identification information based on the input user identification information The eye gaze detection apparatus according to any one of appendices 1 to 5, wherein an eyeball radius is specified and a correction coefficient is calculated by further using the eyeball radius.
(付記7)コンピュータに、
画面に表示されたオブジェクトが利用者によって選択された場合に、選択されたオブジェクトと前記画面に表示された他のオブジェクトとの関係に基づいて、前記利用者が視線入力を行う場合の誤差を補正するための補正係数を算出し、
算出された前記補正係数と、前記利用者の目を被写体として含んだ画像から求められた該目に関する特徴量とに基づいて、前記利用者が注視している画面上の座標を検出する処理を実行させる補正係数算出プログラム。
(Appendix 7)
When an object displayed on the screen is selected by the user, an error when the user performs eye-gaze input is corrected based on the relationship between the selected object and another object displayed on the screen. To calculate the correction coefficient to
A process of detecting coordinates on the screen on which the user is gazing based on the calculated correction coefficient and a feature amount related to the eye obtained from an image including the user's eye as a subject. Correction coefficient calculation program to be executed.
(付記8)さらに、選択された前記オブジェクトと前記画面に表示された前記他のオブジェクトとの関係に基づいて、選択された前記オブジェクトを前記利用者が注視しているか否かを判定する処理をコンピュータに実行させ、
前記補正係数を算出する場合に、利用者によってオブジェクトが選択される度に仮の補正係数を算出し、算出した仮の補正係数のうち、オブジェクトを注視していると判定された際に算出した仮の補正係数と、オブジェクトを注視していないと判定された際に算出した仮の補正係数にそれぞれ異なる重み付けを行い、重み付けを行った各仮の補正係数を基にして、補正係数を算出することを特徴とする付記7に記載の補正係数算出プログラム。
(Supplementary Note 8) Further, based on the relationship between the selected object and the other object displayed on the screen, a process of determining whether or not the user is gazing at the selected object Let the computer run,
When calculating the correction coefficient, a temporary correction coefficient is calculated each time an object is selected by the user, and is calculated when it is determined that the object is being watched out of the calculated temporary correction coefficients. The temporary correction coefficient and the temporary correction coefficient calculated when it is determined that the object is not watched are weighted differently, and the correction coefficient is calculated based on each weighted temporary correction coefficient. The correction coefficient calculation program according to appendix 7, characterized by:
(付記9)前記補正係数を算出する場合に、選択されたオブジェクトと他のオブジェクトとの距離に基づいて仮の補正係数に重み付けを行い、補正係数を算出することを特徴とする付記8に記載の補正係数算出プログラム。 (Supplementary note 9) The supplementary note 8, wherein when calculating the correction coefficient, the temporary correction coefficient is weighted based on a distance between the selected object and another object to calculate the correction coefficient. Correction coefficient calculation program.
(付記10)前記補正係数を算出する場合に、選択されたオブジェクト周辺の他のオブジェクトの密度に基づいて仮の補正係数の重み付けを行い、補正係数を算出することを特徴とする付記8に記載の補正係数算出プログラム。 (Additional remark 10) When calculating the said correction coefficient, weighting of a temporary correction coefficient is performed based on the density of the other object surrounding the selected object, and a correction coefficient is calculated, The additional coefficient 8 characterized by the above-mentioned. Correction coefficient calculation program.
(付記11)前記補正係数を算出する場合に、オブジェクトが選択された時間から所定時間前までのマウスポインタの移動速度に基づいて仮の補正係数の重み付けを行い、補正係数を算出することを特徴とする付記8に記載の補正係数算出プログラム。 (Supplementary Note 11) When calculating the correction coefficient, the correction coefficient is calculated by weighting the temporary correction coefficient based on the moving speed of the mouse pointer from the time when the object is selected to a predetermined time before. The correction coefficient calculation program according to appendix 8.
(付記12)前記補正係数を算出する場合に、利用者識別情報と眼球半径とを対応付けて記憶する記憶装置を参照し、入力された利用者識別情報を基にして、該利用者識別情報に対応する眼球半径を特定し、該眼球半径を更に利用して補正係数を算出することを特徴とする付記7〜11のいずれか一つに記載の補正係数算出プログラム。 (Additional remark 12) When calculating the said correction coefficient, with reference to the memory | storage device which matches and memorize | stores user identification information and an eyeball radius, based on the input user identification information, this user identification information The correction coefficient calculation program according to any one of appendices 7 to 11, characterized in that an eyeball radius corresponding to is specified and a correction coefficient is calculated by further using the eyeball radius.
100 視線検出装置
101 記憶部
102 カメラ
103 目検出部
104 特徴量抽出部
105 入力部
106 画面表示部
107 操作情報取得部
108 選択オブジェクト判定部
109 重要度判定部
110 補正係数算出部
111 注視位置検出部
112 画面制御部
DESCRIPTION OF
Claims (7)
前記補正係数算出部により算出された前記補正係数と、前記利用者の目を被写体として含んだ画像から求められた該目に関する特徴量とに基づいて、前記利用者が注視している画面上の座標を検出する座標位置検出部と
を有することを特徴とする視線検出装置。 When an object displayed on the screen is selected by the user, an error when the user performs eye-gaze input is corrected based on the relationship between the selected object and another object displayed on the screen. A correction coefficient calculation unit for calculating a correction coefficient for
On the screen on which the user is gazing, based on the correction coefficient calculated by the correction coefficient calculation unit and a feature amount related to the eye obtained from an image including the user's eye as a subject A line-of-sight detection apparatus comprising: a coordinate position detection unit that detects coordinates.
前記補正係数算出部は、前記利用者によって前記オブジェクトが選択される度に仮の補正係数を算出し、算出した前記仮の補正係数のうち、前記注視判定部によってオブジェクトを注視していると判定された際に算出した仮の補正係数と、オブジェクトを注視していないと判定された際に算出した仮の補正係数にそれぞれ異なる重み付けを行い、重み付けを行った各仮の補正係数を基にして、補正係数を算出することを特徴とする請求項1に記載の視線検出装置。 The line-of-sight detection device further determines whether the user is gazing at the selected object based on a relationship between the selected object and the other object displayed on the screen. Having a determination unit,
The correction coefficient calculation unit calculates a temporary correction coefficient every time the user selects the object, and determines that the gaze determination unit is gazing at the object among the calculated temporary correction coefficients. The temporary correction coefficient calculated when the object is calculated and the temporary correction coefficient calculated when it is determined that the object is not watched are weighted differently, and each weighted temporary correction coefficient is used as a basis. The gaze detection device according to claim 1, wherein a correction coefficient is calculated.
画面に表示されたオブジェクトが利用者によって選択された場合に、選択されたオブジェクトと前記画面に表示された他のオブジェクトとの関係に基づいて、前記利用者が視線入力を行う場合の誤差を補正するための補正係数を算出し、
算出された前記補正係数と、前記利用者の目を被写体として含んだ画像から求められた該目に関する特徴量とに基づいて、前記利用者が注視している画面上の座標を検出する処理を実行させる補正係数算出プログラム。 On the computer,
When an object displayed on the screen is selected by the user, an error when the user performs eye-gaze input is corrected based on the relationship between the selected object and another object displayed on the screen. To calculate the correction coefficient to
A process of detecting coordinates on the screen on which the user is gazing based on the calculated correction coefficient and a feature amount related to the eye obtained from an image including the user's eye as a subject. Correction coefficient calculation program to be executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010212061A JP5664064B2 (en) | 2010-09-22 | 2010-09-22 | Gaze detection device and correction coefficient calculation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010212061A JP5664064B2 (en) | 2010-09-22 | 2010-09-22 | Gaze detection device and correction coefficient calculation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012065781A true JP2012065781A (en) | 2012-04-05 |
JP5664064B2 JP5664064B2 (en) | 2015-02-04 |
Family
ID=46163784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010212061A Expired - Fee Related JP5664064B2 (en) | 2010-09-22 | 2010-09-22 | Gaze detection device and correction coefficient calculation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5664064B2 (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014021708A (en) * | 2012-07-18 | 2014-02-03 | Nikon Corp | Head-mounted information input/output device and head-mounted information input/output method |
KR20150025041A (en) * | 2013-08-28 | 2015-03-10 | 삼성전자주식회사 | Method and its apparatus for controlling a mouse cursor using eye recognition |
JP2015046111A (en) * | 2013-08-29 | 2015-03-12 | 株式会社Jvcケンウッド | Viewpoint detection device and viewpoint detection method |
JP2015521312A (en) * | 2012-05-04 | 2015-07-27 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | User input processing by target tracking |
EP2905680A1 (en) | 2014-02-10 | 2015-08-12 | Sony Corporation | Information processing apparatus, information processing method, and program |
WO2015125243A1 (en) * | 2014-02-19 | 2015-08-27 | 三菱電機株式会社 | Display control device, display control method for display control device, gaze direction detecting system, and callibration control method for gaze direction detecting system |
JP2015201161A (en) * | 2014-04-09 | 2015-11-12 | 由田新技股▲ふん▼有限公司 | Electronic device and method for operating the same |
JP2015207290A (en) * | 2014-04-22 | 2015-11-19 | レノボ・シンガポール・プライベート・リミテッド | Automatic gaze calibration |
WO2015189829A1 (en) * | 2014-06-12 | 2015-12-17 | Sr Labs S.R.L. | Device and method of calibration for an eye tracker and eye control equipment comprising said calibration device |
JP2017107511A (en) * | 2015-12-11 | 2017-06-15 | 富士通株式会社 | Information processing system, information processing method, and information processing program |
US9684373B2 (en) | 2014-02-10 | 2017-06-20 | Sony Corporation | Apparatus and method for automatic calibration of gaze detection |
JP2017146987A (en) * | 2017-04-20 | 2017-08-24 | 株式会社Jvcケンウッド | Viewpoint detection device and viewpoint detection method |
US9996172B2 (en) | 2014-06-11 | 2018-06-12 | Denso Corporation | Target setting apparatus |
DE112018006164B4 (en) * | 2018-01-05 | 2021-05-12 | Mitsubishi Electric Corporation | VISUAL DIRECTION CALIBRATION DEVICE, VISUAL DIRECTION CALIBRATION PROCEDURE, AND VISUAL DIRECTION CALIBRATION PROGRAM |
WO2022070746A1 (en) * | 2020-09-30 | 2022-04-07 | 株式会社ドワンゴ | Eye tracking system, eye tracking method, and eye tracking program |
CN114355174A (en) * | 2022-03-17 | 2022-04-15 | 杭州加速科技有限公司 | Method and device for measuring and calibrating carry chain delay |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1176165A (en) * | 1997-09-02 | 1999-03-23 | Sanyo Electric Co Ltd | Visual axis detection device |
JP2000010723A (en) * | 1998-06-18 | 2000-01-14 | Mr System Kenkyusho:Kk | Calibration method for sight sensor, sight input device, and program storage medium |
JP2003079577A (en) * | 2001-09-12 | 2003-03-18 | Nippon Telegr & Teleph Corp <Ntt> | Visual axis measuring apparatus and method, visual axis measuring program, and recording medium recording the same |
JP2006285715A (en) * | 2005-04-01 | 2006-10-19 | Konica Minolta Holdings Inc | Sight line detection system |
-
2010
- 2010-09-22 JP JP2010212061A patent/JP5664064B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1176165A (en) * | 1997-09-02 | 1999-03-23 | Sanyo Electric Co Ltd | Visual axis detection device |
JP2000010723A (en) * | 1998-06-18 | 2000-01-14 | Mr System Kenkyusho:Kk | Calibration method for sight sensor, sight input device, and program storage medium |
JP2003079577A (en) * | 2001-09-12 | 2003-03-18 | Nippon Telegr & Teleph Corp <Ntt> | Visual axis measuring apparatus and method, visual axis measuring program, and recording medium recording the same |
JP2006285715A (en) * | 2005-04-01 | 2006-10-19 | Konica Minolta Holdings Inc | Sight line detection system |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11650659B2 (en) | 2012-05-04 | 2023-05-16 | Sony Interactive Entertainment LLC | User input processing with eye tracking |
US10496159B2 (en) | 2012-05-04 | 2019-12-03 | Sony Interactive Entertainment America Llc | User input processing with eye tracking |
US9471763B2 (en) | 2012-05-04 | 2016-10-18 | Sony Interactive Entertainment America Llc | User input processing with eye tracking |
JP2015521312A (en) * | 2012-05-04 | 2015-07-27 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | User input processing by target tracking |
JP2014021708A (en) * | 2012-07-18 | 2014-02-03 | Nikon Corp | Head-mounted information input/output device and head-mounted information input/output method |
KR102133018B1 (en) * | 2013-08-28 | 2020-07-10 | 삼성전자주식회사 | Method and its apparatus for controlling a mouse cursor using eye recognition |
KR20150025041A (en) * | 2013-08-28 | 2015-03-10 | 삼성전자주식회사 | Method and its apparatus for controlling a mouse cursor using eye recognition |
JP2015046111A (en) * | 2013-08-29 | 2015-03-12 | 株式会社Jvcケンウッド | Viewpoint detection device and viewpoint detection method |
EP2905680A1 (en) | 2014-02-10 | 2015-08-12 | Sony Corporation | Information processing apparatus, information processing method, and program |
US9952667B2 (en) | 2014-02-10 | 2018-04-24 | Sony Corporation | Apparatus and method for calibration of gaze detection |
US9684373B2 (en) | 2014-02-10 | 2017-06-20 | Sony Corporation | Apparatus and method for automatic calibration of gaze detection |
WO2015125243A1 (en) * | 2014-02-19 | 2015-08-27 | 三菱電機株式会社 | Display control device, display control method for display control device, gaze direction detecting system, and callibration control method for gaze direction detecting system |
US9785235B2 (en) | 2014-02-19 | 2017-10-10 | Mitsubishi Electric Corporation | Display control apparatus, display control method of display control apparatus, and eye gaze direction detection system |
CN106028913A (en) * | 2014-02-19 | 2016-10-12 | 三菱电机株式会社 | Display control device, display control method for display control device, gaze direction detecting system, and callibration control method for gaze direction detecting system |
JP2015201161A (en) * | 2014-04-09 | 2015-11-12 | 由田新技股▲ふん▼有限公司 | Electronic device and method for operating the same |
JP2015207290A (en) * | 2014-04-22 | 2015-11-19 | レノボ・シンガポール・プライベート・リミテッド | Automatic gaze calibration |
US9996172B2 (en) | 2014-06-11 | 2018-06-12 | Denso Corporation | Target setting apparatus |
CN106659380A (en) * | 2014-06-12 | 2017-05-10 | Sr实验室有限公司 | Device and method of calibration for an eye tracker and eye control equipment comprising said calibration device |
US10664699B2 (en) | 2014-06-12 | 2020-05-26 | Sr Labs S.R.L. | Device and method of calibration for an eye tracker and eye control equipment comprising said calibration device |
WO2015189829A1 (en) * | 2014-06-12 | 2015-12-17 | Sr Labs S.R.L. | Device and method of calibration for an eye tracker and eye control equipment comprising said calibration device |
JP2017107511A (en) * | 2015-12-11 | 2017-06-15 | 富士通株式会社 | Information processing system, information processing method, and information processing program |
JP2017146987A (en) * | 2017-04-20 | 2017-08-24 | 株式会社Jvcケンウッド | Viewpoint detection device and viewpoint detection method |
DE112018006164B4 (en) * | 2018-01-05 | 2021-05-12 | Mitsubishi Electric Corporation | VISUAL DIRECTION CALIBRATION DEVICE, VISUAL DIRECTION CALIBRATION PROCEDURE, AND VISUAL DIRECTION CALIBRATION PROGRAM |
WO2022070746A1 (en) * | 2020-09-30 | 2022-04-07 | 株式会社ドワンゴ | Eye tracking system, eye tracking method, and eye tracking program |
JP2022057959A (en) * | 2020-09-30 | 2022-04-11 | 株式会社ドワンゴ | Eye tracking system, eye tracking method and eye tracking program |
CN114355174A (en) * | 2022-03-17 | 2022-04-15 | 杭州加速科技有限公司 | Method and device for measuring and calibrating carry chain delay |
CN114355174B (en) * | 2022-03-17 | 2022-06-17 | 杭州加速科技有限公司 | Method and device for measuring and calibrating carry chain delay |
Also Published As
Publication number | Publication date |
---|---|
JP5664064B2 (en) | 2015-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5664064B2 (en) | Gaze detection device and correction coefficient calculation program | |
US9727135B2 (en) | Gaze calibration | |
Xu et al. | Seeing double: Reconstructing obscured typed input from repeated compromising reflections | |
US9202280B2 (en) | Position estimation based rotation of switched off light source | |
JP6131540B2 (en) | Tablet terminal, operation reception method and operation reception program | |
CN106527693A (en) | Application control method and mobile terminal | |
EP2905680B1 (en) | Information processing apparatus, information processing method, and program | |
US9514524B2 (en) | Optical distortion compensation | |
CN105378595A (en) | Calibrating eye tracking system by touch input | |
US20160216837A1 (en) | Method and device for providing a touch-based user interface | |
US11789528B1 (en) | On-the-fly calibration for improved on-device eye tracking | |
JP2013215549A (en) | Image processing device, image processing program, and image processing method | |
CN111580665B (en) | Method and device for predicting fixation point, mobile terminal and storage medium | |
JP5949389B2 (en) | Detection apparatus, detection program, and detection method | |
US20150010206A1 (en) | Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium | |
US10481772B2 (en) | Widget displaying method and apparatus for use in flexible display device, and storage medium | |
CN109964202B (en) | Display control apparatus, display control method, and computer-readable storage medium | |
WO2018179661A1 (en) | Information processing apparatus, information processing method, and program | |
CN113116291A (en) | Calibration and calibration method and device for eyeball tracking, mobile terminal and storage medium | |
US9148537B1 (en) | Facial cues as commands | |
JP2014067203A (en) | Electronic apparatus, gazing point detection program, and gazing point detection method | |
JP6397508B2 (en) | Method and apparatus for generating a personal input panel | |
JP2017211723A (en) | Terminal apparatus and control program of touch panel | |
JP6613865B2 (en) | Reading range detection apparatus, reading range detection method, and reading range detection computer program | |
JP5371604B2 (en) | Imaging device, control method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130702 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5664064 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |