JP2012065781A - Line-of-sight detection device, and correction coefficient determination program - Google Patents

Line-of-sight detection device, and correction coefficient determination program Download PDF

Info

Publication number
JP2012065781A
JP2012065781A JP2010212061A JP2010212061A JP2012065781A JP 2012065781 A JP2012065781 A JP 2012065781A JP 2010212061 A JP2010212061 A JP 2010212061A JP 2010212061 A JP2010212061 A JP 2010212061A JP 2012065781 A JP2012065781 A JP 2012065781A
Authority
JP
Japan
Prior art keywords
correction coefficient
user
line
calculated
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010212061A
Other languages
Japanese (ja)
Other versions
JP5664064B2 (en
Inventor
Yoshihide Fujita
芳英 藤田
Satoru Nakajima
哲 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010212061A priority Critical patent/JP5664064B2/en
Publication of JP2012065781A publication Critical patent/JP2012065781A/en
Application granted granted Critical
Publication of JP5664064B2 publication Critical patent/JP5664064B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To carry out line-of-sight calibration without imposing a burden on a user.SOLUTION: The line-of-sight detection device 100 determines a temporary correction coefficient every time the user selects an object. The line-of-sight detection device 100 determines a correction coefficient by putting importance on the temporary correction coefficient determined when the gaze level of the user is high, based on the relation between the selected object and the other objects, out of a plurality of correction coefficients. The line-of-sight detection device 100 thus utilizes user operation to determine the correction coefficient without the user being aware of the line-of-sight calibration.

Description

本発明は、視線検出装置等に関する。   The present invention relates to a line-of-sight detection device and the like.

人の視線を検出する技術として、近赤外線等を利用者の眼球に照射して、角膜表面における反射像の位置から得られる角膜曲率中心と瞳孔中心から視線を検出するものがある。この技術を利用することで、利用者が注視するディスプレイ上の位置を判定することができる。例えば、利用者はキーボードを操作しなくても、ディスプレイ上のオブジェクトを注視することで、オブジェクトを選択することができる。   As a technique for detecting a person's line of sight, there is a technique for irradiating a user's eyeball with near infrared rays or the like and detecting the line of sight from the center of the corneal curvature obtained from the position of the reflected image on the corneal surface and the center of the pupil. By using this technique, it is possible to determine the position on the display where the user is gazing. For example, the user can select an object by gazing at the object on the display without operating the keyboard.

しかし、角膜表面における反射像を利用して検出される視線によって判定されるディスプレイ上の位置と、実際に利用者が注視している位置との間には誤差が生じる場合がある。誤差が生じると、利用者が視線によってディスプレイ上の所定のオブジェクトを選択しようとした場合には、意図しないオブジェクトが選択されてしまう場合がある。誤差が発生する要因としては、角膜表面における光の屈折率、眼球形状、眼球中心に対する基準点のズレなどがある。   However, there may be an error between the position on the display determined by the line of sight detected using the reflection image on the corneal surface and the position where the user is actually gazing. If an error occurs, an unintended object may be selected when the user tries to select a predetermined object on the display by his / her line of sight. Factors that cause errors include the refractive index of light on the corneal surface, the shape of the eyeball, and the deviation of the reference point with respect to the center of the eyeball.

上記の誤差を補正するために、視線キャリブレーションが行われる。この視線キャリブレーションでは、角膜表面における反射像から求められるディスプレイ上の位置と、実際のディスプレイ上の位置との誤差を埋める補正係数を算出する。この補正係数を利用することで、誤差がなくなり、利用者は快適にディスプレイ上のオブジェクトを選択することができる。   In order to correct the above error, line-of-sight calibration is performed. In this line-of-sight calibration, a correction coefficient that fills an error between the position on the display obtained from the reflection image on the cornea surface and the actual position on the display is calculated. By using this correction coefficient, there is no error, and the user can comfortably select an object on the display.

ここで、従来の視線キャリブレーションの一例について説明する。図16は、従来の視線キャリブレーションの一例を説明するための図である。図16に示すように、従来技術では、ディスプレイ10を複数の領域に分割し、領域内にパターン11を表示させる。このパターン11は、矢印の順に移動する。利用者は、ディスプレイ上に表示されるパターン11を順に追っていく。そして、従来技術では、パターン11が表示されている領域毎に、視線から判定したディスプレイ10上の位置と領域の位置との誤差を求め、この誤差が小さくなるような補正係数を算出する。   Here, an example of conventional line-of-sight calibration will be described. FIG. 16 is a diagram for explaining an example of conventional line-of-sight calibration. As shown in FIG. 16, in the related art, the display 10 is divided into a plurality of regions, and the pattern 11 is displayed in the regions. This pattern 11 moves in the order of the arrows. The user follows the pattern 11 displayed on the display in order. In the prior art, for each area where the pattern 11 is displayed, an error between the position on the display 10 determined from the line of sight and the position of the area is obtained, and a correction coefficient is calculated so as to reduce this error.

特許第4385197号公報Japanese Patent No. 4385197 特開2006−285715号公報JP 2006-285715 A

しかしながら、上述した従来技術では、視線キャリブレーションを実行する場合に、ユーザに係る負担が大きいという問題があった。   However, the above-described conventional technique has a problem that the burden on the user is large when the line-of-sight calibration is executed.

例えば、図16に示した方法により視線キャリブレーションを実行する場合には、利用者はディスプレイ10に表示されるパターン11を見続けることになり、時間もかかるため、利用者にとって大きな負担となる。   For example, when the line-of-sight calibration is executed by the method shown in FIG. 16, the user continues to watch the pattern 11 displayed on the display 10, which takes time, which is a heavy burden on the user.

開示の技術は、上記に鑑みてなされたものであって、利用者に負担をかけることなく視線キャリブレーションを実行することができる視線検出装置および補正係数算出プログラムを提供することを目的とする。   The disclosed technique has been made in view of the above, and an object thereof is to provide a gaze detection apparatus and a correction coefficient calculation program capable of performing gaze calibration without imposing a burden on the user.

開示の視線検出装置は、画面に表示されたオブジェクトが利用者によって選択された場合に、選択されたオブジェクトと画面に表示された他のオブジェクトとの関係に基づいて、利用者が視線入力を行う場合の誤差を補正するための補正係数を算出する補正係数算出部を有する。また、開示の視線検出装置は、補正係数と、利用者の目を被写体として含んだ画像から求められた該目に関する特徴量とに基づいて、利用者が注視している画面上の座標を検出する座標位置検出部を有することを要件とする。   In the disclosed gaze detection device, when an object displayed on the screen is selected by the user, the user performs gaze input based on the relationship between the selected object and another object displayed on the screen. A correction coefficient calculation unit for calculating a correction coefficient for correcting the error in the case. Further, the disclosed gaze detection device detects coordinates on the screen on which the user is gazing, based on the correction coefficient and the feature amount related to the eye obtained from an image including the user's eye as a subject. It is a requirement to have a coordinate position detection unit.

開示の視線検出装置によれば、利用者に負担をかけることなく視線キャリブレーションを実行することができるという効果を奏する。   According to the disclosed gaze detection apparatus, gaze calibration can be executed without imposing a burden on the user.

図1は、本実施例にかかる視線検出装置の機能構成を示す図である。FIG. 1 is a diagram illustrating a functional configuration of the visual line detection device according to the present embodiment. 図2は、特徴量管理テーブルのデータ構造の一例を示す図である。FIG. 2 is a diagram illustrating an example of a data structure of the feature amount management table. 図3は、個人パラメータのデータ構造の一例を示す図である。FIG. 3 is a diagram illustrating an example of a data structure of personal parameters. 図4は、オブジェクト座標データのデータ構造の一例を示す図である。FIG. 4 is a diagram illustrating an example of the data structure of the object coordinate data. 図5は、補正係数管理テーブルのデータ構造の一例を示す図である。FIG. 5 is a diagram illustrating an example of the data structure of the correction coefficient management table. 図6は、目の特徴量を説明するための図である。FIG. 6 is a diagram for explaining the feature amount of the eye. 図7は、利用者の操作例を示す図(1)である。FIG. 7 is a diagram (1) illustrating a user operation example. 図8は、利用者の操作例を示す図(2)である。FIG. 8 is a diagram (2) illustrating a user operation example. 図9は、オブジェクトの密度と利用者の注視具合との関係を説明するための図(1)である。FIG. 9 is a diagram (1) for explaining the relationship between the density of objects and the degree of gaze of the user. 図10は、オブジェクトの密度と利用者の注視具合との関係を説明するための図(2)である。FIG. 10 is a diagram (2) for explaining the relationship between the density of objects and the degree of gaze of the user. 図11は、目的のオブジェクトにマウスポインタを移動させる場合の挙動を説明するための図である。FIG. 11 is a diagram for explaining the behavior when the mouse pointer is moved to a target object. 図12は、マウスポインタを選択対象となるオブジェクトまで移動させる場合の移動速度との関係を示す図である。FIG. 12 is a diagram illustrating a relationship with a moving speed when the mouse pointer is moved to an object to be selected. 図13は、視線θと画面上の座標との関係を示す図である。FIG. 13 is a diagram illustrating the relationship between the line of sight θ and the coordinates on the screen. 図14は、視線検出装置が補正係数を算出する場合の処理手順を示すフローチャートである。FIG. 14 is a flowchart illustrating a processing procedure when the line-of-sight detection apparatus calculates a correction coefficient. 図15は、実施例にかかる視線検出装置を構成するコンピュータのハードウェア構成を示す図である。FIG. 15 is a diagram illustrating a hardware configuration of a computer constituting the visual line detection device according to the embodiment. 図16は、従来の視線キャリブレーションの一例を説明するための図である。FIG. 16 is a diagram for explaining an example of conventional line-of-sight calibration.

以下に、本願の開示する視線検出装置および補正係数算出プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。   Embodiments of a line-of-sight detection device and a correction coefficient calculation program disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

本実施例にかかる視線検出装置の構成について説明する。図1は、本実施例にかかる視線検出装置の機能構成を示す図である。図1に示すように、この視線検出装置100は、記憶部101、カメラ102、目検出部103、特徴量抽出部104、入力部105、画面表示部106、操作情報取得部107を有する。また、視線検出装置100は、選択オブジェクト判定部108、重要度判定部109、補正係数算出部110、注視位置検出部111、画面制御部112を有する。   A configuration of the line-of-sight detection apparatus according to the present embodiment will be described. FIG. 1 is a diagram illustrating a functional configuration of the visual line detection device according to the present embodiment. As illustrated in FIG. 1, the line-of-sight detection apparatus 100 includes a storage unit 101, a camera 102, an eye detection unit 103, a feature amount extraction unit 104, an input unit 105, a screen display unit 106, and an operation information acquisition unit 107. The line-of-sight detection apparatus 100 includes a selected object determination unit 108, an importance level determination unit 109, a correction coefficient calculation unit 110, a gaze position detection unit 111, and a screen control unit 112.

記憶部101は、利用者の視線キャリブレーションを実行するための各種データを記憶する記憶部である。図1に示すように、記憶部101は、特徴量管理テーブル101a、個人パラメータ101b、オブジェクト座標データ101c、補正係数管理テーブル101d、補正係数データ101eを記憶する。   The storage unit 101 is a storage unit that stores various data for executing the user's line-of-sight calibration. As shown in FIG. 1, the storage unit 101 stores a feature amount management table 101a, personal parameters 101b, object coordinate data 101c, a correction coefficient management table 101d, and correction coefficient data 101e.

このうち、特徴量管理テーブル101aは、特徴量を保持するテーブルである。この特徴量は、目の瞳孔中心と角膜反射像を基に特定される値である。目の瞳孔中心および角膜反射像の説明は後述する。図2は、特徴量管理テーブルのデータ構造の一例を示す図である。図2に示すように、特徴量管理テーブル101aでは、特徴量が順に記憶されている。   Among these, the feature amount management table 101a is a table that holds feature amounts. This feature amount is a value specified based on the pupil center of the eye and the cornea reflection image. The description of the pupil center of the eye and the cornea reflection image will be given later. FIG. 2 is a diagram illustrating an example of a data structure of the feature amount management table. As shown in FIG. 2, the feature amount management table 101a stores feature amounts in order.

個人パラメータ101bは、利用者毎の眼球半径を保持する。図3は、個人パラメータのデータ構造の一例を示す図である。図3に示すように、この個人パラメータ101bは、利用者を識別する利用者識別情報と、眼球半径とを対応づけて保持する。   The personal parameter 101b holds the eyeball radius for each user. FIG. 3 is a diagram illustrating an example of a data structure of personal parameters. As shown in FIG. 3, the personal parameter 101b holds user identification information for identifying a user and an eyeball radius in association with each other.

オブジェクト座標データ101cは、オブジェクトの画面上の座標を保持する。図4は、オブジェクト座標データのデータ構造の一例を示す図である。図4に示すように、このオブジェクト座標データ101cは、オブジェクトを識別するオブジェクト識別情報と、座標とを対応づけて保持する。この座標は、画面上のオブジェクトの座標である。   The object coordinate data 101c holds the coordinates of the object on the screen. FIG. 4 is a diagram illustrating an example of the data structure of the object coordinate data. As shown in FIG. 4, the object coordinate data 101c holds object identification information for identifying an object and coordinates in association with each other. These coordinates are the coordinates of the object on the screen.

補正係数管理テーブル101dは、補正係数の候補を保持するテーブルである。以下の説明において、補正係数の候補を仮の補正係数と表記する。図5は、補正係数管理テーブルのデータ構造の一例を示す図である。図5に示すように、この補正係数管理テーブル101dは、仮の補正係数と重要度フラグとを対応づけて保持する。ここで、重要度フラグは、該当する仮の補正係数が重要であるか否かを識別するためのフラグである。   The correction coefficient management table 101d is a table that holds correction coefficient candidates. In the following description, a correction coefficient candidate is referred to as a temporary correction coefficient. FIG. 5 is a diagram illustrating an example of the data structure of the correction coefficient management table. As shown in FIG. 5, the correction coefficient management table 101d holds a temporary correction coefficient and an importance flag in association with each other. Here, the importance flag is a flag for identifying whether or not the corresponding temporary correction coefficient is important.

補正係数データ101eは、角膜表面における反射像から求められるディスプレイ上の位置と、実際のディスプレイ上の位置との誤差を埋めるデータである。後述する注視位置検出部111は、この補正係数データ101eを利用して、利用者の注視位置を検出する。   The correction coefficient data 101e is data that fills an error between the position on the display obtained from the reflection image on the cornea surface and the actual position on the display. The gaze position detection unit 111 described later detects the gaze position of the user using the correction coefficient data 101e.

図1の説明に戻る。カメラ102は、利用者の顔を撮影する装置である。カメラ102が利用者の顔を撮影する場合には、可視光または赤外線が利用者の目に照射されているものとする。カメラ102は、撮影した画像データを目検出部103、注視位置検出部111に出力する。   Returning to the description of FIG. The camera 102 is a device that captures a user's face. When the camera 102 captures a user's face, it is assumed that visible light or infrared light is irradiated to the user's eyes. The camera 102 outputs the captured image data to the eye detection unit 103 and the gaze position detection unit 111.

なお、カメラ102は、入力部105から出力される制御信号に合わせて、画像データを目検出部103に出力する。この制御信号は、利用者がマウスをクリックしたタイミングや、タッチパネルをタッチしたタイミングに合わせて入力部105から出力される信号である。カメラ102は、注視位置検出部111に対しては、画像データを常時出力する。   The camera 102 outputs image data to the eye detection unit 103 in accordance with the control signal output from the input unit 105. This control signal is a signal output from the input unit 105 at the timing when the user clicks the mouse or touches the touch panel. The camera 102 always outputs image data to the gaze position detection unit 111.

目検出部103は、画像データに含まれる目の領域を検出する処理部である。目検出部103は、目の領域を検出した後に、目の領域の画像データを特徴量抽出部104に出力する。   The eye detection unit 103 is a processing unit that detects an eye region included in the image data. After detecting the eye area, the eye detection unit 103 outputs image data of the eye area to the feature amount extraction unit 104.

目検出部103が、目の領域を検出する処理の一例について説明する。例えば、目検出部103は、人物の目の特徴を含むパターンを保持しており、このパターンと画像データとをマッチングさせることで、目が存在する領域を画像データから判定する。または、目検出部103は、画像データから目頭や目尻といった目の特徴点を画像データから抽出し、抽出した特徴点の位置を基にして、目の領域を判定してもよい。   An example of processing in which the eye detection unit 103 detects an eye region will be described. For example, the eye detection unit 103 holds a pattern including the features of a person's eyes, and determines the region where the eye exists from the image data by matching this pattern with the image data. Alternatively, the eye detection unit 103 may extract eye feature points such as the eyes and the corners of the eye from the image data, and determine the eye region based on the extracted feature point positions.

特徴量抽出部104は、目の領域の画像データから目の特徴量を抽出する処理部である。特徴量抽出部104は、抽出した特徴量を特徴量管理テーブル101aに登録する。   The feature amount extraction unit 104 is a processing unit that extracts eye feature amounts from image data of the eye region. The feature amount extraction unit 104 registers the extracted feature amount in the feature amount management table 101a.

例えば、特徴量抽出部104は、画像データから目の瞳孔中心と、角膜反射像とを検出し、瞳孔中心と角膜反射像との距離を目の特徴量として抽出する。ここで、角膜反射像は、利用者の目に光りが入射することで発生する像である。図6は、目の特徴量を説明するための図である。図6に示すように、利用者の目20には、瞳孔中心21と、角膜反射像22とが存在する。例えば、目の特徴量は、瞳孔中心21の位置から、角膜反射像22の位置までの距離23に対応する。   For example, the feature amount extraction unit 104 detects the pupil center of the eye and the cornea reflection image from the image data, and extracts the distance between the pupil center and the cornea reflection image as the eye feature amount. Here, the corneal reflection image is an image generated when light enters the eyes of the user. FIG. 6 is a diagram for explaining the feature amount of the eye. As shown in FIG. 6, a pupil center 21 and a cornea reflection image 22 exist in the user's eye 20. For example, the eye feature amount corresponds to the distance 23 from the position of the pupil center 21 to the position of the cornea reflection image 22.

なお、特徴量抽出部104が抽出する特徴量は、利用者がマウスをクリックしたタイミングや、タッチパネルをタッチしたタイミングに対応するものとする。   Note that the feature value extracted by the feature value extraction unit 104 corresponds to the timing when the user clicks the mouse or touches the touch panel.

入力部105は、利用者が視線検出装置100に各種の情報を入力するために利用する入力装置である。例えば、入力部105は、キーボードやマウスなどに対応する。利用者は、入力部105を操作して、画面表示部106に表示されるオブジェクトを選択する。ここで、オブジェクトは、例えば、アイコン、フォルダ、ウインドウのボタンに対応する。また、利用者がログインする場合などには、入力部105を操作して、ID(Identification)やパスワード等を入力する。利用者が操作した情報は、入力部105から操作情報取得部107、補正係数算出部110に出力される。   The input unit 105 is an input device used by a user to input various types of information to the line-of-sight detection device 100. For example, the input unit 105 corresponds to a keyboard, a mouse, or the like. The user operates the input unit 105 to select an object displayed on the screen display unit 106. Here, the object corresponds to, for example, an icon, a folder, or a window button. Further, when a user logs in, the input unit 105 is operated to input an ID (Identification), a password, and the like. Information operated by the user is output from the input unit 105 to the operation information acquisition unit 107 and the correction coefficient calculation unit 110.

また、例えば、入力部105は、利用者がマウスをクリックしたタイミングや、タッチパネルをタッチしたタイミングに合わせて、制御信号をカメラ102に出力する。   For example, the input unit 105 outputs a control signal to the camera 102 in accordance with the timing when the user clicks the mouse or the timing when the user touches the touch panel.

図7は、利用者の操作例を示す図(1)である。図7に示す例では、利用者30は、マウス等を操作して、マウスポインタ31を移動させ、ウインドウのボタン32をクリックする。このように、ボタン32をクリックする場合、利用者30は、ボタン32を注視していると考えられる。   FIG. 7 is a diagram (1) illustrating a user operation example. In the example shown in FIG. 7, the user 30 operates the mouse or the like to move the mouse pointer 31 and clicks the window button 32. As described above, when the button 32 is clicked, it is considered that the user 30 is gazing at the button 32.

画面表示部106は、ディスプレイやタッチパネル等の表示装置に対応する。例えば、利用者は、画面表示部106に表示されるオブジェクトをタッチすることで、オブジェクトを選択する。利用者が操作した情報は、画面表示部106から操作情報取得部107に出力される。   The screen display unit 106 corresponds to a display device such as a display or a touch panel. For example, the user selects an object by touching the object displayed on the screen display unit 106. Information operated by the user is output from the screen display unit 106 to the operation information acquisition unit 107.

図8は、利用者の操作例を示す図(2)である。図8に示す例では、利用者30は、利用者の手30aによって、タッチパネル上のアイコン33をタッチする。このように、アイコン33をタッチする場合、利用者30は、アイコン33を注視しているものと考えられる。   FIG. 8 is a diagram (2) illustrating a user operation example. In the example shown in FIG. 8, the user 30 touches the icon 33 on the touch panel with the user's hand 30a. Thus, when the icon 33 is touched, it is considered that the user 30 is gazing at the icon 33.

操作情報取得部107は、入力部105および画面表示部106から利用者の操作データを取得し、取得した操作データを選択オブジェクト判定部108に出力する。この操作データは、利用者がマウスポインタでクリックした画面上の座標、または、利用者がタッチした画面上の座標を含む。また、操作データは、マウスポインタをクリックした時点から所定の時間前までの、マウスポインタの移動速度を含む。マウスポインタの移動速度の単位は、例えばpixel数/秒となる。   The operation information acquisition unit 107 acquires user operation data from the input unit 105 and the screen display unit 106, and outputs the acquired operation data to the selected object determination unit 108. This operation data includes coordinates on the screen clicked by the user with the mouse pointer or coordinates on the screen touched by the user. The operation data includes the moving speed of the mouse pointer from when the mouse pointer is clicked to a predetermined time. The unit of the moving speed of the mouse pointer is, for example, the number of pixels / second.

選択オブジェクト判定部108は、操作データを基にして、利用者が選択したオブジェクトを判定する処理部である。例えば、選択オブジェクト判定部108は、クリックされた座標と、オブジェクト座標データ101cとを比較して、利用者が選択したオブジェクトを判定する。以下の説明において、利用者が選択したオブジェクトを選択オブジェクトと表記する。   The selected object determination unit 108 is a processing unit that determines the object selected by the user based on the operation data. For example, the selected object determination unit 108 compares the clicked coordinates with the object coordinate data 101c to determine the object selected by the user. In the following description, an object selected by the user is referred to as a selected object.

例えば、選択オブジェクト判定部108は、クリックされた座標が(X1、Y1)の場合には、オブジェクト識別番号「1001」のオブジェクトを選択オブジェクトとして判定する。同様に、選択オブジェクト判定部108は、タッチされた座標が(X1、Y1)の場合には、オブジェクト識別番号「1001」のオブジェクトを選択オブジェクトとして判定する。選択オブジェクト判定部108は、選択オブジェクトの識別情報を重要度判定部109に出力する。また、選択オブジェクト判定部108は、操作データを重要度判定部109に出力する。   For example, if the clicked coordinates are (X1, Y1), the selected object determination unit 108 determines the object with the object identification number “1001” as the selected object. Similarly, when the touched coordinates are (X1, Y1), the selected object determination unit 108 determines the object with the object identification number “1001” as the selected object. The selected object determination unit 108 outputs the identification information of the selected object to the importance level determination unit 109. Further, the selected object determination unit 108 outputs the operation data to the importance level determination unit 109.

重要度判定部109は、選択オブジェクトとその他のオブジェクトとの関係に基づいて、仮の補正係数の重要度を判定する処理部である。重要度判定部109は、注視判定部の一例である。ここで、仮の補正係数は、利用者が選択オブジェクトを選択した時点での視線から求められる画面上の座標と、選択オブジェクトとの誤差を補正する係数である。この仮の補正係数は、利用者が選択オブジェクトを選択する度に、後述の補正係数算出部110によって算出される。重要度判定部109は、仮の補正係数の重要度を「オブジェクト間の距離」、「オブジェクトの密度」、「マウスポインタの移動速度」に基づいて判定する。重要度判定部109は、判定結果を補正係数算出部110に出力する。   The importance determination unit 109 is a processing unit that determines the importance of the temporary correction coefficient based on the relationship between the selected object and other objects. The importance level determination unit 109 is an example of a gaze determination unit. Here, the provisional correction coefficient is a coefficient that corrects an error between the selected object and the coordinates on the screen obtained from the line of sight when the user selects the selected object. The provisional correction coefficient is calculated by the correction coefficient calculation unit 110 described later every time the user selects the selected object. The importance level determination unit 109 determines the importance level of the temporary correction coefficient based on “distance between objects”, “density of objects”, and “moving speed of the mouse pointer”. The importance level determination unit 109 outputs the determination result to the correction coefficient calculation unit 110.

まず、重要度判定部109が、オブジェクト間の距離に基づいて重要度を判定する処理について説明する。選択オブジェクトと、他のオブジェクトとの距離が小さければ、利用者は、選択オブジェクトをより狭い領域で注視していると考えられ、注視具合が高い。このため、オブジェクト間の距離が小さい場合には、この時点で求められる仮の補正係数の重要度が高い。これに対して、選択オブジェクトと、他のオブジェクトとの距離が大きければ、利用者は、選択オブジェクトを広い領域で注視していると考えられ、注視具合が低い。このため、オブジェクト間の距離が大きい場合には、この時点で求められる仮の補正係数の重要度が低い。   First, a process in which the importance level determination unit 109 determines the importance level based on the distance between objects will be described. If the distance between the selected object and another object is small, it is considered that the user is gazing at the selected object in a narrower area, and the degree of gazing is high. For this reason, when the distance between objects is small, the importance of the temporary correction coefficient calculated | required at this time is high. On the other hand, if the distance between the selected object and another object is large, it is considered that the user is gazing at the selected object in a wide area, and the degree of gazing is low. For this reason, when the distance between objects is large, the importance of the temporary correction coefficient calculated | required at this time is low.

具体的に、重要度判定部109は、選択オブジェクトの識別情報と、オブジェクト座標データ101cとを比較して、選択オブジェクトの座標を判定する。そして、重要度判定部109は、選択オブジェクトの座標とオブジェクト座標データ101cとを比較して、選択オブジェクトの座標と、この座標に最も近いオブジェクトの座標との距離を算出する。重要度判定部109は、算出した距離が所定の距離未満の場合には、仮の補正係数の重要度が高いと判定する。これに対して、重要度判定部109は、算出した距離が所定の距離以上の場合には、仮の補正係数の重要度が低いと判定する。   Specifically, the importance determination unit 109 determines the coordinates of the selected object by comparing the identification information of the selected object with the object coordinate data 101c. Then, the importance level determination unit 109 compares the coordinates of the selected object with the object coordinate data 101c, and calculates the distance between the coordinates of the selected object and the coordinates of the object closest to this coordinate. The importance level determination unit 109 determines that the importance level of the temporary correction coefficient is high when the calculated distance is less than the predetermined distance. On the other hand, the importance level determination unit 109 determines that the importance level of the temporary correction coefficient is low when the calculated distance is equal to or greater than the predetermined distance.

重量度判定部109が、オブジェクトの密度に基づいて重要度を判定する処理について説明する。図9および図10は、オブジェクトの密度と利用者の注視具合との関係を説明するための図である。図9に示すように、選択オブジェクト34の周りに他のオブジェクト35〜41が密集している場合には、利用者は、選択オブジェクトを含む狭い領域34aを注視していると考えられ、注視具合が高い。このため、オブジェクトの密度が高い場合には、この時点で求められる仮の補正係数の重要度が高い。これに対して、図10に示すように、選択オブジェクト42の周りに他のオブジェクト43が密集していない場合には、利用者は、選択オブジェクトを含む広い領域42aを見ていると考えられ、注視具合が低い。このため、オブジェクトの密度が低い場合には、この時点で求められる仮の補正係数の重要度が低い。   A process in which the weight determination unit 109 determines the importance based on the density of the object will be described. FIG. 9 and FIG. 10 are diagrams for explaining the relationship between the object density and the user's gaze condition. As shown in FIG. 9, when other objects 35 to 41 are dense around the selected object 34, it is considered that the user is gazing at the narrow area 34 a including the selected object, Is expensive. For this reason, when the density of the object is high, the importance of the temporary correction coefficient obtained at this time is high. On the other hand, as shown in FIG. 10, when other objects 43 are not dense around the selected object 42, the user is considered to be viewing a wide area 42a including the selected object. The degree of gaze is low. For this reason, when the density of the object is low, the importance of the temporary correction coefficient obtained at this time is low.

具体的に、重要度判定部109は、選択オブジェクトの識別情報と、オブジェクト座標データ101cとを比較して、選択オブジェクトの座標を判定する。そして、重要度判定部109は、選択オブジェクトの座標とオブジェクト座標データ101cとを比較して、選択オブジェクトの座標を中心とした所定の範囲内に含まれるオブジェクトの数を計数する。重要度判定部109は、計数した数が所定の数以上の場合には、仮の補正係数の重要度が高いと判定する。これに対して、重要度判定部109は、計数した数が所定の数未満の場合には、仮の補正係数の重要度が低いと判定する。   Specifically, the importance determination unit 109 determines the coordinates of the selected object by comparing the identification information of the selected object with the object coordinate data 101c. Then, the importance level determination unit 109 compares the coordinates of the selected object with the object coordinate data 101c, and counts the number of objects included in a predetermined range centered on the coordinates of the selected object. The importance level determination unit 109 determines that the importance level of the temporary correction coefficient is high when the counted number is equal to or greater than the predetermined number. On the other hand, the importance level determination unit 109 determines that the importance level of the temporary correction coefficient is low when the counted number is less than the predetermined number.

重要度判定部109が、マウスポインタの移動速度に基づいて重要度を判定する処理について説明する。図11は、目的のオブジェクトにマウスポインタを移動させる場合の挙動を説明するための図である。一般的に、利用者は、選択対象となるオブジェクト32とマウスポインタ31との距離が離れている場合には、マウスポインタを高速に移動させる。そして、利用者は、選択対象となるオブジェクト32とマウスポインタ31との距離が近づくにつれて、マウスポインタ31の位置を微調整するべく、移動速度を低速にする。   A process in which the importance level determination unit 109 determines the importance level based on the moving speed of the mouse pointer will be described. FIG. 11 is a diagram for explaining the behavior when the mouse pointer is moved to a target object. Generally, when the distance between the object 32 to be selected and the mouse pointer 31 is large, the user moves the mouse pointer at high speed. Then, as the distance between the object 32 to be selected and the mouse pointer 31 decreases, the user decreases the moving speed to finely adjust the position of the mouse pointer 31.

図12は、マウスポインタを選択対象となるオブジェクトまで移動させる場合の移動速度との関係を示す図である。図12の縦軸は移動速度の速さを示し、横軸は時間を示す。時間か経過するに従い、マウスポインタは、選択対象となるオブジェクトに近づくものとする。また、図12において、時間Tのタイミングで、選択対象のオブジェクトがクリックされるものとする。図12に示すように、時間がTに近づくにつれて、移動速度は小さくなる。   FIG. 12 is a diagram illustrating a relationship with a moving speed when the mouse pointer is moved to an object to be selected. The vertical axis in FIG. 12 indicates the speed of movement speed, and the horizontal axis indicates time. As the time elapses, the mouse pointer approaches the object to be selected. In FIG. 12, it is assumed that an object to be selected is clicked at time T. As shown in FIG. 12, as the time approaches T, the moving speed decreases.

すなわち、マウスポインタの移動速度が小さいと、利用者は、選択対象となるオブジェクトを注視していると考えられ、注視具合が高い。このため、移動速度が小さい場合には、この時点で求められる仮の補正係数の重要度が高い。これに対して、移動速度が大きいと、利用者は、選択対象となるオブジェクトを注視していないものと考えられ、注視具合が低い。このため、移動速度が大きい場合には、この時点で求められる仮の補正係数の重要度が低い。   That is, when the moving speed of the mouse pointer is low, it is considered that the user is gazing at the object to be selected, and the degree of gazing is high. For this reason, when the moving speed is low, the importance of the temporary correction coefficient obtained at this time is high. On the other hand, if the moving speed is high, it is considered that the user is not gazing at the object to be selected, and the degree of gazing is low. For this reason, when the moving speed is high, the importance of the temporary correction coefficient obtained at this time is low.

具体的に、重要度判定部109は、選択オブジェクトが選択されたタイミングから所定時間前のタイミングまでのマウスポインタの移動速度の平均値を算出する。そして、重要度判定部109は、移動速度の平均値が所定の速度未満の場合には、仮の補正係数の重要度が高いと判定する。これに対して、重要度判定部109は、移動速度の平均値が所定の速度以上の場合には、仮の補正係数の重要度が低いと判定する。   Specifically, the importance level determination unit 109 calculates the average value of the moving speed of the mouse pointer from the timing when the selected object is selected to the timing before a predetermined time. Then, the importance level determination unit 109 determines that the importance level of the temporary correction coefficient is high when the average value of the moving speed is less than the predetermined speed. On the other hand, the importance level determination unit 109 determines that the importance level of the temporary correction coefficient is low when the average value of the moving speed is equal to or higher than the predetermined speed.

補正係数算出部110は、複数の仮の補正係数と、この仮の補正係数の重要度に基づいて、補正係数を算出する処理部である。まず、補正係数算出部110が仮の補正係数を算出する処理について説明した後に、補正係数を算出する処理について説明する。   The correction coefficient calculation unit 110 is a processing unit that calculates a correction coefficient based on a plurality of temporary correction coefficients and the importance of the temporary correction coefficient. First, after the correction coefficient calculation unit 110 has described the process of calculating the temporary correction coefficient, the process of calculating the correction coefficient will be described.

補正係数算出部110が仮の補正係数を算出する処理について説明する。補正係数算出部110は、入力部105から利用者識別情報を取得し、この利用者識別情報に対応する眼球半径の情報を個人パラメータ101bから取得する。そして、補正係数算出部110は、特徴点管理テーブル101aの特徴量と、眼球半径とを基にして利用者の視線θを算出する。特徴量をx、眼球半径をrとすると、視線θは式(1)によって算出できる。
θ=Asin−1(x/r)+B・・・(1)
式(1)のA、Bは、所定の定数である。
A process in which the correction coefficient calculation unit 110 calculates a temporary correction coefficient will be described. The correction coefficient calculation unit 110 acquires user identification information from the input unit 105, and acquires eyeball radius information corresponding to the user identification information from the personal parameter 101b. Then, the correction coefficient calculation unit 110 calculates the user's line of sight θ based on the feature amount of the feature point management table 101a and the eyeball radius. When the feature amount is x and the eyeball radius is r, the line of sight θ can be calculated by the equation (1).
θ = Asin −1 (x / r) + B (1)
A and B in the formula (1) are predetermined constants.

補正係数算出部110は、視線θを算出した後に、視線θによって利用者が注視している画面上の座標を算出する。図13は、視線θと画面上の座標との関係を示す図である。図13に示すように、画面40と利用者の目41との距離をDとすると、座標Xと水平方向の視線θとの関係は、式(2)によって表すことができる。
X=D×{a×tanθ+b}・・・(2)
また、図示は省略するが、Y座標と重力方向の視線θとの関係は、式(3)によって表すことができる。式(2)、(3)に含まれるa、bは仮の補正係数である。
Y=D×{a×tanθ+b}・・・(3)
After calculating the line of sight θ, the correction coefficient calculation unit 110 calculates the coordinates on the screen at which the user is gazing with the line of sight θ. FIG. 13 is a diagram illustrating the relationship between the line of sight θ and the coordinates on the screen. As shown in FIG. 13, when the distance between the screen 40 and the user's eye 41 is D, the relationship between the coordinate X and the horizontal line of sight θ 1 can be expressed by Expression (2).
X = D × {a × tan θ 1 + b} (2)
Although not shown, the relationship between the Y coordinate and the line of sight θ 2 in the direction of gravity can be expressed by Expression (3). A and b included in the equations (2) and (3) are provisional correction coefficients.
Y = D × {a × tan θ 2 + b} (3)

補正係数算出部110は、オブジェクト座標データ101cから選択オブジェクトの座標を検出し、検出した座標と、式(2)、(3)から求められる座標との差が最小となる仮の補正係数a、bの値を特定する。補正係数算出部110は、利用者によってオブジェクトが選択される度に、仮の補正係数を順次算出し、補正係数管理テーブル101dに仮の補正係数を登録する。   The correction coefficient calculation unit 110 detects the coordinates of the selected object from the object coordinate data 101c, and the temporary correction coefficient a, which minimizes the difference between the detected coordinates and the coordinates obtained from the equations (2) and (3). Specify the value of b. The correction coefficient calculation unit 110 sequentially calculates temporary correction coefficients each time an object is selected by the user, and registers the temporary correction coefficients in the correction coefficient management table 101d.

なお、補正係数算出部110は、仮の補正係数を算出した時点で、重要度判定部109の判定結果を取得する。仮の補正係数の重要度が高いと判定されている場合には、仮の補正係数を補正係数管理テーブル101dに格納する際に、重要度フラグを「オン」にする。これに対して、補正係数算出部110は、仮の補正係数の重要度が低いと判定されている場合には、仮の補正係数を補正係数管理テーブル101dに格納する際に、重要度フラグを「オフ」にする。   The correction coefficient calculation unit 110 acquires the determination result of the importance level determination unit 109 at the time when the temporary correction coefficient is calculated. When it is determined that the importance of the temporary correction coefficient is high, the importance flag is set to “ON” when the temporary correction coefficient is stored in the correction coefficient management table 101d. On the other hand, when it is determined that the importance of the temporary correction coefficient is low, the correction coefficient calculation unit 110 sets the importance flag when storing the temporary correction coefficient in the correction coefficient management table 101d. "Turn off.

続いて、補正係数算出部110が、上記算出した仮の補正係数を基にして、補正係数を算出する処理について説明する。補正係数算出部110は、仮の補正係数のうち、重要度フラグが「オン」となっている仮の補正係数に重み付けを行う。補正係数算出部110は、重み付けを行った仮の補正係数と、他の仮の補正係数を基にして、補正係数を算出する。   Subsequently, a process in which the correction coefficient calculation unit 110 calculates a correction coefficient based on the calculated temporary correction coefficient will be described. The correction coefficient calculation unit 110 weights temporary correction coefficients whose importance level flag is “on” among the temporary correction coefficients. The correction coefficient calculation unit 110 calculates a correction coefficient based on the weighted temporary correction coefficient and other temporary correction coefficients.

例えば、図5に示すように、仮の補正係数a2、b2の重要度フラグがオンとなり、他の仮の補正係数a1、b1、a3、b3の重要度フラグがオフとなる場合には、仮の補正係数a2、b2に重み付けを行って補正係数a、bを算出する。この場合、例えば、補正係数算出部110は、補正係数aを(a1+a2×2+a3)/4によって算出し、補正係数bを(b1+b2×2+b3)/4によって算出する。補正係数算出部110は、算出結果によって、補正係数データ101eを更新する。例えば、補正係数算出部110は、利用者が選択オブジェクトを選択して、特徴量が特徴量管理テーブル101aに登録される度に、上記処理を繰り返し実行する。   For example, as shown in FIG. 5, if the importance flags of the temporary correction coefficients a2 and b2 are turned on and the importance flags of the other temporary correction coefficients a1, b1, a3, and b3 are turned off, Correction coefficients a2 and b2 are weighted to calculate correction coefficients a and b. In this case, for example, the correction coefficient calculation unit 110 calculates the correction coefficient a by (a1 + a2 × 2 + a3) / 4, and calculates the correction coefficient b by (b1 + b2 × 2 + b3) / 4. The correction coefficient calculation unit 110 updates the correction coefficient data 101e with the calculation result. For example, the correction coefficient calculation unit 110 repeatedly executes the above process every time the user selects the selected object and the feature amount is registered in the feature amount management table 101a.

注視位置検出部111は、利用者が注視している画面上の座標を検出する処理部である。注視位置検出部111は、検出した座標を画面制御部112に出力する。   The gaze position detection unit 111 is a processing unit that detects coordinates on the screen on which the user is gazing. The gaze position detection unit 111 outputs the detected coordinates to the screen control unit 112.

具体的に、注視位置検出部111は、目検出部103、特徴量抽出部104と同様にして、利用者の特徴量を抽出する。また、注視位置検出部111は、補正係数算出部110と同様にして、特徴量と眼球半径から利用者の視線θを算出する。注視位置検出部111は、視線θを算出した後に、視線θと、補正係数データ101eの補正係数と、式(2)、(3)に基づいて、利用者が注視する座標を算出する。視線位置検出部111は、上記処理を繰り返し実行する。   Specifically, the gaze position detection unit 111 extracts the feature amount of the user in the same manner as the eye detection unit 103 and the feature amount extraction unit 104. The gaze position detection unit 111 calculates the user's line of sight θ from the feature amount and the eyeball radius in the same manner as the correction coefficient calculation unit 110. After calculating the line of sight θ, the gaze position detection unit 111 calculates the coordinates to be watched by the user based on the line of sight θ, the correction coefficient of the correction coefficient data 101e, and equations (2) and (3). The line-of-sight position detection unit 111 repeatedly executes the above processing.

画面制御部112は、注視位置検出部111の検出結果に基づいて、各種の画面制御を実行する処理部である。例えば、画面制御部112は、所定時間、オブジェクトと視線から得られる座標とが重なっている場合には、該オブジェクトがクリックされたものと判定し、該オブジェクトを選択する。また、画面制御部112は、視線の座標の変化方向に合わせて、画面をスクロールさせる。また、画像制御部112は、所定時間、視線の座標が変化しない場合には、該座標の領域を拡大する。   The screen control unit 112 is a processing unit that executes various screen controls based on the detection result of the gaze position detection unit 111. For example, if the object and the coordinates obtained from the line of sight overlap for a predetermined time, the screen control unit 112 determines that the object has been clicked and selects the object. In addition, the screen control unit 112 scrolls the screen in accordance with the change direction of the coordinates of the line of sight. In addition, when the coordinates of the line of sight do not change for a predetermined time, the image control unit 112 enlarges the area of the coordinates.

次に、本実施例に係る視線検出装置100の処理手順について説明する。図14は、視線検出装置が補正係数を算出する場合の処理手順を示すフローチャートである。例えば、図14に示す処理は、利用者によってマウスがクリックされたことを契機にして実行される。図14に示すように、視線検出装置100は、操作データを取得し(ステップS101)、選択されたオブジェクトを判定する(ステップS102)。   Next, a processing procedure of the eye gaze detection apparatus 100 according to the present embodiment will be described. FIG. 14 is a flowchart illustrating a processing procedure when the line-of-sight detection apparatus calculates a correction coefficient. For example, the process shown in FIG. 14 is executed when the user clicks the mouse. As shown in FIG. 14, the line-of-sight detection device 100 acquires operation data (step S101), and determines a selected object (step S102).

視線検出装置100は、選択オブジェクトとその他のオブジェクトとの関係から、仮の補正係数の重要度を判定し、補正係数管理テーブル101dを更新する(ステップS103)。視線検出装置100は、補正係数管理テーブル101dを基にして、補正係数を算出する(ステップS104)。図14に示す処理は、利用者によってマウスがクリックされた場合に、繰り返し実行される。   The line-of-sight detection apparatus 100 determines the importance of the temporary correction coefficient from the relationship between the selected object and other objects, and updates the correction coefficient management table 101d (step S103). The line-of-sight detection device 100 calculates a correction coefficient based on the correction coefficient management table 101d (step S104). The process shown in FIG. 14 is repeatedly executed when the user clicks the mouse.

次に、本実施例にかかる視線検出装置100の効果について説明する。視線検出装置100は、利用者がオブジェクトを選択する度に、仮の補正係数を求めておく。そして、視線検出装置100は、選択オブジェクトとその他のオブジェクトとの関係に基づいて、複数の仮の補正係数のうち、利用者の注視具合が高い場合に算出された仮の補正係数に重きをおき、補正係数を算出する。視線検出装置100は、利用者の操作に便乗して補正係数を算出するので、利用者に視線キャリブレーションを意識させることはない。このため、視線キャリブレーションを行う場合に、利用者にかかる負担を軽減させることができる。   Next, effects of the line-of-sight detection device 100 according to the present embodiment will be described. The line-of-sight detection apparatus 100 obtains a provisional correction coefficient every time the user selects an object. Then, the line-of-sight detection device 100 places emphasis on the temporary correction coefficient calculated when the degree of gaze of the user is high among a plurality of temporary correction coefficients based on the relationship between the selected object and other objects. Then, a correction coefficient is calculated. Since the line-of-sight detection apparatus 100 calculates the correction coefficient by taking advantage of the user's operation, the user is not made aware of the line-of-sight calibration. For this reason, when gaze calibration is performed, the burden placed on the user can be reduced.

また、視線検出装置100は、オブジェクト間の距離に基づいて、仮の補正係数の重み付けを行うので、利用者の注視具合が高い場合に算出された仮の補正係数の値を、補正係数の値により反映させることができる。このため、補正係数の精度が向上し、利用者の注視する座標を正確に算出することができる。   Further, since the line-of-sight detection device 100 performs weighting of the temporary correction coefficient based on the distance between the objects, the value of the temporary correction coefficient calculated when the user's gaze condition is high is used as the correction coefficient value. Can be reflected. For this reason, the accuracy of the correction coefficient is improved, and the coordinates of the user's gaze can be accurately calculated.

また、視線検出装置100は、オブジェクトの密度に基づいて、仮の補正係数の重み付けを行うので、利用者の注視具合が高い場合に算出された仮の補正係数の値を、補正係数の値により反映させることができる。このため、補正係数の精度が向上し、利用者の注視する座標を正確に算出することができる。   In addition, since the line-of-sight detection apparatus 100 weights the temporary correction coefficient based on the density of the object, the temporary correction coefficient value calculated when the user's gaze condition is high is calculated based on the correction coefficient value. It can be reflected. For this reason, the accuracy of the correction coefficient is improved, and the coordinates of the user's gaze can be accurately calculated.

また、視線検出装置100は、マウスポインタの移動速度に基づいて、仮の補正係数の重み付けを行うので、利用者の注視具合が高い場合に算出された仮の補正係数の値を、補正係数の値により反映させることができる。このため、補正係数の精度が向上し、利用者の注視する座標を正確に算出することができる。   In addition, since the line-of-sight detection device 100 weights the temporary correction coefficient based on the moving speed of the mouse pointer, the value of the temporary correction coefficient calculated when the user's gaze is high is used as the correction coefficient. It can be reflected by the value. For this reason, the accuracy of the correction coefficient is improved, and the coordinates of the user's gaze can be accurately calculated.

また、視線検出装置100は、個人パラメータ101bから利用者に対応する眼球半径の情報を取得し、この眼球半径の情報を利用して補正係数を算出する。このため、個人差による誤差をなくし、正確に補正係数を算出することができる。   The line-of-sight detection device 100 acquires information on the eyeball radius corresponding to the user from the personal parameter 101b, and calculates a correction coefficient using the information on the eyeball radius. For this reason, an error due to individual differences can be eliminated and the correction coefficient can be calculated accurately.

次に、視線検出装置が、補正係数を算出する場合のその他の例について説明する。まず、オブジェクトの密度に基づいて、補正係数を算出する場合について説明する。あるタイミングでオブジェクトが選択された事象を事象1とし、事象1とは異なるタイミングで異なるオブジェクトが選択された事象を事象2とする。事象1および事象2の条件を下記に示すものとする。   Next, another example when the line-of-sight detection apparatus calculates a correction coefficient will be described. First, a case where the correction coefficient is calculated based on the density of the object will be described. An event in which an object is selected at a certain timing is referred to as event 1, and an event in which a different object is selected at a different timing from event 1 is referred to as event 2. The conditions for event 1 and event 2 are as follows.

事象1では、選択オブジェクトの周囲50pixel四方内に他のオブジェクトが5個存在するものとする。他のオブジェクトをそれぞれ他オブジェクト1〜5とする。選択オブジェクトと他オブジェクト1との距離を距離p11、選択オブジェクトと他オブジェクト2との距離をp12、選択オブジェクトと他オブジェクト3との距離をp13とする。また、選択オブジェクトと他オブジェクト4との距離をp14、選択オブジェクトと他オブジェクト5との距離をp15とする。また、選択オブジェクトを選択した場合に算出した仮の補正係数をa1、b1とする。   In event 1, it is assumed that there are five other objects in the 50 pixel square around the selected object. The other objects are referred to as other objects 1 to 5, respectively. The distance between the selected object and the other object 1 is a distance p11, the distance between the selected object and the other object 2 is p12, and the distance between the selected object and the other object 3 is p13. Further, the distance between the selected object and the other object 4 is p14, and the distance between the selected object and the other object 5 is p15. Further, the temporary correction coefficients calculated when the selected object is selected are a1 and b1.

事象2では、選択オブジェクトの周囲50pixel四方内に他のオブジェクトが2個存在するものとする。他のオブジェクトをそれぞれ他オブジェクト1,2とする。選択オブジェクトと他オブジェクト1との距離を距離p21、選択オブジェクトと他オブジェクト2との距離をp22とする。また、選択オブジェクトを選択した場合に算出した仮の補正係数をa2、b2とする。   In event 2, it is assumed that two other objects exist within 50 pixels square around the selected object. The other objects are referred to as other objects 1 and 2, respectively. The distance between the selected object and the other object 1 is a distance p21, and the distance between the selected object and the other object 2 is p22. Further, the temporary correction coefficients calculated when the selected object is selected are a2 and b2.

以上のように事象1、2を仮定した場合において、補正係数算出部110が、補正係数を算出する場合について説明する。例えば、補正係数算出部110は、選択オブジェクトの周囲50pixel四方内に存在する「他のオブジェクトの数」を重み付けの係数とする。この方法では、補正係数算出部110は、
a=(5×a1+2×a2)/7・・・(4)
b=(5×b1+2×b2)/7・・・(5)
によって、補正係数a、bを算出する。
A case where the correction coefficient calculation unit 110 calculates the correction coefficient when the events 1 and 2 are assumed as described above will be described. For example, the correction coefficient calculation unit 110 sets “the number of other objects” existing within 50 pixels square around the selected object as a weighting coefficient. In this method, the correction coefficient calculation unit 110
a = (5 × a1 + 2 × a2) / 7 (4)
b = (5 × b1 + 2 × b2) / 7 (5)
To calculate the correction coefficients a and b.

また、以上のように事象1、2を仮定した場合において、補正係数算出部110は「選択オブジェクトと他オブジェクトとの距離」を重み付けの係数としてもよい。この方法では、補正係数算出部110は、
a=1/k×{(1/p11+1/p12+1/p13+1/p14+1/p15)×a1+(1/p21+1/p22)×a2)}・・・(6)
b=1/k×{(1/p11+1/p12+1/p13+1/p14+1/p15)×b1+(1/p21+1/p22)×b2)}・・・(7)
によって、補正係数a、bを算出する。式(6)、(7)のkは、式(8)によって表される。
k=1/p11+1/p12+1/p13+1/p14+1/p15+1/p21+1/p22・・・(8)
Further, when events 1 and 2 are assumed as described above, the correction coefficient calculation unit 110 may use “distance between the selected object and another object” as a weighting coefficient. In this method, the correction coefficient calculation unit 110
a = 1 / k × {(1 / p11 + 1 / p12 + 1 / p13 + 1 / p14 + 1 / p15) × a1 + (1 / p21 + 1 / p22) × a2)} (6)
b = 1 / k × {(1 / p11 + 1 / p12 + 1 / p13 + 1 / p14 + 1 / p15) × b1 + (1 / p21 + 1 / p22) × b2)} (7)
To calculate the correction coefficients a and b. K in the equations (6) and (7) is expressed by the equation (8).
k = 1 / p11 + 1 / p12 + 1 / p13 + 1 / p14 + 1 / p15 + 1 / p21 + 1 / p22 (8)

次に、マウスポインタの移動速度に基づいて、補正係数を算出する場合について説明する。一事例として、マウスポインタの移動速度が基準値以下で停止するまでに5フレームの画像データが存在すると仮定する。時系列順に、第一フレーム、第二フレーム、第三フレーム、第四フレーム、第五フレームとする。ここでは、補正係数算出部110は、フレームが切り替わる度に、仮の補正係数を算出するものとする。   Next, a case where the correction coefficient is calculated based on the moving speed of the mouse pointer will be described. As an example, it is assumed that there are 5 frames of image data before the moving speed of the mouse pointer is stopped below a reference value. The first frame, the second frame, the third frame, the fourth frame, and the fifth frame are set in time series order. Here, it is assumed that the correction coefficient calculation unit 110 calculates a temporary correction coefficient every time a frame is switched.

第一フレームで求めた仮の補正係数をa1、b1とし、第二フレームで求めた仮の補正係数をa2、b2とし、第三フレームで求めた仮の補正係数をa3、b3とする。第四フレームで求めた仮の補正係数をa4、b4とし、第五フレームで求めた仮の補正係数をa5、b5とする。   The temporary correction coefficients obtained in the first frame are a1 and b1, the temporary correction coefficients obtained in the second frame are a2 and b2, and the temporary correction coefficients obtained in the third frame are a3 and b3. The provisional correction coefficients obtained in the fourth frame are a4 and b4, and the provisional correction coefficients obtained in the fifth frame are a5 and b5.

第一フレームにおけるマウスポインタの移動速度をv1、第二フレームにおけるマウスポインタの移動速度をv2、第三フレームにおけるマウスポインタの移動速度をv3とする。第四フレームにおけるマウスポインタの移動速度をv4、第五フレームにおけるマウスポインタの移動速度をv5とする。   The moving speed of the mouse pointer in the first frame is v1, the moving speed of the mouse pointer in the second frame is v2, and the moving speed of the mouse pointer in the third frame is v3. The moving speed of the mouse pointer in the fourth frame is v4, and the moving speed of the mouse pointer in the fifth frame is v5.

以上のように仮の補正係数および移動速度を仮定した場合において、補正係数算出部110は、例えば、
a=m×(a1/v1+a2/v2+a3/v3+a4/v4+a5/v5)・・・(9)
b=m×(b1/v1+b2/v2+b3/v3+b4/v4+b5/v5)・・・(10)
によって補正係数a、bを算出する。式(9)、(10)のmは、式(11)によって表される。
m=1/v1+1/v2+1/v3+1/v4+1/v5・・・(11)
In the case where the temporary correction coefficient and the moving speed are assumed as described above, the correction coefficient calculation unit 110, for example,
a = m × (a1 / v1 + a2 / v2 + a3 / v3 + a4 / v4 + a5 / v5) (9)
b = m × (b1 / v1 + b2 / v2 + b3 / v3 + b4 / v4 + b5 / v5) (10)
To calculate correction coefficients a and b. M in the equations (9) and (10) is expressed by the equation (11).
m = 1 / v1 + 1 / v2 + 1 / v3 + 1 / v4 + 1 / v5 (11)

ところで、図1に示した目検出装置103、特徴量抽出部104、操作情報取得部107、選択オブジェクト判定部108、重要度判定部109、補正係数算出部110、注視位置検出部111、画面制御部112は、各種集積装置に対応する。この集積装置は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。または、上記処理部103、104、107〜112は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。   By the way, the eye detection device 103, the feature amount extraction unit 104, the operation information acquisition unit 107, the selection object determination unit 108, the importance determination unit 109, the correction coefficient calculation unit 110, the gaze position detection unit 111, the screen control illustrated in FIG. The unit 112 corresponds to various integrated devices. This integrated device corresponds to, for example, an integrated device such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). Alternatively, the processing units 103, 104, and 107 to 112 correspond to electronic circuits such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit).

また、図1に示した記憶部101は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。   Further, the storage unit 101 illustrated in FIG. 1 corresponds to, for example, a semiconductor memory device such as a random access memory (RAM), a read only memory (ROM), and a flash memory, or a storage device such as a hard disk or an optical disk. To do.

視線検出装置100は、既知のパーソナルコンピュータ、ワークステーション、携帯電話、PHS端末、移動体通信端末またはPDAなどの情報処理装置に、視線検出装置100の各機能を搭載することによって実現することもできる。   The line-of-sight detection apparatus 100 can also be realized by mounting each function of the line-of-sight detection apparatus 100 on an information processing apparatus such as a known personal computer, workstation, mobile phone, PHS terminal, mobile communication terminal, or PDA. .

図15は、実施例にかかる視線検出装置を構成するコンピュータのハードウェア構成を示す図である。図15に示すように、このコンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、モニタ203を有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る媒体読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うネットワークインターフェース装置205を有する。また、コンピュータ200は、画像を撮影する複数のカメラ206と、各種情報を一時記憶するRAM207と、ハードディスク装置208を有する。各装置201〜208は、バス209に接続される。   FIG. 15 is a diagram illustrating a hardware configuration of a computer constituting the visual line detection device according to the embodiment. As illustrated in FIG. 15, the computer 200 includes a CPU 201 that executes various arithmetic processes, an input device 202 that receives input of data from a user, and a monitor 203. The computer 200 includes a medium reading device 204 that reads a program and the like from a storage medium, and a network interface device 205 that exchanges data with other computers via a network. The computer 200 also includes a plurality of cameras 206 that capture images, a RAM 207 that temporarily stores various types of information, and a hard disk device 208. Each device 201 to 208 is connected to a bus 209.

そして、ハードディスク装置208は、補正係数算出プログラム208a、注視位置検出プログラム208b、各種データ208cを記憶する。補正係数算出プログラム208aは、目検出部103、特徴量抽出部104、操作情報取得部107、選択オブジェクト判定部108、補正係数算出部110と同様の機能を有する。注視位置検出部プログラム208bは、注視位置検出部111に対応する。各種データ208cは、特徴量管理テーブル101a、個人パラメータ101b、オブジェクト座標データ101d、補正係数管理テーブル101d、補正係数データ101eに対応する情報を含む。   The hard disk device 208 stores a correction coefficient calculation program 208a, a gaze position detection program 208b, and various data 208c. The correction coefficient calculation program 208a has the same functions as the eye detection unit 103, the feature amount extraction unit 104, the operation information acquisition unit 107, the selected object determination unit 108, and the correction coefficient calculation unit 110. The gaze position detection unit program 208 b corresponds to the gaze position detection unit 111. The various data 208c includes information corresponding to the feature amount management table 101a, personal parameters 101b, object coordinate data 101d, correction coefficient management table 101d, and correction coefficient data 101e.

CPU201は、補正係数算出部プログラム208a、注視位置検出プログラム208b、各種データ208cをハードディスク装置208から読み出してRAM207に展開する。補正係数算出プログラム208aは、補正係数算出プロセス207aとして機能する。注視位置検出プログラム208bは、注視位置検出プロセス207bとして機能する。補正係数算出プロセス207aは、各種データ207cを利用して、仮の補正係数に重み付けを行って補系係数を算出し、注視位置検出プロセス207bは、補正係数を利用して、利用者の注視する位置を検出する。   The CPU 201 reads out the correction coefficient calculation unit program 208 a, the gaze position detection program 208 b, and various data 208 c from the hard disk device 208 and develops them in the RAM 207. The correction coefficient calculation program 208a functions as a correction coefficient calculation process 207a. The gaze position detection program 208b functions as a gaze position detection process 207b. The correction coefficient calculation process 207a uses the various data 207c to weight the temporary correction coefficient to calculate a complement coefficient, and the gaze position detection process 207b uses the correction coefficient to watch the user. Detect position.

なお、上記の補正係数算出部プログラム208a、注視位置検出プログラム208bは、必ずしもハードディスク装置208に格納されている必要はない。例えば、CD−ROM等の記憶媒体に記憶されたプログラムを、コンピュータ200が読み出して実行するようにしてもよい。また、公衆回線、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等にこのプログラムを記憶させておき、コンピュータ200がこれらからプログラムを読み出して実行するようにしてもよい。   Note that the correction coefficient calculation unit program 208 a and the gaze position detection program 208 b described above are not necessarily stored in the hard disk device 208. For example, the computer 200 may read and execute a program stored in a storage medium such as a CD-ROM. Alternatively, the program may be stored in a public line, the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), or the like, and the computer 200 may read and execute the program.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)画面に表示されたオブジェクトが利用者によって選択された場合に、選択されたオブジェクトと前記画面に表示された他のオブジェクトとの関係に基づいて、前記利用者が視線入力を行う場合の誤差を補正するための補正係数を算出する補正係数算出部と、
前記補正係数算出部により算出された前記補正係数と、前記利用者の目を被写体として含んだ画像から求められた該目に関する特徴量とに基づいて、前記利用者が注視している画面上の座標を検出する座標位置検出部と
を有することを特徴とする視線検出装置。
(Supplementary note 1) When an object displayed on the screen is selected by the user, the user performs a line-of-sight input based on the relationship between the selected object and another object displayed on the screen. A correction coefficient calculation unit for calculating a correction coefficient for correcting the error of
On the screen on which the user is gazing, based on the correction coefficient calculated by the correction coefficient calculation unit and a feature amount related to the eye obtained from an image including the user's eye as a subject A line-of-sight detection apparatus comprising: a coordinate position detection unit that detects coordinates.

(付記2)前記視線検出装置は更に、選択された前記オブジェクトと前記画面に表示された前記他のオブジェクトとの関係に基づいて、選択された前記オブジェクトを前記利用者が注視しているか否かを判定する注視判定部を有し、
前記補正係数算出部は、前記利用者によって前記オブジェクトが選択される度に仮の補正係数を算出し、算出した前記仮の補正係数のうち、前記注視判定部によってオブジェクトを注視していると判定された際に算出した仮の補正係数と、オブジェクトを注視していないと判定された際に算出した仮の補正係数にそれぞれ異なる重み付けを行い、重み付けを行った各仮の補正係数を基にして、補正係数を算出することを特徴とする付記1に記載の視線検出装置。
(Supplementary Note 2) The line-of-sight detection device further determines whether the user is gazing at the selected object based on the relationship between the selected object and the other object displayed on the screen. A gaze determination unit for determining
The correction coefficient calculation unit calculates a temporary correction coefficient every time the user selects the object, and determines that the gaze determination unit is gazing at the object among the calculated temporary correction coefficients. The temporary correction coefficient calculated when the object is calculated and the temporary correction coefficient calculated when it is determined that the object is not watched are weighted differently, and each weighted temporary correction coefficient is used as a basis. The line-of-sight detection apparatus according to appendix 1, wherein a correction coefficient is calculated.

(付記3)前記補正係数算出部は、選択されたオブジェクトと他のオブジェクトとの距離に基づいて仮の補正係数に重み付けを行い、補正係数を算出することを特徴とする付記2に記載の視線検出装置。 (Supplementary note 3) The line of sight according to supplementary note 2, wherein the correction coefficient calculation unit weights the temporary correction coefficient based on a distance between the selected object and another object, and calculates the correction coefficient. Detection device.

(付記4)前記補正係数算出部は、選択されたオブジェクト周辺の他のオブジェクトの密度に基づいて仮の補正係数の重み付けを行い、補正係数を算出することを特徴とする付記2に記載の視線検出装置。 (Supplementary note 4) The line of sight according to supplementary note 2, wherein the correction coefficient calculation unit calculates a correction coefficient by weighting a temporary correction coefficient based on a density of other objects around the selected object. Detection device.

(付記5)前記補正係数算出部は、オブジェクトが選択された時間から所定時間前までのマウスポインタの移動速度に基づいて仮の補正係数の重み付けを行い、補正係数を算出することを特徴とする付記2に記載の視線検出装置。 (Additional remark 5) The said correction coefficient calculation part weights a temporary correction coefficient based on the moving speed of the mouse pointer from the time when the object was selected to the predetermined time before, and calculates a correction coefficient, It is characterized by the above-mentioned. The line-of-sight detection device according to attachment 2.

(付記6)前記補正係数算出部は、利用者識別情報と眼球半径とを対応付けて記憶する記憶部参照し、入力された利用者識別情報を基にして、該利用者識別情報に対応する眼球半径を特定し、該眼球半径を更に利用して補正係数を算出することを特徴とする付記1〜5のいずれか一つに記載の視線検出装置。 (Additional remark 6) The said correction coefficient calculation part refers to the memory | storage part which matches and memorize | stores user identification information and an eyeball radius, and respond | corresponds to this user identification information based on the input user identification information The eye gaze detection apparatus according to any one of appendices 1 to 5, wherein an eyeball radius is specified and a correction coefficient is calculated by further using the eyeball radius.

(付記7)コンピュータに、
画面に表示されたオブジェクトが利用者によって選択された場合に、選択されたオブジェクトと前記画面に表示された他のオブジェクトとの関係に基づいて、前記利用者が視線入力を行う場合の誤差を補正するための補正係数を算出し、
算出された前記補正係数と、前記利用者の目を被写体として含んだ画像から求められた該目に関する特徴量とに基づいて、前記利用者が注視している画面上の座標を検出する処理を実行させる補正係数算出プログラム。
(Appendix 7)
When an object displayed on the screen is selected by the user, an error when the user performs eye-gaze input is corrected based on the relationship between the selected object and another object displayed on the screen. To calculate the correction coefficient to
A process of detecting coordinates on the screen on which the user is gazing based on the calculated correction coefficient and a feature amount related to the eye obtained from an image including the user's eye as a subject. Correction coefficient calculation program to be executed.

(付記8)さらに、選択された前記オブジェクトと前記画面に表示された前記他のオブジェクトとの関係に基づいて、選択された前記オブジェクトを前記利用者が注視しているか否かを判定する処理をコンピュータに実行させ、
前記補正係数を算出する場合に、利用者によってオブジェクトが選択される度に仮の補正係数を算出し、算出した仮の補正係数のうち、オブジェクトを注視していると判定された際に算出した仮の補正係数と、オブジェクトを注視していないと判定された際に算出した仮の補正係数にそれぞれ異なる重み付けを行い、重み付けを行った各仮の補正係数を基にして、補正係数を算出することを特徴とする付記7に記載の補正係数算出プログラム。
(Supplementary Note 8) Further, based on the relationship between the selected object and the other object displayed on the screen, a process of determining whether or not the user is gazing at the selected object Let the computer run,
When calculating the correction coefficient, a temporary correction coefficient is calculated each time an object is selected by the user, and is calculated when it is determined that the object is being watched out of the calculated temporary correction coefficients. The temporary correction coefficient and the temporary correction coefficient calculated when it is determined that the object is not watched are weighted differently, and the correction coefficient is calculated based on each weighted temporary correction coefficient. The correction coefficient calculation program according to appendix 7, characterized by:

(付記9)前記補正係数を算出する場合に、選択されたオブジェクトと他のオブジェクトとの距離に基づいて仮の補正係数に重み付けを行い、補正係数を算出することを特徴とする付記8に記載の補正係数算出プログラム。 (Supplementary note 9) The supplementary note 8, wherein when calculating the correction coefficient, the temporary correction coefficient is weighted based on a distance between the selected object and another object to calculate the correction coefficient. Correction coefficient calculation program.

(付記10)前記補正係数を算出する場合に、選択されたオブジェクト周辺の他のオブジェクトの密度に基づいて仮の補正係数の重み付けを行い、補正係数を算出することを特徴とする付記8に記載の補正係数算出プログラム。 (Additional remark 10) When calculating the said correction coefficient, weighting of a temporary correction coefficient is performed based on the density of the other object surrounding the selected object, and a correction coefficient is calculated, The additional coefficient 8 characterized by the above-mentioned. Correction coefficient calculation program.

(付記11)前記補正係数を算出する場合に、オブジェクトが選択された時間から所定時間前までのマウスポインタの移動速度に基づいて仮の補正係数の重み付けを行い、補正係数を算出することを特徴とする付記8に記載の補正係数算出プログラム。 (Supplementary Note 11) When calculating the correction coefficient, the correction coefficient is calculated by weighting the temporary correction coefficient based on the moving speed of the mouse pointer from the time when the object is selected to a predetermined time before. The correction coefficient calculation program according to appendix 8.

(付記12)前記補正係数を算出する場合に、利用者識別情報と眼球半径とを対応付けて記憶する記憶装置を参照し、入力された利用者識別情報を基にして、該利用者識別情報に対応する眼球半径を特定し、該眼球半径を更に利用して補正係数を算出することを特徴とする付記7〜11のいずれか一つに記載の補正係数算出プログラム。 (Additional remark 12) When calculating the said correction coefficient, with reference to the memory | storage device which matches and memorize | stores user identification information and an eyeball radius, based on the input user identification information, this user identification information The correction coefficient calculation program according to any one of appendices 7 to 11, characterized in that an eyeball radius corresponding to is specified and a correction coefficient is calculated by further using the eyeball radius.

100 視線検出装置
101 記憶部
102 カメラ
103 目検出部
104 特徴量抽出部
105 入力部
106 画面表示部
107 操作情報取得部
108 選択オブジェクト判定部
109 重要度判定部
110 補正係数算出部
111 注視位置検出部
112 画面制御部
DESCRIPTION OF SYMBOLS 100 Eye-gaze detection apparatus 101 Memory | storage part 102 Camera 103 Eye detection part 104 Feature-value extraction part 105 Input part 106 Screen display part 107 Operation information acquisition part 108 Selected object determination part 109 Importance determination part 110 Correction coefficient calculation part 111 Gaze position detection part 112 Screen controller

Claims (7)

画面に表示されたオブジェクトが利用者によって選択された場合に、選択されたオブジェクトと前記画面に表示された他のオブジェクトとの関係に基づいて、前記利用者が視線入力を行う場合の誤差を補正するための補正係数を算出する補正係数算出部と、
前記補正係数算出部により算出された前記補正係数と、前記利用者の目を被写体として含んだ画像から求められた該目に関する特徴量とに基づいて、前記利用者が注視している画面上の座標を検出する座標位置検出部と
を有することを特徴とする視線検出装置。
When an object displayed on the screen is selected by the user, an error when the user performs eye-gaze input is corrected based on the relationship between the selected object and another object displayed on the screen. A correction coefficient calculation unit for calculating a correction coefficient for
On the screen on which the user is gazing, based on the correction coefficient calculated by the correction coefficient calculation unit and a feature amount related to the eye obtained from an image including the user's eye as a subject A line-of-sight detection apparatus comprising: a coordinate position detection unit that detects coordinates.
前記視線検出装置は更に、選択された前記オブジェクトと前記画面に表示された前記他のオブジェクトとの関係に基づいて、選択された前記オブジェクトを前記利用者が注視しているか否かを判定する注視判定部を有し、
前記補正係数算出部は、前記利用者によって前記オブジェクトが選択される度に仮の補正係数を算出し、算出した前記仮の補正係数のうち、前記注視判定部によってオブジェクトを注視していると判定された際に算出した仮の補正係数と、オブジェクトを注視していないと判定された際に算出した仮の補正係数にそれぞれ異なる重み付けを行い、重み付けを行った各仮の補正係数を基にして、補正係数を算出することを特徴とする請求項1に記載の視線検出装置。
The line-of-sight detection device further determines whether the user is gazing at the selected object based on a relationship between the selected object and the other object displayed on the screen. Having a determination unit,
The correction coefficient calculation unit calculates a temporary correction coefficient every time the user selects the object, and determines that the gaze determination unit is gazing at the object among the calculated temporary correction coefficients. The temporary correction coefficient calculated when the object is calculated and the temporary correction coefficient calculated when it is determined that the object is not watched are weighted differently, and each weighted temporary correction coefficient is used as a basis. The gaze detection device according to claim 1, wherein a correction coefficient is calculated.
前記補正係数算出部は、選択されたオブジェクトと他のオブジェクトとの距離に基づいて仮の補正係数に重み付けを行い、補正係数を算出することを特徴とする請求項2に記載の視線検出装置。   The visual axis detection device according to claim 2, wherein the correction coefficient calculation unit weights the temporary correction coefficient based on a distance between the selected object and another object, and calculates the correction coefficient. 前記補正係数算出部は、選択されたオブジェクト周辺の他のオブジェクトの密度に基づいて仮の補正係数の重み付けを行い、補正係数を算出することを特徴とする請求項2に記載の視線検出装置。   The visual axis detection device according to claim 2, wherein the correction coefficient calculation unit calculates a correction coefficient by weighting a temporary correction coefficient based on a density of other objects around the selected object. 前記補正係数算出部は、オブジェクトが選択された時間から所定時間前までのマウスポインタの移動速度に基づいて仮の補正係数の重み付けを行い、補正係数を算出することを特徴とする請求項2に記載の視線検出装置。   The correction coefficient calculation unit calculates a correction coefficient by weighting a temporary correction coefficient based on a moving speed of a mouse pointer from a time when an object is selected to a predetermined time before. The line-of-sight detection device described. 前記補正係数算出部は、利用者識別情報と眼球半径とを対応付けて記憶する記憶部を参照し、入力された利用者識別情報を基にして、該利用者識別情報に対応する眼球半径を特定し、該眼球半径を更に利用して補正係数を算出することを特徴とする請求項1〜5のいずれか一つ記載の視線検出装置。   The correction coefficient calculation unit refers to a storage unit that stores the user identification information and the eyeball radius in association with each other, and based on the input user identification information, calculates the eyeball radius corresponding to the user identification information. The eye gaze detection apparatus according to claim 1, wherein the eye gaze radius is specified and the correction coefficient is calculated further using the eyeball radius. コンピュータに、
画面に表示されたオブジェクトが利用者によって選択された場合に、選択されたオブジェクトと前記画面に表示された他のオブジェクトとの関係に基づいて、前記利用者が視線入力を行う場合の誤差を補正するための補正係数を算出し、
算出された前記補正係数と、前記利用者の目を被写体として含んだ画像から求められた該目に関する特徴量とに基づいて、前記利用者が注視している画面上の座標を検出する処理を実行させる補正係数算出プログラム。
On the computer,
When an object displayed on the screen is selected by the user, an error when the user performs eye-gaze input is corrected based on the relationship between the selected object and another object displayed on the screen. To calculate the correction coefficient to
A process of detecting coordinates on the screen on which the user is gazing based on the calculated correction coefficient and a feature amount related to the eye obtained from an image including the user's eye as a subject. Correction coefficient calculation program to be executed.
JP2010212061A 2010-09-22 2010-09-22 Gaze detection device and correction coefficient calculation program Expired - Fee Related JP5664064B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010212061A JP5664064B2 (en) 2010-09-22 2010-09-22 Gaze detection device and correction coefficient calculation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010212061A JP5664064B2 (en) 2010-09-22 2010-09-22 Gaze detection device and correction coefficient calculation program

Publications (2)

Publication Number Publication Date
JP2012065781A true JP2012065781A (en) 2012-04-05
JP5664064B2 JP5664064B2 (en) 2015-02-04

Family

ID=46163784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010212061A Expired - Fee Related JP5664064B2 (en) 2010-09-22 2010-09-22 Gaze detection device and correction coefficient calculation program

Country Status (1)

Country Link
JP (1) JP5664064B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021708A (en) * 2012-07-18 2014-02-03 Nikon Corp Head-mounted information input/output device and head-mounted information input/output method
KR20150025041A (en) * 2013-08-28 2015-03-10 삼성전자주식회사 Method and its apparatus for controlling a mouse cursor using eye recognition
JP2015046111A (en) * 2013-08-29 2015-03-12 株式会社Jvcケンウッド Viewpoint detection device and viewpoint detection method
JP2015521312A (en) * 2012-05-04 2015-07-27 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー User input processing by target tracking
EP2905680A1 (en) 2014-02-10 2015-08-12 Sony Corporation Information processing apparatus, information processing method, and program
WO2015125243A1 (en) * 2014-02-19 2015-08-27 三菱電機株式会社 Display control device, display control method for display control device, gaze direction detecting system, and callibration control method for gaze direction detecting system
JP2015201161A (en) * 2014-04-09 2015-11-12 由田新技股▲ふん▼有限公司 Electronic device and method for operating the same
JP2015207290A (en) * 2014-04-22 2015-11-19 レノボ・シンガポール・プライベート・リミテッド Automatic gaze calibration
WO2015189829A1 (en) * 2014-06-12 2015-12-17 Sr Labs S.R.L. Device and method of calibration for an eye tracker and eye control equipment comprising said calibration device
JP2017107511A (en) * 2015-12-11 2017-06-15 富士通株式会社 Information processing system, information processing method, and information processing program
US9684373B2 (en) 2014-02-10 2017-06-20 Sony Corporation Apparatus and method for automatic calibration of gaze detection
JP2017146987A (en) * 2017-04-20 2017-08-24 株式会社Jvcケンウッド Viewpoint detection device and viewpoint detection method
US9996172B2 (en) 2014-06-11 2018-06-12 Denso Corporation Target setting apparatus
DE112018006164B4 (en) * 2018-01-05 2021-05-12 Mitsubishi Electric Corporation VISUAL DIRECTION CALIBRATION DEVICE, VISUAL DIRECTION CALIBRATION PROCEDURE, AND VISUAL DIRECTION CALIBRATION PROGRAM
WO2022070746A1 (en) * 2020-09-30 2022-04-07 株式会社ドワンゴ Eye tracking system, eye tracking method, and eye tracking program
CN114355174A (en) * 2022-03-17 2022-04-15 杭州加速科技有限公司 Method and device for measuring and calibrating carry chain delay

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1176165A (en) * 1997-09-02 1999-03-23 Sanyo Electric Co Ltd Visual axis detection device
JP2000010723A (en) * 1998-06-18 2000-01-14 Mr System Kenkyusho:Kk Calibration method for sight sensor, sight input device, and program storage medium
JP2003079577A (en) * 2001-09-12 2003-03-18 Nippon Telegr & Teleph Corp <Ntt> Visual axis measuring apparatus and method, visual axis measuring program, and recording medium recording the same
JP2006285715A (en) * 2005-04-01 2006-10-19 Konica Minolta Holdings Inc Sight line detection system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1176165A (en) * 1997-09-02 1999-03-23 Sanyo Electric Co Ltd Visual axis detection device
JP2000010723A (en) * 1998-06-18 2000-01-14 Mr System Kenkyusho:Kk Calibration method for sight sensor, sight input device, and program storage medium
JP2003079577A (en) * 2001-09-12 2003-03-18 Nippon Telegr & Teleph Corp <Ntt> Visual axis measuring apparatus and method, visual axis measuring program, and recording medium recording the same
JP2006285715A (en) * 2005-04-01 2006-10-19 Konica Minolta Holdings Inc Sight line detection system

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11650659B2 (en) 2012-05-04 2023-05-16 Sony Interactive Entertainment LLC User input processing with eye tracking
US10496159B2 (en) 2012-05-04 2019-12-03 Sony Interactive Entertainment America Llc User input processing with eye tracking
US9471763B2 (en) 2012-05-04 2016-10-18 Sony Interactive Entertainment America Llc User input processing with eye tracking
JP2015521312A (en) * 2012-05-04 2015-07-27 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー User input processing by target tracking
JP2014021708A (en) * 2012-07-18 2014-02-03 Nikon Corp Head-mounted information input/output device and head-mounted information input/output method
KR102133018B1 (en) * 2013-08-28 2020-07-10 삼성전자주식회사 Method and its apparatus for controlling a mouse cursor using eye recognition
KR20150025041A (en) * 2013-08-28 2015-03-10 삼성전자주식회사 Method and its apparatus for controlling a mouse cursor using eye recognition
JP2015046111A (en) * 2013-08-29 2015-03-12 株式会社Jvcケンウッド Viewpoint detection device and viewpoint detection method
EP2905680A1 (en) 2014-02-10 2015-08-12 Sony Corporation Information processing apparatus, information processing method, and program
US9952667B2 (en) 2014-02-10 2018-04-24 Sony Corporation Apparatus and method for calibration of gaze detection
US9684373B2 (en) 2014-02-10 2017-06-20 Sony Corporation Apparatus and method for automatic calibration of gaze detection
WO2015125243A1 (en) * 2014-02-19 2015-08-27 三菱電機株式会社 Display control device, display control method for display control device, gaze direction detecting system, and callibration control method for gaze direction detecting system
US9785235B2 (en) 2014-02-19 2017-10-10 Mitsubishi Electric Corporation Display control apparatus, display control method of display control apparatus, and eye gaze direction detection system
CN106028913A (en) * 2014-02-19 2016-10-12 三菱电机株式会社 Display control device, display control method for display control device, gaze direction detecting system, and callibration control method for gaze direction detecting system
JP2015201161A (en) * 2014-04-09 2015-11-12 由田新技股▲ふん▼有限公司 Electronic device and method for operating the same
JP2015207290A (en) * 2014-04-22 2015-11-19 レノボ・シンガポール・プライベート・リミテッド Automatic gaze calibration
US9996172B2 (en) 2014-06-11 2018-06-12 Denso Corporation Target setting apparatus
CN106659380A (en) * 2014-06-12 2017-05-10 Sr实验室有限公司 Device and method of calibration for an eye tracker and eye control equipment comprising said calibration device
US10664699B2 (en) 2014-06-12 2020-05-26 Sr Labs S.R.L. Device and method of calibration for an eye tracker and eye control equipment comprising said calibration device
WO2015189829A1 (en) * 2014-06-12 2015-12-17 Sr Labs S.R.L. Device and method of calibration for an eye tracker and eye control equipment comprising said calibration device
JP2017107511A (en) * 2015-12-11 2017-06-15 富士通株式会社 Information processing system, information processing method, and information processing program
JP2017146987A (en) * 2017-04-20 2017-08-24 株式会社Jvcケンウッド Viewpoint detection device and viewpoint detection method
DE112018006164B4 (en) * 2018-01-05 2021-05-12 Mitsubishi Electric Corporation VISUAL DIRECTION CALIBRATION DEVICE, VISUAL DIRECTION CALIBRATION PROCEDURE, AND VISUAL DIRECTION CALIBRATION PROGRAM
WO2022070746A1 (en) * 2020-09-30 2022-04-07 株式会社ドワンゴ Eye tracking system, eye tracking method, and eye tracking program
JP2022057959A (en) * 2020-09-30 2022-04-11 株式会社ドワンゴ Eye tracking system, eye tracking method and eye tracking program
CN114355174A (en) * 2022-03-17 2022-04-15 杭州加速科技有限公司 Method and device for measuring and calibrating carry chain delay
CN114355174B (en) * 2022-03-17 2022-06-17 杭州加速科技有限公司 Method and device for measuring and calibrating carry chain delay

Also Published As

Publication number Publication date
JP5664064B2 (en) 2015-02-04

Similar Documents

Publication Publication Date Title
JP5664064B2 (en) Gaze detection device and correction coefficient calculation program
US9727135B2 (en) Gaze calibration
Xu et al. Seeing double: Reconstructing obscured typed input from repeated compromising reflections
US9202280B2 (en) Position estimation based rotation of switched off light source
JP6131540B2 (en) Tablet terminal, operation reception method and operation reception program
CN106527693A (en) Application control method and mobile terminal
EP2905680B1 (en) Information processing apparatus, information processing method, and program
US9514524B2 (en) Optical distortion compensation
CN105378595A (en) Calibrating eye tracking system by touch input
US20160216837A1 (en) Method and device for providing a touch-based user interface
US11789528B1 (en) On-the-fly calibration for improved on-device eye tracking
JP2013215549A (en) Image processing device, image processing program, and image processing method
CN111580665B (en) Method and device for predicting fixation point, mobile terminal and storage medium
JP5949389B2 (en) Detection apparatus, detection program, and detection method
US20150010206A1 (en) Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
US10481772B2 (en) Widget displaying method and apparatus for use in flexible display device, and storage medium
CN109964202B (en) Display control apparatus, display control method, and computer-readable storage medium
WO2018179661A1 (en) Information processing apparatus, information processing method, and program
CN113116291A (en) Calibration and calibration method and device for eyeball tracking, mobile terminal and storage medium
US9148537B1 (en) Facial cues as commands
JP2014067203A (en) Electronic apparatus, gazing point detection program, and gazing point detection method
JP6397508B2 (en) Method and apparatus for generating a personal input panel
JP2017211723A (en) Terminal apparatus and control program of touch panel
JP6613865B2 (en) Reading range detection apparatus, reading range detection method, and reading range detection computer program
JP5371604B2 (en) Imaging device, control method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141124

R150 Certificate of patent or registration of utility model

Ref document number: 5664064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees