JP2015046111A - Viewpoint detection device and viewpoint detection method - Google Patents

Viewpoint detection device and viewpoint detection method Download PDF

Info

Publication number
JP2015046111A
JP2015046111A JP2013178070A JP2013178070A JP2015046111A JP 2015046111 A JP2015046111 A JP 2015046111A JP 2013178070 A JP2013178070 A JP 2013178070A JP 2013178070 A JP2013178070 A JP 2013178070A JP 2015046111 A JP2015046111 A JP 2015046111A
Authority
JP
Japan
Prior art keywords
viewpoint
operator
unit
line
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013178070A
Other languages
Japanese (ja)
Inventor
賢 二宮
Masaru Ninomiya
賢 二宮
田中 賢二
Kenji Tanaka
賢二 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2013178070A priority Critical patent/JP2015046111A/en
Publication of JP2015046111A publication Critical patent/JP2015046111A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a viewpoint detection device and a viewpoint detection method which can enhance accuracy of viewpoint detection.SOLUTION: A viewpoint detection device comprises: a visual line detection unit; a viewpoint detection unit; an acquisition unit; and a correction unit. The visual line detection unit detects a direction of visual line of an operator. The viewpoint detection unit detects a viewpoint position indicating a position of viewpoint of the operator in a display area of a display unit on the basis of the direction of visual line. The acquisition unit acquires a specification position indicating a position specified by the operator in the display area. The correction unit corrects the viewpoint position on the basis of the specification position.

Description

本発明は、視点検出装置および視点検出方法に関する。   The present invention relates to a viewpoint detection device and a viewpoint detection method.

従来から、操作者または被験者がモニタ画面などの観察面上で注視している位置を検出する視点検出装置が提案されている。例えば、特許文献1にはステレオカメラを用いた視線検出方法が提案されている。さらに最近、カメラの小型化等により、内蔵されたカメラまたは取付けられた外部のカメラによって撮像した眼の画像から、操作者が画面を見つめる視線を検出する、電子機器が開発されている。このような視点検出装置において表示部にタッチパネル等を設け、より操作性を高めた装置が検討されている。   2. Description of the Related Art Conventionally, viewpoint detection devices that detect a position where an operator or a subject is gazing on an observation surface such as a monitor screen have been proposed. For example, Patent Document 1 proposes a line-of-sight detection method using a stereo camera. In recent years, electronic devices have been developed that detect the line of sight of an operator looking at the screen from an image of an eye taken by a built-in camera or an external camera attached due to miniaturization of the camera. In such a viewpoint detection device, a device in which a touch panel or the like is provided on a display unit to improve operability is being studied.

特許文献2は、操作者の視線を検出し、視線の先にあるタッチパネルの接触点が検出された場合、タッチ操作に対応するイベント情報を生成する技術を提案している。操作者が意図しない誤動作により動作することを防止するための機能である。   Patent Document 2 proposes a technique for detecting an operator's line of sight and generating event information corresponding to a touch operation when a touch point on the touch panel ahead of the line of sight is detected. This is a function for preventing operation due to a malfunction that is not intended by the operator.

特許文献3は、タッチパネルを用いた顧客操作型端末における操作性を向上させたタッチパネル補正装置に関する技術を提案している。このタッチパネル補正装置は、ボタンの位置とそれに対応するタッチパネルの検出位置との相関を決定する視点位置を検出する視点位置検出部を備え、視点位置のずれに応じた補正量によりタッチパネルの検出位置を補正する。   Patent Document 3 proposes a technique related to a touch panel correction device that improves operability in a customer operation type terminal using a touch panel. The touch panel correction apparatus includes a viewpoint position detection unit that detects a viewpoint position that determines a correlation between a button position and a corresponding detection position of the touch panel, and detects the touch panel detection position according to a correction amount corresponding to the deviation of the viewpoint position. to correct.

特許第4517049号公報Japanese Patent No. 4517049 特開2012−203671号公報JP 2012-203671 A 特開平09−044310号公報JP 09-044310 A

タッチパネル等の画面上の位置を指示可能な視点検出装置でも、より精度の高い視点検出結果が求められている。しかし、眼画像の個人差等によりその精度は十分ではなく、精度の向上が必要であった。   Even with a viewpoint detection device that can indicate a position on a screen such as a touch panel, a more accurate viewpoint detection result is required. However, the accuracy is not sufficient due to individual differences in eye images, and it is necessary to improve the accuracy.

特許文献2の方法は、視点検出結果を使用してタッチパネルへの接触が誤動作でないかチェックできるが、視点検出結果を補正するものではない。特許文献3の方法は、視点位置によりタッチパネルの検出位置を補正するものであり、視点位置を補正するものではない。   The method of Patent Document 2 can check whether the touch on the touch panel is a malfunction by using the viewpoint detection result, but does not correct the viewpoint detection result. The method of Patent Document 3 corrects the detection position of the touch panel based on the viewpoint position, and does not correct the viewpoint position.

本発明は、上記に鑑みてなされたものであって、視点検出の精度を向上できる視点検出装置および視点検出方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a viewpoint detection apparatus and a viewpoint detection method that can improve viewpoint detection accuracy.

上述した課題を解決し、目的を達成するために、本発明は、操作者の視線方向を検出する視線検出部と、前記視線方向に基づいて、表示部の表示領域における前記操作者の視点の位置を表す視点位置を検出する視点検出部と、前記表示領域内を前記操作者が指示した位置を表す指示位置を取得する取得部と、前記指示位置に基づいて前記視点位置を補正する補正部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention includes a gaze detection unit that detects the gaze direction of the operator, and the viewpoint of the operator in the display area of the display unit based on the gaze direction. A viewpoint detection unit that detects a viewpoint position that represents a position; an acquisition unit that acquires an indication position that indicates the position indicated by the operator in the display area; and a correction unit that corrects the viewpoint position based on the indication position And.

本発明にかかる視点検出装置および視点検出方法は、視点検出の精度を向上できるという効果を奏する。   The viewpoint detection device and viewpoint detection method according to the present invention have an effect of improving the accuracy of viewpoint detection.

図1は、本実施形態の一例としてのタブレット型PCの構成を示す図である。FIG. 1 is a diagram illustrating a configuration of a tablet PC as an example of the present embodiment. 図2は、本実施形態の一例としてのタブレット型PCの機能構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration of a tablet PC as an example of the present embodiment. 図3は、本実施形態の視点検出処理の一例を表すフローチャートである。FIG. 3 is a flowchart illustrating an example of viewpoint detection processing according to the present embodiment. 図4は、指示位置と視点位置との差分の算出方法の一例を示す図である。FIG. 4 is a diagram illustrating an example of a method for calculating a difference between the designated position and the viewpoint position. 図5は、指示位置と視点位置との差分から補正値を算出する方法の一例を示す図である。FIG. 5 is a diagram illustrating an example of a method for calculating the correction value from the difference between the designated position and the viewpoint position. 図6は、本実施形態の補正値算出処理の一例を表すフローチャートである。FIG. 6 is a flowchart illustrating an example of a correction value calculation process according to the present embodiment. 図7は、視点位置の補正方法を説明するための図である。FIG. 7 is a diagram for explaining a viewpoint position correction method.

以下に、本発明にかかる視点検出装置および視点検出方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of a viewpoint detection device and a viewpoint detection method according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment.

カメラを内蔵した、または、外部にカメラを接続した電子機器は、カメラで撮像した操作者の眼画像から、操作者が画面上の見ている位置を表す視点位置を算出することが可能である。しかし、眼画像から検出した視点位置は、個人によりばらつきが大きく、その結果だけでは十分な精度を得られないことがある。   An electronic device with a built-in camera or an externally connected camera can calculate a viewpoint position representing the position the operator is looking on the screen from the eye image of the operator captured by the camera. . However, the viewpoint position detected from the eye image varies greatly depending on the individual, and sufficient accuracy may not be obtained only by the result.

本実施形態では、操作者がタッチパネルでタッチ操作を行う場合、タッチされた時の眼画像はタッチ位置周辺を見ていると判断し、タッチ位置(指示位置)を視点検出結果(視点位置)の補正に使用する。これにより、より精度の高い視点位置検出を実現する。   In this embodiment, when the operator performs a touch operation on the touch panel, it is determined that the eye image when touched is looking around the touch position, and the touch position (instructed position) is determined as the viewpoint detection result (viewpoint position). Used for correction. This realizes more accurate viewpoint position detection.

なお、適用可能な装置はタッチパネルを備えた電子機器に限られるものではない。表示画面上での操作者の視点を検出する機能と、操作者が表示画面に対して指示した位置(指示位置)を検出する機能と、を備える装置であれば、あらゆる装置に適用できる。例えば、タッチパネルの代わりに、マウスやタッチパッドなどにより画面上の位置を指示する機能を備える装置であってもよい。また、カメラ以外を用いて操作者の視点を検出する方法を適用してもよい。   Note that applicable apparatuses are not limited to electronic devices including a touch panel. The present invention can be applied to any device as long as the device has a function of detecting the viewpoint of the operator on the display screen and a function of detecting a position (designated position) designated by the operator on the display screen. For example, instead of the touch panel, a device having a function of instructing a position on the screen with a mouse or a touch pad may be used. Further, a method of detecting the viewpoint of the operator using a device other than the camera may be applied.

図1は、本実施形態の視点検出装置の一例としてのタブレット型PC100の構成を示す図である。図1は、タブレット型PC100のタッチパネル、カメラ(ステレオカメラ)、および、赤外線光源の配置の例を示している。タブレット型PC100は、表示部と操作部の機能を有するタッチパネル102を備えている。タッチパネル102の下側に、1組のステレオカメラ(左カメラ103、右カメラ104)が配置される。   FIG. 1 is a diagram illustrating a configuration of a tablet PC 100 as an example of a viewpoint detection apparatus according to the present embodiment. FIG. 1 shows an example of the arrangement of a touch panel, a camera (stereo camera), and an infrared light source of the tablet PC 100. The tablet PC 100 includes a touch panel 102 having functions of a display unit and an operation unit. A pair of stereo cameras (the left camera 103 and the right camera 104) are arranged below the touch panel 102.

ステレオカメラのレンズの直前には、円周方向に赤外線LED光源105、106が配置される。赤外線LED光源105が左カメラ103用の光源である。赤外線LED光源106が右カメラ104用の光源である。各カメラから離れた位置に赤外線LED光源107、108が配置される。赤外線LED光源107が左カメラ103用の光源である。赤外線LED光源108が右カメラ104用の光源である。赤外線LED光源105、106は、瞳孔を高輝度で反射させた画像を取得するために点灯する。赤外線LED光源107、108は瞳孔を低輝度で反射させた画像を取得するために点灯する。   Infrared LED light sources 105 and 106 are arranged in the circumferential direction immediately before the lens of the stereo camera. An infrared LED light source 105 is a light source for the left camera 103. An infrared LED light source 106 is a light source for the right camera 104. Infrared LED light sources 107 and 108 are disposed at positions away from the cameras. An infrared LED light source 107 is a light source for the left camera 103. An infrared LED light source 108 is a light source for the right camera 104. The infrared LED light sources 105 and 106 are lit to acquire an image obtained by reflecting the pupil with high luminance. The infrared LED light sources 107 and 108 are lit to acquire an image obtained by reflecting the pupil with low luminance.

瞳孔の検出方法および瞳孔等による視線の検出方法としては、例えば特許文献1等に記載の方法を適用できる。   As a pupil detection method and a gaze detection method using a pupil or the like, for example, the method described in Patent Document 1 can be applied.

図2は、タブレット型PC100の機能構成の一例を示すブロック図である。タブレット型PC100は、タッチパネル102と、制御部120と、駆動・IF部130と、左カメラ103と、右カメラ104と、赤外線LED光源105〜108と、を備えている。   FIG. 2 is a block diagram illustrating an example of a functional configuration of the tablet PC 100. The tablet PC 100 includes a touch panel 102, a control unit 120, a drive / IF unit 130, a left camera 103, a right camera 104, and infrared LED light sources 105 to 108.

制御部120は、タブレット型PC100の全体を制御する。制御部120は、例えば処理結果をタッチパネル102等に出力する。制御部120には、タッチパネル102と、駆動・IF部130が接続される。駆動・IF部130は、カメラIF131R、131Lと、LED駆動制御部132と、を備える。   The control unit 120 controls the entire tablet PC 100. For example, the control unit 120 outputs the processing result to the touch panel 102 or the like. A touch panel 102 and a drive / IF unit 130 are connected to the control unit 120. The drive / IF unit 130 includes camera IFs 131R and 131L and an LED drive control unit 132.

駆動・IF部130には、カメラIF131R、131Lを介して、それぞれ、左カメラ103、右カメラ104が接続される。駆動・IF部130がこれらのカメラを駆動することにより、操作者などを撮像する。   The left camera 103 and the right camera 104 are connected to the drive / IF unit 130 via the camera IFs 131R and 131L, respectively. The drive / IF unit 130 drives these cameras to image the operator and the like.

左カメラ103からはフレーム同期信号が出力される。フレーム同期信号は、右カメラ104とLED駆動制御部132とに入力される。これにより、第1フレームで、タイミングをずらして左右の波長1の赤外線光源(赤外線LED光源105、106)が発光され、それに対応して左右カメラ(右カメラ104、左カメラ103)による画像が取り込まれる。また、第2フレームで、タイミングをずらして左右の波長2の赤外線光源(赤外線LED光源107、108)が発光され、それに対応して左右カメラによる画像が取り込まれる。   A frame synchronization signal is output from the left camera 103. The frame synchronization signal is input to the right camera 104 and the LED drive control unit 132. As a result, the left and right wavelength 1 infrared light sources (infrared LED light sources 105 and 106) emit light at different timings in the first frame, and corresponding images are captured by the left and right cameras (right camera 104 and left camera 103). It is. In the second frame, the left and right infrared light sources (infrared LED light sources 107 and 108) emit light at different timings, and images from the left and right cameras are captured correspondingly.

赤外線LED光源105、106は、例えば波長1の赤外線を照射する。赤外線LED光源107、108は、例えば波長2の赤外線を照射する。   The infrared LED light sources 105 and 106 irradiate infrared rays having a wavelength of 1, for example. The infrared LED light sources 107 and 108 irradiate infrared rays having a wavelength of 2, for example.

波長1および波長2は、それぞれ例えば900nm未満の波長および900nm以上の波長とする。900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像すると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合に比べて、明るい瞳孔像が得られるためである。なお、照射する赤外線の波長については、上記に限らず、波長1の赤外線を照射して瞳孔で反射された反射光を撮像した結果と、波長2の赤外線を照射して瞳孔で反射された反射光を撮像した結果とで、差が出せるものであればよい。   The wavelength 1 and the wavelength 2 are, for example, a wavelength of less than 900 nm and a wavelength of 900 nm or more, respectively. When the reflected light reflected by the pupil is irradiated with infrared light having a wavelength of less than 900 nm, a bright pupil image is obtained as compared with the case where reflected light reflected by the pupil is irradiated with infrared light having a wavelength of 900 nm or more. It is because it is obtained. In addition, about the wavelength of the infrared rays to irradiate, it is not restricted to the above, The result which imaged the reflected light reflected by the pupil by irradiating the infrared rays of wavelength 1, and the reflection reflected by the pupil after irradiating the infrared rays of wavelength 2 What is necessary is just to be able to make a difference with the result of imaging light.

また、視線の検出方法は、このようなステレオカメラを使用した方法に限らず、例えばタブレット型PC100に内蔵された単眼カメラを使用した方法でも構わない。   Further, the line-of-sight detection method is not limited to a method using such a stereo camera, and for example, a method using a monocular camera built in the tablet PC 100 may be used.

制御部120は、視線検出部121と、視点検出部122と、取得部123と、算出部124と、補正部125と、を備えている。   The control unit 120 includes a line-of-sight detection unit 121, a viewpoint detection unit 122, an acquisition unit 123, a calculation unit 124, and a correction unit 125.

視線検出部121は、撮像部(ステレオカメラ)により撮像された撮像画像から、操作者の視線(視線方向)を検出する。視線を検出する処理には、操作者の目の位置を検出する処理が含まれる。視点検出部122は、検出された視線方向を用いて操作者の視点を検出する。視点検出部122は、例えば、タッチパネル102の表示画面(表示領域)上で、操作者が注視する点である視点(注視点)の位置(視点位置)を検出する。視線検出部121による視線検出方法、および、視点検出部122による視点検出方法としては、従来から用いられているあらゆる方法を適用できる。以下では、特許文献3と同様に、ステレオカメラを用いて操作者の視線方向および注視点を検出する場合を例に説明する。   The line-of-sight detection unit 121 detects the operator's line of sight (line-of-sight direction) from the captured image captured by the imaging unit (stereo camera). The process of detecting the line of sight includes the process of detecting the position of the operator's eyes. The viewpoint detection unit 122 detects the operator's viewpoint using the detected line-of-sight direction. The viewpoint detection unit 122 detects, for example, the position (viewpoint position) of the viewpoint (gaze point) that is the point on which the operator gazes on the display screen (display area) of the touch panel 102. As a gaze detection method by the gaze detection unit 121 and a viewpoint detection method by the viewpoint detection unit 122, any conventionally used method can be applied. Below, similarly to patent document 3, it demonstrates as an example the case where an operator's gaze direction and a gaze point are detected using a stereo camera.

この場合、まず視線検出部121は、ステレオカメラで撮像された画像から、操作者の視線方向を検出する。例えば視線検出部121は、波長1の赤外線を照射して撮像した画像と、波長2の赤外線を照射して撮像した画像との差分を求め、瞳孔像が明確化された画像を生成する。視線検出部121は、左右のカメラ(右カメラ104、左カメラ103)で撮像された画像それぞれから上記のように生成された2つの画像を用いて、ステレオ視の手法により操作者の瞳孔の位置(目の位置)を算出する。また、視線検出部121は、左右のカメラで撮像された画像を用いて操作者の角膜反射の位置を算出する。そして、視線検出部121は、操作者の瞳孔の位置と角膜反射位置とから、操作者の視線方向を表す視線ベクトルを算出する。   In this case, the line-of-sight detection unit 121 first detects the line-of-sight direction of the operator from the image captured by the stereo camera. For example, the line-of-sight detection unit 121 obtains a difference between an image captured by irradiating infrared light having a wavelength 1 and an image captured by irradiating infrared light having a wavelength 2, and generates an image in which a pupil image is clarified. The line-of-sight detection unit 121 uses the two images generated as described above from the images captured by the left and right cameras (the right camera 104 and the left camera 103), and uses the stereo vision technique to position the pupil of the operator. (Eye position) is calculated. In addition, the line-of-sight detection unit 121 calculates the position of the corneal reflection of the operator using images captured by the left and right cameras. Then, the line-of-sight detection unit 121 calculates a line-of-sight vector representing the line-of-sight direction of the operator from the position of the pupil of the operator and the corneal reflection position.

なお、操作者の目の位置および視線の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮像した画像を解析することにより、操作者の目の位置および視線を検出してもよい。   Note that the method for detecting the eye position and line of sight of the operator is not limited to this. For example, the position and line of sight of the operator's eyes may be detected by analyzing an image captured using visible light instead of infrared light.

視点検出部122は、予め定められた座標系で表される視線ベクトルとタッチパネル102の表示領域に対応する平面との交点を、操作者の注視点として検出する。座標系は、例えば、タッチパネル102の表示領域の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)とした座標系を用いることができる。両目の視線方向が得られた場合は、操作者の左右の視線の交点を求めることによって注視点を計測してもよい。   The viewpoint detection unit 122 detects an intersection point between a line-of-sight vector expressed in a predetermined coordinate system and a plane corresponding to the display area of the touch panel 102 as an operator's gaze point. The coordinate system is, for example, with the center position of the display area of the touch panel 102 as the origin, the top and bottom are the Y coordinate (up is +), the side is the X coordinate (right is +), and the depth is the Z coordinate (front is +) Coordinate system can be used. When the gaze direction of both eyes is obtained, the gaze point may be measured by obtaining the intersection of the left and right gazes of the operator.

取得部123は、表示部の表示領域内を操作者が指示した位置を表す指示位置を取得する。表示部としてタッチパネル102を用いる場合は、取得部123は、タッチパネル102上で操作者(指、タッチペンなど)が接触した指示位置を取得する。マウスやタッチパッドなどの指示機能を用いる場合は、取得部123は、指示機能によって指示される、表示領域上のカーソルの位置などを指示位置として取得する。   The acquisition unit 123 acquires an indicated position that represents a position instructed by the operator within the display area of the display unit. When the touch panel 102 is used as the display unit, the acquisition unit 123 acquires an instruction position touched by an operator (such as a finger or a touch pen) on the touch panel 102. When an instruction function such as a mouse or a touch pad is used, the acquisition unit 123 acquires the position of the cursor on the display area indicated by the instruction function as the instruction position.

算出部124は、操作者が表示領域内を指示したときに検出された視点位置と、指示位置と、の差分を算出する。例えば、算出部124は、上記座標系のX座標、Y座標ごとの、指示位置と視点位置との差分を算出する。また、算出部124は、差分から、以降に検出される視点位置を補正するための補正値を算出する。後述するように、タッチパネル102の表示領域を複数の表示領域に分割する場合は、算出部124は、分割した複数の表示領域(以下、分割領域ともいう)ごとに差分および補正値を算出してもよい。   The calculation unit 124 calculates a difference between the viewpoint position detected when the operator points in the display area and the designated position. For example, the calculation unit 124 calculates the difference between the designated position and the viewpoint position for each X coordinate and Y coordinate of the coordinate system. Further, the calculation unit 124 calculates a correction value for correcting the viewpoint position detected later from the difference. As will be described later, when the display area of the touch panel 102 is divided into a plurality of display areas, the calculation unit 124 calculates a difference and a correction value for each of the plurality of divided display areas (hereinafter also referred to as divided areas). Also good.

補正部125は、取得部123により取得された指示位置に基づいて、視点検出部122により検出された視点位置を補正する。例えば、補正部125は、指示位置との差分および補正値が算出された後に検出された視点位置を、補正値によって補正する。タッチパネル102の表示領域を複数の分割領域に分割する場合は、補正部125は、複数の分割領域ごとに算出された複数の補正値を用いて視点位置を補正してもよい。   The correction unit 125 corrects the viewpoint position detected by the viewpoint detection unit 122 based on the designated position acquired by the acquisition unit 123. For example, the correction unit 125 corrects the viewpoint position detected after the difference from the indicated position and the correction value are calculated using the correction value. When the display area of the touch panel 102 is divided into a plurality of divided areas, the correction unit 125 may correct the viewpoint position using a plurality of correction values calculated for each of the plurality of divided areas.

次に、このように構成された本実施形態にかかるタブレット型PC100による視点検出処理について図3を用いて説明する。図3は、本実施形態の視点検出処理の一例を表すフローチャートである。   Next, viewpoint detection processing by the tablet PC 100 according to the present embodiment configured as described above will be described with reference to FIG. FIG. 3 is a flowchart illustrating an example of viewpoint detection processing according to the present embodiment.

まず、LED駆動制御部132は、左カメラ103に対応する赤外線LED光源105を点灯させる(ステップS101)。視線検出部121は、赤外線LED光源105が点灯されたときに左カメラ103により撮像された明瞳孔用の画像を取得する(ステップS102)。右カメラ104についても同様に明瞳孔画像が取得される。すなわち、LED駆動制御部132は、右カメラ104に対応する赤外線LED光源106を点灯させる(ステップS103)。視線検出部121は、赤外線LED光源106が点灯されたときに右カメラ104により撮像された明瞳孔用の画像を取得する(ステップS104)。   First, the LED drive control unit 132 turns on the infrared LED light source 105 corresponding to the left camera 103 (step S101). The line-of-sight detection unit 121 acquires a bright pupil image captured by the left camera 103 when the infrared LED light source 105 is turned on (step S102). A bright pupil image is acquired similarly for the right camera 104. That is, the LED drive control unit 132 turns on the infrared LED light source 106 corresponding to the right camera 104 (step S103). The line-of-sight detection unit 121 acquires an image for a bright pupil captured by the right camera 104 when the infrared LED light source 106 is turned on (step S104).

なお、赤外線LED光源105、106は、瞳孔で高輝度反射する明瞳孔用LEDである。赤外線LED光源107、108は、瞳孔で低輝度反射する暗瞳孔用LEDである。   The infrared LED light sources 105 and 106 are bright pupil LEDs that reflect with high luminance at the pupil. The infrared LED light sources 107 and 108 are dark pupil LEDs that reflect with low luminance at the pupil.

次に、瞳孔を低輝度で反射させるために、LED駆動制御部132は、左カメラ103に対応する赤外線LED光源107を点灯させる(ステップS105)。視線検出部121は、赤外線LED光源107が点灯されたときに左カメラ103により撮像された暗瞳孔用の画像を取得する(ステップS106)。右カメラ104についても同様に暗瞳孔画像が取得される。すなわち、LED駆動制御部132は、右カメラ104に対応する赤外線LED光源108を点灯させる(ステップS107)。視線検出部121は、赤外線LED光源108が点灯されたときに右カメラ104により撮像された暗瞳孔用の画像を取得する(ステップS108)。   Next, in order to reflect the pupil with low luminance, the LED drive control unit 132 turns on the infrared LED light source 107 corresponding to the left camera 103 (step S105). The line-of-sight detection unit 121 acquires a dark pupil image captured by the left camera 103 when the infrared LED light source 107 is turned on (step S106). A dark pupil image is similarly acquired for the right camera 104. That is, the LED drive control unit 132 turns on the infrared LED light source 108 corresponding to the right camera 104 (step S107). The line-of-sight detection unit 121 acquires an image for the dark pupil imaged by the right camera 104 when the infrared LED light source 108 is turned on (step S108).

次に、視線検出部121は、明瞳孔画像と暗瞳孔画像のそれぞれについて、左カメラ103で撮像された画像と右カメラ104で撮像された画像との差分(輝度の差分)を表す差分画像を生成する(ステップS109)。例えば視線検出部121は、左右カメラそれぞれで撮像された画像の各位置(各画素)の輝度の差をそれぞれ求めることにより差分画像を生成する。求めた差分画像では、瞳孔が明るく残り、瞳孔以外の部分は差分をとることにより無くなるか小さくなる。   Next, the line-of-sight detection unit 121 generates, for each of the bright pupil image and the dark pupil image, a difference image representing a difference (luminance difference) between the image captured by the left camera 103 and the image captured by the right camera 104. Generate (step S109). For example, the line-of-sight detection unit 121 generates a difference image by obtaining a difference in luminance at each position (each pixel) of an image captured by each of the left and right cameras. In the obtained difference image, the pupil remains bright, and portions other than the pupil are eliminated or reduced by taking the difference.

次に、視線検出部121は、差分画像中の瞳孔候補と考えられる高輝度な各領域の中から、2つの領域を瞳孔として検出する(ステップS110)。さらに視線検出部121は、瞳孔として検出された領域近辺の画像から、角膜反射と考えられる領域を算出する(ステップS111)。また視線検出部121は、左右カメラから取得した画像から、瞳孔とカメラとの間の距離を算出する(ステップS112)。視線検出部121は、算出した瞳孔の位置、角膜反射の位置、および、瞳孔とカメラとの間の距離から、操作者の視線方向を算出する。そして、視点検出部122は、視線方向を用いて操作者がタッチパネル102の表示領域上のどこを見ているか、すなわち、注視点の位置(視点位置)を検出する(ステップS113)。   Next, the line-of-sight detection unit 121 detects two regions as pupils from the high-brightness regions that are considered to be pupil candidates in the difference image (step S110). Further, the line-of-sight detection unit 121 calculates a region that is considered to be corneal reflection from an image near the region detected as a pupil (step S111). The line-of-sight detection unit 121 calculates the distance between the pupil and the camera from images acquired from the left and right cameras (step S112). The line-of-sight detection unit 121 calculates the line-of-sight direction of the operator from the calculated pupil position, corneal reflection position, and distance between the pupil and the camera. Then, the viewpoint detection unit 122 detects where the operator is looking on the display area of the touch panel 102 using the line-of-sight direction, that is, the position of the gazing point (viewpoint position) (step S113).

この後、視線検出および視点検出の動作を続けるためにステップS101に戻り同様の動作が繰り返し実行される。   Thereafter, in order to continue the operations of the gaze detection and the viewpoint detection, the process returns to step S101 and the same operation is repeatedly executed.

次に、タッチパネル102を操作した時の指示位置と視点位置との差分の算出方法について図4を用いて説明する。図4は、指示位置と視点位置との差分の算出方法の一例を示す図である。   Next, a method for calculating the difference between the designated position and the viewpoint position when the touch panel 102 is operated will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a method for calculating a difference between the designated position and the viewpoint position.

操作者は、タブレット型PC100を使用する際、タッチパネル102の画面を見る。上記のように、この時の操作者の目の画像が、明瞳孔用LED(赤外線LED光源105、106)と暗瞳孔用LED(赤外線LED光源107、108)をそれぞれ点灯させた状態で左右のステレオカメラ(左カメラ103、右カメラ104)によって撮影される。そして、撮像された画像から算出される瞳孔の位置および角膜反射の位置の情報等から、視点位置が算出される。   The operator looks at the screen of the touch panel 102 when using the tablet PC 100. As described above, the images of the eyes of the operator at this time are the left and right with the bright pupil LEDs (infrared LED light sources 105 and 106) and the dark pupil LEDs (infrared LED light sources 107 and 108) turned on. Photographed by a stereo camera (left camera 103, right camera 104). Then, the viewpoint position is calculated from information about the position of the pupil and the position of corneal reflection calculated from the captured image.

一方、操作者は、タッチパネル102の画面上で操作する時、タッチパネル102の画面と指との接触点401の周辺を注視すると考えられる。このため、算出部124は、この時に求められた視点位置の座標と、接触点401の位置(指示位置)の座標から、接触点401における視点位置の差分を算出し、記憶部(図示せず)等に保持しておく。   On the other hand, when the operator operates on the screen of the touch panel 102, it is considered that the operator gazes around the contact point 401 between the screen of the touch panel 102 and the finger. For this reason, the calculation unit 124 calculates the difference between the viewpoint positions at the contact point 401 from the coordinates of the viewpoint position obtained at this time and the coordinates of the position (instructed position) of the contact point 401, and a storage unit (not shown). ) Etc.

図5は、指示位置と視点位置との差分から補正値を算出する方法の一例を示す図である。図5の例では、タッチパネル102の表示領域の全体を4分割した領域をそれぞれ領域1〜4としている。操作者がタッチパネル102を使用した時の、カメラ画像から得られる視点位置を視点位置511とし、タッチパネル102の接触点の位置を指示位置512とする。なお、視点位置511は、前回までに算出された補正値(初回の処理時は補正値の初期値(例えば0)を用いればよい)を用いて補正された後の視点位置を表す。この時、視点位置511は領域2に存在するため、視点位置511と指示位置512との差分は、領域2の補正値に加算される。このように、前回までに算出された補正値に、今回算出された差分を加算することにより、以降の補正で用いる補正値が算出される。図5の例では、視点位置511と指示位置512とから差分が算出される。そして、この差分から得られる補正値を用いて、補正前の視点位置521から、補正後の視点位置522が求められる。   FIG. 5 is a diagram illustrating an example of a method for calculating the correction value from the difference between the designated position and the viewpoint position. In the example of FIG. 5, areas obtained by dividing the entire display area of the touch panel 102 into four areas are defined as areas 1 to 4, respectively. The viewpoint position obtained from the camera image when the operator uses the touch panel 102 is a viewpoint position 511, and the position of the touch point on the touch panel 102 is an instruction position 512. Note that the viewpoint position 511 represents the viewpoint position after being corrected using a correction value calculated up to the previous time (the initial value (for example, 0) of the correction value may be used in the first processing). At this time, since the viewpoint position 511 exists in the area 2, the difference between the viewpoint position 511 and the designated position 512 is added to the correction value of the area 2. In this way, the correction value used in the subsequent correction is calculated by adding the difference calculated this time to the correction value calculated up to the previous time. In the example of FIG. 5, the difference is calculated from the viewpoint position 511 and the designated position 512. Then, using the correction value obtained from this difference, the corrected viewpoint position 522 is obtained from the viewpoint position 521 before correction.

次に、本実施形態の補正値算出処理について図6を用いて説明する。補正値算出処理は、例えば、タッチパネル102が操作されたときに実行される処理であり、この操作により検出された指示位置を用いて、視点検出処理で検出された視点位置を補正するための補正値が算出される。図6は、本実施形態の補正値算出処理の一例を表すフローチャートである。   Next, the correction value calculation process of this embodiment will be described with reference to FIG. The correction value calculation process is, for example, a process executed when the touch panel 102 is operated, and correction for correcting the viewpoint position detected in the viewpoint detection process using the indication position detected by this operation. A value is calculated. FIG. 6 is a flowchart illustrating an example of a correction value calculation process according to the present embodiment.

取得部123は、タッチパネル102が操作されたか否かを判断する(ステップS201)。操作されていない場合(ステップS201:No)、操作されるまで処理を繰り返す。操作された場合(ステップS201:Yes)、取得部123は、タッチパネル102の表示画面上のタッチ位置(指示位置)を取得する(ステップS202)。取得部123は、さらにこの時のカメラ画像から算出された視点位置を取得する(ステップS203)。算出部124は、取得された視点位置が、画面を分割した複数の分割領域のうち、いずれの分割領域に存在するかを判定する(ステップS204)。算出部124は、タッチ位置と視点位置との差分を算出する(ステップS205)。算出部124は、該当する分割領域の補正値に今回算出された差分を加算することにより、該当分割領域の補正値を算出する(ステップS206)。   The acquisition unit 123 determines whether the touch panel 102 has been operated (step S201). If not operated (step S201: No), the process is repeated until it is operated. When operated (step S201: Yes), the acquisition unit 123 acquires a touch position (instructed position) on the display screen of the touch panel 102 (step S202). The acquisition unit 123 further acquires the viewpoint position calculated from the camera image at this time (step S203). The calculation unit 124 determines in which divided region the acquired viewpoint position is present among a plurality of divided regions obtained by dividing the screen (step S204). The calculation unit 124 calculates the difference between the touch position and the viewpoint position (step S205). The calculation unit 124 calculates the correction value of the corresponding divided region by adding the difference calculated this time to the correction value of the corresponding divided region (step S206).

図7は、タッチパネル102を操作していない時の視点位置の補正方法を説明するための図である。位置711は、領域1での補正前の視点位置、位置721は、補正後の視点位置の例を表す。位置712は、領域2での補正前の視点位置、位置722は、補正後の視点位置の例を表す。位置713は、領域3での補正前の視点位置、位置723は補正後の視点位置の例を表す。位置714は、領域4での補正前の視点位置、位置724は補正後の視点位置の例を表す。補正前の視点位置と補正後の視点位置とを結ぶ矢印が補正値に対応する。   FIG. 7 is a diagram for explaining a method of correcting the viewpoint position when the touch panel 102 is not operated. A position 711 represents an example of the viewpoint position before correction in the area 1, and a position 721 represents an example of the viewpoint position after correction. A position 712 represents an example of the viewpoint position before correction in the area 2, and a position 722 represents an example of the viewpoint position after correction. A position 713 represents an example of the viewpoint position before correction in the area 3, and a position 723 represents an example of the viewpoint position after correction. A position 714 represents an example of the viewpoint position before correction in the area 4, and a position 724 represents an example of the viewpoint position after correction. An arrow connecting the viewpoint position before correction and the corrected viewpoint position corresponds to the correction value.

補正部125は、例えば、検出された視点位置を、検出された視点位置が含まれる領域の補正値を用いて補正する。補正部125が、各分割領域(領域1〜4)それぞれに対して得られる複数の補正値の一部または全部を用いて視点位置を補正してもよい。例えば、補正部125は、補正前の視点位置731が検出されたときに、各分割領域の補正前の視点位置(位置711、位置712、位置713、位置714)と視点位置731との位置関係に応じて、各分割領域の補正値を重み付け加算し、実際に用いる補正値を算出してもよい。重みは、例えば、視点位置731との距離が近い視点位置を含む分割領域の補正値ほど、大きくなるように設定してもよい。図7の位置732は、このようにして視点位置731を補正した補正後の視点位置の例を表している。   For example, the correcting unit 125 corrects the detected viewpoint position using the correction value of the region including the detected viewpoint position. The correcting unit 125 may correct the viewpoint position using a part or all of a plurality of correction values obtained for each of the divided regions (regions 1 to 4). For example, when the viewpoint position 731 before correction is detected, the correction unit 125 determines the positional relationship between the viewpoint positions (position 711, position 712, position 713, position 714) before correction of each divided region and the viewpoint position 731. Accordingly, the correction values actually used may be calculated by weighting and adding the correction values of the respective divided regions. For example, the weight may be set to be larger as the correction value of the divided region including the viewpoint position that is closer to the viewpoint position 731. A position 732 in FIG. 7 represents an example of a corrected viewpoint position obtained by correcting the viewpoint position 731 in this way.

このように、本実施形態によれば、タッチパネル102を操作していない時の操作者の視点位置を、タッチパネル102の操作時のカメラ画像から算出した注視点と接触点の座標の差分から求められる補正値により補正する。これにより、より精度の高い視点位置検出を行うことが可能となる。   As described above, according to the present embodiment, the viewpoint position of the operator when the touch panel 102 is not operated is obtained from the difference between the coordinates of the gazing point and the contact point calculated from the camera image when the touch panel 102 is operated. Correct with the correction value. As a result, it is possible to perform more accurate viewpoint position detection.

本発明の好ましい実施態様を以下に列挙する。
(実施態様1) 操作者の視線方向を検出する視線検出部と、
前記視線方向に基づいて、表示部の表示領域における前記操作者の視点の位置を表す視点位置を検出する視点検出部と、
前記表示領域内を前記操作者が指示した位置を表す指示位置を取得する取得部と、
前記指示位置に基づいて前記視点位置を補正する補正部と、
を備えることを特徴とする視点検出装置。
(実施態様2) 前記操作者が前記表示領域内を指示したときに前記視点検出部により検出された前記視点位置と、前記指示位置と、の差分を算出し、前記視点位置を補正するための補正値を、前記差分から算出する算出部をさらに備え、
前記補正部は、前記差分が算出された後に検出された前記視点位置を前記補正値によって補正すること、
を特徴とする実施態様1に記載の視点検出装置。
(実施態様3) 前記算出部は、前記補正値によって補正された前記視点位置と、前記指示位置との差分を、前記補正値に加算することにより、新たな補正値を算出し、
前記補正部は、新たな補正値が算出された後に検出された前記視点位置を、新たな補正値によって補正すること、
を特徴とする実施態様2に記載の視点検出装置。
(実施態様4) 前記算出部は、前記表示部を分割した複数の表示領域ごとに、前記差分を算出し、
前記補正部は、前記複数の表示領域に対して算出される複数の前記差分を用いて、前記視点位置を補正すること、
を特徴とする実施態様2に記載の視点検出装置。
(実施態様5) 操作者の視線方向を検出する視線検出ステップと、
前記視線方向に基づいて、表示部の表示領域における前記操作者の視点の位置を表す視点位置を検出する視点検出ステップと、
前記表示領域内を前記操作者が指示した位置を表す指示位置を取得する取得ステップと、
前記指示位置に基づいて前記視点位置を補正する補正ステップと、
を含む視点検出方法。
Preferred embodiments of the present invention are listed below.
(Embodiment 1) A line-of-sight detection unit that detects the line-of-sight direction of the operator;
A viewpoint detection unit that detects a viewpoint position that represents the position of the operator's viewpoint in the display area of the display unit based on the line-of-sight direction;
An acquisition unit for acquiring an indicated position representing a position indicated by the operator in the display area;
A correction unit that corrects the viewpoint position based on the indicated position;
A viewpoint detection apparatus comprising:
(Embodiment 2) For calculating a difference between the viewpoint position detected by the viewpoint detection unit when the operator indicates the inside of the display area and the specified position, and correcting the viewpoint position A calculation unit that calculates a correction value from the difference;
The correction unit corrects the viewpoint position detected after the difference is calculated by the correction value;
The viewpoint detection apparatus according to the first embodiment, characterized in that:
(Embodiment 3) The calculation unit calculates a new correction value by adding a difference between the viewpoint position corrected by the correction value and the designated position to the correction value,
The correction unit corrects the viewpoint position detected after a new correction value is calculated with the new correction value;
The viewpoint detection apparatus according to the second embodiment, characterized in that:
(Embodiment 4) The said calculation part calculates the said difference for every some display area which divided | segmented the said display part,
The correction unit corrects the viewpoint position using a plurality of the differences calculated for the plurality of display areas;
The viewpoint detection apparatus according to the second embodiment, characterized in that:
(Embodiment 5) A line-of-sight detection step of detecting an operator's line-of-sight direction;
A viewpoint detection step of detecting a viewpoint position representing the position of the operator's viewpoint in the display area of the display unit based on the line-of-sight direction;
An acquisition step of acquiring an indicated position representing a position indicated by the operator in the display area;
A correction step of correcting the viewpoint position based on the indicated position;
Viewpoint detection method.

以上のように、本実施形態によれば、例えば以下のような効果が得られる。
・従来の視線の検出方法に加え、タッチパネル等をタッチ(指示)した位置を示す情報を得ることにより、視点検出の補正を行うことが可能となる。これにより、より精度の高い視点検出を行うことができる。
As described above, according to the present embodiment, for example, the following effects can be obtained.
In addition to the conventional gaze detection method, it is possible to correct viewpoint detection by obtaining information indicating the position where the touch panel or the like is touched (instructed). Thereby, viewpoint detection with higher accuracy can be performed.

100 タブレット型PC
102 タッチパネル
103 左カメラ
104 右カメラ
105〜108 赤外線LED光源
120 制御部
121 視線検出部
122 視点検出部
123 取得部
124 算出部
125 補正部
130 駆動・IF部
131R、131L カメラIF
132 LED駆動制御部
100 Tablet PC
DESCRIPTION OF SYMBOLS 102 Touch panel 103 Left camera 104 Right camera 105-108 Infrared LED light source 120 Control part 121 Eye-gaze detection part 122 View point detection part 123 Acquisition part 124 Calculation part 125 Correction part 130 Drive / IF part 131R, 131L Camera IF
132 LED drive control unit

Claims (3)

操作者の視線方向を検出する視線検出部と、
前記視線方向に基づいて、表示部の表示領域における前記操作者の視点の位置を表す視点位置を検出する視点検出部と、
前記表示領域内を前記操作者が指示した位置を表す指示位置を取得する取得部と、
前記指示位置に基づいて前記視点位置を補正する補正部と、
を備えることを特徴とする視点検出装置。
A line-of-sight detector that detects the line-of-sight direction of the operator;
A viewpoint detection unit that detects a viewpoint position that represents the position of the operator's viewpoint in the display area of the display unit based on the line-of-sight direction;
An acquisition unit for acquiring an indicated position representing a position indicated by the operator in the display area;
A correction unit that corrects the viewpoint position based on the indicated position;
A viewpoint detection apparatus comprising:
前記操作者が前記表示領域内を指示したときに前記視点検出部により検出された前記視点位置と、前記指示位置と、の差分を算出し、前記視点位置を補正するための補正値を、前記差分から算出する算出部をさらに備え、
前記補正部は、前記差分が算出された後に検出された前記視点位置を前記補正値によって補正すること、
を特徴とする請求項1に記載の視点検出装置。
A difference between the viewpoint position detected by the viewpoint detection unit when the operator points in the display area and the indicated position is calculated, and a correction value for correcting the viewpoint position is calculated. A calculation unit for calculating from the difference,
The correction unit corrects the viewpoint position detected after the difference is calculated by the correction value;
The viewpoint detection apparatus according to claim 1.
操作者の視線方向を検出する視線検出ステップと、
前記視線方向に基づいて、表示部の表示領域における前記操作者の視点の位置を表す視点位置を検出する視点検出ステップと、
前記表示領域内を前記操作者が指示した位置を表す指示位置を取得する取得ステップと、
前記指示位置に基づいて前記視点位置を補正する補正ステップと、
を含む視点検出方法。
A line-of-sight detection step for detecting the line-of-sight direction of the operator;
A viewpoint detection step of detecting a viewpoint position representing the position of the operator's viewpoint in the display area of the display unit based on the line-of-sight direction;
An acquisition step of acquiring an indicated position representing a position indicated by the operator in the display area;
A correction step of correcting the viewpoint position based on the indicated position;
Viewpoint detection method.
JP2013178070A 2013-08-29 2013-08-29 Viewpoint detection device and viewpoint detection method Pending JP2015046111A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013178070A JP2015046111A (en) 2013-08-29 2013-08-29 Viewpoint detection device and viewpoint detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013178070A JP2015046111A (en) 2013-08-29 2013-08-29 Viewpoint detection device and viewpoint detection method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017083470A Division JP2017146987A (en) 2017-04-20 2017-04-20 Viewpoint detection device and viewpoint detection method

Publications (1)

Publication Number Publication Date
JP2015046111A true JP2015046111A (en) 2015-03-12

Family

ID=52671536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013178070A Pending JP2015046111A (en) 2013-08-29 2013-08-29 Viewpoint detection device and viewpoint detection method

Country Status (1)

Country Link
JP (1) JP2015046111A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016147499A1 (en) * 2015-03-17 2016-09-22 ソニー株式会社 Information processing device, information processing method, and program
JP2017169685A (en) * 2016-03-22 2017-09-28 日本電気株式会社 Visual line estimating device and visual line estimation method
JP2018041219A (en) * 2016-09-06 2018-03-15 アイシン・エィ・ダブリュ株式会社 View point acquisition system and view point acquire program
JP2023517380A (en) * 2020-03-18 2023-04-25 北京七▲しん▼易維信息技術有限公司 Eye tracking calibration method and device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1176165A (en) * 1997-09-02 1999-03-23 Sanyo Electric Co Ltd Visual axis detection device
US20030098954A1 (en) * 2001-04-27 2003-05-29 International Business Machines Corporation Calibration-free eye gaze tracking
JP2007025963A (en) * 2005-07-14 2007-02-01 Nippon Hoso Kyokai <Nhk> Gaze measurement device, gaze measurement program, and gaze calibration data generation program
US20110182472A1 (en) * 2008-07-08 2011-07-28 Dan Witzner Hansen Eye gaze tracking
JP2012065781A (en) * 2010-09-22 2012-04-05 Fujitsu Ltd Line-of-sight detection device, and correction coefficient determination program
JP2012080910A (en) * 2010-10-06 2012-04-26 Fujitsu Ltd Correction value computing device, correction value computing method, and correction value computing program
JP2013150669A (en) * 2012-01-24 2013-08-08 Jvc Kenwood Corp Autism diagnosis support system and autism diagnosis support method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1176165A (en) * 1997-09-02 1999-03-23 Sanyo Electric Co Ltd Visual axis detection device
US20030098954A1 (en) * 2001-04-27 2003-05-29 International Business Machines Corporation Calibration-free eye gaze tracking
JP2007025963A (en) * 2005-07-14 2007-02-01 Nippon Hoso Kyokai <Nhk> Gaze measurement device, gaze measurement program, and gaze calibration data generation program
US20110182472A1 (en) * 2008-07-08 2011-07-28 Dan Witzner Hansen Eye gaze tracking
JP2012065781A (en) * 2010-09-22 2012-04-05 Fujitsu Ltd Line-of-sight detection device, and correction coefficient determination program
JP2012080910A (en) * 2010-10-06 2012-04-26 Fujitsu Ltd Correction value computing device, correction value computing method, and correction value computing program
JP2013150669A (en) * 2012-01-24 2013-08-08 Jvc Kenwood Corp Autism diagnosis support system and autism diagnosis support method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016147499A1 (en) * 2015-03-17 2016-09-22 ソニー株式会社 Information processing device, information processing method, and program
JP2017169685A (en) * 2016-03-22 2017-09-28 日本電気株式会社 Visual line estimating device and visual line estimation method
JP2018041219A (en) * 2016-09-06 2018-03-15 アイシン・エィ・ダブリュ株式会社 View point acquisition system and view point acquire program
JP2023517380A (en) * 2020-03-18 2023-04-25 北京七▲しん▼易維信息技術有限公司 Eye tracking calibration method and device

Similar Documents

Publication Publication Date Title
US9473696B2 (en) Gaze detection apparatus, gaze detection computer program, and display apparatus
EP3671313B1 (en) Gaze tracking using mapping of pupil center position
US20140055342A1 (en) Gaze detection apparatus and gaze detection method
JP6123694B2 (en) Information processing apparatus, information processing method, and program
JP6971686B2 (en) Line-of-sight detection device and line-of-sight detection method
JP6747172B2 (en) Diagnosis support device, diagnosis support method, and computer program
JP2015046111A (en) Viewpoint detection device and viewpoint detection method
EP3811852B1 (en) Device, method, and program for detecting gaze
JP2019146915A (en) Evaluation device, evaluation method, and evaluation program
JP6555707B2 (en) Pupil detection device, pupil detection method, and pupil detection program
JP2017162233A (en) Visual line detection device and visual line detection method
WO2021059745A1 (en) Gaze data correction device, evaluation device, gaze data correction method, evaluation method, gaze data correction program, and evaluation program
JP7063045B2 (en) Line-of-sight detection device, line-of-sight detection method and line-of-sight detection program
JP2017146987A (en) Viewpoint detection device and viewpoint detection method
US10996747B2 (en) Line-of-sight detection device, line-of-sight detection method, and medium
US20220087583A1 (en) Evaluation device, evaluation method, and evaluation program
US11241152B2 (en) Evaluation device, evaluation method, and non-transitory storage medium
JP2016049258A (en) Lighting and imaging device and visual axis detecting apparatus including the same
US10310668B2 (en) Touch screen display system and a method for controlling a touch screen display system
US11868544B2 (en) Information processing device, information processing method, program, display system, display method, and electronic writing tool
JP6269177B2 (en) Pupil detection device, gaze detection device, and pupil detection method
JP2024090775A (en) Sight line detection device, sight line detection method and sight line detection program
WO2022044395A1 (en) Sight line detection device, sight line detection method, and sight line detection program
US20230236666A1 (en) Optical apparatus, image pickup apparatus, control method of optical apparatus, and storage medium
WO2023008023A1 (en) Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170131