JP2015046111A - Viewpoint detection device and viewpoint detection method - Google Patents
Viewpoint detection device and viewpoint detection method Download PDFInfo
- Publication number
- JP2015046111A JP2015046111A JP2013178070A JP2013178070A JP2015046111A JP 2015046111 A JP2015046111 A JP 2015046111A JP 2013178070 A JP2013178070 A JP 2013178070A JP 2013178070 A JP2013178070 A JP 2013178070A JP 2015046111 A JP2015046111 A JP 2015046111A
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- operator
- unit
- line
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 95
- 230000000007 visual effect Effects 0.000 abstract 4
- 210000001747 pupil Anatomy 0.000 description 36
- 238000000034 method Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 10
- 230000001678 irradiating effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、視点検出装置および視点検出方法に関する。 The present invention relates to a viewpoint detection device and a viewpoint detection method.
従来から、操作者または被験者がモニタ画面などの観察面上で注視している位置を検出する視点検出装置が提案されている。例えば、特許文献1にはステレオカメラを用いた視線検出方法が提案されている。さらに最近、カメラの小型化等により、内蔵されたカメラまたは取付けられた外部のカメラによって撮像した眼の画像から、操作者が画面を見つめる視線を検出する、電子機器が開発されている。このような視点検出装置において表示部にタッチパネル等を設け、より操作性を高めた装置が検討されている。 2. Description of the Related Art Conventionally, viewpoint detection devices that detect a position where an operator or a subject is gazing on an observation surface such as a monitor screen have been proposed. For example, Patent Document 1 proposes a line-of-sight detection method using a stereo camera. In recent years, electronic devices have been developed that detect the line of sight of an operator looking at the screen from an image of an eye taken by a built-in camera or an external camera attached due to miniaturization of the camera. In such a viewpoint detection device, a device in which a touch panel or the like is provided on a display unit to improve operability is being studied.
特許文献2は、操作者の視線を検出し、視線の先にあるタッチパネルの接触点が検出された場合、タッチ操作に対応するイベント情報を生成する技術を提案している。操作者が意図しない誤動作により動作することを防止するための機能である。 Patent Document 2 proposes a technique for detecting an operator's line of sight and generating event information corresponding to a touch operation when a touch point on the touch panel ahead of the line of sight is detected. This is a function for preventing operation due to a malfunction that is not intended by the operator.
特許文献3は、タッチパネルを用いた顧客操作型端末における操作性を向上させたタッチパネル補正装置に関する技術を提案している。このタッチパネル補正装置は、ボタンの位置とそれに対応するタッチパネルの検出位置との相関を決定する視点位置を検出する視点位置検出部を備え、視点位置のずれに応じた補正量によりタッチパネルの検出位置を補正する。 Patent Document 3 proposes a technique related to a touch panel correction device that improves operability in a customer operation type terminal using a touch panel. The touch panel correction apparatus includes a viewpoint position detection unit that detects a viewpoint position that determines a correlation between a button position and a corresponding detection position of the touch panel, and detects the touch panel detection position according to a correction amount corresponding to the deviation of the viewpoint position. to correct.
タッチパネル等の画面上の位置を指示可能な視点検出装置でも、より精度の高い視点検出結果が求められている。しかし、眼画像の個人差等によりその精度は十分ではなく、精度の向上が必要であった。 Even with a viewpoint detection device that can indicate a position on a screen such as a touch panel, a more accurate viewpoint detection result is required. However, the accuracy is not sufficient due to individual differences in eye images, and it is necessary to improve the accuracy.
特許文献2の方法は、視点検出結果を使用してタッチパネルへの接触が誤動作でないかチェックできるが、視点検出結果を補正するものではない。特許文献3の方法は、視点位置によりタッチパネルの検出位置を補正するものであり、視点位置を補正するものではない。 The method of Patent Document 2 can check whether the touch on the touch panel is a malfunction by using the viewpoint detection result, but does not correct the viewpoint detection result. The method of Patent Document 3 corrects the detection position of the touch panel based on the viewpoint position, and does not correct the viewpoint position.
本発明は、上記に鑑みてなされたものであって、視点検出の精度を向上できる視点検出装置および視点検出方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a viewpoint detection apparatus and a viewpoint detection method that can improve viewpoint detection accuracy.
上述した課題を解決し、目的を達成するために、本発明は、操作者の視線方向を検出する視線検出部と、前記視線方向に基づいて、表示部の表示領域における前記操作者の視点の位置を表す視点位置を検出する視点検出部と、前記表示領域内を前記操作者が指示した位置を表す指示位置を取得する取得部と、前記指示位置に基づいて前記視点位置を補正する補正部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention includes a gaze detection unit that detects the gaze direction of the operator, and the viewpoint of the operator in the display area of the display unit based on the gaze direction. A viewpoint detection unit that detects a viewpoint position that represents a position; an acquisition unit that acquires an indication position that indicates the position indicated by the operator in the display area; and a correction unit that corrects the viewpoint position based on the indication position And.
本発明にかかる視点検出装置および視点検出方法は、視点検出の精度を向上できるという効果を奏する。 The viewpoint detection device and viewpoint detection method according to the present invention have an effect of improving the accuracy of viewpoint detection.
以下に、本発明にかかる視点検出装置および視点検出方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of a viewpoint detection device and a viewpoint detection method according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment.
カメラを内蔵した、または、外部にカメラを接続した電子機器は、カメラで撮像した操作者の眼画像から、操作者が画面上の見ている位置を表す視点位置を算出することが可能である。しかし、眼画像から検出した視点位置は、個人によりばらつきが大きく、その結果だけでは十分な精度を得られないことがある。 An electronic device with a built-in camera or an externally connected camera can calculate a viewpoint position representing the position the operator is looking on the screen from the eye image of the operator captured by the camera. . However, the viewpoint position detected from the eye image varies greatly depending on the individual, and sufficient accuracy may not be obtained only by the result.
本実施形態では、操作者がタッチパネルでタッチ操作を行う場合、タッチされた時の眼画像はタッチ位置周辺を見ていると判断し、タッチ位置(指示位置)を視点検出結果(視点位置)の補正に使用する。これにより、より精度の高い視点位置検出を実現する。 In this embodiment, when the operator performs a touch operation on the touch panel, it is determined that the eye image when touched is looking around the touch position, and the touch position (instructed position) is determined as the viewpoint detection result (viewpoint position). Used for correction. This realizes more accurate viewpoint position detection.
なお、適用可能な装置はタッチパネルを備えた電子機器に限られるものではない。表示画面上での操作者の視点を検出する機能と、操作者が表示画面に対して指示した位置(指示位置)を検出する機能と、を備える装置であれば、あらゆる装置に適用できる。例えば、タッチパネルの代わりに、マウスやタッチパッドなどにより画面上の位置を指示する機能を備える装置であってもよい。また、カメラ以外を用いて操作者の視点を検出する方法を適用してもよい。 Note that applicable apparatuses are not limited to electronic devices including a touch panel. The present invention can be applied to any device as long as the device has a function of detecting the viewpoint of the operator on the display screen and a function of detecting a position (designated position) designated by the operator on the display screen. For example, instead of the touch panel, a device having a function of instructing a position on the screen with a mouse or a touch pad may be used. Further, a method of detecting the viewpoint of the operator using a device other than the camera may be applied.
図1は、本実施形態の視点検出装置の一例としてのタブレット型PC100の構成を示す図である。図1は、タブレット型PC100のタッチパネル、カメラ(ステレオカメラ)、および、赤外線光源の配置の例を示している。タブレット型PC100は、表示部と操作部の機能を有するタッチパネル102を備えている。タッチパネル102の下側に、1組のステレオカメラ(左カメラ103、右カメラ104)が配置される。
FIG. 1 is a diagram illustrating a configuration of a
ステレオカメラのレンズの直前には、円周方向に赤外線LED光源105、106が配置される。赤外線LED光源105が左カメラ103用の光源である。赤外線LED光源106が右カメラ104用の光源である。各カメラから離れた位置に赤外線LED光源107、108が配置される。赤外線LED光源107が左カメラ103用の光源である。赤外線LED光源108が右カメラ104用の光源である。赤外線LED光源105、106は、瞳孔を高輝度で反射させた画像を取得するために点灯する。赤外線LED光源107、108は瞳孔を低輝度で反射させた画像を取得するために点灯する。
Infrared
瞳孔の検出方法および瞳孔等による視線の検出方法としては、例えば特許文献1等に記載の方法を適用できる。 As a pupil detection method and a gaze detection method using a pupil or the like, for example, the method described in Patent Document 1 can be applied.
図2は、タブレット型PC100の機能構成の一例を示すブロック図である。タブレット型PC100は、タッチパネル102と、制御部120と、駆動・IF部130と、左カメラ103と、右カメラ104と、赤外線LED光源105〜108と、を備えている。
FIG. 2 is a block diagram illustrating an example of a functional configuration of the tablet PC 100. The tablet PC 100 includes a
制御部120は、タブレット型PC100の全体を制御する。制御部120は、例えば処理結果をタッチパネル102等に出力する。制御部120には、タッチパネル102と、駆動・IF部130が接続される。駆動・IF部130は、カメラIF131R、131Lと、LED駆動制御部132と、を備える。
The
駆動・IF部130には、カメラIF131R、131Lを介して、それぞれ、左カメラ103、右カメラ104が接続される。駆動・IF部130がこれらのカメラを駆動することにより、操作者などを撮像する。
The
左カメラ103からはフレーム同期信号が出力される。フレーム同期信号は、右カメラ104とLED駆動制御部132とに入力される。これにより、第1フレームで、タイミングをずらして左右の波長1の赤外線光源(赤外線LED光源105、106)が発光され、それに対応して左右カメラ(右カメラ104、左カメラ103)による画像が取り込まれる。また、第2フレームで、タイミングをずらして左右の波長2の赤外線光源(赤外線LED光源107、108)が発光され、それに対応して左右カメラによる画像が取り込まれる。
A frame synchronization signal is output from the
赤外線LED光源105、106は、例えば波長1の赤外線を照射する。赤外線LED光源107、108は、例えば波長2の赤外線を照射する。
The infrared
波長1および波長2は、それぞれ例えば900nm未満の波長および900nm以上の波長とする。900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像すると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合に比べて、明るい瞳孔像が得られるためである。なお、照射する赤外線の波長については、上記に限らず、波長1の赤外線を照射して瞳孔で反射された反射光を撮像した結果と、波長2の赤外線を照射して瞳孔で反射された反射光を撮像した結果とで、差が出せるものであればよい。 The wavelength 1 and the wavelength 2 are, for example, a wavelength of less than 900 nm and a wavelength of 900 nm or more, respectively. When the reflected light reflected by the pupil is irradiated with infrared light having a wavelength of less than 900 nm, a bright pupil image is obtained as compared with the case where reflected light reflected by the pupil is irradiated with infrared light having a wavelength of 900 nm or more. It is because it is obtained. In addition, about the wavelength of the infrared rays to irradiate, it is not restricted to the above, The result which imaged the reflected light reflected by the pupil by irradiating the infrared rays of wavelength 1, and the reflection reflected by the pupil after irradiating the infrared rays of wavelength 2 What is necessary is just to be able to make a difference with the result of imaging light.
また、視線の検出方法は、このようなステレオカメラを使用した方法に限らず、例えばタブレット型PC100に内蔵された単眼カメラを使用した方法でも構わない。
Further, the line-of-sight detection method is not limited to a method using such a stereo camera, and for example, a method using a monocular camera built in the
制御部120は、視線検出部121と、視点検出部122と、取得部123と、算出部124と、補正部125と、を備えている。
The
視線検出部121は、撮像部(ステレオカメラ)により撮像された撮像画像から、操作者の視線(視線方向)を検出する。視線を検出する処理には、操作者の目の位置を検出する処理が含まれる。視点検出部122は、検出された視線方向を用いて操作者の視点を検出する。視点検出部122は、例えば、タッチパネル102の表示画面(表示領域)上で、操作者が注視する点である視点(注視点)の位置(視点位置)を検出する。視線検出部121による視線検出方法、および、視点検出部122による視点検出方法としては、従来から用いられているあらゆる方法を適用できる。以下では、特許文献3と同様に、ステレオカメラを用いて操作者の視線方向および注視点を検出する場合を例に説明する。
The line-of-
この場合、まず視線検出部121は、ステレオカメラで撮像された画像から、操作者の視線方向を検出する。例えば視線検出部121は、波長1の赤外線を照射して撮像した画像と、波長2の赤外線を照射して撮像した画像との差分を求め、瞳孔像が明確化された画像を生成する。視線検出部121は、左右のカメラ(右カメラ104、左カメラ103)で撮像された画像それぞれから上記のように生成された2つの画像を用いて、ステレオ視の手法により操作者の瞳孔の位置(目の位置)を算出する。また、視線検出部121は、左右のカメラで撮像された画像を用いて操作者の角膜反射の位置を算出する。そして、視線検出部121は、操作者の瞳孔の位置と角膜反射位置とから、操作者の視線方向を表す視線ベクトルを算出する。
In this case, the line-of-
なお、操作者の目の位置および視線の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮像した画像を解析することにより、操作者の目の位置および視線を検出してもよい。 Note that the method for detecting the eye position and line of sight of the operator is not limited to this. For example, the position and line of sight of the operator's eyes may be detected by analyzing an image captured using visible light instead of infrared light.
視点検出部122は、予め定められた座標系で表される視線ベクトルとタッチパネル102の表示領域に対応する平面との交点を、操作者の注視点として検出する。座標系は、例えば、タッチパネル102の表示領域の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)とした座標系を用いることができる。両目の視線方向が得られた場合は、操作者の左右の視線の交点を求めることによって注視点を計測してもよい。
The viewpoint detection unit 122 detects an intersection point between a line-of-sight vector expressed in a predetermined coordinate system and a plane corresponding to the display area of the
取得部123は、表示部の表示領域内を操作者が指示した位置を表す指示位置を取得する。表示部としてタッチパネル102を用いる場合は、取得部123は、タッチパネル102上で操作者(指、タッチペンなど)が接触した指示位置を取得する。マウスやタッチパッドなどの指示機能を用いる場合は、取得部123は、指示機能によって指示される、表示領域上のカーソルの位置などを指示位置として取得する。
The
算出部124は、操作者が表示領域内を指示したときに検出された視点位置と、指示位置と、の差分を算出する。例えば、算出部124は、上記座標系のX座標、Y座標ごとの、指示位置と視点位置との差分を算出する。また、算出部124は、差分から、以降に検出される視点位置を補正するための補正値を算出する。後述するように、タッチパネル102の表示領域を複数の表示領域に分割する場合は、算出部124は、分割した複数の表示領域(以下、分割領域ともいう)ごとに差分および補正値を算出してもよい。
The calculation unit 124 calculates a difference between the viewpoint position detected when the operator points in the display area and the designated position. For example, the calculation unit 124 calculates the difference between the designated position and the viewpoint position for each X coordinate and Y coordinate of the coordinate system. Further, the calculation unit 124 calculates a correction value for correcting the viewpoint position detected later from the difference. As will be described later, when the display area of the
補正部125は、取得部123により取得された指示位置に基づいて、視点検出部122により検出された視点位置を補正する。例えば、補正部125は、指示位置との差分および補正値が算出された後に検出された視点位置を、補正値によって補正する。タッチパネル102の表示領域を複数の分割領域に分割する場合は、補正部125は、複数の分割領域ごとに算出された複数の補正値を用いて視点位置を補正してもよい。
The
次に、このように構成された本実施形態にかかるタブレット型PC100による視点検出処理について図3を用いて説明する。図3は、本実施形態の視点検出処理の一例を表すフローチャートである。
Next, viewpoint detection processing by the
まず、LED駆動制御部132は、左カメラ103に対応する赤外線LED光源105を点灯させる(ステップS101)。視線検出部121は、赤外線LED光源105が点灯されたときに左カメラ103により撮像された明瞳孔用の画像を取得する(ステップS102)。右カメラ104についても同様に明瞳孔画像が取得される。すなわち、LED駆動制御部132は、右カメラ104に対応する赤外線LED光源106を点灯させる(ステップS103)。視線検出部121は、赤外線LED光源106が点灯されたときに右カメラ104により撮像された明瞳孔用の画像を取得する(ステップS104)。
First, the LED
なお、赤外線LED光源105、106は、瞳孔で高輝度反射する明瞳孔用LEDである。赤外線LED光源107、108は、瞳孔で低輝度反射する暗瞳孔用LEDである。
The infrared LED
次に、瞳孔を低輝度で反射させるために、LED駆動制御部132は、左カメラ103に対応する赤外線LED光源107を点灯させる(ステップS105)。視線検出部121は、赤外線LED光源107が点灯されたときに左カメラ103により撮像された暗瞳孔用の画像を取得する(ステップS106)。右カメラ104についても同様に暗瞳孔画像が取得される。すなわち、LED駆動制御部132は、右カメラ104に対応する赤外線LED光源108を点灯させる(ステップS107)。視線検出部121は、赤外線LED光源108が点灯されたときに右カメラ104により撮像された暗瞳孔用の画像を取得する(ステップS108)。
Next, in order to reflect the pupil with low luminance, the LED
次に、視線検出部121は、明瞳孔画像と暗瞳孔画像のそれぞれについて、左カメラ103で撮像された画像と右カメラ104で撮像された画像との差分(輝度の差分)を表す差分画像を生成する(ステップS109)。例えば視線検出部121は、左右カメラそれぞれで撮像された画像の各位置(各画素)の輝度の差をそれぞれ求めることにより差分画像を生成する。求めた差分画像では、瞳孔が明るく残り、瞳孔以外の部分は差分をとることにより無くなるか小さくなる。
Next, the line-of-
次に、視線検出部121は、差分画像中の瞳孔候補と考えられる高輝度な各領域の中から、2つの領域を瞳孔として検出する(ステップS110)。さらに視線検出部121は、瞳孔として検出された領域近辺の画像から、角膜反射と考えられる領域を算出する(ステップS111)。また視線検出部121は、左右カメラから取得した画像から、瞳孔とカメラとの間の距離を算出する(ステップS112)。視線検出部121は、算出した瞳孔の位置、角膜反射の位置、および、瞳孔とカメラとの間の距離から、操作者の視線方向を算出する。そして、視点検出部122は、視線方向を用いて操作者がタッチパネル102の表示領域上のどこを見ているか、すなわち、注視点の位置(視点位置)を検出する(ステップS113)。
Next, the line-of-
この後、視線検出および視点検出の動作を続けるためにステップS101に戻り同様の動作が繰り返し実行される。 Thereafter, in order to continue the operations of the gaze detection and the viewpoint detection, the process returns to step S101 and the same operation is repeatedly executed.
次に、タッチパネル102を操作した時の指示位置と視点位置との差分の算出方法について図4を用いて説明する。図4は、指示位置と視点位置との差分の算出方法の一例を示す図である。
Next, a method for calculating the difference between the designated position and the viewpoint position when the
操作者は、タブレット型PC100を使用する際、タッチパネル102の画面を見る。上記のように、この時の操作者の目の画像が、明瞳孔用LED(赤外線LED光源105、106)と暗瞳孔用LED(赤外線LED光源107、108)をそれぞれ点灯させた状態で左右のステレオカメラ(左カメラ103、右カメラ104)によって撮影される。そして、撮像された画像から算出される瞳孔の位置および角膜反射の位置の情報等から、視点位置が算出される。
The operator looks at the screen of the
一方、操作者は、タッチパネル102の画面上で操作する時、タッチパネル102の画面と指との接触点401の周辺を注視すると考えられる。このため、算出部124は、この時に求められた視点位置の座標と、接触点401の位置(指示位置)の座標から、接触点401における視点位置の差分を算出し、記憶部(図示せず)等に保持しておく。
On the other hand, when the operator operates on the screen of the
図5は、指示位置と視点位置との差分から補正値を算出する方法の一例を示す図である。図5の例では、タッチパネル102の表示領域の全体を4分割した領域をそれぞれ領域1〜4としている。操作者がタッチパネル102を使用した時の、カメラ画像から得られる視点位置を視点位置511とし、タッチパネル102の接触点の位置を指示位置512とする。なお、視点位置511は、前回までに算出された補正値(初回の処理時は補正値の初期値(例えば0)を用いればよい)を用いて補正された後の視点位置を表す。この時、視点位置511は領域2に存在するため、視点位置511と指示位置512との差分は、領域2の補正値に加算される。このように、前回までに算出された補正値に、今回算出された差分を加算することにより、以降の補正で用いる補正値が算出される。図5の例では、視点位置511と指示位置512とから差分が算出される。そして、この差分から得られる補正値を用いて、補正前の視点位置521から、補正後の視点位置522が求められる。
FIG. 5 is a diagram illustrating an example of a method for calculating the correction value from the difference between the designated position and the viewpoint position. In the example of FIG. 5, areas obtained by dividing the entire display area of the
次に、本実施形態の補正値算出処理について図6を用いて説明する。補正値算出処理は、例えば、タッチパネル102が操作されたときに実行される処理であり、この操作により検出された指示位置を用いて、視点検出処理で検出された視点位置を補正するための補正値が算出される。図6は、本実施形態の補正値算出処理の一例を表すフローチャートである。
Next, the correction value calculation process of this embodiment will be described with reference to FIG. The correction value calculation process is, for example, a process executed when the
取得部123は、タッチパネル102が操作されたか否かを判断する(ステップS201)。操作されていない場合(ステップS201:No)、操作されるまで処理を繰り返す。操作された場合(ステップS201:Yes)、取得部123は、タッチパネル102の表示画面上のタッチ位置(指示位置)を取得する(ステップS202)。取得部123は、さらにこの時のカメラ画像から算出された視点位置を取得する(ステップS203)。算出部124は、取得された視点位置が、画面を分割した複数の分割領域のうち、いずれの分割領域に存在するかを判定する(ステップS204)。算出部124は、タッチ位置と視点位置との差分を算出する(ステップS205)。算出部124は、該当する分割領域の補正値に今回算出された差分を加算することにより、該当分割領域の補正値を算出する(ステップS206)。
The
図7は、タッチパネル102を操作していない時の視点位置の補正方法を説明するための図である。位置711は、領域1での補正前の視点位置、位置721は、補正後の視点位置の例を表す。位置712は、領域2での補正前の視点位置、位置722は、補正後の視点位置の例を表す。位置713は、領域3での補正前の視点位置、位置723は補正後の視点位置の例を表す。位置714は、領域4での補正前の視点位置、位置724は補正後の視点位置の例を表す。補正前の視点位置と補正後の視点位置とを結ぶ矢印が補正値に対応する。
FIG. 7 is a diagram for explaining a method of correcting the viewpoint position when the
補正部125は、例えば、検出された視点位置を、検出された視点位置が含まれる領域の補正値を用いて補正する。補正部125が、各分割領域(領域1〜4)それぞれに対して得られる複数の補正値の一部または全部を用いて視点位置を補正してもよい。例えば、補正部125は、補正前の視点位置731が検出されたときに、各分割領域の補正前の視点位置(位置711、位置712、位置713、位置714)と視点位置731との位置関係に応じて、各分割領域の補正値を重み付け加算し、実際に用いる補正値を算出してもよい。重みは、例えば、視点位置731との距離が近い視点位置を含む分割領域の補正値ほど、大きくなるように設定してもよい。図7の位置732は、このようにして視点位置731を補正した補正後の視点位置の例を表している。
For example, the correcting
このように、本実施形態によれば、タッチパネル102を操作していない時の操作者の視点位置を、タッチパネル102の操作時のカメラ画像から算出した注視点と接触点の座標の差分から求められる補正値により補正する。これにより、より精度の高い視点位置検出を行うことが可能となる。
As described above, according to the present embodiment, the viewpoint position of the operator when the
本発明の好ましい実施態様を以下に列挙する。
(実施態様1) 操作者の視線方向を検出する視線検出部と、
前記視線方向に基づいて、表示部の表示領域における前記操作者の視点の位置を表す視点位置を検出する視点検出部と、
前記表示領域内を前記操作者が指示した位置を表す指示位置を取得する取得部と、
前記指示位置に基づいて前記視点位置を補正する補正部と、
を備えることを特徴とする視点検出装置。
(実施態様2) 前記操作者が前記表示領域内を指示したときに前記視点検出部により検出された前記視点位置と、前記指示位置と、の差分を算出し、前記視点位置を補正するための補正値を、前記差分から算出する算出部をさらに備え、
前記補正部は、前記差分が算出された後に検出された前記視点位置を前記補正値によって補正すること、
を特徴とする実施態様1に記載の視点検出装置。
(実施態様3) 前記算出部は、前記補正値によって補正された前記視点位置と、前記指示位置との差分を、前記補正値に加算することにより、新たな補正値を算出し、
前記補正部は、新たな補正値が算出された後に検出された前記視点位置を、新たな補正値によって補正すること、
を特徴とする実施態様2に記載の視点検出装置。
(実施態様4) 前記算出部は、前記表示部を分割した複数の表示領域ごとに、前記差分を算出し、
前記補正部は、前記複数の表示領域に対して算出される複数の前記差分を用いて、前記視点位置を補正すること、
を特徴とする実施態様2に記載の視点検出装置。
(実施態様5) 操作者の視線方向を検出する視線検出ステップと、
前記視線方向に基づいて、表示部の表示領域における前記操作者の視点の位置を表す視点位置を検出する視点検出ステップと、
前記表示領域内を前記操作者が指示した位置を表す指示位置を取得する取得ステップと、
前記指示位置に基づいて前記視点位置を補正する補正ステップと、
を含む視点検出方法。
Preferred embodiments of the present invention are listed below.
(Embodiment 1) A line-of-sight detection unit that detects the line-of-sight direction of the operator;
A viewpoint detection unit that detects a viewpoint position that represents the position of the operator's viewpoint in the display area of the display unit based on the line-of-sight direction;
An acquisition unit for acquiring an indicated position representing a position indicated by the operator in the display area;
A correction unit that corrects the viewpoint position based on the indicated position;
A viewpoint detection apparatus comprising:
(Embodiment 2) For calculating a difference between the viewpoint position detected by the viewpoint detection unit when the operator indicates the inside of the display area and the specified position, and correcting the viewpoint position A calculation unit that calculates a correction value from the difference;
The correction unit corrects the viewpoint position detected after the difference is calculated by the correction value;
The viewpoint detection apparatus according to the first embodiment, characterized in that:
(Embodiment 3) The calculation unit calculates a new correction value by adding a difference between the viewpoint position corrected by the correction value and the designated position to the correction value,
The correction unit corrects the viewpoint position detected after a new correction value is calculated with the new correction value;
The viewpoint detection apparatus according to the second embodiment, characterized in that:
(Embodiment 4) The said calculation part calculates the said difference for every some display area which divided | segmented the said display part,
The correction unit corrects the viewpoint position using a plurality of the differences calculated for the plurality of display areas;
The viewpoint detection apparatus according to the second embodiment, characterized in that:
(Embodiment 5) A line-of-sight detection step of detecting an operator's line-of-sight direction;
A viewpoint detection step of detecting a viewpoint position representing the position of the operator's viewpoint in the display area of the display unit based on the line-of-sight direction;
An acquisition step of acquiring an indicated position representing a position indicated by the operator in the display area;
A correction step of correcting the viewpoint position based on the indicated position;
Viewpoint detection method.
以上のように、本実施形態によれば、例えば以下のような効果が得られる。
・従来の視線の検出方法に加え、タッチパネル等をタッチ(指示)した位置を示す情報を得ることにより、視点検出の補正を行うことが可能となる。これにより、より精度の高い視点検出を行うことができる。
As described above, according to the present embodiment, for example, the following effects can be obtained.
In addition to the conventional gaze detection method, it is possible to correct viewpoint detection by obtaining information indicating the position where the touch panel or the like is touched (instructed). Thereby, viewpoint detection with higher accuracy can be performed.
100 タブレット型PC
102 タッチパネル
103 左カメラ
104 右カメラ
105〜108 赤外線LED光源
120 制御部
121 視線検出部
122 視点検出部
123 取得部
124 算出部
125 補正部
130 駆動・IF部
131R、131L カメラIF
132 LED駆動制御部
100 Tablet PC
DESCRIPTION OF
132 LED drive control unit
Claims (3)
前記視線方向に基づいて、表示部の表示領域における前記操作者の視点の位置を表す視点位置を検出する視点検出部と、
前記表示領域内を前記操作者が指示した位置を表す指示位置を取得する取得部と、
前記指示位置に基づいて前記視点位置を補正する補正部と、
を備えることを特徴とする視点検出装置。 A line-of-sight detector that detects the line-of-sight direction of the operator;
A viewpoint detection unit that detects a viewpoint position that represents the position of the operator's viewpoint in the display area of the display unit based on the line-of-sight direction;
An acquisition unit for acquiring an indicated position representing a position indicated by the operator in the display area;
A correction unit that corrects the viewpoint position based on the indicated position;
A viewpoint detection apparatus comprising:
前記補正部は、前記差分が算出された後に検出された前記視点位置を前記補正値によって補正すること、
を特徴とする請求項1に記載の視点検出装置。 A difference between the viewpoint position detected by the viewpoint detection unit when the operator points in the display area and the indicated position is calculated, and a correction value for correcting the viewpoint position is calculated. A calculation unit for calculating from the difference,
The correction unit corrects the viewpoint position detected after the difference is calculated by the correction value;
The viewpoint detection apparatus according to claim 1.
前記視線方向に基づいて、表示部の表示領域における前記操作者の視点の位置を表す視点位置を検出する視点検出ステップと、
前記表示領域内を前記操作者が指示した位置を表す指示位置を取得する取得ステップと、
前記指示位置に基づいて前記視点位置を補正する補正ステップと、
を含む視点検出方法。 A line-of-sight detection step for detecting the line-of-sight direction of the operator;
A viewpoint detection step of detecting a viewpoint position representing the position of the operator's viewpoint in the display area of the display unit based on the line-of-sight direction;
An acquisition step of acquiring an indicated position representing a position indicated by the operator in the display area;
A correction step of correcting the viewpoint position based on the indicated position;
Viewpoint detection method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013178070A JP2015046111A (en) | 2013-08-29 | 2013-08-29 | Viewpoint detection device and viewpoint detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013178070A JP2015046111A (en) | 2013-08-29 | 2013-08-29 | Viewpoint detection device and viewpoint detection method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017083470A Division JP2017146987A (en) | 2017-04-20 | 2017-04-20 | Viewpoint detection device and viewpoint detection method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015046111A true JP2015046111A (en) | 2015-03-12 |
Family
ID=52671536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013178070A Pending JP2015046111A (en) | 2013-08-29 | 2013-08-29 | Viewpoint detection device and viewpoint detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015046111A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016147499A1 (en) * | 2015-03-17 | 2016-09-22 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017169685A (en) * | 2016-03-22 | 2017-09-28 | 日本電気株式会社 | Visual line estimating device and visual line estimation method |
JP2018041219A (en) * | 2016-09-06 | 2018-03-15 | アイシン・エィ・ダブリュ株式会社 | View point acquisition system and view point acquire program |
JP2023517380A (en) * | 2020-03-18 | 2023-04-25 | 北京七▲しん▼易維信息技術有限公司 | Eye tracking calibration method and device |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1176165A (en) * | 1997-09-02 | 1999-03-23 | Sanyo Electric Co Ltd | Visual axis detection device |
US20030098954A1 (en) * | 2001-04-27 | 2003-05-29 | International Business Machines Corporation | Calibration-free eye gaze tracking |
JP2007025963A (en) * | 2005-07-14 | 2007-02-01 | Nippon Hoso Kyokai <Nhk> | Gaze measurement device, gaze measurement program, and gaze calibration data generation program |
US20110182472A1 (en) * | 2008-07-08 | 2011-07-28 | Dan Witzner Hansen | Eye gaze tracking |
JP2012065781A (en) * | 2010-09-22 | 2012-04-05 | Fujitsu Ltd | Line-of-sight detection device, and correction coefficient determination program |
JP2012080910A (en) * | 2010-10-06 | 2012-04-26 | Fujitsu Ltd | Correction value computing device, correction value computing method, and correction value computing program |
JP2013150669A (en) * | 2012-01-24 | 2013-08-08 | Jvc Kenwood Corp | Autism diagnosis support system and autism diagnosis support method |
-
2013
- 2013-08-29 JP JP2013178070A patent/JP2015046111A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1176165A (en) * | 1997-09-02 | 1999-03-23 | Sanyo Electric Co Ltd | Visual axis detection device |
US20030098954A1 (en) * | 2001-04-27 | 2003-05-29 | International Business Machines Corporation | Calibration-free eye gaze tracking |
JP2007025963A (en) * | 2005-07-14 | 2007-02-01 | Nippon Hoso Kyokai <Nhk> | Gaze measurement device, gaze measurement program, and gaze calibration data generation program |
US20110182472A1 (en) * | 2008-07-08 | 2011-07-28 | Dan Witzner Hansen | Eye gaze tracking |
JP2012065781A (en) * | 2010-09-22 | 2012-04-05 | Fujitsu Ltd | Line-of-sight detection device, and correction coefficient determination program |
JP2012080910A (en) * | 2010-10-06 | 2012-04-26 | Fujitsu Ltd | Correction value computing device, correction value computing method, and correction value computing program |
JP2013150669A (en) * | 2012-01-24 | 2013-08-08 | Jvc Kenwood Corp | Autism diagnosis support system and autism diagnosis support method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016147499A1 (en) * | 2015-03-17 | 2016-09-22 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017169685A (en) * | 2016-03-22 | 2017-09-28 | 日本電気株式会社 | Visual line estimating device and visual line estimation method |
JP2018041219A (en) * | 2016-09-06 | 2018-03-15 | アイシン・エィ・ダブリュ株式会社 | View point acquisition system and view point acquire program |
JP2023517380A (en) * | 2020-03-18 | 2023-04-25 | 北京七▲しん▼易維信息技術有限公司 | Eye tracking calibration method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9473696B2 (en) | Gaze detection apparatus, gaze detection computer program, and display apparatus | |
EP3671313B1 (en) | Gaze tracking using mapping of pupil center position | |
US20140055342A1 (en) | Gaze detection apparatus and gaze detection method | |
JP6123694B2 (en) | Information processing apparatus, information processing method, and program | |
JP6971686B2 (en) | Line-of-sight detection device and line-of-sight detection method | |
JP6747172B2 (en) | Diagnosis support device, diagnosis support method, and computer program | |
JP2015046111A (en) | Viewpoint detection device and viewpoint detection method | |
EP3811852B1 (en) | Device, method, and program for detecting gaze | |
JP2019146915A (en) | Evaluation device, evaluation method, and evaluation program | |
JP6555707B2 (en) | Pupil detection device, pupil detection method, and pupil detection program | |
JP2017162233A (en) | Visual line detection device and visual line detection method | |
WO2021059745A1 (en) | Gaze data correction device, evaluation device, gaze data correction method, evaluation method, gaze data correction program, and evaluation program | |
JP7063045B2 (en) | Line-of-sight detection device, line-of-sight detection method and line-of-sight detection program | |
JP2017146987A (en) | Viewpoint detection device and viewpoint detection method | |
US10996747B2 (en) | Line-of-sight detection device, line-of-sight detection method, and medium | |
US20220087583A1 (en) | Evaluation device, evaluation method, and evaluation program | |
US11241152B2 (en) | Evaluation device, evaluation method, and non-transitory storage medium | |
JP2016049258A (en) | Lighting and imaging device and visual axis detecting apparatus including the same | |
US10310668B2 (en) | Touch screen display system and a method for controlling a touch screen display system | |
US11868544B2 (en) | Information processing device, information processing method, program, display system, display method, and electronic writing tool | |
JP6269177B2 (en) | Pupil detection device, gaze detection device, and pupil detection method | |
JP2024090775A (en) | Sight line detection device, sight line detection method and sight line detection program | |
WO2022044395A1 (en) | Sight line detection device, sight line detection method, and sight line detection program | |
US20230236666A1 (en) | Optical apparatus, image pickup apparatus, control method of optical apparatus, and storage medium | |
WO2023008023A1 (en) | Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161007 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170131 |