JP2023155585A - Electronic device - Google Patents

Electronic device Download PDF

Info

Publication number
JP2023155585A
JP2023155585A JP2022064995A JP2022064995A JP2023155585A JP 2023155585 A JP2023155585 A JP 2023155585A JP 2022064995 A JP2022064995 A JP 2022064995A JP 2022064995 A JP2022064995 A JP 2022064995A JP 2023155585 A JP2023155585 A JP 2023155585A
Authority
JP
Japan
Prior art keywords
line
user
sight
amount
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022064995A
Other languages
Japanese (ja)
Inventor
航平 江口
Kohei Eguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022064995A priority Critical patent/JP2023155585A/en
Publication of JP2023155585A publication Critical patent/JP2023155585A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

To provide a technique that enables high-precision eye-tracking regardless of the user's eye condition.SOLUTION: An electronic device has control means for controlling the amount of light incident on a user's eye. The control means, during calibration of eye tracking function for obtaining eye gaze information on the user's eye gaze, controls the amount of light incident on the user's eye split to each of a plurality of amounts of light.SELECTED DRAWING: Figure 9

Description

本発明は、視線検出機能のキャリブレーションのための制御を行う電子機器に関する。 The present invention relates to an electronic device that performs control for calibrating a line of sight detection function.

近年、MR(Mixed Reality)やAR(Augmented Reality)を利用した眼鏡型デバイスなど、ユーザの視線を検出する機能を有するヘッドマウントディスプレイ(HMD)の自動化・インテリジェント化が進んでいる。このようなHMDにおいて、検出した注視点と実際の注視点(ユーザの意図した注視点)とのずれが生じ、実際の注視点にポインタを表示することができないことがある。特許文献1,2には、視線検出機能のキャリブレーションを行うことが開示されている。 In recent years, head-mounted displays (HMDs), such as eyeglass-type devices that utilize MR (Mixed Reality) and AR (Augmented Reality), that have a function of detecting the user's line of sight have become increasingly automated and intelligent. In such an HMD, a deviation occurs between the detected point of gaze and the actual point of gaze (the point of gaze intended by the user), and the pointer may not be displayed at the actual point of gaze. Patent Documents 1 and 2 disclose that the line of sight detection function is calibrated.

特開2017-138609号公報Japanese Patent Application Publication No. 2017-138609 特開2019-086556号公報JP2019-086556A

しかしながら、ユーザの眼球の状態は時々刻々と変化するため、従来のキャリブレーションを行っても、視線検出を高精度に行えないことがある。 However, since the condition of the user's eyeballs changes from moment to moment, even if conventional calibration is performed, line of sight detection may not be performed with high accuracy.

本発明は、ユーザの眼球の状態に依らず高精度な視線検出を可能にする技術を提供することを目的とする。 An object of the present invention is to provide a technology that enables highly accurate line-of-sight detection regardless of the state of the user's eyeballs.

本発明の第1の態様は、ユーザの眼に入射する光の量を制御する制御手段を有し、前記制御手段は、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御することを特徴とする電子機器である。 A first aspect of the present invention includes a control means for controlling the amount of light incident on the user's eyes, and the control means includes: during calibration of a line of sight detection function that obtains line of sight information regarding the user's line of sight; The electronic device is characterized in that the amount of light that enters the user's eyes is controlled to each of a plurality of light amounts.

本発明の第2の態様は、ユーザの眼に入射する光の量を制御するステップを有し、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御することを特徴とする電子機器の制御方法である。 A second aspect of the invention comprises the step of controlling the amount of light incident on the user's eyes, the amount of light incident on the user's eyes during calibration of a line of sight detection function for obtaining line of sight information regarding the user's line of sight. This is a method for controlling an electronic device, characterized in that the amount of light to be transmitted is controlled to each of a plurality of light amounts.

本発明の第3の態様は、ユーザの眼に入射する光の量を制御するステップをコンピュータに実行させるためのプログラムであって、前記ステップでは、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御することを特徴とするプログラムである。 A third aspect of the present invention is a program for causing a computer to execute a step of controlling the amount of light incident on the user's eyes, wherein the step includes a line-of-sight detection function that obtains line-of-sight information regarding the user's line of sight. The program is characterized in that during calibration, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts.

本発明の第4の態様は、ユーザの眼に入射する光の量を制御するステップをコンピュータに実行させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体であって、前記ステップでは、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御することを特徴とする記憶媒体である。 A fourth aspect of the present invention is a computer-readable storage medium storing a program for causing a computer to execute a step of controlling the amount of light incident on the user's eyes, wherein The storage medium is characterized in that during calibration of a line-of-sight detection function for obtaining line-of-sight information regarding the user's line of sight, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts.

本発明によれば、ユーザの眼球の状態に依らず高精度な視線検出が可能となる。 According to the present invention, highly accurate line of sight detection is possible regardless of the state of the user's eyeballs.

表示装置の外観図である。FIG. 2 is an external view of a display device. 表示装置のブロック図である。FIG. 2 is a block diagram of a display device. 視線検出方法の原理を説明するための図である。FIG. 2 is a diagram for explaining the principle of a line of sight detection method. 眼画像を示す図である。It is a figure showing an eye image. 視線検出動作のフローチャートである。It is a flowchart of line of sight detection operation. 視野を示す図である。FIG. 3 is a diagram showing a field of view. 瞳孔サイズと適切な視線補正パラメータとの対応関係を示す図である。FIG. 7 is a diagram showing the correspondence between pupil size and appropriate line of sight correction parameters. 調光デバイスの設置状態を示す図である。It is a figure showing the installation state of a light control device. 調光デバイスの透過率の変化を示す図である。FIG. 3 is a diagram showing changes in transmittance of a light control device. キャリブレーション動作のフローチャートである。It is a flowchart of a calibration operation. 眼球の内部の様子を示す図である。FIG. 3 is a diagram showing the inside of the eyeball.

<<実施例1>>
本発明の実施例1について説明する。以下では、光学シースルー方式の表示装置(光学シースルー方式のヘッドマウントディスプレイ(HMD))に本発明を適用した例を説明する。光学シースルー方式の表示装置を装着したユーザは、光学部材(レンズ)を通して外界(現実空間)を直接見るすることができる。さらに、ユーザは、光学シースルー方式の表示装置に表示された仮想物体を見ることができる。
<<Example 1>>
Example 1 of the present invention will be described. An example in which the present invention is applied to an optical see-through display device (an optical see-through head mounted display (HMD)) will be described below. A user wearing an optical see-through type display device can directly view the outside world (real space) through an optical member (lens). Furthermore, the user can view the virtual object displayed on the optical see-through display device.

なお、本発明は、別の表示装置にも適用可能である。例えば、本発明は、ビデオシースルー方式の表示装置(ビデオシースルー方式のHMD)にも適用可能である。ビデオシースルー方式の表示装置は、外界を撮像した仮想空間を略リアルタイムで表示する。ビデオシースルー方式の表示装置を装着したユーザは、外界を直接見ることはできないが、ビデオシースルー方式の表示装置に表示された仮想空間を見ることで、外界を間接的に見ることができる。本発明は、外界とは無関係の仮想空間を表示するHMDにも適用可能である。また、本発明は表示装置や、を制御する様々な制御装置に適用可能である。例えば、本発明は、表示装置に限られず、視線検出機能のキャリブレーションのための制御を行う様々な電子機器(例えば、表示装置のコントローラーや、パーソナルコンピュータ(PC)など)にも適用可能である。 Note that the present invention is also applicable to other display devices. For example, the present invention is also applicable to a video see-through type display device (video see-through type HMD). A video see-through type display device displays a virtual space in which images of the outside world are captured in substantially real time. A user wearing a video see-through display device cannot directly see the outside world, but can indirectly see the outside world by viewing the virtual space displayed on the video see-through display device. The present invention is also applicable to an HMD that displays a virtual space unrelated to the outside world. Further, the present invention is applicable to display devices and various control devices that control display devices. For example, the present invention is not limited to display devices, but can also be applied to various electronic devices (for example, controllers of display devices, personal computers (PCs), etc.) that perform control for calibration of line-of-sight detection functions. .

<構成の説明>
図1(A),1(B)は、実施例1に係る表示装置100の外観を示す。図1(A)は正面斜視図であり、図1(B)は背面斜視図である。表示装置100は、光学シースルー方式の表示装置であり、頭部に対して着脱可能なヘッドマウントディスプレイ(HMD)の一種であり、MR(Mixed Reality)やAR(Augmented Reality)を利用した眼鏡型デバイスである。表示装置100は、表示装置100を頭部に装着したユーザの右眼の視線と左眼の視線とを個別に検出することができる。以後、表示装置100を頭部に装着したユーザのことを、単にユーザと称する。
<Explanation of configuration>
1(A) and 1(B) show the appearance of a display device 100 according to a first embodiment. FIG. 1(A) is a front perspective view, and FIG. 1(B) is a rear perspective view. The display device 100 is an optical see-through type display device, which is a type of head-mounted display (HMD) that can be attached to and detached from the head, and is a glasses-type device that uses MR (Mixed Reality) or AR (Augmented Reality). It is. The display device 100 can separately detect the line of sight of the right eye and the line of sight of the left eye of the user who wears the display device 100 on the head. Hereinafter, a user who wears the display device 100 on his or her head will be simply referred to as a user.

レンズ10は、ユーザの眼に対向する光学部材である。ユーザは、レンズ10を通して外界を視認することができる。表示デバイス11は、後述するCPU2からの制御(表示制御)により、ユーザの両眼(右眼と左眼の両方)に対して、仮想物体(仮想物体の虚像)を表示する。ユーザは、表示された仮想物体を、外界に存在するように見ることができる。光源駆動回路12は、光源13a,13bを駆動する。光源13a,13bそれぞれは、ユーザの眼を照明する光源であり、例えばユーザに対して不感の赤外光を発する赤外発光ダイオードなどである。光源13a,13bから発せられてユーザの眼で反射した光
の一部は、受光レンズ16によって、眼撮像素子17に集光する。これらの部材は、左眼と右眼のそれぞれについて設けられている。例えば、眼撮像素子17として、右眼を撮像する右撮像素子と、左眼を撮像する左撮像素子とが設けられている。調光デバイス19(調光パネル)は外界からの光を調節する。調光制御回路18は、調光デバイス19の透過率を変化させる回路であり、例えば調光デバイス19に印加する電圧を制御する回路である。調光デバイス19は、調光制御回路18によって制御された透過率で外界からの光を透過する。
Lens 10 is an optical member facing the user's eyes. The user can view the outside world through the lens 10. The display device 11 displays a virtual object (virtual image of the virtual object) to both eyes (both the right eye and the left eye) of the user under control (display control) from the CPU 2, which will be described later. The user can view the displayed virtual object as if it existed in the outside world. The light source drive circuit 12 drives the light sources 13a and 13b. Each of the light sources 13a and 13b is a light source that illuminates the user's eyes, and is, for example, an infrared light emitting diode that emits infrared light that is insensitive to the user. A portion of the light emitted from the light sources 13a and 13b and reflected by the user's eyes is focused on the eye imaging device 17 by the light receiving lens 16. These members are provided for each of the left eye and right eye. For example, as the eye image sensor 17, a right image sensor that images the right eye and a left image sensor that images the left eye are provided. The light control device 19 (light control panel) adjusts light from the outside world. The light control circuit 18 is a circuit that changes the transmittance of the light control device 19, and is, for example, a circuit that controls the voltage applied to the light control device 19. The light control device 19 transmits light from the outside at a transmittance controlled by the light control circuit 18 .

図2は、表示装置100における電気的構成を示すブロック図である。CPU2は、表示装置100に内蔵されたマイクロコンピュータの中央処理部であり、表示装置100全体を制御する。CPU2には、表示デバイス11、光源駆動回路12、視線検出回路15、調光制御回路18、メモリ部3などが接続されている。 FIG. 2 is a block diagram showing the electrical configuration of the display device 100. The CPU 2 is a central processing unit of a microcomputer built into the display device 100, and controls the entire display device 100. A display device 11, a light source drive circuit 12, a line of sight detection circuit 15, a dimming control circuit 18, a memory section 3, and the like are connected to the CPU 2.

メモリ部3は、眼撮像素子17からの映像信号の記憶機能と、後述する視線の個人差を補正する視線補正パラメータの記憶機能とを有する。 The memory unit 3 has a function of storing a video signal from the eye image sensor 17 and a function of storing a line-of-sight correction parameter for correcting individual differences in line-of-sight, which will be described later.

視線検出回路15は、眼撮像素子17上に眼の光学像が結像した状態での眼撮像素子17の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU2に送信する。CPU2は、後述する所定のアルゴリズムに従って眼画像から視線検出に必要な特徴点を抽出し、特徴点の位置からユーザの視線を検出する。例えば、CPU2は、右撮像素子によって得られた右眼画像に基づいて、右眼の視線に関する右視線情報を取得し、左撮像素子によって得られた左眼画像に基づいて、左眼の視線に関する左視線情報を取得する。 The line of sight detection circuit 15 performs A/D conversion on the output of the eye image sensor 17 (eye image captured by the eye) in a state where an optical image of the eye is formed on the eye image sensor 17, and sends the result to the CPU 2. do. The CPU 2 extracts feature points necessary for line-of-sight detection from the eye image according to a predetermined algorithm described later, and detects the user's line-of-sight from the position of the feature point. For example, the CPU 2 acquires right line of sight information regarding the line of sight of the right eye based on the right eye image obtained by the right image sensor, and acquires right line of sight information regarding the line of sight of the left eye based on the left eye image obtained by the left image sensor. Obtain left gaze information.

<視線検出動作の説明>
図3,4(A),4(B),5を用いて、視線検出方法について説明する。右眼の視線も左眼の視線も、以下の視線検出方法で検出される。図3は、視線検出方法の原理を説明するための図であり、視線検出を行うための光学系の概略図である。図4(A)は、眼撮像素子17で撮像された眼画像(眼撮像素子17に投影された光学像)の概略図であり、図4(B)は眼撮像素子17におけるCCDの出力強度を示す図である。図5は、視線検出動作の概略フローチャートを表す。
<Explanation of gaze detection operation>
The line of sight detection method will be explained using FIGS. 3, 4(A), 4(B), and 5. Both the right eye's line of sight and the left eye's line of sight are detected by the following line of sight detection method. FIG. 3 is a diagram for explaining the principle of the line-of-sight detection method, and is a schematic diagram of an optical system for detecting the line-of-sight. 4(A) is a schematic diagram of an eye image captured by the eye image sensor 17 (an optical image projected onto the eye image sensor 17), and FIG. 4(B) is a schematic diagram of the output intensity of the CCD in the eye image sensor 17. FIG. FIG. 5 shows a schematic flowchart of the line of sight detection operation.

視線検出動作が開始すると、図5のステップS101で、CPU2は、光源駆動回路12を用いて光源13a,13bを制御して、ユーザの眼球14に向けて赤外光を発する。赤外光によって照明されたユーザの眼の光学像は、受光レンズ16を通して眼撮像素子17上に結像され、眼撮像素子17により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。 When the line of sight detection operation starts, in step S101 in FIG. 5, the CPU 2 controls the light sources 13a and 13b using the light source drive circuit 12 to emit infrared light toward the user's eyeball 14. An optical image of the user's eye illuminated by the infrared light is formed on the eye image sensor 17 through the light receiving lens 16, and is photoelectrically converted by the eye image sensor 17. This provides a processable electrical signal of the eye image.

ステップS102では、CPU2は、眼撮像素子17から視線検出回路15を介して眼画像(眼画像信号、眼画像の電気信号)を取得する。 In step S102, the CPU 2 acquires an eye image (eye image signal, electric signal of the eye image) from the eye image sensor 17 via the line of sight detection circuit 15.

ステップS103では、CPU2は、ステップS102で得られた眼画像から、光源13a,13bの角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を検出する。 In step S103, the CPU 2 detects the coordinates of a point corresponding to the corneal reflection images Pd and Pe of the light sources 13a and 13b and the pupil center c from the eye image obtained in step S102.

光源13a,13bより発せられた赤外光は、ユーザの眼球14の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、受光レンズ16により集光され、眼撮像素子17上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光束も眼撮像素子17上に結像して、眼画像における瞳孔端像a’,b’となる。 The infrared light emitted from the light sources 13a and 13b illuminates the cornea 142 of the user's eyeball 14. At this time, corneal reflection images Pd and Pe formed by a portion of the infrared light reflected on the surface of the cornea 142 are collected by the light receiving lens 16 and imaged on the eye imaging device 17, so that the corneal reflection images Pd and Pe are formed by a portion of the infrared light reflected on the surface of the cornea 142. The corneal reflection images become Pd' and Pe'. Similarly, the light beams from the ends a and b of the pupil 141 also form images on the eye imaging device 17, forming pupil end images a' and b' in the eye image.

図4(B)は、図4(A)の眼画像における領域αの輝度情報(輝度分布)を示す。図
4(B)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。実施例1では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。図4(B)に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光束が眼撮像素子17上に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の光彩143の領域(光彩143からの光束が結像して得られる、瞳孔像の外側の光彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)が座標Xaより大きい領域と、X座標が座標Xbより小さい領域とで、上記2種の輝度の中間の輝度が得られる。
FIG. 4(B) shows brightness information (brightness distribution) of area α in the eye image of FIG. 4(A). In FIG. 4(B), the horizontal direction of the eye image is the X-axis direction, the vertical direction is the Y-axis direction, and the luminance distribution in the X-axis direction is shown. In the first embodiment, the coordinates of the corneal reflection images Pd' and Pe' in the X-axis direction (horizontal direction) are Xd and Xe, and the coordinates of the pupil edge images a' and b' in the X-axis direction are Xa and Xb. As shown in FIG. 4B, an extremely high level of brightness is obtained at the coordinates Xd and Xe of the corneal reflection images Pd' and Pe'. In the area from the coordinate Xa to the coordinate Xb, which corresponds to the area of the pupil 141 (the area of the pupil image obtained when the light flux from the pupil 141 forms an image on the eye imaging device 17), except for the coordinates Xd and Xe, An extremely low level of brightness is obtained. In the area of the iris 143 outside the pupil 141 (the area of the iris image outside the pupil image obtained by imaging the light flux from the iris 143), a brightness intermediate between the above two types of brightness is obtained. Specifically, a region where the X coordinate (coordinate in the X-axis direction) is larger than the coordinate Xa and a region where the X coordinate is smaller than the coordinate Xb have a brightness intermediate between the above two types of brightness.

図4(B)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が眼撮像素子17上に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’の座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。 From the brightness distribution as shown in FIG. 4(B), the X coordinates Xd, Xe of the corneal reflection images Pd', Pe' and the X coordinates Xa, Xb of the pupil edge images a', b' can be obtained. Specifically, coordinates with extremely high brightness can be obtained as the coordinates of the corneal reflection images Pd', Pe', and coordinates with extremely low brightness can be obtained as the coordinates of the pupil edge images a', b'. . Furthermore, when the rotation angle θx of the optical axis of the eyeball 14 with respect to the optical axis of the light-receiving lens 16 is small, the pupil center image c' (pupil The coordinate Xc of the center of the image can be expressed as Xc≈(Xa+Xb)/2. That is, the coordinate Xc of the pupil center image c' can be calculated from the X coordinates Xa, Xb of the pupil edge images a', b'. In this way, the coordinates of the corneal reflection images Pd' and Pe' and the coordinates of the pupil center image c' can be estimated.

ステップS104では、CPU2は、眼画像の結像倍率βを算出する。結像倍率βは、受光レンズ16に対する眼球14の位置により決まる倍率で、角膜反射像Pd’,Pe’の間隔(Xd-Xe)の関数を用いて算出することができる。 In step S104, the CPU 2 calculates the imaging magnification β of the eye image. The imaging magnification β is determined by the position of the eyeball 14 with respect to the light-receiving lens 16, and can be calculated using a function of the interval (Xd-Xe) between the corneal reflection images Pd' and Pe'.

ステップS105では、CPU2は、受光レンズ16の光軸に対する眼球14の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼球14の回転角θxは、以下の式1で算出できる。Z-Y平面(X軸に垂直な平面)内での眼球14の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。

β×Oc×SINθx≒{(Xd+Xe)/2}-Xc ・・・(式1)
In step S105, the CPU 2 calculates the rotation angle of the optical axis of the eyeball 14 with respect to the optical axis of the light receiving lens 16. The X coordinate of the midpoint between the corneal reflection image Pd and the corneal reflection image Pe substantially matches the X coordinate of the center of curvature O of the cornea 142. Therefore, if the standard distance from the center of curvature O of the cornea 142 to the center c of the pupil 141 is Oc, then the rotation angle θx of the eyeball 14 in the ZX plane (plane perpendicular to the Y-axis) is as follows: It can be calculated using equation 1. The rotation angle θy of the eyeball 14 within the ZY plane (a plane perpendicular to the X-axis) can also be calculated in the same manner as the rotation angle θx.

β×Oc×SINθx≒{(Xd+Xe)/2}−Xc...(Formula 1)

ステップS106では、CPU2は、ステップS105で算出した回転角θx,θyを用いて、レンズ10上でユーザの注視点を推定する。注視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、注視点の座標(Hx,Hy)は以下の式2,3で算出できる。注視点は、視線が注がれた位置、ユーザが見ている位置、視線位置、注視位置などと捉えることもできる。

Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
In step S106, the CPU 2 estimates the user's gaze point on the lens 10 using the rotation angles θx and θy calculated in step S105. Assuming that the coordinates (Hx, Hy) of the gaze point are coordinates corresponding to the pupil center c, the coordinates (Hx, Hy) of the gaze point can be calculated using equations 2 and 3 below. The gaze point can also be understood as the position where the line of sight is focused, the position where the user is looking, the gaze position, the gaze position, etc.

Hx=m×(Ax×θx+Bx) (Formula 2)
Hy=m×(Ay×θy+By) (Formula 3)

式2,3のパラメータmは、回転角θx,θyをレンズ10上での瞳孔中心cに対応する座標に変換する変換係数である。パラメータmは、予め決定されてメモリ部3に格納されるとする。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、後述するキャリブレーション作業を行うことで決定(取得)される。視
線補正パラメータAx,Bx,Ay,Byは、視線検出動作が開始する前にメモリ部3に格納されるとする。
The parameters m in Equations 2 and 3 are conversion coefficients for converting the rotation angles θx and θy into coordinates corresponding to the pupil center c on the lens 10. It is assumed that the parameter m is determined in advance and stored in the memory unit 3. The parameters Ax, Bx, Ay, and By are line-of-sight correction parameters for correcting individual differences in line-of-sight, and are determined (obtained) by performing a calibration operation that will be described later. It is assumed that the line-of-sight correction parameters Ax, Bx, Ay, and By are stored in the memory unit 3 before the line-of-sight detection operation starts.

ステップS107では、CPU2は、注視点の座標(Hx,Hy)をメモリ部3に格納し、視線検出動作を終える。 In step S107, the CPU 2 stores the coordinates (Hx, Hy) of the gaze point in the memory unit 3, and ends the line of sight detection operation.

なお、視線検出方法は上記方法に限られず、例えば眼画像から視線情報を取得する方法であれば、どのような方法であってもよい。最終的な視線情報として、注視点を示す情報ではなく、視線の方向を示す情報が得られてもよい。例えば、注視点の座標(Hx,Hy)を得ずに、回転角(Ax×θx+BxやAy×θy+By)を得るまでの処理が行われてもよい。 Note that the line of sight detection method is not limited to the above method, and may be any method as long as it acquires line of sight information from an eye image, for example. As the final line of sight information, information indicating the direction of the line of sight may be obtained instead of information indicating the gaze point. For example, processing may be performed to obtain the rotation angle (Ax×θx+Bx or Ay×θy+By) without obtaining the coordinates (Hx, Hy) of the gaze point.

<キャリブレーション作業の必要性の説明>
前述のように、視線検出動作において眼画像から眼球14の回転角θx,θyを取得し、瞳孔中心cの位置をレンズ10上での位置に座標変換することで、注視点を推定できる。図6(A)は、ユーザの視野(レンズ10を通してユーザが見ることのできる範囲、外界撮像ユニット20の撮像範囲)を示す図であり、表示デバイス11が動作した状態を示す。図6(A)に示すように、表示デバイス11は、現在の注視点A(推定位置)に枠などを表示する。表示装置100は、視線検出の結果(視線情報、注視点情報)に応じて、ユーザが注視している現実物体に関係する情報などをUI(User Interface)として表示するように、表示デバイス11を制御してもよい。現実物体は、外界(現実空間)に実在する物体である。
<Explanation of the necessity of calibration work>
As described above, the point of gaze can be estimated by acquiring the rotation angles θx and θy of the eyeball 14 from the eye image in the line-of-sight detection operation and converting the coordinates of the position of the pupil center c to the position on the lens 10. FIG. 6A is a diagram showing the user's field of view (the range that the user can see through the lens 10, the imaging range of the external world imaging unit 20), and shows a state in which the display device 11 is in operation. As shown in FIG. 6(A), the display device 11 displays a frame or the like at the current gaze point A (estimated position). The display device 100 controls the display device 11 so as to display information related to the real object that the user is gazing at as a UI (User Interface) according to the results of line-of-sight detection (line-of-sight information, gaze point information). May be controlled. A real object is an object that exists in the external world (real space).

しかし、人間の眼球の形状の個人差などの要因により、注視点を高精度に推定できないことがある。具体的には、視線補正パラメータAx,Ay,Bx,Byをユーザに適した値に調整しなければ、図6(B)に示すように、実際の注視点Bと推定された注視点Cとのずれが生じてしまう。図6(B)では、ユーザは人物を注視しているが、表示装置100は背景が注視されていると誤って推定してしまっている。 However, due to factors such as individual differences in the shape of human eyeballs, it may not be possible to estimate the gaze point with high accuracy. Specifically, unless the gaze correction parameters Ax, Ay, Bx, and By are adjusted to values suitable for the user, the actual gaze point B and the estimated gaze point C will be different from each other, as shown in FIG. 6(B). A misalignment will occur. In FIG. 6B, the user is gazing at a person, but the display device 100 incorrectly estimates that the user is gazing at the background.

そこで、表示装置100の通常使用の前に、視線検出機能のキャリブレーション作業を行い、ユーザに適した視線補正パラメータAx,Ay,Bx,Byを決定し、表示装置100に格納する必要がある。 Therefore, before normal use of the display device 100, it is necessary to calibrate the line-of-sight detection function, determine the line-of-sight correction parameters Ax, Ay, Bx, By suitable for the user, and store them in the display device 100.

従来より、キャリブレーション作業は、表示装置100の通常使用の前に図6(C)に示すような位置の異なる複数の指標を表示し、ユーザにその指標を見てもらうことで行われている。そして、各指標の注視時に視線検出動作を行い、算出された複数の注視点(推定位置)と、各指標の座標とから、ユーザに適した視線補正パラメータAx,Ay,Bx,Byを決定する技術が、公知の技術として知られている。 Conventionally, calibration work has been performed by displaying a plurality of indicators at different positions as shown in FIG. 6(C) before normal use of the display device 100, and having the user look at the indicators. . Then, a line-of-sight detection operation is performed when gazing at each index, and line-of-sight correction parameters Ax, Ay, Bx, By suitable for the user are determined from the calculated multiple gaze points (estimated positions) and the coordinates of each index. The technique is known as a known technique.

しかしながら、ユーザの眼球の状態は時々刻々と変化する。そして、従来のキャリブレーション作業を行っても、眼球の状態が変化すると、適切な視線補正パラメータAx,Ay,Bx,Byが変化し、実際の注視点と推定された注視点とのずれが生じて(増して)しまう。つまり、眼球の状態が変化することで、視線検出の精度が低下する。 However, the condition of the user's eyeballs changes from moment to moment. Even if conventional calibration work is performed, when the state of the eyeball changes, the appropriate line of sight correction parameters Ax, Ay, Bx, By will change, resulting in a deviation between the actual gaze point and the estimated gaze point. te (increase). In other words, as the state of the eyeball changes, the accuracy of line-of-sight detection decreases.

例えば、ユーザが屋内から屋外に出るなどして表示装置100の使用環境が変化し、外界の明るさが変化すると、瞳孔の大きさ(瞳孔サイズ、瞳孔径、瞳孔の直径や半径)が変化する。その結果、適切な視線補正パラメータAx,Ay,Bx,Byが変化し、視線検出の精度が低下する。図7は、瞳孔サイズと適切な視線補正パラメータAxとの対応関係を示す。 For example, when the environment in which the display device 100 is used changes, such as when the user goes from indoors to outdoors, and the brightness of the outside world changes, the size of the pupil (pupil size, pupil diameter, pupil diameter and radius) changes. . As a result, the appropriate line-of-sight correction parameters Ax, Ay, Bx, By change, and the accuracy of line-of-sight detection decreases. FIG. 7 shows the correspondence between pupil size and appropriate line of sight correction parameter Ax.

キャリブレーション作業を再び行えば視線検出の精度を向上することができるが、眼球の状態が変わる度にキャリブレーション作業を行うのは煩わしい。そこで、実施例1では、キャリブレーション作業を繰り返さずに、ユーザの眼球の状態に依らず高精度な視線検出を可能にする。なお、図7では、瞳孔サイズの増加に対して、適切な視線補正パラメータAxが線形に増加しているが、この傾向には個人差がある。そのため、瞳孔サイズ(の変化)から、適切な視線補正パラメータAx,Bx,Ay,By(の変化)を推定するのは困難であり、キャリブレーション作業で視線補正パラメータAx,Bx,Ay,Byを決定する必要がある。 Although it is possible to improve the accuracy of line-of-sight detection by performing the calibration work again, it is troublesome to perform the calibration work every time the state of the eyeball changes. Therefore, in the first embodiment, it is possible to detect the line of sight with high accuracy regardless of the state of the user's eyeballs without repeating the calibration work. Note that in FIG. 7, the appropriate line of sight correction parameter Ax increases linearly as the pupil size increases, but this tendency differs from person to person. Therefore, it is difficult to estimate (changes in) the appropriate line-of-sight correction parameters Ax, Bx, Ay, By from (changes in) pupil size, and the line-of-sight correction parameters Ax, Bx, Ay, By are changed during calibration work. Need to decide.

<キャリブレーション動作の説明>
実施例1では、キャリブレーション作業中(キャリブレーション中)に、ユーザの眼に入射する光の量(入射光量)を、複数の光量それぞれに制御する。例えば、キャリブレーション作業中に、表示装置100の透過率(調光デバイス19の透過率)を、複数の透過率それぞれに制御する。図8に示すように、調光デバイス19は、レンズ10の前面を覆うように設けられている。そのため、調光デバイス19の透過率を制御することで、眼の入射光量が制御される。なお、調光デバイス19は、レンズ10の背面を覆うように設けられもよい。また、眼の入射光量の制御方法は上記方法に限られない。例えば、ビデオシースルー方式の表示装置の場合には、表示輝度を制御してもよい。
<Explanation of calibration operation>
In the first embodiment, during the calibration work (during calibration), the amount of light that enters the user's eyes (incident light amount) is controlled to each of a plurality of light amounts. For example, during the calibration work, the transmittance of the display device 100 (the transmittance of the light control device 19) is controlled to each of a plurality of transmittances. As shown in FIG. 8, the light control device 19 is provided to cover the front surface of the lens 10. Therefore, by controlling the transmittance of the light control device 19, the amount of light incident on the eye is controlled. Note that the light control device 19 may be provided so as to cover the back surface of the lens 10. Furthermore, the method of controlling the amount of light incident on the eye is not limited to the above method. For example, in the case of a video see-through type display device, display brightness may be controlled.

そして、眼の入射光量ごとに、視線補正パラメータAx,Bx,Ay,By(視線検出(視線検出動作、視線検出機能)に使用するパラメータ)を決定する。この処理は、瞳孔サイズごとに視線補正パラメータAx,Bx,Ay,Byを決定する処理と捉えることもできる。 Then, line-of-sight correction parameters Ax, Bx, Ay, By (parameters used for line-of-sight detection (line-of-sight detection operation, line-of-sight detection function)) are determined for each amount of light incident on the eye. This process can also be regarded as a process of determining the line of sight correction parameters Ax, Bx, Ay, By for each pupil size.

こうして、瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの対応関係として、ユーザに適した対応関係を決定することができる。ひいては、表示装置100の使用環境が変化し、外界の明るさが変化した際に、キャリブレーション作業を再度行わずに、瞳孔サイズ(眼の入射光量)に対応する視線補正パラメータAx,Bx,Ay,Byを用いて、視線検出を高精度に行うことができる。 In this way, a correspondence relationship suitable for the user can be determined as a correspondence relationship between the pupil size (the amount of light incident on the eye) and the line of sight correction parameters Ax, Bx, Ay, By. Furthermore, when the environment in which the display device 100 is used changes and the brightness of the outside world changes, the line-of-sight correction parameters Ax, Bx, Ay corresponding to the pupil size (the amount of light incident on the eyes) can be adjusted without performing the calibration work again. , By, line of sight detection can be performed with high accuracy.

図9(A)~9(C)を用いて、キャリブレーション作業中における調光デバイス19の透過率の制御の具体例を説明する。 A specific example of controlling the transmittance of the light control device 19 during the calibration work will be described using FIGS. 9(A) to 9(C).

まず、表示装置100は、図9(A)に示すように調光デバイス19の透過率を最大に制御して、視線補正パラメータAx,Ay,Bx,Byを決定する。調光デバイス19の透過率が最大であるため、視線補正パラメータAx,Ay,Bx,Byは、キャリブレーション作業中において眼の入射光量が最大の場合(瞳孔サイズが最小の場合)の視線補正パラメータと捉えることもできる。 First, the display device 100 controls the transmittance of the light control device 19 to the maximum, as shown in FIG. 9(A), and determines the line-of-sight correction parameters Ax, Ay, Bx, and By. Since the transmittance of the light control device 19 is the maximum, the line-of-sight correction parameters Ax, Ay, Bx, By are the line-of-sight correction parameters when the amount of incident light to the eye is the maximum (when the pupil size is the minimum) during the calibration work. It can also be interpreted as

次に、表示装置100は、図9(B)に示すように調光デバイス19の透過率を最小に制御して、視線補正パラメータAx,Ay,Bx,Byを決定する。調光デバイス19の透過率が最小であるため、視線補正パラメータAx,Ay,Bx,Byは、キャリブレーション作業中において眼の入射光量が最小の場合(瞳孔サイズが最大の場合)の視線補正パラメータと捉えることもできる。 Next, the display device 100 controls the transmittance of the light control device 19 to the minimum, as shown in FIG. 9(B), and determines the line-of-sight correction parameters Ax, Ay, Bx, and By. Since the transmittance of the light control device 19 is the minimum, the line-of-sight correction parameters Ax, Ay, Bx, By are the line-of-sight correction parameters when the amount of light incident on the eye is the minimum (when the pupil size is the largest) during the calibration work. It can also be interpreted as

さらに、表示装置100は、図9(C)に示すように調光デバイス19の透過率を40%に制御して、視線補正パラメータAx,Ay,Bx,Byを決定する。これにより得られる視線補正パラメータAx,Ay,Bx,Byは、キャリブレーション作業中において眼の入射光量が最大と最小の間の場合(瞳孔サイズが最大と最小の間の場合)の視線補正パラメータと捉えることもできる。 Furthermore, the display device 100 controls the transmittance of the light control device 19 to 40%, as shown in FIG. 9(C), and determines the line-of-sight correction parameters Ax, Ay, Bx, and By. The line of sight correction parameters Ax, Ay, Bx, By obtained by this are the line of sight correction parameters when the amount of incident light to the eye is between the maximum and minimum (when the pupil size is between the maximum and minimum) during the calibration work. You can also capture it.

上記の透過率40%は、眼の入射光量が図9(A)の状態での入射光量と図9(B)の状態での入射光量との中間(図9(A)の状態での入射光量から図9(B)の状態での入射光量までの範囲を2等分する入射光量)となるような透過率である。眼の入射光量を示す光量情報は、例えば、眼画像の明るさに基づいて取得することができる。これに限られず、表示装置100の内側(ユーザ側)の明るさを検出するセンサの検出結果を光量情報として取得してもよいし、当該検出結果に基づく別の情報を光量情報として取得してもよい。表示装置100の外側の明るさを検出するセンサの検出結果と、調光デバイス19の透過率とに基づいて、光量情報を取得してもよい。図9(A)の状態(透過率が最大の状態)で得られた光量情報と図9(B)の状態(透過率が最小の状態)で得られた光量情報とから、それら2つの光量情報が示す2つの入射光量の中間の入射光量を得るための透過率を容易に決定(算出)することができる。 The above transmittance of 40% means that the amount of incident light to the eye is between the amount of incident light in the state of FIG. 9(A) and the amount of incident light in the state of FIG. 9(B) (the amount of incident light in the state of FIG. 9(A) The transmittance is such that the range from the light amount to the incident light amount in the state shown in FIG. 9(B) is divided into two (incident light amount). The light amount information indicating the amount of light incident on the eye can be acquired based on the brightness of the eye image, for example. The invention is not limited to this, and the detection result of a sensor that detects the brightness inside the display device 100 (on the user side) may be acquired as the light amount information, or another information based on the detection result may be acquired as the light amount information. Good too. The light amount information may be acquired based on the detection result of a sensor that detects the brightness outside the display device 100 and the transmittance of the light control device 19. From the light amount information obtained in the state of FIG. 9(A) (the state with the maximum transmittance) and the light amount information obtained in the state of FIG. 9(B) (the state with the minimum transmittance), the two light amounts are calculated. It is possible to easily determine (calculate) the transmittance for obtaining an intermediate amount of incident light between the two amounts of incident light indicated by the information.

なお、最大、最小、40%の透過率は一例であり、調光デバイス19の透過率は特に限定されない。調光デバイス19の透過率は3段階よりも多い段階数で制御してもよい。調光デバイス19の透過率が最大の場合の眼の入射光量などを1つ以上の閾値と比較するなどして、調光デバイス19の透過率を制御する段階数を決定してもよい。例えば、調光デバイス19の透過率が最大の場合の入射光量が十分に大きい場合に、段階数を多くしてもよい。そうすることで、調光デバイス19の透過率が最小の場合の入射光量から調光デバイス19の透過率が最大の場合の入射光量までの広い範囲について、瞳孔サイズ(眼の入射光量)と視線補正パラメータとの対応関係を詳細に示す情報を得ることができる。但し段階数を多くすると、キャリブレーション作業の時間が長くなる。そのため、調光デバイス19の透過率が最大の場合の入射光量がそれほど大きくない場合には、段階数を少なくしてもよい。そうすることで、瞳孔サイズ(眼の入射光量)と視線補正パラメータとの対応関係を示す情報として、必要以上に詳細な情報を得ずに、キャリブレーション作業の時間を短縮することができる。 Note that the maximum, minimum, and 40% transmittances are just examples, and the transmittance of the light control device 19 is not particularly limited. The transmittance of the light control device 19 may be controlled in a number of stages greater than three. The number of stages for controlling the transmittance of the dimming device 19 may be determined by, for example, comparing the amount of light incident on the eye when the transmittance of the dimming device 19 is maximum with one or more threshold values. For example, if the amount of incident light when the light control device 19 has the maximum transmittance is sufficiently large, the number of stages may be increased. By doing so, the pupil size (the amount of incident light on the eye) and the line of sight can be determined over a wide range from the amount of incident light when the light control device 19 has the minimum transmittance to the amount of incident light when the light control device 19 has the maximum transmittance. Information indicating the correspondence with the correction parameters in detail can be obtained. However, increasing the number of stages increases the time required for calibration work. Therefore, if the amount of incident light when the light control device 19 has the maximum transmittance is not so large, the number of stages may be reduced. By doing so, the time required for the calibration work can be shortened without obtaining more detailed information than necessary as information indicating the correspondence between the pupil size (the amount of light incident on the eye) and the line of sight correction parameter.

また、キャリブレーション作業中において、表示装置100は、瞳孔サイズを示す瞳孔情報を取得してもよい。例えば、表示装置100は、瞳孔端像a’のX座標Xaから瞳孔端像b’のX座標Xbまでの距離を瞳孔サイズとして算出してもよい。 Furthermore, during the calibration work, the display device 100 may acquire pupil information indicating pupil size. For example, the display device 100 may calculate the distance from the X coordinate Xa of the pupil edge image a' to the X coordinate Xb of the pupil edge image b' as the pupil size.

図10は、キャリブレーション動作のフローチャートである。例えば、ユーザが表示装置100を装着し、表示装置100により表示されたメニュー画面などからキャリブレーションの開始を指示すると、図10のキャリブレーション動作が開始する。図10のキャリブレーション動作の開始時において、例えば、 FIG. 10 is a flowchart of the calibration operation. For example, when a user wears the display device 100 and instructs to start calibration from a menu screen displayed by the display device 100, the calibration operation shown in FIG. 10 starts. At the start of the calibration operation in FIG. 10, for example,

ステップS201では、CPU2は、調光制御回路18を用いて調光デバイス19の透過率を制御する。例えば、CPU2は、調光デバイス19の透過率を最大に制御する。 In step S201, the CPU 2 uses the dimming control circuit 18 to control the transmittance of the dimming device 19. For example, the CPU 2 controls the transmittance of the light control device 19 to the maximum.

ステップS202では、CPU2は、表示デバイス11を制御して、キャリブレーション用の指標を含むキャリブレーション画面を、ユーザの両眼に対して表示する。例えば、図6(C)に示すように、複数の指標を表示する。 In step S202, the CPU 2 controls the display device 11 to display a calibration screen including calibration indicators for both eyes of the user. For example, as shown in FIG. 6(C), a plurality of indicators are displayed.

ステップS203では、CPU2は、ユーザに対し、注視すべき指標を通知する。例えば、CPU2は、複数の指標のうち、注視すべき指標の形状、色、輝度などを変えて、当該指標を強調する。なお、注視すべき指標の通知方法はこれに限られない。例えば、注視すべき指標のみを表示してもよい。 In step S203, the CPU 2 notifies the user of the index to be watched. For example, the CPU 2 changes the shape, color, brightness, etc. of the indicator to be watched among the plurality of indicators to emphasize the indicator. Note that the method of notification of indicators to be watched is not limited to this. For example, only indicators to be watched may be displayed.

ステップS204では、CPU2は、ユーザが決定操作を行ったか否かを判定する。決定操作は、ユーザが指標の注視を表示装置100に知らせるために行われる。そのため、
決定操作は、ユーザが注視すべき指標を見た状態で行われる。決定操作は、例えば、表示装置100に有線または無線で接続されたコントローラのボタン操作などである。なお、決定操作は特に限定されず、指標を所定時間よりも長く注視し続ける操作であってもよいし、音声操作などであってもよい。CPU2は、決定操作を待ち、決定操作が行われるとステップS205に処理を進める。
In step S204, the CPU 2 determines whether the user has performed a determination operation. The determination operation is performed to notify the display device 100 that the user is gazing at the indicator. Therefore,
The decision operation is performed while the user is looking at the indicator to be focused on. The determining operation is, for example, a button operation on a controller connected to the display device 100 by wire or wirelessly. Note that the determining operation is not particularly limited, and may be an operation of continuing to gaze at the indicator for a longer period of time than a predetermined time, or may be a voice operation. The CPU 2 waits for a decision operation, and when the decision operation is performed, the process proceeds to step S205.

ステップS205では、CPU2は、図5の視線検出動作を行う。視線検出動作は、右眼と左眼のそれぞれに対して行われる。これにより、右視線情報(右眼についての視線検出動作の結果)と左視線情報(左眼についての視線検出動作の結果)が取得される(視線取得)。 In step S205, the CPU 2 performs the line of sight detection operation shown in FIG. The line of sight detection operation is performed for each of the right eye and left eye. As a result, right line-of-sight information (result of line-of-sight detection operation for the right eye) and left line-of-sight information (result of line-of-sight detection operation for the left eye) are acquired (line-of-sight acquisition).

ステップS206では、CPU2は、全ての指標について視線検出動作を行ったか否かを判定する。CPU2は、視線検出動作を行っていない指標が残っている場合は、ステップS207に処理を進め、全ての指標について視線検出動作を行った場合は、ステップS208に処理を進める。 In step S206, the CPU 2 determines whether the line of sight detection operation has been performed for all indicators. The CPU 2 advances the process to step S207 if there remain indicators for which the line-of-sight detection operation has not been performed, and proceeds to step S208 if the line-of-sight detection operation has been performed for all indicators.

ステップS207では、CPU2は、注視すべき指標の変更を通知する。例えば、CPU2は、強調する指標を複数の指標の間で切り替えて、ステップS204に処理を進めて、決定操作を待つ。 In step S207, the CPU 2 notifies the user of a change in the index to be watched. For example, the CPU 2 switches the indicator to be emphasized among a plurality of indicators, advances the process to step S204, and waits for a determination operation.

ステップS208では、CPU2は、全ての指標についての視線検出動作の結果から、上述した視線補正パラメータAx,Bx,Ay,Byを決定(算出)する。 In step S208, the CPU 2 determines (calculates) the above-mentioned line-of-sight correction parameters Ax, Bx, Ay, and By from the results of the line-of-sight detection operation for all indicators.

ステップS209では、CPU2は、全ての透過率(調光デバイス19の透過率)について視線補正パラメータAx,Bx,Ay,Byを決定したか否かを判定する。CPU2は、視線補正パラメータAx,Bx,Ay,Byを決定していない透過率が残っている場合は、ステップS210に処理を進め、全ての透過率について視線補正パラメータAx,Bx,Ay,Byを決定した場合は、キャリブレーション動作を終了する。 In step S209, the CPU 2 determines whether the line-of-sight correction parameters Ax, Bx, Ay, and By have been determined for all transmittances (transmittances of the light control device 19). If there remains a transmittance for which the line-of-sight correction parameters Ax, Bx, Ay, By have not been determined, the CPU 2 advances the process to step S210, and sets the line-of-sight correction parameters Ax, Bx, Ay, By for all the transmittances. If determined, the calibration operation ends.

ステップS210では、CPU2は、調光制御回路18を用いて調光デバイス19の透過率を制御(変更)する。そして、CPU2は、ステップS202に処理を進める。 In step S210, the CPU 2 uses the dimming control circuit 18 to control (change) the transmittance of the dimming device 19. Then, the CPU 2 advances the process to step S202.

視線補正パラメータBxの算出方法について説明する。パラメータ視線補正Byは、視線補正パラメータBxの算出方法と同様の方法で算出することができる。 A method of calculating the line of sight correction parameter Bx will be explained. The parameter line-of-sight correction By can be calculated using the same method as the calculation method of the line-of-sight correction parameter Bx.

図11は、図3に示す回転角θxが0度の場合における眼球14の内部の様子を示す。図11において、眼球14に入射した光を感じ取り、脳に信号を送る役割を有す視細胞は、一点鎖線で示す眼球14の光軸(角膜142や瞳孔141の光軸)からずれている。そのため、ユーザが表示デバイス11の表示面の中央部を見る場合に、回転角θxは、眼球14の光軸からの視細胞のずれ量に対応するオフセット角で、0度からずれる。このオフセット角(視細胞のずれ量)が視線補正パラメータBxに相当する(Bx∝オフセット角)。 FIG. 11 shows the inside of the eyeball 14 when the rotation angle θx shown in FIG. 3 is 0 degrees. In FIG. 11, photoreceptor cells, which have the role of sensing light incident on the eyeball 14 and sending signals to the brain, are offset from the optical axis of the eyeball 14 (the optical axis of the cornea 142 and pupil 141) indicated by a dashed line. Therefore, when the user looks at the center of the display surface of the display device 11, the rotation angle θx is an offset angle corresponding to the amount of deviation of the photoreceptor from the optical axis of the eyeball 14, and deviates from 0 degrees. This offset angle (deviation amount of photoreceptor cells) corresponds to the line of sight correction parameter Bx (Bx∝offset angle).

例えば、CPU2は、図6(C)に示すように複数の指標を表示デバイス11の表示面に表示し、表示面の中央部の指標を点滅させるなどして、表示面の中央部をユーザに注視させる。CPU2は、表示面の中央部をユーザに注視させた状態で得られた眼画像を用いて図5の視線検出動作を行うことで、回転角θxをオフセット角として算出する。そして、CPU2は、オフセット角に応じて視線補正パラメータBxを算出する。 For example, the CPU 2 displays a plurality of indicators on the display screen of the display device 11 as shown in FIG. Make people pay close attention to it. The CPU 2 calculates the rotation angle θx as an offset angle by performing the line of sight detection operation shown in FIG. 5 using the eye image obtained when the user is gazing at the center of the display screen. Then, the CPU 2 calculates the line of sight correction parameter Bx according to the offset angle.

視線補正パラメータAxの算出方法について説明する。視線補正パラメータAyは、視
線補正パラメータAxの算出方法と同様の方法で算出することができる。
A method for calculating the line-of-sight correction parameter Ax will be explained. The line-of-sight correction parameter Ay can be calculated using the same method as the calculation method of the line-of-sight correction parameter Ax.

式1では、回転角θxを算出するために、角膜曲率中心Oから瞳孔中心cまでの標準的な距離Oc(定数)が使用される。しかしながら、角膜曲率中心Oから瞳孔中心cまでの実際の距離Oc’(変数)は、距離Ocと同じとは限らない。距離Oc’と距離Ocの差は、式1で算出される回転角θxの誤差となる。視線補正パラメータAxは、このような誤差を低減するためのパラメータであり、実際の距離Oc’に反比例する(Ax∝1/Oc’)。標準的な距離Ocを視線補正パラメータAxで除算した値が、実際の距離Oc’となる。 In Equation 1, the standard distance Oc (constant) from the corneal curvature center O to the pupil center c is used to calculate the rotation angle θx. However, the actual distance Oc' (variable) from the corneal curvature center O to the pupil center c is not necessarily the same as the distance Oc. The difference between the distance Oc' and the distance Oc becomes an error in the rotation angle θx calculated using Equation 1. The line of sight correction parameter Ax is a parameter for reducing such an error, and is inversely proportional to the actual distance Oc' (Ax∝1/Oc'). The value obtained by dividing the standard distance Oc by the line-of-sight correction parameter Ax becomes the actual distance Oc'.

例えば、CPU2は、表示デバイス11の表示面の複数の位置をユーザに順に注視させながら眼球14を複数回撮像した複数の眼画像に基づいて、視線補正パラメータAxを算出する。具体的には、CPU2は、図6(C)に示す複数の指標のうち、水平方向の位置が異なる2つ以上の指標を順に注視させる。CPU2は、2つ以上の指標にそれぞれ対応する2つ以上の眼画像のそれぞれについて、回転角θxを算出する。指標に対応する眼画像は、当該指標をユーザに注視させた状態で得られた眼画像である。そして、CPU2は、算出した2つ以上の回転角θxに基づいて、視線補正パラメータAxを算出する。例えば、CPU2は、算出される2つ以上の回転角θxの誤差の総和(最小二乗法の残差二乗和など)が最小になるように視線補正パラメータAxを算出する。算出される2つ以上の回転角θxそれぞれの誤差(指標の位置に応じた目標の回転角と、算出される回転角θxとの差分)が同程度になるように視線補正パラメータAxを算出してもよい。 For example, the CPU 2 calculates the line of sight correction parameter Ax based on a plurality of eye images obtained by capturing the eyeball 14 a plurality of times while the user sequentially gazes at a plurality of positions on the display surface of the display device 11. Specifically, the CPU 2 causes the user to sequentially gaze at two or more indicators at different horizontal positions among the plurality of indicators shown in FIG. 6(C). The CPU 2 calculates the rotation angle θx for each of the two or more eye images corresponding to the two or more indices. The eye image corresponding to the index is an eye image obtained while the user is gazing at the index. Then, the CPU 2 calculates the line of sight correction parameter Ax based on the two or more calculated rotation angles θx. For example, the CPU 2 calculates the line-of-sight correction parameter Ax so that the sum of errors (such as the sum of squares of residuals of the least squares method) of two or more calculated rotation angles θx is minimized. The line of sight correction parameter Ax is calculated so that the errors of each of the two or more calculated rotation angles θx (the difference between the target rotation angle according to the position of the index and the calculated rotation angle θx) are approximately the same. It's okay.

<使用する視線補正パラメータの決定方法の説明>
図10のキャリブレーション動作によれば、瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの対応関係としてユーザに適した対応関係を示す情報を得ることができる。ひいては、キャリブレーション作業を再度行わずに、瞳孔サイズ(眼の入射光量)に対応する視線補正パラメータAx,Bx,Ay,Byを用いて、視線検出を高精度に行うことができる。
<Explanation of how to determine the line of sight correction parameters to be used>
According to the calibration operation shown in FIG. 10, it is possible to obtain information indicating a correspondence relationship suitable for the user as a correspondence relationship between the pupil size (the amount of light incident on the eye) and the line-of-sight correction parameters Ax, Bx, Ay, and By. Furthermore, the line of sight detection can be performed with high precision using the line of sight correction parameters Ax, Bx, Ay, By corresponding to the pupil size (the amount of light incident on the eye) without performing the calibration work again.

図10のキャリブレーション動作によれば、瞳孔サイズ(眼の入射光量)を変えながら、瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの複数の組み合わせが得られる。複数の組み合わせの情報は、瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの対応関係を示すテーブルと捉えることもできる。キャリブレーション動作後において、瞳孔サイズ(眼の入射光量)がキャリブレーション動作時と同じであれば、瞳孔サイズ(眼の入射光量)に対応する視線補正パラメータAx,Bx,Ay,Byを上記テーブルから得ることができる。 According to the calibration operation shown in FIG. 10, a plurality of combinations of the pupil size (the amount of light incident on the eye) and the line of sight correction parameters Ax, Bx, Ay, By can be obtained while changing the pupil size (the amount of light incident on the eye). The information on the plurality of combinations can also be regarded as a table showing the correspondence between the pupil size (the amount of light incident on the eye) and the line-of-sight correction parameters Ax, Bx, Ay, and By. After the calibration operation, if the pupil size (the amount of incident light on the eye) is the same as during the calibration operation, the line of sight correction parameters Ax, Bx, Ay, By corresponding to the pupil size (the amount of incident light on the eye) are determined from the table above. Obtainable.

しかしながら、キャリブレーション動作後において、瞳孔サイズ(眼の入射光量)がキャリブレーション動作時と同じであるとは限らない。キャリブレーション動作後において、瞳孔サイズ(眼の入射光量)がキャリブレーション動作時と異なる場合には、瞳孔サイズ(眼の入射光量)に対応する視線補正パラメータAx,Bx,Ay,Byを上記テーブルから得ることはできない。そのような場合を考慮し、上記複数の組み合わせに基づいて、瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの対応関係を示す関数を推定してもよい。そうすることで、どのような瞳孔サイズ(眼の入射光量)の場合にも、それに対応する視線補正パラメータAx,Bx,Ay,Byを関数から取得して用いることで、視線検出を高精度に行うことができる。 However, after the calibration operation, the pupil size (the amount of light incident on the eye) is not necessarily the same as during the calibration operation. After the calibration operation, if the pupil size (the amount of incident light on the eye) is different from the one during the calibration operation, the line of sight correction parameters Ax, Bx, Ay, By corresponding to the pupil size (the amount of incident light on the eye) are determined from the table above. You can't get it. Considering such a case, a function indicating the correspondence between the pupil size (the amount of light incident on the eye) and the line-of-sight correction parameters Ax, Bx, Ay, and By may be estimated based on the plurality of combinations described above. By doing so, no matter what the pupil size (amount of incident light to the eye), the corresponding gaze correction parameters Ax, Bx, Ay, By can be obtained from the function and used to detect the gaze with high accuracy. It can be carried out.

瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの対応関係を示す関数は、例えば以下の式4を用いた最小二乗法により決定することができる。式4において、sは誤差であり、Riはi番目の瞳孔サイズである。Ax(Ri)は瞳孔サ
イズRiに対応する視線補正パラメータAxであり、キャリブレーション動作により決定した視線補正パラメータAxである。Ax’(Ri)は瞳孔サイズRiに対応する視線補正パラメータAxであり、瞳孔サイズと視線補正パラメータAxの対応関係を示す関数(候補)により決定した視線補正パラメータAxである。誤差s(残差二乗和)が最小となるように、瞳孔サイズと視線補正パラメータAxの対応関係を示す関数を決定する。同様に、瞳孔サイズと視線補正パラメータBx,Ay,Byの対応関係を示す関数も決定する。

s=Σi=1~n{Ax(Ri)-Ax’(Ri)} ・・・(式4)
The function indicating the correspondence between the pupil size (the amount of light incident on the eye) and the line-of-sight correction parameters Ax, Bx, Ay, By can be determined, for example, by the least squares method using Equation 4 below. In Equation 4, s is the error and Ri is the i-th pupil size. Ax (Ri) is the line-of-sight correction parameter Ax corresponding to the pupil size Ri, and is the line-of-sight correction parameter Ax determined by the calibration operation. Ax' (Ri) is the line-of-sight correction parameter Ax corresponding to the pupil size Ri, and is the line-of-sight correction parameter Ax determined by a function (candidate) indicating the correspondence between the pupil size and the line-of-sight correction parameter Ax. A function indicating the correspondence between the pupil size and the line-of-sight correction parameter Ax is determined so that the error s (sum of squared residuals) is minimized. Similarly, a function indicating the correspondence between the pupil size and the line-of-sight correction parameters Bx, Ay, and By is also determined.

s=Σ i=1~n {Ax(Ri)−Ax'(Ri)} 2 ...(Formula 4)

なお、瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの対応関係を示す関数の決定方法は、最小二乗法に限られない。例えば、キャリブレーション動作によって得た複数の組み合わせ(瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの複数の組み合わせ)の座標を直線で繋ぐ線形補間を行ってもよい。 Note that the method for determining the function indicating the correspondence between the pupil size (the amount of light incident on the eye) and the line-of-sight correction parameters Ax, Bx, Ay, By is not limited to the least squares method. For example, linear interpolation may be performed to connect the coordinates of multiple combinations (multiple combinations of pupil size (amount of incident light to the eye) and line of sight correction parameters Ax, Bx, Ay, By) obtained through the calibration operation with a straight line. .

<<実施例2>>
本発明の実施例2について説明する、実施例1では、ユーザの眼の入射光量を示す光量情報を取得し、光量情報に基づいて、ユーザの眼の入射光量を、複数の光量それぞれに制御する例を説明した。実施例2では、ユーザの瞳孔サイズを示す瞳孔情報を取得し、瞳孔情報に基づいて、ユーザの眼の入射光量を、複数の光量それぞれに制御する例を説明する。
<<Example 2>>
Example 2 of the present invention will be described. In Example 1, light amount information indicating the amount of light incident on the user's eyes is acquired, and based on the light amount information, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts. An example was explained. In the second embodiment, an example will be described in which pupil information indicating the pupil size of the user is acquired and the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts based on the pupil information.

実施例2では、キャリブレーション作業中において、表示装置100は、瞳孔サイズを示す瞳孔情報を取得する。例えば、表示装置100は、瞳孔端像a’のX座標Xaから瞳孔端像b’のX座標Xbまでの距離を瞳孔サイズとして算出する。 In the second embodiment, during the calibration work, the display device 100 acquires pupil information indicating the pupil size. For example, the display device 100 calculates the distance from the X coordinate Xa of the pupil edge image a' to the X coordinate Xb of the pupil edge image b' as the pupil size.

まず、表示装置100は、調光デバイス19の透過率を最大に制御して、視線補正パラメータAx,Ay,Bx,Byを決定する。調光デバイス19の透過率が最大であるため、視線補正パラメータAx,Ay,Bx,Byは、キャリブレーション作業中において瞳孔サイズが最小の場合(眼の入射光量が最大の場合)の視線補正パラメータと捉えることもできる。 First, the display device 100 controls the transmittance of the light control device 19 to the maximum and determines the line-of-sight correction parameters Ax, Ay, Bx, and By. Since the transmittance of the light control device 19 is maximum, the line of sight correction parameters Ax, Ay, Bx, By are the line of sight correction parameters when the pupil size is the minimum (when the amount of incident light to the eye is the maximum) during the calibration work. It can also be interpreted as

次に、表示装置100は、調光デバイス19の透過率を最小に制御して、視線補正パラメータAx,Ay,Bx,Byを決定する。調光デバイス19の透過率が最小であるため、視線補正パラメータAx,Ay,Bx,Byは、キャリブレーション作業中において瞳孔サイズが最大の場合(眼の入射光量が最小の場合)の視線補正パラメータと捉えることもできる。 Next, the display device 100 controls the transmittance of the light control device 19 to the minimum and determines the line-of-sight correction parameters Ax, Ay, Bx, and By. Since the transmittance of the light control device 19 is the minimum, the line-of-sight correction parameters Ax, Ay, Bx, By are the line-of-sight correction parameters when the pupil size is the largest (when the amount of light incident on the eye is the smallest) during the calibration work. It can also be interpreted as

さらに、表示装置100は、調光デバイス19の透過率を最大に制御した状態での瞳孔情報と、最小に制御した状態での瞳孔情報とに基づいて、ユーザの瞳孔サイズがそれら2つの瞳孔情報が示す2つの瞳孔サイズの中間となるような透過率を決定(算出)する。そして、表示装置100は、決定した透過率に調光デバイス19の透過率を制御して、視線補正パラメータAx,Ay,Bx,Byを決定する。 Furthermore, the display device 100 determines that the user's pupil size is based on the pupil information when the transmittance of the dimming device 19 is controlled to the maximum and the pupil information when the transmittance is controlled to the minimum. A transmittance that is intermediate between the two pupil sizes indicated by is determined (calculated). Then, the display device 100 controls the transmittance of the light control device 19 to the determined transmittance, and determines the line-of-sight correction parameters Ax, Ay, Bx, and By.

なお、上記3種(3段階)の透過率は一例であり、調光デバイス19の透過率は特に限定されない。調光デバイス19の透過率は3段階よりも多い段階数で制御してもよい。調光デバイス19の透過率が最大の場合の瞳孔サイズなどを1つ以上の閾値と比較するなどして、調光デバイス19の透過率を制御する段階数を決定してもよい。例えば、調光デバ
イス19の透過率が最大の場合の瞳孔サイズが十分に小さい場合に、段階数を多くしてもよい。そうすることで、調光デバイス19の透過率が最大の場合の瞳孔サイズから調光デバイス19の透過率が最小の場合の瞳孔サイズまでの広い範囲について、瞳孔サイズ(眼の入射光量)と視線補正パラメータとの対応関係を詳細に示す情報を得ることができる。但し段階数を多くすると、キャリブレーション作業の時間が長くなる。そのため、調光デバイス19の透過率が最大の場合の瞳孔サイズがそれほど小さくない場合には、段階数を少なくしてもよい。そうすることで、瞳孔サイズ(眼の入射光量)と視線補正パラメータとの対応関係を示す情報として、必要以上に詳細な情報を得ずに、キャリブレーション作業の時間を短縮することができる。
Note that the three types (three levels) of transmittance described above are just an example, and the transmittance of the light control device 19 is not particularly limited. The transmittance of the light control device 19 may be controlled in a number of stages greater than three. The number of stages for controlling the transmittance of the dimming device 19 may be determined by, for example, comparing the pupil size when the transmittance of the dimming device 19 is maximum with one or more threshold values. For example, if the pupil size when the light control device 19 has the maximum transmittance is sufficiently small, the number of stages may be increased. By doing so, the pupil size (the amount of light incident on the eye) and the line of sight can be determined for a wide range from the pupil size when the light control device 19 has the maximum transmittance to the pupil size when the light control device 19 has the minimum transmittance. Information indicating the correspondence with the correction parameters in detail can be obtained. However, increasing the number of stages increases the time required for calibration work. Therefore, if the pupil size when the light control device 19 has the maximum transmittance is not so small, the number of stages may be reduced. By doing so, the time required for the calibration work can be shortened without obtaining more detailed information than necessary as information indicating the correspondence between the pupil size (the amount of light incident on the eye) and the line of sight correction parameter.

<<まとめ>>
以上述べたように、実施例1,2によれば、キャリブレーション中に、ユーザの眼の入射光量が、複数の光量それぞれに制御される。そうすることで、ユーザの眼球の状態に依らず高精度な視線検出が可能となる。具体的には、瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの対応関係として、ユーザに適した対応関係を決定することができる。ひいては、瞳孔サイズ(眼の入射光量)が変化しても、キャリブレーション作業を再度行わずに、瞳孔サイズ(眼の入射光量)に対応する視線補正パラメータAx,Bx,Ay,Byを用いて、視線検出を高精度に行うことができる。
<<Summary>>
As described above, according to Examples 1 and 2, during calibration, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts. By doing so, it becomes possible to detect the line of sight with high accuracy regardless of the state of the user's eyeballs. Specifically, a correspondence relationship suitable for the user can be determined as a correspondence relationship between the pupil size (the amount of light incident on the eye) and the line-of-sight correction parameters Ax, Bx, Ay, and By. Furthermore, even if the pupil size (the amount of incident light to the eye) changes, the line of sight correction parameters Ax, Bx, Ay, By corresponding to the pupil size (the amount of incident light to the eye) can be used without performing the calibration work again. Line of sight detection can be performed with high accuracy.

なお、実施例1,2はあくまで一例であり、本発明の要旨の範囲内で実施例1,2の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。実施例1,2の構成を適宜組み合わせて得られる構成も、本発明に含まれる。 Note that Examples 1 and 2 are merely examples, and the present invention also includes configurations obtained by appropriately modifying or changing the configurations of Examples 1 and 2 within the scope of the gist of the present invention. A configuration obtained by appropriately combining the configurations of Examples 1 and 2 is also included in the present invention.

<<その他の実施例>>
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<<Other Examples>>
The present invention provides a system or device with a program that implements one or more of the functions of the above-described embodiments via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

本実施形態の開示は、以下の構成、方法、プログラム、および媒体を含む。
(構成1)
ユーザの眼に入射する光の量を制御する制御手段を有し、
前記制御手段は、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする電子機器。
(構成2)
前記キャリブレーションを行うキャリブレーション手段をさらに有する
ことを特徴とする構成1に記載の電子機器。
(構成3)
前記視線情報は、光学シースルー方式の表示装置を頭部に装着したユーザの視線に関する情報であり、
前記制御手段は、前記キャリブレーション中に、前記表示装置の透過率を、複数の透過率それぞれに制御する
ことを特徴とする構成1または2に記載の電子機器。
(構成4)
前記電子機器は前記表示装置である
ことを特徴とする構成3に記載の電子機器。
(構成5)
前記ユーザの眼に入射する光の量を示す光量情報を取得する取得手段さらに有し、
前記制御手段は、前記光量情報に基づいて、前記ユーザの眼に入射する光の量を、複数
の光量それぞれに制御する
ことを特徴とする構成1~4のいずれか1項に記載の電子機器。
(構成6)
前記視線情報は、光学シースルー方式の表示装置を頭部に装着したユーザの視線に関する情報であり、
前記制御手段は、前記キャリブレーション中に、
(1)前記表示装置の透過率を最大に制御し、
(2)前記表示装置の透過率を最小に制御し、
(3)前記表示装置の透過率が最大に制御された第1の状態で前記取得手段により取得された第1の光量情報と、前記表示装置の透過率が最小に制御された第2の状態で前記取得手段により取得された第2の光量情報とに基づいて、前記ユーザの眼に入射する光の量が、前記第1の光量情報が示す光量と前記第2の光量情報が示す光量との中間となるような透過率に、前記表示装置の透過率を制御する
ことを特徴とする構成5に記載の電子機器。
(構成7)
前記ユーザの瞳孔の大きさを示す瞳孔情報を取得する取得手段をさらに有し、
前記制御手段は、前記瞳孔情報に基づいて、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする構成1~4のいずれか1項に記載の電子機器。
(構成8)
前記視線情報は、光学シースルー方式の表示装置を頭部に装着したユーザの視線に関する情報であり、
前記制御手段は、前記キャリブレーション中に、
(1)前記表示装置の透過率を最大に制御し、
(2)前記表示装置の透過率を最小に制御し、
(3)前記表示装置の透過率が最大に制御された第1の状態で前記取得手段により取得された第1の瞳孔情報と、前記表示装置の透過率が最小に制御された第2の状態で前記取得手段により取得された第2の瞳孔情報とに基づいて、前記瞳孔の大きさが、前記第1の瞳孔情報が示す大きさと前記第2の瞳孔情報が示す大きさとの中間となるような透過率に、前記表示装置の透過率を制御する
ことを特徴とする構成7に記載の電子機器。
(構成9)
前記キャリブレーションでは、前記ユーザの眼に入射する光の量ごとに、前記視線検出機能に使用するパラメータが決定される
ことを特徴とする構成1~8のいずれか1項に記載の電子機器。
(構成10)
ユーザの眼に入射する光の量を制御するステップを有し、
前記ステップでは、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする電子機器の制御方法。
(プログラム
コンピュータを、構成1~9のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
(媒体)
コンピュータを、構成1~9のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
The disclosure of this embodiment includes the following configuration, method, program, and medium.
(Configuration 1)
comprising a control means for controlling the amount of light incident on the user's eyes;
The electronic device is characterized in that the control means controls the amount of light incident on the user's eyes to each of a plurality of light amounts during calibration of a line-of-sight detection function that obtains line-of-sight information regarding the user's line of sight.
(Configuration 2)
The electronic device according to configuration 1, further comprising a calibration means for performing the calibration.
(Configuration 3)
The line of sight information is information regarding the line of sight of a user who wears an optical see-through display device on his head,
3. The electronic device according to configuration 1 or 2, wherein the control means controls the transmittance of the display device to each of a plurality of transmittances during the calibration.
(Configuration 4)
The electronic device according to configuration 3, wherein the electronic device is the display device.
(Configuration 5)
further comprising an acquisition means for acquiring light amount information indicating the amount of light incident on the user's eyes,
The electronic device according to any one of configurations 1 to 4, wherein the control means controls the amount of light incident on the user's eyes to each of a plurality of light amounts based on the light amount information. .
(Configuration 6)
The line of sight information is information regarding the line of sight of a user who wears an optical see-through display device on his head,
The control means, during the calibration,
(1) controlling the transmittance of the display device to the maximum;
(2) controlling the transmittance of the display device to a minimum;
(3) First light amount information acquired by the acquisition means in a first state where the transmittance of the display device is controlled to a maximum, and a second state where the transmittance of the display device is controlled to a minimum. and the second light amount information acquired by the acquisition means, the amount of light incident on the user's eyes is determined to be the same as the amount of light indicated by the first light amount information and the amount of light indicated by the second light amount information. 5. The electronic device according to configuration 5, wherein the transmittance of the display device is controlled to a transmittance that is intermediate between .
(Configuration 7)
Further comprising an acquisition means for acquiring pupil information indicating the size of the user's pupil,
The electronic device according to any one of configurations 1 to 4, wherein the control means controls the amount of light incident on the user's eyes to each of a plurality of light amounts based on the pupil information. .
(Configuration 8)
The line of sight information is information regarding the line of sight of a user who wears an optical see-through display device on his head,
The control means, during the calibration,
(1) controlling the transmittance of the display device to the maximum;
(2) controlling the transmittance of the display device to a minimum;
(3) First pupil information acquired by the acquisition means in a first state where the transmittance of the display device is controlled to a maximum, and a second state where the transmittance of the display device is controlled to a minimum. and the second pupil information acquired by the acquisition means, so that the size of the pupil is intermediate between the size indicated by the first pupil information and the size indicated by the second pupil information. 8. The electronic device according to configuration 7, wherein the transmittance of the display device is controlled to a transmittance of .
(Configuration 9)
9. The electronic device according to any one of configurations 1 to 8, wherein in the calibration, parameters used for the line of sight detection function are determined for each amount of light incident on the user's eyes.
(Configuration 10)
controlling the amount of light incident on the user's eyes;
In the step, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts during calibration of a line-of-sight detection function that obtains line-of-sight information regarding the user's line of sight. Method.
(Program: A program for causing a computer to function as each means of the electronic device according to any one of Configurations 1 to 9.
(media)
A computer-readable storage medium storing a program for causing a computer to function as each means of the electronic device according to any one of Configurations 1 to 9.

100:表示装置 2:CPU 100: Display device 2: CPU

Claims (12)

ユーザの眼に入射する光の量を制御する制御手段を有し、
前記制御手段は、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする電子機器。
comprising a control means for controlling the amount of light incident on the user's eyes;
The electronic device is characterized in that the control means controls the amount of light incident on the user's eyes to each of a plurality of light amounts during calibration of a line-of-sight detection function that obtains line-of-sight information regarding the user's line of sight.
前記キャリブレーションを行うキャリブレーション手段をさらに有する
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1, further comprising a calibration means for performing the calibration.
前記視線情報は、光学シースルー方式の表示装置を頭部に装着したユーザの視線に関する情報であり、
前記制御手段は、前記キャリブレーション中に、前記表示装置の透過率を、複数の透過率それぞれに制御する
ことを特徴とする請求項1または2に記載の電子機器。
The line of sight information is information regarding the line of sight of a user who wears an optical see-through display device on his head,
3. The electronic device according to claim 1, wherein the control means controls the transmittance of the display device to each of a plurality of transmittances during the calibration.
前記電子機器は前記表示装置である
ことを特徴とする請求項3に記載の電子機器。
The electronic device according to claim 3, wherein the electronic device is the display device.
前記ユーザの眼に入射する光の量を示す光量情報を取得する取得手段さらに有し、
前記制御手段は、前記光量情報に基づいて、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする請求項1または2に記載の電子機器。
further comprising an acquisition means for acquiring light amount information indicating the amount of light incident on the user's eyes,
3. The electronic device according to claim 1, wherein the control means controls the amount of light incident on the user's eyes to each of a plurality of light amounts based on the light amount information.
前記視線情報は、光学シースルー方式の表示装置を頭部に装着したユーザの視線に関する情報であり、
前記制御手段は、前記キャリブレーション中に、
(1)前記表示装置の透過率を最大に制御し、
(2)前記表示装置の透過率を最小に制御し、
(3)前記表示装置の透過率が最大に制御された第1の状態で前記取得手段により取得された第1の光量情報と、前記表示装置の透過率が最小に制御された第2の状態で前記取得手段により取得された第2の光量情報とに基づいて、前記ユーザの眼に入射する光の量が、前記第1の光量情報が示す光量と前記第2の光量情報が示す光量との中間となるような透過率に、前記表示装置の透過率を制御する
ことを特徴とする請求項5に記載の電子機器。
The line of sight information is information regarding the line of sight of a user who wears an optical see-through display device on his head,
The control means, during the calibration,
(1) controlling the transmittance of the display device to the maximum;
(2) controlling the transmittance of the display device to a minimum;
(3) First light amount information acquired by the acquisition means in a first state where the transmittance of the display device is controlled to a maximum, and a second state where the transmittance of the display device is controlled to a minimum. and the second light amount information acquired by the acquisition means, the amount of light incident on the user's eyes is determined to be the same as the amount of light indicated by the first light amount information and the amount of light indicated by the second light amount information. 6. The electronic device according to claim 5, wherein the transmittance of the display device is controlled to a transmittance that is intermediate between .
前記ユーザの瞳孔の大きさを示す瞳孔情報を取得する取得手段をさらに有し、
前記制御手段は、前記瞳孔情報に基づいて、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする請求項1または2に記載の電子機器。
Further comprising an acquisition means for acquiring pupil information indicating the size of the user's pupil,
3. The electronic device according to claim 1, wherein the control means controls the amount of light incident on the user's eyes to each of a plurality of light amounts based on the pupil information.
前記視線情報は、光学シースルー方式の表示装置を頭部に装着したユーザの視線に関する情報であり、
前記制御手段は、前記キャリブレーション中に、
(1)前記表示装置の透過率を最大に制御し、
(2)前記表示装置の透過率を最小に制御し、
(3)前記表示装置の透過率が最大に制御された第1の状態で前記取得手段により取得された第1の瞳孔情報と、前記表示装置の透過率が最小に制御された第2の状態で前記取得手段により取得された第2の瞳孔情報とに基づいて、前記瞳孔の大きさが、前記第1の瞳孔情報が示す大きさと前記第2の瞳孔情報が示す大きさとの中間となるような透過率
に、前記表示装置の透過率を制御する
ことを特徴とする請求項7に記載の電子機器。
The line of sight information is information regarding the line of sight of a user who wears an optical see-through display device on his head,
The control means, during the calibration,
(1) controlling the transmittance of the display device to the maximum;
(2) controlling the transmittance of the display device to a minimum;
(3) First pupil information acquired by the acquisition means in a first state where the transmittance of the display device is controlled to a maximum, and a second state where the transmittance of the display device is controlled to a minimum. and the second pupil information acquired by the acquisition means, so that the size of the pupil is intermediate between the size indicated by the first pupil information and the size indicated by the second pupil information. 8. The electronic device according to claim 7, wherein the transmittance of the display device is controlled to a transmittance that is equal to the transmittance of the display device.
前記キャリブレーションでは、前記ユーザの眼に入射する光の量ごとに、前記視線検出機能に使用するパラメータが決定される
ことを特徴とする請求項1または2に記載の電子機器。
3. The electronic device according to claim 1, wherein in the calibration, parameters used for the line of sight detection function are determined for each amount of light incident on the user's eyes.
ユーザの眼に入射する光の量を制御するステップを有し、
前記ステップでは、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする電子機器の制御方法。
controlling the amount of light incident on the user's eyes;
In the step, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts during calibration of a line-of-sight detection function that obtains line-of-sight information regarding the user's line of sight. Method.
ユーザの眼に入射する光の量を制御するステップをコンピュータに実行させるためのプログラムであって、
前記ステップでは、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とするプログラム。
A program for causing a computer to execute steps for controlling the amount of light incident on a user's eyes, the program comprising:
The program is characterized in that, in the step, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts during calibration of a line-of-sight detection function that obtains line-of-sight information regarding the user's line of sight.
ユーザの眼に入射する光の量を制御するステップをコンピュータに実行させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体であって、
前記ステップでは、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする記憶媒体。
A computer-readable storage medium storing a program for causing a computer to execute steps for controlling the amount of light incident on a user's eyes, the computer-readable storage medium comprising:
In the storage medium, in the step, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts during calibration of a line-of-sight detection function that obtains line-of-sight information regarding the user's line of sight.
JP2022064995A 2022-04-11 2022-04-11 Electronic device Pending JP2023155585A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022064995A JP2023155585A (en) 2022-04-11 2022-04-11 Electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022064995A JP2023155585A (en) 2022-04-11 2022-04-11 Electronic device

Publications (1)

Publication Number Publication Date
JP2023155585A true JP2023155585A (en) 2023-10-23

Family

ID=88417876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022064995A Pending JP2023155585A (en) 2022-04-11 2022-04-11 Electronic device

Country Status (1)

Country Link
JP (1) JP2023155585A (en)

Similar Documents

Publication Publication Date Title
US10257507B1 (en) Time-of-flight depth sensing for eye tracking
KR102000865B1 (en) A method for operating an eye tracking device and an eye tracking device
US10466779B1 (en) Event camera for eye tracking
JP5167545B2 (en) Viewpoint detection device
US9867532B2 (en) System for detecting optical parameter of eye, and method for detecting optical parameter of eye
WO2016115873A1 (en) Binocular ar head-mounted display device and information display method therefor
US20150304625A1 (en) Image processing device, method, and recording medium
US20220075187A1 (en) Method for generating and displaying a virtual object by an optical system
JP7081599B2 (en) Information processing equipment, information processing methods, and programs
CN112306229A (en) Electronic apparatus, control method, and computer-readable medium
KR101817436B1 (en) Apparatus and method for displaying contents using electrooculogram sensors
JP2023155585A (en) Electronic device
US20220329740A1 (en) Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium
WO2016203844A1 (en) Information processing device, information processing method, and program
WO2022103767A1 (en) Determining gaze depth using eye tracking functions
US20230393655A1 (en) Electronic apparatus
JP2018028728A (en) Ophthalmic portion image processing device
WO2024047993A1 (en) Information processing device
US20240045498A1 (en) Electronic apparatus
WO2024084764A1 (en) Control device
US11632496B2 (en) Image pickup apparatus for detecting line-of-sight position, control method therefor, and storage medium
US20230251709A1 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
US20230092593A1 (en) Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor
JP2023006630A (en) Detection device and control method therefor
WO2022163283A1 (en) Eye tracking device