JP2023155585A - Electronic device - Google Patents
Electronic device Download PDFInfo
- Publication number
- JP2023155585A JP2023155585A JP2022064995A JP2022064995A JP2023155585A JP 2023155585 A JP2023155585 A JP 2023155585A JP 2022064995 A JP2022064995 A JP 2022064995A JP 2022064995 A JP2022064995 A JP 2022064995A JP 2023155585 A JP2023155585 A JP 2023155585A
- Authority
- JP
- Japan
- Prior art keywords
- line
- user
- sight
- amount
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 27
- 210000001508 eye Anatomy 0.000 claims description 131
- 210000001747 pupil Anatomy 0.000 claims description 96
- 238000002834 transmittance Methods 0.000 claims description 82
- 238000001514 detection method Methods 0.000 claims description 58
- 230000003287 optical effect Effects 0.000 claims description 24
- 210000003128 head Anatomy 0.000 claims description 9
- 230000006870 function Effects 0.000 description 27
- 210000005252 bulbus oculi Anatomy 0.000 description 24
- 238000010586 diagram Methods 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 9
- 210000004087 cornea Anatomy 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 210000000608 photoreceptor cell Anatomy 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 108091008695 photoreceptors Proteins 0.000 description 1
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、視線検出機能のキャリブレーションのための制御を行う電子機器に関する。 The present invention relates to an electronic device that performs control for calibrating a line of sight detection function.
近年、MR(Mixed Reality)やAR(Augmented Reality)を利用した眼鏡型デバイスなど、ユーザの視線を検出する機能を有するヘッドマウントディスプレイ(HMD)の自動化・インテリジェント化が進んでいる。このようなHMDにおいて、検出した注視点と実際の注視点(ユーザの意図した注視点)とのずれが生じ、実際の注視点にポインタを表示することができないことがある。特許文献1,2には、視線検出機能のキャリブレーションを行うことが開示されている。
In recent years, head-mounted displays (HMDs), such as eyeglass-type devices that utilize MR (Mixed Reality) and AR (Augmented Reality), that have a function of detecting the user's line of sight have become increasingly automated and intelligent. In such an HMD, a deviation occurs between the detected point of gaze and the actual point of gaze (the point of gaze intended by the user), and the pointer may not be displayed at the actual point of gaze.
しかしながら、ユーザの眼球の状態は時々刻々と変化するため、従来のキャリブレーションを行っても、視線検出を高精度に行えないことがある。 However, since the condition of the user's eyeballs changes from moment to moment, even if conventional calibration is performed, line of sight detection may not be performed with high accuracy.
本発明は、ユーザの眼球の状態に依らず高精度な視線検出を可能にする技術を提供することを目的とする。 An object of the present invention is to provide a technology that enables highly accurate line-of-sight detection regardless of the state of the user's eyeballs.
本発明の第1の態様は、ユーザの眼に入射する光の量を制御する制御手段を有し、前記制御手段は、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御することを特徴とする電子機器である。 A first aspect of the present invention includes a control means for controlling the amount of light incident on the user's eyes, and the control means includes: during calibration of a line of sight detection function that obtains line of sight information regarding the user's line of sight; The electronic device is characterized in that the amount of light that enters the user's eyes is controlled to each of a plurality of light amounts.
本発明の第2の態様は、ユーザの眼に入射する光の量を制御するステップを有し、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御することを特徴とする電子機器の制御方法である。 A second aspect of the invention comprises the step of controlling the amount of light incident on the user's eyes, the amount of light incident on the user's eyes during calibration of a line of sight detection function for obtaining line of sight information regarding the user's line of sight. This is a method for controlling an electronic device, characterized in that the amount of light to be transmitted is controlled to each of a plurality of light amounts.
本発明の第3の態様は、ユーザの眼に入射する光の量を制御するステップをコンピュータに実行させるためのプログラムであって、前記ステップでは、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御することを特徴とするプログラムである。 A third aspect of the present invention is a program for causing a computer to execute a step of controlling the amount of light incident on the user's eyes, wherein the step includes a line-of-sight detection function that obtains line-of-sight information regarding the user's line of sight. The program is characterized in that during calibration, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts.
本発明の第4の態様は、ユーザの眼に入射する光の量を制御するステップをコンピュータに実行させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体であって、前記ステップでは、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御することを特徴とする記憶媒体である。 A fourth aspect of the present invention is a computer-readable storage medium storing a program for causing a computer to execute a step of controlling the amount of light incident on the user's eyes, wherein The storage medium is characterized in that during calibration of a line-of-sight detection function for obtaining line-of-sight information regarding the user's line of sight, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts.
本発明によれば、ユーザの眼球の状態に依らず高精度な視線検出が可能となる。 According to the present invention, highly accurate line of sight detection is possible regardless of the state of the user's eyeballs.
<<実施例1>>
本発明の実施例1について説明する。以下では、光学シースルー方式の表示装置(光学シースルー方式のヘッドマウントディスプレイ(HMD))に本発明を適用した例を説明する。光学シースルー方式の表示装置を装着したユーザは、光学部材(レンズ)を通して外界(現実空間)を直接見るすることができる。さらに、ユーザは、光学シースルー方式の表示装置に表示された仮想物体を見ることができる。
<<Example 1>>
Example 1 of the present invention will be described. An example in which the present invention is applied to an optical see-through display device (an optical see-through head mounted display (HMD)) will be described below. A user wearing an optical see-through type display device can directly view the outside world (real space) through an optical member (lens). Furthermore, the user can view the virtual object displayed on the optical see-through display device.
なお、本発明は、別の表示装置にも適用可能である。例えば、本発明は、ビデオシースルー方式の表示装置(ビデオシースルー方式のHMD)にも適用可能である。ビデオシースルー方式の表示装置は、外界を撮像した仮想空間を略リアルタイムで表示する。ビデオシースルー方式の表示装置を装着したユーザは、外界を直接見ることはできないが、ビデオシースルー方式の表示装置に表示された仮想空間を見ることで、外界を間接的に見ることができる。本発明は、外界とは無関係の仮想空間を表示するHMDにも適用可能である。また、本発明は表示装置や、を制御する様々な制御装置に適用可能である。例えば、本発明は、表示装置に限られず、視線検出機能のキャリブレーションのための制御を行う様々な電子機器(例えば、表示装置のコントローラーや、パーソナルコンピュータ(PC)など)にも適用可能である。 Note that the present invention is also applicable to other display devices. For example, the present invention is also applicable to a video see-through type display device (video see-through type HMD). A video see-through type display device displays a virtual space in which images of the outside world are captured in substantially real time. A user wearing a video see-through display device cannot directly see the outside world, but can indirectly see the outside world by viewing the virtual space displayed on the video see-through display device. The present invention is also applicable to an HMD that displays a virtual space unrelated to the outside world. Further, the present invention is applicable to display devices and various control devices that control display devices. For example, the present invention is not limited to display devices, but can also be applied to various electronic devices (for example, controllers of display devices, personal computers (PCs), etc.) that perform control for calibration of line-of-sight detection functions. .
<構成の説明>
図1(A),1(B)は、実施例1に係る表示装置100の外観を示す。図1(A)は正面斜視図であり、図1(B)は背面斜視図である。表示装置100は、光学シースルー方式の表示装置であり、頭部に対して着脱可能なヘッドマウントディスプレイ(HMD)の一種であり、MR(Mixed Reality)やAR(Augmented Reality)を利用した眼鏡型デバイスである。表示装置100は、表示装置100を頭部に装着したユーザの右眼の視線と左眼の視線とを個別に検出することができる。以後、表示装置100を頭部に装着したユーザのことを、単にユーザと称する。
<Explanation of configuration>
1(A) and 1(B) show the appearance of a
レンズ10は、ユーザの眼に対向する光学部材である。ユーザは、レンズ10を通して外界を視認することができる。表示デバイス11は、後述するCPU2からの制御(表示制御)により、ユーザの両眼(右眼と左眼の両方)に対して、仮想物体(仮想物体の虚像)を表示する。ユーザは、表示された仮想物体を、外界に存在するように見ることができる。光源駆動回路12は、光源13a,13bを駆動する。光源13a,13bそれぞれは、ユーザの眼を照明する光源であり、例えばユーザに対して不感の赤外光を発する赤外発光ダイオードなどである。光源13a,13bから発せられてユーザの眼で反射した光
の一部は、受光レンズ16によって、眼撮像素子17に集光する。これらの部材は、左眼と右眼のそれぞれについて設けられている。例えば、眼撮像素子17として、右眼を撮像する右撮像素子と、左眼を撮像する左撮像素子とが設けられている。調光デバイス19(調光パネル)は外界からの光を調節する。調光制御回路18は、調光デバイス19の透過率を変化させる回路であり、例えば調光デバイス19に印加する電圧を制御する回路である。調光デバイス19は、調光制御回路18によって制御された透過率で外界からの光を透過する。
図2は、表示装置100における電気的構成を示すブロック図である。CPU2は、表示装置100に内蔵されたマイクロコンピュータの中央処理部であり、表示装置100全体を制御する。CPU2には、表示デバイス11、光源駆動回路12、視線検出回路15、調光制御回路18、メモリ部3などが接続されている。
FIG. 2 is a block diagram showing the electrical configuration of the
メモリ部3は、眼撮像素子17からの映像信号の記憶機能と、後述する視線の個人差を補正する視線補正パラメータの記憶機能とを有する。
The memory unit 3 has a function of storing a video signal from the
視線検出回路15は、眼撮像素子17上に眼の光学像が結像した状態での眼撮像素子17の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU2に送信する。CPU2は、後述する所定のアルゴリズムに従って眼画像から視線検出に必要な特徴点を抽出し、特徴点の位置からユーザの視線を検出する。例えば、CPU2は、右撮像素子によって得られた右眼画像に基づいて、右眼の視線に関する右視線情報を取得し、左撮像素子によって得られた左眼画像に基づいて、左眼の視線に関する左視線情報を取得する。
The line of
<視線検出動作の説明>
図3,4(A),4(B),5を用いて、視線検出方法について説明する。右眼の視線も左眼の視線も、以下の視線検出方法で検出される。図3は、視線検出方法の原理を説明するための図であり、視線検出を行うための光学系の概略図である。図4(A)は、眼撮像素子17で撮像された眼画像(眼撮像素子17に投影された光学像)の概略図であり、図4(B)は眼撮像素子17におけるCCDの出力強度を示す図である。図5は、視線検出動作の概略フローチャートを表す。
<Explanation of gaze detection operation>
The line of sight detection method will be explained using FIGS. 3, 4(A), 4(B), and 5. Both the right eye's line of sight and the left eye's line of sight are detected by the following line of sight detection method. FIG. 3 is a diagram for explaining the principle of the line-of-sight detection method, and is a schematic diagram of an optical system for detecting the line-of-sight. 4(A) is a schematic diagram of an eye image captured by the eye image sensor 17 (an optical image projected onto the eye image sensor 17), and FIG. 4(B) is a schematic diagram of the output intensity of the CCD in the
視線検出動作が開始すると、図5のステップS101で、CPU2は、光源駆動回路12を用いて光源13a,13bを制御して、ユーザの眼球14に向けて赤外光を発する。赤外光によって照明されたユーザの眼の光学像は、受光レンズ16を通して眼撮像素子17上に結像され、眼撮像素子17により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。
When the line of sight detection operation starts, in step S101 in FIG. 5, the
ステップS102では、CPU2は、眼撮像素子17から視線検出回路15を介して眼画像(眼画像信号、眼画像の電気信号)を取得する。
In step S102, the
ステップS103では、CPU2は、ステップS102で得られた眼画像から、光源13a,13bの角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を検出する。
In step S103, the
光源13a,13bより発せられた赤外光は、ユーザの眼球14の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、受光レンズ16により集光され、眼撮像素子17上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光束も眼撮像素子17上に結像して、眼画像における瞳孔端像a’,b’となる。
The infrared light emitted from the
図4(B)は、図4(A)の眼画像における領域αの輝度情報(輝度分布)を示す。図
4(B)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。実施例1では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。図4(B)に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光束が眼撮像素子17上に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の光彩143の領域(光彩143からの光束が結像して得られる、瞳孔像の外側の光彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)が座標Xaより大きい領域と、X座標が座標Xbより小さい領域とで、上記2種の輝度の中間の輝度が得られる。
FIG. 4(B) shows brightness information (brightness distribution) of area α in the eye image of FIG. 4(A). In FIG. 4(B), the horizontal direction of the eye image is the X-axis direction, the vertical direction is the Y-axis direction, and the luminance distribution in the X-axis direction is shown. In the first embodiment, the coordinates of the corneal reflection images Pd' and Pe' in the X-axis direction (horizontal direction) are Xd and Xe, and the coordinates of the pupil edge images a' and b' in the X-axis direction are Xa and Xb. As shown in FIG. 4B, an extremely high level of brightness is obtained at the coordinates Xd and Xe of the corneal reflection images Pd' and Pe'. In the area from the coordinate Xa to the coordinate Xb, which corresponds to the area of the pupil 141 (the area of the pupil image obtained when the light flux from the
図4(B)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が眼撮像素子17上に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’の座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。
From the brightness distribution as shown in FIG. 4(B), the X coordinates Xd, Xe of the corneal reflection images Pd', Pe' and the X coordinates Xa, Xb of the pupil edge images a', b' can be obtained. Specifically, coordinates with extremely high brightness can be obtained as the coordinates of the corneal reflection images Pd', Pe', and coordinates with extremely low brightness can be obtained as the coordinates of the pupil edge images a', b'. . Furthermore, when the rotation angle θx of the optical axis of the
ステップS104では、CPU2は、眼画像の結像倍率βを算出する。結像倍率βは、受光レンズ16に対する眼球14の位置により決まる倍率で、角膜反射像Pd’,Pe’の間隔(Xd-Xe)の関数を用いて算出することができる。
In step S104, the
ステップS105では、CPU2は、受光レンズ16の光軸に対する眼球14の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼球14の回転角θxは、以下の式1で算出できる。Z-Y平面(X軸に垂直な平面)内での眼球14の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。
β×Oc×SINθx≒{(Xd+Xe)/2}-Xc ・・・(式1)
In step S105, the
β×Oc×SINθx≒{(Xd+Xe)/2}−Xc...(Formula 1)
ステップS106では、CPU2は、ステップS105で算出した回転角θx,θyを用いて、レンズ10上でユーザの注視点を推定する。注視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、注視点の座標(Hx,Hy)は以下の式2,3で算出できる。注視点は、視線が注がれた位置、ユーザが見ている位置、視線位置、注視位置などと捉えることもできる。
Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
In step S106, the
Hx=m×(Ax×θx+Bx) (Formula 2)
Hy=m×(Ay×θy+By) (Formula 3)
式2,3のパラメータmは、回転角θx,θyをレンズ10上での瞳孔中心cに対応する座標に変換する変換係数である。パラメータmは、予め決定されてメモリ部3に格納されるとする。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、後述するキャリブレーション作業を行うことで決定(取得)される。視
線補正パラメータAx,Bx,Ay,Byは、視線検出動作が開始する前にメモリ部3に格納されるとする。
The parameters m in
ステップS107では、CPU2は、注視点の座標(Hx,Hy)をメモリ部3に格納し、視線検出動作を終える。
In step S107, the
なお、視線検出方法は上記方法に限られず、例えば眼画像から視線情報を取得する方法であれば、どのような方法であってもよい。最終的な視線情報として、注視点を示す情報ではなく、視線の方向を示す情報が得られてもよい。例えば、注視点の座標(Hx,Hy)を得ずに、回転角(Ax×θx+BxやAy×θy+By)を得るまでの処理が行われてもよい。 Note that the line of sight detection method is not limited to the above method, and may be any method as long as it acquires line of sight information from an eye image, for example. As the final line of sight information, information indicating the direction of the line of sight may be obtained instead of information indicating the gaze point. For example, processing may be performed to obtain the rotation angle (Ax×θx+Bx or Ay×θy+By) without obtaining the coordinates (Hx, Hy) of the gaze point.
<キャリブレーション作業の必要性の説明>
前述のように、視線検出動作において眼画像から眼球14の回転角θx,θyを取得し、瞳孔中心cの位置をレンズ10上での位置に座標変換することで、注視点を推定できる。図6(A)は、ユーザの視野(レンズ10を通してユーザが見ることのできる範囲、外界撮像ユニット20の撮像範囲)を示す図であり、表示デバイス11が動作した状態を示す。図6(A)に示すように、表示デバイス11は、現在の注視点A(推定位置)に枠などを表示する。表示装置100は、視線検出の結果(視線情報、注視点情報)に応じて、ユーザが注視している現実物体に関係する情報などをUI(User Interface)として表示するように、表示デバイス11を制御してもよい。現実物体は、外界(現実空間)に実在する物体である。
<Explanation of the necessity of calibration work>
As described above, the point of gaze can be estimated by acquiring the rotation angles θx and θy of the
しかし、人間の眼球の形状の個人差などの要因により、注視点を高精度に推定できないことがある。具体的には、視線補正パラメータAx,Ay,Bx,Byをユーザに適した値に調整しなければ、図6(B)に示すように、実際の注視点Bと推定された注視点Cとのずれが生じてしまう。図6(B)では、ユーザは人物を注視しているが、表示装置100は背景が注視されていると誤って推定してしまっている。
However, due to factors such as individual differences in the shape of human eyeballs, it may not be possible to estimate the gaze point with high accuracy. Specifically, unless the gaze correction parameters Ax, Ay, Bx, and By are adjusted to values suitable for the user, the actual gaze point B and the estimated gaze point C will be different from each other, as shown in FIG. 6(B). A misalignment will occur. In FIG. 6B, the user is gazing at a person, but the
そこで、表示装置100の通常使用の前に、視線検出機能のキャリブレーション作業を行い、ユーザに適した視線補正パラメータAx,Ay,Bx,Byを決定し、表示装置100に格納する必要がある。
Therefore, before normal use of the
従来より、キャリブレーション作業は、表示装置100の通常使用の前に図6(C)に示すような位置の異なる複数の指標を表示し、ユーザにその指標を見てもらうことで行われている。そして、各指標の注視時に視線検出動作を行い、算出された複数の注視点(推定位置)と、各指標の座標とから、ユーザに適した視線補正パラメータAx,Ay,Bx,Byを決定する技術が、公知の技術として知られている。
Conventionally, calibration work has been performed by displaying a plurality of indicators at different positions as shown in FIG. 6(C) before normal use of the
しかしながら、ユーザの眼球の状態は時々刻々と変化する。そして、従来のキャリブレーション作業を行っても、眼球の状態が変化すると、適切な視線補正パラメータAx,Ay,Bx,Byが変化し、実際の注視点と推定された注視点とのずれが生じて(増して)しまう。つまり、眼球の状態が変化することで、視線検出の精度が低下する。 However, the condition of the user's eyeballs changes from moment to moment. Even if conventional calibration work is performed, when the state of the eyeball changes, the appropriate line of sight correction parameters Ax, Ay, Bx, By will change, resulting in a deviation between the actual gaze point and the estimated gaze point. te (increase). In other words, as the state of the eyeball changes, the accuracy of line-of-sight detection decreases.
例えば、ユーザが屋内から屋外に出るなどして表示装置100の使用環境が変化し、外界の明るさが変化すると、瞳孔の大きさ(瞳孔サイズ、瞳孔径、瞳孔の直径や半径)が変化する。その結果、適切な視線補正パラメータAx,Ay,Bx,Byが変化し、視線検出の精度が低下する。図7は、瞳孔サイズと適切な視線補正パラメータAxとの対応関係を示す。
For example, when the environment in which the
キャリブレーション作業を再び行えば視線検出の精度を向上することができるが、眼球の状態が変わる度にキャリブレーション作業を行うのは煩わしい。そこで、実施例1では、キャリブレーション作業を繰り返さずに、ユーザの眼球の状態に依らず高精度な視線検出を可能にする。なお、図7では、瞳孔サイズの増加に対して、適切な視線補正パラメータAxが線形に増加しているが、この傾向には個人差がある。そのため、瞳孔サイズ(の変化)から、適切な視線補正パラメータAx,Bx,Ay,By(の変化)を推定するのは困難であり、キャリブレーション作業で視線補正パラメータAx,Bx,Ay,Byを決定する必要がある。 Although it is possible to improve the accuracy of line-of-sight detection by performing the calibration work again, it is troublesome to perform the calibration work every time the state of the eyeball changes. Therefore, in the first embodiment, it is possible to detect the line of sight with high accuracy regardless of the state of the user's eyeballs without repeating the calibration work. Note that in FIG. 7, the appropriate line of sight correction parameter Ax increases linearly as the pupil size increases, but this tendency differs from person to person. Therefore, it is difficult to estimate (changes in) the appropriate line-of-sight correction parameters Ax, Bx, Ay, By from (changes in) pupil size, and the line-of-sight correction parameters Ax, Bx, Ay, By are changed during calibration work. Need to decide.
<キャリブレーション動作の説明>
実施例1では、キャリブレーション作業中(キャリブレーション中)に、ユーザの眼に入射する光の量(入射光量)を、複数の光量それぞれに制御する。例えば、キャリブレーション作業中に、表示装置100の透過率(調光デバイス19の透過率)を、複数の透過率それぞれに制御する。図8に示すように、調光デバイス19は、レンズ10の前面を覆うように設けられている。そのため、調光デバイス19の透過率を制御することで、眼の入射光量が制御される。なお、調光デバイス19は、レンズ10の背面を覆うように設けられもよい。また、眼の入射光量の制御方法は上記方法に限られない。例えば、ビデオシースルー方式の表示装置の場合には、表示輝度を制御してもよい。
<Explanation of calibration operation>
In the first embodiment, during the calibration work (during calibration), the amount of light that enters the user's eyes (incident light amount) is controlled to each of a plurality of light amounts. For example, during the calibration work, the transmittance of the display device 100 (the transmittance of the light control device 19) is controlled to each of a plurality of transmittances. As shown in FIG. 8, the
そして、眼の入射光量ごとに、視線補正パラメータAx,Bx,Ay,By(視線検出(視線検出動作、視線検出機能)に使用するパラメータ)を決定する。この処理は、瞳孔サイズごとに視線補正パラメータAx,Bx,Ay,Byを決定する処理と捉えることもできる。 Then, line-of-sight correction parameters Ax, Bx, Ay, By (parameters used for line-of-sight detection (line-of-sight detection operation, line-of-sight detection function)) are determined for each amount of light incident on the eye. This process can also be regarded as a process of determining the line of sight correction parameters Ax, Bx, Ay, By for each pupil size.
こうして、瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの対応関係として、ユーザに適した対応関係を決定することができる。ひいては、表示装置100の使用環境が変化し、外界の明るさが変化した際に、キャリブレーション作業を再度行わずに、瞳孔サイズ(眼の入射光量)に対応する視線補正パラメータAx,Bx,Ay,Byを用いて、視線検出を高精度に行うことができる。
In this way, a correspondence relationship suitable for the user can be determined as a correspondence relationship between the pupil size (the amount of light incident on the eye) and the line of sight correction parameters Ax, Bx, Ay, By. Furthermore, when the environment in which the
図9(A)~9(C)を用いて、キャリブレーション作業中における調光デバイス19の透過率の制御の具体例を説明する。
A specific example of controlling the transmittance of the
まず、表示装置100は、図9(A)に示すように調光デバイス19の透過率を最大に制御して、視線補正パラメータAx,Ay,Bx,Byを決定する。調光デバイス19の透過率が最大であるため、視線補正パラメータAx,Ay,Bx,Byは、キャリブレーション作業中において眼の入射光量が最大の場合(瞳孔サイズが最小の場合)の視線補正パラメータと捉えることもできる。
First, the
次に、表示装置100は、図9(B)に示すように調光デバイス19の透過率を最小に制御して、視線補正パラメータAx,Ay,Bx,Byを決定する。調光デバイス19の透過率が最小であるため、視線補正パラメータAx,Ay,Bx,Byは、キャリブレーション作業中において眼の入射光量が最小の場合(瞳孔サイズが最大の場合)の視線補正パラメータと捉えることもできる。
Next, the
さらに、表示装置100は、図9(C)に示すように調光デバイス19の透過率を40%に制御して、視線補正パラメータAx,Ay,Bx,Byを決定する。これにより得られる視線補正パラメータAx,Ay,Bx,Byは、キャリブレーション作業中において眼の入射光量が最大と最小の間の場合(瞳孔サイズが最大と最小の間の場合)の視線補正パラメータと捉えることもできる。
Furthermore, the
上記の透過率40%は、眼の入射光量が図9(A)の状態での入射光量と図9(B)の状態での入射光量との中間(図9(A)の状態での入射光量から図9(B)の状態での入射光量までの範囲を2等分する入射光量)となるような透過率である。眼の入射光量を示す光量情報は、例えば、眼画像の明るさに基づいて取得することができる。これに限られず、表示装置100の内側(ユーザ側)の明るさを検出するセンサの検出結果を光量情報として取得してもよいし、当該検出結果に基づく別の情報を光量情報として取得してもよい。表示装置100の外側の明るさを検出するセンサの検出結果と、調光デバイス19の透過率とに基づいて、光量情報を取得してもよい。図9(A)の状態(透過率が最大の状態)で得られた光量情報と図9(B)の状態(透過率が最小の状態)で得られた光量情報とから、それら2つの光量情報が示す2つの入射光量の中間の入射光量を得るための透過率を容易に決定(算出)することができる。
The above transmittance of 40% means that the amount of incident light to the eye is between the amount of incident light in the state of FIG. 9(A) and the amount of incident light in the state of FIG. 9(B) (the amount of incident light in the state of FIG. 9(A) The transmittance is such that the range from the light amount to the incident light amount in the state shown in FIG. 9(B) is divided into two (incident light amount). The light amount information indicating the amount of light incident on the eye can be acquired based on the brightness of the eye image, for example. The invention is not limited to this, and the detection result of a sensor that detects the brightness inside the display device 100 (on the user side) may be acquired as the light amount information, or another information based on the detection result may be acquired as the light amount information. Good too. The light amount information may be acquired based on the detection result of a sensor that detects the brightness outside the
なお、最大、最小、40%の透過率は一例であり、調光デバイス19の透過率は特に限定されない。調光デバイス19の透過率は3段階よりも多い段階数で制御してもよい。調光デバイス19の透過率が最大の場合の眼の入射光量などを1つ以上の閾値と比較するなどして、調光デバイス19の透過率を制御する段階数を決定してもよい。例えば、調光デバイス19の透過率が最大の場合の入射光量が十分に大きい場合に、段階数を多くしてもよい。そうすることで、調光デバイス19の透過率が最小の場合の入射光量から調光デバイス19の透過率が最大の場合の入射光量までの広い範囲について、瞳孔サイズ(眼の入射光量)と視線補正パラメータとの対応関係を詳細に示す情報を得ることができる。但し段階数を多くすると、キャリブレーション作業の時間が長くなる。そのため、調光デバイス19の透過率が最大の場合の入射光量がそれほど大きくない場合には、段階数を少なくしてもよい。そうすることで、瞳孔サイズ(眼の入射光量)と視線補正パラメータとの対応関係を示す情報として、必要以上に詳細な情報を得ずに、キャリブレーション作業の時間を短縮することができる。
Note that the maximum, minimum, and 40% transmittances are just examples, and the transmittance of the
また、キャリブレーション作業中において、表示装置100は、瞳孔サイズを示す瞳孔情報を取得してもよい。例えば、表示装置100は、瞳孔端像a’のX座標Xaから瞳孔端像b’のX座標Xbまでの距離を瞳孔サイズとして算出してもよい。
Furthermore, during the calibration work, the
図10は、キャリブレーション動作のフローチャートである。例えば、ユーザが表示装置100を装着し、表示装置100により表示されたメニュー画面などからキャリブレーションの開始を指示すると、図10のキャリブレーション動作が開始する。図10のキャリブレーション動作の開始時において、例えば、
FIG. 10 is a flowchart of the calibration operation. For example, when a user wears the
ステップS201では、CPU2は、調光制御回路18を用いて調光デバイス19の透過率を制御する。例えば、CPU2は、調光デバイス19の透過率を最大に制御する。
In step S201, the
ステップS202では、CPU2は、表示デバイス11を制御して、キャリブレーション用の指標を含むキャリブレーション画面を、ユーザの両眼に対して表示する。例えば、図6(C)に示すように、複数の指標を表示する。
In step S202, the
ステップS203では、CPU2は、ユーザに対し、注視すべき指標を通知する。例えば、CPU2は、複数の指標のうち、注視すべき指標の形状、色、輝度などを変えて、当該指標を強調する。なお、注視すべき指標の通知方法はこれに限られない。例えば、注視すべき指標のみを表示してもよい。
In step S203, the
ステップS204では、CPU2は、ユーザが決定操作を行ったか否かを判定する。決定操作は、ユーザが指標の注視を表示装置100に知らせるために行われる。そのため、
決定操作は、ユーザが注視すべき指標を見た状態で行われる。決定操作は、例えば、表示装置100に有線または無線で接続されたコントローラのボタン操作などである。なお、決定操作は特に限定されず、指標を所定時間よりも長く注視し続ける操作であってもよいし、音声操作などであってもよい。CPU2は、決定操作を待ち、決定操作が行われるとステップS205に処理を進める。
In step S204, the
The decision operation is performed while the user is looking at the indicator to be focused on. The determining operation is, for example, a button operation on a controller connected to the
ステップS205では、CPU2は、図5の視線検出動作を行う。視線検出動作は、右眼と左眼のそれぞれに対して行われる。これにより、右視線情報(右眼についての視線検出動作の結果)と左視線情報(左眼についての視線検出動作の結果)が取得される(視線取得)。
In step S205, the
ステップS206では、CPU2は、全ての指標について視線検出動作を行ったか否かを判定する。CPU2は、視線検出動作を行っていない指標が残っている場合は、ステップS207に処理を進め、全ての指標について視線検出動作を行った場合は、ステップS208に処理を進める。
In step S206, the
ステップS207では、CPU2は、注視すべき指標の変更を通知する。例えば、CPU2は、強調する指標を複数の指標の間で切り替えて、ステップS204に処理を進めて、決定操作を待つ。
In step S207, the
ステップS208では、CPU2は、全ての指標についての視線検出動作の結果から、上述した視線補正パラメータAx,Bx,Ay,Byを決定(算出)する。
In step S208, the
ステップS209では、CPU2は、全ての透過率(調光デバイス19の透過率)について視線補正パラメータAx,Bx,Ay,Byを決定したか否かを判定する。CPU2は、視線補正パラメータAx,Bx,Ay,Byを決定していない透過率が残っている場合は、ステップS210に処理を進め、全ての透過率について視線補正パラメータAx,Bx,Ay,Byを決定した場合は、キャリブレーション動作を終了する。
In step S209, the
ステップS210では、CPU2は、調光制御回路18を用いて調光デバイス19の透過率を制御(変更)する。そして、CPU2は、ステップS202に処理を進める。
In step S210, the
視線補正パラメータBxの算出方法について説明する。パラメータ視線補正Byは、視線補正パラメータBxの算出方法と同様の方法で算出することができる。 A method of calculating the line of sight correction parameter Bx will be explained. The parameter line-of-sight correction By can be calculated using the same method as the calculation method of the line-of-sight correction parameter Bx.
図11は、図3に示す回転角θxが0度の場合における眼球14の内部の様子を示す。図11において、眼球14に入射した光を感じ取り、脳に信号を送る役割を有す視細胞は、一点鎖線で示す眼球14の光軸(角膜142や瞳孔141の光軸)からずれている。そのため、ユーザが表示デバイス11の表示面の中央部を見る場合に、回転角θxは、眼球14の光軸からの視細胞のずれ量に対応するオフセット角で、0度からずれる。このオフセット角(視細胞のずれ量)が視線補正パラメータBxに相当する(Bx∝オフセット角)。
FIG. 11 shows the inside of the
例えば、CPU2は、図6(C)に示すように複数の指標を表示デバイス11の表示面に表示し、表示面の中央部の指標を点滅させるなどして、表示面の中央部をユーザに注視させる。CPU2は、表示面の中央部をユーザに注視させた状態で得られた眼画像を用いて図5の視線検出動作を行うことで、回転角θxをオフセット角として算出する。そして、CPU2は、オフセット角に応じて視線補正パラメータBxを算出する。
For example, the
視線補正パラメータAxの算出方法について説明する。視線補正パラメータAyは、視
線補正パラメータAxの算出方法と同様の方法で算出することができる。
A method for calculating the line-of-sight correction parameter Ax will be explained. The line-of-sight correction parameter Ay can be calculated using the same method as the calculation method of the line-of-sight correction parameter Ax.
式1では、回転角θxを算出するために、角膜曲率中心Oから瞳孔中心cまでの標準的な距離Oc(定数)が使用される。しかしながら、角膜曲率中心Oから瞳孔中心cまでの実際の距離Oc’(変数)は、距離Ocと同じとは限らない。距離Oc’と距離Ocの差は、式1で算出される回転角θxの誤差となる。視線補正パラメータAxは、このような誤差を低減するためのパラメータであり、実際の距離Oc’に反比例する(Ax∝1/Oc’)。標準的な距離Ocを視線補正パラメータAxで除算した値が、実際の距離Oc’となる。
In
例えば、CPU2は、表示デバイス11の表示面の複数の位置をユーザに順に注視させながら眼球14を複数回撮像した複数の眼画像に基づいて、視線補正パラメータAxを算出する。具体的には、CPU2は、図6(C)に示す複数の指標のうち、水平方向の位置が異なる2つ以上の指標を順に注視させる。CPU2は、2つ以上の指標にそれぞれ対応する2つ以上の眼画像のそれぞれについて、回転角θxを算出する。指標に対応する眼画像は、当該指標をユーザに注視させた状態で得られた眼画像である。そして、CPU2は、算出した2つ以上の回転角θxに基づいて、視線補正パラメータAxを算出する。例えば、CPU2は、算出される2つ以上の回転角θxの誤差の総和(最小二乗法の残差二乗和など)が最小になるように視線補正パラメータAxを算出する。算出される2つ以上の回転角θxそれぞれの誤差(指標の位置に応じた目標の回転角と、算出される回転角θxとの差分)が同程度になるように視線補正パラメータAxを算出してもよい。
For example, the
<使用する視線補正パラメータの決定方法の説明>
図10のキャリブレーション動作によれば、瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの対応関係としてユーザに適した対応関係を示す情報を得ることができる。ひいては、キャリブレーション作業を再度行わずに、瞳孔サイズ(眼の入射光量)に対応する視線補正パラメータAx,Bx,Ay,Byを用いて、視線検出を高精度に行うことができる。
<Explanation of how to determine the line of sight correction parameters to be used>
According to the calibration operation shown in FIG. 10, it is possible to obtain information indicating a correspondence relationship suitable for the user as a correspondence relationship between the pupil size (the amount of light incident on the eye) and the line-of-sight correction parameters Ax, Bx, Ay, and By. Furthermore, the line of sight detection can be performed with high precision using the line of sight correction parameters Ax, Bx, Ay, By corresponding to the pupil size (the amount of light incident on the eye) without performing the calibration work again.
図10のキャリブレーション動作によれば、瞳孔サイズ(眼の入射光量)を変えながら、瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの複数の組み合わせが得られる。複数の組み合わせの情報は、瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの対応関係を示すテーブルと捉えることもできる。キャリブレーション動作後において、瞳孔サイズ(眼の入射光量)がキャリブレーション動作時と同じであれば、瞳孔サイズ(眼の入射光量)に対応する視線補正パラメータAx,Bx,Ay,Byを上記テーブルから得ることができる。 According to the calibration operation shown in FIG. 10, a plurality of combinations of the pupil size (the amount of light incident on the eye) and the line of sight correction parameters Ax, Bx, Ay, By can be obtained while changing the pupil size (the amount of light incident on the eye). The information on the plurality of combinations can also be regarded as a table showing the correspondence between the pupil size (the amount of light incident on the eye) and the line-of-sight correction parameters Ax, Bx, Ay, and By. After the calibration operation, if the pupil size (the amount of incident light on the eye) is the same as during the calibration operation, the line of sight correction parameters Ax, Bx, Ay, By corresponding to the pupil size (the amount of incident light on the eye) are determined from the table above. Obtainable.
しかしながら、キャリブレーション動作後において、瞳孔サイズ(眼の入射光量)がキャリブレーション動作時と同じであるとは限らない。キャリブレーション動作後において、瞳孔サイズ(眼の入射光量)がキャリブレーション動作時と異なる場合には、瞳孔サイズ(眼の入射光量)に対応する視線補正パラメータAx,Bx,Ay,Byを上記テーブルから得ることはできない。そのような場合を考慮し、上記複数の組み合わせに基づいて、瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの対応関係を示す関数を推定してもよい。そうすることで、どのような瞳孔サイズ(眼の入射光量)の場合にも、それに対応する視線補正パラメータAx,Bx,Ay,Byを関数から取得して用いることで、視線検出を高精度に行うことができる。 However, after the calibration operation, the pupil size (the amount of light incident on the eye) is not necessarily the same as during the calibration operation. After the calibration operation, if the pupil size (the amount of incident light on the eye) is different from the one during the calibration operation, the line of sight correction parameters Ax, Bx, Ay, By corresponding to the pupil size (the amount of incident light on the eye) are determined from the table above. You can't get it. Considering such a case, a function indicating the correspondence between the pupil size (the amount of light incident on the eye) and the line-of-sight correction parameters Ax, Bx, Ay, and By may be estimated based on the plurality of combinations described above. By doing so, no matter what the pupil size (amount of incident light to the eye), the corresponding gaze correction parameters Ax, Bx, Ay, By can be obtained from the function and used to detect the gaze with high accuracy. It can be carried out.
瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの対応関係を示す関数は、例えば以下の式4を用いた最小二乗法により決定することができる。式4において、sは誤差であり、Riはi番目の瞳孔サイズである。Ax(Ri)は瞳孔サ
イズRiに対応する視線補正パラメータAxであり、キャリブレーション動作により決定した視線補正パラメータAxである。Ax’(Ri)は瞳孔サイズRiに対応する視線補正パラメータAxであり、瞳孔サイズと視線補正パラメータAxの対応関係を示す関数(候補)により決定した視線補正パラメータAxである。誤差s(残差二乗和)が最小となるように、瞳孔サイズと視線補正パラメータAxの対応関係を示す関数を決定する。同様に、瞳孔サイズと視線補正パラメータBx,Ay,Byの対応関係を示す関数も決定する。
s=Σi=1~n{Ax(Ri)-Ax’(Ri)}2 ・・・(式4)
The function indicating the correspondence between the pupil size (the amount of light incident on the eye) and the line-of-sight correction parameters Ax, Bx, Ay, By can be determined, for example, by the least squares method using Equation 4 below. In Equation 4, s is the error and Ri is the i-th pupil size. Ax (Ri) is the line-of-sight correction parameter Ax corresponding to the pupil size Ri, and is the line-of-sight correction parameter Ax determined by the calibration operation. Ax' (Ri) is the line-of-sight correction parameter Ax corresponding to the pupil size Ri, and is the line-of-sight correction parameter Ax determined by a function (candidate) indicating the correspondence between the pupil size and the line-of-sight correction parameter Ax. A function indicating the correspondence between the pupil size and the line-of-sight correction parameter Ax is determined so that the error s (sum of squared residuals) is minimized. Similarly, a function indicating the correspondence between the pupil size and the line-of-sight correction parameters Bx, Ay, and By is also determined.
s=Σ i=1~n {Ax(Ri)−Ax'(Ri)} 2 ...(Formula 4)
なお、瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの対応関係を示す関数の決定方法は、最小二乗法に限られない。例えば、キャリブレーション動作によって得た複数の組み合わせ(瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの複数の組み合わせ)の座標を直線で繋ぐ線形補間を行ってもよい。 Note that the method for determining the function indicating the correspondence between the pupil size (the amount of light incident on the eye) and the line-of-sight correction parameters Ax, Bx, Ay, By is not limited to the least squares method. For example, linear interpolation may be performed to connect the coordinates of multiple combinations (multiple combinations of pupil size (amount of incident light to the eye) and line of sight correction parameters Ax, Bx, Ay, By) obtained through the calibration operation with a straight line. .
<<実施例2>>
本発明の実施例2について説明する、実施例1では、ユーザの眼の入射光量を示す光量情報を取得し、光量情報に基づいて、ユーザの眼の入射光量を、複数の光量それぞれに制御する例を説明した。実施例2では、ユーザの瞳孔サイズを示す瞳孔情報を取得し、瞳孔情報に基づいて、ユーザの眼の入射光量を、複数の光量それぞれに制御する例を説明する。
<<Example 2>>
Example 2 of the present invention will be described. In Example 1, light amount information indicating the amount of light incident on the user's eyes is acquired, and based on the light amount information, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts. An example was explained. In the second embodiment, an example will be described in which pupil information indicating the pupil size of the user is acquired and the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts based on the pupil information.
実施例2では、キャリブレーション作業中において、表示装置100は、瞳孔サイズを示す瞳孔情報を取得する。例えば、表示装置100は、瞳孔端像a’のX座標Xaから瞳孔端像b’のX座標Xbまでの距離を瞳孔サイズとして算出する。
In the second embodiment, during the calibration work, the
まず、表示装置100は、調光デバイス19の透過率を最大に制御して、視線補正パラメータAx,Ay,Bx,Byを決定する。調光デバイス19の透過率が最大であるため、視線補正パラメータAx,Ay,Bx,Byは、キャリブレーション作業中において瞳孔サイズが最小の場合(眼の入射光量が最大の場合)の視線補正パラメータと捉えることもできる。
First, the
次に、表示装置100は、調光デバイス19の透過率を最小に制御して、視線補正パラメータAx,Ay,Bx,Byを決定する。調光デバイス19の透過率が最小であるため、視線補正パラメータAx,Ay,Bx,Byは、キャリブレーション作業中において瞳孔サイズが最大の場合(眼の入射光量が最小の場合)の視線補正パラメータと捉えることもできる。
Next, the
さらに、表示装置100は、調光デバイス19の透過率を最大に制御した状態での瞳孔情報と、最小に制御した状態での瞳孔情報とに基づいて、ユーザの瞳孔サイズがそれら2つの瞳孔情報が示す2つの瞳孔サイズの中間となるような透過率を決定(算出)する。そして、表示装置100は、決定した透過率に調光デバイス19の透過率を制御して、視線補正パラメータAx,Ay,Bx,Byを決定する。
Furthermore, the
なお、上記3種(3段階)の透過率は一例であり、調光デバイス19の透過率は特に限定されない。調光デバイス19の透過率は3段階よりも多い段階数で制御してもよい。調光デバイス19の透過率が最大の場合の瞳孔サイズなどを1つ以上の閾値と比較するなどして、調光デバイス19の透過率を制御する段階数を決定してもよい。例えば、調光デバ
イス19の透過率が最大の場合の瞳孔サイズが十分に小さい場合に、段階数を多くしてもよい。そうすることで、調光デバイス19の透過率が最大の場合の瞳孔サイズから調光デバイス19の透過率が最小の場合の瞳孔サイズまでの広い範囲について、瞳孔サイズ(眼の入射光量)と視線補正パラメータとの対応関係を詳細に示す情報を得ることができる。但し段階数を多くすると、キャリブレーション作業の時間が長くなる。そのため、調光デバイス19の透過率が最大の場合の瞳孔サイズがそれほど小さくない場合には、段階数を少なくしてもよい。そうすることで、瞳孔サイズ(眼の入射光量)と視線補正パラメータとの対応関係を示す情報として、必要以上に詳細な情報を得ずに、キャリブレーション作業の時間を短縮することができる。
Note that the three types (three levels) of transmittance described above are just an example, and the transmittance of the
<<まとめ>>
以上述べたように、実施例1,2によれば、キャリブレーション中に、ユーザの眼の入射光量が、複数の光量それぞれに制御される。そうすることで、ユーザの眼球の状態に依らず高精度な視線検出が可能となる。具体的には、瞳孔サイズ(眼の入射光量)と視線補正パラメータAx,Bx,Ay,Byとの対応関係として、ユーザに適した対応関係を決定することができる。ひいては、瞳孔サイズ(眼の入射光量)が変化しても、キャリブレーション作業を再度行わずに、瞳孔サイズ(眼の入射光量)に対応する視線補正パラメータAx,Bx,Ay,Byを用いて、視線検出を高精度に行うことができる。
<<Summary>>
As described above, according to Examples 1 and 2, during calibration, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts. By doing so, it becomes possible to detect the line of sight with high accuracy regardless of the state of the user's eyeballs. Specifically, a correspondence relationship suitable for the user can be determined as a correspondence relationship between the pupil size (the amount of light incident on the eye) and the line-of-sight correction parameters Ax, Bx, Ay, and By. Furthermore, even if the pupil size (the amount of incident light to the eye) changes, the line of sight correction parameters Ax, Bx, Ay, By corresponding to the pupil size (the amount of incident light to the eye) can be used without performing the calibration work again. Line of sight detection can be performed with high accuracy.
なお、実施例1,2はあくまで一例であり、本発明の要旨の範囲内で実施例1,2の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。実施例1,2の構成を適宜組み合わせて得られる構成も、本発明に含まれる。 Note that Examples 1 and 2 are merely examples, and the present invention also includes configurations obtained by appropriately modifying or changing the configurations of Examples 1 and 2 within the scope of the gist of the present invention. A configuration obtained by appropriately combining the configurations of Examples 1 and 2 is also included in the present invention.
<<その他の実施例>>
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<<Other Examples>>
The present invention provides a system or device with a program that implements one or more of the functions of the above-described embodiments via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
本実施形態の開示は、以下の構成、方法、プログラム、および媒体を含む。
(構成1)
ユーザの眼に入射する光の量を制御する制御手段を有し、
前記制御手段は、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする電子機器。
(構成2)
前記キャリブレーションを行うキャリブレーション手段をさらに有する
ことを特徴とする構成1に記載の電子機器。
(構成3)
前記視線情報は、光学シースルー方式の表示装置を頭部に装着したユーザの視線に関する情報であり、
前記制御手段は、前記キャリブレーション中に、前記表示装置の透過率を、複数の透過率それぞれに制御する
ことを特徴とする構成1または2に記載の電子機器。
(構成4)
前記電子機器は前記表示装置である
ことを特徴とする構成3に記載の電子機器。
(構成5)
前記ユーザの眼に入射する光の量を示す光量情報を取得する取得手段さらに有し、
前記制御手段は、前記光量情報に基づいて、前記ユーザの眼に入射する光の量を、複数
の光量それぞれに制御する
ことを特徴とする構成1~4のいずれか1項に記載の電子機器。
(構成6)
前記視線情報は、光学シースルー方式の表示装置を頭部に装着したユーザの視線に関する情報であり、
前記制御手段は、前記キャリブレーション中に、
(1)前記表示装置の透過率を最大に制御し、
(2)前記表示装置の透過率を最小に制御し、
(3)前記表示装置の透過率が最大に制御された第1の状態で前記取得手段により取得された第1の光量情報と、前記表示装置の透過率が最小に制御された第2の状態で前記取得手段により取得された第2の光量情報とに基づいて、前記ユーザの眼に入射する光の量が、前記第1の光量情報が示す光量と前記第2の光量情報が示す光量との中間となるような透過率に、前記表示装置の透過率を制御する
ことを特徴とする構成5に記載の電子機器。
(構成7)
前記ユーザの瞳孔の大きさを示す瞳孔情報を取得する取得手段をさらに有し、
前記制御手段は、前記瞳孔情報に基づいて、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする構成1~4のいずれか1項に記載の電子機器。
(構成8)
前記視線情報は、光学シースルー方式の表示装置を頭部に装着したユーザの視線に関する情報であり、
前記制御手段は、前記キャリブレーション中に、
(1)前記表示装置の透過率を最大に制御し、
(2)前記表示装置の透過率を最小に制御し、
(3)前記表示装置の透過率が最大に制御された第1の状態で前記取得手段により取得された第1の瞳孔情報と、前記表示装置の透過率が最小に制御された第2の状態で前記取得手段により取得された第2の瞳孔情報とに基づいて、前記瞳孔の大きさが、前記第1の瞳孔情報が示す大きさと前記第2の瞳孔情報が示す大きさとの中間となるような透過率に、前記表示装置の透過率を制御する
ことを特徴とする構成7に記載の電子機器。
(構成9)
前記キャリブレーションでは、前記ユーザの眼に入射する光の量ごとに、前記視線検出機能に使用するパラメータが決定される
ことを特徴とする構成1~8のいずれか1項に記載の電子機器。
(構成10)
ユーザの眼に入射する光の量を制御するステップを有し、
前記ステップでは、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする電子機器の制御方法。
(プログラム
コンピュータを、構成1~9のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
(媒体)
コンピュータを、構成1~9のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
The disclosure of this embodiment includes the following configuration, method, program, and medium.
(Configuration 1)
comprising a control means for controlling the amount of light incident on the user's eyes;
The electronic device is characterized in that the control means controls the amount of light incident on the user's eyes to each of a plurality of light amounts during calibration of a line-of-sight detection function that obtains line-of-sight information regarding the user's line of sight.
(Configuration 2)
The electronic device according to
(Configuration 3)
The line of sight information is information regarding the line of sight of a user who wears an optical see-through display device on his head,
3. The electronic device according to
(Configuration 4)
The electronic device according to configuration 3, wherein the electronic device is the display device.
(Configuration 5)
further comprising an acquisition means for acquiring light amount information indicating the amount of light incident on the user's eyes,
The electronic device according to any one of
(Configuration 6)
The line of sight information is information regarding the line of sight of a user who wears an optical see-through display device on his head,
The control means, during the calibration,
(1) controlling the transmittance of the display device to the maximum;
(2) controlling the transmittance of the display device to a minimum;
(3) First light amount information acquired by the acquisition means in a first state where the transmittance of the display device is controlled to a maximum, and a second state where the transmittance of the display device is controlled to a minimum. and the second light amount information acquired by the acquisition means, the amount of light incident on the user's eyes is determined to be the same as the amount of light indicated by the first light amount information and the amount of light indicated by the second light amount information. 5. The electronic device according to configuration 5, wherein the transmittance of the display device is controlled to a transmittance that is intermediate between .
(Configuration 7)
Further comprising an acquisition means for acquiring pupil information indicating the size of the user's pupil,
The electronic device according to any one of
(Configuration 8)
The line of sight information is information regarding the line of sight of a user who wears an optical see-through display device on his head,
The control means, during the calibration,
(1) controlling the transmittance of the display device to the maximum;
(2) controlling the transmittance of the display device to a minimum;
(3) First pupil information acquired by the acquisition means in a first state where the transmittance of the display device is controlled to a maximum, and a second state where the transmittance of the display device is controlled to a minimum. and the second pupil information acquired by the acquisition means, so that the size of the pupil is intermediate between the size indicated by the first pupil information and the size indicated by the second pupil information. 8. The electronic device according to configuration 7, wherein the transmittance of the display device is controlled to a transmittance of .
(Configuration 9)
9. The electronic device according to any one of
(Configuration 10)
controlling the amount of light incident on the user's eyes;
In the step, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts during calibration of a line-of-sight detection function that obtains line-of-sight information regarding the user's line of sight. Method.
(Program: A program for causing a computer to function as each means of the electronic device according to any one of
(media)
A computer-readable storage medium storing a program for causing a computer to function as each means of the electronic device according to any one of
100:表示装置 2:CPU 100: Display device 2: CPU
Claims (12)
前記制御手段は、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする電子機器。 comprising a control means for controlling the amount of light incident on the user's eyes;
The electronic device is characterized in that the control means controls the amount of light incident on the user's eyes to each of a plurality of light amounts during calibration of a line-of-sight detection function that obtains line-of-sight information regarding the user's line of sight.
ことを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1, further comprising a calibration means for performing the calibration.
前記制御手段は、前記キャリブレーション中に、前記表示装置の透過率を、複数の透過率それぞれに制御する
ことを特徴とする請求項1または2に記載の電子機器。 The line of sight information is information regarding the line of sight of a user who wears an optical see-through display device on his head,
3. The electronic device according to claim 1, wherein the control means controls the transmittance of the display device to each of a plurality of transmittances during the calibration.
ことを特徴とする請求項3に記載の電子機器。 The electronic device according to claim 3, wherein the electronic device is the display device.
前記制御手段は、前記光量情報に基づいて、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする請求項1または2に記載の電子機器。 further comprising an acquisition means for acquiring light amount information indicating the amount of light incident on the user's eyes,
3. The electronic device according to claim 1, wherein the control means controls the amount of light incident on the user's eyes to each of a plurality of light amounts based on the light amount information.
前記制御手段は、前記キャリブレーション中に、
(1)前記表示装置の透過率を最大に制御し、
(2)前記表示装置の透過率を最小に制御し、
(3)前記表示装置の透過率が最大に制御された第1の状態で前記取得手段により取得された第1の光量情報と、前記表示装置の透過率が最小に制御された第2の状態で前記取得手段により取得された第2の光量情報とに基づいて、前記ユーザの眼に入射する光の量が、前記第1の光量情報が示す光量と前記第2の光量情報が示す光量との中間となるような透過率に、前記表示装置の透過率を制御する
ことを特徴とする請求項5に記載の電子機器。 The line of sight information is information regarding the line of sight of a user who wears an optical see-through display device on his head,
The control means, during the calibration,
(1) controlling the transmittance of the display device to the maximum;
(2) controlling the transmittance of the display device to a minimum;
(3) First light amount information acquired by the acquisition means in a first state where the transmittance of the display device is controlled to a maximum, and a second state where the transmittance of the display device is controlled to a minimum. and the second light amount information acquired by the acquisition means, the amount of light incident on the user's eyes is determined to be the same as the amount of light indicated by the first light amount information and the amount of light indicated by the second light amount information. 6. The electronic device according to claim 5, wherein the transmittance of the display device is controlled to a transmittance that is intermediate between .
前記制御手段は、前記瞳孔情報に基づいて、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする請求項1または2に記載の電子機器。 Further comprising an acquisition means for acquiring pupil information indicating the size of the user's pupil,
3. The electronic device according to claim 1, wherein the control means controls the amount of light incident on the user's eyes to each of a plurality of light amounts based on the pupil information.
前記制御手段は、前記キャリブレーション中に、
(1)前記表示装置の透過率を最大に制御し、
(2)前記表示装置の透過率を最小に制御し、
(3)前記表示装置の透過率が最大に制御された第1の状態で前記取得手段により取得された第1の瞳孔情報と、前記表示装置の透過率が最小に制御された第2の状態で前記取得手段により取得された第2の瞳孔情報とに基づいて、前記瞳孔の大きさが、前記第1の瞳孔情報が示す大きさと前記第2の瞳孔情報が示す大きさとの中間となるような透過率
に、前記表示装置の透過率を制御する
ことを特徴とする請求項7に記載の電子機器。 The line of sight information is information regarding the line of sight of a user who wears an optical see-through display device on his head,
The control means, during the calibration,
(1) controlling the transmittance of the display device to the maximum;
(2) controlling the transmittance of the display device to a minimum;
(3) First pupil information acquired by the acquisition means in a first state where the transmittance of the display device is controlled to a maximum, and a second state where the transmittance of the display device is controlled to a minimum. and the second pupil information acquired by the acquisition means, so that the size of the pupil is intermediate between the size indicated by the first pupil information and the size indicated by the second pupil information. 8. The electronic device according to claim 7, wherein the transmittance of the display device is controlled to a transmittance that is equal to the transmittance of the display device.
ことを特徴とする請求項1または2に記載の電子機器。 3. The electronic device according to claim 1, wherein in the calibration, parameters used for the line of sight detection function are determined for each amount of light incident on the user's eyes.
前記ステップでは、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする電子機器の制御方法。 controlling the amount of light incident on the user's eyes;
In the step, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts during calibration of a line-of-sight detection function that obtains line-of-sight information regarding the user's line of sight. Method.
前記ステップでは、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とするプログラム。 A program for causing a computer to execute steps for controlling the amount of light incident on a user's eyes, the program comprising:
The program is characterized in that, in the step, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts during calibration of a line-of-sight detection function that obtains line-of-sight information regarding the user's line of sight.
前記ステップでは、前記ユーザの視線に関する視線情報を得る視線検出機能のキャリブレーション中に、前記ユーザの眼に入射する光の量を、複数の光量それぞれに制御する
ことを特徴とする記憶媒体。 A computer-readable storage medium storing a program for causing a computer to execute steps for controlling the amount of light incident on a user's eyes, the computer-readable storage medium comprising:
In the storage medium, in the step, the amount of light incident on the user's eyes is controlled to each of a plurality of light amounts during calibration of a line-of-sight detection function that obtains line-of-sight information regarding the user's line of sight.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022064995A JP2023155585A (en) | 2022-04-11 | 2022-04-11 | Electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022064995A JP2023155585A (en) | 2022-04-11 | 2022-04-11 | Electronic device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023155585A true JP2023155585A (en) | 2023-10-23 |
Family
ID=88417876
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022064995A Pending JP2023155585A (en) | 2022-04-11 | 2022-04-11 | Electronic device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023155585A (en) |
-
2022
- 2022-04-11 JP JP2022064995A patent/JP2023155585A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10257507B1 (en) | Time-of-flight depth sensing for eye tracking | |
KR102000865B1 (en) | A method for operating an eye tracking device and an eye tracking device | |
US10466779B1 (en) | Event camera for eye tracking | |
JP5167545B2 (en) | Viewpoint detection device | |
US9867532B2 (en) | System for detecting optical parameter of eye, and method for detecting optical parameter of eye | |
WO2016115873A1 (en) | Binocular ar head-mounted display device and information display method therefor | |
US20150304625A1 (en) | Image processing device, method, and recording medium | |
US20220075187A1 (en) | Method for generating and displaying a virtual object by an optical system | |
JP7081599B2 (en) | Information processing equipment, information processing methods, and programs | |
CN112306229A (en) | Electronic apparatus, control method, and computer-readable medium | |
KR101817436B1 (en) | Apparatus and method for displaying contents using electrooculogram sensors | |
JP2023155585A (en) | Electronic device | |
US20220329740A1 (en) | Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium | |
WO2016203844A1 (en) | Information processing device, information processing method, and program | |
WO2022103767A1 (en) | Determining gaze depth using eye tracking functions | |
US20230393655A1 (en) | Electronic apparatus | |
JP2018028728A (en) | Ophthalmic portion image processing device | |
WO2024047993A1 (en) | Information processing device | |
US20240045498A1 (en) | Electronic apparatus | |
WO2024084764A1 (en) | Control device | |
US11632496B2 (en) | Image pickup apparatus for detecting line-of-sight position, control method therefor, and storage medium | |
US20230251709A1 (en) | Electronic device, control method of electronic device, and non-transitory computer readable medium | |
US20230092593A1 (en) | Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor | |
JP2023006630A (en) | Detection device and control method therefor | |
WO2022163283A1 (en) | Eye tracking device |