JP2021064928A - Electronic device - Google Patents
Electronic device Download PDFInfo
- Publication number
- JP2021064928A JP2021064928A JP2020070176A JP2020070176A JP2021064928A JP 2021064928 A JP2021064928 A JP 2021064928A JP 2020070176 A JP2020070176 A JP 2020070176A JP 2020070176 A JP2020070176 A JP 2020070176A JP 2021064928 A JP2021064928 A JP 2021064928A
- Authority
- JP
- Japan
- Prior art keywords
- image
- eye
- state
- screen
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000001747 pupil Anatomy 0.000 claims abstract description 118
- 238000001514 detection method Methods 0.000 claims abstract description 93
- 210000001508 eye Anatomy 0.000 claims description 201
- 230000000007 visual effect Effects 0.000 claims description 124
- 238000000034 method Methods 0.000 claims description 84
- 230000008569 process Effects 0.000 claims description 58
- 238000012545 processing Methods 0.000 claims description 31
- 230000003287 optical effect Effects 0.000 claims description 30
- 238000003384 imaging method Methods 0.000 claims description 15
- 230000009467 reduction Effects 0.000 claims description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 94
- 210000003128 head Anatomy 0.000 description 52
- 208000008918 voyeurism Diseases 0.000 description 29
- 230000006872 improvement Effects 0.000 description 17
- 238000012937 correction Methods 0.000 description 14
- 239000011521 glass Substances 0.000 description 12
- 230000011514 reflex Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000005286 illumination Methods 0.000 description 5
- 210000004087 cornea Anatomy 0.000 description 4
- 230000004907 flux Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000002411 adverse Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 244000144985 peep Species 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Landscapes
- Details Of Cameras Including Film Mechanisms (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、視点を推定(検知)可能な電子機器に関する。 The present invention relates to an electronic device capable of estimating (detecting) a viewpoint.
近年、カメラの自動化・インテリジェント化が進んでいる。特許文献1では、手動で被写体位置を入力せずとも、ファインダを覗く撮影者の視点(視線位置)の情報に基づいて、撮影者が意図する被写体を認識し、焦点制御を行う技術が提案されている。特許文献2では、眼球の回転角度に加えて、頭部の回転角度や位置を考慮することで、視点の検出精度を向上させる技術が提案されている。特許文献3では、複数の眼球照明を有し、眼球照明からの光がユーザーの眼球に届いているか否かの判定結果に応じて、使用する眼球照明を切り替えて、注視点検出を行う技術が提案されている。特許文献4では、ファインダ内の表示デバイスにおける画像表示範囲(画像を表示する範囲)を切り替える技術が提案されている。
In recent years, cameras have become more automated and intelligent.
特許文献1の技術では、ユーザー(撮影者)の眼を撮像した眼画像における瞳孔像やプルキニエ像の位置に基づいて眼球の回転角度を検出することで、ユーザーの視点を推定(検出)している。しかしながら、ユーザーがファインダに対して顔をずらすなどして頭部が大きく並進移動すると、それに伴い、眼画像における瞳孔像とプルキニエ像も大きく並進移動してしまうため、視点を高精度に推定できない。
In the technique of
特許文献2の技術では、眼だけでなく顔全体を撮像し、顔の特徴点から頭部の位置や傾きを検出して、眼球の回転角度に加えて、頭部の位置や傾きを考慮することで、視点の推定精度を向上させている。しかしながら、顔全体(頭部全体)を撮像する構成が必要となり、装置の複雑化や高コスト化をまねいてしまう。さらに、ユーザーがカメラのファインダを覗き込んだ状態や、VRグラス(VRゴーグル)を装着した状態等の、頭部が隠れて撮像できない状態では、視点の推定精度を向上できない。
In the technique of
特許文献3の技術では、使用する眼球照明を状況によって切り替えて注視点検出を行っている。しかしながら、眼球照明に起因したゴーストが眼画像に写り込むことで、視点を高精度に推定できないことがある。
In the technique of
特許文献4の技術では、視点の推定のためではなく、省電力のために、表示デバイスにおける画像表示範囲が通常時から狭められる。このため、視点の推定時に、適切な範囲に画像表示範囲が切り替えられず、視点を高精度に推定できないことがある。 In the technique of Patent Document 4, the image display range in the display device is narrowed from the normal time not for estimating the viewpoint but for power saving. Therefore, when estimating the viewpoint, the image display range may not be switched to an appropriate range, and the viewpoint may not be estimated with high accuracy.
本発明は、視点の推定が高精度に行えない状態を簡易な構成で検知可能にする技術を提供することを目的とする。 An object of the present invention is to provide a technique capable of detecting a state in which the viewpoint cannot be estimated with high accuracy with a simple configuration.
本発明の第1の態様は、表示手段の画面を眼窓枠を通して見る眼を撮像した眼画像を取得可能な電子機器であって、前記眼画像に基づいて、前記画面における前記眼の視点を推定する推定手段と、前記眼画像における瞳孔像またはプルキニエ像の位置に基づいて、前記眼画像において前記眼が前記画面の中心に対応する位置からずれたずれ視認状態を検知する検知手段と、を有することを特徴とする電子機器である。 A first aspect of the present invention is an electronic device capable of acquiring an eye image obtained by capturing an image of an eye viewing the screen of a display means through an eye window frame, and based on the eye image, the viewpoint of the eye on the screen can be obtained. An estimation means for estimating and a detection means for detecting a deviation visual state in which the eye deviates from the position corresponding to the center of the screen in the eye image based on the position of the pupil image or the Pulkinier image in the eye image. It is an electronic device characterized by having.
本発明の第2の態様は、表示手段の画面を眼窓枠を通して見る眼を撮像した眼画像を取得可能な電子機器の制御方法であって、前記眼画像に基づいて、前記画面における前記眼の視点を推定するステップと、前記眼画像における瞳孔像またはプルキニエ像の位置に基づいて、前記眼画像において前記眼が前記画面の中心に対応する位置からずれたずれ視認状態を検知するステップと、を有することを特徴とする制御方法である。 A second aspect of the present invention is a control method for an electronic device capable of acquiring an eye image obtained by capturing an image of an eye viewing a screen of a display means through an eye window frame, and based on the eye image, the eye on the screen. A step of estimating the viewpoint of the eye, and a step of detecting a visual state in which the eye deviates from the position corresponding to the center of the screen in the eye image based on the position of the pupil image or the Pulkinier image in the eye image. It is a control method characterized by having.
本発明の第3の態様は、コンピュータを上述した電子機器の各手段として機能させるためのプログラムである。本発明の第4の態様は、コンピュータを上述した電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体である。 A third aspect of the present invention is a program for making a computer function as each means of the above-mentioned electronic device. A fourth aspect of the present invention is a computer-readable recording medium that stores a program for making a computer function as each means of the above-mentioned electronic devices.
本発明によれば、視点の推定が高精度に行えない状態が簡易な構成で検知可能となる。 According to the present invention, it is possible to detect a state in which the viewpoint cannot be estimated with high accuracy with a simple configuration.
前述したように、従来技術では眼画像における瞳孔像とプルキニエ像が大きく並進移動する場合などでは、視点(視線位置)を高精度に推定できない。特に、眼鏡を着用しているユーザー等がカメラのファインダを覗き込む場合は、ファインダへ眼球が十分に近づけられないことが多く、視点を高精度に推定できないことが多い。具体的には、ファインダへ眼球が十分に近づけられていない状態では、ファインダの接眼窓枠等に視線が遮られて、ファインダ内で視認できる範囲が限定され、ファインダを正面から覗き込んだ際にファインダ内の画面の端部が見えないことがある。そのような場合に、ユーザーは、端部を見ようとするが故に、ファインダの正面から頭部を大きく並進移動させ、斜めからファインダを覗き込む傾向がある。斜めからファインダを覗き込む場合における頭部の並進移動の距離は、カメラを通常(メーカー推奨)の使用方法で使用する場合に比べて格段に大きいため、視点の推定結果に無視できない誤差が発生する。 As described above, in the prior art, the viewpoint (line-of-sight position) cannot be estimated with high accuracy when the pupil image and the Purkinje image in the eye image move greatly in translation. In particular, when a user wearing eyeglasses looks into the finder of the camera, the eyeball is often not sufficiently close to the finder, and the viewpoint cannot be estimated with high accuracy in many cases. Specifically, when the eyeball is not sufficiently close to the finder, the line of sight is blocked by the eyepiece window frame of the finder, etc., and the visible range in the finder is limited. You may not be able to see the edges of the screen in the finder. In such a case, the user tends to make a large translational movement of the head from the front of the finder and look into the finder from an angle because he / she tries to see the end portion. Since the translational movement distance of the head when looking into the finder from an angle is much larger than when the camera is used in the normal (manufacturer's recommended) usage method, a non-negligible error occurs in the viewpoint estimation result. ..
そこで本発明では、検出される瞳孔像とプルキニエ像とに基づいて、ユーザーがファインダを斜めから覗き込んだ斜め覗き込み状態を検知し、斜め覗き込み状態に起因する悪影響(視点検出における悪影響)を抑制する。 Therefore, in the present invention, based on the detected pupil image and Purkinje image, the user detects an oblique looking state in which the user looks into the finder from an angle, and adversely affects the adverse effect (adverse effect in viewpoint detection) caused by the oblique looking state. Suppress.
<<実施例1>>
以下、添付の図面を参照して本発明の実施例1について説明する。
<< Example 1 >>
Hereinafter, Example 1 of the present invention will be described with reference to the accompanying drawings.
<構成の説明>
図1(a),1(b)は、実施例1に係るカメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観を示す。図1(a)は正面斜視図であり、図1(b)は背面斜視図である。図1(a)に示すように、カメラ1は、撮影レンズユニット1A及びカメラ筐体1Bを有する。カメラ筐体1Bには、ユーザー(撮影者)からの撮像操作を受け付ける操作部材であるレリーズボタン5が配置されている。図1(b)に示すように、カメラ筐体1Bの背面には、カメラ筐体1B内に含まれている後述の表示デバイス10(表示パネル)をユーザーが覗き込むための接眼窓枠121と接眼レンズ12(接眼光学系)が配置されている。接眼窓枠121は接眼レンズ12を囲んでおり、接眼レンズ12に対して、カメラ筐体1Bの外側(背面側)に突出している。なお、接眼光学系には複数枚のレンズが含まれていてもよい。カメラ筐体1Bの背面には、ユーザーからの各種操作を受け付ける操作部材41〜43も配置されている。例えば、操作部材41はタッチ操作を受け付けるタッチパネルであり、操作部材42は各方向に押し倒し可能な操作レバーであり、操作部材43は4方向のそれぞれに押し込み可能な4方向キーである。操作部材41(タッチパネル)は、液晶パネル等の表示パネルを備えており、表示パネルで画像を表示する機能を有する。
<Explanation of configuration>
1 (a) and 1 (b) show the appearance of the camera 1 (digital still camera; interchangeable lens camera) according to the first embodiment. FIG. 1A is a front perspective view, and FIG. 1B is a rear perspective view. As shown in FIG. 1A, the
図2は、図1(a)に示したY軸とZ軸が成すYZ平面でカメラ1を切断した断面図であり、カメラ1の大まかな内部構成を示す。
FIG. 2 is a cross-sectional view of the
撮影レンズユニット1A内には、2枚のレンズ101,102、絞り111、絞り駆動部112、レンズ駆動モーター113、レンズ駆動部材114、フォトカプラー115、パルス板116、マウント接点117、焦点調節回路118等が含まれている。レンズ駆動部材114は駆動ギヤ等からなり、フォトカプラー115は、レンズ駆動部材114に連動するパルス板116の回転を検知して、焦点調節回路118に伝える。焦点調節回路118は、フォトカプラー115からの情報と、カメラ筐体1Bからの情報(レンズ駆動量の情報)とに基づいてレンズ駆動モーター113を駆動し、レンズ101を移動させて
合焦位置を変更する。マウント接点117は、撮影レンズユニット1Aとカメラ筐体1Bとのインターフェイスである。なお、簡単のために2枚のレンズ101,102を示したが、実際は2枚より多くのレンズが撮影レンズユニット1A内に含まれている。
In the photographing
カメラ筐体1B内には、撮像素子2、CPU3、メモリ部4、表示デバイス10、表示デバイス駆動回路11等が含まれている。撮像素子2は、撮影レンズユニット1Aの予定結像面に配置されている。CPU3は、マイクロコンピュータの中央処理部であり、カメラ1全体を制御する。メモリ部4は、撮像素子2により撮像された画像等を記憶する。表示デバイス10は、液晶等で構成されており、撮像された画像(被写体像)等を表示デバイス10の画面(表示面)に表示する。表示デバイス駆動回路11は、表示デバイス10を駆動する。
The
ユーザーは、接眼窓枠121と接眼レンズ12を通して、表示デバイス10の画面を見ることができる。具体的には、図3に示すように、接眼レンズ12により、表示デバイス10(画面)を拡大した虚像300が、接眼レンズ12から50cm〜2m程度離れた位置に結像される。図3では、接眼レンズ12から1m離れた位置に虚像300が結像されている。ユーザーは、接眼窓枠121内を覗き込むことで、この虚像300を視認することとなる。
The user can see the screen of the
カメラ筐体1B内には、光源13a,13b、光分割器15、受光レンズ16、眼用撮像素子17等も含まれている。光源13a,13bは、光の角膜反射による反射像(角膜反射像)と瞳孔の関係から視線方向を検出するために従来から一眼レフカメラ等で用いられている光源であり、ユーザーの眼球14を照明するための光源である。具体的には、光源13a,13bは、ユーザーに対して不感の赤外光を発する赤外発光ダイオード等であり、接眼レンズ12の周りに配置されている。照明された眼球14の光学像(眼球像;光源13a,13bから発せられて眼球14で反射した反射光による像)は、接眼レンズ12を透過し、光分割器15で反射される。そして、眼球像は、受光レンズ16によって、CCD等の光電素子列を2次元的に配した眼用撮像素子17上に結像される。受光レンズ16は、眼球14の瞳孔と眼用撮像素子17を共役な結像関係に位置付けている。後述する所定のアルゴリズムにより、眼用撮像素子17上に結像された眼球像における角膜反射像の位置から、眼球14の視線方向(表示デバイス10の画面における視点)が検出される。
The
図4は、カメラ1内の電気的構成を示すブロック図である。CPU3には、視線検出回路201、測光回路202、自動焦点検出回路203、信号入力回路204、表示デバイス駆動回路11、光源駆動回路205等が接続されている。また、CPU3は、撮影レンズユニット1A内に配置された焦点調節回路118と、撮影レンズユニット1A内の絞り駆動部112に含まれた絞り制御回路206とに、マウント接点117を介して信号を伝達する。CPU3に付随したメモリ部4は、撮像素子2および眼用撮像素子17からの撮像信号の記憶機能と、後述する視線の個人差を補正する視線補正パラメータの記憶機能とを有する。
FIG. 4 is a block diagram showing an electrical configuration in the
視線検出回路201は、眼用撮像素子17(CCD−EYE)上に眼球像が結像した状態での眼用撮像素子17の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU3に送信する。CPU3は、後述する所定のアルゴリズムに従って眼画像から視線検出に必要な特徴点を抽出し、特徴点の位置からユーザーの視線(表示デバイス10の画面における視点)を算出する。
The line-of-sight detection circuit 201 A / D-converts the output (eye image of the eye) of the
測光回路202は、測光センサの役割を兼ねた撮像素子2から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅、対数圧縮、A/D変換等を行い、その結果
を被写界輝度情報としてCPU3に送る。
The
自動焦点検出回路203は、撮像素子2におけるCCDの中に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU3に送る。CPU3は、複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。実施例1では、一例として、図5(a)のファインダ内視野像(表示デバイス10の画面)に示した180か所に対応する撮像面上の180か所のそれぞれに、焦点検出ポイントがあるとする。
The autofocus detection circuit 203 A / D-converts signal voltages from a plurality of detection elements (a plurality of pixels) used for phase difference detection included in the CCD in the
信号入力回路204には、レリーズボタン5の第1ストロークでONし、カメラ1の測光、測距、視線検出動作等を開始するためのスイッチSW1と、レリーズボタン5の第2ストロークでONし、撮影動作を開始するためのスイッチSW2が接続されている。スイッチSW1,SW2からのON信号が信号入力回路204に入力され、CPU3に送信される。
The
図5(a)は、ファインダ内視野を示した図であり、表示デバイス10が動作した状態(画像を表示した状態)を示す。図5(a)に示すように、ファインダ内視野には、焦点検出領域500、180個の測距点指標501、視野マスク502等がある。180個の測距点指標501のそれぞれは、撮像面上における焦点検出ポイントに対応する位置に表示されるように、表示デバイス10に表示されたスルー画像(ライブビュー画像)に重ねて表示される。また、180個の測距点指標501のうち、現在の視点A(推定位置)に対応する測距点指標501は、枠等で強調されて表示される。
FIG. 5A is a view showing the field of view in the finder, and shows a state in which the
<視線検出動作の説明>
図6,7(a),7(b),8を用いて、視線検出方法について説明する。図6は、視線検出方法の原理を説明するための図であり、視線検出を行うための光学系の概略図である。図6に示すように、光源13a,13bは受光レンズ16の光軸に対して略対称に配置され、ユーザーの眼球14を照らす。光源13a,13bから発せられて眼球14で反射した光の一部は、受光レンズ16によって、眼用撮像素子17に集光する。図7(a)は、眼用撮像素子17で撮像された眼画像(眼用撮像素子17に投影された眼球像)の概略図であり、図7(b)は眼用撮像素子17におけるCCDの出力強度を示す図である。図8は、視線検出動作の概略フローチャートを表す。
<Explanation of line-of-sight detection operation>
The line-of-sight detection method will be described with reference to FIGS. 6, 7 (a), 7 (b), and 8. FIG. 6 is a diagram for explaining the principle of the line-of-sight detection method, and is a schematic view of an optical system for performing line-of-sight detection. As shown in FIG. 6, the
視線検出動作が開始すると、図8のステップS801で、光源13a,13bは、ユーザーの眼球14に向けて赤外光を発する。赤外光によって照明されたユーザーの眼球像は、受光レンズ16を通して眼用撮像素子17上に結像され、眼用撮像素子17により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。
When the line-of-sight detection operation starts, the
ステップS802では、視線検出回路201は、眼用撮像素子17から得られた眼画像(眼画像信号;眼画像の電気信号)をCPU3に送る。
In step S802, the line-of-
ステップS803では、CPU3は、ステップS802で得られた眼画像から、光源13a,13bの角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を求める。
In step S803, the
光源13a,13bより発せられた赤外光は、ユーザーの眼球14の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、受光レンズ16により集光され、眼用撮像素子17上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光束も眼用撮像素子17上に結像して、眼画像における瞳孔端像a’,b’となる。
The infrared light emitted from the
図7(b)は、図7(a)の眼画像における領域α’の輝度情報(輝度分布)を示す。図7(b)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。実施例1では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。図7(b)に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光束が眼用撮像素子17上に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の光彩143の領域(光彩143からの光束が結像して得られる、瞳孔像の外側の光彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)が座標Xaより小さい領域と、X座標が座標Xbより大きい領域とで、上記2種の輝度の中間の輝度が得られる。
FIG. 7B shows the luminance information (luminance distribution) of the region α'in the eye image of FIG. 7A. In FIG. 7B, the horizontal direction of the eye image is the X-axis direction, the vertical direction is the Y-axis direction, and the luminance distribution in the X-axis direction is shown. In the first embodiment, the coordinates of the corneal reflection images Pd'and Pe'in the X-axis direction (horizontal direction) are Xd and Xe, and the coordinates of the pupil end images a'and b'in the X-axis direction are Xa and Xb. As shown in FIG. 7B, at the coordinates Xd and Xe of the corneal reflection images Pd'and Pe', an extremely high level of brightness can be obtained. In the region from the coordinates Xa to the coordinates Xb, which corresponds to the region of the pupil 141 (the region of the pupil image obtained by forming the luminous flux from the
図7(b)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が眼用撮像素子17上に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’の座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。
From the luminance distribution as shown in FIG. 7B, the X-coordinates Xd and Xe of the corneal reflection images Pd'and Pe'and the X-coordinates Xa and Xb of the pupil end images a'and b'can be obtained. Specifically, the coordinates with extremely high brightness can be obtained as the coordinates of the corneal reflection images Pd'and Pe', and the coordinates with extremely low brightness can be obtained as the coordinates of the pupil end images a'and b'. .. Further, when the rotation angle θx of the optical axis of the
ステップS804では、CPU3は、眼球像の結像倍率βを算出する。結像倍率βは、受光レンズ16に対する眼球14の位置により決まる倍率で、角膜反射像Pd’,Pe’の間隔(Xd−Xe)の関数を用いて求めることができる。
In step S804, the
ステップS805では、CPU3は、受光レンズ16の光軸に対する眼球14の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、Z−X平面(Y軸に垂直な平面)内での眼球14の回転角θxは、以下の式1で算出できる。Z−Y平面(X軸に垂直な平面)内での眼球14の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。
β×Oc×SINθx≒{(Xd+Xe)/2}−Xc ・・・(式1)
In step S805, the
β × Oc × SINθx≈{(Xd + Xe) / 2} -Xc ・ ・ ・ (Equation 1)
ステップS806では、CPU3は、ステップS805で算出した回転角θx,θyを用いて、表示デバイス10の画面におけるユーザーの視点(視線が注がれた位置;ユーザーが見ている位置)を求める(推定する)。視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視点の座標(Hx,Hy)は以下の式2,3で算出できる。
Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
In step S806, the
Hx = m × (Ax × θx + Bx) ・ ・ ・ (Equation 2)
Hy = m × (Ay × θy + By) ・ ・ ・ (Equation 3)
式2,3のパラメータmは、カメラ1のファインダ光学系(受光レンズ16等)の構成で定まる定数であり、回転角θx,θyを表示デバイス10の画面において瞳孔中心cに対応する座標に変換する変換係数である。パラメータmは、予め決定されてメモリ部4に
格納されるとする。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、後述するキャリブレーション作業を行うことで取得される。パラメータAx,Bx,Ay,Byは、視線検出動作が開始する前にメモリ部4に格納されるとする。
The parameters m of the
ステップS807では、CPU3は、視点の座標(Hx,Hy)をメモリ部4に格納し、視線検出動作を終える。
In step S807, the
<キャリブレーション作業の説明>
前述のように、視線検出動作において眼画像から眼球14の回転角度θx,θyを取得し、瞳孔中心cの位置を表示デバイス10の画面上での位置に座標変換することで、視点を推定できる。
<Explanation of calibration work>
As described above, the viewpoint can be estimated by acquiring the rotation angles θx and θy of the
しかし、人間の眼球の形状の個人差等の要因により、視点を高精度に推定できないことがある。具体的には、視線補正パラメータAx,Ay,Bx,Byをユーザーに適した値に調整しなければ、図5(b)に示したように、実際の視点Bと推定された視点Cとのずれが生じてしまう。図5(b)では、ユーザーは人物を注視しているが、カメラ1は背景が注視されていると誤って推定しており、適切な焦点検出及び調整ができない状態に陥ってしまっている。
However, it may not be possible to estimate the viewpoint with high accuracy due to factors such as individual differences in the shape of the human eyeball. Specifically, unless the line-of-sight correction parameters Ax, Ay, Bx, and By are adjusted to values suitable for the user, as shown in FIG. 5 (b), the actual viewpoint B and the estimated viewpoint C There will be a gap. In FIG. 5B, the user is gazing at a person, but the
そこで、カメラ1が撮像を行う前に、キャリブレーション作業を行い、ユーザーに適した視点補正パラメータを取得し、カメラ1に格納する必要がある。
Therefore, before the
従来より、キャリブレーション作業は、撮像前に図5(c)のような位置の異なる複数の指標を表示デバイス10の画面に強調表示し、ユーザーにその指標を見てもらうことで行われている。そして、各指標の注視時に視線検出動作を行い、算出された複数の視点(推定位置)と、各指標の座標とから、ユーザーに適した視点補正パラメータを求める技術が、公知の技術として知られている。なお、ユーザーの見るべき位置が示唆されれば、指標の表示方法は特に限定されず、指標であるグラフィックが表示されてもよいし、画像(撮像された画像など)の輝度や色の変更で指標が表示されてもよい。
Conventionally, the calibration work is performed by highlighting a plurality of indexes having different positions as shown in FIG. 5C on the screen of the
<頭部を大きく並進移動させてファインダを覗き込む視認状態の説明>
カメラのファインダを覗き込む場合等においては、ユーザーは、眼鏡を着用している等の事情から、ファインダへ眼球を十分に近づけずにカメラを使用することがある。ファインダへ眼球が十分に近づけられていない状態においては、後述するように接眼窓枠等に視線が遮られて、ファインダ内で視認できる範囲が限定され、ファインダを正面から覗き込んだ際にファインダ内の画面の端部が見えないことがある。そのような場合に、ユーザーは、端部を見ようとするが故に、ファインダの正面から頭部を大きく並進移動させ、斜めからファインダを覗き込む傾向がある。斜めからファインダを覗き込む場合における頭部の並進移動の距離は、カメラを通常(メーカー推奨)の使用方法で使用する場合に比べて格段に大きいため、視点の推定結果に無視できない誤差が発生する。
<Explanation of the visual state in which the head is greatly translated and looked into the finder>
When looking into the finder of the camera, the user may use the camera without bringing the eyeballs sufficiently close to the finder due to circumstances such as wearing glasses. When the eyeball is not sufficiently close to the finder, the line of sight is blocked by the eyepiece window frame, etc., as described later, and the visible range in the finder is limited. The edge of the screen may not be visible. In such a case, the user tends to make a large translational movement of the head from the front of the finder and look into the finder from an angle because he / she tries to see the end portion. Since the translational movement distance of the head when looking into the finder from an angle is much larger than when the camera is used in the normal (manufacturer's recommended) usage method, a non-negligible error occurs in the viewpoint estimation result. ..
図9(a),9(b),10(a),10(b)を用いて上記覗き込みの状態を説明する。図9(a),9(b),10(a),10(b)は、表示デバイス10(画面)の虚像300をユーザーが接眼窓枠121と接眼レンズ12を通して視認している状態を、Y軸正方向から見た上面模式図である。簡略化のため、図9(a),9(b),10(a),10(b)では接眼レンズ12を省略している。図3を用いて説明したように、図9(a),9(b),10(a),10(b)の状態でも、ユーザーは、不図示の接眼レンズ12によって表示デバイス10を実際のサイズから拡大した虚像300を視認している。通常、接眼レンズ12から数十cm〜2m程度離れた位置にの距離に虚像300が結像さ
れるように、調整がされている。図9(a),9(b),10(a),10(b)では、接眼レンズ12(不図示)から1m離れた位置に虚像300が結像されている。
The state of the peep will be described with reference to FIGS. 9 (a), 9 (b), 10 (a), and 10 (b). 9 (a), 9 (b), 10 (a), and 10 (b) show a state in which the user visually recognizes the
図9(a)では、虚像300(表示デバイス10の画面)の中心に対向する位置、接眼レンズ12の光軸が通る位置に眼球14の中心O’が位置する状態でユーザーが虚像300のほぼ中央を注視している。眼球14の視野範囲(接眼窓枠121を通して視認できる範囲)は接眼窓枠121の幅等によって決まり、図9(a)においては、眼球14の瞳孔141と接眼窓枠121の端とを通る直線OAと直線OA’で挟まれた範囲αが、視野範囲となっている。図9(a)においては、視野範囲α内に虚像300の全体が含まれているため、ユーザーは、表示デバイス10の画面の全体(片側の端から反対側の端まで)を視認できる。
In FIG. 9A, the user is approximately the
しかしながら、図9(b)では、ユーザーの着用した眼鏡が眼球14と接眼窓枠121の間に挟まれる等の事情から、眼球14と接眼窓枠121の間の距離が、図9(a)に比べ距離ΔL大きい。このため、図9(b)においては、瞳孔141と接眼窓枠121の端を通る直線OBと直線OB’で挟まれた視野範囲β1は、図9(a)の視野範囲αより狭い。その結果、視野範囲β1内に虚像300の一部しか含まれず、ユーザーは、虚像300のうち、視野範囲β1内に含まれない範囲γ1,γ2(虚像300の端部)を、視認できていない。
However, in FIG. 9B, the distance between the
なお、実施例1では視野範囲が制限される要因として接眼窓枠121を示したが、これに限られるものではなく、例えば、接眼レンズ12に光線を制限するマスクが取り付けられており、これによって視野範囲が制限されてもよい。どのような構造(要因)で視野範囲が制限されてもよい。
In the first embodiment, the
図9(b)のような状況に陥ったユーザーがよくとる行動について、図10(a),10(b)を用いて以下に説明する。 The actions often taken by the user who has fallen into the situation shown in FIG. 9 (b) will be described below with reference to FIGS. 10 (a) and 10 (b).
図9(b)の状態で見えていない範囲γ1を見たい場合に、ユーザーは、図10(a)に示すように、頭部ごと眼球14をX軸正方向(紙面下方向)に大きく並進移動させる傾向がある。このような並進移動により、眼球14の中心O’が接眼レンズ12の光軸と垂直な方向にずれ、視野範囲が、範囲β1から、ずれた後の眼球14の瞳孔141と接眼窓枠121の端とを通る直線OCと直線OC’で挟まれた範囲β2に変化する。具体的には、視野範囲がX軸負方向(紙面上方向)に寄り、並進移動前には見えていなかった範囲γ1を含む範囲β2が視野範囲となる。これにより、ユーザーは、範囲γ1を見ることができる。但し、紙面下方向で見えていない範囲が、範囲γ2から範囲γ2’に広がる。
When the user wants to see the range γ1 that is not visible in the state of FIG. 9B, the user translates the
同様に、図9(b)の状態で見えていない範囲γ2を見たい場合には、ユーザーは、図10(b)に示すように、頭部ごと眼球14をX軸負方向(紙面上方向)に大きく並進移動させる傾向がある。このような並進移動により、眼球14の中心O’が接眼レンズ12の光軸と垂直な方向にずれ、視野範囲が、範囲β1から、ずれた後の眼球14の瞳孔141と接眼窓枠121の端とを通る直線ODと直線OD’で挟まれた範囲β3に変化する。具体的には、視野範囲がX軸正方向(紙面下方向)に寄り、並進移動前には見えていなかった範囲γ2を含む範囲β3が視野範囲となる。これにより、ユーザーは、範囲γ2を見ることができる。但し、紙面上方向で見えていない範囲が、範囲γ1から範囲γ1’に広がる。
Similarly, when the user wants to see the range γ2 that is not visible in the state of FIG. 9 (b), the user views the
図10(a),10(b)を用いて説明したような眼球14の並進移動が発生する前後の眼画像(眼球像)を、図11(a)〜図11(c)に模式的に示す。
The eye images (eyeball images) before and after the translational movement of the
図11(a)は、図9(b)の状態に対応し、虚像300(表示デバイス10の画面)の中心に対向する位置、接眼レンズ12の光軸が通る位置を眼球14の中心O’としてユーザーが虚像300のほぼ中央を注視している状態での眼画像を示す。図11(a)では、瞳孔像の中心、及び、2つのプルキニエ像(P像;角膜反射像)の中心は、眼画像の中心とほぼ一致する。実施例1では、眼画像の中心が表示デバイス10の画面の中心に、具体的には接眼レンズ12の光軸に対応するとするが、そうでなくてもよい。
FIG. 11A corresponds to the state of FIG. 9B, and the position facing the center of the virtual image 300 (the screen of the display device 10) and the position where the optical axis of the
図11(b)は、図10(a)の状態に対応し、眼球14をX軸正方向に大きく並進移動させた上で接眼窓枠121内を覗き込んでいる状態での眼画像を示す。
FIG. 11B shows an eye image in a state in which the
図10(a)では、X軸負方向の端部を見るために、眼球14の中心O’が図9(b)の位置からX軸正方向(見たい方向と逆の方向)に移動量ΔBで並進移動させた位置となっている。また、眼球14は、X軸負方向(見たい方向と同じ方向)に回転しており、瞳孔中心cは、眼球中心O’からX軸負方向に移動量ΔWで移動させた位置となっている。眼球14の回転角度を角度θtとし、眼球14の回転半径を半径Rとすると、瞳孔141の移動量ΔWは、ΔW=R×sinθtと表すことができる。
In FIG. 10A, the amount of movement of the center O'of the
そして、図10(a)を用いて説明したような眼球14の移動により、眼画像上において、通常の視認状態(メーカー推奨の視認状態;例えば、正面からファインダを覗き込んだ視認状態)に比べて格段に大きい移動量で、瞳孔像とプルキニエ像が並進移動する。具体的には、X軸負方向に眼球14が回転して瞳孔141が移動量ΔWで移動することにより、瞳孔像がX軸負方向に移動量ΔW×βで移動する(「β」は眼球像の結像倍率(接眼レンズ12のレンズ倍率)である)。そして、眼球14がX軸正方向に移動量ΔBで並進移動することにより、瞳孔像がX軸正方向に移動量ΔB×βで並進移動する。ここで、眼球14の並進移動に対応する移動量ΔB×βは、眼球14の回転に対応する移動量ΔW×βを大幅に上回る。このため、図11(b)に示すように、瞳孔像は、眼画像の中心(表示デバイス10の画面の中心に対応する位置)に対して、X軸負方向(見たい方向と同じ方向;紙面左方向)とは逆のX軸正方向(紙面右方向)に大きく移動した場所に位置することとなる。同様に、プルキニエ像にも大きな並進移動が生じる。
Then, due to the movement of the
図11(c)は、図10(b)の状態に対応し、眼球14をX軸負方向に大きく並進移動させた上で接眼窓枠121内を覗き込んでいる状態での眼画像を示す。
FIG. 11 (c) shows an eye image in a state in which the
図10(b)では、X軸正方向の端部を見るために、眼球14の中心O’が図9(b)の位置からX軸負方向(見たい方向と逆の方向)に移動量ΔBで並進移動させた位置となっている。また、眼球14は、X軸正方向(見たい方向と同じ方向)に回転しており、瞳孔中心cは、眼球中心O’からX軸正方向に移動量ΔWで移動させた位置となっている。上述したように、眼球14の回転角度を角度θtとし、眼球14の回転半径を半径Rとすると、瞳孔141の移動量ΔWは、ΔW=R×sinθtと表すことができる。
In FIG. 10 (b), the amount of movement of the center O'of the
そして、図10(b)を用いて説明したような眼球14の移動によっても、眼画像上において、通常の視認状態に比べて格段に大きい移動量で、瞳孔像とプルキニエ像が並進移動する。具体的には、X軸正方向に眼球14が回転して瞳孔141が移動量ΔWで移動することにより、瞳孔像がX軸正方向に移動量ΔW×βで移動する。そして、眼球14がX軸負方向に移動量ΔBで並進移動することにより、瞳孔像がX軸負方向に移動量ΔB×βで並進移動する。ここでも、眼球14の並進移動に対応する移動量ΔB×βは、眼球14の回転に対応する移動量ΔW×βを大幅に上回る。このため、図11(c)に示すように、瞳孔像は、眼画像の中心(表示デバイス10の画面の中心に対応する位置)に対して、X軸正方向(見たい方向と同じ方向;紙面右方向)とは逆のX軸負方向(紙面左方向)に大きく移動した場所に位置することとなる。同様に、プルキニエ像にも大きな並進移動が
生じる。
Then, even with the movement of the
このように、斜めからファインダを覗き込んだ視認状態では、眼画像における瞳孔像とプルキニエ像が、通常の視認状態で想定されていない場所に位置してしまう。その結果、図8の視線検出動作による視点の推定結果に無視できない誤差が発生してしまう。 In this way, in the visual state in which the finder is viewed from an angle, the pupil image and the Purkinje image in the eye image are located at places that are not expected in the normal visual state. As a result, a non-negligible error occurs in the estimation result of the viewpoint by the line-of-sight detection operation of FIG.
そこで、実施例1では、斜め覗き込み状態(斜めからファインダを覗き込んだ斜め視認状態;視点を高精度に推定できない視認状態;眼画像において眼球14が表示デバイス10の画面の中心に対応する位置からずれたずれ視認状態)を検知する。そして、斜め覗き込み状態が検知された場合に、斜めからファインダを覗き込まずに、正面からファインダを覗き込むことをユーザーに促すための所定の処理を行う。
Therefore, in the first embodiment, an oblique looking state (an oblique viewing state in which the finder is viewed from an angle; a viewing state in which the viewpoint cannot be estimated with high accuracy; a position in which the
<斜め覗き込み検知方法の説明>
表示デバイス10の画面(虚像)の端部がユーザーの視野に収まらず、当該端部を見ようとする斜め覗き込み状態における第1の特徴として、眼画像の中心から眼画像における瞳孔像までの距離が通常の視認状態に比べて格段に大きいという特徴が挙げられる。そこで、実施例1では、眼画像の中心(表示デバイス10の画面の中心に対応する位置)と、眼画像における瞳孔像の位置との差が所定の閾値よりも大きいという第1条件が満たされたか否かを判断する。そして、第1条件が満たされた状態を、斜め覗き込み状態として検知する。
<Explanation of diagonal peeping detection method>
The distance from the center of the eye image to the pupil image in the eye image is the first feature in the oblique looking state in which the end of the screen (virtual image) of the
上記所定の閾値は、例えば、通常の視認状態で眼画像に生じ得る瞳孔像の移動量から決定される。通常の視認状態では、表示デバイス10の画面の端部を見る際に、頭部はほぼ移動せずに眼球だけが回転する。そのため、眼球14の最大回転角度θmax、眼球14の回転半径R(図6の眼球中心O’から瞳孔中心cまでの長さ)、及び、眼球像の結像倍率βから、眼画像における瞳孔像の最大移動量β×R×sinθmaxを算出できる。例えば、この最大移動量β×R×sinθmaxを、上記所定の閾値として用いることができる。
The predetermined threshold value is determined, for example, from the amount of movement of the pupil image that can occur in the eye image in a normal visual state. In a normal visual state, when looking at the edge of the screen of the
なお、第1条件では、眼画像における瞳孔像ではなく、眼画像におけるプルキニエ像に着目してもよい。つまり、眼画像の中心と、眼画像におけるプルキニエ像の位置との差が所定の閾値よりも大きいという第1条件が満たされたか否かを判断し、当該第1条件が満たされた状態を、斜め覗き込み状態として検知してもよい。瞳孔像とプルキニエ像の一方に着目してもよいし、両方に着目してもよい。瞳孔像に関する第1条件と、プルキニエ像に関する第1条件との一方が満たされた状態を、斜め覗き込み状態として検知してもよいし、それらの両方が満たされた状態を、斜め覗き込み状態として検知してもよい。 In the first condition, attention may be paid to the Purkinje image in the eye image instead of the pupil image in the eye image. That is, it is determined whether or not the first condition that the difference between the center of the eye image and the position of the Purkinje image in the eye image is larger than a predetermined threshold value is satisfied, and the state in which the first condition is satisfied is determined. It may be detected as an oblique looking state. One of the pupil image and the Purkinje image may be focused on, or both may be focused on. A state in which one of the first condition regarding the pupil image and the first condition regarding the Purkinje image is satisfied may be detected as an oblique looking state, and a state in which both of them are satisfied may be detected as an oblique looking state. May be detected as.
<カメラ動作の説明>
実施例1に係るカメラ動作について、図12のフローチャートに従って説明する。
<Explanation of camera operation>
The camera operation according to the first embodiment will be described with reference to the flowchart of FIG.
カメラ1の電源がONされると、ステップS1201で、撮像素子2は、スルー画像(視認用画像)の取得を開始し、スルー画像の画像信号をCPU3に送信し、CPU3は、取得したスルー画像を表示デバイス10に表示する。ユーザーは、表示デバイス10に表示されたスルー画像を接眼窓枠121と接眼レンズ12を通してを見ることで、被写体の確認を行う。カメラ1の電源は、カメラ1に対するユーザー操作に応じてON/OFFされる。
When the power of the
ステップS1202では、CPU3は、カメラ1の電源をOFFするか否かを判断し、OFFする場合は図12の処理フローを終了し、OFFしない場合はステップS1203に処理を進める。
In step S1202, the
ステップS1203では、CPU3は、ステップS1201でスルー画像を視認し始めたユーザーの眼画像の取得を開始し、図8の視線検出動作を行う。視線検出動作により、眼画像における瞳孔像の座標、眼画像におけるプルキニエ像の座標、及び、スルー画像における視点の座標が算出される。
In step S1203, the
ステップS1204では、CPU3は、第1条件が満たされいるか否か、具体的にはステップS1203の視線検出動作で検出された瞳孔像の位置が所定の範囲内にあるか否かを判断する。所定の範囲は、眼画像の一部の範囲であり、眼画像の中心から上述した所定の閾値(所定の距離)離れた位置までの範囲である。CPU3は、所定の範囲外の場合にステップS1205へ処理を進め、所定の範囲内の場合にステップS1207へ処理を進める。
In step S1204, the
ステップS1205では、CPU3は、現在の状態が斜め覗き込み状態であると判断する。ステップS1206では、CPU3は、ステップS1203の視線検出動作による視点の推定結果に無視できない誤差が含まれているため、その解消(視認状態の改善)のための処理を行う(視認状態改善処理)。その後、ステップS1202に処理が戻され、視線検出動作が再度行われる。
In step S1205, the
実施例1では、CPU3は、視認状態改善処理により、視認状態に関する警告等の所定の通知をユーザーに対して行う。例えば、接眼窓枠121の正面の位置からユーザーの頭部の位置に向かう方向は、眼画像の中心から瞳孔像に向かう方向と同じであると推定できるため、CPU3は、ユーザーに対して、これらの方向と反対の方向に頭部を移動させるような方向情報を通知する。
In the first embodiment, the
なお、視認状態改善処理は所定の通知に限られない。例えば、視認状態を改善すること(正面から接眼窓枠121内を覗き込むこと)をユーザーに促すことができれば、視認状態改善処理はどのような処理であってもよい。具体的には、視認状態改善処理はスルー画像(視認用画像)の縮小であってもよい。スルー画像の縮小によってスルー画像の端部を表示デバイス10の画面中心に近づければ、斜めから接眼窓枠121内を覗き込まなくてもスルー画像の全体を視認できるようになり、斜め覗き込み状態を解消できる。
The visual state improvement process is not limited to the predetermined notification. For example, the visual state improving process may be any process as long as the user can be prompted to improve the visual state (looking into the
ステップS1207の処理は、斜め覗き込み状態でない好適な視認状態でS1203の視線検出動作が行われた後に行われるため、ステップS1207の処理の時点で視点の正確な推定結果が得られている。このため、ステップS1207では、CPU3は、ステップS1203で得られた正確な推定結果(視点を示す枠;視点枠)をスルー画像に重ねて表示する。これにより、図5(a)のような表示が行われ、現在の視点A(推定位置)をユーザーに伝えることができる。視点枠の代わりに、視点を示す点等が表示されてもよい。
Since the process of step S1207 is performed after the line-of-sight detection operation of S1203 is performed in a suitable visual state other than the oblique looking state, an accurate estimation result of the viewpoint is obtained at the time of the process of step S1207. Therefore, in step S1207, the
ステップS1208では、CPU3は所定時間の待機を行う。
In step S1208, the
ステップS1209では、CPU3は、ユーザーによってレリーズボタン5が押されて(半押しされて)スイッチSW1がONとなったか否かを判断する。例えば、ユーザーは、スルー画像に重ねて表示された視点枠(推定された視点を示す枠)の位置での合焦に同意した場合に、レリーズボタン5の半押しを行い、スイッチSW1をONにする。CPU3は、スイッチSW1がONとなった場合にステップS1210に処理を進め、スイッチSW1がONとならなかった場合にステップS1203に処理を戻して視点の再推定を行う。
In step S1209, the
ステップS1210では、CPU3は、現在の視線枠の位置での測距動作を行い、測距動作が行われたことを、視線枠の色を変える等の強調表示でユーザーに知らせる。
In step S1210, the
ステップS1211では、CPU3は、ステップS1210で得られた測距結果に応じて、撮影レンズユニット1A内のレンズ101を駆動する。これにより、スルー画像に重ねて表示された視点枠の位置での合焦が実現される。
In step S1211, the
ステップS1212では、CPU3は、ユーザーによってレリーズボタン5がさらに押し込まれて(全押しされて)スイッチSW2がONとなったか否かを判断する。例えば、ユーザーは、現在の合焦位置での撮影に同意した場合に、レリーズボタン5の全押しを行い、スイッチSW2をONにする。CPU3は、スイッチSW2がONとなった場合にステップS1213に処理を進め、スイッチSW2がONとならなかった場合にステップS1209に処理を戻す。
In step S1212, the
ステップS1213では、CPU3は、撮影動作を行うことで、撮像素子2によって取得された画像信号を、メモリ部4に格納する。
In step S1213, the
ステップS1214では、CPU3は、ステップS1213でメモリ部4に格納された画像(撮影された画像)を表示デバイス10に所定時間表示し、ステップS1202に処理を戻す。
In step S1214, the
<まとめ>
以上述べたように、実施例1によれば、眼画像の中心と、眼画像における瞳孔像(またはプルキニエ像)の位置との差が所定の閾値よりも大きいという第1条件が満たされたか否かを判断するという簡易な構成で、斜め覗き込み状態を検知できる。そして、斜め覗き込み状態が検知された場合に、ユーザーに視認状態の改善を促し、視点の正確な(高精度な)推定結果を得ることができる。
<Summary>
As described above, according to the first embodiment, whether or not the first condition that the difference between the center of the eye image and the position of the pupil image (or Purkinje image) in the eye image is larger than a predetermined threshold value is satisfied. It is possible to detect an oblique looking state with a simple configuration of determining whether or not. Then, when the oblique peeping state is detected, the user can be urged to improve the visual state, and an accurate (highly accurate) estimation result of the viewpoint can be obtained.
<<実施例2>>
以下、本発明の実施例2について説明する。なお、以下では、実施例1と同じ点(構成や処理など)についての説明は省略し、実施例1と異なる点について説明する。実施例1では、スルー画像の表示中に斜め覗き込み状態を検知する例を説明した。実施例2では、キャリブレーション作業中に斜め覗き込み状態を検知する例を説明する。また、実施例2では、斜め覗き込み状態の検知結果に基づいてファインダ内の画像表示範囲(画像を表示する範囲)を決定する例を説明する。具体的には、斜め覗き込み状態の検知結果に基づいて、斜めからファインダを覗き込まずに、正面からファインダを覗き込むことをユーザーに促すように表示デバイス10の画像表示範囲を決定する例を説明する。
<< Example 2 >>
Hereinafter, Example 2 of the present invention will be described. In the following, the description of the same points (configuration, processing, etc.) as in the first embodiment will be omitted, and the points different from the first embodiment will be described. In the first embodiment, an example of detecting an oblique looking state while displaying a through image has been described. In the second embodiment, an example of detecting an oblique looking state during the calibration operation will be described. Further, in the second embodiment, an example of determining the image display range (range in which the image is displayed) in the finder based on the detection result of the oblique looking state will be described. Specifically, based on the detection result of the oblique looking state, an example of determining the image display range of the
既に述べた通り、キャリブレーション作業は、撮像前に位置の異なる複数の指標を表示デバイス10の画面に強調表示し、ユーザーにその指標を見てもらうことで行われる。例えば、図13(a)に示すように、表示デバイス10の画面の中心、中心よりも上側、中心よりも下側、中心よりも左側、及び、中心よりも右側の5か所に指標が表示される。実施例2では指標が1つずつ表示されるとするが、5つの指標の全てを表示し、5つの指標の間で強調された指標を順次切り替えてもよい。ユーザーは表示された指標(強調された指標)を見ることになる。つまり、キャリブレーション作業では、ユーザーの見るべき位置が指標で指定される。
As described above, the calibration work is performed by highlighting a plurality of indexes having different positions on the screen of the
キャリブレーション作業では、眼球14が接眼窓枠121に十分に近づけられておらず、表示デバイス10の画面の一部がユーザーの視野に収まっていない状態において、ユーザーは、当該画面の端部に位置する指標を視認できないことがある。例えば、図13(a
)の視野範囲β1(正面からの接眼窓枠121の覗き込みに対応する視野範囲)の場合は、ユーザーは、画面の中心、上側、及び、下側の3か所の指標を見ることはできるが、左側と右側の2か所の指標を見ることはできない。
In the calibration work, when the
In the case of the visual field range β1 (the visual field range corresponding to the viewing of the
この場合に、ユーザーは、視野範囲β1外の指標を見るために、斜め覗き込み状態をとることになる。図13(a)で示された左側の指標(第1指標)を見る斜め覗き込み状態では、図11(c)に示すような眼画像が得られ、図13(a)で示された右側の指標(第2指標)を見る斜め覗き込み状態では、図11(b)に示すような眼画像が得られる。 In this case, the user takes an oblique peeping state in order to see the index outside the visual field range β1. In the oblique looking state of looking at the left index (first index) shown in FIG. 13 (a), an eye image as shown in FIG. 11 (c) is obtained, and the right side shown in FIG. 13 (a) is obtained. In the oblique looking state of looking at the index (second index) of No. 11 (b), an eye image as shown in FIG. 11 (b) can be obtained.
図11(c)の眼画像について説明する。ユーザーは、表示デバイス10の画面の左端(X軸正方向の端部)にある第1指標を見るために、図10(b)のように頭部をX軸負方向(見たい方向と逆の方向;右方向)に並進移動させたうえで接眼窓枠121内を覗き込む。そのため、図11(c)の眼画像では、瞳孔像とプルキニエ像が第1指標の側(X軸正方向の側)とは反対の側(X軸負方向の側)に位置している。
The eye image of FIG. 11C will be described. In order to see the first index at the left end (the end in the positive direction of the X-axis) of the screen of the
図11(b)の眼画像について説明する。ユーザーは、表示デバイス10の画面の右端(X軸負方向の端部)にある第2指標を見るために、図10(a)のように頭部をX軸正方向(見たい方向と逆の方向;左方向)に並進移動させたうえで接眼窓枠121内を覗き込む。そのため、図11(b)の眼画像では、瞳孔像とプルキニエ像が第2指標の側(X軸負方向の側)とは反対の側(X軸正方向の側)に位置している。
The eye image of FIG. 11B will be described. In order to see the second index at the right end (the end in the negative direction of the X-axis) of the screen of the
このように、斜め覗き込み状態の眼画像では、ユーザーの見るべき指標の側の逆側に瞳孔像とプルキニエ像が位置することになる。 In this way, in the eye image in the oblique looking state, the pupil image and the Purkinje image are located on the opposite side of the index to be viewed by the user.
<斜め覗き込み検知方法の説明>
斜め覗き込み状態の第2の特徴として、上述したように、眼画像において、ユーザーの見るべき指標の側の逆側に瞳孔像が位置するという特徴が挙げられる。そこで、実施例2では、眼画像の中心から眼画像における瞳孔像に向かう方向が、眼画像の中心から眼画像における指標対応位置(見るべき指標に対応する位置)に向かう方向に対して反対であるという第2条件を用いる。第2条件が満たされたか否かを判断するという簡易な構成でも、斜め覗き込み状態を検知できる。具体的には、第2条件が満たされた状態を、斜め覗き込み状態として検知できる。実施例2では、実施例1で述べた第1条件と、上述した第2条件との両方が満たされたか否かを判断し、第1条件と第2条件の両方が満たされた状態を、斜め覗き込み状態として検知する。第1条件と第2条件の両方を用いることにより、実施例1よりも高精度に斜め覗き込み状態を検知できる。第1条件と第2条件の一方のみを用いてもよい。
<Explanation of diagonal peeping detection method>
As described above, the second feature of the oblique looking state is that the pupil image is located on the opposite side of the index to be seen by the user in the eye image. Therefore, in the second embodiment, the direction from the center of the eye image toward the pupil image in the eye image is opposite to the direction from the center of the eye image toward the index corresponding position (position corresponding to the index to be viewed) in the eye image. The second condition that there is is used. Even with a simple configuration of determining whether or not the second condition is satisfied, the oblique looking state can be detected. Specifically, a state in which the second condition is satisfied can be detected as an oblique looking state. In the second embodiment, it is determined whether or not both the first condition described in the first embodiment and the second condition described above are satisfied, and a state in which both the first condition and the second condition are satisfied is determined. Detected as an oblique looking state. By using both the first condition and the second condition, it is possible to detect the oblique looking state with higher accuracy than in the first embodiment. Only one of the first condition and the second condition may be used.
なお、キャリブレーション作業では、上述したように、ユーザーの見るべき位置が指標で指定される。このため、第2条件は、キャリブレーション作業中の斜め覗き込み状態を検知するための好ましい条件と言える。しかし、表示デバイス10の画面のうち、ユーザーの見るべき位置が強調されれば、キャリブレーション作業中以外の斜め覗き込み状態を検知するために第2条件を好適に用いることができる。
In the calibration work, as described above, the position to be seen by the user is specified by the index. Therefore, it can be said that the second condition is a preferable condition for detecting the oblique looking state during the calibration work. However, if the position to be viewed by the user on the screen of the
なお、第2条件では、第1条件と同様に、眼画像における瞳孔像ではなく、眼画像におけるプルキニエ像に着目してもよい。つまり、眼画像の中心から眼画像におけるプルキニエ像に向かう方向が、眼画像の中心から眼画像における指標対応位置に向かう方向に対して反対であるという第2条件が満たされたか否かを判断してもよい。そして、プルキニエ像に関する第2条件が満たされた状態を、斜め覗き込み状態として検知してもよい。瞳孔像とプルキニエ像の一方に着目してもよいし、両方に着目してもよい。瞳孔像に関する全ての条件(第1条件と第2条件)と、プルキニエ像に関する全ての条件(第1条件と第2
条件)との一方が満たされた状態を、斜め覗き込み状態として検知してもよい。瞳孔像に関する全ての条件と、プルキニエ像に関する全ての条件との両方が満たされた状態を、斜め覗き込み状態として検知してもよい。瞳孔像に関する一部の条件(第1条件と第2条件の一方)と、プルキニエ像に関する残りの条件(第1条件と第2条件の他方)とが満たされた状態を、斜め覗き込み状態として検知してもよい。
In the second condition, as in the first condition, the Purkinje image in the eye image may be focused on instead of the pupil image in the eye image. That is, it is determined whether or not the second condition that the direction from the center of the eye image toward the Purkinje image in the eye image is opposite to the direction from the center of the eye image toward the index corresponding position in the eye image is satisfied. You may. Then, a state in which the second condition regarding the Purkinje image is satisfied may be detected as an oblique looking state. One of the pupil image and the Purkinje image may be focused on, or both may be focused on. All conditions for pupillary images (1st and 2nd conditions) and all conditions for Purkinje images (1st and 2nd conditions)
A state in which one of the conditions) is satisfied may be detected as an oblique looking state. A state in which all the conditions related to the pupil image and all the conditions related to the Purkinje image are satisfied may be detected as an oblique looking state. A state in which some conditions related to the pupil image (one of the first condition and the second condition) and the remaining conditions related to the Purkinje image (the other of the first condition and the second condition) are satisfied is defined as an oblique looking state. It may be detected.
なお、実施例2では、表示デバイス10の画面の左側と右側の2か所の指標を見ることができずに斜め覗き込み状態がとられる例を説明するが、表示デバイス10の画面の上側と下側等の指標を見ることができずに斜め覗き込み状態がとられることもある。そのような斜め覗き込み状態も、第1条件や第2条件を用いて検知できる。
In the second embodiment, an example in which the two indicators on the left side and the right side of the screen of the
<視認状態の改善方法の説明>
前述のように、接眼窓枠等に視線が遮られて表示デバイス10(画面)の端部を見ることができない場合に、斜め覗き込み状態がとられる。そこで、実施例2では、斜め覗き込み状態を検知した場合に、表示デバイス10の画像表示範囲を現在の範囲から縮小して設定する。
<Explanation of how to improve the visual condition>
As described above, when the line of sight is blocked by the eyepiece window frame or the like and the end portion of the display device 10 (screen) cannot be seen, the oblique looking state is taken. Therefore, in the second embodiment, when the oblique looking state is detected, the image display range of the
図14(a)は、斜め覗き込み状態検知前の画像表示状態を示す。この時の視認状態の概要図が図15(a)である。接眼窓枠121によって視野が制限されており、表示デバイス10(画面)の虚像300の一部である範囲β1しか視野に入っていない。このため、虚像300の一部である範囲γ1,γ2はユーザーに見えていない。範囲γ1,γ2を見るために斜め覗き込み状態がとられ、視点の推定結果に無視できない誤差が発生する。
FIG. 14A shows an image display state before detecting the oblique looking state. A schematic diagram of the visual state at this time is shown in FIG. 15 (a). The field of view is limited by the
そこで、実施例2では、図14(b)に示すように、ユーザーに見えている範囲β1まで表示デバイス10の画像表示範囲を縮小する。縮小後の視認状態の概要図が図15(b)である。画像表示範囲がユーザーの視野範囲である範囲β1まで縮小されているため、ユーザーは、斜め覗き込み状態をとらずに、表示デバイス10に表示された画像の全体を見ることができる。つまり、斜め覗き込み状態をとる必要が無い状況(頭部を並進移動させる必要が無い状況)を作り出せている。従って、ユーザーに視認状態の改善(斜め覗き込み状態の解消)を促すことができ、視点の正確な(高精度な)推定結果を得ることができる。
Therefore, in the second embodiment, as shown in FIG. 14B, the image display range of the
このように、斜め覗き込み状態の検知結果に基づいて表示デバイス10の画像表示範囲を縮小して設定することで、斜め覗き込み状態を抑制し、視点の推定結果を改善することができる。なお、視野範囲β1(斜め除き込み状態が検知されない視認状態での視野範囲;正面からファインダを覗き込んだ視認状態での視野範囲)を画像表示範囲とする例を説明するが、画像表示範囲は視野範囲β1より狭くてもよい。視野範囲β1の少なくとも一部が画像表示範囲として決定されれば、斜め覗き込み状態を抑制し、視点の推定結果を改善することができる。図14(c)に示すように、図14(a)の状態からアスペクト比が維持されるように画像表示範囲を縮小してもよい。
In this way, by reducing and setting the image display range of the
<カメラ動作の説明>
実施例2に係るカメラ動作について、図16のフローチャートに従って説明する。図16の処理フローは、例えば、キャリブレーション作業開始を指示するユーザー操作に応じて開始される。上述した視野範囲β1は、眼球14の位置(眼球14と接眼窓枠121の間の距離など)に依存する。このため、図16のフローチャートでは、斜め覗き込み状態の検知結果に基づいて視野範囲β1を推定し、推定した視野範囲β1(推定視野範囲)に基づいて表示デバイス10の画像表示範囲を決定する。
<Explanation of camera operation>
The camera operation according to the second embodiment will be described with reference to the flowchart of FIG. The processing flow of FIG. 16 is started, for example, in response to a user operation instructing the start of calibration work. The above-mentioned visual field range β1 depends on the position of the eyeball 14 (distance between the
ステップS1601では、CPU3は、ユーザーに注視させる第1指標(表示デバイス
10の画面のうち、中心よりも左側の指標)を、表示デバイス10に表示する。
In step S1601, the
ステップS1602では、CPU3は、所定時間の待機を行う。
In step S1602, the
ステップS1603では、CPU3は、ユーザーによってレリーズボタン5が押されて(半押しされて)スイッチSW1がONとなったか否かを判断する。例えば、ユーザーは、第1指標を注視したことを示すために、レリーズボタン5の半押しを行い、スイッチSW1をONにする。CPU3は、スイッチSW1がONとなった場合にステップS1604に処理を進め、スイッチSW1がONとならなかった場合にステップS1602に処理を戻す。
In step S1603, the
ステップS1604では、CPU3は、図8の視線検出動作を行う。視線検出動作により、眼画像における瞳孔像の座標、眼画像におけるプルキニエ像の座標、及び、表示デバイス10の画面における視点の座標が算出される。
In step S1604, the
ステップS1605では、CPU3は、第1条件が満たされているか否か、具体的にはステップS1604の視線検出動作で検出された瞳孔像の位置が所定の範囲内にあるか否かを判断する。CPU3は、所定の範囲外の場合にステップS1606へ処理を進め、所定の範囲内の場合にステップS1609へ処理を進める。
In step S1605, the
ステップS1606では、CPU3は、第2条件が満たされているか否か、具体的には眼画像の中心から眼画像における瞳孔像に向かう方向がX軸負方向(表示デバイス10の画面の中心から第1指標に向かうX軸正方向の逆方向)であるか否かを判断する。CPU3は、瞳孔像がX軸負方向の側に位置する場合にステップS1607へ処理を進め、瞳孔像がX軸正方向の側に位置する場合にステップS1609へ処理を進める。
In step S1606, the
ステップS1607では、CPU3は、現在の状態が斜め覗き込み状態であると判断する。ステップS1608では、CPU3は、ステップS1604の視線検出動作による視点の推定結果に無視できない誤差が含まれており、適切なキャリブレーションを行うこと(適切な視線補正パラメータを得ること)ができないため、視認状態改善処理を行う。その後、ステップS1602に処理が戻され、視線検出動作が再度行われる。
In step S1607, the
実施例2では、図13(b)に示すように、CPU3は、ステップS1607の視認状態改善処理により、第1指標を表示デバイス10の画面の中心に近づける。また、CPU3は、推定視野範囲(視野範囲β1として推定した視野範囲)をデフォルトの範囲(例えば画面の全範囲)から縮小する。具体的には、CPU3は、推定視野範囲の左辺の位置が第1指標の位置となるように、推定視野範囲を左側から縮小する。図13(b)の状態でも、第1指標が視野範囲β1の外側に配置されているため、ユーザーは斜め覗き込み状態をとることになる。このため、ステップS1607の視認状態改善処理が再度行われて、図13(c)に示すように、第1指標が視野範囲β1の内側に配置され、推定視野範囲が縮小されることになる。その結果、斜めから接眼窓枠121内を覗き込まなくても第1指標を視認できるようになり、斜め覗き込み状態を解消できる。これにより、斜め覗き込み状態が解消された時点で、視野範囲β1の左端が推定視野範囲の左端(X軸正方向の端)となる。
In the second embodiment, as shown in FIG. 13B, the
なお、視認状態改善処理は上記処理に限られない。例えば、適切なキャリブレーションが行えるように視認状態を改善することをユーザーに促すことができれば、視認状態改善処理はどのような処理であってもよい。具体的には、実施例1で述べたように、視認状態改善処理は、斜め覗き込み状態であることの警告であってもよい。 The visual state improvement process is not limited to the above process. For example, the visual state improvement process may be any process as long as the user can be urged to improve the visual state so that appropriate calibration can be performed. Specifically, as described in the first embodiment, the visual recognition state improvement process may be a warning that the state is an oblique looking state.
ステップS1609では、CPU3は、ユーザーに注視させる第2指標(表示デバイス10の画面のうち、中心よりも右側の指標)を、表示デバイス10に表示する。このとき、第1指標に関する処理は終了したとして、第1指標は非表示となる。
In step S1609, the
ステップS1610では、CPU3は、所定時間の待機を行う。
In step S1610, the
ステップS1611では、CPU3は、ユーザーによってレリーズボタン5が押されて(半押しされて)スイッチSW1がONとなったか否かを判断する。例えば、ユーザーは、第2指標を注視したことを示すために、レリーズボタン5の半押しを行い、スイッチSW1をONにする。CPU3は、スイッチSW1がONとなった場合にステップS1612に処理を進め、スイッチSW1がONとならなかった場合にステップS1610に処理を戻す。
In step S1611, the
ステップS1612では、CPU3は、図8の視線検出動作を行う。視線検出動作により、眼画像における瞳孔像の座標、眼画像におけるプルキニエ像の座標、及び、表示デバイス10の画面における視点の座標が算出される。
In step S1612, the
ステップS1613では、CPU3は、第1条件が満たされているか否か、具体的にはステップS1612の視線検出動作で検出された瞳孔像の位置が所定の範囲内にあるか否かを判断する。CPU3は、所定の範囲外の場合にステップS1614へ処理を進め、所定の範囲内の場合にステップS1617へ処理を進める。
In step S1613, the
ステップS1614では、CPU3は、第2条件が満たされているか否か、具体的には眼画像の中心から眼画像における瞳孔像に向かう方向がX軸正方向(表示デバイス10の画面の中心から第2指標に向かうX軸負方向の逆方向)であるか否かを判断する。CPU3は、瞳孔像がX軸正方向の側に位置する場合にステップS1615へ処理を進め、瞳孔像がX軸負方向の側に位置する場合にステップS1617へ処理を進める。
In step S1614, the
ステップS1615では、CPU3は、現在の状態が斜め覗き込み状態であると判断する。ステップS1616では、CPU3は、ステップS1612の視線検出動作による視点の推定結果に無視できない誤差が含まれており、適切なキャリブレーションを行うこと(適切な視線補正パラメータを得ること)ができないため、視認状態改善処理を行う。その後、ステップS1610に処理が戻され、視線検出動作が再度行われる。実施例2では、ステップS1607の視認状態改善処理と同様に、CPU3は、ステップS1615の視認状態改善処理により、第2指標を表示デバイス10の画面の中心に近づけ、推定視野範囲を更新する。具体的には、推定視野範囲は、推定視野範囲の右辺の位置が第2指標の位置となるように、右側から縮小される。ステップS1607の視認状態改善処理と同様に、ステップS1615の視認状態改善処理は、斜め覗き込み状態が解消されるまで繰り返される。これにより、斜め覗き込み状態が解消された時点で、視野範囲β1の右端が推定視野範囲の右端(X軸負方向の端)となる。
In step S1615, the
ステップS1617では、CPU3は、全ての指標に関する処理が終了したと判断し、キャリブレーションの成功をユーザーに通知する。さらに、CPU3は、各指標を注視した際の視点の推定結果から視線補正パラメータを算出し、視線補正パラメータをメモリ部4に格納する。なお、図16には第1指標(左側の指標)に関する処理と、第2指標(右側の指標)に関する処理とのみが示されているが、実際には図13(a)に示す5つの指標のそれぞれについて処理が行われる。
In step S1617, the
このように、実施例2では、表示デバイス10の画面の端部に指標を表示した後に斜め覗き込み状態が検知されなくなるまで当該指標を画面の中心に近づけるような制御が、画
面の複数の辺について行われる。そして、表示デバイス10の画面のうち、斜め覗き込み状態が検知されることなくユーザーが指標を見ることのできる複数の位置の範囲が、視野範囲β1として推定される。なお、視野範囲β1の推定方法はこれに限られない。例えば、予め定められた複数の位置の間で指標の位置を変えながら、斜め覗き込み状態が検知されない複数の位置を検出し、検出した複数の位置の範囲(複数の位置を含む最小の範囲)を視野範囲β1として推定してもよい。
As described above, in the second embodiment, the control of displaying the index on the edge of the screen of the
ステップS1618では、CPU3は、推定視野範囲を表示デバイス10の画像表示範囲として設定して、図16の処理フローを終了する。
In step S1618, the
<まとめ>
以上述べたように、実施例2によれば、第1条件に加え、第2条件をさらに用いることにより、実施例1よりも高精度に斜め覗き込み状態を検知できる。
<Summary>
As described above, according to the second embodiment, by further using the second condition in addition to the first condition, it is possible to detect the oblique looking state with higher accuracy than in the first condition.
斜め覗き込み状態でキャリブレーション作業を行うと、視点の推定結果に無視できない誤差が含まれるため、適切な視線補正パラメータを得ることができない。実施例2によれば、キャリブレーション作業中に斜め覗き込み状態が検知及び解消されるため、適切な視線補正パラメータを得ることができる。その結果、キャリブレーション作業後の撮影時等における視点の推定精度を向上することができる。 If the calibration work is performed in the oblique looking state, the estimation result of the viewpoint contains a non-negligible error, and therefore an appropriate line-of-sight correction parameter cannot be obtained. According to the second embodiment, since the oblique looking state is detected and eliminated during the calibration operation, an appropriate line-of-sight correction parameter can be obtained. As a result, it is possible to improve the estimation accuracy of the viewpoint at the time of shooting after the calibration work.
さらに、実施例2によれば、斜め覗き込み状態が解消されるように、指標が表示デバイス10の画面の中心に近づけられる。そして、斜め覗き込み状態が解消された後の複数の指標から、斜め覗き込み状態でない好適な視認状態(正面からの接眼窓枠121内の覗き込み)に対応する視野範囲β1を特定することができる。特定した視野範囲β1を利用することで、カメラ1の利便性を向上することができる。例えば、キャリブレーション作業後の撮影時等において、特定した視野範囲β1に収まるように視認用画像を縮小表示することで、斜め覗き込み状態を抑制でき、視点の推定精度を向上することができる。具体的には、実施例2によれば、斜め覗き込み状態が検知され、斜め覗き込み状態が検知されない状態での視野範囲が斜め覗き込み状態の検知結果に基づいて推定される。そして、推定された視野範囲に基づいて表示デバイスの画像表示範囲が決定される。このような簡易な構成により、斜め覗き込み状態が検知されない状態で全体を視認可能な画像表示範囲を決定でき、視点の推定が高精度に行えない状態を解消できる。
Further, according to the second embodiment, the index is brought closer to the center of the screen of the
なお、キャリブレーション作業中に視野範囲を推定し、キャリブレーション作業中またはキャリブレーション作業後に、推定した視野範囲に基づいて画像表示範囲を決定する例を説明したが、そうでなくてもよい。リブレーション作業が行われていない期間に、視野範囲を推定し、推定した視野範囲に基づいて画像表示範囲を決定してもよい。視野範囲を推定せずに、斜め覗き込み状態の検知結果(斜め覗き込み状態の有無、眼画像における瞳孔像やプルキニエ像の位置など)に基づいて、画像表示範囲のサイズと位置の少なくとも一方を変更してもよい。 Although the example in which the field of view is estimated during the calibration work and the image display range is determined based on the estimated field of view during the calibration work or after the calibration work has been described, this may not be the case. The visual field range may be estimated during the period when the reblation work is not performed, and the image display range may be determined based on the estimated visual field range. At least one of the size and position of the image display range is determined based on the detection result of the oblique peeping state (presence or absence of the oblique peeping state, the position of the pupil image or Purkinje image in the eye image, etc.) without estimating the visual field range. You may change it.
<<実施例3>>
以下、本発明の実施例3について説明する。なお、以下では、実施例2と同じ点(構成や処理など)についての説明は省略し、実施例2と異なる点について説明する。実施例2では、画像表示範囲を縮小する例を説明した。実施例3では、画像表示範囲を移動させる例を説明する。
<< Example 3 >>
Hereinafter, Example 3 of the present invention will be described. In the following, the description of the same points (configuration, processing, etc.) as in the second embodiment will be omitted, and the points different from the second embodiment will be described. In the second embodiment, an example of reducing the image display range has been described. In the third embodiment, an example of moving the image display range will be described.
<視認状態の改善方法の説明>
前述のように、接眼窓枠等に視線が遮られて表示デバイス10(画面)の端部を見ることができない場合に、斜め覗き込み状態がとられる。そこで、実施例3では、斜め覗き込
み状態を検知した場合に、表示デバイス10の画像表示範囲を現在の範囲から移動させて設定する。
<Explanation of how to improve the visual condition>
As described above, when the line of sight is blocked by the eyepiece window frame or the like and the end portion of the display device 10 (screen) cannot be seen, the oblique looking state is taken. Therefore, in the third embodiment, when the oblique looking state is detected, the image display range of the
図17(a)は、斜め覗き込み状態検知前の画像表示状態を示す。この時の視認状態の概要図が図18(a)である。接眼窓枠121によって視野が制限されており、表示デバイス10(画面)の虚像300の一部である範囲β1しか視野に入っていない。このため、虚像300の一部である範囲γ1,γ2はユーザーに見えていない。範囲γ1,γ2を見るために斜め覗き込み状態がとられ、視点の推定結果に無視できない誤差が発生する。
FIG. 17A shows an image display state before detecting an oblique looking state. FIG. 18A is a schematic view of the visual state at this time. The field of view is limited by the
そこで、実施例3では、図17(b)に示すように、表示デバイス10の画像表示範囲の右端(X軸負方向の端)が、ユーザーに見えている範囲β1の右端に一致するように、表示デバイス10の画像表示範囲を左方向(X軸正方向)に移動させる。移動後の視認状態の概要図が図18(b)である。X軸負方向における画像表示範囲の端が視野範囲β1に含まれるように画像表示範囲を移動させたことで、ユーザーは、斜め覗き込み状態をとらずに、表示デバイス10に表示された画像の右端(X軸負方向の端)を見ることができる。つまり、ユーザーが画像の右端を見たい場合の状況として、斜め覗き込み状態をとる必要が無い状況(頭部を並進移動させる必要が無い状況)を作り出せている。従って、ユーザーに視認状態の改善(斜め覗き込み状態の解消)を促すことができ、視点の正確な(高精度な)推定結果を得ることができる。
Therefore, in the third embodiment, as shown in FIG. 17B, the right end (the end in the negative direction of the X-axis) of the image display range of the
図17(c)に示すように、表示デバイス10の画像表示範囲の左端(X軸正方向の端)が、ユーザーに見えている範囲β1の左端に一致するように、表示デバイス10の画像表示範囲を右方向(X軸負方向)に移動させてもよい。移動後の視認状態の概要図が図18(c)である。X軸正方向における画像表示範囲の端が視野範囲β1に含まれるように画像表示範囲を移動させたことで、ユーザーは、斜め覗き込み状態をとらずに、表示デバイス10に表示された画像の左端(X軸正方向の端)を見ることができる。つまり、ユーザーが画像の左端を見たい場合の状況として、斜め覗き込み状態をとる必要が無い状況(頭部を並進移動させる必要が無い状況)を作り出せている。従って、ユーザーに視認状態の改善(斜め覗き込み状態の解消)を促すことができ、視点の正確な(高精度な)推定結果を得ることができる。
As shown in FIG. 17C, the image display of the
このように、ユーザーが見たい方向と逆の方向に画像表示範囲を移動させることで、斜め覗き込み状態を抑制し、視点の推定結果を改善することができる。なお、画像表示範囲の端が視野範囲β1の端に一致するように画像表示範囲を移動させる例を説明したが、画像表示範囲が視野範囲β1の少なくとも一部を含んで移動すれば、画像表示範囲の移動方向や移動量は特に限定されない。実施例2で述べた方法などで視野範囲β1が推定されていれば、推定された視野範囲β1(推定視野範囲)に基づいて、画像表示範囲が視野範囲β1の少なくとも一部を含むように画像表示範囲を移動させることができる。そして、そのように画像表示範囲を移動させれば、斜め覗き込み状態を抑制し、視点の推定結果を改善することができる。 By moving the image display range in the direction opposite to the direction the user wants to see in this way, it is possible to suppress the oblique looking state and improve the estimation result of the viewpoint. An example of moving the image display range so that the edge of the image display range coincides with the edge of the field of view β1 has been described. However, if the image display range is moved to include at least a part of the field of view β1, the image is displayed. The movement direction and movement amount of the range are not particularly limited. If the field of view β1 is estimated by the method described in Example 2, the image is such that the image display range includes at least a part of the field of view β1 based on the estimated field of view β1 (estimated field of view). The display range can be moved. Then, by moving the image display range in this way, it is possible to suppress the oblique looking state and improve the estimation result of the viewpoint.
なお、X軸正方向への画像表示範囲の移動は、ユーザーが画像の右端(X軸負方向の端)を見たい場合に好ましく、X軸負方向への画像表示範囲の移動は、ユーザーが画像の左端(X軸正方向の端)を見たい場合に好ましい。このため、ユーザーが画像の右端を見たい場合の斜め覗き込み状態が検知された場合に、X軸正方向に画像表示範囲を移動させ、ユーザーが画像の左端を見たい場合の斜め覗き込み状態が検知された場合に、X軸負方向に画像表示範囲を移動させてもよい。つまり、斜め覗き込み状態の検知結果に基づいて、画像表示範囲の移動方向や移動量が決定されてもよい。瞳孔像やプルキニエ像が、眼画像の中心に対してX軸正方向に大きく移動した場所に位置する場合には、ユーザーが画像の右端を見たいと判断できる。そして、瞳孔像やプルキニエ像が、眼画像の中心に対してX
軸負方向に大きく移動した場所に位置する場合には、ユーザーが画像の左端を見たいと判断できる。
The movement of the image display range in the positive direction of the X-axis is preferable when the user wants to see the right end of the image (the end in the negative direction of the X-axis), and the user moves the image display range in the negative direction of the X-axis. This is preferable when you want to see the left edge of the image (the edge in the positive direction of the X-axis). Therefore, when the diagonal peeping state when the user wants to see the right edge of the image is detected, the image display range is moved in the positive direction of the X-axis, and the diagonal peeping state when the user wants to see the left edge of the image. When is detected, the image display range may be moved in the negative direction of the X-axis. That is, the moving direction and the moving amount of the image display range may be determined based on the detection result of the oblique looking state. When the pupil image or Purkinje image is located at a position largely moved in the positive direction of the X-axis with respect to the center of the eye image, the user can determine that he / she wants to see the right edge of the image. Then, the pupil image and the Purkinje image are X with respect to the center of the eye image.
If it is located in a location that has moved significantly in the negative axis direction, it can be determined that the user wants to see the left edge of the image.
<まとめ>
以上述べたように、実施例3によれば、推定された視野範囲に基づいて表示デバイスの画像表示範囲を移動させる。このような簡易な構成により、斜め覗き込み状態が検知されない状態で全体を視認可能な画像表示範囲を決定でき、視点の推定が高精度に行えない状態を解消できる。
<Summary>
As described above, according to the third embodiment, the image display range of the display device is moved based on the estimated field of view range. With such a simple configuration, it is possible to determine the image display range in which the entire image can be visually recognized without detecting the oblique looking state, and it is possible to eliminate the state in which the viewpoint cannot be estimated with high accuracy.
<<実施例4>>
以下、本発明の実施例4について説明する。なお、以下では、実施例2と同じ点(構成や処理など)についての説明は省略し、実施例2と異なる点について説明する。実施例4では、キャリブレーション作業中に斜め覗き込み状態を検知する他の例を説明する。
<< Example 4 >>
Hereinafter, Example 4 of the present invention will be described. In the following, the description of the same points (configuration, processing, etc.) as in the second embodiment will be omitted, and the points different from the second embodiment will be described. In the fourth embodiment, another example of detecting the oblique looking state during the calibration operation will be described.
キャリブレーション作業で表示される複数の指標は、表示デバイス10の画面の中心を挟む2つの指標を含む。具体的には、図13(a)に示すように、第1指標(左側の指標)と第2指標(右側の指標)は、表示デバイス10の画面の中心を挟む。そして、実施例2で述べたように、第1指標を見る斜め覗き込み状態で得られた眼画像では、瞳孔像とプルキニエ像が第1指標の側(X軸正方向の側)とは反対の側(X軸負方向の側)に位置する。一方で、第2指標を見る斜め覗き込み状態で得られた眼画像では、瞳孔像とプルキニエ像が第2指標の側(X軸負方向の側)とは反対の側(X軸正方向の側)に位置する。つまり、第1指標を見た場合の眼画像における瞳孔像とプルキニエ像が、第2指標を見た場合のそれらと反対の側に位置する。
The plurality of indexes displayed in the calibration operation include two indexes that sandwich the center of the screen of the
<斜め覗き込み検知方法の説明>
斜め覗き込み状態の第3の特徴として、上述したように、第1指標を見た場合の眼画像における瞳孔像とプルキニエ像が、第2指標を見た場合のそれらと反対の側に位置するという特徴が挙げられる。そこで、実施例4では、第1指標を見た場合と第2指標を見た場合との間で、眼画像の中心から眼画像における瞳孔像に向かう方向が反対であるという第3条件を用いる。第3条件が満たされたか否かを判断するという簡易な構成でも、斜め覗き込み状態を検知できる。具体的には、第3条件が満たされた状態を、斜め覗き込み状態として検知できる。実施例4では、実施例2で述べた第1条件および第2条件と、上述した第3条件との両方が満たされたか否かを判断し、第1条件、第2条件、及び、第3条件の全てが満たされた状態を、斜め覗き込み状態として検知する。第1条件、第2条件、及び、第3条件の全てを用いることにより、実施例2よりも高精度に斜め覗き込み状態を検知できる。第2条件を用いずに、第1条件と第3条件を用いてもよい。第3条件のみを用いてもよい。
<Explanation of diagonal peeping detection method>
As the third feature of the oblique looking state, as described above, the pupil image and the Purkinje image in the eye image when the first index is viewed are located on the opposite side to those when the second index is viewed. The feature is mentioned. Therefore, in the fourth embodiment, the third condition is used that the direction from the center of the eye image toward the pupil image in the eye image is opposite between the case where the first index is viewed and the case where the second index is viewed. .. Even with a simple configuration of determining whether or not the third condition is satisfied, the oblique looking state can be detected. Specifically, a state in which the third condition is satisfied can be detected as an oblique looking state. In the fourth embodiment, it is determined whether or not both the first condition and the second condition described in the second embodiment and the third condition described above are satisfied, and the first condition, the second condition, and the third condition are satisfied. A state in which all the conditions are satisfied is detected as an oblique looking state. By using all of the first condition, the second condition, and the third condition, the oblique looking state can be detected with higher accuracy than in the second embodiment. The first condition and the third condition may be used without using the second condition. Only the third condition may be used.
なお、キャリブレーション作業では、上述したように、ユーザーの見るべき位置が指標で指定される。このため、第3条件は、キャリブレーション作業中の斜め覗き込み状態を検知するための好ましい条件と言える。しかし、表示デバイス10の画面のうち、ユーザーの見るべき位置が強調されれば、キャリブレーション作業中以外の斜め覗き込み状態を検知するために第3条件を好適に用いることができる。
In the calibration work, as described above, the position to be seen by the user is specified by the index. Therefore, it can be said that the third condition is a preferable condition for detecting the oblique looking state during the calibration work. However, if the position to be viewed by the user on the screen of the
なお、第3条件では、第1条件や第2条件と同様に、眼画像における瞳孔像ではなく、眼画像におけるプルキニエ像に着目してもよい。つまり、第1指標を見た場合と第2指標を見た場合との間で、眼画像の中心から眼画像におけるプルキニエ像に向かう方向が反対であるという第3条件が満たされたか否かを判断し、当該第3条件が満たされた状態を、斜め覗き込み状態として検知してもよい。瞳孔像とプルキニエ像の一方に着目してもよいし、両方に着目してもよい。瞳孔像に関する全ての条件(第1条件、第2条件、及び、第
3条件)と、プルキニエ像に関する全ての条件(第1条件、第2条件、及び、第3条件)との一方が満たされた状態を、斜め覗き込み状態として検知してもよい。瞳孔像に関する全ての条件と、プルキニエ像に関する全ての条件との両方が満たされた状態を、斜め覗き込み状態として検知してもよい。瞳孔像に関する一部の条件と、プルキニエ像に関する残りの条件とが満たされた状態を、斜め覗き込み状態として検知してもよい。
In the third condition, as in the first condition and the second condition, the Purkinje image in the eye image may be focused on instead of the pupil image in the eye image. That is, whether or not the third condition that the direction from the center of the eye image toward the Purkinje image in the eye image is opposite between the case where the first index is viewed and the case where the second index is viewed is satisfied. A state in which the third condition is satisfied may be detected as an oblique looking state. One of the pupil image and the Purkinje image may be focused on, or both may be focused on. One of all the conditions for the pupil image (first condition, second condition, and third condition) and all the conditions for the Purkinje image (first condition, second condition, and third condition) are satisfied. The state may be detected as an oblique looking state. A state in which all the conditions related to the pupil image and all the conditions related to the Purkinje image are satisfied may be detected as an oblique looking state. A state in which some conditions relating to the pupil image and the remaining conditions relating to the Purkinje image are satisfied may be detected as an oblique looking state.
なお、実施例4では、表示デバイス10の画面の左側と右側の2か所の指標を見ることができずに斜め覗き込み状態がとられ、当該画面の中心を挟む2つの指標として第1指標(左側の指標)と第2指標(右側の指標)を用いる例を説明する。但し、表示デバイス10の画面の中心を挟む2つの指標は、これに限られない。例えば、表示デバイス10の画面の中心を挟む2つの指標は、当該画面の上側と下側の2つの指標であってもよい。これにより、表示デバイス10の画面の上側と下側の2か所の指標を見ることができずにとられた斜め覗き込み状態を、第3条件を用いて検知できる。
In the fourth embodiment, the two indexes on the left side and the right side of the screen of the
<カメラ動作の説明>
実施例4に係るカメラ動作について、図19のフローチャートに従って説明する。図19の処理フローは、例えば、キャリブレーション作業開始を指示するユーザー操作に応じて開始される。
<Explanation of camera operation>
The camera operation according to the fourth embodiment will be described with reference to the flowchart of FIG. The processing flow of FIG. 19 is started, for example, in response to a user operation instructing the start of calibration work.
ステップS1901〜S1904の処理は、図16のステップS1601〜S1604の処理と同様であり、ステップS1905〜S1908の処理は、図16のステップS1609〜S1612の処理と同様である。 The processes of steps S1901 to S1904 are the same as the processes of steps S1601 to S1604 of FIG. 16, and the processes of steps S1905 to S1908 are the same as the processes of steps S1609 to S1612 of FIG.
ステップS1909では、CPU3は、ステップS1904の動作結果に基づき、第1指標の表示中に第1条件が満たされたか否か、具体的には第1指標の表示中の瞳孔像の位置が所定の範囲内にあるか否かを判断する。CPU3は、所定の範囲外の場合にステップS1910へ処理を進め、所定の範囲内の場合にステップS1915へ処理を進める。ステップS1909の処理は図16のステップS1605の処理と同様の処理である。
In step S1909, the
ステップS1910では、CPU3は、ステップS1904の動作結果に基づき、第1指標の表示中に第2条件が満たされたか否か、具体的には第1指標の表示中の眼画像の中心から当該眼画像における瞳孔像に向かう方向がX軸負方向であるか否かを判断する。CPU3は、瞳孔像がX軸負方向の側にある場合にステップS1911へ処理を進め、瞳孔像がX軸正方向の側にある場合にステップS1915へ処理を進める。ステップS1910の処理は図16のステップS1606の処理と同様の処理である。
In step S1910, based on the operation result of step S1904, the
ステップS1911では、CPU3は、ステップS1908の動作結果に基づき、第2指標の表示中に第1条件が満たされたか否か、具体的には第2指標の表示中の瞳孔像の位置が所定の範囲内にあるか否かを判断する。CPU3は、所定の範囲外の場合にステップS1912へ処理を進め、所定の範囲内の場合にステップS1915へ処理を進める。ステップS1911の処理は図16のステップS1613の処理と同様の処理である。
In step S1911, the
ステップS1912では、CPU3は、ステップS1904,S1908の動作結果に基づき、第3条件が満たされているか否かを判定する。具体的には、CPU3は、第1指標の表示中と第2指標の表示中との間で、眼画像の中心から眼画像における瞳孔像に向かう方向が反対であるか否かを判定する。第1指標の表示中と第2指標の表示中との間で、眼画像の中心から眼画像における瞳孔像に向かう方向が反対である場合には、CPU3はステップS1913に処理を進める。一方、第1指標の表示中と第2指標の表示中との間で、眼画像の中心から眼画像における瞳孔像に向かう方向が同じである場合には、CPU3はステップS1915に処理を進める。
In step S1912, the
なお、ステップS1912の判断は、第2指標の表示中に第2条件が満たされたか否かの判断、具体的には第2指標の表示中の眼画像の中心から当該眼画像における瞳孔像に向かう方向がX軸正方向であるか否かの判断であってもよい。つまり、ステップS1912では、図16のステップS1614の処理と同様の処理が行われてもよい。 The determination in step S1912 is to determine whether or not the second condition is satisfied during the display of the second index, specifically, from the center of the eye image during display of the second index to the pupil image in the eye image. It may be a judgment as to whether or not the heading direction is the positive direction of the X-axis. That is, in step S1912, the same processing as that of step S1614 of FIG. 16 may be performed.
ステップS1913では、CPU3は、第1指標の視認状態と第2指標の視認状態の少なくとも一方が斜め覗き込み状態であると判断する。ステップS1914では、CPU3は、ステップS1904で推定された視点と、ステップS1908で推定された視点との少なくとも一方に無視できない誤差が含まれており、適切なキャリブレーションを行うことができないため、視認状態改善処理を行う。その後、ステップS1901に処理が戻され、視線検出動作が再度行われる。実施例4では、実施例2と同様に、CPU3は、ステップS1914の視認状態改善処理により、第1指標と第2指標の少なくとも一方を表示デバイス10の画面の中心に近づけ、推定視野範囲を更新する。
In step S1913, the
ステップS1915では、CPU3は、全ての指標に関する処理が終了したと判断し、キャリブレーションの成功をユーザーに通知する。さらに、CPU3は、各指標を注視した際の視点の推定結果から視線補正パラメータを算出し、視線補正パラメータをメモリ部4に格納する。なお、図19には第1指標(左側の指標)に関する処理と、第2指標(右側の指標)に関する処理とのみが示されているが、実際には図13(a)に示す5つの指標のそれぞれについて処理が行われる。
In step S1915, the
ステップS1916では、CPU3は、推定視野範囲を表示デバイス10の画像表示範囲として設定して、図19の処理フローを終了する。
In step S1916, the
以上述べたように、実施例4によれば、第1条件と第2条件に加え、第3条件をさらに用いることにより、実施例2よりも高精度に斜め覗き込み状態を検知できる。さらに、適切な視線補正パラメータを実施例2よりも確実に得ることができる。その結果、キャリブレーション作業後の撮影時等における視点の推定精度を実施例2よりも確実に向上することができる。 As described above, according to the fourth embodiment, by further using the third condition in addition to the first condition and the second condition, the oblique peeping state can be detected with higher accuracy than in the second embodiment. Further, an appropriate line-of-sight correction parameter can be obtained more reliably than in the second embodiment. As a result, the estimation accuracy of the viewpoint at the time of shooting after the calibration work can be surely improved as compared with the second embodiment.
<<実施例5>>
以下、本発明の実施例5について説明する。なお、以下では、実施例1と同じ点(構成や処理など)についての説明は省略し、実施例1と異なる点について説明する。ユーザーが眼鏡を着用していると、ユーザーの眼球を照明する光源の光が、眼鏡の表面で反射して接眼レンズを通って眼用撮像素子に入射し、眼画像にゴーストとして写り込むことがある。斜め覗き込み状態では、ユーザーは頭部を傾けてファインダを覗き込むため、頭部の傾きに応じてゴーストが眼画像の中心付近に移動する。その結果、ゴーストが瞳孔像やプルキニエ像と重なると、瞳孔像やプルキニエ像の検出精度が低下し、視点の推定精度が低下する。実施例5では、このような課題に着目した例を説明する。
<< Example 5 >>
Hereinafter, Example 5 of the present invention will be described. In the following, the description of the same points (configuration, processing, etc.) as in the first embodiment will be omitted, and the points different from the first embodiment will be described. When the user wears spectacles, the light from the light source that illuminates the user's eyeball may be reflected by the surface of the spectacles, pass through the eyepiece, and enter the image pickup element for the eye, and appear as a ghost in the eye image. is there. In the oblique peeping state, the user tilts his head to look into the finder, so that the ghost moves near the center of the eye image according to the tilt of the head. As a result, when the ghost overlaps with the pupil image or Purkinje image, the detection accuracy of the pupil image or Purkinje image is lowered, and the estimation accuracy of the viewpoint is lowered. In the fifth embodiment, an example focusing on such a problem will be described.
<構成の説明>
図20は、カメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観を示す背面斜視図である。カメラ1の正面斜視図は実施例1(図1(a))と同様である。図20に示すように、実施例5では、ユーザーの眼球を照明する4つの光源13a〜13dが接眼レンズ12の周囲に備わっている。
<Explanation of configuration>
FIG. 20 is a rear perspective view showing the appearance of the camera 1 (digital still camera; interchangeable lens camera). The front perspective view of the
図21は、カメラ1の大まかな内部構成を示す。図22は、接眼窓枠121の内部をユーザーが覗き込んだ状態を示す。図23は、カメラ1内の電気的構成を示すブロック図である。図21〜23では、上述したように4つの光源13a〜13dが備わっており、そ
れ以外は図2〜4と同様である。
FIG. 21 shows a rough internal configuration of the
実施例5では、図21に示すように、ユーザーが眼鏡144のような光学部材を装着しており、当該光学部材は、接眼窓枠121の内部をユーザーが覗き込んだ状態で、眼球14と接眼窓枠121の間に位置するものとする。
In the fifth embodiment, as shown in FIG. 21, the user wears an optical member such as
図24は、眼用撮像素子17で撮像された眼画像(眼用撮像素子17に投影された眼球像)の概略図である。4つの光源13a〜13dを用いているため、4つのプルキニエ像(P像;角膜反射像)が写っている。接眼レンズに対して上下左右方向にずれた複数の光源による複数のプルキニエ像の組み合わせ(組み合わせは特に限定されない)に基づいて、実施例1と同様の原理で視線を検出することができる。
FIG. 24 is a schematic view of an eye image (eyeball image projected on the eye image sensor 17) captured by the
<頭部を大きく並進移動させてファインダを覗き込む視認状態の説明>
頭部を並進移動させて斜めからファインダを覗き込む場合には、ユーザーは、接眼窓枠を覗き込む眼球のみを回転させるのではなく、頭部ごと眼球を回転させる(傾ける)ことが多い。ユーザーが眼鏡を装着している場合に、ユーザーが頭部を傾けてファインダを覗き込むと、着用している眼鏡も頭部と同方向に傾く。その結果、眼球を照明する赤外光のうち、眼鏡表面に反射して接眼レンズを通して眼用撮像素子に入射する光によるゴーストが、眼鏡の傾きに応じて眼画像の中央付近に移動する。そして、ゴーストが、眼画像の中央付近にある瞳孔像やプルキニエ像に重なり、それらの像の検出を阻害する。瞳孔像やプルキニエ像の検出精度が低下すると、視点の推定精度も低下してしまう。
<Explanation of the visual state in which the head is greatly translated and looked into the finder>
When the head is translated and viewed from an angle, the user often rotates (tilts) the eyeball together with the head, instead of rotating only the eyeball looking into the eyepiece window frame. If the user is wearing glasses and the user tilts his head to look into the finder, the glasses he is wearing will also tilt in the same direction as his head. As a result, of the infrared light that illuminates the eyeball, the ghost caused by the light that is reflected on the surface of the spectacles and is incident on the eye imager through the eyepiece moves to the vicinity of the center of the eye image according to the inclination of the spectacles. Then, the ghost overlaps with the pupil image and the Purkinje image near the center of the eye image, and hinders the detection of those images. If the detection accuracy of the pupil image or Purkinje image decreases, the estimation accuracy of the viewpoint also decreases.
この現象について、図25(a)〜25(c)を用いてより詳細に説明する。図25(a)〜25(c)は、表示デバイス10(画面)の虚像300をユーザーが右目(紙面上方向側の眼球)で接眼窓枠121と接眼レンズ12を通して視認している状態を、Y軸正方向から見た上面模式図である。図25(a)では、虚像300(表示デバイス10の画面)の中心に対向する位置、接眼レンズ12の光軸が通る位置に眼球14の中心O’が位置する状態でユーザーが虚像300のほぼ中央を注視している。図25(a)では、ユーザーは、範囲γ1,γ2(虚像300の端部)を視認できていない。
This phenomenon will be described in more detail with reference to FIGS. 25 (a) to 25 (c). 25 (a) to 25 (c) show a state in which the user visually recognizes the
図25(a)の状態で見えていない範囲γ1を見たい場合に、ユーザーは、図25(b)に示すように、頭部ごと眼球14をX軸正方向(紙面下方向)に大きく並進移動させる。同様に、図25(a)の状態で見えていない範囲γ2を見たい場合に、ユーザーは、図25(c)に示すように、頭部ごと眼球14をX軸負方向(紙面上方向)に大きく並進移動させる。このとき、眼球14の回転だけでなく、図25(a)の状態から頭部が傾くことが多い。図25(b),25(c)では、図25(a)の状態から角度θhだけ頭部が傾いている。さらに、図25(a)〜25(c)では、ユーザーが眼鏡144を装着しており、頭部の傾きに応じて、頭部と同方向に眼鏡144も傾く。その結果、接眼レンズ12の光軸に対する眼鏡144の光軸の傾きが変化するため、それに応じて、光源からの光が眼鏡144の表面に反射して生じるゴーストの位置も変化する。
When the user wants to see the range γ1 that is not visible in the state of FIG. 25 (a), the user translates the
上述したゴーストは、例えば、図26に示すように、光源13a〜13dから照射された光が、眼鏡等の光学部材の表面に反射し、その反射光が図26に矢印で示すように眼用撮像素子17に入射することによって、生じるものとする。図26では光源13a又は光源13bからの光の経路を図示しているが、光源13c,13dからの光も同様に眼用撮像素子17に入りうる。
The above-mentioned ghost is, for example, as shown in FIG. 26, the light emitted from the
図27(a)は、ゴーストが写り込んだ眼画像の一例を示す。図27(a)では、4つの光源13a〜13dにそれぞれ対応する4つのゴーストGa〜Gdが写り込んでいる。ゴーストGa〜Gdは、光源13a〜13dから発せられた光が眼鏡表面に反射すること
で生じたゴーストであり、光源13a〜13dから発せられた光が眼球の角膜表面で反射することで生じるプルキニエ像とは別個に現れる。図27(a)の眼画像は、図25(a)の状態に対応する。図27(a)に示すように、ユーザーが装着している眼鏡等の光学部材が正面を向いている場合には、ゴーストGa〜Gdは眼画像中央に対し略左右対象に現れる。
FIG. 27A shows an example of an eye image in which a ghost is reflected. In FIG. 27A, four ghosts Ga to Gd corresponding to the four
ここで、頭部の傾きに伴って眼鏡が傾く斜め覗き込み状態となると、ゴーストが移動し、図27(b)のような眼画像が得られるようになる。図27(b)では、頭部の傾きに伴う眼鏡の傾きによって、図27(a)の状態からX軸正方向(紙面右方向)にゴーストGa〜Gdの全てが移動している。その結果、光源13aによるゴーストGaが瞳孔像の一部に重なっており、瞳孔像の当該一部が隠れている。瞳孔像の少なくとも一部が隠れると、瞳孔像の検出精度が低下してしまう。瞳孔像の検出精度が低下すると、視点の推定精度も低下してしまう。
Here, when the spectacles are tilted in an oblique peeping state as the head is tilted, the ghost moves and an eye image as shown in FIG. 27B can be obtained. In FIG. 27 (b), all of the ghosts Ga to Gd move from the state of FIG. 27 (a) in the positive direction of the X-axis (to the right of the paper) due to the inclination of the glasses accompanying the inclination of the head. As a result, the ghost Ga by the
そこで、実施例5では、複数の光源のうち、眼画像の中央部(中央およびその近辺)に移動するゴーストを発生させる光源を、視認状態の検出結果に基づいて判断し、判断した光源を消灯する。これにより、眼画像の中央部におけるゴーストの発生を抑制でき、瞳孔像の検出精度を向上することができる。ひいては、始点の推定精度を向上することができる。 Therefore, in the fifth embodiment, among the plurality of light sources, a light source that generates a ghost that moves to the central portion (center and its vicinity) of the eye image is determined based on the detection result of the visual state, and the determined light source is turned off. To do. As a result, the occurrence of ghosts in the central portion of the ocular image can be suppressed, and the detection accuracy of the pupil image can be improved. As a result, the estimation accuracy of the starting point can be improved.
<光源の消灯方法の説明>
斜め覗き込み状態が検知された場合に、覗き込み方向に応じた方向にある光源を消灯することで、眼画像の中央付近におけるゴーストの発生を抑制し、各種検出精度を向上する過程について、より詳細に説明する。
<Explanation of how to turn off the light source>
Regarding the process of improving various detection accuracy by suppressing the occurrence of ghosts near the center of the eye image by turning off the light source in the direction corresponding to the viewing direction when the oblique looking state is detected. This will be described in detail.
図28(a)の状態から図28(b)の状態への変化のように、光源13a〜13dのうち、眼画像の中央部に移動するゴーストを発生させる光源を消灯することができれば、各種検出の妨げとなるゴーストを眼画像から消すことができる。
As in the change from the state of FIG. 28 (a) to the state of FIG. 28 (b), if it is possible to turn off the
図27(b)の例においては、光源13aに起因するゴーストGaが各種検出の妨げとなっているため、図28(b)で示すように、光源13aを消灯すればよい。光源13aを消灯すれば、図27(c)で示すように、ゴーストGaが消え、ゴーストが重なっていた部分も含めて瞳孔像が高精度に検出可能となり、瞳孔像や視線の検出精度の悪化を抑制することができる。このとき、光源13aによって形成されていたプルキニエ像も消えるが、プルキニエ像を形成する他の光源が複数存在するため、それら複数の光源(光源13b〜13d)による複数のプルキニエ像を用いて視線検出は高精度に行える。一部の光源を消灯しても高精度な視線検出が可能となるように、実施例5では4つの光源13a〜13dを用いている。なお、光源の数は4つに限られず、3つ以上であればよい。2つ以上の光源が点灯すれば、複数の光源を消灯してもよい。2つ以上の光源が点灯すれば視線検出が可能である。
In the example of FIG. 27 (b), since the ghost Ga caused by the
しかしながら、眼画像の中央部に移動するゴーストを発生させる光源が判明していなければ、上述の処理(光源の好適な消灯)は不可能である。 However, the above-mentioned processing (appropriate extinguishing of the light source) is impossible unless the light source that generates the ghost that moves to the central portion of the ocular image is known.
そこで、実施例5では、他の実施例で述べた方法で斜め覗き込み状態を検出することにより、頭部の傾き方向、つまり眼鏡の傾き方向を判断し、当該傾き方向から、眼画像上でのゴーストの移動方向を判断し、当該移動方向から、消灯すべき光源を判断する。 Therefore, in the fifth embodiment, the tilting direction of the head, that is, the tilting direction of the eyeglasses is determined by detecting the oblique looking state by the method described in another embodiment, and the tilting direction is used on the eye image. The moving direction of the ghost is determined, and the light source to be turned off is determined from the moving direction.
図25(b)に示すように、頭部をX軸正方向に並進移動させた斜め覗き込み状態においては、頭部も眼鏡144も紙面時計回り方向に傾く。一方で、図25(c)に示すよう
に、頭部をX軸負方向に並進移動させた斜め覗き込み状態においては、頭部も眼鏡144も紙面半時計回り方向に傾く。つまり、図25(b)と図25(c)では、頭部や眼鏡の傾き方向が逆である。従って、覗き込み方向から、頭部や眼鏡の傾き方向を特定することができる。そして、眼鏡の傾き方向から、ゴーストの移動方向を知ることができ、眼画像の中央付近に近づくゴーストを発生させる光源を特定することができる。特定された光源を図27(b)のように消灯することで、瞳孔像の検出を妨げるゴーストを消し、瞳孔像の検出精度を向上することができる。
As shown in FIG. 25 (b), both the head and the
<カメラ動作の説明>
実施例5に係るカメラ動作について、図29のフローチャートに従って説明する。ここでは、眼画像の中心と眼画像における瞳孔像の位置との差が所定の閾値よりも大きいという第1条件を用いた方法で斜め覗き込み状態を検出する例を説明するが、第2条件を用いた方法など他の方法で斜め覗き込み状態を検出してもよい。カメラ1の電源がONされると、図29のカメラ動作が開始する。
<Explanation of camera operation>
The camera operation according to the fifth embodiment will be described with reference to the flowchart of FIG. Here, an example of detecting an oblique looking state by a method using the first condition that the difference between the center of the eye image and the position of the pupil image in the eye image is larger than a predetermined threshold value will be described. The oblique peeping state may be detected by another method such as the method using. When the power of the
ステップS2901〜S2905,S2908〜S2925の処理は、それぞれ、図12(実施例1)のステップS1201〜S1205,S1207〜S1214の処理と同じである。 The processes of steps S2901 to S2905 and S2908 to S2925 are the same as the processes of steps S1201 to S1205 and S1207 to S1214 of FIG. 12 (Example 1), respectively.
斜め覗き込み状態が検出されたステップS2906では、CPU3は、眼画像における瞳孔像の移動方向から覗き込み方向(頭部や眼鏡)を特定して、消灯すべき光源を特定する。消灯すべき光源を特定した後、ステップS2907に進む。
In step S2906 in which the oblique peeping state is detected, the
ステップS2906の処理の具体例を説明する。図30(a)の眼画像では瞳孔像が所定範囲から紙面右方向に移動している。この場合は、頭部をX軸正方向に並進移動させた斜め覗き込み状態、つまり図25(b)に示す状態であると判定できる。さらに、頭部や眼鏡の傾き方向が、図25(b)の紙面時計回りの方向であることが判定できる。そして、眼鏡の傾き方向から、消灯すべき光源を特定できる。 A specific example of the process of step S2906 will be described. In the eye image of FIG. 30A, the pupil image is moving from a predetermined range to the right of the paper surface. In this case, it can be determined that the head is translated in the positive direction of the X-axis to look diagonally, that is, the state shown in FIG. 25 (b). Further, it can be determined that the tilting direction of the head and the glasses is the clockwise direction of the paper in FIG. 25 (b). Then, the light source to be turned off can be specified from the tilting direction of the glasses.
図30(b)の眼球像では、図30(a)とは逆に、瞳孔像が所定範囲から紙面左方向に移動している。この場合は、頭部をX軸負方向に並進移動させた斜め覗き込み状態、つまり図25(c)に示す状態であると判定できる。さらに、頭部や眼鏡の傾き方向が、図25(c)の紙面半時計回りの方向であることが判定できる。そして、眼鏡の傾き方向から、消灯すべき光源を特定できる。 In the eyeball image of FIG. 30B, contrary to FIG. 30A, the pupil image is moving from a predetermined range to the left of the paper. In this case, it can be determined that the head is translated in the negative direction of the X-axis to look diagonally, that is, the state shown in FIG. 25 (c). Further, it can be determined that the tilting direction of the head and the glasses is the counterclockwise direction on the paper surface of FIG. 25 (c). Then, the light source to be turned off can be specified from the tilting direction of the glasses.
ステップS2907では、CPU3は、ステップS2906で特定した光源を消灯する。そして、ステップS2903の視線検出動作に戻る。ステップS2905〜S2907を経てステップS2903に戻った場合には、複数の光源の内、ステップS2907で消灯した光源以外の光源を用いて、視線検出動作が行われる。このため、瞳孔像の検出を妨げるゴーストが無い状態で、高精度に視線を検出することができる。
In step S2907, the
<まとめ>
以上述べたように、実施例5によれば、斜め覗き込み状態の検出結果に基づいて、複数の光源のうち、眼画像の中央付近でのゴースト発生の原因となる光源を選択して消灯することができる。これにより、眼画像の中央付近でのゴースト発生を抑制して、視線の検出精度を向上することができる。
<Summary>
As described above, according to the fifth embodiment, the light source that causes ghost generation near the center of the eye image is selected from the plurality of light sources and turned off based on the detection result of the oblique looking state. be able to. As a result, it is possible to suppress the occurrence of ghosts near the center of the eye image and improve the detection accuracy of the line of sight.
なお、実施例1〜5はあくまで一例であり、本発明の要旨の範囲内で実施例1〜5の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。実施例1〜5の構成を適宜組み合わせて得られる構成も、本発明に含まれる。 It should be noted that Examples 1 to 5 are merely examples, and the present invention also includes configurations obtained by appropriately modifying or changing the configurations of Examples 1 to 5 within the scope of the gist of the present invention. A configuration obtained by appropriately combining the configurations of Examples 1 to 5 is also included in the present invention.
また、カメラのファインダを例に挙げたが、これに限られない。例えば、VR(仮想現実)等を体感するために頭部に装着されるHMD(ヘッドマウントディスプレイ)において視線検出を行う場合に、本発明を用いて、頭部(眼球)に対してHMDがずれた視認状態を検知することができる。このような視認状態は、不慣れなユーザーがHMDを装着した場合に発生したり、HMDの装着後のユーザーの動きによって発生したりする。同様に、AR(拡張現実)グラス等のメガネ型の視線検出装置にも本発明は適用可能である。視野を制限する接眼窓枠やメガネ枠等の眼窓枠を通して視認用画像を見る眼を撮像した眼画像を取得可能であり、取得した眼画像を用いて視点を推定する全ての電子機器に対して、本発明は適用可能である。 In addition, the finder of the camera is taken as an example, but the present invention is not limited to this. For example, when performing line-of-sight detection on an HMD (head-mounted display) worn on the head to experience VR (virtual reality) or the like, the HMD shifts with respect to the head (eyeball) using the present invention. It is possible to detect the visible state. Such a visual state may occur when an unfamiliar user wears the HMD, or may occur due to the movement of the user after wearing the HMD. Similarly, the present invention can be applied to a glasses-type line-of-sight detection device such as an AR (augmented reality) glass. It is possible to acquire an eye image of an eye that sees a visual image through an eyepiece window frame such as an eyepiece window frame or a spectacle frame that limits the visual field, and for all electronic devices that estimate the viewpoint using the acquired eye image. Therefore, the present invention is applicable.
以上述べたように、実施例1〜5によれば、カメラ、HMD,メガネ型の視線検出装置において、使用者が主として頭部の並進移動や頭部の傾きを伴って、斜め方向から画面を覗き込んでいる視認状態を、簡易な構成で検知する電子機器を提供できる。さらに、斜め覗き込み状態の検知結果に基づいて画像表示範囲を決定するという簡易な構成で斜め覗き込み状態を解消する電子機器を提供できる。また、斜め覗き込み状態における眼鏡などの光学部材の傾きの検出結果に基づいて光源を好適に消灯することで、各種検出の精度を改善する電子機器を提供できる As described above, according to the first to fifth embodiments, in the camera, the HMD, and the eyeglass-type eye-gaze detection device, the user mainly involves the translational movement of the head and the tilt of the head, and the screen is viewed from an oblique direction. It is possible to provide an electronic device that detects the visual state of looking into it with a simple configuration. Further, it is possible to provide an electronic device that eliminates the oblique looking state by a simple configuration in which the image display range is determined based on the detection result of the oblique looking state. Further, by appropriately turning off the light source based on the detection result of the inclination of the optical member such as eyeglasses in the oblique looking state, it is possible to provide an electronic device that improves the accuracy of various detections.
<その他の実施例>
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Examples>
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
1:カメラ 3:CPU 1: Camera 3: CPU
Claims (24)
前記眼画像に基づいて、前記画面における前記眼の視点を推定する第1推定手段と、
前記眼画像における瞳孔像またはプルキニエ像の位置に基づいて、前記眼画像において前記眼が前記画面の中心に対応する位置からずれたずれ視認状態を検知する検知手段と、を有することを特徴とする電子機器。 An electronic device capable of acquiring an eye image of an eye looking at the screen of a display means through an eye window frame.
A first estimation means for estimating the viewpoint of the eye on the screen based on the eye image,
Based on the position of the pupil image or the Purkinje image in the eye image, it is characterized by having a detecting means for detecting a deviation visual state in which the eye is deviated from a position corresponding to the center of the screen in the eye image. Electronics.
ことを特徴とする請求項1に記載の電子機器。 The detection means determines a state in which a predetermined condition including a condition that the difference between the position of the pupil image or the Purkinje image and the position corresponding to the center of the screen is larger than a predetermined threshold value is satisfied. The electronic device according to claim 1, wherein the electronic device is detected as.
前記画面の中心に対応する前記位置は、前記接眼光学系の光軸に対応する位置である
ことを特徴とする請求項1または2に記載の電子機器。 The screen can be viewed through the eye window frame and the eyepiece optical system.
The electronic device according to claim 1 or 2, wherein the position corresponding to the center of the screen is a position corresponding to the optical axis of the eyepiece optical system.
ことを特徴とする請求項1〜3のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 3, further comprising the display means, the eye window frame, and an imaging means for imaging the eye.
前記検知手段は、前記眼画像において、前記画面の中心に対応する前記位置から瞳孔像またはプルキニエ像に向かう方向が、前記画面の中心に対応する前記位置から前記指標が表示された位置に対応する位置に向かう方向に対して反対であるという条件を含む所定の条件が満たされた状態を、前記ずれ視認状態として検知する
ことを特徴とする請求項1〜4のいずれか1項に記載の電子機器。 On the screen, the index to be seen by the eye is displayed while changing the position of the index.
In the eye image, the direction from the position corresponding to the center of the screen toward the pupil image or Purkinje image corresponds to the position where the index is displayed from the position corresponding to the center of the screen. The electron according to any one of claims 1 to 4, wherein a state in which a predetermined condition including a condition opposite to the direction toward the position is satisfied is detected as the shift visual state. machine.
前記複数の指標は、前記画面の中心を挟む2つの指標を含み、
前記検知手段は、前記2つの指標の一方を見た場合と他方を見た場合との間で、前記画面の中心に対応する前記位置から前記瞳孔像または前記プルキニエ像に向かう方向が反対であるという条件を含む所定の条件が満たされた状態を、前記ずれ視認状態として検知する
ことを特徴とする請求項1〜5のいずれか1項に記載の電子機器。 On the screen, a plurality of indicators to be seen by the eyes are displayed.
The plurality of indicators include two indicators that sandwich the center of the screen.
The detection means has opposite directions from the position corresponding to the center of the screen toward the pupil image or the Purkinje image between the case where one of the two indexes is viewed and the case where the other is viewed. The electronic device according to any one of claims 1 to 5, wherein a state in which a predetermined condition including the above condition is satisfied is detected as the shift visual state.
ことを特徴とする請求項1〜6のいずれか1項に記載の電子機器。 The electron according to any one of claims 1 to 6, wherein the detection means detects the deviation visual state during a calibration operation for obtaining a parameter used for estimating the viewpoint. machine.
ことを特徴とする請求項1〜7のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 7, further comprising a processing means for performing a predetermined process when the misaligned visual state is detected.
ことを特徴とする請求項8に記載の電子機器。 The electronic device according to claim 8, wherein the predetermined process is a process for urging the user to eliminate the misaligned visual state.
ことを特徴とする請求項8または9に記載の電子機器。 The electronic device according to claim 8 or 9, wherein the predetermined processing is a predetermined notification.
ことを特徴とする請求項8または9に記載の電子機器。 The electronic device according to claim 8 or 9, wherein the predetermined process is a reduction of an image to be displayed on the screen.
前記所定の処理は、前記指標の位置を前記画面の中心に近づける処理である
ことを特徴とする請求項8または9に記載の電子機器。 On the screen, the index to be seen by the eye is displayed.
The electronic device according to claim 8 or 9, wherein the predetermined process is a process of bringing the position of the index closer to the center of the screen.
ことを特徴とする請求項8または9に記載の電子機器。 Claim 8 or 9 is characterized in that the predetermined process is a process of determining an image display range, which is a range for displaying an image in the screen, based on a shift visual state detected by the detection means. Electronic equipment described in.
前記画面のうち、前記ずれ視認状態が検知されることなく前記眼で前記指標を見ることのできる複数の位置の範囲を、前記ずれ視認状態が検知されない状態での視野範囲として推定する第2推定手段と、
をさらに有し、
前記処理手段は、前記第2推定手段によって推定された前記視野範囲に基づいて前記画像表示範囲を決定する
ことを特徴とする請求項13に記載の電子機器。 A control means for controlling the index to be seen by the eye so as to be displayed on the screen while changing the position of the index.
A second estimation of the screen, in which a range of a plurality of positions where the index can be seen by the eye without detecting the shift visual state is estimated as a visual field range in a state where the shift visual state is not detected. Means and
Have more
The electronic device according to claim 13, wherein the processing means determines the image display range based on the field of view range estimated by the second estimation means.
ことを特徴とする請求項14に記載の電子機器。 The electronic device according to claim 14, wherein the index is an index for a calibration operation for obtaining a parameter used for estimating the viewpoint.
ことを特徴とする請求項14または15に記載の電子機器。 The electronic device according to claim 14 or 15, wherein the processing means determines at least a part of the visual field range as the image display range.
ことを特徴とする請求項14または15に記載の電子機器。 The electronic device according to claim 14 or 15, wherein the processing means determines the image display range so that the image display range moves including at least a part of the field of view.
ことを特徴とする請求項14〜17のいずれか1項に記載の電子機器。 After displaying the index on the edge of the screen, the control means controls the plurality of sides of the screen so that the index is brought closer to the center of the screen until the deviation visual state is no longer detected. The electronic device according to any one of claims 14 to 17, which is characteristic.
前記検知手段で検知されたずれ視認状態に基づいて、前記眼窓枠と前記眼との間に位置する光学部材の、前記ずれ視認状態が検知されない状態からの傾き方向を検知し、
検知した傾き方向に応じて、前記眼を照明する複数の光源の一部を消灯する
という処理である
ことを特徴とする請求項8に記載の電子機器。 The predetermined process is
Based on the deviation visual recognition state detected by the detection means, the tilt direction of the optical member located between the eye window frame and the eye is detected from the state in which the deviation visual observation state is not detected.
The electronic device according to claim 8, further comprising a process of turning off a part of the plurality of light sources that illuminate the eyes according to the detected tilt direction.
ことを特徴とする請求項19に記載の電子機器。 The electronic device according to claim 19, wherein the processing means detects the tilting direction based on the position of the pupil image or the Purkinje image in the eye image in the shifted visual state detected by the detecting means. ..
前記処理手段は、2つ以上の光源が点灯するように1つ以上の光源を消灯する
ことを特徴とする請求項19または20に記載の電子機器。 The plurality of light sources are three or more light sources provided at three or more positions deviated from the optical axis of the eyepiece optical system provided on the eye window frame.
The electronic device according to claim 19 or 20, wherein the processing means turns off one or more light sources so that the two or more light sources turn on.
前記眼画像に基づいて、前記画面における前記眼の視点を推定するステップと、
前記眼画像における瞳孔像またはプルキニエ像の位置に基づいて、前記眼画像において前記眼が前記画面の中心に対応する位置からずれたずれ視認状態を検知するステップと、を有することを特徴とする制御方法。 It is a control method of an electronic device capable of acquiring an eye image obtained by capturing an image of an eye viewing the screen of a display means through an eye window frame.
A step of estimating the viewpoint of the eye on the screen based on the eye image, and
A control characterized by having a step of detecting a deviation visual state in which the eye deviates from a position corresponding to the center of the screen in the eye image based on the position of a pupil image or a Purkinje image in the eye image. Method.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/945,027 US11650660B2 (en) | 2019-08-02 | 2020-07-31 | Electronic device, control method, and non-transitory computer readable medium |
CN202010759782.2A CN112306229A (en) | 2019-08-02 | 2020-07-31 | Electronic apparatus, control method, and computer-readable medium |
EP20188840.1A EP3771967A3 (en) | 2019-08-02 | 2020-07-31 | Electronic device, control method, and computer readable medium |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019143077 | 2019-08-02 | ||
JP2019143077 | 2019-08-02 | ||
JP2019187540 | 2019-10-11 | ||
JP2019187540 | 2019-10-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021064928A true JP2021064928A (en) | 2021-04-22 |
JP2021064928A5 JP2021064928A5 (en) | 2023-04-17 |
Family
ID=75486604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020070176A Pending JP2021064928A (en) | 2019-08-02 | 2020-04-09 | Electronic device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021064928A (en) |
-
2020
- 2020-04-09 JP JP2020070176A patent/JP2021064928A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3309615B2 (en) | Image observation apparatus and binocular image observation apparatus using the same | |
JP2003521950A (en) | Eye tracking system | |
EP3771967A2 (en) | Electronic device, control method, and computer readable medium | |
JP2024003037A (en) | Electronic apparatus, method for controlling electronic apparatus, program, and storage medium | |
JP2021170699A (en) | Electronic device | |
US11822714B2 (en) | Electronic device and control method for capturing an image of an eye | |
US11829052B2 (en) | Gaze detection apparatus, gaze detection method, and non-transitory computer readable medium | |
JP2021064928A (en) | Electronic device | |
JPH10307314A (en) | Observation optical device | |
US20230224561A1 (en) | Display apparatus, finder apparatus, and imaging apparatus | |
JPH10179520A (en) | Visual axis detecting method and device, and storage medium | |
JP7485426B1 (en) | Head-mounted imaging device and line-of-sight image adjustment method | |
JP7446898B2 (en) | Electronics | |
US20240114228A1 (en) | Line-of-sight detecting apparatus, image pickup apparatus, line-of-sight detecting method, and storage medium | |
JP2023087377A (en) | Visual line detection device | |
US20230393655A1 (en) | Electronic apparatus | |
JP2021182736A (en) | Electronic apparatus | |
JP2022171084A (en) | Imaging device, control method of the same and program | |
JP2022124778A (en) | Electronic apparatus | |
JP2023069526A (en) | Electronic device and control method and program for the same | |
JP2018033055A (en) | Imaging apparatus | |
JP2023063023A (en) | Electronic device and control method for the same | |
JP2023045131A (en) | Detection device, control method and program | |
JP2022183552A (en) | Visual line information acquisition device, imaging device, visual line information acquisition method, program, and storage medium | |
JP2023040887A (en) | Personal authentication device, personal authentication method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230406 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240326 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240510 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240604 |