JP2021064928A - Electronic device - Google Patents

Electronic device Download PDF

Info

Publication number
JP2021064928A
JP2021064928A JP2020070176A JP2020070176A JP2021064928A JP 2021064928 A JP2021064928 A JP 2021064928A JP 2020070176 A JP2020070176 A JP 2020070176A JP 2020070176 A JP2020070176 A JP 2020070176A JP 2021064928 A JP2021064928 A JP 2021064928A
Authority
JP
Japan
Prior art keywords
image
eye
state
screen
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020070176A
Other languages
Japanese (ja)
Other versions
JP2021064928A5 (en
Inventor
武志 内田
Takeshi Uchida
武志 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/945,027 priority Critical patent/US11650660B2/en
Priority to CN202010759782.2A priority patent/CN112306229A/en
Priority to EP20188840.1A priority patent/EP3771967A3/en
Publication of JP2021064928A publication Critical patent/JP2021064928A/en
Publication of JP2021064928A5 publication Critical patent/JP2021064928A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide a technology that makes it possible to detect a situation in which a viewpoint cannot be estimated with high accuracy using a simple configuration.SOLUTION: An electronic device capable of acquiring an eye image obtained by capturing an eye looking at a screen of display means through an eye window frame includes estimation means for estimating a viewpoint of the eye on the screen based on the eye image, and detection means for detecting a misaligned viewing state in which the eye is displaced from a position corresponding to a center of the screen in the eye image based on a position of a pupil image or a Purkinje image in the eye image.SELECTED DRAWING: Figure 12

Description

本発明は、視点を推定(検知)可能な電子機器に関する。 The present invention relates to an electronic device capable of estimating (detecting) a viewpoint.

近年、カメラの自動化・インテリジェント化が進んでいる。特許文献1では、手動で被写体位置を入力せずとも、ファインダを覗く撮影者の視点(視線位置)の情報に基づいて、撮影者が意図する被写体を認識し、焦点制御を行う技術が提案されている。特許文献2では、眼球の回転角度に加えて、頭部の回転角度や位置を考慮することで、視点の検出精度を向上させる技術が提案されている。特許文献3では、複数の眼球照明を有し、眼球照明からの光がユーザーの眼球に届いているか否かの判定結果に応じて、使用する眼球照明を切り替えて、注視点検出を行う技術が提案されている。特許文献4では、ファインダ内の表示デバイスにおける画像表示範囲(画像を表示する範囲)を切り替える技術が提案されている。 In recent years, cameras have become more automated and intelligent. Patent Document 1 proposes a technique of recognizing a subject intended by the photographer and performing focus control based on information of the photographer's viewpoint (line-of-sight position) looking into the finder without manually inputting the subject position. ing. Patent Document 2 proposes a technique for improving the detection accuracy of a viewpoint by considering the rotation angle and position of the head in addition to the rotation angle of the eyeball. In Patent Document 3, there is a technique of having a plurality of eyeball illuminations and switching the eyeball illuminations to be used according to a determination result of whether or not the light from the eyeball illuminations reaches the user's eyeballs to detect the gaze point. Proposed. Patent Document 4 proposes a technique for switching an image display range (range for displaying an image) in a display device in a finder.

特開2004−8323号公報Japanese Unexamined Patent Publication No. 2004-8323 特開2009−104524号公報JP-A-2009-104524 特表2018−506781号公報Special Table 2018-506781 特開2014−64094号公報Japanese Unexamined Patent Publication No. 2014-64094

特許文献1の技術では、ユーザー(撮影者)の眼を撮像した眼画像における瞳孔像やプルキニエ像の位置に基づいて眼球の回転角度を検出することで、ユーザーの視点を推定(検出)している。しかしながら、ユーザーがファインダに対して顔をずらすなどして頭部が大きく並進移動すると、それに伴い、眼画像における瞳孔像とプルキニエ像も大きく並進移動してしまうため、視点を高精度に推定できない。 In the technique of Patent Document 1, the user's viewpoint is estimated (detected) by detecting the rotation angle of the eyeball based on the position of the pupil image or the Purkinje image in the eye image obtained by capturing the user's (photographer's) eye. There is. However, if the user shifts his / her face with respect to the finder and the head moves greatly in translation, the pupil image and Purkinje image in the eye image also move in translation significantly, so that the viewpoint cannot be estimated with high accuracy.

特許文献2の技術では、眼だけでなく顔全体を撮像し、顔の特徴点から頭部の位置や傾きを検出して、眼球の回転角度に加えて、頭部の位置や傾きを考慮することで、視点の推定精度を向上させている。しかしながら、顔全体(頭部全体)を撮像する構成が必要となり、装置の複雑化や高コスト化をまねいてしまう。さらに、ユーザーがカメラのファインダを覗き込んだ状態や、VRグラス(VRゴーグル)を装着した状態等の、頭部が隠れて撮像できない状態では、視点の推定精度を向上できない。 In the technique of Patent Document 2, not only the eyes but the entire face is imaged, the position and inclination of the head are detected from the feature points of the face, and the position and inclination of the head are considered in addition to the rotation angle of the eyeball. This improves the estimation accuracy of the viewpoint. However, it is necessary to have a configuration in which the entire face (entire head) is imaged, which leads to complicated equipment and high cost. Further, the estimation accuracy of the viewpoint cannot be improved when the head is hidden and the image cannot be taken, such as when the user looks into the finder of the camera or when the VR glasses (VR goggles) are worn.

特許文献3の技術では、使用する眼球照明を状況によって切り替えて注視点検出を行っている。しかしながら、眼球照明に起因したゴーストが眼画像に写り込むことで、視点を高精度に推定できないことがある。 In the technique of Patent Document 3, the gaze point detection is performed by switching the eyeball illumination to be used depending on the situation. However, the viewpoint may not be estimated with high accuracy because the ghost caused by the eyeball illumination is reflected in the eye image.

特許文献4の技術では、視点の推定のためではなく、省電力のために、表示デバイスにおける画像表示範囲が通常時から狭められる。このため、視点の推定時に、適切な範囲に画像表示範囲が切り替えられず、視点を高精度に推定できないことがある。 In the technique of Patent Document 4, the image display range in the display device is narrowed from the normal time not for estimating the viewpoint but for power saving. Therefore, when estimating the viewpoint, the image display range may not be switched to an appropriate range, and the viewpoint may not be estimated with high accuracy.

本発明は、視点の推定が高精度に行えない状態を簡易な構成で検知可能にする技術を提供することを目的とする。 An object of the present invention is to provide a technique capable of detecting a state in which the viewpoint cannot be estimated with high accuracy with a simple configuration.

本発明の第1の態様は、表示手段の画面を眼窓枠を通して見る眼を撮像した眼画像を取得可能な電子機器であって、前記眼画像に基づいて、前記画面における前記眼の視点を推定する推定手段と、前記眼画像における瞳孔像またはプルキニエ像の位置に基づいて、前記眼画像において前記眼が前記画面の中心に対応する位置からずれたずれ視認状態を検知する検知手段と、を有することを特徴とする電子機器である。 A first aspect of the present invention is an electronic device capable of acquiring an eye image obtained by capturing an image of an eye viewing the screen of a display means through an eye window frame, and based on the eye image, the viewpoint of the eye on the screen can be obtained. An estimation means for estimating and a detection means for detecting a deviation visual state in which the eye deviates from the position corresponding to the center of the screen in the eye image based on the position of the pupil image or the Pulkinier image in the eye image. It is an electronic device characterized by having.

本発明の第2の態様は、表示手段の画面を眼窓枠を通して見る眼を撮像した眼画像を取得可能な電子機器の制御方法であって、前記眼画像に基づいて、前記画面における前記眼の視点を推定するステップと、前記眼画像における瞳孔像またはプルキニエ像の位置に基づいて、前記眼画像において前記眼が前記画面の中心に対応する位置からずれたずれ視認状態を検知するステップと、を有することを特徴とする制御方法である。 A second aspect of the present invention is a control method for an electronic device capable of acquiring an eye image obtained by capturing an image of an eye viewing a screen of a display means through an eye window frame, and based on the eye image, the eye on the screen. A step of estimating the viewpoint of the eye, and a step of detecting a visual state in which the eye deviates from the position corresponding to the center of the screen in the eye image based on the position of the pupil image or the Pulkinier image in the eye image. It is a control method characterized by having.

本発明の第3の態様は、コンピュータを上述した電子機器の各手段として機能させるためのプログラムである。本発明の第4の態様は、コンピュータを上述した電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体である。 A third aspect of the present invention is a program for making a computer function as each means of the above-mentioned electronic device. A fourth aspect of the present invention is a computer-readable recording medium that stores a program for making a computer function as each means of the above-mentioned electronic devices.

本発明によれば、視点の推定が高精度に行えない状態が簡易な構成で検知可能となる。 According to the present invention, it is possible to detect a state in which the viewpoint cannot be estimated with high accuracy with a simple configuration.

実施例1に係るカメラの外観図である。It is an external view of the camera which concerns on Example 1. FIG. 実施例1に係るカメラの断面図である。It is sectional drawing of the camera which concerns on Example 1. FIG. 実施例1に係る虚像が結像される様子を示す図である。It is a figure which shows the state that the virtual image which concerns on Example 1 is formed. 実施例1に係るカメラのブロック図である。It is a block diagram of the camera which concerns on Example 1. FIG. 実施例1に係るファインダ内視野を示す図である。It is a figure which shows the field of view in the finder which concerns on Example 1. FIG. 実施例1に係る視野検出方法の原理を説明するための図である。It is a figure for demonstrating the principle of the visual field detection method which concerns on Example 1. FIG. 実施例1に係る眼画像を示す図である。It is a figure which shows the eye image which concerns on Example 1. FIG. 実施例1に係る視線検出動作のフローチャートである。It is a flowchart of the line-of-sight detection operation which concerns on Example 1. FIG. 実施例1に係る視認状態を示す図である。It is a figure which shows the visual state which concerns on Example 1. FIG. 実施例1に係る斜め覗き込み状態を示す図である。It is a figure which shows the oblique peep state which concerns on Example 1. FIG. 実施例1に係る眼画像を示す図である。It is a figure which shows the eye image which concerns on Example 1. FIG. 実施例1に係るカメラ動作のフローチャートである。It is a flowchart of the camera operation which concerns on Example 1. FIG. 実施例2に係る指標を示す図である。It is a figure which shows the index which concerns on Example 2. FIG. 実施例2に係る画像表示を示す図である。It is a figure which shows the image display which concerns on Example 2. FIG. 実施例2に係る視認状態を示す図である。It is a figure which shows the visual state which concerns on Example 2. FIG. 実施例2に係るカメラ動作のフローチャートである。It is a flowchart of the camera operation which concerns on Example 2. FIG. 実施例3に係る画像表示を示す図である。It is a figure which shows the image display which concerns on Example 3. FIG. 実施例3に係る視認状態を示す図である。It is a figure which shows the visual state which concerns on Example 3. FIG. 実施例4に係るカメラ動作のフローチャートである。It is a flowchart of the camera operation which concerns on Example 4. FIG. 実施例5に係るカメラの背面斜視図である。It is a rear perspective view of the camera which concerns on Example 5. FIG. 実施例5に係るカメラの断面図である。It is sectional drawing of the camera which concerns on Example 5. FIG. 実施例5に係る視認状態を示す図である。It is a figure which shows the visual state which concerns on Example 5. FIG. 実施例5に係るカメラのブロック図である。It is a block diagram of the camera which concerns on Example 5. FIG. 実施例5に係る眼画像を示す図である。It is a figure which shows the eye image which concerns on Example 5. FIG. 実施例5に係る視認状態を示す図である。It is a figure which shows the visual state which concerns on Example 5. FIG. 実施例5に係るゴースト発生原理を示す図である。It is a figure which shows the ghost generation principle which concerns on Example 5. 実施例5に係る眼画像を示す図である。It is a figure which shows the eye image which concerns on Example 5. FIG. 実施例5に係るカメラの背面斜視図である。It is a rear perspective view of the camera which concerns on Example 5. FIG. 実施例5に係るカメラ動作のフローチャートである。It is a flowchart of the camera operation which concerns on Example 5. 実施例5に係る眼画像を示す図である。It is a figure which shows the eye image which concerns on Example 5. FIG.

前述したように、従来技術では眼画像における瞳孔像とプルキニエ像が大きく並進移動する場合などでは、視点(視線位置)を高精度に推定できない。特に、眼鏡を着用しているユーザー等がカメラのファインダを覗き込む場合は、ファインダへ眼球が十分に近づけられないことが多く、視点を高精度に推定できないことが多い。具体的には、ファインダへ眼球が十分に近づけられていない状態では、ファインダの接眼窓枠等に視線が遮られて、ファインダ内で視認できる範囲が限定され、ファインダを正面から覗き込んだ際にファインダ内の画面の端部が見えないことがある。そのような場合に、ユーザーは、端部を見ようとするが故に、ファインダの正面から頭部を大きく並進移動させ、斜めからファインダを覗き込む傾向がある。斜めからファインダを覗き込む場合における頭部の並進移動の距離は、カメラを通常(メーカー推奨)の使用方法で使用する場合に比べて格段に大きいため、視点の推定結果に無視できない誤差が発生する。 As described above, in the prior art, the viewpoint (line-of-sight position) cannot be estimated with high accuracy when the pupil image and the Purkinje image in the eye image move greatly in translation. In particular, when a user wearing eyeglasses looks into the finder of the camera, the eyeball is often not sufficiently close to the finder, and the viewpoint cannot be estimated with high accuracy in many cases. Specifically, when the eyeball is not sufficiently close to the finder, the line of sight is blocked by the eyepiece window frame of the finder, etc., and the visible range in the finder is limited. You may not be able to see the edges of the screen in the finder. In such a case, the user tends to make a large translational movement of the head from the front of the finder and look into the finder from an angle because he / she tries to see the end portion. Since the translational movement distance of the head when looking into the finder from an angle is much larger than when the camera is used in the normal (manufacturer's recommended) usage method, a non-negligible error occurs in the viewpoint estimation result. ..

そこで本発明では、検出される瞳孔像とプルキニエ像とに基づいて、ユーザーがファインダを斜めから覗き込んだ斜め覗き込み状態を検知し、斜め覗き込み状態に起因する悪影響(視点検出における悪影響)を抑制する。 Therefore, in the present invention, based on the detected pupil image and Purkinje image, the user detects an oblique looking state in which the user looks into the finder from an angle, and adversely affects the adverse effect (adverse effect in viewpoint detection) caused by the oblique looking state. Suppress.

<<実施例1>>
以下、添付の図面を参照して本発明の実施例1について説明する。
<< Example 1 >>
Hereinafter, Example 1 of the present invention will be described with reference to the accompanying drawings.

<構成の説明>
図1(a),1(b)は、実施例1に係るカメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観を示す。図1(a)は正面斜視図であり、図1(b)は背面斜視図である。図1(a)に示すように、カメラ1は、撮影レンズユニット1A及びカメラ筐体1Bを有する。カメラ筐体1Bには、ユーザー(撮影者)からの撮像操作を受け付ける操作部材であるレリーズボタン5が配置されている。図1(b)に示すように、カメラ筐体1Bの背面には、カメラ筐体1B内に含まれている後述の表示デバイス10(表示パネル)をユーザーが覗き込むための接眼窓枠121と接眼レンズ12(接眼光学系)が配置されている。接眼窓枠121は接眼レンズ12を囲んでおり、接眼レンズ12に対して、カメラ筐体1Bの外側(背面側)に突出している。なお、接眼光学系には複数枚のレンズが含まれていてもよい。カメラ筐体1Bの背面には、ユーザーからの各種操作を受け付ける操作部材41〜43も配置されている。例えば、操作部材41はタッチ操作を受け付けるタッチパネルであり、操作部材42は各方向に押し倒し可能な操作レバーであり、操作部材43は4方向のそれぞれに押し込み可能な4方向キーである。操作部材41(タッチパネル)は、液晶パネル等の表示パネルを備えており、表示パネルで画像を表示する機能を有する。
<Explanation of configuration>
1 (a) and 1 (b) show the appearance of the camera 1 (digital still camera; interchangeable lens camera) according to the first embodiment. FIG. 1A is a front perspective view, and FIG. 1B is a rear perspective view. As shown in FIG. 1A, the camera 1 has a photographing lens unit 1A and a camera housing 1B. A release button 5 which is an operation member for receiving an imaging operation from a user (photographer) is arranged on the camera housing 1B. As shown in FIG. 1B, on the back surface of the camera housing 1B, there is an eyepiece window frame 121 for the user to look into the display device 10 (display panel) described later contained in the camera housing 1B. An eyepiece lens 12 (eyepiece optical system) is arranged. The eyepiece window frame 121 surrounds the eyepiece lens 12 and projects to the outside (rear side) of the camera housing 1B with respect to the eyepiece lens 12. The eyepiece optical system may include a plurality of lenses. On the back surface of the camera housing 1B, operating members 41 to 43 that receive various operations from the user are also arranged. For example, the operation member 41 is a touch panel that accepts touch operations, the operation member 42 is an operation lever that can be pushed down in each direction, and the operation member 43 is a four-direction key that can be pushed in each of the four directions. The operation member 41 (touch panel) includes a display panel such as a liquid crystal panel, and has a function of displaying an image on the display panel.

図2は、図1(a)に示したY軸とZ軸が成すYZ平面でカメラ1を切断した断面図であり、カメラ1の大まかな内部構成を示す。 FIG. 2 is a cross-sectional view of the camera 1 cut along the YZ plane formed by the Y-axis and the Z-axis shown in FIG. 1A, and shows a rough internal configuration of the camera 1.

撮影レンズユニット1A内には、2枚のレンズ101,102、絞り111、絞り駆動部112、レンズ駆動モーター113、レンズ駆動部材114、フォトカプラー115、パルス板116、マウント接点117、焦点調節回路118等が含まれている。レンズ駆動部材114は駆動ギヤ等からなり、フォトカプラー115は、レンズ駆動部材114に連動するパルス板116の回転を検知して、焦点調節回路118に伝える。焦点調節回路118は、フォトカプラー115からの情報と、カメラ筐体1Bからの情報(レンズ駆動量の情報)とに基づいてレンズ駆動モーター113を駆動し、レンズ101を移動させて
合焦位置を変更する。マウント接点117は、撮影レンズユニット1Aとカメラ筐体1Bとのインターフェイスである。なお、簡単のために2枚のレンズ101,102を示したが、実際は2枚より多くのレンズが撮影レンズユニット1A内に含まれている。
In the photographing lens unit 1A, two lenses 101, 102, an aperture 111, an aperture drive unit 112, a lens drive motor 113, a lens drive member 114, a photo coupler 115, a pulse plate 116, a mount contact 117, and a focus adjustment circuit 118. Etc. are included. The lens drive member 114 is composed of a drive gear or the like, and the photocoupler 115 detects the rotation of the pulse plate 116 linked to the lens drive member 114 and transmits the rotation to the focus adjustment circuit 118. The focus adjustment circuit 118 drives the lens drive motor 113 based on the information from the photo coupler 115 and the information from the camera housing 1B (lens drive amount information), and moves the lens 101 to adjust the focus position. change. The mount contact 117 is an interface between the photographing lens unit 1A and the camera housing 1B. Although two lenses 101 and 102 are shown for simplicity, more than two lenses are actually included in the photographing lens unit 1A.

カメラ筐体1B内には、撮像素子2、CPU3、メモリ部4、表示デバイス10、表示デバイス駆動回路11等が含まれている。撮像素子2は、撮影レンズユニット1Aの予定結像面に配置されている。CPU3は、マイクロコンピュータの中央処理部であり、カメラ1全体を制御する。メモリ部4は、撮像素子2により撮像された画像等を記憶する。表示デバイス10は、液晶等で構成されており、撮像された画像(被写体像)等を表示デバイス10の画面(表示面)に表示する。表示デバイス駆動回路11は、表示デバイス10を駆動する。 The camera housing 1B includes an image sensor 2, a CPU 3, a memory unit 4, a display device 10, a display device drive circuit 11, and the like. The image sensor 2 is arranged on the planned image plane of the photographing lens unit 1A. The CPU 3 is a central processing unit of the microcomputer and controls the entire camera 1. The memory unit 4 stores an image or the like captured by the image sensor 2. The display device 10 is composed of a liquid crystal or the like, and displays an captured image (subject image) or the like on the screen (display surface) of the display device 10. The display device drive circuit 11 drives the display device 10.

ユーザーは、接眼窓枠121と接眼レンズ12を通して、表示デバイス10の画面を見ることができる。具体的には、図3に示すように、接眼レンズ12により、表示デバイス10(画面)を拡大した虚像300が、接眼レンズ12から50cm〜2m程度離れた位置に結像される。図3では、接眼レンズ12から1m離れた位置に虚像300が結像されている。ユーザーは、接眼窓枠121内を覗き込むことで、この虚像300を視認することとなる。 The user can see the screen of the display device 10 through the eyepiece window frame 121 and the eyepiece lens 12. Specifically, as shown in FIG. 3, the eyepiece lens 12 forms a virtual image 300 in which the display device 10 (screen) is magnified at a position about 50 cm to 2 m away from the eyepiece lens 12. In FIG. 3, the virtual image 300 is formed at a position 1 m away from the eyepiece lens 12. The user can visually recognize the virtual image 300 by looking into the eyepiece window frame 121.

カメラ筐体1B内には、光源13a,13b、光分割器15、受光レンズ16、眼用撮像素子17等も含まれている。光源13a,13bは、光の角膜反射による反射像(角膜反射像)と瞳孔の関係から視線方向を検出するために従来から一眼レフカメラ等で用いられている光源であり、ユーザーの眼球14を照明するための光源である。具体的には、光源13a,13bは、ユーザーに対して不感の赤外光を発する赤外発光ダイオード等であり、接眼レンズ12の周りに配置されている。照明された眼球14の光学像(眼球像;光源13a,13bから発せられて眼球14で反射した反射光による像)は、接眼レンズ12を透過し、光分割器15で反射される。そして、眼球像は、受光レンズ16によって、CCD等の光電素子列を2次元的に配した眼用撮像素子17上に結像される。受光レンズ16は、眼球14の瞳孔と眼用撮像素子17を共役な結像関係に位置付けている。後述する所定のアルゴリズムにより、眼用撮像素子17上に結像された眼球像における角膜反射像の位置から、眼球14の視線方向(表示デバイス10の画面における視点)が検出される。 The camera housing 1B also includes light sources 13a and 13b, an optical divider 15, a light receiving lens 16, an eye image sensor 17, and the like. The light sources 13a and 13b are light sources conventionally used in a single-lens reflex camera or the like for detecting the line-of-sight direction from the relationship between the reflected image (corneal reflex image) due to the corneal reflex of light and the pupil, and the user's eyeball 14 It is a light source for illuminating. Specifically, the light sources 13a and 13b are infrared light emitting diodes or the like that emit infrared light that is insensitive to the user, and are arranged around the eyepiece lens 12. The optical image of the illuminated eyeball 14 (eyeball image; an image of reflected light emitted from the light sources 13a and 13b and reflected by the eyeball 14) passes through the eyepiece 12 and is reflected by the light divider 15. Then, the eyeball image is formed by the light receiving lens 16 on the eye image sensor 17 in which a array of photoelectric elements such as a CCD is two-dimensionally arranged. The light receiving lens 16 positions the pupil of the eyeball 14 and the image sensor 17 for the eye in a conjugate imaging relationship. The line-of-sight direction of the eyeball 14 (viewpoint on the screen of the display device 10) is detected from the position of the corneal reflex image in the eyeball image formed on the eye image sensor 17 by a predetermined algorithm described later.

図4は、カメラ1内の電気的構成を示すブロック図である。CPU3には、視線検出回路201、測光回路202、自動焦点検出回路203、信号入力回路204、表示デバイス駆動回路11、光源駆動回路205等が接続されている。また、CPU3は、撮影レンズユニット1A内に配置された焦点調節回路118と、撮影レンズユニット1A内の絞り駆動部112に含まれた絞り制御回路206とに、マウント接点117を介して信号を伝達する。CPU3に付随したメモリ部4は、撮像素子2および眼用撮像素子17からの撮像信号の記憶機能と、後述する視線の個人差を補正する視線補正パラメータの記憶機能とを有する。 FIG. 4 is a block diagram showing an electrical configuration in the camera 1. The line-of-sight detection circuit 201, the photometric circuit 202, the autofocus detection circuit 203, the signal input circuit 204, the display device drive circuit 11, the light source drive circuit 205, and the like are connected to the CPU 3. Further, the CPU 3 transmits a signal to the focus adjustment circuit 118 arranged in the photographing lens unit 1A and the aperture control circuit 206 included in the aperture drive unit 112 in the photographing lens unit 1A via the mount contact 117. To do. The memory unit 4 attached to the CPU 3 has a function of storing an image pickup signal from the image pickup element 2 and the eye image sensor 17, and a function of storing a line-of-sight correction parameter for correcting individual differences in the line of sight, which will be described later.

視線検出回路201は、眼用撮像素子17(CCD−EYE)上に眼球像が結像した状態での眼用撮像素子17の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU3に送信する。CPU3は、後述する所定のアルゴリズムに従って眼画像から視線検出に必要な特徴点を抽出し、特徴点の位置からユーザーの視線(表示デバイス10の画面における視点)を算出する。 The line-of-sight detection circuit 201 A / D-converts the output (eye image of the eye) of the eye image sensor 17 in a state where the eyeball image is formed on the eye image sensor 17 (CCD-EYE), and the eye image detection circuit 201 performs A / D conversion thereof. The result is transmitted to the CPU 3. The CPU 3 extracts feature points required for line-of-sight detection from the eye image according to a predetermined algorithm described later, and calculates the user's line of sight (viewpoint on the screen of the display device 10) from the positions of the feature points.

測光回路202は、測光センサの役割を兼ねた撮像素子2から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅、対数圧縮、A/D変換等を行い、その結果
を被写界輝度情報としてCPU3に送る。
The photometric circuit 202 performs amplification, logarithmic compression, A / D conversion, and the like of a signal obtained from the image sensor 2 that also serves as a photometric sensor, specifically, a luminance signal corresponding to the brightness of the field of view. The result is sent to the CPU 3 as the field brightness information.

自動焦点検出回路203は、撮像素子2におけるCCDの中に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU3に送る。CPU3は、複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。実施例1では、一例として、図5(a)のファインダ内視野像(表示デバイス10の画面)に示した180か所に対応する撮像面上の180か所のそれぞれに、焦点検出ポイントがあるとする。 The autofocus detection circuit 203 A / D-converts signal voltages from a plurality of detection elements (a plurality of pixels) used for phase difference detection included in the CCD in the image pickup element 2 and sends them to the CPU 3. .. The CPU 3 calculates the distance from the signals of the plurality of detection elements to the subject corresponding to each focus detection point. This is a known technique known as imaging surface phase-difference AF. In the first embodiment, as an example, there are focus detection points at each of the 180 locations on the imaging surface corresponding to the 180 locations shown in the field view image in the finder (screen of the display device 10) of FIG. 5 (a). And.

信号入力回路204には、レリーズボタン5の第1ストロークでONし、カメラ1の測光、測距、視線検出動作等を開始するためのスイッチSW1と、レリーズボタン5の第2ストロークでONし、撮影動作を開始するためのスイッチSW2が接続されている。スイッチSW1,SW2からのON信号が信号入力回路204に入力され、CPU3に送信される。 The signal input circuit 204 is turned on by the first stroke of the release button 5, and is turned on by the switch SW1 for starting the light measurement, distance measurement, line-of-sight detection operation, etc. of the camera 1 and the second stroke of the release button 5. The switch SW2 for starting the shooting operation is connected. The ON signals from the switches SW1 and SW2 are input to the signal input circuit 204 and transmitted to the CPU3.

図5(a)は、ファインダ内視野を示した図であり、表示デバイス10が動作した状態(画像を表示した状態)を示す。図5(a)に示すように、ファインダ内視野には、焦点検出領域500、180個の測距点指標501、視野マスク502等がある。180個の測距点指標501のそれぞれは、撮像面上における焦点検出ポイントに対応する位置に表示されるように、表示デバイス10に表示されたスルー画像(ライブビュー画像)に重ねて表示される。また、180個の測距点指標501のうち、現在の視点A(推定位置)に対応する測距点指標501は、枠等で強調されて表示される。 FIG. 5A is a view showing the field of view in the finder, and shows a state in which the display device 10 is operating (a state in which an image is displayed). As shown in FIG. 5A, the field of view in the finder includes a focus detection region 500, 180 AF point indexes 501, a field of view mask 502, and the like. Each of the 180 AF point indexes 501 is displayed superimposed on the through image (live view image) displayed on the display device 10 so as to be displayed at a position corresponding to the focus detection point on the imaging surface. .. Further, among the 180 AF point indexes 501, the AF point index 501 corresponding to the current viewpoint A (estimated position) is highlighted by a frame or the like and displayed.

<視線検出動作の説明>
図6,7(a),7(b),8を用いて、視線検出方法について説明する。図6は、視線検出方法の原理を説明するための図であり、視線検出を行うための光学系の概略図である。図6に示すように、光源13a,13bは受光レンズ16の光軸に対して略対称に配置され、ユーザーの眼球14を照らす。光源13a,13bから発せられて眼球14で反射した光の一部は、受光レンズ16によって、眼用撮像素子17に集光する。図7(a)は、眼用撮像素子17で撮像された眼画像(眼用撮像素子17に投影された眼球像)の概略図であり、図7(b)は眼用撮像素子17におけるCCDの出力強度を示す図である。図8は、視線検出動作の概略フローチャートを表す。
<Explanation of line-of-sight detection operation>
The line-of-sight detection method will be described with reference to FIGS. 6, 7 (a), 7 (b), and 8. FIG. 6 is a diagram for explaining the principle of the line-of-sight detection method, and is a schematic view of an optical system for performing line-of-sight detection. As shown in FIG. 6, the light sources 13a and 13b are arranged substantially symmetrically with respect to the optical axis of the light receiving lens 16 and illuminate the user's eyeball 14. A part of the light emitted from the light sources 13a and 13b and reflected by the eyeball 14 is focused on the eye image sensor 17 by the light receiving lens 16. FIG. 7A is a schematic view of an eye image (eyeball image projected on the eye image sensor 17) captured by the eye image sensor 17, and FIG. 7B is a CCD in the eye image sensor 17. It is a figure which shows the output intensity of. FIG. 8 shows a schematic flowchart of the line-of-sight detection operation.

視線検出動作が開始すると、図8のステップS801で、光源13a,13bは、ユーザーの眼球14に向けて赤外光を発する。赤外光によって照明されたユーザーの眼球像は、受光レンズ16を通して眼用撮像素子17上に結像され、眼用撮像素子17により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。 When the line-of-sight detection operation starts, the light sources 13a and 13b emit infrared light toward the user's eyeball 14 in step S801 of FIG. The user's eyeball image illuminated by infrared light is imaged on the eye image sensor 17 through the light receiving lens 16 and photoelectrically converted by the eye image sensor 17. As a result, an electric signal of a processable eye image is obtained.

ステップS802では、視線検出回路201は、眼用撮像素子17から得られた眼画像(眼画像信号;眼画像の電気信号)をCPU3に送る。 In step S802, the line-of-sight detection circuit 201 sends an eye image (eye image signal; electrical signal of the eye image) obtained from the eye image sensor 17 to the CPU 3.

ステップS803では、CPU3は、ステップS802で得られた眼画像から、光源13a,13bの角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を求める。 In step S803, the CPU 3 obtains the coordinates of the points corresponding to the corneal reflex images Pd and Pe of the light sources 13a and 13b and the pupil center c from the eye image obtained in step S802.

光源13a,13bより発せられた赤外光は、ユーザーの眼球14の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、受光レンズ16により集光され、眼用撮像素子17上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光束も眼用撮像素子17上に結像して、眼画像における瞳孔端像a’,b’となる。 The infrared light emitted from the light sources 13a and 13b illuminates the cornea 142 of the user's eyeball 14. At this time, the corneal reflex images Pd and Pe formed by a part of the infrared light reflected on the surface of the cornea 142 are condensed by the light receiving lens 16 and imaged on the eye imaging element 17 to form an ocular image. It becomes the corneal reflex image Pd', Pe'. Similarly, the luminous flux from the ends a and b of the pupil 141 is also imaged on the image sensor 17 for the eye to become the pupil end images a'and b'in the eye image.

図7(b)は、図7(a)の眼画像における領域α’の輝度情報(輝度分布)を示す。図7(b)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。実施例1では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。図7(b)に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光束が眼用撮像素子17上に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の光彩143の領域(光彩143からの光束が結像して得られる、瞳孔像の外側の光彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)が座標Xaより小さい領域と、X座標が座標Xbより大きい領域とで、上記2種の輝度の中間の輝度が得られる。 FIG. 7B shows the luminance information (luminance distribution) of the region α'in the eye image of FIG. 7A. In FIG. 7B, the horizontal direction of the eye image is the X-axis direction, the vertical direction is the Y-axis direction, and the luminance distribution in the X-axis direction is shown. In the first embodiment, the coordinates of the corneal reflection images Pd'and Pe'in the X-axis direction (horizontal direction) are Xd and Xe, and the coordinates of the pupil end images a'and b'in the X-axis direction are Xa and Xb. As shown in FIG. 7B, at the coordinates Xd and Xe of the corneal reflection images Pd'and Pe', an extremely high level of brightness can be obtained. In the region from the coordinates Xa to the coordinates Xb, which corresponds to the region of the pupil 141 (the region of the pupil image obtained by forming the luminous flux from the pupil 141 on the image sensor 17 for the eye), the coordinates Xd and Xe are excluded. , An extremely low level of brightness is obtained. Then, in the region of the iris 143 outside the pupil 141 (the region of the iris image outside the pupil image obtained by forming the luminous flux from the iris 143), a brightness intermediate between the above two types of brightness can be obtained. Specifically, in a region where the X coordinate (coordinate in the X-axis direction) is smaller than the coordinate Xa and a region where the X coordinate is larger than the coordinate Xb, a brightness intermediate between the above two types of brightness can be obtained.

図7(b)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が眼用撮像素子17上に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’の座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。 From the luminance distribution as shown in FIG. 7B, the X-coordinates Xd and Xe of the corneal reflection images Pd'and Pe'and the X-coordinates Xa and Xb of the pupil end images a'and b'can be obtained. Specifically, the coordinates with extremely high brightness can be obtained as the coordinates of the corneal reflection images Pd'and Pe', and the coordinates with extremely low brightness can be obtained as the coordinates of the pupil end images a'and b'. .. Further, when the rotation angle θx of the optical axis of the eyeball 14 with respect to the optical axis of the light receiving lens 16 is small, the pupil center image c'(obtained by forming a luminous flux from the pupil center c on the eye imaging element 17). The coordinates Xc (center of the pupil image) can be expressed as Xc≈ (Xa + Xb) / 2. That is, the coordinates Xc of the pupil center image c'can be calculated from the X coordinates Xa and Xb of the pupil edge images a'and b'. In this way, the coordinates of the corneal reflex images Pd'and Pe'and the coordinates of the pupil center image c'can be estimated.

ステップS804では、CPU3は、眼球像の結像倍率βを算出する。結像倍率βは、受光レンズ16に対する眼球14の位置により決まる倍率で、角膜反射像Pd’,Pe’の間隔(Xd−Xe)の関数を用いて求めることができる。 In step S804, the CPU 3 calculates the imaging magnification β of the eyeball image. The imaging magnification β is a magnification determined by the position of the eyeball 14 with respect to the light receiving lens 16, and can be obtained by using a function of the interval (Xd-Xe) between the corneal reflection images Pd'and Pe'.

ステップS805では、CPU3は、受光レンズ16の光軸に対する眼球14の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、Z−X平面(Y軸に垂直な平面)内での眼球14の回転角θxは、以下の式1で算出できる。Z−Y平面(X軸に垂直な平面)内での眼球14の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。

β×Oc×SINθx≒{(Xd+Xe)/2}−Xc ・・・(式1)
In step S805, the CPU 3 calculates the rotation angle of the optical axis of the eyeball 14 with respect to the optical axis of the light receiving lens 16. The X coordinate of the midpoint of the corneal reflex image Pd and the corneal reflex image Pe and the X coordinate of the center of curvature O of the cornea 142 substantially coincide with each other. Therefore, assuming that the standard distance from the center of curvature O of the cornea 142 to the center c of the pupil 141 is Occ, the angle of rotation θx of the eyeball 14 in the ZX plane (plane perpendicular to the Y axis) is as follows. It can be calculated by the formula 1 of. The rotation angle θy of the eyeball 14 in the ZZ plane (plane perpendicular to the X-axis) can also be calculated by the same method as the calculation method of the rotation angle θx.

β × Oc × SINθx≈{(Xd + Xe) / 2} -Xc ・ ・ ・ (Equation 1)

ステップS806では、CPU3は、ステップS805で算出した回転角θx,θyを用いて、表示デバイス10の画面におけるユーザーの視点(視線が注がれた位置;ユーザーが見ている位置)を求める(推定する)。視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視点の座標(Hx,Hy)は以下の式2,3で算出できる。

Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
In step S806, the CPU 3 uses the rotation angles θx and θy calculated in step S805 to obtain (estimate) the user's viewpoint (the position where the line of sight is focused; the position where the user is looking) on the screen of the display device 10. To do). Assuming that the coordinates of the viewpoint (Hx, Hy) are the coordinates corresponding to the center of the pupil c, the coordinates of the viewpoint (Hx, Hy) can be calculated by the following equations 2 and 3.

Hx = m × (Ax × θx + Bx) ・ ・ ・ (Equation 2)
Hy = m × (Ay × θy + By) ・ ・ ・ (Equation 3)

式2,3のパラメータmは、カメラ1のファインダ光学系(受光レンズ16等)の構成で定まる定数であり、回転角θx,θyを表示デバイス10の画面において瞳孔中心cに対応する座標に変換する変換係数である。パラメータmは、予め決定されてメモリ部4に
格納されるとする。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、後述するキャリブレーション作業を行うことで取得される。パラメータAx,Bx,Ay,Byは、視線検出動作が開始する前にメモリ部4に格納されるとする。
The parameters m of the equations 2 and 3 are constants determined by the configuration of the finder optical system (light receiving lens 16 and the like) of the camera 1, and the rotation angles θx and θy are converted into the coordinates corresponding to the pupil center c on the screen of the display device 10. The conversion factor to be used. It is assumed that the parameter m is determined in advance and stored in the memory unit 4. The parameters Ax, Bx, Ay, and By are line-of-sight correction parameters that correct individual differences in the line of sight, and are acquired by performing a calibration operation described later. It is assumed that the parameters Ax, Bx, Ay, and By are stored in the memory unit 4 before the line-of-sight detection operation starts.

ステップS807では、CPU3は、視点の座標(Hx,Hy)をメモリ部4に格納し、視線検出動作を終える。 In step S807, the CPU 3 stores the coordinates (Hx, Hy) of the viewpoint in the memory unit 4, and finishes the line-of-sight detection operation.

<キャリブレーション作業の説明>
前述のように、視線検出動作において眼画像から眼球14の回転角度θx,θyを取得し、瞳孔中心cの位置を表示デバイス10の画面上での位置に座標変換することで、視点を推定できる。
<Explanation of calibration work>
As described above, the viewpoint can be estimated by acquiring the rotation angles θx and θy of the eyeball 14 from the eye image in the line-of-sight detection operation and converting the position of the pupil center c to the position on the screen of the display device 10. ..

しかし、人間の眼球の形状の個人差等の要因により、視点を高精度に推定できないことがある。具体的には、視線補正パラメータAx,Ay,Bx,Byをユーザーに適した値に調整しなければ、図5(b)に示したように、実際の視点Bと推定された視点Cとのずれが生じてしまう。図5(b)では、ユーザーは人物を注視しているが、カメラ1は背景が注視されていると誤って推定しており、適切な焦点検出及び調整ができない状態に陥ってしまっている。 However, it may not be possible to estimate the viewpoint with high accuracy due to factors such as individual differences in the shape of the human eyeball. Specifically, unless the line-of-sight correction parameters Ax, Ay, Bx, and By are adjusted to values suitable for the user, as shown in FIG. 5 (b), the actual viewpoint B and the estimated viewpoint C There will be a gap. In FIG. 5B, the user is gazing at a person, but the camera 1 erroneously presumes that the background is being gazed at, resulting in a state in which appropriate focus detection and adjustment cannot be performed.

そこで、カメラ1が撮像を行う前に、キャリブレーション作業を行い、ユーザーに適した視点補正パラメータを取得し、カメラ1に格納する必要がある。 Therefore, before the camera 1 performs imaging, it is necessary to perform calibration work, acquire a viewpoint correction parameter suitable for the user, and store it in the camera 1.

従来より、キャリブレーション作業は、撮像前に図5(c)のような位置の異なる複数の指標を表示デバイス10の画面に強調表示し、ユーザーにその指標を見てもらうことで行われている。そして、各指標の注視時に視線検出動作を行い、算出された複数の視点(推定位置)と、各指標の座標とから、ユーザーに適した視点補正パラメータを求める技術が、公知の技術として知られている。なお、ユーザーの見るべき位置が示唆されれば、指標の表示方法は特に限定されず、指標であるグラフィックが表示されてもよいし、画像(撮像された画像など)の輝度や色の変更で指標が表示されてもよい。 Conventionally, the calibration work is performed by highlighting a plurality of indexes having different positions as shown in FIG. 5C on the screen of the display device 10 and having the user see the indexes before imaging. .. Then, a technique of performing a line-of-sight detection operation when gazing at each index and obtaining a viewpoint correction parameter suitable for the user from a plurality of calculated viewpoints (estimated positions) and the coordinates of each index is known as a known technique. ing. If the position to be viewed by the user is suggested, the display method of the index is not particularly limited, and the graphic which is the index may be displayed, or the brightness or color of the image (captured image, etc.) may be changed. Indicators may be displayed.

<頭部を大きく並進移動させてファインダを覗き込む視認状態の説明>
カメラのファインダを覗き込む場合等においては、ユーザーは、眼鏡を着用している等の事情から、ファインダへ眼球を十分に近づけずにカメラを使用することがある。ファインダへ眼球が十分に近づけられていない状態においては、後述するように接眼窓枠等に視線が遮られて、ファインダ内で視認できる範囲が限定され、ファインダを正面から覗き込んだ際にファインダ内の画面の端部が見えないことがある。そのような場合に、ユーザーは、端部を見ようとするが故に、ファインダの正面から頭部を大きく並進移動させ、斜めからファインダを覗き込む傾向がある。斜めからファインダを覗き込む場合における頭部の並進移動の距離は、カメラを通常(メーカー推奨)の使用方法で使用する場合に比べて格段に大きいため、視点の推定結果に無視できない誤差が発生する。
<Explanation of the visual state in which the head is greatly translated and looked into the finder>
When looking into the finder of the camera, the user may use the camera without bringing the eyeballs sufficiently close to the finder due to circumstances such as wearing glasses. When the eyeball is not sufficiently close to the finder, the line of sight is blocked by the eyepiece window frame, etc., as described later, and the visible range in the finder is limited. The edge of the screen may not be visible. In such a case, the user tends to make a large translational movement of the head from the front of the finder and look into the finder from an angle because he / she tries to see the end portion. Since the translational movement distance of the head when looking into the finder from an angle is much larger than when the camera is used in the normal (manufacturer's recommended) usage method, a non-negligible error occurs in the viewpoint estimation result. ..

図9(a),9(b),10(a),10(b)を用いて上記覗き込みの状態を説明する。図9(a),9(b),10(a),10(b)は、表示デバイス10(画面)の虚像300をユーザーが接眼窓枠121と接眼レンズ12を通して視認している状態を、Y軸正方向から見た上面模式図である。簡略化のため、図9(a),9(b),10(a),10(b)では接眼レンズ12を省略している。図3を用いて説明したように、図9(a),9(b),10(a),10(b)の状態でも、ユーザーは、不図示の接眼レンズ12によって表示デバイス10を実際のサイズから拡大した虚像300を視認している。通常、接眼レンズ12から数十cm〜2m程度離れた位置にの距離に虚像300が結像さ
れるように、調整がされている。図9(a),9(b),10(a),10(b)では、接眼レンズ12(不図示)から1m離れた位置に虚像300が結像されている。
The state of the peep will be described with reference to FIGS. 9 (a), 9 (b), 10 (a), and 10 (b). 9 (a), 9 (b), 10 (a), and 10 (b) show a state in which the user visually recognizes the virtual image 300 of the display device 10 (screen) through the eyepiece window frame 121 and the eyepiece lens 12. It is a top surface schematic view seen from the Y-axis positive direction. For the sake of simplicity, the eyepiece 12 is omitted in FIGS. 9 (a), 9 (b), 10 (a), and 10 (b). As described with reference to FIG. 3, even in the states of FIGS. 9 (a), 9 (b), 10 (a), and 10 (b), the user actually displays the display device 10 with the eyepiece 12 (not shown). The virtual image 300 enlarged from the size is visually recognized. Usually, the adjustment is made so that the virtual image 300 is formed at a distance of about several tens of centimeters to 2 m from the eyepiece lens 12. In FIGS. 9 (a), 9 (b), 10 (a), and 10 (b), the virtual image 300 is formed at a position 1 m away from the eyepiece 12 (not shown).

図9(a)では、虚像300(表示デバイス10の画面)の中心に対向する位置、接眼レンズ12の光軸が通る位置に眼球14の中心O’が位置する状態でユーザーが虚像300のほぼ中央を注視している。眼球14の視野範囲(接眼窓枠121を通して視認できる範囲)は接眼窓枠121の幅等によって決まり、図9(a)においては、眼球14の瞳孔141と接眼窓枠121の端とを通る直線OAと直線OA’で挟まれた範囲αが、視野範囲となっている。図9(a)においては、視野範囲α内に虚像300の全体が含まれているため、ユーザーは、表示デバイス10の画面の全体(片側の端から反対側の端まで)を視認できる。 In FIG. 9A, the user is approximately the virtual image 300 in a state where the center O'of the eyeball 14 is located at a position facing the center of the virtual image 300 (screen of the display device 10) and at a position where the optical axis of the eyepiece 12 passes. I am watching the center. The visual field range of the eyeball 14 (the range that can be visually recognized through the eyepiece window frame 121) is determined by the width of the eyepiece window frame 121 and the like, and in FIG. 9A, a straight line passing through the pupil 141 of the eyeball 14 and the edge of the eyepiece window frame 121. The range α sandwiched between the OA and the straight line OA'is the visual field range. In FIG. 9A, since the entire virtual image 300 is included in the visual field range α, the user can visually recognize the entire screen of the display device 10 (from one end to the other end).

しかしながら、図9(b)では、ユーザーの着用した眼鏡が眼球14と接眼窓枠121の間に挟まれる等の事情から、眼球14と接眼窓枠121の間の距離が、図9(a)に比べ距離ΔL大きい。このため、図9(b)においては、瞳孔141と接眼窓枠121の端を通る直線OBと直線OB’で挟まれた視野範囲β1は、図9(a)の視野範囲αより狭い。その結果、視野範囲β1内に虚像300の一部しか含まれず、ユーザーは、虚像300のうち、視野範囲β1内に含まれない範囲γ1,γ2(虚像300の端部)を、視認できていない。 However, in FIG. 9B, the distance between the eyeball 14 and the eyepiece window frame 121 is determined in FIG. 9A because the eyeglasses worn by the user are sandwiched between the eyeball 14 and the eyepiece window frame 121. The distance ΔL is larger than that of. Therefore, in FIG. 9B, the visual field range β1 sandwiched between the straight line OB passing through the pupil 141 and the end of the eyepiece window frame 121 and the straight line OB'is narrower than the visual field range α in FIG. 9A. As a result, only a part of the virtual image 300 is included in the visual field range β1, and the user cannot visually recognize the ranges γ1 and γ2 (ends of the virtual image 300) of the virtual image 300 that are not included in the visual field range β1. ..

なお、実施例1では視野範囲が制限される要因として接眼窓枠121を示したが、これに限られるものではなく、例えば、接眼レンズ12に光線を制限するマスクが取り付けられており、これによって視野範囲が制限されてもよい。どのような構造(要因)で視野範囲が制限されてもよい。 In the first embodiment, the eyepiece window frame 121 is shown as a factor that limits the visual field range, but the present invention is not limited to this. For example, the eyepiece lens 12 is provided with a mask that limits light rays. The viewing range may be limited. The field of view may be limited by any structure (factor).

図9(b)のような状況に陥ったユーザーがよくとる行動について、図10(a),10(b)を用いて以下に説明する。 The actions often taken by the user who has fallen into the situation shown in FIG. 9 (b) will be described below with reference to FIGS. 10 (a) and 10 (b).

図9(b)の状態で見えていない範囲γ1を見たい場合に、ユーザーは、図10(a)に示すように、頭部ごと眼球14をX軸正方向(紙面下方向)に大きく並進移動させる傾向がある。このような並進移動により、眼球14の中心O’が接眼レンズ12の光軸と垂直な方向にずれ、視野範囲が、範囲β1から、ずれた後の眼球14の瞳孔141と接眼窓枠121の端とを通る直線OCと直線OC’で挟まれた範囲β2に変化する。具体的には、視野範囲がX軸負方向(紙面上方向)に寄り、並進移動前には見えていなかった範囲γ1を含む範囲β2が視野範囲となる。これにより、ユーザーは、範囲γ1を見ることができる。但し、紙面下方向で見えていない範囲が、範囲γ2から範囲γ2’に広がる。 When the user wants to see the range γ1 that is not visible in the state of FIG. 9B, the user translates the eyeball 14 together with the head in the positive direction of the X-axis (downward of the paper surface) as shown in FIG. 10A. Tends to move. Due to such translational movement, the center O'of the eyeball 14 is displaced in the direction perpendicular to the optical axis of the eyepiece 12, and the visual field range is shifted from the range β1 to the pupil 141 of the eyeball 14 and the eyepiece window frame 121. It changes to the range β2 sandwiched between the straight line OC passing through the end and the straight line OC'. Specifically, the visual field range is closer to the negative direction of the X-axis (direction on the paper surface), and the visual field range β2 including the range γ1 that was not visible before the translational movement. This allows the user to see the range γ1. However, the range that cannot be seen in the downward direction of the paper surface extends from the range γ2 to the range γ2'.

同様に、図9(b)の状態で見えていない範囲γ2を見たい場合には、ユーザーは、図10(b)に示すように、頭部ごと眼球14をX軸負方向(紙面上方向)に大きく並進移動させる傾向がある。このような並進移動により、眼球14の中心O’が接眼レンズ12の光軸と垂直な方向にずれ、視野範囲が、範囲β1から、ずれた後の眼球14の瞳孔141と接眼窓枠121の端とを通る直線ODと直線OD’で挟まれた範囲β3に変化する。具体的には、視野範囲がX軸正方向(紙面下方向)に寄り、並進移動前には見えていなかった範囲γ2を含む範囲β3が視野範囲となる。これにより、ユーザーは、範囲γ2を見ることができる。但し、紙面上方向で見えていない範囲が、範囲γ1から範囲γ1’に広がる。 Similarly, when the user wants to see the range γ2 that is not visible in the state of FIG. 9 (b), the user views the eyeball 14 together with the head in the negative direction of the X-axis (on the paper surface) as shown in FIG. 10 (b). ) Tends to make a large translational movement. Due to such translational movement, the center O'of the eyeball 14 is displaced in the direction perpendicular to the optical axis of the eyepiece 12, and the visual field range is shifted from the range β1 to the pupil 141 of the eyeball 14 and the eyepiece window frame 121. It changes to the range β3 sandwiched between the straight line OD passing through the end and the straight line OD'. Specifically, the visual field range is the range β3 including the range γ2 that was not visible before the translational movement because the visual field range is closer to the X-axis positive direction (downward of the paper surface). This allows the user to see the range γ2. However, the range that cannot be seen in the paper surface direction extends from the range γ1 to the range γ1'.

図10(a),10(b)を用いて説明したような眼球14の並進移動が発生する前後の眼画像(眼球像)を、図11(a)〜図11(c)に模式的に示す。 The eye images (eyeball images) before and after the translational movement of the eyeball 14 as described with reference to FIGS. 10 (a) and 10 (b) are schematically shown in FIGS. 11 (a) to 11 (c). Shown.

図11(a)は、図9(b)の状態に対応し、虚像300(表示デバイス10の画面)の中心に対向する位置、接眼レンズ12の光軸が通る位置を眼球14の中心O’としてユーザーが虚像300のほぼ中央を注視している状態での眼画像を示す。図11(a)では、瞳孔像の中心、及び、2つのプルキニエ像(P像;角膜反射像)の中心は、眼画像の中心とほぼ一致する。実施例1では、眼画像の中心が表示デバイス10の画面の中心に、具体的には接眼レンズ12の光軸に対応するとするが、そうでなくてもよい。 FIG. 11A corresponds to the state of FIG. 9B, and the position facing the center of the virtual image 300 (the screen of the display device 10) and the position where the optical axis of the eyepiece 12 passes are the centers O'of the eyeball 14. The eye image is shown in a state where the user is gazing at substantially the center of the virtual image 300. In FIG. 11A, the center of the pupil image and the center of the two Purkinje images (P image; corneal reflex image) substantially coincide with the center of the ocular image. In the first embodiment, it is assumed that the center of the eye image corresponds to the center of the screen of the display device 10, specifically, the optical axis of the eyepiece 12, but it is not necessary.

図11(b)は、図10(a)の状態に対応し、眼球14をX軸正方向に大きく並進移動させた上で接眼窓枠121内を覗き込んでいる状態での眼画像を示す。 FIG. 11B shows an eye image in a state in which the eyeball 14 is largely translated in the positive direction of the X-axis and then looked into the eyepiece window frame 121, corresponding to the state of FIG. 10A. ..

図10(a)では、X軸負方向の端部を見るために、眼球14の中心O’が図9(b)の位置からX軸正方向(見たい方向と逆の方向)に移動量ΔBで並進移動させた位置となっている。また、眼球14は、X軸負方向(見たい方向と同じ方向)に回転しており、瞳孔中心cは、眼球中心O’からX軸負方向に移動量ΔWで移動させた位置となっている。眼球14の回転角度を角度θtとし、眼球14の回転半径を半径Rとすると、瞳孔141の移動量ΔWは、ΔW=R×sinθtと表すことができる。 In FIG. 10A, the amount of movement of the center O'of the eyeball 14 in the positive direction of the X-axis (the direction opposite to the desired direction) from the position of FIG. 9B in order to see the end in the negative direction of the X-axis. The position is translated by ΔB. Further, the eyeball 14 is rotated in the negative direction of the X-axis (the same direction as the desired direction), and the pupil center c is a position moved from the center of the eye O'in the negative direction of the X-axis by the amount of movement ΔW. There is. Assuming that the rotation angle of the eyeball 14 is the angle θt and the radius of rotation of the eyeball 14 is the radius R, the movement amount ΔW of the pupil 141 can be expressed as ΔW = R × sinθt.

そして、図10(a)を用いて説明したような眼球14の移動により、眼画像上において、通常の視認状態(メーカー推奨の視認状態;例えば、正面からファインダを覗き込んだ視認状態)に比べて格段に大きい移動量で、瞳孔像とプルキニエ像が並進移動する。具体的には、X軸負方向に眼球14が回転して瞳孔141が移動量ΔWで移動することにより、瞳孔像がX軸負方向に移動量ΔW×βで移動する(「β」は眼球像の結像倍率(接眼レンズ12のレンズ倍率)である)。そして、眼球14がX軸正方向に移動量ΔBで並進移動することにより、瞳孔像がX軸正方向に移動量ΔB×βで並進移動する。ここで、眼球14の並進移動に対応する移動量ΔB×βは、眼球14の回転に対応する移動量ΔW×βを大幅に上回る。このため、図11(b)に示すように、瞳孔像は、眼画像の中心(表示デバイス10の画面の中心に対応する位置)に対して、X軸負方向(見たい方向と同じ方向;紙面左方向)とは逆のX軸正方向(紙面右方向)に大きく移動した場所に位置することとなる。同様に、プルキニエ像にも大きな並進移動が生じる。 Then, due to the movement of the eyeball 14 as described with reference to FIG. 10A, the visual state on the eye image is compared with the normal visual state (visual state recommended by the manufacturer; for example, the visual state in which the finder is viewed from the front). The pupil image and the Purkinje image move in translation with a much larger amount of movement. Specifically, the eyeball 14 rotates in the negative direction of the X-axis and the pupil 141 moves with the amount of movement ΔW, so that the pupil image moves in the negative direction of the X-axis with the amount of movement ΔW × β (“β” is the eyeball). Image image magnification (lens magnification of eyepiece 12). Then, the eyeball 14 translates in the positive direction of the X-axis with the amount of movement ΔB, so that the pupil image moves in the positive direction of the X-axis with the amount of movement ΔB × β. Here, the movement amount ΔB × β corresponding to the translational movement of the eyeball 14 greatly exceeds the movement amount ΔW × β corresponding to the rotation of the eyeball 14. Therefore, as shown in FIG. 11B, the pupil image is in the negative X-axis direction (the same direction as the desired direction) with respect to the center of the eye image (the position corresponding to the center of the screen of the display device 10). It will be located at a location that has moved significantly in the positive direction of the X-axis (rightward of the paper), which is the opposite of (leftward of the paper). Similarly, a large translational movement occurs in the Purkinje image.

図11(c)は、図10(b)の状態に対応し、眼球14をX軸負方向に大きく並進移動させた上で接眼窓枠121内を覗き込んでいる状態での眼画像を示す。 FIG. 11 (c) shows an eye image in a state in which the eyeball 14 is largely translated in the negative direction of the X-axis and then the inside of the eyepiece window frame 121 is looked into, corresponding to the state of FIG. 10 (b). ..

図10(b)では、X軸正方向の端部を見るために、眼球14の中心O’が図9(b)の位置からX軸負方向(見たい方向と逆の方向)に移動量ΔBで並進移動させた位置となっている。また、眼球14は、X軸正方向(見たい方向と同じ方向)に回転しており、瞳孔中心cは、眼球中心O’からX軸正方向に移動量ΔWで移動させた位置となっている。上述したように、眼球14の回転角度を角度θtとし、眼球14の回転半径を半径Rとすると、瞳孔141の移動量ΔWは、ΔW=R×sinθtと表すことができる。 In FIG. 10 (b), the amount of movement of the center O'of the eyeball 14 in the negative direction of the X-axis (the direction opposite to the desired direction) from the position of FIG. 9 (b) in order to see the end in the positive direction of the X-axis. The position is translated by ΔB. Further, the eyeball 14 is rotated in the positive direction of the X-axis (the same direction as the desired direction), and the pupil center c is a position moved from the center of the eye O'in the positive direction of the X-axis by the amount of movement ΔW. There is. As described above, assuming that the rotation angle of the eyeball 14 is the angle θt and the radius of rotation of the eyeball 14 is the radius R, the movement amount ΔW of the pupil 141 can be expressed as ΔW = R × sinθt.

そして、図10(b)を用いて説明したような眼球14の移動によっても、眼画像上において、通常の視認状態に比べて格段に大きい移動量で、瞳孔像とプルキニエ像が並進移動する。具体的には、X軸正方向に眼球14が回転して瞳孔141が移動量ΔWで移動することにより、瞳孔像がX軸正方向に移動量ΔW×βで移動する。そして、眼球14がX軸負方向に移動量ΔBで並進移動することにより、瞳孔像がX軸負方向に移動量ΔB×βで並進移動する。ここでも、眼球14の並進移動に対応する移動量ΔB×βは、眼球14の回転に対応する移動量ΔW×βを大幅に上回る。このため、図11(c)に示すように、瞳孔像は、眼画像の中心(表示デバイス10の画面の中心に対応する位置)に対して、X軸正方向(見たい方向と同じ方向;紙面右方向)とは逆のX軸負方向(紙面左方向)に大きく移動した場所に位置することとなる。同様に、プルキニエ像にも大きな並進移動が
生じる。
Then, even with the movement of the eyeball 14 as described with reference to FIG. 10B, the pupil image and the Purkinje image are translated and moved on the eye image with a much larger amount of movement than in the normal visual state. Specifically, the eyeball 14 rotates in the positive direction of the X-axis and the pupil 141 moves with the amount of movement ΔW, so that the pupil image moves in the positive direction of the X-axis with the amount of movement ΔW × β. Then, the eyeball 14 translates in the negative direction of the X-axis with the amount of movement ΔB, so that the pupil image moves in the negative direction of the X-axis with the amount of movement ΔB × β. Here, too, the movement amount ΔB × β corresponding to the translational movement of the eyeball 14 greatly exceeds the movement amount ΔW × β corresponding to the rotation of the eyeball 14. Therefore, as shown in FIG. 11C, the pupil image is in the positive X-axis direction (the same direction as the desired direction) with respect to the center of the eye image (the position corresponding to the center of the screen of the display device 10). It will be located at a location that has moved significantly in the negative direction of the X-axis (leftward of the paper), which is opposite to the right of the paper. Similarly, a large translational movement occurs in the Purkinje image.

このように、斜めからファインダを覗き込んだ視認状態では、眼画像における瞳孔像とプルキニエ像が、通常の視認状態で想定されていない場所に位置してしまう。その結果、図8の視線検出動作による視点の推定結果に無視できない誤差が発生してしまう。 In this way, in the visual state in which the finder is viewed from an angle, the pupil image and the Purkinje image in the eye image are located at places that are not expected in the normal visual state. As a result, a non-negligible error occurs in the estimation result of the viewpoint by the line-of-sight detection operation of FIG.

そこで、実施例1では、斜め覗き込み状態(斜めからファインダを覗き込んだ斜め視認状態;視点を高精度に推定できない視認状態;眼画像において眼球14が表示デバイス10の画面の中心に対応する位置からずれたずれ視認状態)を検知する。そして、斜め覗き込み状態が検知された場合に、斜めからファインダを覗き込まずに、正面からファインダを覗き込むことをユーザーに促すための所定の処理を行う。 Therefore, in the first embodiment, an oblique looking state (an oblique viewing state in which the finder is viewed from an angle; a viewing state in which the viewpoint cannot be estimated with high accuracy; a position in which the eyeball 14 corresponds to the center of the screen of the display device 10 in the eye image). (Deviation from the visual state) is detected. Then, when the oblique peeping state is detected, a predetermined process is performed to encourage the user to look into the finder from the front without looking into the finder from an oblique angle.

<斜め覗き込み検知方法の説明>
表示デバイス10の画面(虚像)の端部がユーザーの視野に収まらず、当該端部を見ようとする斜め覗き込み状態における第1の特徴として、眼画像の中心から眼画像における瞳孔像までの距離が通常の視認状態に比べて格段に大きいという特徴が挙げられる。そこで、実施例1では、眼画像の中心(表示デバイス10の画面の中心に対応する位置)と、眼画像における瞳孔像の位置との差が所定の閾値よりも大きいという第1条件が満たされたか否かを判断する。そして、第1条件が満たされた状態を、斜め覗き込み状態として検知する。
<Explanation of diagonal peeping detection method>
The distance from the center of the eye image to the pupil image in the eye image is the first feature in the oblique looking state in which the end of the screen (virtual image) of the display device 10 does not fit in the user's field of view and the end is viewed. Is significantly larger than the normal visual field. Therefore, in the first embodiment, the first condition that the difference between the center of the eye image (the position corresponding to the center of the screen of the display device 10) and the position of the pupil image in the eye image is larger than a predetermined threshold value is satisfied. Judge whether or not. Then, the state in which the first condition is satisfied is detected as an oblique looking state.

上記所定の閾値は、例えば、通常の視認状態で眼画像に生じ得る瞳孔像の移動量から決定される。通常の視認状態では、表示デバイス10の画面の端部を見る際に、頭部はほぼ移動せずに眼球だけが回転する。そのため、眼球14の最大回転角度θmax、眼球14の回転半径R(図6の眼球中心O’から瞳孔中心cまでの長さ)、及び、眼球像の結像倍率βから、眼画像における瞳孔像の最大移動量β×R×sinθmaxを算出できる。例えば、この最大移動量β×R×sinθmaxを、上記所定の閾値として用いることができる。 The predetermined threshold value is determined, for example, from the amount of movement of the pupil image that can occur in the eye image in a normal visual state. In a normal visual state, when looking at the edge of the screen of the display device 10, only the eyeball rotates with almost no movement of the head. Therefore, from the maximum rotation angle θmax of the eyeball 14, the rotation radius R of the eyeball 14 (the length from the eyeball center O'to the pupil center c in FIG. 6), and the imaging magnification β of the eyeball image, the pupil image in the eye image. The maximum movement amount β × R × sin θmax can be calculated. For example, this maximum movement amount β × R × sin θmax can be used as the predetermined threshold value.

なお、第1条件では、眼画像における瞳孔像ではなく、眼画像におけるプルキニエ像に着目してもよい。つまり、眼画像の中心と、眼画像におけるプルキニエ像の位置との差が所定の閾値よりも大きいという第1条件が満たされたか否かを判断し、当該第1条件が満たされた状態を、斜め覗き込み状態として検知してもよい。瞳孔像とプルキニエ像の一方に着目してもよいし、両方に着目してもよい。瞳孔像に関する第1条件と、プルキニエ像に関する第1条件との一方が満たされた状態を、斜め覗き込み状態として検知してもよいし、それらの両方が満たされた状態を、斜め覗き込み状態として検知してもよい。 In the first condition, attention may be paid to the Purkinje image in the eye image instead of the pupil image in the eye image. That is, it is determined whether or not the first condition that the difference between the center of the eye image and the position of the Purkinje image in the eye image is larger than a predetermined threshold value is satisfied, and the state in which the first condition is satisfied is determined. It may be detected as an oblique looking state. One of the pupil image and the Purkinje image may be focused on, or both may be focused on. A state in which one of the first condition regarding the pupil image and the first condition regarding the Purkinje image is satisfied may be detected as an oblique looking state, and a state in which both of them are satisfied may be detected as an oblique looking state. May be detected as.

<カメラ動作の説明>
実施例1に係るカメラ動作について、図12のフローチャートに従って説明する。
<Explanation of camera operation>
The camera operation according to the first embodiment will be described with reference to the flowchart of FIG.

カメラ1の電源がONされると、ステップS1201で、撮像素子2は、スルー画像(視認用画像)の取得を開始し、スルー画像の画像信号をCPU3に送信し、CPU3は、取得したスルー画像を表示デバイス10に表示する。ユーザーは、表示デバイス10に表示されたスルー画像を接眼窓枠121と接眼レンズ12を通してを見ることで、被写体の確認を行う。カメラ1の電源は、カメラ1に対するユーザー操作に応じてON/OFFされる。 When the power of the camera 1 is turned on, in step S1201, the image sensor 2 starts acquiring a through image (visualization image), transmits an image signal of the through image to the CPU 3, and the CPU 3 receives the acquired through image. Is displayed on the display device 10. The user confirms the subject by viewing the through image displayed on the display device 10 through the eyepiece window frame 121 and the eyepiece lens 12. The power supply of the camera 1 is turned ON / OFF according to a user operation on the camera 1.

ステップS1202では、CPU3は、カメラ1の電源をOFFするか否かを判断し、OFFする場合は図12の処理フローを終了し、OFFしない場合はステップS1203に処理を進める。 In step S1202, the CPU 3 determines whether or not to turn off the power of the camera 1, and if it is turned off, the process flow of FIG. 12 is terminated, and if it is not turned off, the process proceeds to step S1203.

ステップS1203では、CPU3は、ステップS1201でスルー画像を視認し始めたユーザーの眼画像の取得を開始し、図8の視線検出動作を行う。視線検出動作により、眼画像における瞳孔像の座標、眼画像におけるプルキニエ像の座標、及び、スルー画像における視点の座標が算出される。 In step S1203, the CPU 3 starts acquiring the eye image of the user who has begun to visually recognize the through image in step S1201, and performs the line-of-sight detection operation of FIG. The line-of-sight detection operation calculates the coordinates of the pupil image in the eye image, the coordinates of the Purkinje image in the eye image, and the coordinates of the viewpoint in the through image.

ステップS1204では、CPU3は、第1条件が満たされいるか否か、具体的にはステップS1203の視線検出動作で検出された瞳孔像の位置が所定の範囲内にあるか否かを判断する。所定の範囲は、眼画像の一部の範囲であり、眼画像の中心から上述した所定の閾値(所定の距離)離れた位置までの範囲である。CPU3は、所定の範囲外の場合にステップS1205へ処理を進め、所定の範囲内の場合にステップS1207へ処理を進める。 In step S1204, the CPU 3 determines whether or not the first condition is satisfied, specifically, whether or not the position of the pupil image detected by the line-of-sight detection operation in step S1203 is within a predetermined range. The predetermined range is a part of the eye image, and is a range from the center of the eye image to a position separated by the above-mentioned predetermined threshold value (predetermined distance). The CPU 3 proceeds to step S1205 when it is outside the predetermined range, and proceeds to step S1207 when it is within the predetermined range.

ステップS1205では、CPU3は、現在の状態が斜め覗き込み状態であると判断する。ステップS1206では、CPU3は、ステップS1203の視線検出動作による視点の推定結果に無視できない誤差が含まれているため、その解消(視認状態の改善)のための処理を行う(視認状態改善処理)。その後、ステップS1202に処理が戻され、視線検出動作が再度行われる。 In step S1205, the CPU 3 determines that the current state is the oblique looking state. In step S1206, since the estimation result of the viewpoint by the line-of-sight detection operation in step S1203 contains a non-negligible error, the CPU 3 performs a process for eliminating (improving the visual state) (visual state improvement process). After that, the process is returned to step S1202, and the line-of-sight detection operation is performed again.

実施例1では、CPU3は、視認状態改善処理により、視認状態に関する警告等の所定の通知をユーザーに対して行う。例えば、接眼窓枠121の正面の位置からユーザーの頭部の位置に向かう方向は、眼画像の中心から瞳孔像に向かう方向と同じであると推定できるため、CPU3は、ユーザーに対して、これらの方向と反対の方向に頭部を移動させるような方向情報を通知する。 In the first embodiment, the CPU 3 gives a predetermined notification such as a warning regarding the visual state to the user by the visual state improvement process. For example, it can be estimated that the direction from the front position of the eyepiece window frame 121 toward the position of the user's head is the same as the direction from the center of the eye image toward the pupil image. Notifies the direction information that moves the head in the direction opposite to the direction of.

なお、視認状態改善処理は所定の通知に限られない。例えば、視認状態を改善すること(正面から接眼窓枠121内を覗き込むこと)をユーザーに促すことができれば、視認状態改善処理はどのような処理であってもよい。具体的には、視認状態改善処理はスルー画像(視認用画像)の縮小であってもよい。スルー画像の縮小によってスルー画像の端部を表示デバイス10の画面中心に近づければ、斜めから接眼窓枠121内を覗き込まなくてもスルー画像の全体を視認できるようになり、斜め覗き込み状態を解消できる。 The visual state improvement process is not limited to the predetermined notification. For example, the visual state improving process may be any process as long as the user can be prompted to improve the visual state (looking into the eyepiece window frame 121 from the front). Specifically, the visual recognition state improvement process may be a reduction of the through image (visualization image). If the edge of the through image is brought closer to the center of the screen of the display device 10 by reducing the through image, the entire through image can be visually recognized without looking into the eyepiece window frame 121 from an angle, and the through image can be viewed diagonally. Can be resolved.

ステップS1207の処理は、斜め覗き込み状態でない好適な視認状態でS1203の視線検出動作が行われた後に行われるため、ステップS1207の処理の時点で視点の正確な推定結果が得られている。このため、ステップS1207では、CPU3は、ステップS1203で得られた正確な推定結果(視点を示す枠;視点枠)をスルー画像に重ねて表示する。これにより、図5(a)のような表示が行われ、現在の視点A(推定位置)をユーザーに伝えることができる。視点枠の代わりに、視点を示す点等が表示されてもよい。 Since the process of step S1207 is performed after the line-of-sight detection operation of S1203 is performed in a suitable visual state other than the oblique looking state, an accurate estimation result of the viewpoint is obtained at the time of the process of step S1207. Therefore, in step S1207, the CPU 3 superimposes and displays the accurate estimation result (frame showing the viewpoint; viewpoint frame) obtained in step S1203 on the through image. As a result, the display as shown in FIG. 5A is performed, and the current viewpoint A (estimated position) can be transmitted to the user. Instead of the viewpoint frame, a point indicating the viewpoint may be displayed.

ステップS1208では、CPU3は所定時間の待機を行う。 In step S1208, the CPU 3 waits for a predetermined time.

ステップS1209では、CPU3は、ユーザーによってレリーズボタン5が押されて(半押しされて)スイッチSW1がONとなったか否かを判断する。例えば、ユーザーは、スルー画像に重ねて表示された視点枠(推定された視点を示す枠)の位置での合焦に同意した場合に、レリーズボタン5の半押しを行い、スイッチSW1をONにする。CPU3は、スイッチSW1がONとなった場合にステップS1210に処理を進め、スイッチSW1がONとならなかった場合にステップS1203に処理を戻して視点の再推定を行う。 In step S1209, the CPU 3 determines whether or not the release button 5 is pressed (half-pressed) by the user to turn on the switch SW1. For example, when the user agrees to focus at the position of the viewpoint frame (frame indicating the estimated viewpoint) displayed overlaid on the through image, the user presses the release button 5 halfway and turns on the switch SW1. To do. The CPU 3 proceeds with the process in step S1210 when the switch SW1 is turned on, and returns the process to step S1203 when the switch SW1 is not turned on to re-estimate the viewpoint.

ステップS1210では、CPU3は、現在の視線枠の位置での測距動作を行い、測距動作が行われたことを、視線枠の色を変える等の強調表示でユーザーに知らせる。 In step S1210, the CPU 3 performs a distance measuring operation at the position of the current line-of-sight frame, and notifies the user that the distance measuring operation has been performed by highlighting such as changing the color of the line-of-sight frame.

ステップS1211では、CPU3は、ステップS1210で得られた測距結果に応じて、撮影レンズユニット1A内のレンズ101を駆動する。これにより、スルー画像に重ねて表示された視点枠の位置での合焦が実現される。 In step S1211, the CPU 3 drives the lens 101 in the photographing lens unit 1A according to the distance measurement result obtained in step S1210. As a result, focusing at the position of the viewpoint frame displayed overlaid on the through image is realized.

ステップS1212では、CPU3は、ユーザーによってレリーズボタン5がさらに押し込まれて(全押しされて)スイッチSW2がONとなったか否かを判断する。例えば、ユーザーは、現在の合焦位置での撮影に同意した場合に、レリーズボタン5の全押しを行い、スイッチSW2をONにする。CPU3は、スイッチSW2がONとなった場合にステップS1213に処理を進め、スイッチSW2がONとならなかった場合にステップS1209に処理を戻す。 In step S1212, the CPU 3 determines whether or not the release button 5 is further pushed (fully pressed) by the user to turn on the switch SW2. For example, when the user agrees to shoot at the current focusing position, the release button 5 is fully pressed to turn on the switch SW2. The CPU 3 proceeds to step S1213 when the switch SW2 is turned on, and returns to step S1209 when the switch SW2 is not turned on.

ステップS1213では、CPU3は、撮影動作を行うことで、撮像素子2によって取得された画像信号を、メモリ部4に格納する。 In step S1213, the CPU 3 performs a shooting operation to store the image signal acquired by the image sensor 2 in the memory unit 4.

ステップS1214では、CPU3は、ステップS1213でメモリ部4に格納された画像(撮影された画像)を表示デバイス10に所定時間表示し、ステップS1202に処理を戻す。 In step S1214, the CPU 3 displays the image (captured image) stored in the memory unit 4 in step S1213 on the display device 10 for a predetermined time, and returns the process to step S1202.

<まとめ>
以上述べたように、実施例1によれば、眼画像の中心と、眼画像における瞳孔像(またはプルキニエ像)の位置との差が所定の閾値よりも大きいという第1条件が満たされたか否かを判断するという簡易な構成で、斜め覗き込み状態を検知できる。そして、斜め覗き込み状態が検知された場合に、ユーザーに視認状態の改善を促し、視点の正確な(高精度な)推定結果を得ることができる。
<Summary>
As described above, according to the first embodiment, whether or not the first condition that the difference between the center of the eye image and the position of the pupil image (or Purkinje image) in the eye image is larger than a predetermined threshold value is satisfied. It is possible to detect an oblique looking state with a simple configuration of determining whether or not. Then, when the oblique peeping state is detected, the user can be urged to improve the visual state, and an accurate (highly accurate) estimation result of the viewpoint can be obtained.

<<実施例2>>
以下、本発明の実施例2について説明する。なお、以下では、実施例1と同じ点(構成や処理など)についての説明は省略し、実施例1と異なる点について説明する。実施例1では、スルー画像の表示中に斜め覗き込み状態を検知する例を説明した。実施例2では、キャリブレーション作業中に斜め覗き込み状態を検知する例を説明する。また、実施例2では、斜め覗き込み状態の検知結果に基づいてファインダ内の画像表示範囲(画像を表示する範囲)を決定する例を説明する。具体的には、斜め覗き込み状態の検知結果に基づいて、斜めからファインダを覗き込まずに、正面からファインダを覗き込むことをユーザーに促すように表示デバイス10の画像表示範囲を決定する例を説明する。
<< Example 2 >>
Hereinafter, Example 2 of the present invention will be described. In the following, the description of the same points (configuration, processing, etc.) as in the first embodiment will be omitted, and the points different from the first embodiment will be described. In the first embodiment, an example of detecting an oblique looking state while displaying a through image has been described. In the second embodiment, an example of detecting an oblique looking state during the calibration operation will be described. Further, in the second embodiment, an example of determining the image display range (range in which the image is displayed) in the finder based on the detection result of the oblique looking state will be described. Specifically, based on the detection result of the oblique looking state, an example of determining the image display range of the display device 10 so as to encourage the user to look into the finder from the front without looking into the finder from an angle. explain.

既に述べた通り、キャリブレーション作業は、撮像前に位置の異なる複数の指標を表示デバイス10の画面に強調表示し、ユーザーにその指標を見てもらうことで行われる。例えば、図13(a)に示すように、表示デバイス10の画面の中心、中心よりも上側、中心よりも下側、中心よりも左側、及び、中心よりも右側の5か所に指標が表示される。実施例2では指標が1つずつ表示されるとするが、5つの指標の全てを表示し、5つの指標の間で強調された指標を順次切り替えてもよい。ユーザーは表示された指標(強調された指標)を見ることになる。つまり、キャリブレーション作業では、ユーザーの見るべき位置が指標で指定される。 As described above, the calibration work is performed by highlighting a plurality of indexes having different positions on the screen of the display device 10 before imaging and having the user see the indexes. For example, as shown in FIG. 13A, indicators are displayed at five locations on the screen of the display device 10, above the center, below the center, on the left side of the center, and on the right side of the center. Will be done. In the second embodiment, it is assumed that the indicators are displayed one by one, but all five indicators may be displayed and the emphasized indicators may be sequentially switched among the five indicators. The user will see the displayed metric (highlighted metric). That is, in the calibration work, the position to be seen by the user is specified by the index.

キャリブレーション作業では、眼球14が接眼窓枠121に十分に近づけられておらず、表示デバイス10の画面の一部がユーザーの視野に収まっていない状態において、ユーザーは、当該画面の端部に位置する指標を視認できないことがある。例えば、図13(a
)の視野範囲β1(正面からの接眼窓枠121の覗き込みに対応する視野範囲)の場合は、ユーザーは、画面の中心、上側、及び、下側の3か所の指標を見ることはできるが、左側と右側の2か所の指標を見ることはできない。
In the calibration work, when the eyeball 14 is not sufficiently close to the eyepiece window frame 121 and a part of the screen of the display device 10 is not within the user's field of view, the user is positioned at the edge of the screen. It may not be possible to visually recognize the index to be used. For example, FIG. 13 (a)
In the case of the visual field range β1 (the visual field range corresponding to the viewing of the eyepiece window frame 121 from the front), the user can see the three indexes of the center, the upper side, and the lower side of the screen. However, I cannot see the two indicators on the left and right.

この場合に、ユーザーは、視野範囲β1外の指標を見るために、斜め覗き込み状態をとることになる。図13(a)で示された左側の指標(第1指標)を見る斜め覗き込み状態では、図11(c)に示すような眼画像が得られ、図13(a)で示された右側の指標(第2指標)を見る斜め覗き込み状態では、図11(b)に示すような眼画像が得られる。 In this case, the user takes an oblique peeping state in order to see the index outside the visual field range β1. In the oblique looking state of looking at the left index (first index) shown in FIG. 13 (a), an eye image as shown in FIG. 11 (c) is obtained, and the right side shown in FIG. 13 (a) is obtained. In the oblique looking state of looking at the index (second index) of No. 11 (b), an eye image as shown in FIG. 11 (b) can be obtained.

図11(c)の眼画像について説明する。ユーザーは、表示デバイス10の画面の左端(X軸正方向の端部)にある第1指標を見るために、図10(b)のように頭部をX軸負方向(見たい方向と逆の方向;右方向)に並進移動させたうえで接眼窓枠121内を覗き込む。そのため、図11(c)の眼画像では、瞳孔像とプルキニエ像が第1指標の側(X軸正方向の側)とは反対の側(X軸負方向の側)に位置している。 The eye image of FIG. 11C will be described. In order to see the first index at the left end (the end in the positive direction of the X-axis) of the screen of the display device 10, the user shifts the head in the negative direction of the X-axis (opposite to the desired direction) as shown in FIG. 10 (b). After translating in the direction of (to the right), the inside of the eyepiece window frame 121 is looked into. Therefore, in the eye image of FIG. 11C, the pupil image and the Purkinje image are located on the side opposite to the side of the first index (the side in the positive direction of the X-axis) (the side in the negative direction of the X-axis).

図11(b)の眼画像について説明する。ユーザーは、表示デバイス10の画面の右端(X軸負方向の端部)にある第2指標を見るために、図10(a)のように頭部をX軸正方向(見たい方向と逆の方向;左方向)に並進移動させたうえで接眼窓枠121内を覗き込む。そのため、図11(b)の眼画像では、瞳孔像とプルキニエ像が第2指標の側(X軸負方向の側)とは反対の側(X軸正方向の側)に位置している。 The eye image of FIG. 11B will be described. In order to see the second index at the right end (the end in the negative direction of the X-axis) of the screen of the display device 10, the user shifts the head in the positive direction of the X-axis (opposite to the desired direction) as shown in FIG. 10 (a). After translating in the direction of (to the left), the inside of the eyepiece window frame 121 is looked into. Therefore, in the eye image of FIG. 11B, the pupil image and the Purkinje image are located on the side opposite to the side of the second index (the side in the negative direction of the X axis) (the side in the positive direction of the X axis).

このように、斜め覗き込み状態の眼画像では、ユーザーの見るべき指標の側の逆側に瞳孔像とプルキニエ像が位置することになる。 In this way, in the eye image in the oblique looking state, the pupil image and the Purkinje image are located on the opposite side of the index to be viewed by the user.

<斜め覗き込み検知方法の説明>
斜め覗き込み状態の第2の特徴として、上述したように、眼画像において、ユーザーの見るべき指標の側の逆側に瞳孔像が位置するという特徴が挙げられる。そこで、実施例2では、眼画像の中心から眼画像における瞳孔像に向かう方向が、眼画像の中心から眼画像における指標対応位置(見るべき指標に対応する位置)に向かう方向に対して反対であるという第2条件を用いる。第2条件が満たされたか否かを判断するという簡易な構成でも、斜め覗き込み状態を検知できる。具体的には、第2条件が満たされた状態を、斜め覗き込み状態として検知できる。実施例2では、実施例1で述べた第1条件と、上述した第2条件との両方が満たされたか否かを判断し、第1条件と第2条件の両方が満たされた状態を、斜め覗き込み状態として検知する。第1条件と第2条件の両方を用いることにより、実施例1よりも高精度に斜め覗き込み状態を検知できる。第1条件と第2条件の一方のみを用いてもよい。
<Explanation of diagonal peeping detection method>
As described above, the second feature of the oblique looking state is that the pupil image is located on the opposite side of the index to be seen by the user in the eye image. Therefore, in the second embodiment, the direction from the center of the eye image toward the pupil image in the eye image is opposite to the direction from the center of the eye image toward the index corresponding position (position corresponding to the index to be viewed) in the eye image. The second condition that there is is used. Even with a simple configuration of determining whether or not the second condition is satisfied, the oblique looking state can be detected. Specifically, a state in which the second condition is satisfied can be detected as an oblique looking state. In the second embodiment, it is determined whether or not both the first condition described in the first embodiment and the second condition described above are satisfied, and a state in which both the first condition and the second condition are satisfied is determined. Detected as an oblique looking state. By using both the first condition and the second condition, it is possible to detect the oblique looking state with higher accuracy than in the first embodiment. Only one of the first condition and the second condition may be used.

なお、キャリブレーション作業では、上述したように、ユーザーの見るべき位置が指標で指定される。このため、第2条件は、キャリブレーション作業中の斜め覗き込み状態を検知するための好ましい条件と言える。しかし、表示デバイス10の画面のうち、ユーザーの見るべき位置が強調されれば、キャリブレーション作業中以外の斜め覗き込み状態を検知するために第2条件を好適に用いることができる。 In the calibration work, as described above, the position to be seen by the user is specified by the index. Therefore, it can be said that the second condition is a preferable condition for detecting the oblique looking state during the calibration work. However, if the position to be viewed by the user on the screen of the display device 10 is emphasized, the second condition can be preferably used to detect the oblique looking state other than during the calibration operation.

なお、第2条件では、第1条件と同様に、眼画像における瞳孔像ではなく、眼画像におけるプルキニエ像に着目してもよい。つまり、眼画像の中心から眼画像におけるプルキニエ像に向かう方向が、眼画像の中心から眼画像における指標対応位置に向かう方向に対して反対であるという第2条件が満たされたか否かを判断してもよい。そして、プルキニエ像に関する第2条件が満たされた状態を、斜め覗き込み状態として検知してもよい。瞳孔像とプルキニエ像の一方に着目してもよいし、両方に着目してもよい。瞳孔像に関する全ての条件(第1条件と第2条件)と、プルキニエ像に関する全ての条件(第1条件と第2
条件)との一方が満たされた状態を、斜め覗き込み状態として検知してもよい。瞳孔像に関する全ての条件と、プルキニエ像に関する全ての条件との両方が満たされた状態を、斜め覗き込み状態として検知してもよい。瞳孔像に関する一部の条件(第1条件と第2条件の一方)と、プルキニエ像に関する残りの条件(第1条件と第2条件の他方)とが満たされた状態を、斜め覗き込み状態として検知してもよい。
In the second condition, as in the first condition, the Purkinje image in the eye image may be focused on instead of the pupil image in the eye image. That is, it is determined whether or not the second condition that the direction from the center of the eye image toward the Purkinje image in the eye image is opposite to the direction from the center of the eye image toward the index corresponding position in the eye image is satisfied. You may. Then, a state in which the second condition regarding the Purkinje image is satisfied may be detected as an oblique looking state. One of the pupil image and the Purkinje image may be focused on, or both may be focused on. All conditions for pupillary images (1st and 2nd conditions) and all conditions for Purkinje images (1st and 2nd conditions)
A state in which one of the conditions) is satisfied may be detected as an oblique looking state. A state in which all the conditions related to the pupil image and all the conditions related to the Purkinje image are satisfied may be detected as an oblique looking state. A state in which some conditions related to the pupil image (one of the first condition and the second condition) and the remaining conditions related to the Purkinje image (the other of the first condition and the second condition) are satisfied is defined as an oblique looking state. It may be detected.

なお、実施例2では、表示デバイス10の画面の左側と右側の2か所の指標を見ることができずに斜め覗き込み状態がとられる例を説明するが、表示デバイス10の画面の上側と下側等の指標を見ることができずに斜め覗き込み状態がとられることもある。そのような斜め覗き込み状態も、第1条件や第2条件を用いて検知できる。 In the second embodiment, an example in which the two indicators on the left side and the right side of the screen of the display device 10 cannot be seen and the oblique peeping state is taken will be described, but the upper side of the screen of the display device 10 In some cases, an oblique peeping state may be taken without being able to see the index such as the lower side. Such an oblique looking state can also be detected by using the first condition and the second condition.

<視認状態の改善方法の説明>
前述のように、接眼窓枠等に視線が遮られて表示デバイス10(画面)の端部を見ることができない場合に、斜め覗き込み状態がとられる。そこで、実施例2では、斜め覗き込み状態を検知した場合に、表示デバイス10の画像表示範囲を現在の範囲から縮小して設定する。
<Explanation of how to improve the visual condition>
As described above, when the line of sight is blocked by the eyepiece window frame or the like and the end portion of the display device 10 (screen) cannot be seen, the oblique looking state is taken. Therefore, in the second embodiment, when the oblique looking state is detected, the image display range of the display device 10 is reduced from the current range and set.

図14(a)は、斜め覗き込み状態検知前の画像表示状態を示す。この時の視認状態の概要図が図15(a)である。接眼窓枠121によって視野が制限されており、表示デバイス10(画面)の虚像300の一部である範囲β1しか視野に入っていない。このため、虚像300の一部である範囲γ1,γ2はユーザーに見えていない。範囲γ1,γ2を見るために斜め覗き込み状態がとられ、視点の推定結果に無視できない誤差が発生する。 FIG. 14A shows an image display state before detecting the oblique looking state. A schematic diagram of the visual state at this time is shown in FIG. 15 (a). The field of view is limited by the eyepiece window frame 121, and only the range β1 which is a part of the virtual image 300 of the display device 10 (screen) is in the field of view. Therefore, the ranges γ1 and γ2, which are a part of the virtual image 300, are not visible to the user. An oblique peeping state is taken to see the ranges γ1 and γ2, and a non-negligible error occurs in the estimation result of the viewpoint.

そこで、実施例2では、図14(b)に示すように、ユーザーに見えている範囲β1まで表示デバイス10の画像表示範囲を縮小する。縮小後の視認状態の概要図が図15(b)である。画像表示範囲がユーザーの視野範囲である範囲β1まで縮小されているため、ユーザーは、斜め覗き込み状態をとらずに、表示デバイス10に表示された画像の全体を見ることができる。つまり、斜め覗き込み状態をとる必要が無い状況(頭部を並進移動させる必要が無い状況)を作り出せている。従って、ユーザーに視認状態の改善(斜め覗き込み状態の解消)を促すことができ、視点の正確な(高精度な)推定結果を得ることができる。 Therefore, in the second embodiment, as shown in FIG. 14B, the image display range of the display device 10 is reduced to the range β1 visible to the user. FIG. 15B is a schematic view of the visual state after reduction. Since the image display range is reduced to the range β1 which is the user's visual field range, the user can see the entire image displayed on the display device 10 without taking an oblique looking state. In other words, it is possible to create a situation in which it is not necessary to take a diagonal peeping state (a situation in which the head does not need to be translated). Therefore, it is possible to encourage the user to improve the visual state (eliminate the oblique looking state), and to obtain an accurate (highly accurate) estimation result of the viewpoint.

このように、斜め覗き込み状態の検知結果に基づいて表示デバイス10の画像表示範囲を縮小して設定することで、斜め覗き込み状態を抑制し、視点の推定結果を改善することができる。なお、視野範囲β1(斜め除き込み状態が検知されない視認状態での視野範囲;正面からファインダを覗き込んだ視認状態での視野範囲)を画像表示範囲とする例を説明するが、画像表示範囲は視野範囲β1より狭くてもよい。視野範囲β1の少なくとも一部が画像表示範囲として決定されれば、斜め覗き込み状態を抑制し、視点の推定結果を改善することができる。図14(c)に示すように、図14(a)の状態からアスペクト比が維持されるように画像表示範囲を縮小してもよい。 In this way, by reducing and setting the image display range of the display device 10 based on the detection result of the oblique looking state, the oblique looking state can be suppressed and the estimation result of the viewpoint can be improved. An example will be described in which the visual field range β1 (the visual field range in the visual field state in which the oblique exclusion state is not detected; the visual field range in the visual field state in which the finder is viewed from the front) is used as the image display range. It may be narrower than the field of view β1. If at least a part of the visual field range β1 is determined as the image display range, the oblique looking state can be suppressed and the estimation result of the viewpoint can be improved. As shown in FIG. 14 (c), the image display range may be reduced so that the aspect ratio is maintained from the state of FIG. 14 (a).

<カメラ動作の説明>
実施例2に係るカメラ動作について、図16のフローチャートに従って説明する。図16の処理フローは、例えば、キャリブレーション作業開始を指示するユーザー操作に応じて開始される。上述した視野範囲β1は、眼球14の位置(眼球14と接眼窓枠121の間の距離など)に依存する。このため、図16のフローチャートでは、斜め覗き込み状態の検知結果に基づいて視野範囲β1を推定し、推定した視野範囲β1(推定視野範囲)に基づいて表示デバイス10の画像表示範囲を決定する。
<Explanation of camera operation>
The camera operation according to the second embodiment will be described with reference to the flowchart of FIG. The processing flow of FIG. 16 is started, for example, in response to a user operation instructing the start of calibration work. The above-mentioned visual field range β1 depends on the position of the eyeball 14 (distance between the eyeball 14 and the eyepiece window frame 121, etc.). Therefore, in the flowchart of FIG. 16, the visual field range β1 is estimated based on the detection result of the oblique looking state, and the image display range of the display device 10 is determined based on the estimated visual field range β1 (estimated visual field range).

ステップS1601では、CPU3は、ユーザーに注視させる第1指標(表示デバイス
10の画面のうち、中心よりも左側の指標)を、表示デバイス10に表示する。
In step S1601, the CPU 3 displays on the display device 10 a first index (an index on the left side of the center of the screen of the display device 10) to be watched by the user.

ステップS1602では、CPU3は、所定時間の待機を行う。 In step S1602, the CPU 3 waits for a predetermined time.

ステップS1603では、CPU3は、ユーザーによってレリーズボタン5が押されて(半押しされて)スイッチSW1がONとなったか否かを判断する。例えば、ユーザーは、第1指標を注視したことを示すために、レリーズボタン5の半押しを行い、スイッチSW1をONにする。CPU3は、スイッチSW1がONとなった場合にステップS1604に処理を進め、スイッチSW1がONとならなかった場合にステップS1602に処理を戻す。 In step S1603, the CPU 3 determines whether or not the release button 5 is pressed (half-pressed) by the user to turn on the switch SW1. For example, the user presses the release button 5 halfway to turn on the switch SW1 in order to indicate that he has gazed at the first index. The CPU 3 proceeds to step S1604 when the switch SW1 is turned on, and returns to step S1602 when the switch SW1 is not turned on.

ステップS1604では、CPU3は、図8の視線検出動作を行う。視線検出動作により、眼画像における瞳孔像の座標、眼画像におけるプルキニエ像の座標、及び、表示デバイス10の画面における視点の座標が算出される。 In step S1604, the CPU 3 performs the line-of-sight detection operation shown in FIG. The line-of-sight detection operation calculates the coordinates of the pupil image in the eye image, the coordinates of the Purkinje image in the eye image, and the coordinates of the viewpoint on the screen of the display device 10.

ステップS1605では、CPU3は、第1条件が満たされているか否か、具体的にはステップS1604の視線検出動作で検出された瞳孔像の位置が所定の範囲内にあるか否かを判断する。CPU3は、所定の範囲外の場合にステップS1606へ処理を進め、所定の範囲内の場合にステップS1609へ処理を進める。 In step S1605, the CPU 3 determines whether or not the first condition is satisfied, specifically, whether or not the position of the pupil image detected by the line-of-sight detection operation in step S1604 is within a predetermined range. The CPU 3 proceeds to step S1606 when it is outside the predetermined range, and proceeds to step S1609 when it is within the predetermined range.

ステップS1606では、CPU3は、第2条件が満たされているか否か、具体的には眼画像の中心から眼画像における瞳孔像に向かう方向がX軸負方向(表示デバイス10の画面の中心から第1指標に向かうX軸正方向の逆方向)であるか否かを判断する。CPU3は、瞳孔像がX軸負方向の側に位置する場合にステップS1607へ処理を進め、瞳孔像がX軸正方向の側に位置する場合にステップS1609へ処理を進める。 In step S1606, the CPU 3 determines whether or not the second condition is satisfied, specifically, the direction from the center of the eye image toward the pupil image in the eye image is the negative X-axis direction (from the center of the screen of the display device 10 to the thirth). 1 It is determined whether or not the X-axis is in the reverse direction of the forward direction toward the index. The CPU 3 proceeds to step S1607 when the pupil image is located on the negative side of the X-axis, and proceeds to step S1609 when the pupil image is located on the positive side of the X-axis.

ステップS1607では、CPU3は、現在の状態が斜め覗き込み状態であると判断する。ステップS1608では、CPU3は、ステップS1604の視線検出動作による視点の推定結果に無視できない誤差が含まれており、適切なキャリブレーションを行うこと(適切な視線補正パラメータを得ること)ができないため、視認状態改善処理を行う。その後、ステップS1602に処理が戻され、視線検出動作が再度行われる。 In step S1607, the CPU 3 determines that the current state is an oblique looking state. In step S1608, the CPU 3 visually recognizes because the estimation result of the viewpoint by the line-of-sight detection operation in step S1604 contains a non-negligible error and cannot perform appropriate calibration (obtaining an appropriate line-of-sight correction parameter). Performs state improvement processing. After that, the process is returned to step S1602, and the line-of-sight detection operation is performed again.

実施例2では、図13(b)に示すように、CPU3は、ステップS1607の視認状態改善処理により、第1指標を表示デバイス10の画面の中心に近づける。また、CPU3は、推定視野範囲(視野範囲β1として推定した視野範囲)をデフォルトの範囲(例えば画面の全範囲)から縮小する。具体的には、CPU3は、推定視野範囲の左辺の位置が第1指標の位置となるように、推定視野範囲を左側から縮小する。図13(b)の状態でも、第1指標が視野範囲β1の外側に配置されているため、ユーザーは斜め覗き込み状態をとることになる。このため、ステップS1607の視認状態改善処理が再度行われて、図13(c)に示すように、第1指標が視野範囲β1の内側に配置され、推定視野範囲が縮小されることになる。その結果、斜めから接眼窓枠121内を覗き込まなくても第1指標を視認できるようになり、斜め覗き込み状態を解消できる。これにより、斜め覗き込み状態が解消された時点で、視野範囲β1の左端が推定視野範囲の左端(X軸正方向の端)となる。 In the second embodiment, as shown in FIG. 13B, the CPU 3 brings the first index closer to the center of the screen of the display device 10 by the visual state improvement process in step S1607. Further, the CPU 3 reduces the estimated field of view range (the field of view range estimated as the field of view range β1) from the default range (for example, the entire range of the screen). Specifically, the CPU 3 reduces the estimated visual field range from the left side so that the position on the left side of the estimated visual field range becomes the position of the first index. Even in the state of FIG. 13B, since the first index is arranged outside the visual field range β1, the user takes an oblique looking state. Therefore, the visual field improvement process of step S1607 is performed again, and as shown in FIG. 13C, the first index is arranged inside the visual field range β1, and the estimated visual field range is reduced. As a result, the first index can be visually recognized without looking into the inside of the eyepiece window frame 121 from an angle, and the oblique looking state can be eliminated. As a result, when the oblique looking state is resolved, the left end of the visual field range β1 becomes the left end of the estimated visual field range (the end in the positive direction of the X-axis).

なお、視認状態改善処理は上記処理に限られない。例えば、適切なキャリブレーションが行えるように視認状態を改善することをユーザーに促すことができれば、視認状態改善処理はどのような処理であってもよい。具体的には、実施例1で述べたように、視認状態改善処理は、斜め覗き込み状態であることの警告であってもよい。 The visual state improvement process is not limited to the above process. For example, the visual state improvement process may be any process as long as the user can be urged to improve the visual state so that appropriate calibration can be performed. Specifically, as described in the first embodiment, the visual recognition state improvement process may be a warning that the state is an oblique looking state.

ステップS1609では、CPU3は、ユーザーに注視させる第2指標(表示デバイス10の画面のうち、中心よりも右側の指標)を、表示デバイス10に表示する。このとき、第1指標に関する処理は終了したとして、第1指標は非表示となる。 In step S1609, the CPU 3 displays on the display device 10 a second index (an index on the right side of the center of the screen of the display device 10) to be watched by the user. At this time, the first index is hidden, assuming that the processing related to the first index is completed.

ステップS1610では、CPU3は、所定時間の待機を行う。 In step S1610, the CPU 3 waits for a predetermined time.

ステップS1611では、CPU3は、ユーザーによってレリーズボタン5が押されて(半押しされて)スイッチSW1がONとなったか否かを判断する。例えば、ユーザーは、第2指標を注視したことを示すために、レリーズボタン5の半押しを行い、スイッチSW1をONにする。CPU3は、スイッチSW1がONとなった場合にステップS1612に処理を進め、スイッチSW1がONとならなかった場合にステップS1610に処理を戻す。 In step S1611, the CPU 3 determines whether or not the release button 5 is pressed (half-pressed) by the user to turn on the switch SW1. For example, the user presses the release button 5 halfway to turn on the switch SW1 in order to indicate that he has gazed at the second index. The CPU 3 proceeds to step S1612 when the switch SW1 is turned on, and returns to step S1610 when the switch SW1 is not turned on.

ステップS1612では、CPU3は、図8の視線検出動作を行う。視線検出動作により、眼画像における瞳孔像の座標、眼画像におけるプルキニエ像の座標、及び、表示デバイス10の画面における視点の座標が算出される。 In step S1612, the CPU 3 performs the line-of-sight detection operation shown in FIG. The line-of-sight detection operation calculates the coordinates of the pupil image in the eye image, the coordinates of the Purkinje image in the eye image, and the coordinates of the viewpoint on the screen of the display device 10.

ステップS1613では、CPU3は、第1条件が満たされているか否か、具体的にはステップS1612の視線検出動作で検出された瞳孔像の位置が所定の範囲内にあるか否かを判断する。CPU3は、所定の範囲外の場合にステップS1614へ処理を進め、所定の範囲内の場合にステップS1617へ処理を進める。 In step S1613, the CPU 3 determines whether or not the first condition is satisfied, specifically, whether or not the position of the pupil image detected by the line-of-sight detection operation in step S1612 is within a predetermined range. The CPU 3 proceeds to step S1614 when it is outside the predetermined range, and proceeds to step S1617 when it is within the predetermined range.

ステップS1614では、CPU3は、第2条件が満たされているか否か、具体的には眼画像の中心から眼画像における瞳孔像に向かう方向がX軸正方向(表示デバイス10の画面の中心から第2指標に向かうX軸負方向の逆方向)であるか否かを判断する。CPU3は、瞳孔像がX軸正方向の側に位置する場合にステップS1615へ処理を進め、瞳孔像がX軸負方向の側に位置する場合にステップS1617へ処理を進める。 In step S1614, the CPU 3 determines whether or not the second condition is satisfied, specifically, the direction from the center of the eye image toward the pupil image in the eye image is the X-axis positive direction (from the center of the screen of the display device 10 to the thirth). 2 It is determined whether or not the X-axis is in the opposite direction of the negative direction toward the index). The CPU 3 proceeds to step S1615 when the pupil image is located on the positive side of the X-axis, and proceeds to step S1617 when the pupil image is located on the negative side of the X-axis.

ステップS1615では、CPU3は、現在の状態が斜め覗き込み状態であると判断する。ステップS1616では、CPU3は、ステップS1612の視線検出動作による視点の推定結果に無視できない誤差が含まれており、適切なキャリブレーションを行うこと(適切な視線補正パラメータを得ること)ができないため、視認状態改善処理を行う。その後、ステップS1610に処理が戻され、視線検出動作が再度行われる。実施例2では、ステップS1607の視認状態改善処理と同様に、CPU3は、ステップS1615の視認状態改善処理により、第2指標を表示デバイス10の画面の中心に近づけ、推定視野範囲を更新する。具体的には、推定視野範囲は、推定視野範囲の右辺の位置が第2指標の位置となるように、右側から縮小される。ステップS1607の視認状態改善処理と同様に、ステップS1615の視認状態改善処理は、斜め覗き込み状態が解消されるまで繰り返される。これにより、斜め覗き込み状態が解消された時点で、視野範囲β1の右端が推定視野範囲の右端(X軸負方向の端)となる。 In step S1615, the CPU 3 determines that the current state is an oblique looking state. In step S1616, the CPU 3 visually recognizes because the estimation result of the viewpoint by the line-of-sight detection operation in step S1612 contains a non-negligible error and cannot perform appropriate calibration (obtaining an appropriate line-of-sight correction parameter). Performs state improvement processing. After that, the process is returned to step S1610, and the line-of-sight detection operation is performed again. In the second embodiment, similarly to the visual field improvement process in step S1607, the CPU 3 brings the second index closer to the center of the screen of the display device 10 and updates the estimated visual field range by the visual field improvement process in step S1615. Specifically, the estimated visual field range is reduced from the right side so that the position of the right side of the estimated visual field range becomes the position of the second index. Similar to the visual state improvement process of step S1607, the visual state improvement process of step S1615 is repeated until the oblique looking state is eliminated. As a result, when the oblique looking state is resolved, the right end of the visual field range β1 becomes the right end of the estimated visual field range (the end in the negative direction of the X-axis).

ステップS1617では、CPU3は、全ての指標に関する処理が終了したと判断し、キャリブレーションの成功をユーザーに通知する。さらに、CPU3は、各指標を注視した際の視点の推定結果から視線補正パラメータを算出し、視線補正パラメータをメモリ部4に格納する。なお、図16には第1指標(左側の指標)に関する処理と、第2指標(右側の指標)に関する処理とのみが示されているが、実際には図13(a)に示す5つの指標のそれぞれについて処理が行われる。 In step S1617, the CPU 3 determines that the processing related to all the indexes has been completed, and notifies the user of the success of the calibration. Further, the CPU 3 calculates the line-of-sight correction parameter from the estimation result of the viewpoint when gazing at each index, and stores the line-of-sight correction parameter in the memory unit 4. Although only the processing related to the first index (index on the left side) and the processing related to the second index (index on the right side) are shown in FIG. 16, the five indexes shown in FIG. 13A are actually shown. Processing is performed for each of.

このように、実施例2では、表示デバイス10の画面の端部に指標を表示した後に斜め覗き込み状態が検知されなくなるまで当該指標を画面の中心に近づけるような制御が、画
面の複数の辺について行われる。そして、表示デバイス10の画面のうち、斜め覗き込み状態が検知されることなくユーザーが指標を見ることのできる複数の位置の範囲が、視野範囲β1として推定される。なお、視野範囲β1の推定方法はこれに限られない。例えば、予め定められた複数の位置の間で指標の位置を変えながら、斜め覗き込み状態が検知されない複数の位置を検出し、検出した複数の位置の範囲(複数の位置を含む最小の範囲)を視野範囲β1として推定してもよい。
As described above, in the second embodiment, the control of displaying the index on the edge of the screen of the display device 10 and then bringing the index closer to the center of the screen until the oblique peeping state is no longer detected is performed on a plurality of sides of the screen. Is done about. Then, in the screen of the display device 10, a range of a plurality of positions where the user can see the index without detecting the oblique looking state is estimated as the visual field range β1. The method for estimating the visual field range β1 is not limited to this. For example, while changing the position of the index among a plurality of predetermined positions, a plurality of positions where the oblique looking state is not detected are detected, and the range of the detected multiple positions (the minimum range including the plurality of positions). May be estimated as the field of view β1.

ステップS1618では、CPU3は、推定視野範囲を表示デバイス10の画像表示範囲として設定して、図16の処理フローを終了する。 In step S1618, the CPU 3 sets the estimated field of view range as the image display range of the display device 10 and ends the processing flow of FIG.

<まとめ>
以上述べたように、実施例2によれば、第1条件に加え、第2条件をさらに用いることにより、実施例1よりも高精度に斜め覗き込み状態を検知できる。
<Summary>
As described above, according to the second embodiment, by further using the second condition in addition to the first condition, it is possible to detect the oblique looking state with higher accuracy than in the first condition.

斜め覗き込み状態でキャリブレーション作業を行うと、視点の推定結果に無視できない誤差が含まれるため、適切な視線補正パラメータを得ることができない。実施例2によれば、キャリブレーション作業中に斜め覗き込み状態が検知及び解消されるため、適切な視線補正パラメータを得ることができる。その結果、キャリブレーション作業後の撮影時等における視点の推定精度を向上することができる。 If the calibration work is performed in the oblique looking state, the estimation result of the viewpoint contains a non-negligible error, and therefore an appropriate line-of-sight correction parameter cannot be obtained. According to the second embodiment, since the oblique looking state is detected and eliminated during the calibration operation, an appropriate line-of-sight correction parameter can be obtained. As a result, it is possible to improve the estimation accuracy of the viewpoint at the time of shooting after the calibration work.

さらに、実施例2によれば、斜め覗き込み状態が解消されるように、指標が表示デバイス10の画面の中心に近づけられる。そして、斜め覗き込み状態が解消された後の複数の指標から、斜め覗き込み状態でない好適な視認状態(正面からの接眼窓枠121内の覗き込み)に対応する視野範囲β1を特定することができる。特定した視野範囲β1を利用することで、カメラ1の利便性を向上することができる。例えば、キャリブレーション作業後の撮影時等において、特定した視野範囲β1に収まるように視認用画像を縮小表示することで、斜め覗き込み状態を抑制でき、視点の推定精度を向上することができる。具体的には、実施例2によれば、斜め覗き込み状態が検知され、斜め覗き込み状態が検知されない状態での視野範囲が斜め覗き込み状態の検知結果に基づいて推定される。そして、推定された視野範囲に基づいて表示デバイスの画像表示範囲が決定される。このような簡易な構成により、斜め覗き込み状態が検知されない状態で全体を視認可能な画像表示範囲を決定でき、視点の推定が高精度に行えない状態を解消できる。 Further, according to the second embodiment, the index is brought closer to the center of the screen of the display device 10 so that the oblique looking state is eliminated. Then, it is possible to specify the visual field range β1 corresponding to a suitable visual state (viewing in the eyepiece window frame 121 from the front) that is not in the diagonal looking state from a plurality of indexes after the diagonal looking state is resolved. it can. By using the specified field of view β1, the convenience of the camera 1 can be improved. For example, at the time of shooting after the calibration work, by displaying the visual image in a reduced size so as to be within the specified visual field range β1, the oblique looking state can be suppressed and the estimation accuracy of the viewpoint can be improved. Specifically, according to the second embodiment, the oblique peeping state is detected, and the visual field range in the state where the oblique peeping state is not detected is estimated based on the detection result of the oblique peeping state. Then, the image display range of the display device is determined based on the estimated field of view range. With such a simple configuration, it is possible to determine the image display range in which the entire image can be visually recognized without detecting the oblique looking state, and it is possible to eliminate the state in which the viewpoint cannot be estimated with high accuracy.

なお、キャリブレーション作業中に視野範囲を推定し、キャリブレーション作業中またはキャリブレーション作業後に、推定した視野範囲に基づいて画像表示範囲を決定する例を説明したが、そうでなくてもよい。リブレーション作業が行われていない期間に、視野範囲を推定し、推定した視野範囲に基づいて画像表示範囲を決定してもよい。視野範囲を推定せずに、斜め覗き込み状態の検知結果(斜め覗き込み状態の有無、眼画像における瞳孔像やプルキニエ像の位置など)に基づいて、画像表示範囲のサイズと位置の少なくとも一方を変更してもよい。 Although the example in which the field of view is estimated during the calibration work and the image display range is determined based on the estimated field of view during the calibration work or after the calibration work has been described, this may not be the case. The visual field range may be estimated during the period when the reblation work is not performed, and the image display range may be determined based on the estimated visual field range. At least one of the size and position of the image display range is determined based on the detection result of the oblique peeping state (presence or absence of the oblique peeping state, the position of the pupil image or Purkinje image in the eye image, etc.) without estimating the visual field range. You may change it.

<<実施例3>>
以下、本発明の実施例3について説明する。なお、以下では、実施例2と同じ点(構成や処理など)についての説明は省略し、実施例2と異なる点について説明する。実施例2では、画像表示範囲を縮小する例を説明した。実施例3では、画像表示範囲を移動させる例を説明する。
<< Example 3 >>
Hereinafter, Example 3 of the present invention will be described. In the following, the description of the same points (configuration, processing, etc.) as in the second embodiment will be omitted, and the points different from the second embodiment will be described. In the second embodiment, an example of reducing the image display range has been described. In the third embodiment, an example of moving the image display range will be described.

<視認状態の改善方法の説明>
前述のように、接眼窓枠等に視線が遮られて表示デバイス10(画面)の端部を見ることができない場合に、斜め覗き込み状態がとられる。そこで、実施例3では、斜め覗き込
み状態を検知した場合に、表示デバイス10の画像表示範囲を現在の範囲から移動させて設定する。
<Explanation of how to improve the visual condition>
As described above, when the line of sight is blocked by the eyepiece window frame or the like and the end portion of the display device 10 (screen) cannot be seen, the oblique looking state is taken. Therefore, in the third embodiment, when the oblique looking state is detected, the image display range of the display device 10 is moved from the current range and set.

図17(a)は、斜め覗き込み状態検知前の画像表示状態を示す。この時の視認状態の概要図が図18(a)である。接眼窓枠121によって視野が制限されており、表示デバイス10(画面)の虚像300の一部である範囲β1しか視野に入っていない。このため、虚像300の一部である範囲γ1,γ2はユーザーに見えていない。範囲γ1,γ2を見るために斜め覗き込み状態がとられ、視点の推定結果に無視できない誤差が発生する。 FIG. 17A shows an image display state before detecting an oblique looking state. FIG. 18A is a schematic view of the visual state at this time. The field of view is limited by the eyepiece window frame 121, and only the range β1 which is a part of the virtual image 300 of the display device 10 (screen) is in the field of view. Therefore, the ranges γ1 and γ2, which are a part of the virtual image 300, are not visible to the user. An oblique peeping state is taken to see the ranges γ1 and γ2, and a non-negligible error occurs in the estimation result of the viewpoint.

そこで、実施例3では、図17(b)に示すように、表示デバイス10の画像表示範囲の右端(X軸負方向の端)が、ユーザーに見えている範囲β1の右端に一致するように、表示デバイス10の画像表示範囲を左方向(X軸正方向)に移動させる。移動後の視認状態の概要図が図18(b)である。X軸負方向における画像表示範囲の端が視野範囲β1に含まれるように画像表示範囲を移動させたことで、ユーザーは、斜め覗き込み状態をとらずに、表示デバイス10に表示された画像の右端(X軸負方向の端)を見ることができる。つまり、ユーザーが画像の右端を見たい場合の状況として、斜め覗き込み状態をとる必要が無い状況(頭部を並進移動させる必要が無い状況)を作り出せている。従って、ユーザーに視認状態の改善(斜め覗き込み状態の解消)を促すことができ、視点の正確な(高精度な)推定結果を得ることができる。 Therefore, in the third embodiment, as shown in FIG. 17B, the right end (the end in the negative direction of the X-axis) of the image display range of the display device 10 coincides with the right end of the range β1 visible to the user. , The image display range of the display device 10 is moved to the left (X-axis positive direction). FIG. 18B is a schematic view of the visual state after the movement. By moving the image display range so that the end of the image display range in the negative direction of the X-axis is included in the field of view β1, the user can view the image displayed on the display device 10 without taking an oblique peeping state. You can see the right end (the end in the negative direction of the X-axis). In other words, as a situation when the user wants to see the right edge of the image, it is possible to create a situation in which it is not necessary to take a diagonal looking state (a situation in which the head does not need to be translated). Therefore, it is possible to encourage the user to improve the visual state (eliminate the oblique looking state), and to obtain an accurate (highly accurate) estimation result of the viewpoint.

図17(c)に示すように、表示デバイス10の画像表示範囲の左端(X軸正方向の端)が、ユーザーに見えている範囲β1の左端に一致するように、表示デバイス10の画像表示範囲を右方向(X軸負方向)に移動させてもよい。移動後の視認状態の概要図が図18(c)である。X軸正方向における画像表示範囲の端が視野範囲β1に含まれるように画像表示範囲を移動させたことで、ユーザーは、斜め覗き込み状態をとらずに、表示デバイス10に表示された画像の左端(X軸正方向の端)を見ることができる。つまり、ユーザーが画像の左端を見たい場合の状況として、斜め覗き込み状態をとる必要が無い状況(頭部を並進移動させる必要が無い状況)を作り出せている。従って、ユーザーに視認状態の改善(斜め覗き込み状態の解消)を促すことができ、視点の正確な(高精度な)推定結果を得ることができる。 As shown in FIG. 17C, the image display of the display device 10 is such that the left end (the end in the positive direction of the X-axis) of the image display range of the display device 10 coincides with the left end of the range β1 visible to the user. The range may be moved to the right (negative X-axis direction). FIG. 18 (c) is a schematic view of the visual state after the movement. By moving the image display range so that the edge of the image display range in the positive direction of the X-axis is included in the field of view β1, the user can view the image displayed on the display device 10 without taking an oblique peeping state. You can see the left end (the end in the positive direction of the X-axis). In other words, as a situation when the user wants to see the left edge of the image, it is possible to create a situation in which it is not necessary to take a diagonal looking state (a situation in which the head does not need to be translated). Therefore, it is possible to encourage the user to improve the visual state (eliminate the oblique looking state), and to obtain an accurate (highly accurate) estimation result of the viewpoint.

このように、ユーザーが見たい方向と逆の方向に画像表示範囲を移動させることで、斜め覗き込み状態を抑制し、視点の推定結果を改善することができる。なお、画像表示範囲の端が視野範囲β1の端に一致するように画像表示範囲を移動させる例を説明したが、画像表示範囲が視野範囲β1の少なくとも一部を含んで移動すれば、画像表示範囲の移動方向や移動量は特に限定されない。実施例2で述べた方法などで視野範囲β1が推定されていれば、推定された視野範囲β1(推定視野範囲)に基づいて、画像表示範囲が視野範囲β1の少なくとも一部を含むように画像表示範囲を移動させることができる。そして、そのように画像表示範囲を移動させれば、斜め覗き込み状態を抑制し、視点の推定結果を改善することができる。 By moving the image display range in the direction opposite to the direction the user wants to see in this way, it is possible to suppress the oblique looking state and improve the estimation result of the viewpoint. An example of moving the image display range so that the edge of the image display range coincides with the edge of the field of view β1 has been described. However, if the image display range is moved to include at least a part of the field of view β1, the image is displayed. The movement direction and movement amount of the range are not particularly limited. If the field of view β1 is estimated by the method described in Example 2, the image is such that the image display range includes at least a part of the field of view β1 based on the estimated field of view β1 (estimated field of view). The display range can be moved. Then, by moving the image display range in this way, it is possible to suppress the oblique looking state and improve the estimation result of the viewpoint.

なお、X軸正方向への画像表示範囲の移動は、ユーザーが画像の右端(X軸負方向の端)を見たい場合に好ましく、X軸負方向への画像表示範囲の移動は、ユーザーが画像の左端(X軸正方向の端)を見たい場合に好ましい。このため、ユーザーが画像の右端を見たい場合の斜め覗き込み状態が検知された場合に、X軸正方向に画像表示範囲を移動させ、ユーザーが画像の左端を見たい場合の斜め覗き込み状態が検知された場合に、X軸負方向に画像表示範囲を移動させてもよい。つまり、斜め覗き込み状態の検知結果に基づいて、画像表示範囲の移動方向や移動量が決定されてもよい。瞳孔像やプルキニエ像が、眼画像の中心に対してX軸正方向に大きく移動した場所に位置する場合には、ユーザーが画像の右端を見たいと判断できる。そして、瞳孔像やプルキニエ像が、眼画像の中心に対してX
軸負方向に大きく移動した場所に位置する場合には、ユーザーが画像の左端を見たいと判断できる。
The movement of the image display range in the positive direction of the X-axis is preferable when the user wants to see the right end of the image (the end in the negative direction of the X-axis), and the user moves the image display range in the negative direction of the X-axis. This is preferable when you want to see the left edge of the image (the edge in the positive direction of the X-axis). Therefore, when the diagonal peeping state when the user wants to see the right edge of the image is detected, the image display range is moved in the positive direction of the X-axis, and the diagonal peeping state when the user wants to see the left edge of the image. When is detected, the image display range may be moved in the negative direction of the X-axis. That is, the moving direction and the moving amount of the image display range may be determined based on the detection result of the oblique looking state. When the pupil image or Purkinje image is located at a position largely moved in the positive direction of the X-axis with respect to the center of the eye image, the user can determine that he / she wants to see the right edge of the image. Then, the pupil image and the Purkinje image are X with respect to the center of the eye image.
If it is located in a location that has moved significantly in the negative axis direction, it can be determined that the user wants to see the left edge of the image.

<まとめ>
以上述べたように、実施例3によれば、推定された視野範囲に基づいて表示デバイスの画像表示範囲を移動させる。このような簡易な構成により、斜め覗き込み状態が検知されない状態で全体を視認可能な画像表示範囲を決定でき、視点の推定が高精度に行えない状態を解消できる。
<Summary>
As described above, according to the third embodiment, the image display range of the display device is moved based on the estimated field of view range. With such a simple configuration, it is possible to determine the image display range in which the entire image can be visually recognized without detecting the oblique looking state, and it is possible to eliminate the state in which the viewpoint cannot be estimated with high accuracy.

<<実施例4>>
以下、本発明の実施例4について説明する。なお、以下では、実施例2と同じ点(構成や処理など)についての説明は省略し、実施例2と異なる点について説明する。実施例4では、キャリブレーション作業中に斜め覗き込み状態を検知する他の例を説明する。
<< Example 4 >>
Hereinafter, Example 4 of the present invention will be described. In the following, the description of the same points (configuration, processing, etc.) as in the second embodiment will be omitted, and the points different from the second embodiment will be described. In the fourth embodiment, another example of detecting the oblique looking state during the calibration operation will be described.

キャリブレーション作業で表示される複数の指標は、表示デバイス10の画面の中心を挟む2つの指標を含む。具体的には、図13(a)に示すように、第1指標(左側の指標)と第2指標(右側の指標)は、表示デバイス10の画面の中心を挟む。そして、実施例2で述べたように、第1指標を見る斜め覗き込み状態で得られた眼画像では、瞳孔像とプルキニエ像が第1指標の側(X軸正方向の側)とは反対の側(X軸負方向の側)に位置する。一方で、第2指標を見る斜め覗き込み状態で得られた眼画像では、瞳孔像とプルキニエ像が第2指標の側(X軸負方向の側)とは反対の側(X軸正方向の側)に位置する。つまり、第1指標を見た場合の眼画像における瞳孔像とプルキニエ像が、第2指標を見た場合のそれらと反対の側に位置する。 The plurality of indexes displayed in the calibration operation include two indexes that sandwich the center of the screen of the display device 10. Specifically, as shown in FIG. 13A, the first index (index on the left side) and the second index (index on the right side) sandwich the center of the screen of the display device 10. Then, as described in Example 2, in the eye image obtained in the oblique looking state of looking at the first index, the pupil image and the Purkinje image are opposite to the side of the first index (the side in the positive direction of the X-axis). It is located on the side of (the side in the negative direction of the X axis). On the other hand, in the eye image obtained in the oblique looking state of looking at the second index, the pupil image and the Purkinje image are on the side opposite to the side of the second index (the side in the negative direction of the X axis) (in the positive direction of the X axis). Located on the side). That is, the pupil image and the Purkinje image in the eye image when the first index is viewed are located on the opposite side to those when the second index is viewed.

<斜め覗き込み検知方法の説明>
斜め覗き込み状態の第3の特徴として、上述したように、第1指標を見た場合の眼画像における瞳孔像とプルキニエ像が、第2指標を見た場合のそれらと反対の側に位置するという特徴が挙げられる。そこで、実施例4では、第1指標を見た場合と第2指標を見た場合との間で、眼画像の中心から眼画像における瞳孔像に向かう方向が反対であるという第3条件を用いる。第3条件が満たされたか否かを判断するという簡易な構成でも、斜め覗き込み状態を検知できる。具体的には、第3条件が満たされた状態を、斜め覗き込み状態として検知できる。実施例4では、実施例2で述べた第1条件および第2条件と、上述した第3条件との両方が満たされたか否かを判断し、第1条件、第2条件、及び、第3条件の全てが満たされた状態を、斜め覗き込み状態として検知する。第1条件、第2条件、及び、第3条件の全てを用いることにより、実施例2よりも高精度に斜め覗き込み状態を検知できる。第2条件を用いずに、第1条件と第3条件を用いてもよい。第3条件のみを用いてもよい。
<Explanation of diagonal peeping detection method>
As the third feature of the oblique looking state, as described above, the pupil image and the Purkinje image in the eye image when the first index is viewed are located on the opposite side to those when the second index is viewed. The feature is mentioned. Therefore, in the fourth embodiment, the third condition is used that the direction from the center of the eye image toward the pupil image in the eye image is opposite between the case where the first index is viewed and the case where the second index is viewed. .. Even with a simple configuration of determining whether or not the third condition is satisfied, the oblique looking state can be detected. Specifically, a state in which the third condition is satisfied can be detected as an oblique looking state. In the fourth embodiment, it is determined whether or not both the first condition and the second condition described in the second embodiment and the third condition described above are satisfied, and the first condition, the second condition, and the third condition are satisfied. A state in which all the conditions are satisfied is detected as an oblique looking state. By using all of the first condition, the second condition, and the third condition, the oblique looking state can be detected with higher accuracy than in the second embodiment. The first condition and the third condition may be used without using the second condition. Only the third condition may be used.

なお、キャリブレーション作業では、上述したように、ユーザーの見るべき位置が指標で指定される。このため、第3条件は、キャリブレーション作業中の斜め覗き込み状態を検知するための好ましい条件と言える。しかし、表示デバイス10の画面のうち、ユーザーの見るべき位置が強調されれば、キャリブレーション作業中以外の斜め覗き込み状態を検知するために第3条件を好適に用いることができる。 In the calibration work, as described above, the position to be seen by the user is specified by the index. Therefore, it can be said that the third condition is a preferable condition for detecting the oblique looking state during the calibration work. However, if the position to be viewed by the user on the screen of the display device 10 is emphasized, the third condition can be preferably used in order to detect the oblique looking state other than during the calibration operation.

なお、第3条件では、第1条件や第2条件と同様に、眼画像における瞳孔像ではなく、眼画像におけるプルキニエ像に着目してもよい。つまり、第1指標を見た場合と第2指標を見た場合との間で、眼画像の中心から眼画像におけるプルキニエ像に向かう方向が反対であるという第3条件が満たされたか否かを判断し、当該第3条件が満たされた状態を、斜め覗き込み状態として検知してもよい。瞳孔像とプルキニエ像の一方に着目してもよいし、両方に着目してもよい。瞳孔像に関する全ての条件(第1条件、第2条件、及び、第
3条件)と、プルキニエ像に関する全ての条件(第1条件、第2条件、及び、第3条件)との一方が満たされた状態を、斜め覗き込み状態として検知してもよい。瞳孔像に関する全ての条件と、プルキニエ像に関する全ての条件との両方が満たされた状態を、斜め覗き込み状態として検知してもよい。瞳孔像に関する一部の条件と、プルキニエ像に関する残りの条件とが満たされた状態を、斜め覗き込み状態として検知してもよい。
In the third condition, as in the first condition and the second condition, the Purkinje image in the eye image may be focused on instead of the pupil image in the eye image. That is, whether or not the third condition that the direction from the center of the eye image toward the Purkinje image in the eye image is opposite between the case where the first index is viewed and the case where the second index is viewed is satisfied. A state in which the third condition is satisfied may be detected as an oblique looking state. One of the pupil image and the Purkinje image may be focused on, or both may be focused on. One of all the conditions for the pupil image (first condition, second condition, and third condition) and all the conditions for the Purkinje image (first condition, second condition, and third condition) are satisfied. The state may be detected as an oblique looking state. A state in which all the conditions related to the pupil image and all the conditions related to the Purkinje image are satisfied may be detected as an oblique looking state. A state in which some conditions relating to the pupil image and the remaining conditions relating to the Purkinje image are satisfied may be detected as an oblique looking state.

なお、実施例4では、表示デバイス10の画面の左側と右側の2か所の指標を見ることができずに斜め覗き込み状態がとられ、当該画面の中心を挟む2つの指標として第1指標(左側の指標)と第2指標(右側の指標)を用いる例を説明する。但し、表示デバイス10の画面の中心を挟む2つの指標は、これに限られない。例えば、表示デバイス10の画面の中心を挟む2つの指標は、当該画面の上側と下側の2つの指標であってもよい。これにより、表示デバイス10の画面の上側と下側の2か所の指標を見ることができずにとられた斜め覗き込み状態を、第3条件を用いて検知できる。 In the fourth embodiment, the two indexes on the left side and the right side of the screen of the display device 10 cannot be seen, and a diagonal peeping state is taken, and the first index is used as two indexes sandwiching the center of the screen. An example of using (the index on the left side) and the second index (the index on the right side) will be described. However, the two indexes sandwiching the center of the screen of the display device 10 are not limited to this. For example, the two indexes sandwiching the center of the screen of the display device 10 may be two indexes on the upper side and the lower side of the screen. Thereby, the oblique peeping state taken without being able to see the two indexes on the upper side and the lower side of the screen of the display device 10 can be detected by using the third condition.

<カメラ動作の説明>
実施例4に係るカメラ動作について、図19のフローチャートに従って説明する。図19の処理フローは、例えば、キャリブレーション作業開始を指示するユーザー操作に応じて開始される。
<Explanation of camera operation>
The camera operation according to the fourth embodiment will be described with reference to the flowchart of FIG. The processing flow of FIG. 19 is started, for example, in response to a user operation instructing the start of calibration work.

ステップS1901〜S1904の処理は、図16のステップS1601〜S1604の処理と同様であり、ステップS1905〜S1908の処理は、図16のステップS1609〜S1612の処理と同様である。 The processes of steps S1901 to S1904 are the same as the processes of steps S1601 to S1604 of FIG. 16, and the processes of steps S1905 to S1908 are the same as the processes of steps S1609 to S1612 of FIG.

ステップS1909では、CPU3は、ステップS1904の動作結果に基づき、第1指標の表示中に第1条件が満たされたか否か、具体的には第1指標の表示中の瞳孔像の位置が所定の範囲内にあるか否かを判断する。CPU3は、所定の範囲外の場合にステップS1910へ処理を進め、所定の範囲内の場合にステップS1915へ処理を進める。ステップS1909の処理は図16のステップS1605の処理と同様の処理である。 In step S1909, the CPU 3 determines whether or not the first condition is satisfied during the display of the first index, specifically, the position of the pupil image during the display of the first index is determined based on the operation result of step S1904. Determine if it is within range. The CPU 3 proceeds to step S1910 when it is outside the predetermined range, and proceeds to step S1915 when it is within the predetermined range. The process of step S1909 is the same as the process of step S1605 of FIG.

ステップS1910では、CPU3は、ステップS1904の動作結果に基づき、第1指標の表示中に第2条件が満たされたか否か、具体的には第1指標の表示中の眼画像の中心から当該眼画像における瞳孔像に向かう方向がX軸負方向であるか否かを判断する。CPU3は、瞳孔像がX軸負方向の側にある場合にステップS1911へ処理を進め、瞳孔像がX軸正方向の側にある場合にステップS1915へ処理を進める。ステップS1910の処理は図16のステップS1606の処理と同様の処理である。 In step S1910, based on the operation result of step S1904, the CPU 3 determines whether or not the second condition is satisfied during the display of the first index, specifically, the eye from the center of the eye image during the display of the first index. It is determined whether or not the direction toward the pupil image in the image is the negative X-axis direction. The CPU 3 proceeds to step S1911 when the pupil image is on the negative side of the X-axis, and proceeds to step S1915 when the pupil image is on the positive side of the X-axis. The process of step S1910 is the same as the process of step S1606 of FIG.

ステップS1911では、CPU3は、ステップS1908の動作結果に基づき、第2指標の表示中に第1条件が満たされたか否か、具体的には第2指標の表示中の瞳孔像の位置が所定の範囲内にあるか否かを判断する。CPU3は、所定の範囲外の場合にステップS1912へ処理を進め、所定の範囲内の場合にステップS1915へ処理を進める。ステップS1911の処理は図16のステップS1613の処理と同様の処理である。 In step S1911, the CPU 3 determines whether or not the first condition is satisfied during the display of the second index, specifically, the position of the pupil image during the display of the second index is determined based on the operation result of step S1908. Determine if it is within range. The CPU 3 proceeds to step S1912 when it is outside the predetermined range, and proceeds to step S1915 when it is within the predetermined range. The process of step S1911 is the same process as the process of step S1613 of FIG.

ステップS1912では、CPU3は、ステップS1904,S1908の動作結果に基づき、第3条件が満たされているか否かを判定する。具体的には、CPU3は、第1指標の表示中と第2指標の表示中との間で、眼画像の中心から眼画像における瞳孔像に向かう方向が反対であるか否かを判定する。第1指標の表示中と第2指標の表示中との間で、眼画像の中心から眼画像における瞳孔像に向かう方向が反対である場合には、CPU3はステップS1913に処理を進める。一方、第1指標の表示中と第2指標の表示中との間で、眼画像の中心から眼画像における瞳孔像に向かう方向が同じである場合には、CPU3はステップS1915に処理を進める。 In step S1912, the CPU 3 determines whether or not the third condition is satisfied based on the operation results of steps S1904 and S1908. Specifically, the CPU 3 determines whether or not the direction from the center of the eye image toward the pupil image in the eye image is opposite between the display of the first index and the display of the second index. If the direction from the center of the eye image toward the pupil image in the eye image is opposite between the display of the first index and the display of the second index, the CPU 3 proceeds to step S1913. On the other hand, if the direction from the center of the eye image toward the pupil image in the eye image is the same between the display of the first index and the display of the second index, the CPU 3 proceeds to step S1915.

なお、ステップS1912の判断は、第2指標の表示中に第2条件が満たされたか否かの判断、具体的には第2指標の表示中の眼画像の中心から当該眼画像における瞳孔像に向かう方向がX軸正方向であるか否かの判断であってもよい。つまり、ステップS1912では、図16のステップS1614の処理と同様の処理が行われてもよい。 The determination in step S1912 is to determine whether or not the second condition is satisfied during the display of the second index, specifically, from the center of the eye image during display of the second index to the pupil image in the eye image. It may be a judgment as to whether or not the heading direction is the positive direction of the X-axis. That is, in step S1912, the same processing as that of step S1614 of FIG. 16 may be performed.

ステップS1913では、CPU3は、第1指標の視認状態と第2指標の視認状態の少なくとも一方が斜め覗き込み状態であると判断する。ステップS1914では、CPU3は、ステップS1904で推定された視点と、ステップS1908で推定された視点との少なくとも一方に無視できない誤差が含まれており、適切なキャリブレーションを行うことができないため、視認状態改善処理を行う。その後、ステップS1901に処理が戻され、視線検出動作が再度行われる。実施例4では、実施例2と同様に、CPU3は、ステップS1914の視認状態改善処理により、第1指標と第2指標の少なくとも一方を表示デバイス10の画面の中心に近づけ、推定視野範囲を更新する。 In step S1913, the CPU 3 determines that at least one of the visible state of the first index and the visible state of the second index is an oblique looking state. In step S1914, the CPU 3 is in a visual state because at least one of the viewpoint estimated in step S1904 and the viewpoint estimated in step S1908 contains a non-negligible error and cannot perform appropriate calibration. Perform improvement processing. After that, the process is returned to step S1901, and the line-of-sight detection operation is performed again. In the fourth embodiment, similarly to the second embodiment, the CPU 3 brings at least one of the first index and the second index closer to the center of the screen of the display device 10 by the visual inspection state improvement process in step S1914, and updates the estimated visual field range. To do.

ステップS1915では、CPU3は、全ての指標に関する処理が終了したと判断し、キャリブレーションの成功をユーザーに通知する。さらに、CPU3は、各指標を注視した際の視点の推定結果から視線補正パラメータを算出し、視線補正パラメータをメモリ部4に格納する。なお、図19には第1指標(左側の指標)に関する処理と、第2指標(右側の指標)に関する処理とのみが示されているが、実際には図13(a)に示す5つの指標のそれぞれについて処理が行われる。 In step S1915, the CPU 3 determines that the processing related to all the indexes has been completed, and notifies the user of the success of the calibration. Further, the CPU 3 calculates the line-of-sight correction parameter from the estimation result of the viewpoint when gazing at each index, and stores the line-of-sight correction parameter in the memory unit 4. Although only the processing related to the first index (index on the left side) and the processing related to the second index (index on the right side) are shown in FIG. 19, the five indexes shown in FIG. 13A are actually shown. Processing is performed for each of.

ステップS1916では、CPU3は、推定視野範囲を表示デバイス10の画像表示範囲として設定して、図19の処理フローを終了する。 In step S1916, the CPU 3 sets the estimated field of view range as the image display range of the display device 10 and ends the processing flow of FIG.

以上述べたように、実施例4によれば、第1条件と第2条件に加え、第3条件をさらに用いることにより、実施例2よりも高精度に斜め覗き込み状態を検知できる。さらに、適切な視線補正パラメータを実施例2よりも確実に得ることができる。その結果、キャリブレーション作業後の撮影時等における視点の推定精度を実施例2よりも確実に向上することができる。 As described above, according to the fourth embodiment, by further using the third condition in addition to the first condition and the second condition, the oblique peeping state can be detected with higher accuracy than in the second embodiment. Further, an appropriate line-of-sight correction parameter can be obtained more reliably than in the second embodiment. As a result, the estimation accuracy of the viewpoint at the time of shooting after the calibration work can be surely improved as compared with the second embodiment.

<<実施例5>>
以下、本発明の実施例5について説明する。なお、以下では、実施例1と同じ点(構成や処理など)についての説明は省略し、実施例1と異なる点について説明する。ユーザーが眼鏡を着用していると、ユーザーの眼球を照明する光源の光が、眼鏡の表面で反射して接眼レンズを通って眼用撮像素子に入射し、眼画像にゴーストとして写り込むことがある。斜め覗き込み状態では、ユーザーは頭部を傾けてファインダを覗き込むため、頭部の傾きに応じてゴーストが眼画像の中心付近に移動する。その結果、ゴーストが瞳孔像やプルキニエ像と重なると、瞳孔像やプルキニエ像の検出精度が低下し、視点の推定精度が低下する。実施例5では、このような課題に着目した例を説明する。
<< Example 5 >>
Hereinafter, Example 5 of the present invention will be described. In the following, the description of the same points (configuration, processing, etc.) as in the first embodiment will be omitted, and the points different from the first embodiment will be described. When the user wears spectacles, the light from the light source that illuminates the user's eyeball may be reflected by the surface of the spectacles, pass through the eyepiece, and enter the image pickup element for the eye, and appear as a ghost in the eye image. is there. In the oblique peeping state, the user tilts his head to look into the finder, so that the ghost moves near the center of the eye image according to the tilt of the head. As a result, when the ghost overlaps with the pupil image or Purkinje image, the detection accuracy of the pupil image or Purkinje image is lowered, and the estimation accuracy of the viewpoint is lowered. In the fifth embodiment, an example focusing on such a problem will be described.

<構成の説明>
図20は、カメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観を示す背面斜視図である。カメラ1の正面斜視図は実施例1(図1(a))と同様である。図20に示すように、実施例5では、ユーザーの眼球を照明する4つの光源13a〜13dが接眼レンズ12の周囲に備わっている。
<Explanation of configuration>
FIG. 20 is a rear perspective view showing the appearance of the camera 1 (digital still camera; interchangeable lens camera). The front perspective view of the camera 1 is the same as that of the first embodiment (FIG. 1 (a)). As shown in FIG. 20, in the fifth embodiment, four light sources 13a to 13d for illuminating the user's eyeball are provided around the eyepiece 12.

図21は、カメラ1の大まかな内部構成を示す。図22は、接眼窓枠121の内部をユーザーが覗き込んだ状態を示す。図23は、カメラ1内の電気的構成を示すブロック図である。図21〜23では、上述したように4つの光源13a〜13dが備わっており、そ
れ以外は図2〜4と同様である。
FIG. 21 shows a rough internal configuration of the camera 1. FIG. 22 shows a state in which the user looks into the inside of the eyepiece window frame 121. FIG. 23 is a block diagram showing an electrical configuration in the camera 1. In FIGS. 21 to 23, four light sources 13a to 13d are provided as described above, and other than that, the same as in FIGS. 2 to 4.

実施例5では、図21に示すように、ユーザーが眼鏡144のような光学部材を装着しており、当該光学部材は、接眼窓枠121の内部をユーザーが覗き込んだ状態で、眼球14と接眼窓枠121の間に位置するものとする。 In the fifth embodiment, as shown in FIG. 21, the user wears an optical member such as eyeglasses 144, and the optical member is attached to the eyeball 14 in a state where the user looks into the inside of the eyepiece window frame 121. It shall be located between the eyepiece window frames 121.

図24は、眼用撮像素子17で撮像された眼画像(眼用撮像素子17に投影された眼球像)の概略図である。4つの光源13a〜13dを用いているため、4つのプルキニエ像(P像;角膜反射像)が写っている。接眼レンズに対して上下左右方向にずれた複数の光源による複数のプルキニエ像の組み合わせ(組み合わせは特に限定されない)に基づいて、実施例1と同様の原理で視線を検出することができる。 FIG. 24 is a schematic view of an eye image (eyeball image projected on the eye image sensor 17) captured by the eye image sensor 17. Since four light sources 13a to 13d are used, four Purkinje images (P image; corneal reflex image) are captured. The line of sight can be detected by the same principle as in Example 1 based on a combination of a plurality of Purkinje images (the combination is not particularly limited) by a plurality of light sources shifted in the vertical and horizontal directions with respect to the eyepiece.

<頭部を大きく並進移動させてファインダを覗き込む視認状態の説明>
頭部を並進移動させて斜めからファインダを覗き込む場合には、ユーザーは、接眼窓枠を覗き込む眼球のみを回転させるのではなく、頭部ごと眼球を回転させる(傾ける)ことが多い。ユーザーが眼鏡を装着している場合に、ユーザーが頭部を傾けてファインダを覗き込むと、着用している眼鏡も頭部と同方向に傾く。その結果、眼球を照明する赤外光のうち、眼鏡表面に反射して接眼レンズを通して眼用撮像素子に入射する光によるゴーストが、眼鏡の傾きに応じて眼画像の中央付近に移動する。そして、ゴーストが、眼画像の中央付近にある瞳孔像やプルキニエ像に重なり、それらの像の検出を阻害する。瞳孔像やプルキニエ像の検出精度が低下すると、視点の推定精度も低下してしまう。
<Explanation of the visual state in which the head is greatly translated and looked into the finder>
When the head is translated and viewed from an angle, the user often rotates (tilts) the eyeball together with the head, instead of rotating only the eyeball looking into the eyepiece window frame. If the user is wearing glasses and the user tilts his head to look into the finder, the glasses he is wearing will also tilt in the same direction as his head. As a result, of the infrared light that illuminates the eyeball, the ghost caused by the light that is reflected on the surface of the spectacles and is incident on the eye imager through the eyepiece moves to the vicinity of the center of the eye image according to the inclination of the spectacles. Then, the ghost overlaps with the pupil image and the Purkinje image near the center of the eye image, and hinders the detection of those images. If the detection accuracy of the pupil image or Purkinje image decreases, the estimation accuracy of the viewpoint also decreases.

この現象について、図25(a)〜25(c)を用いてより詳細に説明する。図25(a)〜25(c)は、表示デバイス10(画面)の虚像300をユーザーが右目(紙面上方向側の眼球)で接眼窓枠121と接眼レンズ12を通して視認している状態を、Y軸正方向から見た上面模式図である。図25(a)では、虚像300(表示デバイス10の画面)の中心に対向する位置、接眼レンズ12の光軸が通る位置に眼球14の中心O’が位置する状態でユーザーが虚像300のほぼ中央を注視している。図25(a)では、ユーザーは、範囲γ1,γ2(虚像300の端部)を視認できていない。 This phenomenon will be described in more detail with reference to FIGS. 25 (a) to 25 (c). 25 (a) to 25 (c) show a state in which the user visually recognizes the virtual image 300 of the display device 10 (screen) through the eyepiece window frame 121 and the eyepiece lens 12 with the right eye (eyeball on the upper side of the paper surface). It is a top surface schematic view seen from the Y-axis positive direction. In FIG. 25A, the user is approximately the virtual image 300 in a state where the center O'of the eyeball 14 is located at a position facing the center of the virtual image 300 (screen of the display device 10) and at a position where the optical axis of the eyepiece 12 passes. I am watching the center. In FIG. 25 (a), the user cannot visually recognize the ranges γ1 and γ2 (ends of the virtual image 300).

図25(a)の状態で見えていない範囲γ1を見たい場合に、ユーザーは、図25(b)に示すように、頭部ごと眼球14をX軸正方向(紙面下方向)に大きく並進移動させる。同様に、図25(a)の状態で見えていない範囲γ2を見たい場合に、ユーザーは、図25(c)に示すように、頭部ごと眼球14をX軸負方向(紙面上方向)に大きく並進移動させる。このとき、眼球14の回転だけでなく、図25(a)の状態から頭部が傾くことが多い。図25(b),25(c)では、図25(a)の状態から角度θhだけ頭部が傾いている。さらに、図25(a)〜25(c)では、ユーザーが眼鏡144を装着しており、頭部の傾きに応じて、頭部と同方向に眼鏡144も傾く。その結果、接眼レンズ12の光軸に対する眼鏡144の光軸の傾きが変化するため、それに応じて、光源からの光が眼鏡144の表面に反射して生じるゴーストの位置も変化する。 When the user wants to see the range γ1 that is not visible in the state of FIG. 25 (a), the user translates the eyeball 14 together with the head in the positive direction of the X-axis (downward of the paper surface) as shown in FIG. 25 (b). Move. Similarly, when the user wants to see the range γ2 that is not visible in the state of FIG. 25 (a), the user views the eyeball 14 together with the head in the negative X-axis direction (on the paper) as shown in FIG. 25 (c). Make a large translational movement. At this time, not only the rotation of the eyeball 14 but also the head is often tilted from the state shown in FIG. 25 (a). In FIGS. 25 (b) and 25 (c), the head is tilted by an angle θh from the state of FIG. 25 (a). Further, in FIGS. 25 (a) to 25 (c), the user wears the spectacles 144, and the spectacles 144 also tilt in the same direction as the head according to the tilt of the head. As a result, the inclination of the optical axis of the spectacles 144 with respect to the optical axis of the eyepiece 12 changes, and the position of the ghost generated by reflecting the light from the light source on the surface of the spectacles 144 also changes accordingly.

上述したゴーストは、例えば、図26に示すように、光源13a〜13dから照射された光が、眼鏡等の光学部材の表面に反射し、その反射光が図26に矢印で示すように眼用撮像素子17に入射することによって、生じるものとする。図26では光源13a又は光源13bからの光の経路を図示しているが、光源13c,13dからの光も同様に眼用撮像素子17に入りうる。 The above-mentioned ghost is, for example, as shown in FIG. 26, the light emitted from the light sources 13a to 13d is reflected on the surface of an optical member such as eyeglasses, and the reflected light is for the eyes as shown by an arrow in FIG. 26. It is assumed that the light is incident on the image sensor 17. Although FIG. 26 illustrates the path of light from the light source 13a or the light source 13b, the light from the light sources 13c and 13d can also enter the eye image sensor 17.

図27(a)は、ゴーストが写り込んだ眼画像の一例を示す。図27(a)では、4つの光源13a〜13dにそれぞれ対応する4つのゴーストGa〜Gdが写り込んでいる。ゴーストGa〜Gdは、光源13a〜13dから発せられた光が眼鏡表面に反射すること
で生じたゴーストであり、光源13a〜13dから発せられた光が眼球の角膜表面で反射することで生じるプルキニエ像とは別個に現れる。図27(a)の眼画像は、図25(a)の状態に対応する。図27(a)に示すように、ユーザーが装着している眼鏡等の光学部材が正面を向いている場合には、ゴーストGa〜Gdは眼画像中央に対し略左右対象に現れる。
FIG. 27A shows an example of an eye image in which a ghost is reflected. In FIG. 27A, four ghosts Ga to Gd corresponding to the four light sources 13a to 13d are reflected. Ghosts Ga to Gd are ghosts generated by reflecting the light emitted from the light sources 13a to 13d on the surface of the spectacles, and Purkinje generated by reflecting the light emitted from the light sources 13a to 13d on the corneal surface of the eyeball. Appears separately from the statue. The eye image of FIG. 27 (a) corresponds to the state of FIG. 25 (a). As shown in FIG. 27 (a), when the optical member such as eyeglasses worn by the user faces the front, the ghosts Ga to Gd appear substantially symmetrically with respect to the center of the eye image.

ここで、頭部の傾きに伴って眼鏡が傾く斜め覗き込み状態となると、ゴーストが移動し、図27(b)のような眼画像が得られるようになる。図27(b)では、頭部の傾きに伴う眼鏡の傾きによって、図27(a)の状態からX軸正方向(紙面右方向)にゴーストGa〜Gdの全てが移動している。その結果、光源13aによるゴーストGaが瞳孔像の一部に重なっており、瞳孔像の当該一部が隠れている。瞳孔像の少なくとも一部が隠れると、瞳孔像の検出精度が低下してしまう。瞳孔像の検出精度が低下すると、視点の推定精度も低下してしまう。 Here, when the spectacles are tilted in an oblique peeping state as the head is tilted, the ghost moves and an eye image as shown in FIG. 27B can be obtained. In FIG. 27 (b), all of the ghosts Ga to Gd move from the state of FIG. 27 (a) in the positive direction of the X-axis (to the right of the paper) due to the inclination of the glasses accompanying the inclination of the head. As a result, the ghost Ga by the light source 13a overlaps a part of the pupil image, and the part of the pupil image is hidden. If at least a part of the pupil image is hidden, the detection accuracy of the pupil image is lowered. If the detection accuracy of the pupil image is lowered, the estimation accuracy of the viewpoint is also lowered.

そこで、実施例5では、複数の光源のうち、眼画像の中央部(中央およびその近辺)に移動するゴーストを発生させる光源を、視認状態の検出結果に基づいて判断し、判断した光源を消灯する。これにより、眼画像の中央部におけるゴーストの発生を抑制でき、瞳孔像の検出精度を向上することができる。ひいては、始点の推定精度を向上することができる。 Therefore, in the fifth embodiment, among the plurality of light sources, a light source that generates a ghost that moves to the central portion (center and its vicinity) of the eye image is determined based on the detection result of the visual state, and the determined light source is turned off. To do. As a result, the occurrence of ghosts in the central portion of the ocular image can be suppressed, and the detection accuracy of the pupil image can be improved. As a result, the estimation accuracy of the starting point can be improved.

<光源の消灯方法の説明>
斜め覗き込み状態が検知された場合に、覗き込み方向に応じた方向にある光源を消灯することで、眼画像の中央付近におけるゴーストの発生を抑制し、各種検出精度を向上する過程について、より詳細に説明する。
<Explanation of how to turn off the light source>
Regarding the process of improving various detection accuracy by suppressing the occurrence of ghosts near the center of the eye image by turning off the light source in the direction corresponding to the viewing direction when the oblique looking state is detected. This will be described in detail.

図28(a)の状態から図28(b)の状態への変化のように、光源13a〜13dのうち、眼画像の中央部に移動するゴーストを発生させる光源を消灯することができれば、各種検出の妨げとなるゴーストを眼画像から消すことができる。 As in the change from the state of FIG. 28 (a) to the state of FIG. 28 (b), if it is possible to turn off the light source 13a to 13d that generates a ghost that moves to the center of the eye image, various types of light sources can be used. Ghosts that interfere with detection can be removed from the eye image.

図27(b)の例においては、光源13aに起因するゴーストGaが各種検出の妨げとなっているため、図28(b)で示すように、光源13aを消灯すればよい。光源13aを消灯すれば、図27(c)で示すように、ゴーストGaが消え、ゴーストが重なっていた部分も含めて瞳孔像が高精度に検出可能となり、瞳孔像や視線の検出精度の悪化を抑制することができる。このとき、光源13aによって形成されていたプルキニエ像も消えるが、プルキニエ像を形成する他の光源が複数存在するため、それら複数の光源(光源13b〜13d)による複数のプルキニエ像を用いて視線検出は高精度に行える。一部の光源を消灯しても高精度な視線検出が可能となるように、実施例5では4つの光源13a〜13dを用いている。なお、光源の数は4つに限られず、3つ以上であればよい。2つ以上の光源が点灯すれば、複数の光源を消灯してもよい。2つ以上の光源が点灯すれば視線検出が可能である。 In the example of FIG. 27 (b), since the ghost Ga caused by the light source 13a hinders various detections, the light source 13a may be turned off as shown in FIG. 28 (b). When the light source 13a is turned off, as shown in FIG. 27 (c), the ghost Ga disappears, and the pupil image including the portion where the ghost overlaps can be detected with high accuracy, and the detection accuracy of the pupil image and the line of sight deteriorates. Can be suppressed. At this time, the Purkinje image formed by the light source 13a also disappears, but since there are a plurality of other light sources forming the Purkinje image, the line-of-sight detection is performed using the plurality of Purkinje images by the plurality of light sources (light sources 13b to 13d). Can be done with high precision. In Example 5, four light sources 13a to 13d are used so that highly accurate line-of-sight detection can be performed even when some of the light sources are turned off. The number of light sources is not limited to four, and may be three or more. If two or more light sources are turned on, the plurality of light sources may be turned off. Line-of-sight detection is possible if two or more light sources are turned on.

しかしながら、眼画像の中央部に移動するゴーストを発生させる光源が判明していなければ、上述の処理(光源の好適な消灯)は不可能である。 However, the above-mentioned processing (appropriate extinguishing of the light source) is impossible unless the light source that generates the ghost that moves to the central portion of the ocular image is known.

そこで、実施例5では、他の実施例で述べた方法で斜め覗き込み状態を検出することにより、頭部の傾き方向、つまり眼鏡の傾き方向を判断し、当該傾き方向から、眼画像上でのゴーストの移動方向を判断し、当該移動方向から、消灯すべき光源を判断する。 Therefore, in the fifth embodiment, the tilting direction of the head, that is, the tilting direction of the eyeglasses is determined by detecting the oblique looking state by the method described in another embodiment, and the tilting direction is used on the eye image. The moving direction of the ghost is determined, and the light source to be turned off is determined from the moving direction.

図25(b)に示すように、頭部をX軸正方向に並進移動させた斜め覗き込み状態においては、頭部も眼鏡144も紙面時計回り方向に傾く。一方で、図25(c)に示すよう
に、頭部をX軸負方向に並進移動させた斜め覗き込み状態においては、頭部も眼鏡144も紙面半時計回り方向に傾く。つまり、図25(b)と図25(c)では、頭部や眼鏡の傾き方向が逆である。従って、覗き込み方向から、頭部や眼鏡の傾き方向を特定することができる。そして、眼鏡の傾き方向から、ゴーストの移動方向を知ることができ、眼画像の中央付近に近づくゴーストを発生させる光源を特定することができる。特定された光源を図27(b)のように消灯することで、瞳孔像の検出を妨げるゴーストを消し、瞳孔像の検出精度を向上することができる。
As shown in FIG. 25 (b), both the head and the spectacles 144 are tilted in the clockwise direction on the paper surface in the oblique looking state in which the head is translated in the positive direction of the X-axis. On the other hand, as shown in FIG. 25 (c), in the oblique looking state in which the head is translated in the negative direction of the X-axis, both the head and the spectacles 144 are tilted in the counterclockwise direction on the paper surface. That is, in FIGS. 25 (b) and 25 (c), the tilt directions of the head and the glasses are opposite. Therefore, the tilting direction of the head and the glasses can be specified from the viewing direction. Then, the moving direction of the ghost can be known from the tilting direction of the spectacles, and the light source that generates the ghost approaching the vicinity of the center of the eye image can be specified. By turning off the specified light source as shown in FIG. 27 (b), it is possible to eliminate the ghost that hinders the detection of the pupil image and improve the detection accuracy of the pupil image.

<カメラ動作の説明>
実施例5に係るカメラ動作について、図29のフローチャートに従って説明する。ここでは、眼画像の中心と眼画像における瞳孔像の位置との差が所定の閾値よりも大きいという第1条件を用いた方法で斜め覗き込み状態を検出する例を説明するが、第2条件を用いた方法など他の方法で斜め覗き込み状態を検出してもよい。カメラ1の電源がONされると、図29のカメラ動作が開始する。
<Explanation of camera operation>
The camera operation according to the fifth embodiment will be described with reference to the flowchart of FIG. Here, an example of detecting an oblique looking state by a method using the first condition that the difference between the center of the eye image and the position of the pupil image in the eye image is larger than a predetermined threshold value will be described. The oblique peeping state may be detected by another method such as the method using. When the power of the camera 1 is turned on, the camera operation of FIG. 29 starts.

ステップS2901〜S2905,S2908〜S2925の処理は、それぞれ、図12(実施例1)のステップS1201〜S1205,S1207〜S1214の処理と同じである。 The processes of steps S2901 to S2905 and S2908 to S2925 are the same as the processes of steps S1201 to S1205 and S1207 to S1214 of FIG. 12 (Example 1), respectively.

斜め覗き込み状態が検出されたステップS2906では、CPU3は、眼画像における瞳孔像の移動方向から覗き込み方向(頭部や眼鏡)を特定して、消灯すべき光源を特定する。消灯すべき光源を特定した後、ステップS2907に進む。 In step S2906 in which the oblique peeping state is detected, the CPU 3 specifies the peeping direction (head or spectacles) from the moving direction of the pupil image in the eye image, and specifies the light source to be turned off. After identifying the light source to be turned off, the process proceeds to step S2907.

ステップS2906の処理の具体例を説明する。図30(a)の眼画像では瞳孔像が所定範囲から紙面右方向に移動している。この場合は、頭部をX軸正方向に並進移動させた斜め覗き込み状態、つまり図25(b)に示す状態であると判定できる。さらに、頭部や眼鏡の傾き方向が、図25(b)の紙面時計回りの方向であることが判定できる。そして、眼鏡の傾き方向から、消灯すべき光源を特定できる。 A specific example of the process of step S2906 will be described. In the eye image of FIG. 30A, the pupil image is moving from a predetermined range to the right of the paper surface. In this case, it can be determined that the head is translated in the positive direction of the X-axis to look diagonally, that is, the state shown in FIG. 25 (b). Further, it can be determined that the tilting direction of the head and the glasses is the clockwise direction of the paper in FIG. 25 (b). Then, the light source to be turned off can be specified from the tilting direction of the glasses.

図30(b)の眼球像では、図30(a)とは逆に、瞳孔像が所定範囲から紙面左方向に移動している。この場合は、頭部をX軸負方向に並進移動させた斜め覗き込み状態、つまり図25(c)に示す状態であると判定できる。さらに、頭部や眼鏡の傾き方向が、図25(c)の紙面半時計回りの方向であることが判定できる。そして、眼鏡の傾き方向から、消灯すべき光源を特定できる。 In the eyeball image of FIG. 30B, contrary to FIG. 30A, the pupil image is moving from a predetermined range to the left of the paper. In this case, it can be determined that the head is translated in the negative direction of the X-axis to look diagonally, that is, the state shown in FIG. 25 (c). Further, it can be determined that the tilting direction of the head and the glasses is the counterclockwise direction on the paper surface of FIG. 25 (c). Then, the light source to be turned off can be specified from the tilting direction of the glasses.

ステップS2907では、CPU3は、ステップS2906で特定した光源を消灯する。そして、ステップS2903の視線検出動作に戻る。ステップS2905〜S2907を経てステップS2903に戻った場合には、複数の光源の内、ステップS2907で消灯した光源以外の光源を用いて、視線検出動作が行われる。このため、瞳孔像の検出を妨げるゴーストが無い状態で、高精度に視線を検出することができる。 In step S2907, the CPU 3 turns off the light source specified in step S2906. Then, the process returns to the line-of-sight detection operation in step S2903. When returning to step S2903 through steps S295 to S2907, the line-of-sight detection operation is performed using a light source other than the light source extinguished in step S2907 among the plurality of light sources. Therefore, the line of sight can be detected with high accuracy without any ghost that hinders the detection of the pupil image.

<まとめ>
以上述べたように、実施例5によれば、斜め覗き込み状態の検出結果に基づいて、複数の光源のうち、眼画像の中央付近でのゴースト発生の原因となる光源を選択して消灯することができる。これにより、眼画像の中央付近でのゴースト発生を抑制して、視線の検出精度を向上することができる。
<Summary>
As described above, according to the fifth embodiment, the light source that causes ghost generation near the center of the eye image is selected from the plurality of light sources and turned off based on the detection result of the oblique looking state. be able to. As a result, it is possible to suppress the occurrence of ghosts near the center of the eye image and improve the detection accuracy of the line of sight.

なお、実施例1〜5はあくまで一例であり、本発明の要旨の範囲内で実施例1〜5の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。実施例1〜5の構成を適宜組み合わせて得られる構成も、本発明に含まれる。 It should be noted that Examples 1 to 5 are merely examples, and the present invention also includes configurations obtained by appropriately modifying or changing the configurations of Examples 1 to 5 within the scope of the gist of the present invention. A configuration obtained by appropriately combining the configurations of Examples 1 to 5 is also included in the present invention.

また、カメラのファインダを例に挙げたが、これに限られない。例えば、VR(仮想現実)等を体感するために頭部に装着されるHMD(ヘッドマウントディスプレイ)において視線検出を行う場合に、本発明を用いて、頭部(眼球)に対してHMDがずれた視認状態を検知することができる。このような視認状態は、不慣れなユーザーがHMDを装着した場合に発生したり、HMDの装着後のユーザーの動きによって発生したりする。同様に、AR(拡張現実)グラス等のメガネ型の視線検出装置にも本発明は適用可能である。視野を制限する接眼窓枠やメガネ枠等の眼窓枠を通して視認用画像を見る眼を撮像した眼画像を取得可能であり、取得した眼画像を用いて視点を推定する全ての電子機器に対して、本発明は適用可能である。 In addition, the finder of the camera is taken as an example, but the present invention is not limited to this. For example, when performing line-of-sight detection on an HMD (head-mounted display) worn on the head to experience VR (virtual reality) or the like, the HMD shifts with respect to the head (eyeball) using the present invention. It is possible to detect the visible state. Such a visual state may occur when an unfamiliar user wears the HMD, or may occur due to the movement of the user after wearing the HMD. Similarly, the present invention can be applied to a glasses-type line-of-sight detection device such as an AR (augmented reality) glass. It is possible to acquire an eye image of an eye that sees a visual image through an eyepiece window frame such as an eyepiece window frame or a spectacle frame that limits the visual field, and for all electronic devices that estimate the viewpoint using the acquired eye image. Therefore, the present invention is applicable.

以上述べたように、実施例1〜5によれば、カメラ、HMD,メガネ型の視線検出装置において、使用者が主として頭部の並進移動や頭部の傾きを伴って、斜め方向から画面を覗き込んでいる視認状態を、簡易な構成で検知する電子機器を提供できる。さらに、斜め覗き込み状態の検知結果に基づいて画像表示範囲を決定するという簡易な構成で斜め覗き込み状態を解消する電子機器を提供できる。また、斜め覗き込み状態における眼鏡などの光学部材の傾きの検出結果に基づいて光源を好適に消灯することで、各種検出の精度を改善する電子機器を提供できる As described above, according to the first to fifth embodiments, in the camera, the HMD, and the eyeglass-type eye-gaze detection device, the user mainly involves the translational movement of the head and the tilt of the head, and the screen is viewed from an oblique direction. It is possible to provide an electronic device that detects the visual state of looking into it with a simple configuration. Further, it is possible to provide an electronic device that eliminates the oblique looking state by a simple configuration in which the image display range is determined based on the detection result of the oblique looking state. Further, by appropriately turning off the light source based on the detection result of the inclination of the optical member such as eyeglasses in the oblique looking state, it is possible to provide an electronic device that improves the accuracy of various detections.

<その他の実施例>
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Examples>
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1:カメラ 3:CPU 1: Camera 3: CPU

Claims (24)

表示手段の画面を眼窓枠を通して見る眼を撮像した眼画像を取得可能な電子機器であって、
前記眼画像に基づいて、前記画面における前記眼の視点を推定する第1推定手段と、
前記眼画像における瞳孔像またはプルキニエ像の位置に基づいて、前記眼画像において前記眼が前記画面の中心に対応する位置からずれたずれ視認状態を検知する検知手段と、を有することを特徴とする電子機器。
An electronic device capable of acquiring an eye image of an eye looking at the screen of a display means through an eye window frame.
A first estimation means for estimating the viewpoint of the eye on the screen based on the eye image,
Based on the position of the pupil image or the Purkinje image in the eye image, it is characterized by having a detecting means for detecting a deviation visual state in which the eye is deviated from a position corresponding to the center of the screen in the eye image. Electronics.
前記検知手段は、瞳孔像またはプルキニエ像の位置と前記画面の中心に対応する前記位置との差が所定の閾値よりも大きいという条件を含む所定の条件が満たされた状態を、前記ずれ視認状態として検知する
ことを特徴とする請求項1に記載の電子機器。
The detection means determines a state in which a predetermined condition including a condition that the difference between the position of the pupil image or the Purkinje image and the position corresponding to the center of the screen is larger than a predetermined threshold value is satisfied. The electronic device according to claim 1, wherein the electronic device is detected as.
前記画面は、前記眼窓枠と、接眼光学系とを通して見ることができ、
前記画面の中心に対応する前記位置は、前記接眼光学系の光軸に対応する位置である
ことを特徴とする請求項1または2に記載の電子機器。
The screen can be viewed through the eye window frame and the eyepiece optical system.
The electronic device according to claim 1 or 2, wherein the position corresponding to the center of the screen is a position corresponding to the optical axis of the eyepiece optical system.
前記表示手段、前記眼窓枠、及び、前記眼を撮像する撮像手段をさらに有する
ことを特徴とする請求項1〜3のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 1 to 3, further comprising the display means, the eye window frame, and an imaging means for imaging the eye.
前記画面には、前記眼で見るべき指標が、当該指標の位置を変えながら表示され、
前記検知手段は、前記眼画像において、前記画面の中心に対応する前記位置から瞳孔像またはプルキニエ像に向かう方向が、前記画面の中心に対応する前記位置から前記指標が表示された位置に対応する位置に向かう方向に対して反対であるという条件を含む所定の条件が満たされた状態を、前記ずれ視認状態として検知する
ことを特徴とする請求項1〜4のいずれか1項に記載の電子機器。
On the screen, the index to be seen by the eye is displayed while changing the position of the index.
In the eye image, the direction from the position corresponding to the center of the screen toward the pupil image or Purkinje image corresponds to the position where the index is displayed from the position corresponding to the center of the screen. The electron according to any one of claims 1 to 4, wherein a state in which a predetermined condition including a condition opposite to the direction toward the position is satisfied is detected as the shift visual state. machine.
前記画面には、前記眼で見るべき複数の指標が表示され、
前記複数の指標は、前記画面の中心を挟む2つの指標を含み、
前記検知手段は、前記2つの指標の一方を見た場合と他方を見た場合との間で、前記画面の中心に対応する前記位置から前記瞳孔像または前記プルキニエ像に向かう方向が反対であるという条件を含む所定の条件が満たされた状態を、前記ずれ視認状態として検知する
ことを特徴とする請求項1〜5のいずれか1項に記載の電子機器。
On the screen, a plurality of indicators to be seen by the eyes are displayed.
The plurality of indicators include two indicators that sandwich the center of the screen.
The detection means has opposite directions from the position corresponding to the center of the screen toward the pupil image or the Purkinje image between the case where one of the two indexes is viewed and the case where the other is viewed. The electronic device according to any one of claims 1 to 5, wherein a state in which a predetermined condition including the above condition is satisfied is detected as the shift visual state.
前記検知手段は、前記視点の推定に使用されるパラメータを得るためのキャリブレーション作業中に、前記ずれ視認状態を検知する
ことを特徴とする請求項1〜6のいずれか1項に記載の電子機器。
The electron according to any one of claims 1 to 6, wherein the detection means detects the deviation visual state during a calibration operation for obtaining a parameter used for estimating the viewpoint. machine.
前記ずれ視認状態が検知された場合に所定の処理を行う処理手段、をさらに有する
ことを特徴とする請求項1〜7のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 1 to 7, further comprising a processing means for performing a predetermined process when the misaligned visual state is detected.
前記所定の処理は、前記ずれ視認状態の解消をユーザーに促すための処理である
ことを特徴とする請求項8に記載の電子機器。
The electronic device according to claim 8, wherein the predetermined process is a process for urging the user to eliminate the misaligned visual state.
前記所定の処理は所定の通知である
ことを特徴とする請求項8または9に記載の電子機器。
The electronic device according to claim 8 or 9, wherein the predetermined processing is a predetermined notification.
前記所定の処理は、前記画面に表示する画像の縮小である
ことを特徴とする請求項8または9に記載の電子機器。
The electronic device according to claim 8 or 9, wherein the predetermined process is a reduction of an image to be displayed on the screen.
前記画面には、前記眼で見るべき指標が表示され、
前記所定の処理は、前記指標の位置を前記画面の中心に近づける処理である
ことを特徴とする請求項8または9に記載の電子機器。
On the screen, the index to be seen by the eye is displayed.
The electronic device according to claim 8 or 9, wherein the predetermined process is a process of bringing the position of the index closer to the center of the screen.
前記所定の処理は、前記検知手段で検知されたずれ視認状態に基づいて、前記画面のうち画像を表示する範囲である画像表示範囲を決定する処理である
ことを特徴とする請求項8または9に記載の電子機器。
Claim 8 or 9 is characterized in that the predetermined process is a process of determining an image display range, which is a range for displaying an image in the screen, based on a shift visual state detected by the detection means. Electronic equipment described in.
前記眼で見るべき指標を、当該指標の位置を変えながら前記画面に表示するように制御する制御手段と、
前記画面のうち、前記ずれ視認状態が検知されることなく前記眼で前記指標を見ることのできる複数の位置の範囲を、前記ずれ視認状態が検知されない状態での視野範囲として推定する第2推定手段と、
をさらに有し、
前記処理手段は、前記第2推定手段によって推定された前記視野範囲に基づいて前記画像表示範囲を決定する
ことを特徴とする請求項13に記載の電子機器。
A control means for controlling the index to be seen by the eye so as to be displayed on the screen while changing the position of the index.
A second estimation of the screen, in which a range of a plurality of positions where the index can be seen by the eye without detecting the shift visual state is estimated as a visual field range in a state where the shift visual state is not detected. Means and
Have more
The electronic device according to claim 13, wherein the processing means determines the image display range based on the field of view range estimated by the second estimation means.
前記指標は、前記視点の推定に使用されるパラメータを得るキャリブレーション作業のための指標である
ことを特徴とする請求項14に記載の電子機器。
The electronic device according to claim 14, wherein the index is an index for a calibration operation for obtaining a parameter used for estimating the viewpoint.
前記処理手段は、前記視野範囲の少なくとも一部を前記画像表示範囲として決定する
ことを特徴とする請求項14または15に記載の電子機器。
The electronic device according to claim 14 or 15, wherein the processing means determines at least a part of the visual field range as the image display range.
前記処理手段は、前記画像表示範囲が前記視野範囲の少なくとも一部を含んで移動するように前記画像表示範囲を決定する
ことを特徴とする請求項14または15に記載の電子機器。
The electronic device according to claim 14 or 15, wherein the processing means determines the image display range so that the image display range moves including at least a part of the field of view.
前記制御手段は、前記画面の端部に前記指標を表示した後に前記ずれ視認状態が検知されなくなるまで前記指標を前記画面の中心に近づけるような制御を、前記画面の複数の辺について行う
ことを特徴とする請求項14〜17のいずれか1項に記載の電子機器。
After displaying the index on the edge of the screen, the control means controls the plurality of sides of the screen so that the index is brought closer to the center of the screen until the deviation visual state is no longer detected. The electronic device according to any one of claims 14 to 17, which is characteristic.
前記所定の処理は、
前記検知手段で検知されたずれ視認状態に基づいて、前記眼窓枠と前記眼との間に位置する光学部材の、前記ずれ視認状態が検知されない状態からの傾き方向を検知し、
検知した傾き方向に応じて、前記眼を照明する複数の光源の一部を消灯する
という処理である
ことを特徴とする請求項8に記載の電子機器。
The predetermined process is
Based on the deviation visual recognition state detected by the detection means, the tilt direction of the optical member located between the eye window frame and the eye is detected from the state in which the deviation visual observation state is not detected.
The electronic device according to claim 8, further comprising a process of turning off a part of the plurality of light sources that illuminate the eyes according to the detected tilt direction.
前記処理手段は、前記検知手段で検知されたずれ視認状態での眼画像における瞳孔像またはプルキニエ像の位置に基づいて、前記傾き方向を検知する
ことを特徴とする請求項19に記載の電子機器。
The electronic device according to claim 19, wherein the processing means detects the tilting direction based on the position of the pupil image or the Purkinje image in the eye image in the shifted visual state detected by the detecting means. ..
前記複数の光源は、前記眼窓枠に設けられた接眼光学系の光軸からずれた3つ以上の位置にそれぞれ設けられた3つ以上の光源であり、
前記処理手段は、2つ以上の光源が点灯するように1つ以上の光源を消灯する
ことを特徴とする請求項19または20に記載の電子機器。
The plurality of light sources are three or more light sources provided at three or more positions deviated from the optical axis of the eyepiece optical system provided on the eye window frame.
The electronic device according to claim 19 or 20, wherein the processing means turns off one or more light sources so that the two or more light sources turn on.
表示手段の画面を眼窓枠を通して見る眼を撮像した眼画像を取得可能な電子機器の制御方法であって、
前記眼画像に基づいて、前記画面における前記眼の視点を推定するステップと、
前記眼画像における瞳孔像またはプルキニエ像の位置に基づいて、前記眼画像において前記眼が前記画面の中心に対応する位置からずれたずれ視認状態を検知するステップと、を有することを特徴とする制御方法。
It is a control method of an electronic device capable of acquiring an eye image obtained by capturing an image of an eye viewing the screen of a display means through an eye window frame.
A step of estimating the viewpoint of the eye on the screen based on the eye image, and
A control characterized by having a step of detecting a deviation visual state in which the eye deviates from a position corresponding to the center of the screen in the eye image based on the position of a pupil image or a Purkinje image in the eye image. Method.
コンピュータを、請求項1〜21のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 21. コンピュータを、請求項1〜21のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium in which a program for operating a computer as each means of the electronic device according to any one of claims 1 to 21 is stored.
JP2020070176A 2019-08-02 2020-04-09 Electronic device Pending JP2021064928A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/945,027 US11650660B2 (en) 2019-08-02 2020-07-31 Electronic device, control method, and non-transitory computer readable medium
CN202010759782.2A CN112306229A (en) 2019-08-02 2020-07-31 Electronic apparatus, control method, and computer-readable medium
EP20188840.1A EP3771967A3 (en) 2019-08-02 2020-07-31 Electronic device, control method, and computer readable medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019143077 2019-08-02
JP2019143077 2019-08-02
JP2019187540 2019-10-11
JP2019187540 2019-10-11

Publications (2)

Publication Number Publication Date
JP2021064928A true JP2021064928A (en) 2021-04-22
JP2021064928A5 JP2021064928A5 (en) 2023-04-17

Family

ID=75486604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020070176A Pending JP2021064928A (en) 2019-08-02 2020-04-09 Electronic device

Country Status (1)

Country Link
JP (1) JP2021064928A (en)

Similar Documents

Publication Publication Date Title
JP3309615B2 (en) Image observation apparatus and binocular image observation apparatus using the same
JP2003521950A (en) Eye tracking system
EP3771967A2 (en) Electronic device, control method, and computer readable medium
JP2024003037A (en) Electronic apparatus, method for controlling electronic apparatus, program, and storage medium
JP2021170699A (en) Electronic device
US11822714B2 (en) Electronic device and control method for capturing an image of an eye
US11829052B2 (en) Gaze detection apparatus, gaze detection method, and non-transitory computer readable medium
JP2021064928A (en) Electronic device
JPH10307314A (en) Observation optical device
US20230224561A1 (en) Display apparatus, finder apparatus, and imaging apparatus
JPH10179520A (en) Visual axis detecting method and device, and storage medium
JP7485426B1 (en) Head-mounted imaging device and line-of-sight image adjustment method
JP7446898B2 (en) Electronics
US20240114228A1 (en) Line-of-sight detecting apparatus, image pickup apparatus, line-of-sight detecting method, and storage medium
JP2023087377A (en) Visual line detection device
US20230393655A1 (en) Electronic apparatus
JP2021182736A (en) Electronic apparatus
JP2022171084A (en) Imaging device, control method of the same and program
JP2022124778A (en) Electronic apparatus
JP2023069526A (en) Electronic device and control method and program for the same
JP2018033055A (en) Imaging apparatus
JP2023063023A (en) Electronic device and control method for the same
JP2023045131A (en) Detection device, control method and program
JP2022183552A (en) Visual line information acquisition device, imaging device, visual line information acquisition method, program, and storage medium
JP2023040887A (en) Personal authentication device, personal authentication method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230406

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240510

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240604