JP3296578B2 - camera - Google Patents

camera

Info

Publication number
JP3296578B2
JP3296578B2 JP00050792A JP50792A JP3296578B2 JP 3296578 B2 JP3296578 B2 JP 3296578B2 JP 00050792 A JP00050792 A JP 00050792A JP 50792 A JP50792 A JP 50792A JP 3296578 B2 JP3296578 B2 JP 3296578B2
Authority
JP
Japan
Prior art keywords
pupil
information
diopter
correction
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP00050792A
Other languages
Japanese (ja)
Other versions
JPH05183800A (en
Inventor
龍弥 山崎
北洋 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP00050792A priority Critical patent/JP3296578B2/en
Publication of JPH05183800A publication Critical patent/JPH05183800A/en
Priority to US08/239,921 priority patent/US5606390A/en
Application granted granted Critical
Publication of JP3296578B2 publication Critical patent/JP3296578B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、ビデオカメラなどのカ
メラに関し、特にそのファインダの視度補正に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera such as a video camera, and more particularly to a diopter correction of a finder.

【0002】[0002]

【関連する技術】従来より観察者が観察面上のどの位置
を観察しているかを検出する、いわゆる視線(視軸)を
検出する装置が種々提案されている。
2. Description of the Related Art Conventionally, various devices have been proposed for detecting what position on an observation surface an observer is observing, that is, detecting a so-called line of sight (axial axis).

【0003】例えば特開昭61−172552号公報に
おいては、光源からの平行光束を観察者の眼球の前眼部
へ投射し、角膜からの反射光による角膜反射像と瞳孔の
結像位置を利用して視軸を求めている。図8は視線検出
の原理説明図で、同図(a)は視線検出光学系の概略
図、同図(b)は光電素子列6からの出力信号の強度図
である。図8(a)において、5は観察者に対して不感
の赤外光を放射する発光ダイオードなどの光源であり、
投光レンズ3の焦点面に配置されている。光源5より発
光した赤外光は投光レンズ3により平行光となりハーフ
ミラー2で反射し、眼球201の角膜21を照明する。
このとき角膜21の表面で反射した赤外光の一部による
角膜反射像dはハーフミラー2を透過し受光レンズ4に
より集光されて光電素子列6上の位置Zd′に再結像す
る。
For example, in Japanese Patent Application Laid-Open No. Sho 61-172552, a parallel light beam from a light source is projected to the anterior segment of an observer's eyeball, and a corneal reflection image due to light reflected from the cornea and an image forming position of a pupil are used. And seek the visual axis. FIGS. 8A and 8B are explanatory diagrams of the principle of line-of-sight detection. FIG. 8A is a schematic diagram of a line-of-sight detection optical system, and FIG. 8B is an intensity diagram of an output signal from the photoelectric element array 6. In FIG. 8A, reference numeral 5 denotes a light source such as a light-emitting diode that emits infrared light insensitive to an observer;
It is arranged on the focal plane of the light projecting lens 3. The infrared light emitted from the light source 5 becomes parallel light by the light projecting lens 3 and is reflected by the half mirror 2 to illuminate the cornea 21 of the eyeball 201.
At this time, a corneal reflection image d due to a part of the infrared light reflected on the surface of the cornea 21 is transmitted through the half mirror 2, condensed by the light receiving lens 4, and is re-imaged at the position Zd ′ on the photoelectric element array 6.

【0004】また虹彩23の端部a,bからの光束はハ
ーフミラー2,受光レンズ4を介して光電素子列6上の
位置Za′,Zb′に該端部a,bの像を結像する。受
光レンズ4の光軸(光軸ア)に対する眼球の光軸イの回
転角θが小さい場合、虹彩23の端部a,bのZ座標を
Za,Zaとすると、虹彩23の中心位置cの座標Zc
は Zc≒(Za+Zb)/2 と表わされる。
Light beams from the ends a and b of the iris 23 form images of the ends a and b at positions Za 'and Zb' on the photoelectric element array 6 via the half mirror 2 and the light receiving lens 4. I do. When the rotation angle θ of the optical axis a of the eyeball with respect to the optical axis (optical axis a) of the light receiving lens 4 is small, and the Z coordinates of the ends a and b of the iris 23 are Za and Za, the center position c of the iris 23 is Coordinates Zc
Is expressed as Zc ≒ (Za + Zb) / 2.

【0005】また、角膜反射像の発生位置DのZ座標を
Zd、角膜21の曲率中心Oと虹彩23の中心Cまでの
距離をOCとすると眼球光軸イの回転角θは、 OC*sinθ≒Zc−Zd ……(1) の関係式を略満足する。
If the Z coordinate of the corneal reflection image generation position D is Zd, and the distance between the center of curvature O of the cornea 21 and the center C of the iris 23 is OC, the rotation angle θ of the optical axis A of the eyeball is OC * sin θ ≒ Zc−Zd... (1)

【0006】ここで、角膜反射像の位置dのZ座標Zd
と角膜21の曲率中心OのZ座標Zとは一致している。
このため演算手段において、同図(b)のごとく光電素
子列6面上に投影された各特異点(角膜反射像d及び虹
彩の端部a,b)の位置を検出することにより眼球光軸
イの回転角θを求めることができる。このとき(1)式
は、 β*OC*sinθ≒(Za′+Zb′)/2−Zd′ ……(2) と書き換えられる。ただし、βは、角膜反射像の発生位
置dと受光レンズ4との距離L1と、受光レンズ4と光
電素子列6との距離L0で決まる倍率で、通常ほぼ一定
の値となっている。
Here, the Z coordinate Zd of the position d of the corneal reflection image
And the Z coordinate Z of the center of curvature O of the cornea 21 match.
Therefore, the arithmetic means detects the position of each singular point (corneal reflection image d and end portions a and b of the iris) projected on the surface of the photoelectric element array 6 as shown in FIG. A rotation angle θ can be obtained. At this time, the expression (1) is rewritten as β * OC * sin θ ≒ (Za ′ + Zb ′) / 2−Zd ′ (2) Here, β is a magnification determined by the distance L1 between the corneal reflection image generation position d and the light receiving lens 4 and the distance L0 between the light receiving lens 4 and the photoelectric element array 6, and is usually a substantially constant value.

【0007】一方、従来カメラ一体型VTRにおいて、
撮影者が、撮影中に各種機能の入力を行おうとする際に
は、ビューファインダを覗きながらその操作を行わなけ
ればならなかった。また、各種機能のスイッチを確認し
ながら操作するためには、一度ビューファインダから目
を離さなければならず、撮影画面が乱れたり、被写体を
見失ったりする可能性がある。さらに、近年ユーザ用途
の多様化などでカメラ一体型VTRに付随する各種機能
は増加する傾向にある。このような背景を鑑みれば、例
えば今述べてきた視線検出装置を応用し、ビューファイ
ンダ内の視線を検出し、メニュ画面などを使い、各種機
能入力に応用すれば、ビューファインダから目を離すこ
となく、容易に機能入力等を行うことが可能となる。
On the other hand, in a conventional camera-integrated VTR,
When the photographer attempts to input various functions during photographing, he or she must perform the operation while looking through the viewfinder. In addition, in order to operate while checking the switches of various functions, it is necessary to take an eye from the viewfinder once, and there is a possibility that the photographing screen is disturbed or the subject is lost. Furthermore, various functions accompanying the camera-integrated VTR tend to increase in recent years due to diversification of user applications. In view of such a background, for example, applying the above-described gaze detection device, detecting the gaze in the viewfinder, using a menu screen, etc., and applying to various function inputs, keeping an eye on the viewfinder. Therefore, it is possible to easily input a function or the like.

【0008】[0008]

【発明が解決しようとする課題】一般的なカメラ一体型
VTRにおいては、カメラの視度補正は手動で行われて
きた。しかしながら、一台のカメラを数人で使用する場
合、自分が使用するときには毎回視度補正をする必要が
生じ、わずらわしい場合がある。そこで、本発明におい
ては、ある撮影者が一度視度補正を行ったならば、その
後は自動的にビユーファインダにおける撮影者の視度補
正を行うことのできるカメラを提供することを目的とす
る。
In a general camera-integrated VTR, the diopter of the camera has been manually corrected. However, when one camera is used by several people, it is necessary to correct the diopter every time when one camera is used, which may be troublesome. In view of the above, an object of the present invention is to provide a camera capable of automatically performing a diopter correction of a photographer in a view finder once a certain photographer has performed diopter correction. .

【0009】[0009]

【課題を解決するための手段】前記目的を達成するた
め、本発明でカメラを次の(1),(2)のとおりに構
成する。
In order to achieve the above-mentioned object, a camera according to the present invention is configured as described in the following (1) and (2 ) .

【0010】[0010]

【0011】()ファインダを覗いている瞳の情報を
検出する瞳情報検出手段と、前記ファインダの視度補正
を行う視度補正手段と、該視度補正手段によって視度補
正を行ったときの補正情報とそのときに検出した前記瞳
情報検出手段の瞳情報とを関連させて記憶する記憶手段
と、前記ファインダを覗いたときに、前記瞳情報検出手
段で検出した瞳情報と前記記憶手段に記憶している瞳情
報を比較し同じ瞳か否かの判定を行う判定手段と、該判
定手段で同じ瞳と判定したとき、その瞳の情報と関連し
て前記記憶手段に記憶している補正情報にもとづいて前
記視度補正手段を駆動する駆動手段とを備えたカメラ。
( 1 ) A pupil information detecting means for detecting information of a pupil looking through a finder, a diopter correcting means for correcting a diopter of the finder, and a diopter compensation by the diopter correcting means .
Storage means for storing the correction information when the correction is performed and the pupil information of the pupil information detection means detected at that time, and a pupil detected by the pupil information detection means when looking through the finder Determining means for comparing information and pupil information stored in the storage means to determine whether or not the pupil is the same; and when the determination means determines the same pupil, the storage means is associated with the pupil information. camera equipped with a drive means on the basis of the correction information stored driving the diopter compensation means.

【0012】() 定手段で同じ瞳の判定ができない
とき、撮影者に視度補正手段を手動で操作するよう指示
する指示手段を備えた前記(1)記載のカメラ。
( 2 ) The camera according to ( 1) , further comprising an instruction unit for instructing the photographer to manually operate the diopter correction unit when the same pupil cannot be determined by the determination unit.

【0013】[0013]

【0014】[0014]

【作用】 前記(),()の構成によれば、ファイン
ダを覗いたときに、瞳情報検出手段で検出した瞳情報と
記憶手段に記憶している瞳情報が比較され、同じ瞳か否
かの判定が行われる。そして同じ瞳のとき、その瞳に関
連して記憶手段に記憶している補正情報にもとづいて視
度補正手段が駆動され、自動的に視度補正が行われる。
SUMMARY OF] (1), according to the configuration of (2), when viewed through the viewfinder, pupil information stored in the pupil information storage means detected by the pupil information detection means is compared, the same or pupil A determination is made as to whether or not it is. When the pupil is the same, the diopter correction unit is driven based on the correction information stored in the storage unit in association with the pupil, and diopter correction is automatically performed.

【0015】前記()の構成では、同じ瞳の判定でき
ないとき、撮影者に、手動で視度補正を行うよう指示が
出される。
In the configuration ( 2 ), when the same pupil cannot be determined, an instruction is issued to the photographer to manually perform diopter correction.

【0016】[0016]

【実施例】以下、本発明を実施例で詳しく説明する。図
1は、実施例である“ビデオカメラ”の要部の構成図で
ある。図中、1は接眼レンズ、2は可視光透過・赤外光
反射のダイクロイックミラーで、光路分割器を兼ねてい
る。
The present invention will be described below in detail with reference to examples. FIG. 1 is a configuration diagram of a main part of a “video camera” according to an embodiment. In the figure, 1 is an eyepiece, 2 is a dichroic mirror for transmitting visible light and reflecting infrared light, and also serves as an optical path splitter.

【0017】4は受光レンズ、5a,5b,5cは照明
手段であり、例えば発光ダイオードからなっている。6
は光電素子列である。受光レンズ4と光電素子列6は受
光手段の一要素を構成している。光電素子列6は、通常
は図面垂直方向に一次元的に複数の光電素子がならんだ
デバイスを使うが、必要に応じて2次元に光電素子がな
らんだデバイスを使用する。各要素1,2,4,5a,
5b,5c,6より眼球の視線検出系を構成している。
Reference numeral 4 denotes a light receiving lens, and reference numerals 5a, 5b, and 5c denote illumination means, which are, for example, light emitting diodes. 6
Denotes a photoelectric element row. The light receiving lens 4 and the photoelectric element array 6 constitute one element of the light receiving means. The photoelectric element array 6 normally uses a device in which a plurality of photoelectric elements are arranged one-dimensionally in a direction perpendicular to the drawing, but uses a device in which two or more photoelectric elements are arranged as necessary. Each element 1, 2, 4, 5a,
5b, 5c and 6 constitute an eye gaze detection system.

【0018】101は電子ビューファインダ、102は
ファインダ画面である。本実施例では、ファインダ画面
102に映し出された映像は、接眼レンズ1を介してア
イポイントEに導かれる。
Reference numeral 101 denotes an electronic viewfinder, and reference numeral 102 denotes a finder screen. In the present embodiment, an image projected on the finder screen 102 is guided to the eye point E via the eyepiece 1.

【0019】本実施例に係る視線検出装置は、符号1,
2,4,5a,5b,5c,6で表された部材より構成
された視線検出系と、演算手段である信号処理回路10
9に含まれる、眼球光軸検出回路,眼球判別回路,視軸
補正回路,注視点検出回路等から構成されている。
The line-of-sight detection device according to the present embodiment
A line-of-sight detection system composed of members represented by 2, 4, 5a, 5b, 5c, and 6, and a signal processing circuit 10 serving as arithmetic means
9 includes an eyeball optical axis detection circuit, an eyeball discrimination circuit, a visual axis correction circuit, a gazing point detection circuit, and the like.

【0020】該視線検出系において、赤外発光ダイオー
ド5から放射される赤外光は、アイポイントE近傍に位
置する観察者の眼球201を照明する。また、眼球20
1で反射した赤外光は、ダイクロイックミラー2で反射
され受光レンズ4によって収斂しながら光電素子列6上
に像を形成する。また、前記信号処理回路109はマイ
クロコンピュータ110のソフトウエアで実行される。
In the eye-gaze detecting system, the infrared light emitted from the infrared light emitting diode 5 illuminates the eye 201 of the observer located near the eye point E. In addition, the eyeball 20
The infrared light reflected by 1 forms an image on the photoelectric element array 6 while being reflected by the dichroic mirror 2 and converged by the light receiving lens 4. The signal processing circuit 109 is executed by software of the microcomputer 110.

【0021】ここで、視線検出について説明する。図2
は図1の視線検出系の要部斜視図、図3は視線検出系の
光学原理図である。照明用の赤外発光ダイオード5a,
5b,5cはカメラと観察者の眼球との距離を検出する
ために2個一組で使用され、カメラの姿勢に応じて赤外
発光ダイオード5a,5bで横位置、赤外発光ダイオー
ド5b,5cで縦位置での検出を行っている。なお、同
図においてカメラの姿勢検出手段は図示されていないが
水銀スイッチ等を利用した姿勢検知手段が有効である。
Here, the line of sight detection will be described. FIG.
FIG. 3 is a perspective view of an essential part of the visual line detection system of FIG. 1, and FIG. 3 is an optical principle diagram of the visual line detection system. Infrared light emitting diode 5a for illumination,
5b and 5c are used in pairs to detect the distance between the camera and the observer's eyeball. The infrared light-emitting diodes 5a and 5b are used in a horizontal position, and the infrared light-emitting diodes 5b and 5c are used in accordance with the posture of the camera. Is used to detect the vertical position. Although the attitude detecting means of the camera is not shown in the figure, an attitude detecting means using a mercury switch or the like is effective.

【0022】赤外発光ダイオード5a,5bは、受光レ
ンズ4の光軸(X軸)に対して光電素子列6の列方向
(Z軸方向)及び該列方向と直交する方向にシフトした
位置に配置されている。
The infrared light emitting diodes 5a and 5b are located at positions shifted with respect to the optical axis (X axis) of the light receiving lens 4 in the column direction (Z axis direction) of the photoelectric element column 6 and in a direction orthogonal to the column direction. Are located.

【0023】図3(a)において、光電素子列6の列方
向(Z軸方向)に分離して配置された赤外発光ダイオー
ド5a,5bからの光束はZ軸方向に分離した位置に角
膜反射像e,dをそれぞれ形成する。このとき、角膜反
射像e及びdの中点のZ座標は角膜21の曲率中心oの
Z座標と一致している。また角膜反射像e及びdの間隔
は赤外発光ダイオードと観察者の眼球との距離に対応し
て変化するため、光電素子列6上に再結像した角膜反射
像の位置e′,d′を検出することにより眼球からの反
射像の結像倍率βを求めることが可能となる。また図3
(b)において、光電素子列6の列方向と直交する方向
に配置された赤外発光ダイオード5a(5b)は観察者
の眼球を斜め上から照明することになり、そのため観察
者の眼球が垂直方向(X−Y平面内)に回転していない
場合は角膜反射像e(d)は角膜の曲率中心及び瞳孔の
中心よりも図中+Y方向に形成される。
In FIG. 3A, the luminous fluxes from the infrared light emitting diodes 5a and 5b arranged separately in the column direction (Z-axis direction) of the photoelectric element array 6 are corneal reflected at positions separated in the Z-axis direction. Images e and d are formed, respectively. At this time, the Z coordinate of the middle point of the corneal reflection images e and d matches the Z coordinate of the center of curvature o of the cornea 21. Since the interval between the corneal reflection images e and d changes in accordance with the distance between the infrared light emitting diode and the eyeball of the observer, the positions e ′ and d ′ of the corneal reflection images re-imaged on the photoelectric element array 6. , It is possible to determine the imaging magnification β of the reflected image from the eyeball. FIG.
In (b), the infrared light emitting diodes 5a (5b) arranged in the direction orthogonal to the row direction of the photoelectric element row 6 illuminate the observer's eyeball from obliquely above, so that the observer's eyeball is vertical. When the image is not rotated in the direction (within the XY plane), the corneal reflection image e (d) is formed in the + Y direction in the figure with respect to the center of curvature of the cornea and the center of the pupil.

【0024】図4は本実施例において、光電素子列6の
複数の光電素子列面上に投影された眼球からの反射像を
示す説明図である。
FIG. 4 is an explanatory view showing a reflection image from an eyeball projected on a plurality of photoelectric element row surfaces of the photoelectric element row 6 in this embodiment.

【0025】図4(a)は光電素子列6上に投影された
眼球からの反射像を示したものである。同図において角
膜反射像e′,d′は光電素子列Yp′上に再結像して
いる。このとき光電素子列Yp′より得られる出力信号
を図4(b)に示す。
FIG. 4A shows a reflected image from the eyeball projected on the photoelectric element array 6. In this figure, the corneal reflection images e 'and d' are re-imaged on the photoelectric element row Yp '. FIG. 4B shows an output signal obtained from the photoelectric element array Yp 'at this time.

【0026】次に本実施例における視線検出方法を図5
のフローチャートを用いて順次説明する。まず信号処理
回路109に含まれる眼球光軸検出回路において眼球光
軸の回転角が検出される。次いで光電素子列6の像信号
の読み出しを図4(a)で示す−Y方向より順次行い角
膜反射像e′,d′が形成される光電素子列(ライン)
Yp′を検出する(S1)。同時に角膜反射像e′,
d′の列方向の発生位置Zd′,Ze′を検出し(S
2)、該角膜反射像の間隔|Zd′−Ze′|より光学
系の結像倍率βを求める(S3)。さらに該光電素子列
(ライン)Yp′上に虹彩23と瞳孔24との境界点Z
2b′,Z2a′を検出し(S4)、該光電素子列Y
p′上の瞳孔径|Z2a′−Z2b′|を算出する(S
5)。
Next, the gaze detection method in this embodiment is shown in FIG.
Will be sequentially described with reference to the flowchart of FIG. First, an eyeball optical axis detecting circuit included in the signal processing circuit 109 detects the rotation angle of the eyeball optical axis. Next, the reading of the image signal of the photoelectric element array 6 is sequentially performed from the −Y direction shown in FIG. 4A to form the photoelectric element array (line) on which the corneal reflection images e ′ and d ′ are formed.
Yp 'is detected (S1). At the same time, the corneal reflection image e ',
The positions Zd 'and Ze' of occurrence of d 'in the column direction are detected (S
2), the imaging magnification β of the optical system is obtained from the interval | Zd'-Ze '| of the corneal reflection image (S3). Further, a boundary point Z between the iris 23 and the pupil 24 is located on the photoelectric element row (line) Yp '.
2b 'and Z2a' are detected (S4), and the photoelectric element row Y is detected.
The pupil diameter | Z2a'-Z2b '| on p' is calculated (S
5).

【0027】図4(a)に示すように、通常角膜反射像
が形成される光電素子列Yp′は、瞳孔中心C′の存在
する光電素子列Y0′より図中−Y方向に発生し、像信
号の読み出しを行うべきもう一つの光電素子列Y1′は
前記結像倍率β及び瞳孔径の値より算出される(S
6)。このとき該光電素子列Y1′は光電素子列Yp′
に対して十分な間隔を有するように設定される。同様に
光電素子列Y1′上の虹彩23と瞳孔24との境界点Z
1a′,Z1b′が検出されると(S7)、該境界点
(Z1a′,Y1′)、(Z1b′,Y1′)及び前記
境界点(Z2a′,Yp′)、(Z2b′,Yp′)の
内の少なくとも3点を用いて瞳孔の中心位置C′(Z
c′,Yc′)が求められる。さらに前記角膜反射像の
位置(Zd′,Yp′)、(Ze′,Yp′)を用いて
前記(2)式を変形すると眼球光軸の回転角θz,θy
は、
As shown in FIG. 4A, a photoelectric element array Yp 'on which a corneal reflection image is normally formed is generated in a -Y direction in the figure from a photoelectric element array Y0' having a pupil center C '. Another photoelectric element row Y1 'from which an image signal should be read is calculated from the values of the imaging magnification β and the pupil diameter (S
6). At this time, the photoelectric element row Y1 'is changed to the photoelectric element row Yp'.
Is set to have a sufficient interval with respect to. Similarly, the boundary point Z between the iris 23 and the pupil 24 on the photoelectric element row Y1 '
When 1a 'and Z1b' are detected (S7), the boundary points (Z1a ', Y1'), (Z1b ', Y1') and the boundary points (Z2a ', Yp'), (Z2b ', Yp') are detected. ), The center position C ′ (Z
c ', Yc'). Further, when the above equation (2) is modified using the positions (Zd ′, Yp ′) and (Ze ′, Yp ′) of the corneal reflection image, the rotation angles θz and θy of the optical axis of the eyeball are obtained.
Is

【0028】[0028]

【数1】 (Equation 1)

【0029】を満足する(S8)。但しδY′は赤外発
光ダイオードが受光レンズ4に対して光電素子列6の列
方向と直交する方向に配置されていることにより、角膜
反射像の再結像位置e′,d′が光電素子列6上で角膜
21の曲率中心のY座標に対してY軸方向にシフトして
いる分を補正する値である。
Is satisfied (S8). However, δY ′ is that the re-imaging positions e ′ and d ′ of the corneal reflection image are the photoelectric elements because the infrared light emitting diode is arranged in the direction orthogonal to the row direction of the photoelectric element row 6 with respect to the light receiving lens 4. This is a value for correcting the shift in the Y-axis direction with respect to the Y coordinate of the center of curvature of the cornea 21 on the column 6.

【0030】さらに、信号処理回路109に含まれる眼
球判別回路においては、例えば算出される眼球光軸の回
転角の分布よりファインダ101をのぞいている観察者
の目が右目か左目かを判別し(S9)、さらに視軸補正
回路において該眼球判別情報と前記眼球光軸の回転角に
基づいて視軸の補正が行われる(S10)。また注視点
検出回路においては、ファインダ光学系の光学定数に基
づいて注視点を算出される(S11)。
Further, the eyeball discriminating circuit included in the signal processing circuit 109 discriminates whether the eye of the observer looking into the finder 101 is the right eye or the left eye, for example, from the calculated distribution of the rotation angle of the optical axis of the eyeball ( S9) Further, the visual axis correction circuit corrects the visual axis based on the eyeball discrimination information and the rotation angle of the optical axis of the eyeball (S10). In the gazing point detection circuit, the gazing point is calculated based on the optical constant of the finder optical system (S11).

【0031】さて、図1のマイクロコンピュータ110
内には、瞳情報をデータとしてとり込むプログラム、現
在の情報と記憶データの相関をとるプログラム、接眼レ
ンズ1を動かすためにモータ駆動用ドライバ8に駆動デ
ータを出力するプログラム、さらに駆動用ドライバ8に
よってモータ7を駆動し接眼レンズ1が動いた際、その
位置情報をエンコーダ111からとり込み記憶するプロ
グラムがある。
Now, the microcomputer 110 of FIG.
In the program, a program for taking in pupil information as data, a program for correlating current information with stored data, a program for outputting drive data to a motor drive driver 8 for moving the eyepiece 1, and a drive driver 8 When the eyepiece 1 is moved by driving the motor 7 by the motor, there is a program which takes in the position information from the encoder 111 and stores it.

【0032】以下、本実施例による視度補正の動作につ
いて、図6に沿って説明する。S21は撮影者がファイ
ンダ101を覗いたかどうかを判断するプログラムで、
これは信号処理回路109内の眼球判別回路によって判
断される。ファインダ101を覗いているのが確認され
たなら、プログラムはS22に進み、撮影者の瞳の映像
情報(瞳情報)を、光電素子列6からとり込み記憶す
る。目の形は撮影者により異なっているため、個人の判
別ができる。
The operation of diopter correction according to this embodiment will be described below with reference to FIG. S21 is a program for determining whether or not the photographer has looked into the viewfinder 101.
This is determined by the eyeball discriminating circuit in the signal processing circuit 109. If it is confirmed that the user is looking through the viewfinder 101, the program proceeds to S22, in which the image information (pupil information) of the photographer's pupil is taken from the photoelectric element array 6 and stored. Since the shape of the eyes is different depending on the photographer, it is possible to distinguish individuals.

【0033】次に過去にとり込みメモリに蓄えられてい
る瞳情報のデータと、今とり込んだデータの相関をS2
3でとる。今回はじめて撮影者がファインダ101を覗
いたとすれば、過去のデータはないためS24のプログ
ラムでは過去には一致したデータがないと判断しS26
へ進む。ここで、ファインダ画面102内の視度補正の
マークを点灯させ、撮影者に視度補正を行うように指示
する。撮影者が視度補正を終えて何らかの操作、例えば
カメラ本体にあるスイッチなどを押すとS27において
それを確認し、S28で現在のレンズ位置データと瞳情
報のデータを関連させて記憶する。これにより現在の撮
影者の視度補正のベストの状態がマイクロコンピュータ
110に記憶されたことになる。次回からファインダ1
01を覗いたときは、S23の相関において一致データ
が確認され、その瞳情報をもっている撮影者の視度補正
位置へと自動的にレンズが移動することになる(S2
5)。
Next, the correlation between the data of the pupil information stored in the fetch memory in the past and the fetched data is represented by S2.
Take 3 If the photographer looks into the viewfinder 101 for the first time this time, there is no past data, so the program of S24 judges that there is no matching data in the past, and S26
Proceed to. Here, the diopter correction mark in the finder screen 102 is turned on to instruct the photographer to perform diopter correction. When the photographer finishes the diopter correction and presses any operation, for example, pressing a switch on the camera body, it is confirmed in S27, and in S28, the current lens position data and the pupil information data are stored in association with each other. As a result, the current best state of the diopter correction of the photographer is stored in the microcomputer 110. Finder 1 from next time
When the user looks into the image No. 01, the coincidence data is confirmed in the correlation in S23, and the lens automatically moves to the diopter correction position of the photographer having the pupil information (S2).
5).

【0034】次に、先に述べた瞳情報のデータの相関の
とり方について図7により説明する。相関をとる場合、
図7(a)に示すようにエリアを何分割かし、さらにそ
の1つのエリアを片方(一方の瞳情報)を基準にもう片
方を±10エリア分ぐらい動かし各々の領域での差の絶
対値の総和が最小となるレベルにより決定される。
(a)と(b)の相関をとるとき、(b)の座標を
(2.2)だけ動かせば像は一致するが、このときの相
関を調べていく上での計算結果は(c)で示される。そ
して、(c)における最小値のレベルにより相関がとれ
ているかどうか判断されるのである。しかし、画面全体
を見るのでは時間がかかるので、一般的には代表点によ
る相関がとられる。これは(d)で示されたように、画
面上に何点かの代表点を設け、その点における相関をと
る手法である。
Next, how to correlate the pupil information data described above will be described with reference to FIG. When correlating,
As shown in FIG. 7A, the area is divided into several parts, and one area is moved by ± 10 areas with respect to one area (one pupil information), and the absolute value of the difference in each area is calculated. Is determined by the level at which the sum of
When the correlation between (a) and (b) is obtained, the images match if the coordinates of (b) are moved by (2.2), but the calculation result for examining the correlation at this time is (c). Indicated by Then, it is determined whether or not the correlation is obtained based on the level of the minimum value in (c). However, it takes a long time to look at the entire screen, so that correlation is typically performed using representative points. This is a method in which several representative points are provided on the screen as shown in FIG.

【0035】さて、本実施例で瞳の映像信号の相関をと
る場合、やはり代表点による相関をとっているが、瞳孔
の大きさが変化するために瞳孔が開いているときと閉じ
ているときとでは相関がとれない場合がある。そこで、
瞳の映像信号のレベルに対してあるスレッショルドレベ
ルを設け、そのレベル以下に対する代表点に対しては相
関をとらないようにした。図8(b)からもわかるよう
に、瞳孔からの反射光のレベルは低い。そこで図7
(f)に示すように低いレベルを相関から外すことによ
り確実に相関がとれるようにしている。
When correlating the pupil video signal in this embodiment, the correlation is also based on the representative points. However, when the pupil is open and closed because the pupil size changes. May not be correlated with. Therefore,
A certain threshold level is provided for the level of the video signal of the pupil, and no correlation is made for a representative point below that level. As can be seen from FIG. 8B, the level of the light reflected from the pupil is low. So Figure 7
As shown in (f), a low level is excluded from the correlation so that the correlation can be reliably obtained.

【0036】以上、視度補正のやり方について述べた
が、補正用のレンズの駆動モータ7は、位置精度の高い
ものであれば何でもよい。また、手動による視度補正の
指示は、実施例においてはファインダ画面102内に表
示するとしたが、警告音など撮影者がファインダを覗い
た状態で知ることができるものなら何でもよい。
The method of diopter correction has been described above. However, the drive motor 7 for the lens for correction may be of any type as long as it has high positional accuracy. In addition, in the embodiment, the instruction for manual diopter correction is displayed in the viewfinder screen 102. However, any instruction such as a warning sound that the photographer can know while looking through the viewfinder may be used.

【0037】また、実施例はビデオカメラであるが、本
発明はこれに限定されものではなく、視度補正機構を有
するファインダを備える適宜のカメラに適用することが
できる。
Although the embodiment is a video camera, the present invention is not limited to this, and can be applied to an appropriate camera having a finder having a diopter correction mechanism.

【0038】[0038]

【発明の効果】以上説明したように、本発明によれば、
カメラ側で自動的にビューファインダの視度補正が行わ
れることになる。そのため、従来のように視度補正をそ
の都度手動で行う必要がなく、さらには、毎回自動的に
視度補正が行われるため、その結果として、視線検出の
精度もあがり、視線検出を利用したカメラ処理を行うカ
メラにあってはその動作がより快適に行える。
As described above, according to the present invention,
The camera automatically corrects the diopter of the viewfinder. Therefore, there is no need to manually perform diopter correction each time as in the related art.Furthermore, since diopter correction is performed automatically each time, as a result, the accuracy of gaze detection is increased, and gaze detection is used. In a camera that performs camera processing, the operation can be performed more comfortably.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 実施例要部の構成図FIG. 1 is a configuration diagram of a main part of an embodiment.

【図2】 視線検出系の要部斜視図FIG. 2 is a perspective view of a main part of a gaze detection system.

【図3】 視線検出系の光学原理図FIG. 3 is a diagram showing the optical principle of a gaze detection system.

【図4】 眼球からの反射像の説明図FIG. 4 is an explanatory diagram of a reflected image from an eyeball.

【図5】 実施例の視線検出の動作を示すフローチャー
FIG. 5 is a flowchart illustrating an operation of gaze detection according to the embodiment;

【図6】 実施例の視度補正の動作を示すフローチャー
FIG. 6 is a flowchart illustrating a diopter correction operation according to the embodiment;

【図7】 瞳情報のデータの相関の説明図FIG. 7 is an explanatory diagram of a correlation between pupil information data.

【図8】 視線検出の原理説明図FIG. 8 is a diagram illustrating the principle of gaze detection;

【符号の説明】[Explanation of symbols]

1 接眼レンズ 2 ダイクロイックミラー 4 受光レンズ 5a,5b,5c 照明手段 6 光電素子列 7 モータ 8 モータ駆動用ドライバ 109 信号処理回路 110 マイクロコンピュータ 201 眼球 DESCRIPTION OF SYMBOLS 1 Eyepiece 2 Dichroic mirror 4 Light receiving lens 5a, 5b, 5c Illumination means 6 Photoelectric element row 7 Motor 8 Motor drive driver 109 Signal processing circuit 110 Microcomputer 201 Eyeball

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H04N 5/225 - 5/232 G02B 7/11 G03B 7/00 - 7/28 G03B 13/00 - 13/28 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 7 , DB name) H04N 5/225-5/232 G02B 7/11 G03B 7 /00-7/28 G03B 13/00-13 / 28

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 ファインダを覗いている瞳の情報を検出
する瞳情報検出手段と、前記ファインダの視度補正を行
う視度補正手段と、該視度補正手段によって視度補正を
行ったときの補正情報とそのときに検出した前記瞳情報
検出手段の瞳情報とを関連させて記憶する記憶手段と、
前記ファインダを覗いたときに、前記瞳情報検出手段で
検出した瞳情報と前記記憶手段に記憶している瞳情報を
比較し同じ瞳か否かの判定を行う判定手段と、該判定手
段で同じ瞳と判定したとき、その瞳の情報と関連して前
記記憶手段に記憶している補正情報にもとづいて前記視
度補正手段を駆動する駆動手段とを備えたことを特徴と
るカメラ。
1. A pupil information detecting means for detecting information of a pupil looking through a finder, a diopter correcting means for correcting a diopter of the finder, and a diopter correction by the diopter correcting means .
A storage unit that stores the correction information when performed and the pupil information of the pupil information detection unit detected at that time in association with each other,
When looking into the finder, the pupil information detected by the pupil information detection means is compared with the pupil information stored in the storage means to determine whether the pupil is the same. A drive unit for driving the diopter correction unit based on the correction information stored in the storage unit in association with the pupil information when the pupil is determined. Luke camera.
【請求項2】 判定手段で同じ瞳の判定ができないと
き、撮影者に視度補正手段を手動で操作するよう指示す
る指示手段を備えたことを特徽とする請求項記載のカ
メラ。
Wherein when unable to determine the same pupil at determining means, according to claim 1, wherein the camera to Toku徽further comprising an instruction means for instructing to operate the diopter correction means manually to the photographer.
JP00050792A 1991-09-27 1992-01-07 camera Expired - Fee Related JP3296578B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP00050792A JP3296578B2 (en) 1992-01-07 1992-01-07 camera
US08/239,921 US5606390A (en) 1991-09-27 1994-05-09 Visual-line detecting device and optical apparatus having the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00050792A JP3296578B2 (en) 1992-01-07 1992-01-07 camera

Publications (2)

Publication Number Publication Date
JPH05183800A JPH05183800A (en) 1993-07-23
JP3296578B2 true JP3296578B2 (en) 2002-07-02

Family

ID=11475685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00050792A Expired - Fee Related JP3296578B2 (en) 1991-09-27 1992-01-07 camera

Country Status (1)

Country Link
JP (1) JP3296578B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6454055B2 (en) 2016-05-26 2019-01-16 富士フイルム株式会社 Imaging device

Also Published As

Publication number Publication date
JPH05183800A (en) 1993-07-23

Similar Documents

Publication Publication Date Title
US5280312A (en) Visual axis detection apparatus
JP2803222B2 (en) Eye gaze detection device
JPH0846846A (en) Image pickup device
US5552854A (en) Visual line detection device and camera equipped therewith
JP3297504B2 (en) Optical device
JP2749818B2 (en) Eye gaze detection device
JP3296578B2 (en) camera
JP3109870B2 (en) Video camera
JP2861349B2 (en) Optical device having line-of-sight detecting means
JP3397335B2 (en) Video camera
JPH0556924A (en) Video camera
US5887200A (en) Line of sight detection device and apparatus having the line of sight detection device
JPH0541822A (en) Video camera
JPH0564061A (en) Video camera
JPH09262210A (en) Optical system
JP3310999B2 (en) Video camera
JP3184634B2 (en) Optical device having line-of-sight detection device
JPH0568188A (en) Video camera
JP2000229067A (en) Visual axis detecting device and optical instrument having same
JP2744417B2 (en) Equipment with gaze detection device
JPH05232372A (en) Camera provided with device for detecting line of sight
JPH07313460A (en) Glance detecting device of camera
JPH04236935A (en) Optical device having visual line detector device
JPH089205A (en) Picture monitor device
JP3135415B2 (en) Eye gaze detection device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020226

LAPS Cancellation because of no payment of annual fees