JPH06138373A - Sight line detecting device - Google Patents

Sight line detecting device

Info

Publication number
JPH06138373A
JPH06138373A JP4291728A JP29172892A JPH06138373A JP H06138373 A JPH06138373 A JP H06138373A JP 4291728 A JP4291728 A JP 4291728A JP 29172892 A JP29172892 A JP 29172892A JP H06138373 A JPH06138373 A JP H06138373A
Authority
JP
Japan
Prior art keywords
pupil
circle
edge
line
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4291728A
Other languages
Japanese (ja)
Other versions
JP3256294B2 (en
Inventor
Akira Akashi
彰 明石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP29172892A priority Critical patent/JP3256294B2/en
Priority to US08/141,613 priority patent/US5543887A/en
Publication of JPH06138373A publication Critical patent/JPH06138373A/en
Application granted granted Critical
Publication of JP3256294B2 publication Critical patent/JP3256294B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Landscapes

  • Viewfinders (AREA)
  • Automatic Focus Adjustment (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

PURPOSE:To effectively eliminate a false pupil edge, and to improve accuracy for detecting the line of sight by estimating a pupil circle by using the least square method based on extracted all pupil edge data. CONSTITUTION:Extracted plural pupil edges are divided into the upper side part 71, the lower side part 72, the right side part 73 and the left side part 74 of a pupil circle, and based on data of the remaining sides except edge data of one side, a pupil circle 75' is estimated, and simultaneously, an estimated deviation quantity is also calculated. That is, for instance, in the case an edge of the lower side of the pupil circle is extracted erroneously due to influence of an eyelid, when the pupil circle is calculated by using extracted all edge data, an erroneous pupil circle 75 is obtained. Therefore, by estimating the circle by the data from which the lower side edge in an enclosure 72 is eliminated, a correct pupil circle 75' can be detected. In this case, since the circle is estimated by using the minimum square method, the radius or the diameter of the circle is used for the correction.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は撮影系による被写体像が
形成されている観察面(ピント面)上のファインダー系
を介して観察者(撮影者)が観察している注視点方向の
軸、いわゆる視線(視軸)を、観察者の眼球面上を照射
したときに得られる眼球の反射像を利用して検出し、各
種の撮影操作を行うようにした視線検出装置に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an axis of a gazing point observed by an observer (photographer) through a finder system on an observation plane (focus plane) on which a subject image is formed by the photographing system, The present invention relates to a line-of-sight detection device which detects a so-called line-of-sight (visual axis) by utilizing a reflected image of the eyeball obtained when the observer illuminates the spherical surface of the eye and performs various photographing operations.

【0002】[0002]

【従来の技術】従来より観察者が観察面上のどの位置を
観察しているかを検出する、いわゆる視線(視軸)を検
出する視線検出装置(例えばアイカメラ)が種々提案さ
れている。
2. Description of the Related Art Conventionally, various line-of-sight detection devices (for example, eye cameras) for detecting what position on an observation plane an observer observes, that is, for detecting a so-called line of sight (visual axis) have been proposed.

【0003】例えば特開平1−274736号公報にお
いては、光源からの平行光束を観察者の眼球の前眼部へ
投射し、角膜からの反射光による角膜反射像と瞳孔の結
像位置を利用して視軸を求めている。
For example, in Japanese Unexamined Patent Publication No. 1-274736, a parallel light flux from a light source is projected onto the anterior segment of the eyeball of an observer, and a corneal reflection image by the reflected light from the cornea and an image forming position of the pupil are used. Seeking the visual axis.

【0004】図10,11は視線検出方法の原理説明図
である。
10 and 11 are explanatory views of the principle of the visual axis detection method.

【0005】先づ図11について説明すると、各赤外発
光ダイオード(以下「IRED」と称する)13a,1
3bは受光レンズ12の光軸アに対してx方向に略対称
に配置され、各々撮影者の眼球を発散照明している。
First, referring to FIG. 11, each infrared light emitting diode (hereinafter referred to as "IRED") 13a, 1
3b are arranged substantially symmetrically in the x direction with respect to the optical axis A of the light receiving lens 12, and divergently illuminate the eyeball of the photographer.

【0006】IRED13a,13より放射された赤外
光は眼球15の角膜16を照明し、このとき角膜16の
表面で反射したそれぞれの赤外光の一部による角膜反射
像d,eは受光レンズ12より集光され、イメージセン
サー14上の位置d’,e’にそれぞれ再結像する。
The infrared light emitted from the IREDs 13a, 13 illuminates the cornea 16 of the eyeball 15, and at this time, the corneal reflection images d, e due to a part of the infrared light reflected on the surface of the cornea 16 are the light receiving lenses. The light is collected from the image sensor 12 and re-imaged at the positions d ′ and e ′ on the image sensor 14.

【0007】また、IREDにより照明された眼球の瞳
孔部の像もイメージセンサー14上に結像する。瞳孔と
虹彩の境界がなす円(これを瞳孔円と称する)の中心C
のx座標をxcとしたとき、イメージセンサー上でのx
座標は不図示のxc’となる。
An image of the pupil of the eyeball illuminated by the IRED is also formed on the image sensor 14. The center C of the circle formed by the boundary between the pupil and the iris (this is called the pupil circle)
When the x coordinate of x is xc, x on the image sensor
The coordinates are xc '(not shown).

【0008】図10(a)は図2のイメージセンサー1
4面上に投影される眼球像を示しており、(b)は
(a)中のライン(I)−(I)’での像信号の出力を
示している。
FIG. 10A shows the image sensor 1 of FIG.
The eyeball images projected on the four planes are shown, and (b) shows the output of the image signal at the line (I)-(I) ′ in (a).

【0009】図10(a)中の50は眼球のいわゆる白
目の部分、51は瞳孔部、52a,52bは1対のIR
EDの角膜反射像を表わしている。
In FIG. 10A, 50 is a so-called white part of the eyeball, 51 is a pupil part, and 52a and 52b are a pair of IRs.
The corneal reflection image of the ED is shown.

【0010】この角膜反射像は「プルキンエ像」と呼ば
れるものであり、以降「P像」と略称することにする。
This corneal reflection image is called a "Purkinje image" and will be abbreviated as "P image" hereinafter.

【0011】図10(b)の信号60中の極大点2つが
1対のP像に対応している。
Two maximum points in the signal 60 of FIG. 10B correspond to a pair of P images.

【0012】図11に戻って、角膜反射像(P像)dお
よびeの中心のx座標と角膜16の曲率中心のx座標x
O とは一致するため、角膜反射像の発生位置d,eのx
座標をxd,xe、角膜16の曲率中心Oから瞳孔19
の中心Cまでの標準的な距離をLOCとし、距離LOCに対
する個人差を考慮する係数をA1とすると眼球光軸イの
回転角θは (A1*LOC)*sinθ≒xc−(xd+xe)/2 …(1) の関係式を略満足する。このため視線演算処理装置にお
いてイメージセンサー上の一部に投影された各特徴点
(角膜反射像d,e及び瞳孔中心C)の位置を検出する
ことにより眼球の光軸イの回転角θを求めることができ
る。このとき(1)式は、 β(A1*LOC)*sinθ≒xc’−(xd’+xe’)/2 …(2) とかきかえられる。但し、βは受光レンズ12に対する
眼球の位置により決まる倍率で、実質的には角膜反射像
の間隔|xd’−xe’|の関数として求められる。眼
球15の回転角θは θ≒ARCSIN{(xc’−xf’)/β/(A1*LOC)} …(3) とかきかえられる。但し xf’≒(xd’+xe’)/2 である。ところで撮影者の眼球の光軸イと視軸とは一致
しない為、撮影者の眼球の光軸イの水平方向の回転角θ
が算出されると眼球の光軸と視軸との角度補正δをする
ことにより撮影者の水平方向の視線θHは求められる。
眼球の光軸イと視軸との補正角度δに対する個人差を考
慮する係数をB1とすると撮影者の水平方向の視線θH
は θH=θ±(B1*δ) …(4) と求められる。ここで符号±は、撮影者に関して右への
回転角を正とすると、観察装置をのぞく撮影者の目が左
目の場合は+、右目の場合は−の符号が選択される。
Returning to FIG. 11, the x coordinate of the center of the corneal reflection images (P images) d and e and the x coordinate x of the center of curvature of the cornea 16.
Since it coincides with O , x at the generation position d, e of the corneal reflection image
The coordinates are xd and xe, and the pupil 19 from the center of curvature O of the cornea 16.
The standard distance to the center C of the L OC, the distance L rotation angle of the a consideration factor individual differences and A1 eyeball optical axis v for OC θ (A1 * L OC) * sinθ ≒ xc- (xd + xe ) / 2 ... (1) The relational expression is substantially satisfied. Therefore, the rotation angle θ of the optical axis a of the eyeball is obtained by detecting the positions of the respective feature points (corneal reflection images d and e and the center C of the pupil) projected on a part of the image sensor in the visual line arithmetic processing device. be able to. At this time, the expression (1) can be rewritten as β (A1 * L OC ) * sin θ≈xc ′ − (xd ′ + xe ′) / 2 (2). However, β is a magnification determined by the position of the eyeball with respect to the light receiving lens 12, and is substantially obtained as a function of the interval | xd′−xe ′ | of corneal reflection images. The rotation angle θ of the eyeball 15 can be rewritten as θ≈ARCSIN {(xc′−xf ′) / β / (A1 * L OC )} (3). However, xf'≈ (xd '+ xe') / 2. By the way, since the optical axis a of the photographer's eye does not coincide with the visual axis, the horizontal rotation angle θ of the optical axis a of the photographer's eye
When is calculated, the angle of view δ between the optical axis of the eyeball and the visual axis is corrected to obtain the horizontal line of sight θH of the photographer.
Letting B1 be a coefficient considering the individual difference with respect to the correction angle δ between the optical axis a of the eyeball and the visual axis, the horizontal line of sight θH of the photographer
Is calculated as θH = θ ± (B1 * δ) (4). Here, if the angle of rotation to the right of the photographer is positive, the sign ± is selected as + when the eye of the photographer looking through the observation device is the left eye, and when the eye of the photographer is the right eye.

【0013】又、同図においては撮影者の眼球がZ−X
平面(例えば水平面)内で回転する例を示しているが、
撮影者の眼球がZ−Y平面(例えば垂直面)内で回転す
る場合においても同様に検出可能である。ただし、撮影
者の視線の垂直方向の成分は眼球の光軸の垂直方向の成
分θ’と一致するため垂直方向の視線θVはθV=θ’
となる。更に視線データθH,θVより撮影者が見てい
るファインダー視野内のピント板上の位置(Xn,Y
n)は Xn≒m*θH ≒m*[ARCSIN{(xc’−xf’)/β/(A1*LOC)} ±(B1*δ)] …(5) Yn≒m*θV と求められる。但し、mはカメラのファインダー光学系
で決まる定数である。
Further, in the figure, the eyeball of the photographer is Z-X.
It shows an example of rotation in a plane (eg horizontal plane),
The same can be detected when the photographer's eyeball rotates in the Z-Y plane (for example, a vertical plane). However, since the vertical component of the line of sight of the photographer coincides with the vertical component θ ′ of the optical axis of the eyeball, the vertical line of sight θV is θV = θ ′.
Becomes Further, from the line-of-sight data θH, θV, the position (Xn, Y
n) is calculated as Xn≈m * θH≈m * [ARCSIN {(xc′−xf ′) / β / (A1 * L OC )} ± (B1 * δ)] (5) Yn≈m * θV . However, m is a constant determined by the finder optical system of the camera.

【0014】ここで撮影者の眼球の個人差を補正する係
数A1,B1の値は撮影者にカメラのファインダー内の
所定の位置に配設された指標を固視してもらい、該指標
の位置と(5)式に従い算出された固視点の位置とを一
致させることにより求められる。
Here, the values of the coefficients A1 and B1 for correcting the individual difference of the eyeball of the photographer have the photographer fixate the index arranged at a predetermined position in the viewfinder of the camera, and the position of the index. And the position of the fixation point calculated according to the equation (5).

【0015】撮影者の視線及び注視点を求める演算は、
前記各式に基づき視線演算処理装置のマイクロコンピュ
ータのソフトで実行している。
The calculation for obtaining the line of sight and gazing point of the photographer is
It is executed by the software of the microcomputer of the line-of-sight calculation processing device based on the above equations.

【0016】視線の個人差を補正する係数が求まり
(5)式を用いてカメラのファインダーを覗く観察者の
視線のピント板上の位置を算出し、その視線情報を撮影
レンズの焦点調節あるいは露出制御等に利用している。
The coefficient for correcting the individual difference of the line of sight is obtained, and the position of the line of sight of the observer looking into the viewfinder of the camera is calculated by using the formula (5), and the line of sight information is used for the focus adjustment or exposure of the photographing lens. It is used for control.

【0017】実際に視線を求めるにはイメージセンサー
上の眼球像をマイクロコンピュータ等で処理して、上述
したP像、瞳孔円を検出し、その位置情報に基づいて視
線を算出する。
In order to actually obtain the line of sight, the eyeball image on the image sensor is processed by a microcomputer or the like to detect the P image and the pupil circle, and the line of sight is calculated based on the position information.

【0018】具体的な手法としては、本出願人によって
既に提案(特願平3−121097号)されている。こ
れによれば、瞳孔円の求め方として、イメージセンサー
から眼球像信号を読み出しながら瞳孔と虹彩の境界の輝
度差を信号エッジとして抽出し、その座標を記憶してゆ
く。そして、眼球像の読み出しを終了すると、記憶して
いる複数の瞳孔のエッジ座標を最小2乗法を用いて円を
推定し、これを瞳孔円としている。
As a concrete method, the present applicant has already proposed (Japanese Patent Application No. 3-121097). According to this method, as a method of obtaining the pupil circle, the luminance difference at the boundary between the pupil and the iris is extracted as a signal edge while reading the eyeball image signal from the image sensor, and the coordinates thereof are stored. Then, when the reading of the eyeball image is completed, a circle is estimated by using the least-squares method for the stored edge coordinates of the plurality of pupils, and this is set as a pupil circle.

【0019】図12に従って説明すると、図12(a)
は眼球像を表わし、ここではP像は省略している。瞳孔
部51の周に配されている複数の白丸が瞳孔エッジであ
り、70−1がその1つを表わしている。
Referring to FIG. 12, it will be described with reference to FIG.
Represents an eyeball image, and the P image is omitted here. A plurality of white circles arranged around the pupil part 51 are pupil edges, and 70-1 represents one of them.

【0020】同図中(b)は(a)の瞳孔エッジのみを
抽出して表わしたもので、囲い71内の点は瞳孔円上辺
エッジとして抽出されたものである。囲い72,73,
74はそれぞれ下辺、左辺、右辺に関するエッジであ
る。
In FIG. 5, (b) shows only the pupil edge of (a) extracted and the points inside the enclosure 71 are extracted as the upper edge of the pupil circle. Enclosures 72, 73,
74 are edges relating to the lower side, the left side, and the right side, respectively.

【0021】これらのエッジ・データに基づいて最小2
乗法を用いて推定した円が75である。この推定円の中
心座標を(xc,yc)、半径をrcとすると図12の
(c)のようになる。
A minimum of 2 based on these edge data
The circle estimated using multiplication is 75. When the center coordinates of this estimated circle are (xc, yc) and the radius is rc, the result is as shown in (c) of FIG.

【0022】[0022]

【発明が解決しようとしている課題】ところが、上述の
最小2乗法を用いて瞳孔円を推定する手法は、前述した
出願(特願平3−121097号)にも述べているよう
に、正しい瞳孔円の位置からある程度離れた位置に偽り
のエッジデータが存在する場合、正しい円の推定が出来
ないという欠点があり、同出願においてもそれを改善す
るために、最小2乗法の計算の過程で算出される推定誤
差量を評価の尺度として用いて、偽りのエッジデータを
出来る限り排除するように工夫している。
However, as described in the above-mentioned application (Japanese Patent Application No. 3-121097), the method of estimating the pupil circle using the above least square method is a correct pupil circle. If there is false edge data at a position distant from the position, there is a drawback that a correct circle cannot be estimated, and in the same application, in order to improve it, it is calculated in the process of least squares calculation. The estimated error amount is used as the evaluation scale to eliminate false edge data as much as possible.

【0023】しかしながら、上記推定誤差量は、同じ瞳
孔エッジ数で、偽りのエッジも同程度に真の円から離れ
た位置に存在するような場合、つまりそのような状況で
は同じ程度の推定誤差量が算出されることが期待される
場合でも、一般に瞳孔の大きさ(瞳孔径)が大きくなる
と推定誤差量も大きく算出されてしまう傾向がある。こ
のため、偽りのエッジの有効的排除という観点、また最
終推定結果の良否判定という点でも都合の悪いものであ
った。
However, the above-mentioned estimation error amount is the same when the number of pupil edges is the same, and false edges are also present at positions that are distant from the true circle to the same extent, that is, in such a situation, the estimation error amount is similar. Even when it is expected to be calculated, generally, when the size of the pupil (pupil diameter) increases, the estimation error amount also tends to be calculated large. Therefore, it is also inconvenient from the viewpoint of effectively eliminating false edges, and from the viewpoint of determining the quality of the final estimation result.

【0024】本発明の目的は、このような従来の問題を
解決することにある。
An object of the present invention is to solve such a conventional problem.

【0025】[0025]

【課題を解決するための手段】本発明の目的を実現する
構成は特許請求の範囲に記載した通りであり、具体的に
は、以下に述べるようにして、正確な瞳孔円の推定の障
害となる偽りの瞳孔エッジのみを排除しようとするもの
である。
The structure for achieving the object of the present invention is as set forth in the claims. Specifically, as described below, there are obstacles for accurate estimation of the pupil circle. It is intended to eliminate only false false pupil edges.

【0026】(1):抽出された総ての瞳孔エッジデー
タに基づいて、最小2乗法を用いて瞳孔円の推定を行
い、結果として得られた推定円の推定誤差量が所定より
小さければ正しい瞳孔円が推定できたものとみなし、瞳
孔円の検出は成功とする。
(1): The pupil circle is estimated using the least squares method based on all the extracted pupil edge data, and if the estimation error amount of the resulting estimated circle is smaller than a predetermined value, it is correct. Assuming that the pupil circle has been estimated, the pupil circle is detected successfully.

【0027】(2):抽出された複数の瞳孔エッジを瞳
孔円の上辺部、下辺部、右辺部、左辺部と分け、いずれ
か一辺のエッジデータを除いた残りの辺のデータに基づ
いて瞳孔円の推定を行い、同時に推定誤差量も算出す
る。
(2): The plurality of extracted pupil edges are divided into an upper side portion, a lower side portion, a right side portion, and a left side portion of the pupil circle, and the pupil is based on the data of the remaining side excluding the edge data of any one side. The circle is estimated and the estimation error amount is calculated at the same time.

【0028】その際、瞳孔エッジ抽出処理は、水平方向
の時系列信号処理であるから、上辺、下辺のエッジデー
タよりも、右辺、左辺のエッジデータの方がより信頼正
が高いはずであるという観点から、上辺部あるいは下辺
部を除いた組合せ、すなわち(左辺、右辺、下辺)、
(左辺、右辺、上辺)の組合せによる円推定の時の算出
誤差量を実質より小さくなるように重み付けをしてお
く。
At this time, since the pupil edge extraction processing is time-series signal processing in the horizontal direction, the right edge data and the left edge data should be more reliable than the upper edge data and the lower edge data. From the viewpoint, the combination excluding the upper side or the lower side, that is, (left side, right side, lower side),
Weighting is performed so that the calculation error amount at the time of circle estimation by the combination of (left side, right side, upper side) is smaller than the actual amount.

【0029】(3):(2)で演算した4組の推定誤差
量の内、最も小さなる組合せを選択する。
(3): The smallest combination is selected from the four sets of estimation error amounts calculated in (2).

【0030】(4):(3)で選択された組合せに対し
て、除かれている辺のエッジデータを一つづつ加えてみ
ては推定誤差量の変化を調べ、誤差量が所定の割合より
も増加しなければ、加えたエッジデータは真のエッジデ
ータであるものとして、そのまま加えておき、所定より
増加した場合には偽りのエッジを加えたものとして、再
びそのエッジデータを取り除く。
(4): To the combination selected in (3), the edge data of the removed sides are added one by one, and the change in the estimated error amount is examined. If it does not increase, the added edge data is added as it is as true edge data, and if it exceeds a predetermined value, a false edge is added and the edge data is removed again.

【0031】除かれている辺のエッジデータ総てについ
て以上の試行錯誤的操作を繰り返してゆく。
The above trial and error operation is repeated for all the edge data of the removed edges.

【0032】結果として得られた瞳孔の推定円の推定誤
差量が所定より小さい場合には、正しい瞳孔円が推定で
きたものとみなし、瞳孔円検出は成功とする。
When the estimation error amount of the resulting estimated circle of the pupil is smaller than the predetermined value, it is considered that the correct pupil circle has been estimated, and the pupil circle detection is successful.

【0033】試行錯誤が所定より大きい場合、未だ偽り
のエッジが残っているものとし、さらに次に述べる
(5)の処理を実行する。
If the trial and error is larger than the predetermined value, it is assumed that a false edge still remains, and the process (5) described below is executed.

【0034】(5):今後は、現時点の推定円を形成し
ている瞳孔エッジを一つづつ取り除いてゆくことを行
う。具体的には、一つづつエッジを取り除いてみては推
定円の変化を調べ、誤差量が所定の割合より減少すれ
ば、除いたエッジデータは偽りのエッジデータであった
とし、そのまま除いておく。
(5): In the future, the pupil edges forming the current estimated circle will be removed one by one. Specifically, remove each edge one by one, check the change in the estimated circle, and if the error amount decreases below a predetermined rate, the removed edge data is assumed to be false edge data, and it is removed as it is. .

【0035】逆に、誤差量の減少が少ない、あるいは増
加してしまった場合は、真のエッジを除いてしまったた
めであると判断し、そのエッジを元に戻す。
On the contrary, when the decrease in the error amount is small or increases, it is determined that the true edge has been removed, and the edge is restored.

【0036】(4)の操作までに残っている総てのエッ
ジデータに対して以上の動作を繰り返してゆき、最終的
な推定誤差量が所定より小さい場合、瞳孔円検出は成功
とする。
The above operation is repeated for all the edge data remaining until the operation of (4), and if the final estimated error amount is smaller than the predetermined value, the pupil circle detection is successful.

【0037】本発明は、以上述べた処理を行うことによ
り、正確な瞳孔円の推定を行うとするものである。
The present invention is intended to perform accurate pupil circle estimation by performing the above-described processing.

【0038】[0038]

【実施例】図1は本発明を一眼レフカメラに適用したと
きの実施例の要部概略図を示している。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a schematic view of the essential parts of an embodiment in which the present invention is applied to a single-lens reflex camera.

【0039】図において、1は撮影レンズで便宜上2枚
のレンズで示したが、実際はさらに多数のレンズから構
成されている。2は主ミラーで、ファインダー系による
被写体像の観察状態と被写体像の撮影状態に応じて撮影
光路へ斜設されあるいは退去される。3はサブミラー
で、主ミラー2を透過した光束をカメラボディの下方の
後述する焦点検出装置6へ向けて反射する。
In the figure, reference numeral 1 denotes a taking lens, which is shown as two lenses for convenience, but in reality it is composed of a larger number of lenses. Reference numeral 2 denotes a main mirror, which is obliquely installed or retreated in the photographing optical path according to the observation state of the subject image by the finder system and the photographing state of the subject image. Reference numeral 3 denotes a sub-mirror, which reflects the light flux transmitted through the main mirror 2 toward a focus detection device 6 described below below the camera body.

【0040】4はシャッター、5は感光部材で、銀塩フ
ィルムあるいはCCDやMOS型等の固体撮像素子ある
いはビディコン等の撮像管より成っている。
Reference numeral 4 denotes a shutter, and 5 denotes a photosensitive member, which comprises a silver salt film, a solid-state image pickup device such as CCD or MOS type, or an image pickup tube such as a vidicon.

【0041】6は焦点検出装置であり、結像面近傍に配
置されたフィールドレンズ6a,反射ミラー6b及び6
c,2次結像レンズ6d,絞り6e,複数のCCDから
なるラインセンサ−6f等から構成されている。
Reference numeral 6 denotes a focus detection device, which is a field lens 6a and reflection mirrors 6b and 6 arranged near the image plane.
c, a secondary imaging lens 6d, a diaphragm 6e, a line sensor 6f including a plurality of CCDs, and the like.

【0042】本実施例における焦点検出装置6は周知の
位相差方式を用いている。7は撮影レンズ1の予定結像
面に配置されたピント板、8はファインダー光路変更用
のペンタダハプリズム、9,10は各々観察画面内の被
写体輝度を測定するための結像レンズと測光センサーで
ある。結像レンズ9はペンタダハプリズム8内の反射光
路を介してピント板7と測光センサー10を共役に関係
付けている。
The focus detection device 6 in this embodiment uses a well-known phase difference method. 7 is a focusing plate disposed on the planned image forming surface of the taking lens 1, 8 is a penta roof prism for changing the optical path of the finder, and 9 and 10 are an image forming lens and a photometric sensor for measuring the subject brightness in the observation screen. is there. The imaging lens 9 conjugately connects the focusing plate 7 and the photometric sensor 10 via the reflection optical path in the penta roof prism 8.

【0043】次にペンタダハプリズム8の射出面後方に
は光分割器11aを備えた接眼レンズ11が配され、撮
影者眼15によるピント板7の観察に使用される。光分
割器11aは、例えば可視光を透過し赤外光を反射する
ダイクロイックミラーより成っている。
Next, behind the exit surface of the penta roof prism 8, an eyepiece lens 11 having a light splitter 11a is arranged and used for observing the focusing plate 7 by the eye 15 of the photographer. The light splitter 11a includes, for example, a dichroic mirror that transmits visible light and reflects infrared light.

【0044】12は受光レンズ、14はCCD等の光電
素子列を2次元的に配したイメージセンサーで受光レン
ズ12に関して所定の位置にある撮影者眼15の瞳孔近
傍と共役になるように配置されている。13a〜13f
は各々照明光源であるところの赤外発光ダイオードであ
る。
Reference numeral 12 is a light receiving lens, and 14 is an image sensor in which photoelectric element arrays such as CCDs are two-dimensionally arranged so as to be conjugated with the vicinity of the pupil of the photographer's eye 15 at a predetermined position with respect to the light receiving lens 12. ing. 13a to 13f
Are infrared light emitting diodes which are illumination light sources.

【0045】21は明るい被写体の中でも視認できる高
輝度のスーパーインポーズ用LEDで、発光された光は
投光用プリズム22を介し、主ミラー2で反射してピン
ト板7の表示部に設けた微小プリズムアレー7aで垂直
方向に曲げられ、ペンタプリズム8、接眼レンズ11を
通って撮影者眼15に達する。
Reference numeral 21 denotes a high-intensity superimposing LED that can be visually recognized even in a bright subject. The emitted light is reflected by the main mirror 2 through the projection prism 22 and is provided on the display portion of the focus plate 7. It is bent in the vertical direction by the micro prism array 7a, passes through the penta prism 8 and the eyepiece lens 11 and reaches the photographer's eye 15.

【0046】そこでピント板7の焦点検出領域に対応す
る複数の位置(測距点)にこの微小プリズムアレー7a
を枠状に形成し、これを各々に対応した5つのスーパー
インポーズ用LED21(各々をLED−L1,LED
−L2,LED−C,LED−R1,LED−R2とす
る)によって照明する。
Therefore, the minute prism array 7a is provided at a plurality of positions (distance measuring points) corresponding to the focus detection area of the focusing plate 7.
Are formed in a frame shape, and five superimposing LEDs 21 (each of which are LED-L1 and LED
-L2, LED-C, LED-R1, LED-R2).

【0047】23はファインダー視野領域を形成する視
野マスク。24はファインダー視野外に撮影情報を表示
するためのファインダー内LCDで、照明用LED(F
−LED)25によって照明されている。
Reference numeral 23 is a visual field mask for forming a finder visual field area. Reference numeral 24 denotes an LCD in the finder for displaying photographing information outside the finder field of view.
-LED) 25.

【0048】LCD24を透過した光は三角プリズム2
6によってファインダー視野内に導かれ、そしてファイ
ンダー視野外に表示され、撮影者は撮影情報を知ること
ができる。
The light transmitted through the LCD 24 is the triangular prism 2
It is guided into the viewfinder field by 6 and displayed outside the viewfinder field so that the photographer can know the shooting information.

【0049】31は撮影レンズ1内に設けた絞り、32
は後述する絞り駆動回路111を含む絞り駆動装置、3
3はレンズ駆動用モーター、34は駆動ギヤ等からなる
レンズ駆動部材、35はフォトカプラーでレンズ駆動部
材34に連動するパルス板36の回転を検知してレンズ
焦点調節回路110に伝えている。焦点調節回路110
は、この情報とカメラ側からのレンズ駆動量を情報に基
ずいてレンズ駆動用モーターを所定量駆動させ、撮影レ
ンズ1を合焦位置に移動させるようになっている。37
は公知のカメラとレンズとのインターフェイスとなるマ
ウント接点である。
Reference numeral 31 denotes an aperture provided in the taking lens 1, 32
Is a diaphragm driving device including a diaphragm driving circuit 111 described later, 3
Reference numeral 3 is a lens driving motor, 34 is a lens driving member including a driving gear, and 35 is a photocoupler which detects rotation of the pulse plate 36 interlocking with the lens driving member 34 and transmits it to the lens focus adjusting circuit 110. Focus adjustment circuit 110
On the basis of this information and the lens driving amount from the camera side, the lens driving motor is driven by a predetermined amount to move the taking lens 1 to the in-focus position. 37
Is a mount contact that serves as an interface between a known camera and a lens.

【0050】図2は本実施例のカメラに内蔵された電気
回路図の説明図で、図1と同一のものは同一番号を付し
ている。
FIG. 2 is an explanatory diagram of an electric circuit diagram incorporated in the camera of the present embodiment. The same parts as those in FIG. 1 are designated by the same reference numerals.

【0051】カメラ本体に内蔵されたマイクロコンピュ
ータの中央処理装置(以下CPU)100には視線検出
回路101、測光回路102、自動焦点検出回路10
3、信号入力回路104、LCD駆動回路105、LE
D駆動回路106、IRED駆動回路107、シャッタ
ー制御回路108、モーター制御回路109が接続され
ている。又、撮影レンズ内に配置された焦点調節回路1
10、絞り駆動回路111とは図1で示したマウント接
点37を介して信号の伝達がなされる。
A central processing unit (hereinafter referred to as a CPU) 100 of a microcomputer built in the camera body includes a visual axis detection circuit 101, a photometric circuit 102, and an automatic focus detection circuit 10.
3, signal input circuit 104, LCD drive circuit 105, LE
The D drive circuit 106, the IRED drive circuit 107, the shutter control circuit 108, and the motor control circuit 109 are connected. Further, a focus adjustment circuit 1 arranged in the photographing lens
10. Signals are transmitted to and from the diaphragm drive circuit 111 via the mount contact 37 shown in FIG.

【0052】CPU100に付随したEEPROM10
0aは記憶手段としての視線の個人差を補正する視線補
正データの記憶機能を有している。
EEPROM 10 associated with CPU 100
Reference numeral 0a has a function of storing the line-of-sight correction data as a storage unit for correcting individual differences in line-of-sight.

【0053】視線検出回路101は、イメージセンサ−
14(CCD−EYE)からの眼球像の出力をA/D変
換し、この像情報をCPU100に送信する。CPU1
00は後述するように視線検出に必要な眼球像の各特徴
点を所定のアルゴリズムに従って抽出し、さらに各特徴
点の位置から撮影者の視線を算出する。
The line-of-sight detection circuit 101 is an image sensor
The output of the eyeball image from the CCD 14 (CCD-EYE) is A / D converted, and this image information is transmitted to the CPU 100. CPU1
As will be described later, 00 extracts each feature point of the eyeball image required for sight line detection according to a predetermined algorithm, and further calculates the photographer's sight line from the position of each feature point.

【0054】測光回路102は測光センサー10からの
出力を増幅後、対数圧縮、A/D変換し、各センサーの
輝度情報としてCPU100に送られる。本実施例での
測光センサー10は4つの領域を測光するSPC−L,
SPC−C,SPC−R,SPC−Aからなるフォトダ
イオードから構成されている。
The photometric circuit 102 amplifies the output from the photometric sensor 10, performs logarithmic compression and A / D conversion, and sends it to the CPU 100 as brightness information of each sensor. The photometric sensor 10 in the present embodiment is an SPC-L for photometrically measuring four areas,
The photodiode is composed of SPC-C, SPC-R, and SPC-A.

【0055】図2のラインセンサー6fは画面内の5つ
の測距点に対応した5組のラインセンサーCCD−L
2,CCD−L1,CCD−C,CCD−R1,CCD
−R2から構成される公知のCCDラインセンサーであ
る。
The line sensor 6f in FIG. 2 is composed of five sets of line sensor CCD-L corresponding to five distance measuring points on the screen.
2, CCD-L1, CCD-C, CCD-R1, CCD
It is a known CCD line sensor composed of -R2.

【0056】自動焦点検出回路103は、これらライン
センサー6fから得た電圧をA/D変換し、CPU10
0に送る。SW−1はレリーズ釦41の第一ストローク
でONし、測光、AF、視線検出動作等を開始するスイ
ッチ、SW−2はレリーズ釦41の第二ストロークでO
Nするレリーズスイッチ、SW−AELはAEロック釦
43を押すことによってONするAEロックスイッチ、
SW−DIAL1とSW−DIAL2は、不図示の電子
ダイヤル内に設けたダイヤルスイッチで信号入力回路1
04のアップダウンカウンターに入力され、電子ダイヤ
ルの回転クリック量をカウントする。
The automatic focus detection circuit 103 A / D-converts the voltage obtained from these line sensors 6f, and the CPU 10
Send to 0. SW-1 is a switch that is turned on by the first stroke of the release button 41 to start photometry, AF, line-of-sight detection operations, etc. SW-2 is turned on by the second stroke of the release button 41.
Release switch for N, SW-AEL for AE lock switch that turns on by pressing AE lock button 43,
SW-DIAL1 and SW-DIAL2 are signal input circuits 1 by a dial switch provided in an electronic dial (not shown).
It is input to the 04 up / down counter and counts the amount of rotation clicks of the electronic dial.

【0057】105は液晶表示素子LCDを表示駆動さ
せるための公知のLCD駆動回路で、CPU100から
の信号に従い絞り値、シャッター秒時、設定した撮影モ
ード等の表示をモニター用LCD42とファインダー内
LCD24の両方に同時に表示させることができる。L
ED駆動回路106は照明用LED(F−LED)25
とスーパーインポーズ用LED21を点灯、点滅制御す
る。IRED駆動回路107は赤外発光ダイオード(I
RED1〜6)13a〜13fを状況に応じて選択的に
点灯させる。
Reference numeral 105 denotes a known LCD drive circuit for driving the liquid crystal display device LCD to display the aperture value, the shutter speed, the set photographing mode, etc. according to a signal from the CPU 100 on the monitor LCD 42 and the viewfinder LCD 24. Both can be displayed at the same time. L
The ED drive circuit 106 is a lighting LED (F-LED) 25.
Then, the superimposing LED 21 is turned on and controlled to blink. The IRED drive circuit 107 is an infrared light emitting diode (I
RED1 to 6) 13a to 13f are selectively turned on according to the situation.

【0058】シャッター制御回路108は通電すると先
幕を走行させるマグネットMG−1と、後幕を走行させ
るマグネットMG−2を制御し、感光部材に所定光量を
露光させる。モーター制御回路109はフィルムの巻き
上げ、巻戻しを行なうモーターM1と主ミラー2及びシ
ャッター4のチャージを行なうモーターM2を制御する
ためのものである。これらシャッター制御回路108、
モーター制御回路109によって一連のカメラのレリー
ズシーケンスが動作する。
When the shutter control circuit 108 is energized, it controls the magnet MG-1 for moving the front curtain and the magnet MG-2 for moving the rear curtain to expose the photosensitive member with a predetermined amount of light. The motor control circuit 109 is for controlling the motor M1 for winding and rewinding the film and the motor M2 for charging the main mirror 2 and the shutter 4. These shutter control circuits 108,
A series of camera release sequences operate by the motor control circuit 109.

【0059】次に、視線検出装置を有したカメラの動作
のフローチャートを図3に示し、これらをもとに以下説
明する。
Next, a flow chart of the operation of the camera having the visual axis detecting device is shown in FIG. 3 and will be described below based on these.

【0060】不図示のモードダイヤルを回転させてカメ
ラを不作動状態から所定の撮影モードに設定するとカメ
ラの電源がONされ(#100)、CPU100の視線
検出に使われる変数がリセットされる(#101)。
When the mode dial (not shown) is rotated to set the camera from the inoperative state to the predetermined photographing mode, the power of the camera is turned on (# 100) and the variables used by the CPU 100 for detecting the line of sight are reset (# 101).

【0061】そしてカメラはレリーズ釦41が押し込ま
れてスイッチSW1がONされるまで待機する(#10
2)。レリーズ釦41が押し込まれスイッチSW1がO
Nされたことを信号入力回路104が検知すると、CP
U100は視線検出回路101に確認する(#10
3)。
Then, the camera waits until the release button 41 is pressed and the switch SW1 is turned on (# 10).
2). The release button 41 is pressed and the switch SW1 is turned off.
When the signal input circuit 104 detects that N has been input, CP
U100 confirms with the line-of-sight detection circuit 101 (# 10
3).

【0062】この時、視線禁止モードに設定されていた
ら、視線検出は実行せずにすなわち視線情報を用いずに
測距点自動選択サブルーチン(#116)によって特定
の測距点を選択する。この測距点において自動焦点検出
回路103は焦点検出動作を行なう。(#107)。
At this time, if the line-of-sight prohibited mode is set, a specific range-finding point is selected by the range-finding point automatic selection subroutine (# 116) without executing the line-of-sight detection, that is, without using the line-of-sight information. At this focus detection point, the automatic focus detection circuit 103 performs focus detection operation. (# 107).

【0063】このように視線情報を用いずに測距点選択
を行う撮影モード(視線禁止自動焦点撮影モード)と視
線情報を用いて測距点選択を行う撮影モード(視線自動
焦点撮影モード)の両方を備え、視線禁止モードに設定
するかどうかで撮影者が任意に選択できるようになって
いる。
In this way, there are a photographing mode in which the distance measuring point is selected without using the line-of-sight information (line-of-sight prohibited automatic focus photographing mode) and a photographing mode in which the distance measuring point is selected using the line-of-sight information (line-of-sight automatic focus photographing mode). Both of them are provided so that the photographer can arbitrarily select whether to set the line-of-sight prohibition mode.

【0064】尚、測距点自動選択のアルゴリズムとして
はいくつかの方法が考えられるが、中央測距点に重み付
けを置いた近点優先アルゴリズムが有効であり、ここで
は本発明に直接関係がないので説明は省略する。
Although several methods can be considered as the algorithm for automatically selecting the distance measuring points, the near point priority algorithm in which the central distance measuring point is weighted is effective and is not directly related to the present invention. Therefore, the description is omitted.

【0065】視線検出モードに設定されている場合には
視線検出を実行する(#104)。ここで視線検出回路
101において検出された視線はピント板7上の注視点
座標に変換される。CPU100は該注視点座標に近接
した測距点を選択し、LED駆動回路106に信号を送
信してスーパーインポーズ用LED21を用いて対応す
る測距点マークを点滅表示させる(#105)。
When the line-of-sight detection mode is set, line-of-sight detection is executed (# 104). Here, the line of sight detected by the line-of-sight detection circuit 101 is converted into the gazing point coordinates on the focus plate 7. The CPU 100 selects a distance measuring point close to the gazing point coordinates, sends a signal to the LED drive circuit 106, and causes the corresponding distance measuring point mark to blink using the superimposing LED 21 (# 105).

【0066】撮影者が該撮影者の視線によって選択され
た測距点が表示されたのを見て、その測距点が正しくな
いと認識してレリーズ釦41から手を離しスイッチSW
1をOFFすると(#106)、カメラはスイッチSW
1がONされるまで待機する(#102)。
When the photographer sees that the distance measuring point selected by the photographer's line of sight is displayed, he recognizes that the distance measuring point is not correct, and releases the release button 41 to release the switch SW.
When 1 is turned off (# 106), the camera switches SW
It waits until 1 is turned on (# 102).

【0067】このように視線情報によって測距点が選択
されたことをファインダー視野内の測距点マークを点滅
表示させて撮影者に知らせるようになっているので撮影
者は意志どうりに選択されたかどうか確認することがで
きる。
As described above, the fact that the distance measuring point is selected according to the line-of-sight information is displayed to the photographer by blinking the distance measuring point mark in the field of view of the finder so that the photographer can arbitrarily select the distance measuring point. You can check whether or not.

【0068】又、撮影者が視線によって選択された測距
点が表示されたのを見て、引続きスイッチSW1をON
し続けたならば(#106)、自動焦点検出回路103
は検出された視線情報を用いて1つ以上の測距点の焦点
検出を実行する(#107)。
Further, seeing that the distance measuring point selected by the photographer is displayed by the photographer, the switch SW1 is continuously turned on.
If continued (# 106), the automatic focus detection circuit 103
Performs focus detection of one or more focus detection points using the detected line-of-sight information (# 107).

【0069】ここで選択された測距点が測距不能である
かを判定し(#108)、不能であればCPU100は
LCD駆動回路105に信号を送ってファインダー内L
CD24の合焦マークを点滅させ、測距がNG(不能)
であることを撮影者に警告し(#118)、SW1が離
されるまで続ける(#119)。
It is determined whether or not the distance measuring point selected here cannot be measured (# 108). If the distance measuring point is impossible, the CPU 100 sends a signal to the LCD drive circuit 105 to set L in the finder.
The focus mark on the CD24 blinks, and distance measurement is NG (impossible)
That is, the photographer is warned (# 118) and continues until SW1 is released (# 119).

【0070】測距が可能であり、所定のアルゴリズムで
選択された測距点の焦点調節状態が合焦でなければ(#
109)、CPU100はレンズ焦点調節回路110に
信号を送って所定量撮影レンズ1を駆動させる(#11
7)。レンズ駆動後自動焦点検出回路103は再度焦点
検出を行ない(#107)、撮影レンズ1が合焦してい
るか否かの判定を行なう(#109)。
Distance measurement is possible, and the focus adjustment state of the distance measurement point selected by the predetermined algorithm is not in focus (#
109), the CPU 100 sends a signal to the lens focus adjustment circuit 110 to drive the taking lens 1 by a predetermined amount (# 11).
7). After driving the lens, the automatic focus detection circuit 103 performs focus detection again (# 107), and determines whether or not the taking lens 1 is in focus (# 109).

【0071】所定の測距点において撮影レンズ1が合焦
していたならば、CPU100はLCD駆動回路105
に信号を送ってファインダー内LCD24の合焦マーク
を点灯させるとともに、LED駆動回路106にも信号
を送って合焦している測距点201に合焦表示させる
(#110)。
If the taking lens 1 is in focus at a predetermined distance measuring point, the CPU 100 causes the LCD drive circuit 105
Is sent to turn on the focus mark on the LCD 24 in the finder, and also the signal is sent to the LED drive circuit 106 to display the focus on the focusing point 201 in focus (# 110).

【0072】この時、前記視線によって選択された測距
点の点滅表示は消灯するが合焦表示される測距点と前記
視線によって選択された測距点とは一致する場合が多い
ので、合焦したことを撮影者に認識させるために合焦測
距点は点灯状態に設定される。合焦した測距点がファイ
ンダー内に表示されたのを撮影者が見て、その測距点が
正しくないと認識してレリーズ釦41から手を離しスイ
ッチSW1をOFFすると(#111)、引続きカメラ
はスイッチSW1がONされるまで待機する(#10
2)。
At this time, the blinking display of the distance measuring point selected by the line of sight is turned off, but the distance measuring point displayed in focus is often coincident with the distance measuring point selected by the line of sight. The focus range-finding point is set to a lighting state so that the photographer can recognize that the focus has been achieved. When the photographer sees the focusing point displayed in the viewfinder and recognizes that the focusing point is not correct, he releases the release button 41 and turns off the switch SW1 (# 111). The camera waits until the switch SW1 is turned on (# 10
2).

【0073】又、撮影者が合焦表示された測距点を見
て、引続きスイッチSW1をONし続けたならば(#1
11)、CPU100は測光回路102に信号を送信し
て測光を行なわせる(#112)。
If the photographer looks at the focus detection point and continues to turn on the switch SW1 (# 1
11), the CPU 100 sends a signal to the photometry circuit 102 to perform photometry (# 112).

【0074】更にレリーズ釦41が押し込まれてスイッ
チSW2がONされているかどうかの判定を行ない(#
113)、スイッチSW2がOFF状態であれば再びス
イッチSW1の状態の確認を行なう(#111)。又、
スイッチSW2がONされたならばCPU100はシャ
ッター制御回路108、モーター制御回路109、絞り
駆動回路111にそれぞれ信号を送信する。
Further, it is judged whether or not the release button 41 is pushed and the switch SW2 is turned on (#
113), if the switch SW2 is OFF, the state of the switch SW1 is checked again (# 111). or,
When the switch SW2 is turned on, the CPU 100 sends signals to the shutter control circuit 108, the motor control circuit 109, and the diaphragm drive circuit 111, respectively.

【0075】まずM2に通電し主ミラー2をアップさ
せ、絞り31を絞り込んだ後、MG1に通電しシャッタ
ー4の先幕を開放する。絞り31の絞り値及びシャッタ
ー4のシャッタースピードは、前記測光回路102にて
検知された露出値とフィルム5の感度から決定される。
所定のシャッター秒時(例えば1/250秒)経過後M
G2に通電し、シャッター4の後幕を閉じる。フィルム
5への露光が終了すると、M2に再度通電し、ミラーダ
ウン、シャッターチャージを行なうとともにM1にも通
電し、フィルムのコマ送りを行ない、一連のシャッター
レリーズシーケンスの動作が終了する(#114)。そ
の後、カメラは再びスイッチSW1がONされるまで待
機する(#102)。
First, M2 is energized to raise the main mirror 2 and the diaphragm 31 is narrowed down. Then, MG1 is energized to open the front curtain of the shutter 4. The aperture value of the aperture 31 and the shutter speed of the shutter 4 are determined from the exposure value detected by the photometric circuit 102 and the sensitivity of the film 5.
M after a predetermined shutter time (1/250 second, for example)
Energize G2 and close the rear curtain of the shutter 4. When the exposure of the film 5 is completed, the M2 is energized again, the mirror is down and the shutter is charged, and the M1 is energized to advance the film frame, and the series of shutter release sequence operations is completed (# 114). . After that, the camera waits until the switch SW1 is turned on again (# 102).

【0076】図4〜9は上記した視線検出のフローチャ
ートである。
4 to 9 are flow charts of the above-mentioned line-of-sight detection.

【0077】前述のように視線検出回路101はCPU
100より信号を受け取ると視線検出を実行する(図3
の#104)。
As described above, the line-of-sight detection circuit 101 is a CPU
When a signal is received from 100, the gaze detection is executed (Fig. 3
# 104).

【0078】先づCPU100は撮影者の眼を照明する
ための赤外発光ダイオード(IRED)13a〜13f
の内から適切な組み合わせのIREDを選んで点灯する
(#201)。IREDの選択は不図示の姿勢スイッチ
によりカメラが横位置か縦位置か、あるいは撮影者が眼
鏡をかけているか否かによってなされる。
First, the CPU 100 is an infrared light emitting diode (IRED) 13a to 13f for illuminating the photographer's eyes.
Select an appropriate combination of IREDs from among the above and light them up (# 201). The selection of IRED is made depending on whether the camera is in the horizontal position or the vertical position by an unillustrated posture switch, or whether the photographer wears glasses.

【0079】次にイメージセンサー14を所定の蓄積時
間で電荷蓄積を行う(#202)。蓄積が終了するとそ
れとともにIREDも消灯される(#203)。
Next, charges are accumulated in the image sensor 14 for a predetermined accumulation time (# 202). When the storage is completed, the IRED is turned off together with it (# 203).

【0080】CPU100は蓄積の終了したイメージセ
ンサー14から撮影者の眼球像を読み出すと同時に、逐
次的にP像や瞳孔部の特徴抽出の処理を行う(#20
4)。具体的な方法は前述した本出願人による出願(特
願平3−121097号)に詳述されているのでここで
の詳細な説明は省略する。
The CPU 100 reads out the eyeball image of the photographer from the image sensor 14 whose accumulation has been completed, and at the same time, sequentially performs the process of extracting the features of the P image and the pupil portion (# 20).
4). The specific method is described in detail in the above-mentioned application by the present applicant (Japanese Patent Application No. 3-121097), and thus detailed description thereof is omitted here.

【0081】さて、眼球像全体の読み出しが終わり、P
像、瞳孔の特徴抽出が完了した後は、それらの情報に基
づいて一組のP像位置を検出する(#205)。先にも
述べたようにP像は眼球照明用IREDの角膜反射像で
あるから、図10(a)の52a,52bのように像信
号中には光強度の強い輝点として現われるため、その特
徴をもって1組のP像を検出し、その位置(xd’,y
d’),(xe’,ye’)を求めることが出来る。
Now that the reading of the entire eyeball image is complete, P
After the feature extraction of the image and the pupil is completed, a set of P image positions is detected based on the information (# 205). As described above, since the P image is a corneal reflection image of the IRED for eyeball illumination, it appears as a bright spot with a strong light intensity in the image signal like 52a and 52b in FIG. A set of P images is detected with a feature and its position (xd ', y
d '), (xe', ye ') can be obtained.

【0082】次に、#204の逐次処理過程で抽出した
瞳孔エッジの座標情報から、瞳孔円の中心(xc’,y
c’)および半径reの検出を行う(#206)。この
サブルーチンについては、後で詳述する。
Next, from the coordinate information of the pupil edge extracted in the sequential processing step of # 204, the center of the pupil circle (xc ', y
c ') and the radius re are detected (# 206). This subroutine will be described in detail later.

【0083】撮影者の眼球像からP像位置と瞳孔位置を
検出することができれば、#207にて撮影者の視線方
向あるいはファインダー上での座標を式(5)から算出
することが出来、視線検出サブルーチンをリターンする
(#208)。
If the P image position and the pupil position can be detected from the eyeball image of the photographer, the photographer's line-of-sight direction or the coordinates on the finder can be calculated from equation (5) in step # 207. The detection subroutine is returned (# 208).

【0084】図5に瞳孔中心、瞳孔径の検出サブルーチ
ンのフローを示す。同サブルーチンがコールされると、
#300をへて#301にて、抽出された総ての瞳孔エ
ッジデータを用いた円の最小2乗法推定を行う。その基
本の計算式は上述した本出願人による出願(特願平3−
121097号)に示されているが、ここに再び説明し
ておく。
FIG. 5 shows the flow of the pupil center / pupil diameter detection subroutine. When the subroutine is called,
In step # 301 through # 300, least square method estimation of a circle is performed using all the extracted pupil edge data. The basic calculation formula is applied by the applicant described above (Japanese Patent Application No. 3-
No. 121097), which will be described again here.

【0085】n個の瞳孔エッジの座標を各々(x1 ,y
1 ),(x2 ,y2 ),…,(xn,yn )とすると、
これらのデータに基づく最小2乗法を用いた推定円の中
心座標(xc,yc)、半径rc、推定誤差量ERは xc=(W1・V2−W2・W4−(W6−Y1・Z1)・W3)/2・(X2 ・V2−W5−W6・X1/n) …(10) yc=(W2・V1−W1・W4−(W7−X1・Z1)・W3)/2・(Y2 ・V1−W5−W7・Y1/n) …(11) rc=√(W3−2・((xc・X1+yc・Y1)/n)+xc2 +yc2 ) …(12) ERX=X4−4・xc・X3+2(2・xc2 +d)・X2 −4・xc・d・X1+Y4−4・yc・Y3 +2(2・yc2 +d)・Y2−4・yc・d・Y1 +2(Z4−2・xc・Z3−2・yc・Z2 +4・xc・yc・Z1)+d2 ・n …(13) ER=√(ERX/n) …(14) 但し、 X1=Σxi,X2=Σxi2 ,X3=Σxi3 ,X4=Σxi4 …(15)〜(18) Y1=Σyi,Y2=Σyi2 ,Y3=Σyi3 ,Y4=Σyi4 …(19)〜(22) Z1=Σxi・yi,Z2=Σxi2 ・yi2 …(23),(24) Z3=Σxi・yi2 ,Z4=xi2 ・yi2 …(25),(26) さらに、 V1=X2−X12 /n …(27) V2=Y2−Y12 /n …(28) W1=X3+Y3 …(29) W2=Y3+Z3 …(30) W3=(X2+Y2)/n …(31) W4=Z1−X1・Y1/n …(32) W5=(Z1−2・X1・Y1/n)・Z1 …(33) W6=X1・Y2 …(34) W7=X2・Y1 …(35) d=xc2 +yc2 −rc2 …(36) 以上の数値計算を行えば、円の中心(xc,yc)、半
径rcと最小2乗推定誤差量ERを求めることができ
る。
The coordinates of the n pupil edges are (x 1 , y
1 ), (x 2 , y 2 ), ..., (x n , y n ),
The center coordinates (xc, yc) of the estimated circle using the least-squares method based on these data, the radius rc, and the estimated error amount ER are xc = (W1 · V2-W2 · W4- (W6-Y1 · Z1) · W3 ) / 2 * (X2 * V2-W5-W6 * X1 / n) ... (10) yc = (W2 * V1-W1 * W4- (W7-X1 * Z1) * W3) / 2 * (Y2 * V1-) W5-W7 · Y1 / n) (11) rc = √ (W3-2 · ((xc · X1 + yc · Y1) / n) + xc 2 + yc 2 ) (12) ERX = X4-4 · xc · X3 + 2 ( 2 · xc 2 + d) · X2 -4 · xc · d · X1 + Y4-4 · yc · Y3 +2 (2 · yc 2 + d) · Y2-4 · yc · d · Y1 +2 (Z4-2 · xc · Z3- 2 · yc · Z2 +4 · xc · yc · Z1) + d 2 · n ... (13) ER = √ (ERX / n ... (14) where, X1 = Σxi, X2 = Σxi 2, X3 = Σxi 3, X4 = Σxi 4 ... (15) ~ (18) Y1 = Σyi, Y2 = Σyi 2, Y3 = Σyi 3, Y4 = Σyi 4 (19) to (22) Z1 = Σxi · yi, Z2 = Σxi 2 · yi 2 (23), (24) Z3 = Σxi · yi 2 , Z4 = xi 2 · yi 2 (25), (26) ) Further, V1 = X2-X1 2 / n (27) V2 = Y2-Y1 2 / n (28) W1 = X3 + Y3 (29) W2 = Y3 + Z3 (30) W3 = (X2 + Y2) / n ((30)) 31) W4 = Z1-X1 · Y1 / n (32) W5 = (Z1-2 · X1 · Y1 / n) · Z1 (33) W6 = X1 · Y2 (34) W7 = X2 · Y1 ((34) By performing the 35) d = xc 2 + yc 2 -rc 2 ... (36) above numerical calculations, The center (xc, yc), can be obtained radius rc and least squares estimation error amount ER.

【0086】ここで推定誤差量ERであるが、数式上は
これで良いのだが、実際には瞳孔径rcによる補正を行
っている。誤差量ERは総てのエッジデータがある円周
上に正確に位置している場合はゼロであり、円周上から
はずれたエッジの数が増す程、また円周上からの距離が
大きくなる程誤差量は大きくなる。ところが、同じエッ
ジ数で同程度に真の円から離れたエッジ数が同程度に存
在するような場合でも、一般に瞳孔径が大きくなると誤
差量ERも大きくなる傾向がある。
Here, the estimated error amount ER, which is acceptable in the mathematical expression, is actually corrected by the pupil diameter rc. The error amount ER is zero when all the edge data is accurately located on the circumference of a circle, and as the number of edges deviated from the circumference increases, the distance from the circumference also increases. The larger the error amount is. However, even when there are the same number of edges and the same number of edges distant from the true circle, the error amount ER generally tends to increase as the pupil diameter increases.

【0087】これを校正するために次式のように瞳孔径
rcを用いて誤差量ERを補正している。
In order to calibrate this, the error amount ER is corrected using the pupil diameter rc as in the following equation.

【0088】 ER=ER・(a・rc+b) …(37) ここで、例えばaは−0.05、bは1.5程度の値を
持たせると、イメージセンサー上での瞳孔径が10画素
のとき補正係数a・rc+bはちょうど1となり、ER
には補正がかからない。撮影者の眼がカメラに近づく
か、または瞳孔が開いたりして瞳孔径rcが大きくな
り、例えばrc=20になると、補正係数a・rc+b
は0.5となり、誤差量ERは半分の量に補正がかかる
ことになる。逆に瞳孔径が小さくなれば誤差量を大きく
する補正がかかることになる。もちろん、前記a,bの
値では、瞳孔径rcが30画素になると補正係数a・r
c+bは0となってしまうが、rcが20画素以上のと
きは、係数は0.5というように決めても良い。
ER = ER · (a · rc + b) (37) Here, for example, if a has a value of −0.05 and b has a value of about 1.5, the pupil diameter on the image sensor is 10 pixels. , The correction coefficient a · rc + b becomes exactly 1, and ER
Is not corrected. When the photographer's eyes approach the camera or the pupil opens, and the pupil diameter rc increases, for example, when rc = 20, the correction coefficient a · rc + b
Will be 0.5, and the error amount ER will be corrected by half. On the contrary, if the pupil diameter becomes smaller, a correction for increasing the error amount will be applied. Of course, with the values of a and b, when the pupil diameter rc becomes 30 pixels, the correction coefficient a · r
Although c + b becomes 0, the coefficient may be determined to be 0.5 when rc is 20 pixels or more.

【0089】図7(a)に円の最小2乗推定サブルーチ
ンのフローを示す。
FIG. 7A shows the flow of the circle least squares estimation subroutine.

【0090】同サブルーチンがコールされると、ステッ
プ#400を経て#401にて、最小2乗法の演算途中
変数X1〜X4,Y1〜Y4,Z1〜Z4を各々式(1
5)〜(18)、式(19〜22)、式(23)〜(2
6)に従って算出する。次に推定円の計算を行い(#4
02)、リターンする(#403)。
When the subroutine is called, the intermediate variables X1 to X4, Y1 to Y4, and Z1 to Z4 of the least squares method are expressed by the formula (1) in step # 400 through step # 400.
5) to (18), formulas (19 to 22), formulas (23) to (2)
Calculate according to 6). Next, the estimated circle is calculated (# 4
02) and returns (# 403).

【0091】図7(b)は推定円の計算のサブルーチン
フローである。ステップ#500を経てステップ#50
1では先づ演算途中変数V1〜W7を式(27)〜(3
5)に従って計算し、次にそれらの変数を用いて推定円
の中心座標xc,ycをそれぞれ式(10),(11)
で計算する。推定円の半径rcは既に算出された中心x
c,ycの値も用いて式(12)に従って計算する。
FIG. 7B is a subroutine flow for calculating the estimated circle. Step # 50 through Step # 500
In the first example, the variables V1 to W7 in the middle of the calculation are expressed by the equations (27) to (3).
5), and then using these variables, the center coordinates xc and yc of the estimated circle are calculated using equations (10) and (11), respectively.
Calculate with. The radius rc of the estimated circle is the already calculated center x
It is calculated according to the equation (12) using the values of c and yc.

【0092】次に、式(36)と(13),(14)に
従って推定誤差量ERを求め(#502)、さらに式
(37)に従って、瞳孔径rcによる誤差量ERの補正
を行う(#503)。
Next, the estimated error amount ER is obtained according to the equations (36), (13) and (14) (# 502), and the error amount ER is corrected by the pupil diameter rc according to the equation (37) (#). 503).

【0093】このようにして、推定円の中心(xc,y
c)、半径rc、推定誤差量ERが求まり、サブルーチ
ンをリターンする(#504)。
In this way, the center of the estimated circle (xc, y
c), the radius rc, and the estimated error amount ER are obtained, and the subroutine is returned (# 504).

【0094】以上のようにして、ステップ#301にお
いて、抽出した総ての瞳孔エッジデータに基づく瞳孔円
の推定を行って、瞳孔円の中心座標(xc,yc)、半
径rc、推定誤差量ERが求まると、このERを誤差量
閾値ERTHRと比較する(#302)。
As described above, in step # 301, the pupil circle is estimated based on all the extracted pupil edge data, and the center coordinates (xc, yc) of the pupil circle, the radius rc, and the estimated error amount ER. Then, this ER is compared with the error amount threshold value ERTHR (# 302).

【0095】瞳孔円の推定が充分な精度で実行されると
きの推定誤差量ERは通常10以下であるので、閾値E
RTHRは例えば15〜20程度に設定しておく。
Since the estimation error amount ER when the pupil circle is estimated with sufficient accuracy is usually 10 or less, the threshold value E
RTHR is set to about 15 to 20, for example.

【0096】ER<ERTHR、即ち推定誤差が小さい
場合には、瞳孔の検出は成功したものと見るとして(#
303)、本サブルーチンをリターンする(#30
4)。
If ER <ERTHR, that is, if the estimation error is small, it is considered that the pupil detection is successful (#
303) and returns from this subroutine (# 30).
4).

【0097】ER≧ERTHR、即ち推定誤差が大きい
場合には、偽りのエッジデータにより推定を失敗したと
し、以降の処理にて偽りのエッジの排除にとりかかる。
If ER ≧ ERTHR, that is, if the estimation error is large, it is determined that the estimation has failed due to the false edge data, and the false edges are eliminated in the subsequent processing.

【0098】先ずステップ#305では、抽出された総
ての瞳孔エッジデータの内、瞳孔円の下辺として抽出さ
れたエッジデータを除いた残り、つまり上辺、右辺、左
辺のエッジデータに基づいて最小2乗法を用いて瞳孔円
の推定を行ってみる。ここでの演算は、エッジ数が少な
いことを除けば、上述した数値計算と同様である。結果
として得られた瞳孔円の中心座標径、推定誤差は記憶し
ておく。
First, in step # 305, among all the extracted pupil edge data, the minimum except for the edge data extracted as the lower side of the pupil circle, that is, based on the edge data of the upper side, the right side, and the left side, a minimum of 2 is obtained. Let's try to estimate the pupil circle using the multiplication method. The calculation here is the same as the above-described numerical calculation except that the number of edges is small. The center coordinate diameter of the pupil circle and the estimation error obtained as a result are stored.

【0099】同様にステップ#306では上辺エッジを
除いた場合、ステップ#307では右辺エッジを除いた
場合、ステップ#308では左辺エッジを除いた場合の
瞳孔円の推定を行い、結果をそれぞれ記憶する。
Similarly, in step # 306, the upper edge is removed, the right edge is removed in step # 307, and the left edge is removed in step # 308, and the pupil circle is estimated and the results are stored. .

【0100】図8(a)は下辺エッジを除いた円の最小
2乗推定のサブルーチンのフローである。
FIG. 8A is a flow of a subroutine for estimating the least squares of a circle excluding the lower edge.

【0101】先ずステップ#601にて、瞳孔円の下辺
の瞳孔エッジとして抽出されたエッジデータだけで式
(15)〜(18),(19)〜(22),(23)〜
(26)に従ってX1’〜X4’,Y1’〜Y4’,Z
1’〜Z4’を計算する。
First, in step # 601, only the edge data extracted as the pupil edge of the lower side of the pupil circle is used to calculate equations (15) to (18), (19) to (22), (23) to.
According to (26), X1 'to X4', Y1 'to Y4', Z
Calculate 1'-Z4 '.

【0102】次に総てのエッジデータで計算された途中
変数X1〜X4を次式のように補正する。
Next, the intermediate variables X1 to X4 calculated with all the edge data are corrected by the following equation.

【0103】 X1←X1−X1’ …(38) X2←X2−X2’ …(39) X3←X3−X3’ …(40) X4←X4−X4’ …(41) 変数X1〜X4は式(15)〜(18)から明らかなよ
うに線型な演算式であるから、上の式(38)〜(4
1)を計算すると、その結果X1〜X4は、下辺エッジ
を除いたエッジによる変数となる。改めてX1〜X4を
計算するのではなく、上記のように計算するのは演算短
縮が目的である。
X1 ← X1-X1 '(38) X2 ← X2-X2' (39) X3 ← X3-X3 '(40) X4 ← X4-X4' (41) Variables X1 to X4 are expressions ( Since it is a linear arithmetic expression as is clear from (15) to (18), the above expressions (38) to (4)
When 1) is calculated, as a result, X1 to X4 become variables by edges excluding the lower edge. The purpose of shortening the calculation is not to calculate X1 to X4 again but to calculate as described above.

【0104】途中変数Y1〜Y4,Z1ーZ4も同様に
補正する(#602)。この後に推定円の計算を行えば
(#603)、その結果は下辺エッジを除いたエッジに
よる推定結果となる。
Intermediate variables Y1 to Y4 and Z1 to Z4 are similarly corrected (# 602). If the estimated circle is calculated after this (# 603), the result becomes the estimation result by the edges excluding the lower edge.

【0105】上辺エッジを除いた瞳孔円の推定、左辺エ
ッジを除いた瞳孔円の推定、右辺エッジを除いた瞳孔円
の推定も対象となる辺が違うことを除けば下辺の場合と
全く同様であるのでフローチャートおよび説明は省略す
る。
The estimation of the pupil circle excluding the upper side edge, the estimation of the pupil circle excluding the left side edge, and the estimation of the pupil circle excluding the right side edge are the same as the case of the lower side except that the target side is different. Therefore, the flow chart and description will be omitted.

【0106】図5に戻って、下辺、上辺、右辺、左辺の
エッジデータを除いた瞳孔円の推定が完了すると、ステ
ップ#309ではその結果の内から最も良好な結果を探
す。このとき、上辺、下辺のエッジデータよりは左辺、
右辺のエッジデータを優先するような選択を行う。
Returning to FIG. 5, when the estimation of the pupil circle excluding the edge data of the lower side, the upper side, the right side, and the left side is completed, in step # 309, the best result is searched for. At this time, the left side rather than the edge data of the upper side and the lower side,
The selection is performed so that the edge data on the right side has priority.

【0107】何故ならば瞳孔エッジの抽出処理は水平方
向の時系列信号処理であるから、どうしても左辺、右辺
のエッジデータの方が信頼性が高いからである。
This is because the pupil edge extraction processing is horizontal time-series signal processing, so that the edge data on the left side and the right side are inevitably more reliable.

【0108】具体的には、ステップ#305,306で
得られた推定誤差量ERを実際よりも小さくなるように
重みを付して、4つのERの内もっとも小さいERの結
果を選択する。
Specifically, the estimated error amount ER obtained in steps # 305 and 306 is weighted so as to be smaller than the actual value, and the result of the smallest ER among the four ERs is selected.

【0109】ここでは下辺エッジを除いた結果が最も良
好であるとして説明を続ける。
Here, the description will be continued assuming that the result excluding the lower edge is the best.

【0110】次のステップ#310では円の最小2乗推
定の再計算1を行う。
In the next step # 310, the recalculation 1 of the least square estimation of the circle is performed.

【0111】概略を述べると、先に選択された演算結果
に対して、除かれている辺のエッジデータを1つずつ加
えてみては推定誤差量の変化を調べ、誤差量が所定の割
り合いよりも増加しなければ、加えたエッジデータは正
しい瞳孔エッジであるものと見なしてそのまま加えてお
き、そうでない場合は偽のエッジデータを加えてしまっ
たものと見なしてそのデータは取り除く。最初から除か
れている辺のエッジデータ総てに対して以上の試行錯誤
的操作をくり返してゆく。
In summary, by adding the edge data of the removed sides one by one to the previously selected calculation result, the change in the estimated error amount is examined, and the error amount is determined to be a predetermined ratio. If it does not increase, the added edge data is regarded as a correct pupil edge and is added as it is. If not, false edge data is regarded as added and the data is removed. The above trial-and-error operation is repeated for all the edge data of the edges removed from the beginning.

【0112】図8(b)に円の最小2乗推定再計算1の
フローを示す。
FIG. 8B shows a flow of the least square estimation recalculation 1 of the circle.

【0113】いま下辺エッジが除かれている推定結果が
選択されたものとしているのでステップ#701からス
テップ#800へ移行する。
Since it is assumed that the estimation result in which the lower edge is removed is selected, the process proceeds from step # 701 to step # 800.

【0114】次のステップ#801にて、下辺エッジ群
のうちの1つのデータ(x座標、y座標)を(xk,y
k)とすると次式によって最小2乗法途中変数X1〜X
4の補正を行う。
At the next step # 801, data (x coordinate, y coordinate) of one of the lower side edge groups is converted into (xk, y).
k), the least square method intermediate variables X1 to X are calculated by the following equation.
Correction of 4 is performed.

【0115】 X1←X1+xk …(42) X2←X2+xk2 …(43) X3←X3+xk3 …(44) X4←X4+xk4 …(45) 変数Y1〜Y4,Z1〜Z4についても同様に計算する
(#801)、要するに最小2乗法の演算のデータが1
つ増したのと同じである。
X1 ← X1 + xk (42) X2 ← X2 + xk 2 (43) X3 ← X3 + xk 3 (44) X4 ← X4 + xk 4 (45) The variables Y1 to Y4 and Z1 to Z4 are similarly calculated (#). 801), in short, the data of the operation of the least squares method is 1
It is the same as increased.

【0116】そして、補正された途中変数を用いて再び
推定円の計算を行う(#802)。次に、新たな推定誤
差量ERと、データを1つ追加する前の誤差量ER0
比を求め、ERの変化率とし、その増加率が小、即ち (ER/ER0 )<Ca …(46) ならば、追加したエッジは真のエッジと見なす。Caは
例えば1.1程度である。
Then, the estimated circle is calculated again using the corrected intermediate variables (# 802). Next, the ratio between the new estimated error amount ER and the error amount ER 0 before adding one data is obtained and used as the change rate of ER, and the increase rate is small, that is, (ER / ER 0 ) <Ca If (46), the added edge is regarded as a true edge. Ca is, for example, about 1.1.

【0117】増加率が大きいときには、加えたエッジは
偽りのエッジであると見なして、途中変数X1〜X4,
Y1ーY4,Z1〜Z4と推定円の結果をこのデータを
1つ追加する前の値に戻す。
When the rate of increase is large, the added edge is regarded as a false edge and the intermediate variables X1 to X4.
The results of Y1-Y4, Z1 to Z4 and the estimated circle are returned to the values before adding this data.

【0118】1つのエッジに対しての試行が終わると次
のエッジを試してみる。当初除かれていたエッジデータ
総てについての試行が終了すると(#805)、一律に
除かれていた下辺エッジデータのうち正しいエッジは推
定演算に有効に使用されたとして、このサブルーチンを
リターンする(#806)。
After the trial for one edge is finished, the next edge is tried. When the trials for all the edge data that have been initially removed have been completed (# 805), it is determined that the correct edge among the lower edge data that has been uniformly removed was effectively used for the estimation calculation, and this subroutine is returned ( # 806).

【0119】以上は、下辺エッジを対象とする再計算1
について説明してきたが、上辺、左辺、右辺についても
全く同様であるので、それらのフローチャートと説明は
省略する。
The above is the recalculation 1 for the lower edge.
However, since the same applies to the upper side, the left side, and the right side, their flow chart and description will be omitted.

【0120】円の最小2乗推定の再計算1によって正し
い瞳孔エッジデータの回収が終了すると、その最終結果
の推定誤差量ERと誤差閾値ERTHRを再び比較し
(#311)、ER<ERTHRならば瞳孔検出は成功
したとし(#303)、サブルーチンをリターンする
(#304)。
When the correct pupil edge data collection is completed by the recalculation 1 of the least square estimation of the circle, the estimated error amount ER of the final result is compared again with the error threshold ERTHR (# 311), and if ER <ERTHR. If the pupil detection is successful (# 303), the subroutine is returned (# 304).

【0121】なおも推定誤差量が大きい場合には、今度
はいま現在使用している瞳孔エッジにまだ偽りのエッジ
データが含まれているものと考え、その排除に努める処
理を実行してゆく。
If the estimated error amount is still large, it is considered that the pupil edge currently in use at this time still contains false edge data, and a process for eliminating the false edge data is executed.

【0122】いま下辺エッジを除いた、即ち(上辺、左
辺、右辺)の組み合わせが選択されたものとしているか
ら、ステップ#312,ステップ#315を経てステッ
プ#316にて上辺エッジに関する円の最小2乗推定再
計算2Bを実行する。このサブルーチンは前記目的のよ
うに、いま現時点で使用している上辺の瞳孔エッジデー
タのうち偽りのデータを取り除こうとする処理である。
Since it is assumed that a combination of (upper side, left side, right side) except for the lower side edge has been selected, the minimum number of circles for the upper side edge is 2 at step # 312, step # 315 and step # 316. The power estimation recalculation 2B is executed. This subroutine is a process for removing false data from the upper pupil edge data currently used at the present time, as described above.

【0123】図9に下辺に関する円の最小2乗推定の再
計算2Aのフローチャートを示す。記号2A,2B,2
C,2Dはそれぞれは下辺,上辺,右辺,左辺に対応し
ている。
FIG. 9 shows a flowchart of the recalculation 2A of the least squares estimation of the circle on the lower side. Symbols 2A, 2B, 2
C and 2D correspond to the lower side, the upper side, the right side, and the left side, respectively.

【0124】ここでは再計算2Aの下辺に関するサブル
ーチンについてのみ説明するが、他の場合も同様であ
る。
Here, only the subroutine relating to the lower side of the recalculation 2A will be described, but the same applies to other cases.

【0125】さて、同サブルーチンがコールされると、
下辺エッジとして抽出されたエッジデータ群のうちの1
つを除くように途中変数X1〜X4,Y1〜Y4,Z1
〜Z4を補正する(#901)。除こうとするエッジの
座標を(xk,yk)とすると、X1〜X4は次式のよ
うに補正する。
Now, when the same subroutine is called,
1 of the edge data group extracted as the lower edge
Intermediate variables X1 to X4, Y1 to Y4, Z1
~ Z4 is corrected (# 901). If the coordinates of the edge to be removed are (xk, yk), X1 to X4 are corrected as in the following equation.

【0126】 X1←X1−xk …(47) X2←X2−xk2 …(48) X3←X3−xk3 …(49) X4←X4−xk4 …(50) Y1〜Y4,Z1〜Z4についても同様である。X1 ← X1-xk (47) X2 ← X2-xk 2 (48) X3 ← X3-xk 3 (49) X4 ← X4-xk 4 (50) Y1 to Y4, Z1 to Z4 Is also the same.

【0127】途中変数の補正が済むと、次のステップ#
902で推定円の計算を実行する。その結果得られた推
定円の中心座標、径、推定誤差量は、さきにエッジデー
タ1つ取り除いた残りのエッジデータに基づくものとな
る。
After the correction of the intermediate variables, the next step #
At 902, the estimated circle is calculated. The center coordinates, diameter, and estimation error amount of the estimated circle obtained as a result are based on the remaining edge data obtained by removing one piece of edge data.

【0128】次に先述の式(46)にて推定誤差量の変
化率を計算し(#903)、その減少率が所定よりも大
きければ先程取り除かれたエッジは偽りのエッジデータ
であったとしてそのままにし、減少率に変化があまりな
ければ、正しいエッジデータを取り除いた結果であると
し、ステップ#904で途中変数X1〜X4,Y1〜Y
4,Z1〜Z4および推定円の結果を元に戻す。
Next, the rate of change of the estimated error amount is calculated by the above equation (46) (# 903), and if the rate of decrease is larger than the predetermined value, it is assumed that the edge removed earlier is false edge data. If there is not much change in the reduction rate, it is assumed that the result is the result of removing the correct edge data, and the intermediate variables X1 to X4 and Y1 to Y are determined in step # 904.
4, Undo the results of Z1 to Z4 and the estimated circle.

【0129】再計算1の場合と同様に、該当する総ての
エッジデータに対する試行が終了すると(#905)、
本サブルーチンをリターンする(#906)。
Similar to the case of recalculation 1, when the trial for all the relevant edge data is completed (# 905),
This subroutine is returned (# 906).

【0130】図5に戻って、#316での上辺エッジに
関する再計算2が終了すると、その結果である推定誤差
量ERと誤差閾値ERTHR比較し(#317)、誤差
量が小さくなっていれば瞳孔検出は成功したものとして
(#303)、このサブルーチンをリターンする(#3
04)。
Returning to FIG. 5, when the recalculation 2 on the upper edge in # 316 is completed, the estimated error amount ER which is the result is compared with the error threshold value ERTHR (# 317). If the error amount is small, Assuming that the pupil detection is successful (# 303), this subroutine is returned (# 3).
04).

【0131】未だ推定誤差量が大きい場合には、分岐T
1を経由して図6のフローへ移行し、右辺、左辺に関し
て同様の処理を行う。途中過程で推定誤差量ERが小さ
くなれば分岐T2を経由し図5のフロー中のステップ#
303にて瞳孔検出成功として、サブルーチンをリター
ンする(#304)。
If the estimation error amount is still large, the branch T
The process moves to the flow of FIG. 6 via 1 and the same processing is performed on the right side and the left side. If the estimated error amount ER becomes smaller in the middle of the process, the step # in the flow of FIG.
At 303, the pupil detection is successful, and the subroutine is returned (# 304).

【0132】以上の処理を実行しても、未だ推定誤差量
ERが大きい場合は瞳孔検出を失敗とし(#324)、
サブルーチンをリターンする(#325)。
Even if the above processing is executed, if the estimated error amount ER is still large, pupil detection fails (# 324),
The subroutine is returned (# 325).

【0133】図13を用いて、上述処理を説明すると、
この眼球像(図13(a))の例では、まぶたの影響で
瞳孔円下辺のエッジ抽出を誤っている。従って、抽出し
た総てのエッジデータを用いて瞳孔円を算出すると、図
13(b)の75の如く、誤った瞳孔円となってしま
う。
The above process will be described with reference to FIG.
In the example of this eyeball image (FIG. 13A), the edge of the lower side of the pupil circle is erroneously extracted due to the influence of the eyelids. Therefore, if the pupil circle is calculated using all the extracted edge data, an incorrect pupil circle is obtained as indicated by 75 in FIG. 13B.

【0134】そこで、本発明での手法に従って、図13
(c)のように囲い72内の下辺エッジを取り除いたデ
ータで円を推定してやれば、75’のように正しい瞳孔
円を検出することができる。
Therefore, according to the method of the present invention, FIG.
If the circle is estimated from the data obtained by removing the lower edge in the enclosure 72 as shown in (c), a correct pupil circle can be detected as in 75 '.

【0135】図13はまぶたによる撮影の例であった
が、図14ではまつ毛による影響を説明する。
Although FIG. 13 shows an example of photographing with the eyelids, the influence of the eyelashes will be described with reference to FIG.

【0136】図14(a)の53はまつ毛を表わしてお
り、このため瞳孔下辺として抽出されたエッジ中に偽り
の瞳孔エッジが含まれている。
Reference numeral 53 in FIG. 14A represents eyelashes, and therefore false edges are included in the edges extracted as the lower pupil side.

【0137】同図(b)の75は抽出したエッジを全部
用いて推定した円を表わしており、誤った推定となって
いる。
Reference numeral 75 in FIG. 13B represents a circle estimated by using all the extracted edges, which is an erroneous estimation.

【0138】これを本発明での手法に従って、同図
(c)のように下辺エッジも正しいエッジ(囲い72
b)と偽りのエッジ(囲い72a)に選択的に分別すれ
ば、正しいエッジデータのみに基づいて、正しい推定円
75’を求めることができる。
According to the method of the present invention, the lower edge is also a correct edge (enclosure 72) as shown in FIG.
By selectively separating b) and the false edge (enclosure 72a), the correct estimated circle 75 'can be obtained based on only the correct edge data.

【0139】先の実施例では、瞳孔径を用いて推定誤差
量を補正する際、一次式を用いたが、これは一次式に限
定されるものではなく、もっと高次の補正式を用いても
良い。
In the above embodiment, a linear equation is used when correcting the estimation error amount using the pupil diameter, but this is not limited to the linear equation, and a higher-order correction equation is used. Is also good.

【0140】また、本実施例では最小2乗法を用いて円
を推定するようにしているため、円の半径あるいは直径
を補正に用いているが、例えば瞳孔をだ円と仮定して推
定するようにしたならば、長径と短径のいずれか一方、
あるいは両者の平均値を補正に用いても良い。
Further, in the present embodiment, the circle is estimated by using the least squares method, and therefore the radius or diameter of the circle is used for correction. However, for example, it is assumed that the pupil is an ellipse. If it is set to either the major axis or the minor axis,
Alternatively, the average value of both may be used for correction.

【0141】[0141]

【発明の効果】以上説明したように、本発明によれば、
瞳孔と虹彩の境界の光強度差を信号のエッジとして捉
え、そのエッジ座標に基づいて瞳孔円の検出を行う際、
正しい瞳孔円の検出障害となる瞼や、まつ毛等による偽
りの瞳孔エッジを効果的に排除することが可能となり、
視線検出の精度を極めて向上させることができる。
As described above, according to the present invention,
When the light intensity difference at the boundary between the pupil and the iris is taken as the edge of the signal and the pupil circle is detected based on the edge coordinates,
It is possible to effectively eliminate false eyelid edges such as eyelids and eyelashes that interfere with correct pupil circle detection,
The accuracy of line-of-sight detection can be significantly improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を有効に実施することができるカメラの
要部概略図。
FIG. 1 is a schematic view of a main part of a camera capable of effectively implementing the present invention.

【図2】図1のカメラの電気回路図。FIG. 2 is an electric circuit diagram of the camera of FIG.

【図3】図2の動作を示すフローチャート。FIG. 3 is a flowchart showing the operation of FIG.

【図4】視線検出動作のフローチャート。FIG. 4 is a flowchart of a line-of-sight detection operation.

【図5】図4の瞳孔中心、瞳孔径の検出のフローチャー
ト。
5 is a flowchart of detection of a pupil center and a pupil diameter in FIG.

【図6】図5のT1 以降のフローチャート。FIG. 6 is a flowchart after T 1 of FIG.

【図7】図5の円の最小2乗推定動作のフローチャー
ト。
7 is a flowchart of the least squares estimation operation of the circle in FIG.

【図8】(a)は下辺エッジを除いた円の最小2乗推
定、(b)は円の最小2乗推定再計算1のフローチャー
ト。
FIG. 8A is a least squares estimation of a circle excluding the lower edge, and FIG. 8B is a flowchart of least squares estimation recalculation 1 of the circle.

【図9】円の最小2乗推定再計算2Aのフローチャー
ト。
FIG. 9 is a flowchart of a circle least-squares estimation recalculation 2A.

【図10】観察者の眼球像の例。FIG. 10 is an example of an eyeball image of an observer.

【図11】視線検出方法の原理説明図。FIG. 11 is an explanatory view of the principle of the eye gaze detection method.

【図12】通常の瞳孔円検出のの説明図。FIG. 12 is an explanatory diagram of normal pupil circle detection.

【図13】まぶたの影響を受けた場合の瞳孔円検出の説
明図。
FIG. 13 is an explanatory diagram of pupil circle detection in the case of being affected by eyelids.

【図14】まつ毛の影響を受けた場合の瞳孔円検出の説
明図。
FIG. 14 is an explanatory diagram of pupil circle detection in the case of being affected by eyelashes.

【符号の説明】 1…撮影レンズ 2…主ミラー 6…焦点検出装置 6f…イメージセ
ンサー 7…ピント板 10…測光センサ
ー 11…接眼レンズ 13…赤外発光ダ
イオード(IRED) 14…イメージセンサー(CCD−EYE) 15…眼球 16…角膜 17…虹彩 21…スーパーイ
ンポーズ用LED 24…ファインダー内LCD 25…照明用LE
D 31…絞り 50…眼球の白眼
部分 51…眼球の瞳孔部分 52a,b…P像 53…まつ毛 100…CPU 101…視線検出回路 103…焦点検出
回路 104…信号入力回路 105…LCD駆
動回路 106…LED駆動回路 107…IRED
駆動回路 110…焦点調節回路 200〜204…
測距点マーク
[Explanation of Codes] 1 ... Imaging lens 2 ... Main mirror 6 ... Focus detection device 6f ... Image sensor 7 ... Focus plate 10 ... Photometric sensor 11 ... Eyepiece lens 13 ... Infrared light emitting diode (IRED) 14 ... Image sensor (CCD- EYE) 15 ... Eyeball 16 ... Cornea 17 ... Iris 21 ... Superimpose LED 24 ... Finder LCD 25 ... Lighting LE
D 31 ... Aperture 50 ... Eyeball white eye portion 51 ... Eyeball pupil portion 52a, b ... P image 53 ... Eyelashes 100 ... CPU 101 ... Line-of-sight detection circuit 103 ... Focus detection circuit 104 ... Signal input circuit 105 ... LCD drive circuit 106 ... LED drive circuit 107 ... IRED
Drive circuit 110 ... Focus adjustment circuit 200-204 ...
AF point mark

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 眼球像を受光する受光手段と、該受光手
段から出力される光電変換信号に基づいて眼球像中の瞳
孔部と虹彩部との境界を方向別に抽出する処理手段と、
該処理手段によって抽出された複数の方向別の境界位置
情報の組合せを選択する選択手段と、該選択手段の選択
にしたがって、該複数の境界位置情報に基づき瞳孔部の
形状を推定する演算手段を有することを特徴とする視線
検出装置。
1. A light receiving means for receiving an eyeball image, and a processing means for extracting a boundary between a pupil portion and an iris portion in the eyeball image in each direction based on a photoelectric conversion signal output from the light receiving means.
Selecting means for selecting a combination of the boundary position information for each direction extracted by the processing means, and computing means for estimating the shape of the pupil portion based on the plurality of boundary position information in accordance with the selection of the selecting means. A line-of-sight detection device having.
【請求項2】 前記選択手段は、水平方向の境界位置情
報を優先した選択を行うことを特徴とする請求項1に記
載の視線検出装置。
2. The line-of-sight detection apparatus according to claim 1, wherein the selection means performs selection by giving priority to horizontal boundary position information.
【請求項3】 眼球像を受光する受光手段と、該受光手
段から出力される光電変換信号に基づいて眼球像中の瞳
孔部と虹彩部の境界位置を抽出する処理手段と、該処理
手段によって抽出された複数の境界位置情報に基づい
て、瞳孔部の形状を推定し、同時にその推定誤差量をを
演算する演算手段と、該推定誤差量にしたがって、複数
の境界位置情報の採否を選択的に識別する識別手段と、
該演算手段と該識別手段を繰り返し動作させる制御手段
とを有することを特徴とする視線検出装置。
3. A light receiving means for receiving an eyeball image, a processing means for extracting a boundary position between a pupil portion and an iris portion in the eyeball image based on a photoelectric conversion signal output from the light receiving means, and the processing means. Based on the extracted plurality of boundary position information, the shape of the pupil part is estimated, and at the same time, the calculating means for calculating the estimated error amount, and whether the plurality of boundary position information are selectively adopted or not according to the estimated error amount. Identifying means for identifying
A line-of-sight detection device comprising: the calculation means and the control means for repeatedly operating the identification means.
【請求項4】 演算手段は、最小2乗法を用いて推定演
算することを特徴とする請求項1、2又は3に記載の視
線検出装置。
4. The line-of-sight detection apparatus according to claim 1, 2 or 3, wherein the calculation means performs estimation calculation using a least square method.
JP29172892A 1992-10-29 1992-10-29 Eye gaze detection apparatus and eye gaze detection method Expired - Fee Related JP3256294B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP29172892A JP3256294B2 (en) 1992-10-29 1992-10-29 Eye gaze detection apparatus and eye gaze detection method
US08/141,613 US5543887A (en) 1992-10-29 1993-10-27 Device for detecting line of sight

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29172892A JP3256294B2 (en) 1992-10-29 1992-10-29 Eye gaze detection apparatus and eye gaze detection method

Publications (2)

Publication Number Publication Date
JPH06138373A true JPH06138373A (en) 1994-05-20
JP3256294B2 JP3256294B2 (en) 2002-02-12

Family

ID=17772633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29172892A Expired - Fee Related JP3256294B2 (en) 1992-10-29 1992-10-29 Eye gaze detection apparatus and eye gaze detection method

Country Status (1)

Country Link
JP (1) JP3256294B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0694281A1 (en) * 1994-07-29 1996-01-31 Canon Kabushiki Kaisha Viewpoint detecting device
US7347547B2 (en) 2004-07-14 2008-03-25 Matsushita Electric Industrial Co., Ltd. Pupil detection device and iris authentication apparatus
JP2010057682A (en) * 2008-09-03 2010-03-18 Denso Corp Apparatus for detecting pupil, program for the same, and method for detecting a pupil
JP2010057683A (en) * 2008-09-03 2010-03-18 Denso Corp Apparatus for detecting pupil, program for the same, and method for detecting pupil

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0694281A1 (en) * 1994-07-29 1996-01-31 Canon Kabushiki Kaisha Viewpoint detecting device
US5737641A (en) * 1994-07-29 1998-04-07 Canon Kabushiki Kaisha Viewpoint detecting device using stored information when detecting is improper
US7347547B2 (en) 2004-07-14 2008-03-25 Matsushita Electric Industrial Co., Ltd. Pupil detection device and iris authentication apparatus
JP2010057682A (en) * 2008-09-03 2010-03-18 Denso Corp Apparatus for detecting pupil, program for the same, and method for detecting a pupil
JP2010057683A (en) * 2008-09-03 2010-03-18 Denso Corp Apparatus for detecting pupil, program for the same, and method for detecting pupil
JP4623171B2 (en) * 2008-09-03 2011-02-02 株式会社デンソー Pupil detection device, program for pupil detection device, and pupil detection method
JP4623172B2 (en) * 2008-09-03 2011-02-02 株式会社デンソー Pupil detection device, program for pupil detection device, and pupil detection method

Also Published As

Publication number Publication date
JP3256294B2 (en) 2002-02-12

Similar Documents

Publication Publication Date Title
US5543887A (en) Device for detecting line of sight
JPH06304142A (en) Device for detecting line of sight
US6674964B2 (en) Visual axis detecting apparatus
US6507702B2 (en) Device having sight line detecting function
US5561289A (en) Device for detecting line of sight
US5402199A (en) Visual axis detecting apparatus
JP3256294B2 (en) Eye gaze detection apparatus and eye gaze detection method
JPH07289517A (en) Line of sight detector and optical equipment with the same
JP2002301030A (en) Equipment to detect sight line
JP3184633B2 (en) camera
JP3176147B2 (en) Eye gaze detection device
JP2003307774A (en) Optical apparatus with line-of-sight detecting function
JP3530647B2 (en) Eye gaze detecting device and optical device
JPH06138372A (en) Sight line detecting device
JP3211427B2 (en) Eye gaze detection device
JP3184634B2 (en) Optical device having line-of-sight detection device
JP3391892B2 (en) Eye gaze detecting device, optical device, and eye gaze detecting method
JP3219491B2 (en) Eye gaze detection device
JP2003339642A (en) Visual line detector and optical apparatus having the same
JP3186249B2 (en) Eye gaze detection device and eye gaze detection method
JP3530648B2 (en) Eye gaze detecting device and optical device
JP3332581B2 (en) An optical device, a camera, a line-of-sight detection device, a line-of-sight detection method, and a relative position determination method between an eyepiece and an eyeball position.
JP2003084193A (en) Optical device
JPH06304141A (en) Device for detecting line of sight
JP2002238854A (en) Visual axis detector and optical device equipped with visual axis detector

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081130

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091130

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101130

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101130

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111130

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees