JP3530642B2 - Eye gaze detection device - Google Patents

Eye gaze detection device

Info

Publication number
JP3530642B2
JP3530642B2 JP21297195A JP21297195A JP3530642B2 JP 3530642 B2 JP3530642 B2 JP 3530642B2 JP 21297195 A JP21297195 A JP 21297195A JP 21297195 A JP21297195 A JP 21297195A JP 3530642 B2 JP3530642 B2 JP 3530642B2
Authority
JP
Japan
Prior art keywords
posture
individual difference
data
camera
difference data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP21297195A
Other languages
Japanese (ja)
Other versions
JPH0943500A (en
Inventor
圭介 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP21297195A priority Critical patent/JP3530642B2/en
Publication of JPH0943500A publication Critical patent/JPH0943500A/en
Priority to US08/972,357 priority patent/US5887200A/en
Application granted granted Critical
Publication of JP3530642B2 publication Critical patent/JP3530642B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、観察者の視線位置
を観察者の個人差データを使って求める視線検出装置に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an eye-gaze detecting device for obtaining an eye-gaze position of an observer by using individual difference data of the observer.

【0002】[0002]

【従来の技術】従来より、撮影者が観察面上のどの位置
を観察しているかを検出する、いわゆる視線(視軸)を
検出する装置(例えばアイカメラ)が種々提供されてい
る。例えば特開平1−274736号公報においては、
光源からの平行光束を撮影者の眼球の前眼部へ投射し、
角膜からの反射光による角膜反射像と瞳孔の結像位置を
利用して注視点を求めている。また同公報において、注
視点検出装置を一眼レフカメラに配設し撮影者の注視点
情報を用いて撮影レンズの自動焦点調節を行う例を開示
している。
2. Description of the Related Art Conventionally, various devices (for example, eye cameras) that detect what position on a viewing surface a photographer is observing, that is, a so-called line of sight (visual axis) have been provided. For example, in JP-A-1-274736,
Projects a parallel light flux from the light source to the anterior segment of the photographer's eye,
The gazing point is obtained by using the corneal reflection image by the reflected light from the cornea and the imaging position of the pupil. Further, this publication discloses an example in which a gazing point detection device is provided in a single-lens reflex camera and automatic focus adjustment of a photographing lens is performed using gazing point information of a photographer.

【0003】図11は視線検出原理を説明する為の図で
ある。
FIG. 11 is a diagram for explaining the principle of line-of-sight detection.

【0004】同図において、15は撮影者の眼球、16
は角膜、17は虹彩である。以下この図を用いて視線の
検出方法を説明する。
In the figure, 15 is the photographer's eyeball, and 16 is
Is a cornea and 17 is an iris. The method of detecting the line of sight will be described below with reference to this figure.

【0005】光源13bより放射された赤外光は観察者
の眼球15の角膜16を照射する。このとき角膜16の
表面で反射した赤外光の一部により形成される角膜反射
像d(虚像)は受光レンズ12により集光され、イメー
ジセンサ14上の位置d´に結像する。同様に光源13
aにより放射された赤外光は、眼球15の角膜16を照
明する。このとき、角膜16の表面で反射した赤外光の
一部により形成された角膜反射像eは受光レンズ12に
より集光され、イメージセンサ14上の位置e´に結像
する。
The infrared light emitted from the light source 13b illuminates the cornea 16 of the observer's eyeball 15. At this time, the corneal reflection image d (virtual image) formed by a part of the infrared light reflected on the surface of the cornea 16 is condensed by the light receiving lens 12 and imaged at the position d ′ on the image sensor 14. Similarly, the light source 13
The infrared light emitted by a illuminates the cornea 16 of the eyeball 15. At this time, the corneal reflection image e formed by a part of the infrared light reflected on the surface of the cornea 16 is condensed by the light receiving lens 12 and is imaged at the position e ′ on the image sensor 14.

【0006】又、虹彩17の端部a,bからの光束は、
受光レンズ12を介してイメージセンサ14上の位置a
´,b´に該端部a,bの像を結像する。受光レンズ1
2の光軸に対する眼球15の光軸の回転角θが小さい場
合、虹彩17の端部a,bのx座標をxa,xbとする
と、瞳孔19の中心位置cの座標xcは、 xc≒(xa +xb)/2 と表される。
The luminous flux from the ends a and b of the iris 17 is
Position a on the image sensor 14 via the light receiving lens 12
Images of the end portions a and b are formed on ′ and b ′. Light receiving lens 1
When the rotation angle θ of the optical axis of the eyeball 15 with respect to the optical axis of 2 is small, and the x coordinates of the ends a and b of the iris 17 are xa and xb, the coordinate xc of the center position c of the pupil 19 is xc≈ ( It is expressed as xa + xb) / 2.

【0007】また、角膜反射像d及びeの中点のx座標
と角膜16の曲率中心oのx座標xoとは略一致する。
このため角膜反射像の発生位置d,eのx座標をxd,
xe、角膜16の曲率中心oと瞳孔19の中心cまでの
標準的な距離をOCとすると、眼球15の光軸15aの
回転角θxは、 OC*SINθx≒(xd+xe)/2−xc ……(1) の関係式を略満足する。このためイメージセンサ14上
に投影された眼球15の各特徴点(角膜反射像及び瞳孔
の中心)の位置を検出することにより、眼球15の光軸
15aの回転角θを求めることができる。
Further, the x coordinate of the midpoint of the corneal reflection images d and e and the x coordinate xo of the center of curvature o of the cornea 16 substantially coincide with each other.
Therefore, the x-coordinates of the corneal reflection image generation positions d and e are xd,
xe, where OC is the standard distance between the center of curvature o of the cornea 16 and the center c of the pupil 19, the rotation angle θx of the optical axis 15a of the eyeball 15 is OC * SINθx≈ (xd + xe) / 2−xc. The relational expression (1) is substantially satisfied. Therefore, the rotation angle θ of the optical axis 15a of the eyeball 15 can be obtained by detecting the position of each characteristic point of the eyeball 15 (corneal reflection image and the center of the pupil) projected on the image sensor 14.

【0008】眼球15の光軸15aの回転角は(1)式
より、 β*OC*SINθx {(xpo−δx)−xic}*pitch ……(2) β*OC*SINθy {(ypo−δy)−yic}*pitch ……(3) と求められる。ここで、θxはz−x平面内での眼球光
軸の回転角、θyはy−z平面内での眼球光軸の回転角
である。(xpo,ypo)はイメージセンサ14上の2個
の角膜反射像の中点の座標、(xic,yic)はイメージ
センサ14上の瞳孔中心の座標である。pitchはイメー
ジセンサ14の画素ピッチである。また、βは受光レン
ズ12に対する眼球15の位置により決まる結像倍率
で、実質的には2個の角膜反射像の間隔の関数として求
められる。
From the equation (1), the rotation angle of the optical axis 15a of the eyeball 15 is β * OC * SINθx {(xpo-δx) -xic} * pitch ... (2) β * OC * SINθy {(ypo-δy ) -Yic} * pitch ... (3) Here, θx is the rotation angle of the eyeball optical axis in the zx plane, and θy is the rotation angle of the eyeball optical axis in the yz plane. (Xpo, ypo) is the coordinates of the midpoint of the two corneal reflection images on the image sensor 14, and (xic, yic) is the coordinates of the pupil center on the image sensor 14. pitch is the pixel pitch of the image sensor 14. Further, β is an imaging magnification determined by the position of the eyeball 15 with respect to the light receiving lens 12, and is substantially obtained as a function of the interval between two corneal reflection images.

【0009】δx,δyは角膜反射像の中点の座標を補
正する補正項であり、撮影者の眼球を平行光ではなく発
散光にて照明していることにより生じる誤差を補正する
補正項、及び、δyに関しては、撮影者の眼球を下まぶ
たの方から発散光にて照明していることにより生じるオ
フセット成分を補正する補正項も含まれている。
Δx and δy are correction terms for correcting the coordinates of the midpoint of the corneal reflection image, and a correction term for correcting an error caused by illuminating the eyeball of the photographer with divergent light instead of parallel light, Further, regarding δy, a correction term for correcting an offset component caused by illuminating the eyeball of the photographer with divergent light from the lower eyelid is also included.

【0010】次に、眼球回転角と注視点の座標の関係か
ら撮影者の注視点を求める。眼球回転角と注視点の座標
の関係は、撮影者の眼球光軸の回転角を(θx,θy)
とすると、撮影者の観察面上の注視点(x,y)は、カ
メラの姿勢が横位置の場合 x=m*(θx+Δ) …………(4) y=m*θy …………(5) と求められる。ここで、x方向はカメラの姿勢が横位置
の場合の撮影者に対して水平方向、y方向はカメラの姿
勢が横位置の場合の撮影者に対して垂直方向を示してい
る。mは眼球の回転角からピント板上の座標に変換する
変換係数、Δは眼球光軸15a と視軸(注視点)とのな
す角である。この時の変換係数m,Δには個人差がある
ため、この変換係数を含んだ形での個人差補正データを
予め求めておく必要がある。
Next, the gazing point of the photographer is obtained from the relationship between the eyeball rotation angle and the coordinates of the gazing point. The relationship between the rotation angle of the eyeball and the coordinates of the gazing point is defined by the rotation angle of the eyeball optical axis of the photographer (θx, θy)
Then, the gazing point (x, y) on the observer's observation plane is x = m * (θx + Δ) ………… (4) y = m * θy ………… when the camera is in the horizontal position. (5) is required. Here, the x direction indicates the horizontal direction with respect to the photographer when the camera is in the horizontal position, and the y direction indicates the vertical direction with respect to the photographer when the camera is in the horizontal position. m is a conversion coefficient for converting the rotation angle of the eyeball into coordinates on the focus plate, and Δ is an angle formed by the eyeball optical axis 15a and the visual axis (gazing point). Since the conversion coefficients m and Δ at this time have individual differences, it is necessary to obtain in advance the individual difference correction data including the conversion coefficients.

【0011】個人差補正データは、撮影者に所定の座標
を注視してもらい、そのときの眼球光軸の回転角を求め
る事で算出する事ができる。この様に個人差補正データ
を求めるための検出動作をキャリブレーションといい、
キャリブレーションにより求めた個人差補正データをキ
ャリブレーションデータという。
The individual difference correction data can be calculated by having the photographer look at a predetermined coordinate and obtaining the rotation angle of the optical axis of the eyeball at that time. The detection operation for obtaining individual difference correction data is called calibration,
Individual difference correction data obtained by calibration is called calibration data.

【0012】観察面上(x1,0)を注視したときの眼
球の回転角を(θx1,0)、(x2,0)を注視した
ときの眼球の回転角を(θx2,0)とすると、以下の
式で個人差データを求める事ができる。
When the rotation angle of the eyeball when gazing at (x1,0) on the observation plane is (θx1,0) and the rotation angle of the eyeball when gazing at (x2,0) is (θx2,0), Individual difference data can be calculated by the following formula.

【0013】 m=(x1−x2)/(θx1−θx2) ……(6) Δ=(x2・θx1−x1・θx2)/(x1−x2) ……(7) また、本願出願人は特願平6−76567号において、
カメラの姿勢に対応した撮影者の視線の個人差に関する
情報を検出し、その情報を記憶可能なカメラを開示して
いる。
M = (x1-x2) / (θx1-θx2) (6) Δ = (x2 · θx1-x1 · θx2) / (x1-x2) (7) In Heihei 6-76567,
Disclosed is a camera capable of detecting information regarding individual differences in the line of sight of a photographer corresponding to the posture of the camera and storing the information.

【0014】[0014]

【発明が解決しようとする課題】しかしながら、横位置
での他に縦位置でも使用可能な視線検出装置において、
横位置での個人差係数では縦位置においては充分な精度
を期待できない。横位置で使用する場合、撮影者の水平
方向及び垂直方向と視線検出装置の水平方向及び垂直方
向それぞれは一致している。その為従来例の説明では特
に人間座標系とカメラ座標系を分けていない。これらを
明確にする為に人間座標形にeを付けて表すことにす
る。カメラを横位置に構えた場合の座標系の斜視図を図
12に示している。
However, in the visual axis detection device which can be used not only in the horizontal position but also in the vertical position,
With the individual difference coefficient in the horizontal position, sufficient accuracy cannot be expected in the vertical position. When used in the horizontal position, the horizontal direction and the vertical direction of the photographer are aligned with the horizontal direction and the vertical direction of the line-of-sight detection device, respectively. Therefore, in the description of the conventional example, the human coordinate system and the camera coordinate system are not particularly divided. In order to clarify these, the human coordinate form is represented by adding e. FIG. 12 shows a perspective view of the coordinate system when the camera is held in the horizontal position.

【0015】眼球の回転角を人間座標系で表すと(θx
e ,θye )となる。これをカメラ座標に変換すると、
以下の様になる。
When the rotation angle of the eyeball is expressed in the human coordinate system, (θx
e , θy e ). If you convert this to camera coordinates,
It becomes as follows.

【0016】 横位置の場合、(θxe ,θye )→(θx,θy)
〔図13の(a−1),(a−2)参照〕 縦(右側が上)位置の場合、(θxe ,θye )→(−
θy,+θx)〔図13の(b−1),(b−2)参
照〕 縦(右側が下)位置の場合、(θxe ,θye )→(+
θy,−θx)〔図13の(c−1),(c−2)参
照〕 注視点座標を視線検出装置を基準にとった場合、撮影者
にとって上下方向は、視線検出装置にとって横方向にな
る。また、補正係数m,Δは人間の眼球に対して決まる
値なので、このことを考慮すれば上記式(4),(5)
は x=mx ・(θx+ΔX ) …………(4’) y=my ・(θy+Δy ) …………(5’) と表すことができ、mx ,ΔX ,my ,Δy の値は、カ
メラ姿勢によって別な値となる。この為、カメラ姿勢別
にキャリブレーションを行って個人差補正データを求め
る必要がある。或は、視線検出を行おうとするカメラ姿
勢でのキャリブレーションが行われていない場合、他の
カメラ姿勢で求めた変換係数を座標変換して代用するこ
とが可能である。更に、従来例で示した様に、カメラ座
標系でx方向のみ注視点を振ってキャリブレーションを
行うと計算式は簡単になるが、厳密には上記式(4’)
のmx ,Δx のみを求めているに過ぎない。このような
キャリブレーション方法では、縦姿勢でのキャリブレー
ションを行うことにより上記式(5’)のmy ,Δy
求めることができ、両方の姿勢のキャリブレーションを
行って始めて全ての変換係数を算出することができる。
In the case of the lateral position, (θx e , θy e ) → (θx, θy)
[Refer to (a-1) and (a-2) of FIG. 13] In the case of the vertical (right side is upper) position, (θx e , θy e ) → (−
θy, + θx) [see (b-1) and (b-2) in FIG. 13] In the case of the vertical position (right side is down), (θx e , θy e ) → (+
θy, −θx) [see (c-1) and (c-2) in FIG. 13] When the gazing point coordinates are based on the line-of-sight detection device, the vertical direction for the photographer is the horizontal direction for the line-of-sight detection device. Become. Further, since the correction coefficients m and Δ are values determined for the human eyeball, taking this into consideration, the above equations (4) and (5)
Can be expressed as x = m x · (θx + Δ X) ............ (4 ') y = m y · (θy + Δ y) ............ (5'), m x, Δ X, m y, The value of Δ y is different depending on the camera posture. For this reason, it is necessary to perform calibration for each camera orientation to obtain individual difference correction data. Alternatively, when the calibration is not performed in the camera posture in which the line-of-sight detection is to be performed, the conversion coefficient obtained in another camera posture can be coordinate-converted and used instead. Further, as shown in the conventional example, if the calibration is performed by observing the gazing point only in the x direction in the camera coordinate system, the calculation formula becomes simple, but strictly speaking, the above formula (4 ′)
Only m x and Δ x of are obtained. In such a calibration method, m y and Δ y in the above equation (5 ′) can be obtained by performing calibration in the vertical orientation, and all conversion coefficients can be obtained only after performing calibration in both orientations. Can be calculated.

【0017】しかしながら、従来例では個人差補正デー
タが記憶されているか否かだけしか表示されず、姿勢別
のキャリブレーションに対応していなかった。どのカメ
ラ姿勢でキャリブレーション行ったか、即ち、どの姿
勢での変換係数が算出されているか分からない。
However, in the conventional example, only whether or not the individual difference correction data is stored is displayed, and the calibration for each posture is not supported. It is not known in which camera orientation the calibration was performed, that is, in which orientation the conversion coefficient was calculated.

【0018】更に、古い変換係数を消去する場合も姿勢
別の個人差補正データに対応しておらず、非常に不便で
あった。
Further, even when the old conversion coefficient is deleted, it does not correspond to the individual difference correction data for each posture, which is very inconvenient.

【0019】(発明の目的) 本発明の第1の目的は、
姿勢別の特別な表示手段を設けること無く、各姿勢それ
ぞれの個人差補正データの有無を知らせることができ、
しかも実際に該装置を構えた姿勢における個人差補正デ
ータの有無を知らせることのできる視線検出装置を提供
することにある。
(Object of the Invention) The first object of the present invention is to
Each posture without any special display for each posture
It is possible to notify the presence or absence of individual difference correction data,
Moreover, it is another object of the present invention to provide a line-of-sight detection device that can notify the presence / absence of individual difference correction data in the posture of actually holding the device.

【0020】[0020]

【0021】本発明の第の目的は、所定の姿勢の時は
全ての個人差補正データを同時に消去する事で消去し忘
れによる視線検出の誤動作を防止することのできる視線
検出装置を提供することにある。
A second object of the present invention is to provide a line-of-sight detection device capable of preventing the malfunction of the line-of-sight detection due to forgetting to erase by deleting all the individual difference correction data at the same time in a predetermined posture. Especially.

【0022】[0022]

【課題を解決するための手段】 上記第1の目的を達成
するために、請求項1記載の本発明は、視線検出装置の
姿勢を検知する姿勢検知手段と、個人差データを姿勢別
に記憶する個人差データ記憶手段と、個人差データの有
無を表示する表示手段と、前記個人差データ記憶手段に
記憶された姿勢別の個人差データの有無を、前記姿勢検
知手段で検知された姿勢に応じて、前記表示手段に表示
させる表示データ制御手段とを設けた視線検出装置とす
るものである。
To achieve the above first object, according to the Invention The present invention of claim 1 Symbol mounting includes a posture detecting means for detecting the attitude of the visual line detection device, storing individual difference data by position to the individual difference data storage means, display means for displaying the existence of individual difference data, the existence of individual difference data by the stored posture to the individual difference data storage means, the posture detection
Displayed on the display means according to the posture detected by the intelligence means
And a line-of-sight detection device provided with display data control means.
It is something.

【0023】[0023]

【0024】また、上記第の目的を達成するために、
請求項2又は3記載の本発明は、視線検出装置の姿勢を
検知する姿勢検知手段と、個人差データを姿勢別に記憶
する個人差データ記憶手段と、個人差データの入力を姿
勢別に行う個人差補正データ入力手段と、前記姿勢検知
手段で検知された姿勢が所定の姿勢の時に個人差データ
全てを消去する個人差データ消去手段とを設けた視線検
出装置とするものである。
Further, in order to achieve the above second object,
The present invention according to claim 2 or 3 is directed to a posture detecting means for detecting the posture of the gaze detecting device, an individual difference data storage means for storing individual difference data for each posture, and an individual difference for inputting individual difference data for each posture. Correction data input means and the posture detection
Individual difference data when the posture detected by the method is a predetermined posture
Line-of-sight inspection with means for erasing all individual difference data
The output device.

【0025】[0025]

【発明の実施の形態】以下、本発明を図示の実施の形態
に基づいて詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will now be described in detail based on the illustrated embodiments.

【0026】図1は本発明の実施の各形態に係るカメラ
本体に内蔵された電気回路の要部ブロック図である。
FIG. 1 is a block diagram of a main part of an electric circuit built in a camera body according to each embodiment of the present invention.

【0027】同図において、カメラ本体に内蔵されたカ
メラ制御手段であるところのマイクロコンピュータの中
央処理装置(以下、CPUと称す)100には、視線検
出回路101,姿勢検知回路102,自動焦点検出回路
103,信号入力回路104,LCD駆動回路105,
LED駆動回路106,及び、IRED駆動回路107
が接続されている。また、不図示ではあるが撮影レンズ
内に配置された焦点調節回路,絞り駆動回路とはマウン
ト接点を介して信号の伝達がなされる。
In FIG. 1, a central processing unit (hereinafter referred to as CPU) 100 of a microcomputer, which is a camera control means incorporated in a camera body, includes a visual axis detection circuit 101, a posture detection circuit 102, and an automatic focus detection. Circuit 103, signal input circuit 104, LCD drive circuit 105,
LED drive circuit 106 and IRED drive circuit 107
Are connected. Further, although not shown, signals are transmitted to the focus adjusting circuit and the diaphragm driving circuit arranged in the taking lens through mount contacts.

【0028】CPU100に付随した記憶手段としての
EEPROM100aは、フィルムカウンタ、その他の撮影情
報を記憶すると共にキャリブレーションを行って得た個
人差補正データを記憶する。
As a storage means attached to the CPU 100
The EEPROM 100a stores a film counter and other shooting information, and also stores individual difference correction data obtained by performing calibration.

【0029】前記視線検出回路101は、イメージセン
サ14(CCD-EYE )からの眼球像の出力をCPU100
に送信する。CPU100はイメージセンサ14からの
眼球像信号をCPU100内部のA/D変換手段により
A/D変換し、この像情報を視線検出に必要な眼球像の
各特徴点を所定のアルゴリズムに従って抽出し、さらに
各特徴点の位置から撮影者の眼球の回転角を算出する。
The visual axis detection circuit 101 outputs the eyeball image output from the image sensor 14 (CCD-EYE) to the CPU 100.
Send to. The CPU 100 A / D-converts the eyeball image signal from the image sensor 14 by the A / D conversion means inside the CPU 100, extracts this image information from each feature point of the eyeball image necessary for the sight line detection according to a predetermined algorithm, and further, The rotation angle of the photographer's eyeball is calculated from the position of each feature point.

【0030】前記姿勢検知回路102は、複数のペアの
フォトセンサとLED(HV1,HV2)及び重力によ
り可動な遮蔽物から成り、重力により遮蔽物が動き、フ
ォトセンサHV1,HV2の出力が変化することにより
姿勢を検知する。
The posture detection circuit 102 is composed of a plurality of pairs of photosensors, LEDs (HV1, HV2) and a shield movable by gravity. The shield moves by gravity, and the outputs of the photosensors HV1, HV2 change. By doing so, the posture is detected.

【0031】前記自動焦点検出回路103は、複数のラ
インセンサから得た光電変換電圧をCPU100に送
り、CPU100では内蔵されたA/D変換手段によっ
てラインセンサ信号を順次A/D変換し、所定の演算を
行って焦点検出を行う。
The automatic focus detection circuit 103 sends the photoelectric conversion voltage obtained from a plurality of line sensors to the CPU 100, and the CPU 100 sequentially A / D-converts the line sensor signal by the built-in A / D conversion means, and a predetermined value is obtained. Focus is detected by performing calculation.

【0032】前記信号入力回路104は、各種スイッチ
からの信号入力を行い、スイッチの状態が変化するとC
PU100に割り込み信号を発生させる。SW−1はレ
リーズ釦の第1ストロークでONし、測光,AF,視線
検出動作を開始させる為のスイッチ、SW−2はレリー
ズ釦の第2ストロークでONするレリーズスイッチ、SW
-MDIALはカメラの各種撮影モードの他、キャリブレーシ
ョンモードやカメラのロックポジションをを選択するモ
ードダイアルである〔図2(a),(b)参照〕。SW-C
ALDELは個人差補正データ消去スイッチである。SW-DIA
L1とSW-DIAL2は電子ダイヤルスイッチで、信号入力回路
のアップダウンカウンタに入力され、ダイヤルの回転ク
リック量をカウントする。SW-DIAL1は前記スイッチSW
−1,SW−2とモニタ用LCD42の間に配置され、
右手の人差し指で操作できるようになっている〔図2
(a)参照〕。SW-SIAL2はカメラの背面に配置され〔図
2(b)参照〕、右手の親指で操作できるようになって
いる。
The signal input circuit 104 inputs signals from various switches, and when the state of the switches changes, C
It causes the PU 100 to generate an interrupt signal. SW-1 is a switch that is turned on by the first stroke of the release button to start photometry, AF, and line-of-sight detection operations. SW-2 is a release switch that is turned on by the second stroke of the release button.
-MDIAL is a mode dial for selecting the calibration mode and the lock position of the camera in addition to the various shooting modes of the camera [see FIGS. 2 (a) and 2 (b)]. SW-C
ALDEL is an individual difference correction data erasing switch. SW-DIA
L1 and SW-DIAL2 are electronic dial switches, which are input to the up / down counter of the signal input circuit and count the rotary click amount of the dial. SW-DIAL1 is the switch SW
-1, is arranged between the SW-2 and the monitor LCD 42,
It can be operated with the index finger of the right hand [Fig. 2
(See (a)]. The SW-SIAL2 is located on the back of the camera [see Fig. 2 (b)] and can be operated with the thumb of the right hand.

【0033】前記LCD駆動回路105は、ファインダ
内LCD24〔図2(d)参照〕及びモニタ用LCD4
2〔図2(a)参照〕に各種情報を表示する他に不図示
のブザーを駆動しブザー音を発生させる。
The LCD driving circuit 105 includes the LCD 24 in the finder (see FIG. 2D) and the LCD 4 for monitor.
In addition to displaying various kinds of information in 2 (see FIG. 2A), a buzzer (not shown) is driven to generate a buzzer sound.

【0034】前記LED駆動回路106は、ファインダ
内の測距点(焦点検出点)をスーパーインポーズ照明す
るLED21(LED−L2,LED−L1,LED−
C,LED−R1,LED−R2)を点灯させる為の回
路である。LED−L2,LED−L1,LED−C,
LED−R1,LED−R2はそれぞれファインダ内の
測距(焦点検出)マークFP−L2,FP−L1,FP
−C,FP−R1,FP−R2に対応しており、LED
21を点灯させることによりファインダ内の焦点検出マ
ークが照明される〔図2(d)参照〕。
The LED drive circuit 106 superimposes and illuminates the distance measuring point (focus detection point) in the finder 21 (LED-L2, LED-L1, LED-).
This is a circuit for lighting C, LED-R1, LED-R2). LED-L2, LED-L1, LED-C,
LED-R1 and LED-R2 are distance measurement (focus detection) marks FP-L2, FP-L1, and FP in the viewfinder, respectively.
-C, FP-R1, FP-R2 compatible, LED
The focus detection mark in the finder is illuminated by turning on 21 (see FIG. 2D).

【0035】前記IRED駆動回路107は、撮影者の
眼球を赤外光で照明するための赤外LED(IRED−
0,IRED−1,IRED−2,IRED−3,IR
ED−4,IRED−5,IRED−6,IRED−
7)を点灯させる為の回路である。この回路には過電流
を防止する為の回路部や長時間の通電による事故を防止
するための安全回路部が組み込まれている。IREDは
2つがペアで使用され、眼球に対し下側から照明され
る。
The IRED drive circuit 107 is an infrared LED (IRED-) for illuminating the eyeball of the photographer with infrared light.
0, IRED-1, IRED-2, IRED-3, IR
ED-4, IRED-5, IRED-6, IRED-
This is a circuit for lighting 7). This circuit incorporates a circuit section for preventing overcurrent and a safety circuit section for preventing accidents due to energization for a long time. Two IREDs are used as a pair and illuminate the eyeball from below.

【0036】具体的には、横位置の場合、IRED−
0,IRED−1またはIRED−4,IRED−5が
使用され、グリップ上の縦位置(ファインダ側から見て
カメラの右側が上)では、IRED−3,IRED−0
またはIRED−7,IRED−4のペアとして使用さ
れる。また、グリップ下の縦位置(ファインダ側から見
てカメラの右側が下)では、IRED−1,IRED−
2またはIRED−5,IRED−6を使用する〔図2
(c)参照〕。2ペアの使い分けは、どの姿勢において
も裸眼の場合は間隔の狭いIREDペアが使用され、眼
鏡(メガネ)や眼球の距離が遠い場合は間隔の広いIR
EDペアが使用されるようになっている。
Specifically, in the horizontal position, IRED-
0, IRED-1 or IRED-4, IRED-5 is used, and IRED-3, IRED-0 is used at the vertical position on the grip (the right side of the camera when viewed from the finder side is up).
Alternatively, they are used as a pair of IRED-7 and IRED-4. In the vertical position below the grip (the right side of the camera when viewed from the viewfinder is down), IRED-1, IRED-
2 or IRED-5, IRED-6 is used [Fig. 2
(See (c)]. The use of two pairs is such that the IRED pair with a narrow interval is used for the naked eye in any posture and the IR with a wide interval is used for a long distance between the glasses (eyeglasses) and the eyeball.
ED pairs are being used.

【0037】次に、図3のフローチャートにより、キャ
リブレーション動作と表示について説明する。
Next, the calibration operation and display will be described with reference to the flowchart of FIG.

【0038】カメラのモードダイアルSW-MDIALをキャリ
ブレーションモードにすると、プログラムの制御がステ
ップ#1に移る。キャリブレーションモードにおいて電
子ダイアルSW-DIAL1を回転させると、キャリブレーショ
ン番号の変更ができる。キャリブレーションモードで電
子ダイアルに変化があると割り込みでキャリブレーショ
ン番号の変更処理を行う。割り込み処理でキャリブレー
ション番号の変更が終了すると、割り込みが発生した場
所にリターンするのではなく、ステップ#2に移行す
る。
When the mode dial SW-MDIAL of the camera is set to the calibration mode, the control of the program moves to step # 1. You can change the calibration number by rotating the electronic dial SW-DIAL1 in the calibration mode. When there is a change in the electronic dial in the calibration mode, the process of changing the calibration number is performed by interruption. When the change of the calibration number is completed in the interrupt process, the process does not return to the place where the interrupt occurred but moves to step # 2.

【0039】次に、パラメータの初期設定を行う(ステ
ップ#2)。初期設定が終了すると、カメラの姿勢検知
を行い、カメラの姿勢を4つの姿勢(横位置,縦位置:
グリップが上,縦位置:グリップが下,逆さ位置)に分
類する(ステップ#3)。次に、その姿勢のキャリブレ
ーションデータがあるかどうかを判定し(ステップ#
4)、データがある場合はキャリブレーション番号(C
AL番号)を点灯させる(ステップ#5)。データがな
ければキャリブレーション番号を点滅させる(ステップ
#6)。
Next, the parameters are initialized (step # 2). When the initial setting is completed, the camera posture is detected and the posture of the camera is detected in four postures (horizontal position, vertical position:
The grip is classified into the upper position and the vertical position: the grip is located in the lower position (upside down) (step # 3). Next, determine whether there is calibration data for that posture (step #
4), if there is data, the calibration number (C
The AL number) is turned on (step # 5). If there is no data, the calibration number is blinked (step # 6).

【0040】次に、スイッチSW−1がOFFされるの
を待つ(ステップ#7)。スイッチSW−1がONのま
まならステップ#3〜#7を繰り返す。
Next, it waits until the switch SW-1 is turned off (step # 7). If the switch SW-1 remains ON, steps # 3 to # 7 are repeated.

【0041】前記スイッチSW−1がOFFになると、
キャリブレーションの指標をファインダ内にスーパーイ
ンポーズ表示する。横位置で構えた場合は右測距点を第
一の指標として使用し、縦位置に構えた場合は常に上に
なる測距点を第一の指標として使用する。
When the switch SW-1 is turned off,
Superimpose the calibration index in the viewfinder. The right focus detection point is used as the first index when held in the horizontal position, and the focus detection point that is always above when used in the vertical position is used as the first index.

【0042】その為、姿勢がグリップ下位置の縦位置で
あるか判定し(ステップ#8)、そうならLED−L2
を点滅させることにより左端の測距マークFP−L2を
表示する(ステップ#10)。それ以外のカメラ姿勢な
らLED−R2を点滅させ、右端の測距マークFP−R
2を表示する。この状態でスイッチSW−1がONされ
るのを待つ(ステップ#11)。スイッチSW−1がO
FFの間、ステップ#3〜#11を繰り返す。
Therefore, it is determined whether the posture is the vertical position below the grip (step # 8), and if so, LED-L2
The distance measuring mark FP-L2 at the left end is displayed by blinking (step # 10). If the camera is in any other position, the LED-R2 blinks and the distance measuring mark FP-R at the right end is displayed.
Display 2. In this state, it waits until the switch SW-1 is turned on (step # 11). Switch SW-1 is O
During FF, steps # 3 to # 11 are repeated.

【0043】この間に電子ダイアルSW-DIAL1を回転させ
ると、図4に示す様に、キャリブレーション番号の表示
が変化する。例えばキャリブレーション番号2の横位置
だけのデータがあり、キャリブレーション番号1,3に
はデータがない場合の例で、CAL−1,CAL−3の
番号部分の点滅表示になっている。
If the electronic dial SW-DIAL1 is rotated during this time, the display of the calibration number changes as shown in FIG. For example, in the case where there is data only for the horizontal position of the calibration number 2 and there is no data for the calibration numbers 1 and 3, the numbers of CAL-1 and CAL-3 are displayed in blinking.

【0044】図5はキャリブレーション番号2で横位置
データのみが入力されている場合の各姿勢での表示例で
あり、図5(a−1)〜(a−3)は、横位置で、キャ
リブレーションデータが有るので番号部分は点灯表示、
スーパーインポーズ照明はLED−R2を点灯させ、、
測距マークFP−R2を表示する。図5(b−1)〜
(b−3)は、グリップが下の縦位置で、キャリブレー
ションデータが無いので番号部分は点滅している。スー
パーインポーズ照明は、この位置で上になる測距点の表
示、即ちLED−L2を点滅させ、測距マークFP−L
2を表示する。図5(c−1)〜(c−3)は、グリッ
プが上の縦位置では、キャリブレーションデータが無い
ので番号部分は点滅させ、上になる測距マークFP−R
2をLED−R2を点滅させ表示する。
FIG. 5 is a display example in each posture when only the horizontal position data is input with the calibration number 2. FIGS. 5A-1 to 5A-3 show the horizontal position in the horizontal position. Since there is calibration data, the number part lights up,
Superimpose lighting turns on LED-R2,
The distance measurement mark FP-R2 is displayed. FIG. 5 (b-1)-
In (b-3), the grip is in the lower vertical position and there is no calibration data, so the number part is blinking. In the superimposing illumination, the display of the distance measuring point at the top at this position, that is, the LED-L2 blinks and the distance measuring mark FP-L is displayed.
Display 2. 5C-1 to 5C-3, when the grip is in the vertical position, since there is no calibration data, the number part is made to blink, and the distance measuring mark FP-R at the top is displayed.
2 is displayed by blinking LED-R2.

【0045】図6はキャリブレーション番号2のグリッ
プ上の縦位置におけるキャリブレーションデータ入力動
作の途中表示を示しており、ステップ#11では図6
(a−1)のような表示になる。
FIG. 6 shows an intermediate display of the calibration data input operation at the vertical position on the grip of calibration number 2, and in step # 11, FIG.
The display is as shown in (a-1).

【0046】スイッチSW−1がONされると、ステッ
プ#9又は#10で点滅表示にしていたLEDを点灯表
示にし(ステップ#12)、キャリブレーションデータ
を取得する為に視線演算ルーチンをコールする(ステッ
プ#13)。そして、視線演算が終了するとLEDを消
灯させ(ステップ#14)、視線演算が失敗したか判定
する(ステップ#15)。成功なら「ピッピッ」という
ブザーで成功したことを知らせる(ステップ#16)。
When the switch SW-1 is turned on, the LED which was blinking in step # 9 or # 10 is turned on (step # 12), and the line-of-sight calculation routine is called to acquire the calibration data. (Step # 13). When the line-of-sight calculation is completed, the LED is turned off (step # 14), and it is determined whether the line-of-sight calculation has failed (step # 15). If it is successful, the buzzer "beep" notifies the success (step # 16).

【0047】次に、スイッチSW−1がOFFするのを
待ち(ステップ#17)、OFFになったら、第2の指
標を点滅させる。グリップ下の縦位置の場合点滅させる
LEDが異なるのでそれを判断し(ステップ#18)、
グリップ下の縦位置ならLED−R2を点滅させ、測距
マークFP−R2を表示する(ステップ#19)。それ
以外ならLED−L2を点滅させ、測距マークFP−L
2を表示する(ステップ#20)。これで、縦位置なら
下の測距点が、横位置なら左の測距点が点滅表示され
る。この時の表示(キャリブレーション番号2,グリッ
プ上の縦位置の場合)は図6(b−1),(b−2)の
ようになる。
Next, it waits until the switch SW-1 is turned off (step # 17), and when it is turned off, the second index is blinked. In the vertical position under the grip, the blinking LED is different, so judge that (step # 18),
If it is in the vertical position under the grip, the LED-R2 is made to blink and the distance measuring mark FP-R2 is displayed (step # 19). Otherwise, LED-L2 blinks and distance measurement mark FP-L
2 is displayed (step # 20). With this, the lower focus detection point in the vertical position and the left focus detection point in the horizontal position blink. The display at this time (calibration number 2, vertical position on the grip) is as shown in FIGS. 6 (b-1) and 6 (b-2).

【0048】ここでスイッチSW−1が再びONされる
のを待ち(ステップ#21)、ONされたらLEDを点
滅から点灯に変え(ステップ#22)、キャリブレーシ
ョンの視線検出を行う(ステップ#23)。視線演算が
終了したらLEDを消灯させ(ステップ#24)、視線
検出失敗かどうか判定する(ステップ#25)。成功な
ら「ピピッ」というブザー音で知らせ(ステップ#2
6)、取得したデータをカメラ姿勢とキャリブレーショ
ン番号に対応させてCPU100内のEEPROM10
0aに記憶する(ステップ#27)。そして、キャリブ
レーションが終了したことを図6(c−1),(c−
2)の様に表示し(ステップ#28)、スイッチSW−
1がOFFされるのを待つ(ステップ#29)。そし
て、OFFされたらリターンする(ステップ#32)。
Here, waiting for the switch SW-1 to be turned on again (step # 21), when it is turned on, the LED is changed from blinking to lighting (step # 22), and the sight line of the calibration is detected (step # 23). ). When the line-of-sight calculation is completed, the LED is turned off (step # 24), and it is determined whether the line-of-sight detection has failed (step # 25). If successful, notify by buzzing sound (step # 2)
6) Corresponding the acquired data to the camera orientation and the calibration number, the EEPROM 10 in the CPU 100
0a (step # 27). Then, the completion of the calibration is shown in FIGS. 6 (c-1) and 6 (c-
Display as shown in 2) (step # 28), switch SW-
Wait for 1 to be turned off (step # 29). When it is turned off, the process returns (step # 32).

【0049】最後にステップ#13またはステップ#2
3で視線演算が失敗した場合について説明する。
Finally, step # 13 or step # 2
A case where the line-of-sight calculation fails in 3 will be described.

【0050】このステップ#13及びステップ#23で
は、複数回視線検出動作を行ってデータを求めている
が、所定数のデータが得られなかったり、得られたデー
タの分散が大きい場合は、視線演算が失敗したと判定す
る。
In steps # 13 and # 23, the line-of-sight detection operation is performed a plurality of times to obtain the data. However, if the predetermined number of data cannot be obtained or the obtained data has a large variance, the line-of-sight is determined. It is determined that the calculation has failed.

【0051】この場合、ステップ#15又はステップ#
25からステップ#30へ分岐する。ここで失敗表示を
行う。「CAL」の表示と番号の両方を点滅し、ブザー
を連続で「ピピピピピピピピピピピピピ・・・・・・
・」と鳴らすことで失敗を認識させる。そして、スイッ
チSW−1がON及びOFFするのを待ち(ステップ#
31,#29)、リターンする(ステップ#32)。
In this case, step # 15 or step # 15
It branches from 25 to step # 30. A failure display is displayed here. Both the "CAL" display and the number will blink, and the buzzer will be displayed continuously.
・ Make the mistake recognized by sounding "." Then, it waits for the switch SW-1 to turn on and off (step #
31, # 29) and returns (step # 32).

【0052】リターンした後も引き続きカメラのモード
ダイアルがキャリブレーションモードになっていれば、
ステップ#1からプログラムを実行する。
After returning, if the mode dial of the camera is still in the calibration mode,
Run the program from step # 1.

【0053】以上説明した様に、この構成によりどの姿
勢で姿勢別の個人差データが入力されているかが分か
り、更に構えた姿勢でその姿勢における個人差補正デー
の有無が表示されるので、大変分かり易い。また、こ
の方法で表示を行えば、表示セグメントを増やすことな
く縦位置での状態表示ができる。
As described above, with this configuration, it is possible to know in which posture the individual difference data for each posture is input, and the presence or absence of the individual difference correction data in that posture is displayed. Easy to understand. Further, if the display is performed by this method, the state display in the vertical position can be performed without increasing the display segment.

【0054】次に、個人差補正データの消去について簡
単に説明しておく。
Next, erasure of individual difference correction data will be briefly described.

【0055】カメラのモードがキャリブレーションモー
ドの時にキャリブレーションデータ消去スイッチSW-CAL
DEL をONする事により、姿勢別の個人差補正データの
消去を行うことができる。該スイッチSW-CALDEL をON
すると、信号入力回路104はCPU100に割り込み
信号を発生させ、CPU100は割り込みサブルーチン
「データ消去」を実行する。これについて、図7のフロ
ーチャートを用いて説明する。
Calibration data erasing switch SW-CAL when the camera mode is the calibration mode
By turning on DEL, the individual difference correction data for each posture can be erased. Turn on the switch SW-CALDEL
Then, the signal input circuit 104 causes the CPU 100 to generate an interrupt signal, and the CPU 100 executes the interrupt subroutine “data erase”. This will be described with reference to the flowchart of FIG.

【0056】割り込みによりステップ#40へプログラ
ムの制御が移る。そして、まず姿勢検知を行い(ステッ
プ#41)、次に姿勢がグリップ下の縦位置で有るかを
判定し(ステップ#42)、そうならグリップ下の個人
差補正データの消去を行う(ステップ#43)。データ
消去後は、割り込み処理後のキャリブレーションデータ
入力用に指標の表示を行う。グリップ下の縦位置の第1
の指標は、FP−L2なのでLED−L2を点滅させる
(ステップ#44)。次に、消去してキャリブレーショ
ンデータが無いことを示すため、キャリブレーション番
号を点滅させる(ステップ#49)。最後に割り込みサ
ブルーチンをリターンする(ステップ#50)。
The control of the program is transferred to step # 40 by the interruption. Then, the posture is first detected (step # 41), then it is determined whether the posture is the vertical position under the grip (step # 42), and if so, the individual difference correction data under the grip is erased (step # 41). 43). After the data is erased, the index is displayed for inputting the calibration data after the interrupt processing. First vertical position under the grip
Since the index of FP-L2 is FP-L2, LED-L2 is caused to blink (step # 44). Next, the calibration number is flashed to erase and indicate that there is no calibration data (step # 49). Finally, the interrupt subroutine is returned (step # 50).

【0057】次に、その他のカメラ姿勢(グリップが下
側の縦位置以外の姿勢)について説明する。
Next, other camera postures (postures other than the vertical position where the grip is on the lower side) will be described.

【0058】ステップ#42から#45へ分岐し、グリ
ップ上の縦位置であるかを判定する(ステップ#4
5)。またグリップ上の縦位置の個人差補正データの消
去を行う(ステップ#46)。カメラ姿勢が縦位置で無
いなら横位置の個人差補正データを消去する(ステップ
#47)。データを消去すると、第1の指標を点滅させ
る。この場合、第1の指標はFP−R2なのでLED−
R2を点滅させる(ステップ#48)。次にデータ消去
を示すため、キャリブレーション番号の点滅表示を行う
(ステップ#49)。最後に割り込みサブルーチンをリ
ターンする(ステップ#50)。割り込み処理でキャリ
ブレーションデータを消去した後は、割り込みが発生し
たステップにリターンするのではなく、図3のステップ
#2に移行する。
The process branches from step # 42 to # 45, and it is determined whether or not it is the vertical position on the grip (step # 4).
5). Also, the individual difference correction data at the vertical position on the grip is erased (step # 46). If the camera is not in the vertical position, the individual difference correction data in the horizontal position is deleted (step # 47). When the data is erased, the first index blinks. In this case, since the first index is FP-R2, LED-
Blink R2 (step # 48). Next, a blinking display of the calibration number is performed to indicate data erasing (step # 49). Finally, the interrupt subroutine is returned (step # 50). After the calibration data is erased by the interrupt process, the process does not return to the step where the interrupt occurs, but moves to step # 2 in FIG.

【0059】このように、消去したい姿勢で消去スイッ
チを操作することにより、大変分かり易い。例えば、グ
リップ上の縦位置データを消去したい場合はカメラをグ
リップを上にして縦位置に構え、消去スイッチを操作す
れば良い。
In this way, it is very easy to understand by operating the erasing switch in the posture to be erased. For example, when it is desired to erase the vertical position data on the grip, the camera may be held in the vertical position with the grip up and the erase switch may be operated.

【0060】(実施の第2の形態)上記の実施の第1の
形態では、個人差補正データが記憶されていないカメラ
姿勢にすると、その時に表示される例を示した。しか
し、どの姿勢においても全ての姿勢で個人差補正データ
の有無を表示するようにしても良い。
(Second Embodiment) In the above-described first embodiment, when the camera posture is such that the individual difference correction data is not stored, it is displayed at that time. However, the presence / absence of individual difference correction data may be displayed in all postures in any posture.

【0061】図8はその表示例を示す図であり、図8
(a)は全部のカメラ姿勢で個人差補正データが有る
(H,V)ことを表し、図8(b)は横位置のデータの
み有る(H)場合、図8(c)は縦位置のデータのみが
有る(V)場合の表示である。
FIG. 8 is a diagram showing an example of the display.
8A shows that there are individual difference correction data (H, V) in all camera postures, FIG. 8B shows only horizontal position data (H), and FIG. 8C shows vertical position data. This is a display when there is only data (V).

【0062】この例では、縦位置のグリップ上とグリッ
プ下の区別を付けていないが、表示セグメントを増やし
て分かるようにしても良い。このように専用セグメント
を設ける場合、キャリブレーションモードだけでなく、
通常の撮影モードでも視線検出を使う場合は常に表示す
ることができる。
In this example, no distinction is made between the upper grip and the lower grip in the vertical position, but it is also possible to increase the number of display segments so that the grip can be recognized. When providing a dedicated segment like this, not only in the calibration mode,
Even in the normal shooting mode, the line of sight can always be displayed when the line of sight detection is used.

【0063】図9は別の表示例を示す図であり、この例
では姿勢表示の為の特別なセグメントを追加せずに、露
出補正用のセグメントを使ってデータのある姿勢を表示
している。
FIG. 9 is a diagram showing another display example. In this example, a posture with data is displayed using a segment for exposure correction without adding a special segment for posture display. .

【0064】図9(a)は全ての姿勢で個人差補正デー
タがある場合である。図9(b)は横位置のデータのみ
がある場合で、3つのセグメントが点灯する表示と、横
位置を表す真ん中のセグメントだけの表示を交互に繰り
返す。このようにすると縦位置を表す両端のセグメント
が点滅してデータが無いことが分かる。図9(c)はグ
リップ下の縦位置データのみが有る場合の表示例であ
る。
FIG. 9A shows the case where there are individual difference correction data in all postures. FIG. 9B shows the case where only the horizontal position data is present, and the display in which the three segments are lit and the display of only the middle segment representing the horizontal position are alternately repeated. In this way, the segments at both ends representing the vertical position blink and it can be seen that there is no data. FIG. 9C is a display example when there is only vertical position data under the grip.

【0065】(実施の第3の形態)図10は本発明の実
施の第3の形態に係る視線検出装置の主要部分の動作
(図7に対応するデータの消去時の動作)を示すフロー
チャートである。尚、該装置の電気的構成は図1と同様
であるので、その説明は省略する。
(Third Embodiment) FIG. 10 is a flow chart showing the operation of the main part of the line-of-sight detection apparatus according to the third embodiment of the present invention (operation at the time of erasing data corresponding to FIG. 7). is there. Since the electrical configuration of the device is the same as that of FIG. 1, its description is omitted.

【0066】この例では、全てのカメラ姿勢でそれぞれ
別個にデータを消去するのではなく、特定の姿勢で消去
すると全てのデータが消去できるようにしたものであ
る。即ち、縦位置のデータは個別に消去できるように
し、横位置のデータを消去する時には全てのデータが消
去できるようにしている。
In this example, instead of erasing the data separately for all camera postures, all data can be erased by erasing at a specific posture. That is, the vertical data can be erased individually, and all the data can be erased when the horizontal data is erased.

【0067】カメラのモードがキャリブレーションモー
ドの時にキャリブレーションデータ消去スイッチSW-CAL
DEL をONする事により、姿勢別の個人差補正データの
消去を行うことができる。該スイッチSW-CALDEL をON
すると、信号入力回路104はCPU100に割り込み
信号を発生させ、CPU100は割り込みサブルーチン
「データ消去」を実行する。これについて、図10のフ
ローチャートを用いて説明する。
Calibration data erase switch SW-CAL when the camera mode is the calibration mode
By turning on DEL, the individual difference correction data for each posture can be erased. Turn on the switch SW-CALDEL
Then, the signal input circuit 104 causes the CPU 100 to generate an interrupt signal, and the CPU 100 executes the interrupt subroutine “data erase”. This will be described with reference to the flowchart of FIG.

【0068】割り込みによりステップ#40へプログラ
ムの制御が移る。そして、まず姿勢検知を行い(ステッ
プ#41)、次に姿勢がグリップ下の縦位置で有るかを
判定し(ステップ#42)、そうならグリップ下の個人
差補正データの消去を行う(ステップ#43)。データ
消去後は、割り込み処理後のキャリブレーションデータ
入力用に指標の表示を行う。グリップ下の縦位置の第1
の指標は、FP−L2なのでLED−L2を点滅させる
(ステップ#44)。次に、消去してキャリブレーショ
ンデータが無いことを示すため、キャリブレーション番
号を点滅させる(ステップ#49)。最後に割り込みサ
ブルーチンをリターンする(ステップ#50)。割り込
み処理でキャリブレーションデータを消去した後は、割
り込みが発生したステップにリターンするのではなく、
図3のステップ#2に移行する。
The control of the program is transferred to step # 40 by the interruption. Then, the posture is first detected (step # 41), then it is determined whether the posture is the vertical position under the grip (step # 42), and if so, the individual difference correction data under the grip is erased (step # 41). 43). After the data is erased, the index is displayed for inputting the calibration data after the interrupt processing. First vertical position under the grip
Since the index of FP-L2 is FP-L2, LED-L2 is caused to blink (step # 44). Next, the calibration number is flashed to erase and indicate that there is no calibration data (step # 49). Finally, the interrupt subroutine is returned (step # 50). After erasing the calibration data in the interrupt process, instead of returning to the step where the interrupt occurred,
The procedure moves to step # 2 in FIG.

【0069】次に、その他のカメラ姿勢について説明す
る。
Next, other camera postures will be described.

【0070】ステップ#42から#45へ分岐し、グリ
ップ上の縦位置であるかを判定する(ステップ#4
5)。またグリップ上の縦位置の個人差補正データの消
去を行う(ステップ#46)。カメラ姿勢が縦位置で無
いなら全ての姿勢での個人差補正データを消去する(ス
テップ#47’)。データを消去すると、第1の指標を
点滅させる。この場合、第1の指標はFP−R2なので
LED−R2を点滅させる(ステップ#48)。次にデ
ータ消去を示すため、キャリブレーション番号の点滅表
示を行う(ステップ#49)。最後に割り込みサブルー
チンをリターンする(ステップ#50)。
The process branches from step # 42 to step # 45, and it is determined whether or not it is the vertical position on the grip (step # 4).
5). Also, the individual difference correction data at the vertical position on the grip is erased (step # 46). If the camera posture is not the vertical position, the individual difference correction data in all postures are deleted (step # 47 '). When the data is erased, the first index blinks. In this case, since the first index is FP-R2, LED-R2 is blinked (step # 48). Next, a blinking display of the calibration number is performed to indicate data erasing (step # 49). Finally, the interrupt subroutine is returned (step # 50).

【0071】このようにしたのは、例えば、別の人が同
じカメラを使用する場合には以前のデータを全て消去し
て全く新しくデータを入れ直す必要がある。横位置でデ
ータを消去すれば全てのデータを消去できるようにした
ので、縦位置のデータの消し忘れを防ぐことができる。
さらに、横位置のデータを入力した後に縦のデータだけ
を入れ直すことも可能である。
This is done, for example, when another person uses the same camera, it is necessary to erase all the previous data and replace it with new data. All data can be erased by erasing the data in the horizontal position, so it is possible to prevent forgetting to erase the data in the vertical position.
Further, it is also possible to input only the horizontal data and then reinsert only the vertical data.

【0072】さらに、横位置でデータを消去する場合、
横位置のみのデータを消去するか、全データを消去する
のかを選択できるようにしても良い。また、全てのデー
タを消去するのは横位置に限定をする必要はなく、他の
姿勢でも良い。
Further, when erasing data at the horizontal position,
It may be possible to select whether to erase only the data in the horizontal position or all the data. Further, it is not necessary to limit all data to the lateral position, and other postures may be used.

【0073】これまで説明した実施の形態では、消去し
たいカメラ姿勢にしないと消去できなかったが、消去す
るデータを選択し、消去できるようにしても良い。
In the above-described embodiments, the data cannot be erased unless the camera attitude to be erased is set, but the data to be erased may be selected and erased.

【0074】(発明と実施の形態の対応)上記の実施の
各対応において、姿勢検知回路102が本発明の姿勢検
知手段に相当し、EEPROM100aが本発明の個人
差補正データ記憶手段に相当し、LCD駆動回路10
5,モニタ用LCD42,ファインダ内LCD24,L
ED駆動回路106,LED21が本発明の表示手段に
相当し、CPU100内の図3におけるステップ#3〜
#6の動作を実行する部分が本発明の表示データ制御手
段に相当する。
(Correspondence between Invention and Embodiment) In each of the above-mentioned correspondences, the posture detection circuit 102 corresponds to the posture detection means of the present invention, and the EEPROM 100a corresponds to the individual difference correction data storage means of the present invention. LCD drive circuit 10
5, monitor LCD 42, viewfinder LCD 24, L
The ED drive circuit 106 and the LED 21 correspond to the display means of the present invention, and the steps # 3 to # 3 in FIG.
The part that executes the operation of # 6 corresponds to the display data control means of the present invention.

【0075】また、消去スイッチSW-CALDEL,CPU1
00内の図10の動作を実行する部分が本発明の個人差
補正データ消去手段に相当し、CPU100内の図3の
動作を実行する部分及び電子ダイヤルSW-DIAL1,スイッ
チSW−1が本発明の個人差補正データ入力手段に相当
する。
Further, the erase switch SW-CALDEL, CPU1
Portions for performing the operations of FIG. 10 in 00 is equivalent to a personal difference correction data erasing means of the present invention, parts and electronic dial SW-DIAL1 performing the operations of Figure 3 in CPU 100, the switch SW-1 is the invention It corresponds to the individual difference correction data input means.

【0076】以上が実施の各形態における各構成と本発
明の各構成の対応関係であるが、本発明は、これら実施
の形態の構成に限定されるものではなく、請求項で示し
た機能、又は実施の形態がもつ機能が達成できる構成で
あればどのようなものであってもよいことは言うまでも
ない。
The above is the correspondence relationship between each configuration in each embodiment and each configuration of the present invention, but the present invention is not limited to the configurations of these embodiments, and the functions shown in the claims, It goes without saying that any structure may be used as long as the functions of the embodiments can be achieved.

【0077】(変形例)本発明は、一眼レフカメラ,レ
ンズシャッタカメラ,ビデオカメラ等のカメラに適用し
た場合を述べているが、その他の光学機器や他の装置、
更には構成ユニットとしても適用することができるもの
である。
(Modification) The present invention is described as applied to a camera such as a single-lens reflex camera, a lens shutter camera, a video camera, etc. However, other optical devices and other devices,
Furthermore, it can be applied as a constituent unit.

【0078】[0078]

【発明の効果】 以上説明したように、本発明によれ
ば、個人差データ記憶手段に記憶された姿勢別の個人差
データの有無を、姿勢検知手段で検知された姿勢に応じ
て、表示手段に表示させるようにしている。
As described above, according to the present invention
For example, the presence / absence of individual difference data for each posture stored in the individual difference data storage means is determined according to the posture detected by the posture detection means.
The display means is adapted to display it .

【0079】[0079]

【0080】[0080]

【0081】よって、姿勢別の特別な表示手段を設ける
こと無く、各姿勢それぞれの個人差補正データの有無を
知らせることができ、しかも実際に該装置を構えた姿勢
における個人差補正データの有無を知らせることが可能
となる。
Therefore, the presence / absence of the individual difference correction data for each posture can be notified without providing a special display means for each posture, and the presence / absence of the individual difference correction data in the posture in which the apparatus is actually held can be displayed. It becomes possible to inform.

【0082】また、本発明によれば、視線検出装置の姿
勢を検知する姿勢検知手段と、個人差データを姿勢別に
記憶する個人差データ記憶手段と、個人差データの入力
を姿勢別に行う個人差補正データ入力手段と、前記姿勢
検知手段で検知された姿勢が所定の姿勢の時に個人差デ
ータ全てを消去する個人差データ消去手段とを設け、該
装置の姿勢別に記憶された個人差データを、所定の姿勢
においては全てを消去するようにしている。
Further, according to the present invention, the appearance of the visual axis detection device
Attitude detecting means for detecting the force, individual difference data storage means for storing individual difference data for each attitude, individual difference correction data input means for inputting individual difference data for each attitude , and said attitude
When the posture detected by the detecting means is a predetermined posture,
An individual difference data erasing unit for erasing all data is provided , and all the individual difference data stored for each posture of the apparatus is erased in a predetermined posture.

【0083】よって、所定の姿勢の時は全ての個人差補
正データを同時に消去する事で消去し忘れによる視線検
出の誤動作を防止することが可能となる。
Therefore, by erasing all the individual difference correction data at the same time in the predetermined posture, it is possible to prevent the malfunction of the line-of-sight detection due to the forgetting to erase.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の各形態に係るカメラに内蔵され
た電気回路の要部ブロック図である。
FIG. 1 is a block diagram of a main part of an electric circuit built in a camera according to each embodiment of the present invention.

【図2】図1のカメラの操作部材,視線検出用光源,フ
ァインダ内の表示について説明する為の図である。
FIG. 2 is a diagram for explaining an operation member of the camera of FIG. 1, a light source for detecting a line of sight, and a display in a finder.

【図3】図1のカメラにおいてキャリブレーション動作
を示すフローチャートである。
3 is a flowchart showing a calibration operation in the camera of FIG.

【図4】図1のカメラにおいてキャリブレーション番号
を変更する場合の表示例を示す図である。
FIG. 4 is a diagram showing a display example when a calibration number is changed in the camera of FIG.

【図5】図1のカメラにおいて該カメラの姿勢とキャリ
ブレーション番号表示とファインダ内表示の関係を示す
図である。
5 is a diagram showing a relationship among a posture of the camera, a calibration number display, and an in-viewfinder display in the camera of FIG.

【図6】図1のカメラにおいて該カメラのグリップ上の
縦位置でのキャリブレーション動作中の表示を説明する
為の図である。
6A and 6B are views for explaining a display during a calibration operation in a vertical position on a grip of the camera of FIG.

【図7】図1のカメラにおいてキャリブレーションデー
タの消去時の動作を示すフローチャートである。
7 is a flowchart showing an operation when erasing calibration data in the camera of FIG.

【図8】本発明の実施の第2の形態に係るカメラにおい
て個人差補正データの有無の表示の一例を示す図であ
る。
FIG. 8 is a diagram showing an example of display of presence / absence of individual difference correction data in a camera according to a second embodiment of the present invention.

【図9】本発明の実施の第2の形態に係るカメラにおい
て個人差補正データの有無の表示の他の例を示す図であ
る。
FIG. 9 is a diagram showing another example of display of presence / absence of individual difference correction data in the camera of the second embodiment of the present invention.

【図10】本発明の実施の第3の形態に係るカメラにお
いてキャリブレーションデータの消去時の動作を示すフ
ローチャートである。
FIG. 10 is a flowchart showing an operation when erasing calibration data in the camera of the third embodiment of the present invention.

【図11】視線検出原理を説明する為の図である。FIG. 11 is a diagram for explaining the gaze detection principle.

【図12】カメラを横位置に構えた場合の座標系を示す
斜視図である。
FIG. 12 is a perspective view showing a coordinate system when the camera is held in a horizontal position.

【図13】カメラの各姿勢におけるカメラ座標系と人間
座標系の関係を示す図である。
FIG. 13 is a diagram showing a relationship between a camera coordinate system and a human coordinate system in each posture of the camera.

【符号の説明】[Explanation of symbols]

14 イメージセンサ 21 LED 24 ファインダ内LCD 42 モニタ用LCD 100 マイクロコンピュータの中央処理装置(C
PU) 100a EEPROM 101 視線検出回路 102 姿勢検知回路 104 信号入力回路 105 LCD駆動回路 106 LED駆動回路 107 IRED駆動回路 SW-CALDEL 消去スイッチ SW-DIAL1 電子ダイヤル SW−1 レリーズ釦の第1ストロークでONするス
イッチ
14 image sensor 21 LED 24 LCD in viewfinder 42 LCD for monitor 100 Central processing unit of microcomputer (C
PU) 100a EEPROM 101 Line-of-sight detection circuit 102 Posture detection circuit 104 Signal input circuit 105 LCD drive circuit 106 LED drive circuit 107 IRED drive circuit SW-CALDEL Erase switch SW-DIAL1 Electronic dial SW-1 Turns ON with the first stroke of the release button switch

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) A61B 3/00 - 3/16 G02B 7/28 - 7/40 G03B 13/32 - 13/36 ─────────────────────────────────────────────────── ─── Continuation of front page (58) Fields surveyed (Int.Cl. 7 , DB name) A61B 3/00-3/16 G02B 7/ 28-7/40 G03B 13/32-13/36

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 観察者の視線位置を観察者の個人差デー
タを使って求める視線検出装置において、該装置の姿勢
を検知する姿勢検知手段と、個人差データを姿勢別に記
憶する個人差データ記憶手段と、個人差データの有無を
表示する表示手段と、前記個人差データ記憶手段に記憶
された姿勢別の個人差データの有無を、前記姿勢検知手
段で検知された姿勢に応じて、前記表示手段に表示させ
る表示データ制御手段とを設けたことを特徴とする視線
検出装置。
1. A observer's gaze detecting device for determining using the individual difference data of the observer gaze position of orientation of the device
The attitude detection means for detecting
The individual difference data storage means to remember and the presence or absence of individual difference data
Display means for displaying and storage in the individual difference data storage means
The presence or absence of the individual difference data for each posture,
According to the posture detected by the step, display on the display means.
Visual axis detecting apparatus is characterized by providing a display data control unit that.
【請求項2】 観察者の視線位置を観察者の個人差デー
タを使って求める視線検出装置において、該装置の姿勢
を検知する姿勢検知手段と、個人差データを姿勢別に記
憶する個人差データ記憶手段と、個人差データの入力を
姿勢別に行う個人差補正データ入力手段と、前記姿勢検
知手段で検知された姿勢が所定の姿勢の時に個人差デー
タ全てを消去する個人差データ消去手段とを設けたこと
を特徴とする視線検出装置。
2. An eye-gaze detecting device for determining the eye-gaze position of an observer by using the individual difference data of the observer, and an attitude detecting means for detecting an attitude of the device, and an individual difference data storage for storing individual difference data for each attitude. Means and input of individual difference data
An individual difference correction data input means for each posture and the posture detection
When the posture detected by the intelligence means is the predetermined posture,
And a line-of-sight detection device for erasing all data .
【請求項3】 前記個人差データ消去手段は、前記姿勢
検知手段で検知された姿勢が前記所定の姿勢以外の時
に、該姿勢に応じて、個人差データの消去を行う手段で
あることを特徴とする請求項2記載の視線検出装置。
3. The personal difference data erasing means is characterized in that the posture
When the posture detected by the detection means is other than the predetermined posture
In addition, according to the posture, by means of deleting individual difference data
The visual line detection device according to claim 2 , wherein the visual line detection device is provided.
JP21297195A 1995-07-31 1995-07-31 Eye gaze detection device Expired - Fee Related JP3530642B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP21297195A JP3530642B2 (en) 1995-07-31 1995-07-31 Eye gaze detection device
US08/972,357 US5887200A (en) 1995-07-31 1997-11-18 Line of sight detection device and apparatus having the line of sight detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21297195A JP3530642B2 (en) 1995-07-31 1995-07-31 Eye gaze detection device

Publications (2)

Publication Number Publication Date
JPH0943500A JPH0943500A (en) 1997-02-14
JP3530642B2 true JP3530642B2 (en) 2004-05-24

Family

ID=16631338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21297195A Expired - Fee Related JP3530642B2 (en) 1995-07-31 1995-07-31 Eye gaze detection device

Country Status (1)

Country Link
JP (1) JP3530642B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5930683B2 (en) * 2011-12-01 2016-06-08 キヤノン株式会社 Imaging apparatus, control method thereof, and program

Also Published As

Publication number Publication date
JPH0943500A (en) 1997-02-14

Similar Documents

Publication Publication Date Title
US5797046A (en) Visual axis controllable optical apparatus including a visual axis detecting device for detecting a visual axis
US5634141A (en) Visual axis detection device capable of reducing detection errors due to variations of eyes among individuals
US6507702B2 (en) Device having sight line detecting function
JPH08563A (en) Optical device and camera
JP3530642B2 (en) Eye gaze detection device
JP2872292B2 (en) Equipment having line-of-sight detection means
JP2004008323A (en) Optical device with visual axis function
JP3304408B2 (en) Gaze detection device and device having gaze detection device
US5717959A (en) Apparatus for detecting a sight axis
JP3437343B2 (en) Eye gaze detection device
JP3605080B2 (en) Eye gaze detection device
JP3184634B2 (en) Optical device having line-of-sight detection device
JP3219491B2 (en) Eye gaze detection device
JP3624030B2 (en) Gaze detection device and optical device
JP3391892B2 (en) Eye gaze detecting device, optical device, and eye gaze detecting method
JPH0634873A (en) Optical device provided with device for detecting line of sight
JP3332581B2 (en) An optical device, a camera, a line-of-sight detection device, a line-of-sight detection method, and a relative position determination method between an eyepiece and an eyeball position.
JP4136070B2 (en) camera
JP3372646B2 (en) Optical device having line-of-sight detection device
JP2003339642A (en) Visual line detector and optical apparatus having the same
JPH05191686A (en) Video camera
JP3605081B2 (en) Eye gaze detection device
JP3186249B2 (en) Eye gaze detection device and eye gaze detection method
JP3211427B2 (en) Eye gaze detection device
JP2995878B2 (en) Optical device having line-of-sight detection device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20031226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040301

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080305

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090305

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100305

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100305

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110305

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees