JP2003339642A - Visual line detector and optical apparatus having the same - Google Patents

Visual line detector and optical apparatus having the same

Info

Publication number
JP2003339642A
JP2003339642A JP2002159793A JP2002159793A JP2003339642A JP 2003339642 A JP2003339642 A JP 2003339642A JP 2002159793 A JP2002159793 A JP 2002159793A JP 2002159793 A JP2002159793 A JP 2002159793A JP 2003339642 A JP2003339642 A JP 2003339642A
Authority
JP
Japan
Prior art keywords
line
eyeball
light
sight
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002159793A
Other languages
Japanese (ja)
Inventor
Yoshiaki Irie
良昭 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002159793A priority Critical patent/JP2003339642A/en
Publication of JP2003339642A publication Critical patent/JP2003339642A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To detect a visual line by preventing glass reflection light by eyeball illumination light from disturbing the eyeball image of a photographing person though the photographing person wears various glasses or looks into a finder system in various manners. <P>SOLUTION: This detector comprises: an illumination means for illuminating the eyeball of an observing person; a means for receiving the reflected light of the illuminated eyeball; and a means for detecting the line of sight from obtained eyeball information. The illumination means comprises a plurality of sets of light emitting elements for emitting light by a pair of the elements and has an illumination selection means for selecting an optimal pair of light emitting elements from the plurality of pairs of the light emitting elements of the illumination means from a positional relation of an eyeball position obtained from the eyeball information and the position of reflected light from glasses which the observing person wears. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、被写体を観察して
いる撮影者の視線を検出する視線検出装置を有する光学
装置に関するものであり、例えば光学機器のファインダ
視野を観察者が覗き、該観察者の視線情報を用いて該フ
ァインダ内に表示された光学装置の機能を表すシンボル
を視線情報で選択し機能を実行するといったものに好適
である。具体的にはカメラのファインダ視野内に表示さ
れた複数の焦点検出領域を撮影者の視線情報を利用して
選択し、焦点検出を行うことなどが挙げられる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an optical device having a line-of-sight detection device for detecting the line of sight of a photographer who is observing a subject, and for example, the observer looks into the finder field of an optical device and observes it. It is suitable for selecting a symbol representing the function of the optical device displayed in the finder using the line-of-sight information of the person and executing the function by selecting the symbol with the line-of-sight information. Specifically, the focus detection may be performed by selecting a plurality of focus detection areas displayed in the viewfinder field of the camera using the line-of-sight information of the photographer.

【0002】[0002]

【従来の技術】従来より撮影者(観察者)の視線方向を
検知し、撮影者がファインダ視野内のどの領域(位置)
を観察しているか、いわゆる撮影者の注視方向をカメラ
の一部に設けた視線検出手段で検知し、該視線検出手段
からの信号に基づいて自動焦点調節や自動露出等の各種
撮影機能を制御するようにしたカメラが種々提案されて
いる。
2. Description of the Related Art Conventionally, a photographer's (observer's) line-of-sight direction is detected to determine which region (position) the photographer's view field is within.
Or the so-called gaze direction of the photographer is detected by the line-of-sight detection means provided in a part of the camera, and various shooting functions such as automatic focus adjustment and automatic exposure are controlled based on the signal from the line-of-sight detection means. Various cameras designed to do so have been proposed.

【0003】例えば本出願人は、特開平1−24151
1号公報において、撮影者の注視方向を検出する視線検
出手段と複数個の測光感度分布を持つ自動露出制御手段
とを有し、このとき該視線検出手段からの出力信号に基
づいて焦点検出手段や自動露出制御手段の駆動を制御す
るようにしたカメラを提案している。
[0003] For example, the applicant of the present invention has filed Japanese Patent Application Laid-Open No. 1-24151
Japanese Patent No. 1 has a line-of-sight detection unit for detecting the gaze direction of the photographer and an automatic exposure control unit having a plurality of photometric sensitivity distributions, and at this time, a focus detection unit based on an output signal from the line-of-sight detection unit. And a camera adapted to control the drive of the automatic exposure control means.

【0004】また、実際に視線検出を行う上で、大きな
問題になるのが、撮影者が眼鏡を掛けている場合であ
る。
A major problem in actually detecting the line of sight is when the photographer wears glasses.

【0005】視線を検出するためには、撮影者の眼球に
対して発光素子で照明を行うわけであるが、この照明光
が撮影者の掛けている眼鏡の表面で反射して、カメラに
取り込まれた撮影者の眼球像上で本来視線検出に必要な
プルキンエ像と瞳孔の像に重なってしまい、結果的に視
線検出不能となる確率が非眼鏡装着者に対してかなり高
くなるという問題があった。
In order to detect the line of sight, a photographer's eyes are illuminated by a light emitting element. The illumination light is reflected by the surface of the glasses worn by the photographer and taken into the camera. There is a problem in that the Purkinje image and the image of the pupil, which are originally necessary for line-of-sight detection, overlap with each other on the photographed eyeball image of the photographer, and as a result the line-of-sight cannot be detected considerably for non-spectacle wearers. It was

【0006】これに対して特開平6−86758号公報
においては、ファインダー系を覗く撮影者が眼鏡を装着
しているか否かを検知する眼鏡検知手段からの信号に基
づいて、該撮影者の眼球を照明するための複数の発光素
子のうちの所定の発光素子を発光させることを特徴とす
る視線検出装置を提案している。
On the other hand, in Japanese Unexamined Patent Publication No. 6-86758, an eyeball of a photographer who looks into the finder system is detected based on a signal from a spectacle detecting means for detecting whether or not the photographer is wearing spectacles. There has been proposed a visual axis detection device characterized in that a predetermined light emitting element among a plurality of light emitting elements for illuminating the eye is emitted.

【0007】具体的には図11に示すように、カメラの
撮影者が撮影のためにファインダを覗く接眼レンズの下
方に、眼球照明用の発光素子13p、13q、13r、
13sを配置し、撮影者が眼鏡を掛けているか否かを撮
影者の眼球像情報中の前記発光素子光の眼鏡反射光から
検知を行い、撮影者が眼鏡を掛けていない場合には、両
者間の間隔の狭い、13p、13qの組の発光素子を、
撮影者が眼鏡を掛けている場合には、間隔の広い13
r、13sの組の発光素子を用いるようにしたものであ
る。
Specifically, as shown in FIG. 11, light emitting elements 13p, 13q, 13r for illuminating an eyeball are provided below an eyepiece lens through which a photographer of a camera looks into a finder for photographing.
13s is arranged to detect whether or not the photographer wears glasses from the eyeglass reflected light of the light emitting element light in the eyeball image information of the photographer, and when the photographer does not wear the glasses, A pair of light emitting elements of 13p and 13q with a narrow interval between
If the photographer wears glasses, the
The light emitting elements of the set of r and 13s are used.

【0008】図12(a)から図12(c)は、上記発
光素子位置の切替えの効果を示したものである。
12 (a) to 12 (c) show the effect of switching the position of the light emitting element.

【0009】通常、カメラの撮影者が眼鏡を掛けていな
い状態で、間隔の狭い発光素子13p、13qの照明を
行った場合の撮影者の眼球像を示したのが図12(a)
であり、撮影者の視線検出に必要な瞳孔と発光素子の角
膜反射像いわゆるプルキンエ像を明確に検出することが
可能である。
FIG. 12 (a) shows an eyeball image of the photographer who normally illuminates the light emitting elements 13p and 13q with a narrow interval while the photographer of the camera is not wearing glasses.
Therefore, it is possible to clearly detect the corneal reflection image of the pupil and the light emitting element, which is necessary for detecting the line of sight of the photographer, and the so-called Purkinje image.

【0010】これに対して、図12(b)は撮影者が眼
鏡を掛けている時に、同発光素子13p、13qの照明
にて得られた眼球像であり、撮影者の眼前にある眼鏡表
面で反射した発光素子の光が瞳孔とプルキンエ像と重な
ってしまい、撮影者の視線検出を不能あるいは誤作動さ
せてしまう状態を示している。
On the other hand, FIG. 12 (b) is an eyeball image obtained by illuminating the light emitting elements 13p and 13q when the photographer wears spectacles, and the spectacle surface in front of the photographer's eyes. 2 shows a state in which the light of the light emitting element reflected by is overlapped with the pupil and the Purkinje image, and the line of sight of the photographer cannot be detected or malfunctioned.

【0011】次に発光素子を間隔の広い13r、13s
に変更して眼球の照明を行った場合の眼球像を示したの
が図12(c)であり、発光素子間隔が広がったことに
より眼鏡反射光の発生位置が、発光素子の間隔が広がっ
た方向へ変化していることを示しており、この作用によ
って撮影者の眼球像は阻害されることなく、撮影者の視
線検出が可能となっている。
Next, the light emitting elements are arranged at wide intervals 13r and 13s.
FIG. 12C shows an eyeball image when the eyeballs are illuminated by changing to, and the position where the spectacle reflected light is generated is widened due to the widening of the light emitting element spacing. This indicates that the photographer's line of sight can be detected without hindering the eyeball image of the photographer by this action.

【0012】[0012]

【発明が解決しようとする課題】上記特開平6−867
58号公報に提案されているように眼鏡検知手段からの
信号に基づいて、撮影者が裸眼状態と検知された場合に
は、間隔の狭い1対の1組の発光素子を、撮影者が眼鏡
装着状態と検知された場合には、間隔の広い発光素子の
組を用いるという提案は眼鏡装着者がカメラのファイン
ダ光学系に対して正対したとき、眼鏡反射光の発生位置
を眼球像位置から遠ざける効果があり、非常に有効であ
った。
DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention JP-A-6-867
When the photographer detects a naked eye state based on the signal from the eyeglasses detecting means as proposed in Japanese Patent Laid-Open No. 58-58, the photographer uses a pair of light emitting elements with a narrow interval to wear the glasses. When the wearing state is detected, the suggestion to use a set of light emitting elements with a wide interval is that when the spectacle wearer directly faces the finder optical system of the camera, the generation position of the spectacle reflected light is changed from the eyeball image position. It had the effect of keeping it away, and it was very effective.

【0013】しかしながら、撮影者の眼鏡の種類(レン
ズ形状)、眼鏡の掛け方、あるいはファインダ系ののぞ
き方が人によって異なっているなどという不確定な原因
から、上記提案だけでは撮影者の眼球像と眼鏡反射光を
確実に分離することができなかった。
However, due to uncertain causes such as the type of spectacles (lens shape) of the photographer, how to wear the spectacles, and how to look into the finder system vary from person to person, the above-mentioned proposal alone is enough to obtain the eyeball image of the photographer. It was not possible to reliably separate the reflected light from the glasses.

【0014】そこで本発明の目的は、撮影者がいろんな
眼鏡を装着しても、あるいはファインダ系をいろんなの
ぞき方をしても、眼鏡反射光が撮影者の眼球像を妨げる
ことがなく、撮影者の視線を正確に検出可能とする視線
検出装置およびそれを有した光学機器を提供することに
ある。
Therefore, an object of the present invention is to prevent a photographer from wearing various spectacles or looking into the finder system without causing the reflected light of the spectacles to disturb the eyeball image of the photographer. An object of the present invention is to provide a line-of-sight detection device that can accurately detect the line-of-sight and an optical device including the same.

【0015】[0015]

【課題を解決するための手段】上記目的を解決するため
に、請求項1記載の本発明は、観察者の眼球近傍を照明
する照明手段と、該照明手段によって照明された眼球の
反射光を受光する受光手段と、該受光手段によって得ら
れた眼球像情報から観察者の視線位置を算出する視線検
出手段を有し、前記照明手段は、二個一組で前記観察者
の眼球を照明するための発光を行う発光素子複数組から
なり、前記撮影者の眼球像情報から得られる眼球像位置
と、撮影者の装着している眼鏡からの反射光位置との位
置関係から前記照明手段の複数の発光素子の組の中から
最適な発光素子の組を選択する照明選択手段を有するこ
とを特徴とする視線検出装置及びそれを有した光学機器
を提供することによって上記問題の解決を図るものであ
る。
In order to solve the above-mentioned problems, the present invention according to claim 1 provides an illumination means for illuminating the vicinity of an eyeball of an observer and a reflected light of the eyeball illuminated by the illumination means. It has a light receiving means for receiving light and a visual axis detecting means for calculating the visual axis position of the observer from the eyeball image information obtained by the light receiving means, and the illuminating means illuminates the eyeball of the observer in pairs. A plurality of light emitting elements for performing light emission for, the plurality of the illumination means from the positional relationship between the eyeball image position obtained from the eyeball image information of the photographer and the reflected light position from the glasses worn by the photographer. In order to solve the above problems, the present invention provides a line-of-sight detection device characterized by having an illumination selection means for selecting an optimum set of light-emitting elements from the set of light-emitting elements and an optical device having the same. is there.

【0016】[0016]

【発明の実施の形態】以下、本発明を図示の実施の形態
に基づいて詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will now be described in detail based on the illustrated embodiments.

【0017】図1は本発明を一眼レフカメラに適用した
ときの実施の第1の形態を示す要部構成図、図2
(A),(B)は図1の一眼レフカメラの上面及び背面
を示す図、図3は同じく図1の一眼レフカメラのファイ
ンダ内を示す図である。
FIG. 1 is a schematic diagram of a main part showing a first embodiment of the present invention when applied to a single-lens reflex camera, and FIG.
(A), (B) is a figure which shows the upper surface and back surface of the single lens reflex camera of FIG. 1, and FIG. 3 is a figure which shows the inside of the viewfinder of the single lens reflex camera of FIG.

【0018】これらの図において、1は撮影レンズで、
便宜上2枚のレンズで示したが、実際はさらに多数のレ
ンズから構成されている。2は主ミラーで、ファインダ
系による被写体像の観察状態と被写体像の撮影状態に応
じて撮影光路へ斜設され或は退去される。3はサブミラ
ーで、主ミラー2を透過した光束をカメラボディの下方
の後述する焦点検出装置6へ向けて反射する。
In these figures, 1 is a taking lens,
Although shown as two lenses for convenience, it is actually composed of a larger number of lenses. Reference numeral 2 denotes a main mirror, which is obliquely installed or retreated in the photographing optical path according to the observation state of the subject image by the finder system and the photographing state of the subject image. Reference numeral 3 denotes a sub-mirror, which reflects the light flux transmitted through the main mirror 2 toward a focus detection device 6 described below below the camera body.

【0019】4はシャッタ、5は感光部材で、銀塩フィ
ルム或はCCDやMOS型等の固体撮像素子、或は、ビ
ディコン等の撮像管より成っている。
A shutter 4 and a photosensitive member 5 are formed of a silver salt film, a solid-state image pickup device such as CCD or MOS type, or an image pickup tube such as a vidicon.

【0020】6は焦点検出装置であり、結像面近傍に配
置されたフィールドレンズ6a,反射ミラー6b及び6
c,二次結像レンズ6d,絞り6e,複数のCCDから
成るラインセンサ6f等から構成されている。
Reference numeral 6 denotes a focus detection device, which includes a field lens 6a and reflection mirrors 6b and 6 arranged near the image plane.
c, a secondary imaging lens 6d, a diaphragm 6e, a line sensor 6f including a plurality of CCDs, and the like.

【0021】本例における焦点検出装置6は、周知の位
相差方式にて焦点検出を行うものであり、図3に示すよ
うに、被写界内の複数の領域(焦点検出領域マーク70
〜74で示される5箇所)を焦点検出領域(焦点検出領
域)として、該焦点検出領域が焦点検出可能となるよう
に構成されている。
The focus detection device 6 in this example performs focus detection by a well-known phase difference method, and as shown in FIG. 3, a plurality of regions (focus detection region marks 70) in the object scene are detected.
5 to 74 are set as focus detection areas (focus detection areas), and the focus detection areas can be detected.

【0022】7は撮影レンズ1の予定結像面に配置され
たピント板、8はファインダ光路変更用のペンタプリズ
ムである。9,10は各々観察画面内の被写体輝度を測
定するための結像レンズと測光センサであり、結像レン
ズ9はペンタプリズム8内の反射光路を介してピント板
7と測光センサ10を共役に関係付けている。
Reference numeral 7 is a focusing plate arranged on the planned image forming surface of the taking lens 1, and 8 is a pentaprism for changing the finder optical path. Reference numerals 9 and 10 respectively denote an imaging lens and a photometric sensor for measuring the brightness of the subject within the observation screen, and the imaging lens 9 conjugates the focusing plate 7 and the photometric sensor 10 via the reflection optical path in the pentaprism 8. Have a relationship.

【0023】11は、ペンタプリズム8の射出後方に配
置される、光分割器11aを備えた接眼レンズ11であ
り、撮影者の眼15によるピント板7の観察に使用され
る。光分割器11aは、例えば可視光を透過し赤外光を
反射するダイクロイックミラーより成っている。
Reference numeral 11 is an eyepiece lens 11 provided behind the exit of the pentaprism 8 and having a light splitter 11a, and is used for observing the focusing plate 7 by the eye 15 of the photographer. The light splitter 11a includes, for example, a dichroic mirror that transmits visible light and reflects infrared light.

【0024】上記の主ミラー2,ピント板7,ペンタプ
リズム8,接眼レンズ11によってファインダ光学系が
構成されている。
A finder optical system is constituted by the main mirror 2, the focusing plate 7, the penta prism 8 and the eyepiece lens 11 described above.

【0025】12は結像レンズ、14はCCD等の光電
変換素子列を縦、横それぞれ80画素、100画素の二
次元的に配したイメージセンサ(CCD−EYE)で、
結像レンズ12に関して所定の位置にある撮影者の眼球
15の瞳孔近傍と共役になるように配置されており、結
像レンズ12とイメージセンサ14(CCD−EYE)
にて視線検出を行うための受光手段を構成している。1
3a〜13hは各々撮影者の眼球15の瞳孔近傍を照明
するための発光素子からなる照明手段である。
Reference numeral 12 is an image forming lens, and 14 is an image sensor (CCD-EYE) in which a photoelectric conversion element array such as a CCD is arranged two-dimensionally with vertical and horizontal 80 pixels and 100 pixels, respectively.
The imaging lens 12 and the image sensor 14 (CCD-EYE) are arranged so as to be conjugate with the vicinity of the pupil of the eyeball 15 of the photographer at a predetermined position with respect to the imaging lens 12.
Constitutes a light receiving means for detecting the line of sight. 1
Reference numerals 3a to 13h denote illumination means each including a light emitting element for illuminating the vicinity of the pupil of the eyeball 15 of the photographer.

【0026】これら発光素子には、赤外発光ダイオード
(以下、IREDと記す)が用いられ、図2(B)に示
すように接眼レンズ11の回りに配置されており、一回
の視線検出時に発光するのは13a〜13hの内の2個
一組の照明である。
Infrared light emitting diodes (hereinafter referred to as IREDs) are used for these light emitting elements, which are arranged around the eyepiece lens 11 as shown in FIG. It is a set of two of 13a to 13h that emits light.

【0027】以上、受光手段と照明手段と前述のダイロ
イックミラー11aとによって視線検出装置が構成され
ている。
As described above, the line-of-sight detecting device is constituted by the light receiving means, the illuminating means, and the diloic mirror 11a.

【0028】21は明るい被写体の中でも視認できる高
輝度のスーパーインポーズ用LEDで、ここから発光さ
れた光は投光用プリズム22を介し、主ミラー2で反射
されてピント板7の表示部に設けた微小プリズムアレイ
7aで垂直方向に曲げられ、ペンタプリズム8,接眼レ
ンズ11を通って撮影者の眼15に達する。
Reference numeral 21 is a high-intensity superimposing LED that can be visually recognized even in a bright subject. The light emitted from this LED is reflected by the main mirror 2 through the projection prism 22 and is displayed on the display portion of the focus plate 7. It is bent in the vertical direction by the provided micro prism array 7a, passes through the penta prism 8 and the eyepiece lens 11, and reaches the eye 15 of the photographer.

【0029】つまり、図3に示したファインダ視野から
判かるように、各々の焦点検出領域マーク70〜74が
ファインダ視野内で光り、焦点検出領域を表示させるこ
とができるものである(以下、これをスーパーインポー
ズ表示という)。
That is, as can be seen from the viewfinder field shown in FIG. 3, each of the focus detection area marks 70 to 74 shines in the viewfinder field and the focus detection area can be displayed (hereinafter, this will be described). Is called the superimpose display).

【0030】図3において、左右の焦点検出領域マーク
70,74の内部には、ドットマーク70′、74′が
刻印されており、これは眼球の個人差による視線の検出
誤差を補正するための視線補正データを採取する(キャ
リブレーションと称されている)際の視標を示すもので
ある。
In FIG. 3, dot marks 70 'and 74' are engraved inside the left and right focus detection area marks 70 and 74, which are for correcting the line-of-sight detection error due to individual differences of the eyeball. It shows an optotype at the time of collecting line-of-sight correction data (referred to as calibration).

【0031】ここで、51はシャッタ速度表示、52は
絞り値表示のセグメント、50は視線入力状態であるこ
とを示す視線入力マーク、53は撮影レンズ1の合焦状
態を示す合焦マークである。24はファインダ視野外に
撮影情報を表示するためのファインダ内LCD(以下、
F−LCDとも記す)で、照明用LED25によって照
明される。
Here, 51 is a shutter speed display, 52 is a segment of aperture value display, 50 is a line-of-sight input mark indicating that the line-of-sight is being input, and 53 is a focus mark indicating the focus state of the taking lens 1. . Reference numeral 24 denotes an LCD in the finder (hereinafter,
F-LCD), and is illuminated by the LED 25 for illumination.

【0032】上記F−LCD24を透過した光は三角プ
リズム26によって、図3の24で示したようにファイ
ンダ視野外に導かれ、撮影者は各種の撮影情報を知るこ
とができる。
The light transmitted through the F-LCD 24 is guided by the triangular prism 26 to the outside of the field of view of the finder as shown at 24 in FIG. 3, and the photographer can know various photographing information.

【0033】図1に戻って、31は撮影レンズ1内に設
けた絞り、32は絞り駆動回路111を含む絞り駆動装
置、33はレンズ駆動用モータ、34は駆動ギヤ等から
成るレンズ駆動部材である。35はフォトカプラで、前
記レンズ駆動部材34に連動するパルス板36の回転を
検知してレンズ焦点調節回路110に伝えており、該焦
点調節回路110は、この情報とカメラ側からのレンズ
駆動量の情報に基づいて前記レンズ駆動用モータ33を
所定量駆動させ、撮影レンズ1を合焦位置に移動させる
ようになっている。37は公知のカメラとレンズとのイ
ンターフェイスとなるマウント接点である。
Returning to FIG. 1, 31 is an aperture provided in the taking lens 1, 32 is an aperture drive device including the aperture drive circuit 111, 33 is a lens drive motor, and 34 is a lens drive member including a drive gear and the like. is there. Reference numeral 35 is a photocoupler, which detects the rotation of the pulse plate 36 interlocked with the lens driving member 34 and transmits it to the lens focus adjustment circuit 110. The focus adjustment circuit 110 uses this information and the lens drive amount from the camera side. The lens driving motor 33 is driven by a predetermined amount based on the above information to move the taking lens 1 to the in-focus position. A mount contact 37 serves as an interface between a known camera and lens.

【0034】27は水銀スイッチ等の姿勢検出スイッチ
でカメラが横位置で構えられたか、縦位置で構えられた
かを検出するものである。
Reference numeral 27 denotes an attitude detection switch such as a mercury switch for detecting whether the camera is held in the horizontal position or the vertical position.

【0035】図2(a),(b)において、41はレリ
ーズ釦である。42は外部モニタ表示装置としてのモニ
タ用LCDで、予め決められたパターンを表示する固定
セグメント表示部と、可変数値表示用の7セグメント表
示部とから成っている。
In FIGS. 2A and 2B, reference numeral 41 is a release button. Reference numeral 42 denotes a monitor LCD as an external monitor display device, which comprises a fixed segment display section for displaying a predetermined pattern and a 7-segment display section for displaying variable numerical values.

【0036】44はモードダイヤルで、撮影モード等の
選択を行うためのものである。カメラ本体に刻印された
指標43を表示に合わせる事によって、その表示内容で
撮影モードが設定される。例えば、カメラを不作動とす
するロックポジション、予め設定した撮影プログラムに
よって制御される自動撮影モードのポジション、撮影者
が撮影内容を認定できるマニュアル撮影モードで、プロ
グラムAE、シャッタ優先AE,絞り優先AE,被写体
深度優先AE,マニュアル露出の各撮影モードが設定可
能である。また、視線入力用の「CAL」ポジションも
モードダイヤル44中にあり、「CAL」ポジションに
して、後述の電子ダイヤル45を操作する事により、視
線入力のON,OFF、そしてキャリブレーションの実
行及び選択を行うことができる。
Reference numeral 44 is a mode dial for selecting the photographing mode and the like. The shooting mode is set according to the display content by matching the index 43 engraved on the camera body with the display. For example, a lock position that deactivates the camera, a position in an automatic shooting mode controlled by a preset shooting program, a manual shooting mode in which the photographer can recognize the shooting content, and program AE, shutter priority AE, aperture priority AE Shooting modes of subject depth priority AE and manual exposure can be set. Further, the "CAL" position for line-of-sight input is also in the mode dial 44, and by setting the "CAL" position and operating the electronic dial 45 described later, ON / OFF of line-of-sight input, and execution and selection of calibration. It can be performed.

【0037】45は電子ダイヤルで、回転してクリック
パルスを発生させることによってモードダイヤル44で
選択されたモードの中でさらに選択されたモードの中で
さらに選択し得る設定値を選択する為のものである。例
えば、モードダイヤル44にてシャッタ優先の撮影モー
ドを選択すると、ファインダ内LCD24及びモニタ用
LCD42には、現在設定されているシャッタ速度が表
示される。この表示を見て、撮影者が電子ダイヤル45
を回転させると、その回転方向にしたがって現在設定さ
れているシャッタ速度から順次シャッタ速度が変化して
いくように構成されている。
Reference numeral 45 is an electronic dial for selecting a set value that can be further selected from among the modes selected by the mode dial 44 by rotating and generating a click pulse. Is. For example, when the shutter priority shooting mode is selected by the mode dial 44, the currently set shutter speed is displayed on the in-viewfinder LCD 24 and the monitor LCD 42. Looking at this display, the photographer uses the electronic dial 45
When is rotated, the shutter speed is sequentially changed from the currently set shutter speed according to the rotation direction.

【0038】その他の操作部材については、本発明とは
直接関係ないのでその説明は省略する。
The other operating members are not directly related to the present invention, and therefore their explanations are omitted.

【0039】図4は上記構成の一眼レフカメラに内蔵さ
れた電気的構成を示すブロック図であり、図1と同一の
ものは同一番号をつけている。
FIG. 4 is a block diagram showing an electrical structure incorporated in the single-lens reflex camera having the above-mentioned structure. The same parts as those in FIG. 1 are designated by the same reference numerals.

【0040】カメラ本体に内蔵されたマイクロコンピュ
ータの中央処理装置(以下、CPUと記す)100に
は、視線検出回路101,測光回路102,自動焦点検
出回路103,信号入力回路104,LCD駆動回路1
05,LED駆動回路106,IRED駆動回路10
7,シャッタ制御回路108,モータ制御回路109が
接続されている。また、撮影レンズ1内に配置された焦
点調節回路110,絞り駆動回路111とは、図1で示
したマウント接点37を介して信号の伝達がなされる。
A central processing unit (hereinafter referred to as CPU) 100 of a microcomputer incorporated in the camera body includes a visual axis detection circuit 101, a photometric circuit 102, an automatic focus detection circuit 103, a signal input circuit 104, an LCD drive circuit 1
05, LED drive circuit 106, IRED drive circuit 10
7, a shutter control circuit 108, and a motor control circuit 109 are connected. Further, signals are transmitted to the focus adjustment circuit 110 and the diaphragm drive circuit 111 arranged in the photographing lens 1 through the mount contact 37 shown in FIG.

【0041】CPU100に付随したEEPROM10
0aは記憶手段としての視線の個人差を補正する視線補
正データの記憶機能を有している。
EEPROM 10 attached to CPU 100
Reference numeral 0a has a function of storing the line-of-sight correction data as a storage unit for correcting individual differences in line-of-sight.

【0042】前記視線検出回路101は、イメージセン
サ14(CCD−EYE)からの眼球像の信号をA/D
変換し、この像情報をCPU100に送信する。CPU
100は視線検出に必要な眼球像の各特徴点を所定のア
ルゴリズムにしたがって抽出し、さらに各特徴点の位置
から撮影者の視線を算出する。
The line-of-sight detection circuit 101 A / D receives an eyeball image signal from the image sensor 14 (CCD-EYE).
The image information is converted and transmitted to the CPU 100. CPU
Reference numeral 100 extracts each feature point of the eyeball image necessary for detecting the line of sight according to a predetermined algorithm, and further calculates the line of sight of the photographer from the position of each feature point.

【0043】前記測光回路102は、測光センサ10か
らの信号を増幅後、対数圧縮,A/D変換し、各センサ
の輝度情報としてCPU100に送信する。測光センサ
10は、ファインダ画面内の6つの領域を測光するSP
C−L2,SPC−L1、SPC−C,SPC−R1,
SPC−R2、SPC−Mから成る6つのフォトダイオ
ードから構成されており、いわゆる分割測光が可能であ
る。
The photometric circuit 102, after amplifying the signal from the photometric sensor 10, performs logarithmic compression and A / D conversion, and transmits it to the CPU 100 as luminance information of each sensor. The photometric sensor 10 is an SP for photometry of six areas in the viewfinder screen.
C-L2, SPC-L1, SPC-C, SPC-R1,
It is composed of six photodiodes consisting of SPC-R2 and SPC-M, and so-called split photometry is possible.

【0044】ラインセンサ6fは、前述の図3に示し
た、画面内の5つの焦点検出領域70〜74に対応した
5組のラインセンサCCD−L2,CCD−L1,CC
D−C,CCD−R1,CCD−R2から構成される公
知のCCDラインセンサである。
The line sensor 6f includes five sets of line sensors CCD-L2, CCD-L1, CC corresponding to the five focus detection areas 70 to 74 in the screen shown in FIG.
It is a known CCD line sensor composed of DC, CCD-R1, and CCD-R2.

【0045】前記自動焦点検出回路103は、上記のラ
インセンサ6fから得た電圧をA/D変換し、CPU1
00Oに送る。
The automatic focus detection circuit 103 A / D converts the voltage obtained from the line sensor 6f, and the CPU 1
Send to 00O.

【0046】SW1はレリーズ釦41の第1ストローク
でONし、測光,AF,視線検出動作等を開始させる為
のスイッチ、SW2はレリーズ釦41の第2ストローク
でONするレリーズスイッチである。
SW1 is a switch that is turned on by the first stroke of the release button 41 to start photometry, AF, line-of-sight detection operation, etc., and SW2 is a release switch that is turned on by the second stroke of the release button 41.

【0047】SW−DIALIとSW−DIAL2は、
既に説明した電子ダイヤル45内に設けられたダイヤル
スイッチで、信号入力回路104のアップダウンカウン
タに入力され、電子ダイヤル45の回転クリック量をカ
ウントする。SW−HV1,SW−HV2は姿勢検出ス
イッチ27に相当する視線検出スイッチであり、この信
号を基にカメラの姿勢状態が検出される。
SW-DIAL and SW-DIAL2 are
The dial switch provided in the electronic dial 45, which has already been described, is input to the up / down counter of the signal input circuit 104 to count the rotation click amount of the electronic dial 45. SW-HV1 and SW-HV2 are line-of-sight detection switches corresponding to the attitude detection switch 27, and the attitude state of the camera is detected based on this signal.

【0048】これらスイッチの状態信号入力回路104
に入力され、データバスによってCPU100に送信さ
れる。
State signal input circuit 104 for these switches
To the CPU 100 via the data bus.

【0049】前記LCD駆動回路105は、液晶表示素
子であるLCDを表示駆動させるための公知の構成より
成るもので、CPU100からの信号に従い、絞り値,
シャッタ秒時,設定した撮影モード等の表示をモニタ用
LCD42とファインダ内LCD(F−LCD)24の
両方に同時に表示させることができる。
The LCD driving circuit 105 has a known structure for driving the LCD which is a liquid crystal display element, and according to a signal from the CPU 100, an aperture value,
At the shutter speed, the display of the set shooting mode and the like can be simultaneously displayed on both the monitor LCD 42 and the in-viewfinder LCD (F-LCD) 24.

【0050】前記LED駆動回路106は、照明用LE
D(F−LED)25とスーパーインポーズ用LED2
1を点灯,点滅制御する。前記IRED駆動回路107
は、CPU100の指示に従って赤外発光ダイオード1
3a〜13hを選択的に点灯させたり、赤外発光ダイオ
ード13a〜13hへの出力電流値(あるいはパルス
数)を変化させて照明パワーを制御する。
The LED driving circuit 106 is a lighting LE.
D (F-LED) 25 and LED2 for superimposing
1 is turned on and off. The IRED drive circuit 107
Is the infrared light emitting diode 1 according to the instruction of the CPU 100.
Lighting power is controlled by selectively lighting 3a to 13h or changing the output current value (or pulse number) to the infrared light emitting diodes 13a to 13h.

【0051】前記シャッタ制御回路108は、通電する
と先幕を走行させるマグネットMG−1と、後幕を走行
させるマグネットMG−2を制御し、感光部材に所定光
量を露光させる。前記モータ制御回路109は、フィル
ムの巻き上げ、巻き戻しを行うモータMlと主ミラー2
及びシャッタ4のチャージを行うモータM2を制御する
ためのものである。
The shutter control circuit 108 controls the magnet MG-1 that runs the front curtain and the magnet MG-2 that runs the rear curtain when energized to expose the photosensitive member with a predetermined amount of light. The motor control circuit 109 includes a motor Ml for winding and rewinding the film and the main mirror 2
And for controlling the motor M2 that charges the shutter 4.

【0052】上記シャッタ制御回路108とモータ制御
回路109によって、一連のカメラのレリーズシーケン
ス動作する。
The shutter control circuit 108 and the motor control circuit 109 perform a series of camera release sequence operations.

【0053】次に、視線検出装置を有したカメラの動作
について、図5のフローチャートを用いて説明する。
Next, the operation of the camera having the visual axis detection device will be described with reference to the flowchart of FIG.

【0054】モードダイヤル44を回転させてカメラを
不作動状態から所定の撮影モードに設定すると(この実
施の形態では、シャッタ優先AEに設定された場合をも
とに説明する)、カメラの電源がONされ(ステップ#
100)、CPU100のEEPROM100aに記憶
された視線のキャリブレーションデータ以外の視線検出
に使われる変数がリセットされる(ステップ#10
1)。そして、カメラはレリーズ釦41が押し込まれて
スイッチSW1がONされるまで待機する(ステップ#
102)。
When the mode dial 44 is rotated to set the camera from the inoperative state to the predetermined photographing mode (this embodiment will be described based on the case where the shutter priority AE is set), the power of the camera is turned off. ON (step #
100), variables used for visual axis detection other than the visual axis calibration data stored in the EEPROM 100a of the CPU 100 are reset (step # 10).
1). Then, the camera waits until the release button 41 is pressed and the switch SW1 is turned on (step #
102).

【0055】レリーズ釦41が押し込まれてスイッチS
W1がONされたことを信号入力回路104が検出する
と、CPU100は視線検出を行う際にどのキャリブレ
ーションデータを使用するかを視線検出回路101に確
認する(ステップ#103)。この時、確認されたキャ
リブレーションデータナンバーのキャリブレーションデ
ータが初期値のままで変更されていなかったり、あるい
は、視線禁止モードに設定されていたら(ステップ#1
03)、視線検出は実行せずに、すなわち視線情報を用
いずに焦点検出領域自動選択サブルーチンによって特定
の焦点検出領域を選択する(ステップ#115)。そし
て、この焦点検出領域において自動焦点検出回路103
は焦点検出動作を行う(ステップ#107)。
When the release button 41 is pressed, the switch S
When the signal input circuit 104 detects that the W1 is turned on, the CPU 100 confirms with the visual axis detection circuit 101 which calibration data to use when performing visual axis detection (step # 103). At this time, if the calibration data of the confirmed calibration data number remains unchanged from the initial value or is set to the line-of-sight prohibition mode (step # 1
03), without performing the visual axis detection, that is, without using the visual axis information, a specific focus detection area is selected by the focus detection area automatic selection subroutine (step # 115). Then, in this focus detection area, the automatic focus detection circuit 103
Performs focus detection operation (step # 107).

【0056】焦点検出領域自動選択のアルゴリズムとし
てはいくつかの方法が考えられるが、多点AFカメラで
は公知となっている中央焦点検出領域に重み付けを置い
た近点優先アルゴリズムが有効である。
Although several methods are conceivable as the algorithm for automatically selecting the focus detection area, the near point priority algorithm which weights the central focus detection area, which is well known in the multi-point AF camera, is effective.

【0057】また、前記キャリブレーションデータナン
バーに対応する視線のキャリブレーションデータが所定
の値に設定されていてそのデータが撮影者により入力さ
れたものであることが認識されると(ステップ#10
3)、視線検出回路101はそのキャリブレーションデ
ータにしたがって視線検出を実行され、視線はピント板
7上の注視点座標に変換される(ステップ#104)。
When it is recognized that the sight line calibration data corresponding to the calibration data number is set to a predetermined value and the data is input by the photographer (step # 10).
3) The line-of-sight detection circuit 101 executes line-of-sight detection according to the calibration data, and the line-of-sight is converted into the gazing point coordinates on the focusing plate 7 (step # 104).

【0058】次に、上記ステップ#104で検出された
視線情報は成功か否かの判定にかけられる(ステップ#
105)。ここでの判定条件は、角膜反射像であるプル
キンエ像及び瞳孔中心位置の信頼性及び眼球の回転角等
である。この結果、不成功ならばステップ#115の
「焦点検出領域自動選択サブルーチン」に進む。また、
視線検出が成功ならば、CPU100は該注視点座標に
近接した焦点検出領域を選択する(ステップ#10
6)。そして、自動焦点検出回路103は検出された視
線情報も用いて選択がなされた焦点検出領域での焦点検
出を実行する(ステップ#107)。
Next, the line-of-sight information detected in the above step # 104 is subjected to a judgment as to whether or not it is successful (step #
105). The determination conditions here are the reliability of the Purkinje image, which is a corneal reflection image, the center position of the pupil, the rotation angle of the eyeball, and the like. As a result, if unsuccessful, the process proceeds to the "focus detection region automatic selection subroutine" in step # 115. Also,
If the line-of-sight detection is successful, the CPU 100 selects a focus detection area close to the gaze point coordinates (step # 10).
6). Then, the automatic focus detection circuit 103 also executes focus detection in the selected focus detection area using the detected line-of-sight information (step # 107).

【0059】次に、上記選択された焦点検出領域が焦点
検出不能であるかを判定し(ステップ#108)、不能
であればCPU100はLCD駆動回路105に信号を
送ってファインダ内LCD24の合焦マーク53を点滅
させ、焦点検出がNGであることを撮影者に警告し(ス
テップ#117)、スイッチSW1が離されるまでこの
警告を続ける(ステップ#118→#117→#118
……)。
Next, it is determined whether or not the focus detection area selected is incapable of focus detection (step # 108). If not, the CPU 100 sends a signal to the LCD drive circuit 105 to bring the LCD 24 in the finder into focus. The mark 53 blinks to warn the photographer that the focus detection is NG (step # 117), and this warning is continued until the switch SW1 is released (step # 118 → # 117 → # 118).
......).

【0060】一方、焦点検出が可能であり、所定のアル
ゴリズムで選択された焦点検出領域の焦点調節状態が合
焦でなければ(ステップ#109)、CPU100はレ
ンズ焦点調節回路110に信号を送って所定量撮影レン
ズ1を駆動させる(ステップ#116)。レンズ駆動後
は、自動焦点検出回路103は再度焦点検出を行い(ス
テップ#107)、撮影レンズ1が合焦しているか否か
の判定を行う(ステップ#109)。
On the other hand, when focus detection is possible and the focus adjustment state of the focus detection area selected by the predetermined algorithm is not in focus (step # 109), the CPU 100 sends a signal to the lens focus adjustment circuit 110. The photographing lens 1 is driven by a predetermined amount (step # 116). After driving the lens, the automatic focus detection circuit 103 performs focus detection again (step # 107), and determines whether or not the taking lens 1 is in focus (step # 109).

【0061】所定の焦点検出領域において撮影レンズ1
が合焦していたならば、CPU100はLCD駆動回路
105に信号を送ってファインダ内LCD24の合焦マ
ーク53を点灯させるとともに、LED駆動回路106
にも信号を送って合焦している焦点検出領域に対応した
スーパーインポーズ用LED21を点灯させ、該焦点検
出領域を光らせることで合焦表示させる(ステップ#1
10)。
Photographing lens 1 in a predetermined focus detection area
If the focus is on, the CPU 100 sends a signal to the LCD drive circuit 105 to turn on the focus mark 53 of the LCD 24 in the finder and the LED drive circuit 106.
Also, by sending a signal, the superimposing LED 21 corresponding to the focus detection area in focus is turned on, and the focus detection area is illuminated to display the focus (step # 1).
10).

【0062】合焦した焦点検出領域がファインダ内に表
示されたのを撮影者が見て、その焦点検出領域が正しく
ない、あるいは撮影を中止すると判断してレリーズ釦4
1から手を離し、スイッチSW1をOFFすると(ステ
ップ#111)、引き続きカメラはスイッチSW1がO
Nされるまで待機するステップ#102へ戻る。
When the photographer sees that the focused focus detection area is displayed in the viewfinder, the photographer sees that the focus detection area is not correct or determines that the shooting is to be stopped and the release button 4 is pressed.
When the switch SW1 is turned off (step # 111) by releasing the hand from 1, the camera continues to turn on the switch SW1.
The process returns to step # 102 where the process waits until N is given.

【0063】また撮影者が合焦表示された焦点検出領域
を見て、引き続きスイッチSW1をONし続けたならば
(ステップ#111)、CPU100は測光回路102
に信号を送信して測光を行わせる(ステップ#11
2)。
If the photographer looks at the in-focus displayed focus detection area and continues to turn on the switch SW1 (step # 111), the CPU 100 causes the photometry circuit 102 to operate.
To send a signal to perform photometry (step # 11
2).

【0064】この時、合焦した焦点検出領域を含む測光
領域に重み付けを行った露出値が演算される。本実施の
形態の場合、測光演算結果としてセグメントと小数点を
用いて絞り値(図3の52に示すF5.6)を表示して
いる。
At this time, the exposure value is calculated by weighting the photometric area including the focused focus detection area. In the case of the present embodiment, the aperture value (F5.6 shown by 52 in FIG. 3) is displayed using the segment and the decimal point as the photometric calculation result.

【0065】さらにレリーズ釦41が押し込まれてスイ
ッチSW2がONされているかどうかの判定を行い(ス
テップ#113)、スイッチSW2がOFF状態であれ
ば再びスイッチSW1の状態の確認を行う(ステップ#
111)。
Further, it is determined whether or not the switch SW2 is turned on by pressing the release button 41 (step # 113), and if the switch SW2 is in the off state, the state of the switch SW1 is checked again (step # 113).
111).

【0066】また、スイッチSW2がONされたならば
CPU100はシャッタ制御回路108、モータ制御回
路109、及び、絞り駆動回路111にそれぞれ信号を
送信して、公知のシャッタレリーズ動作を行う(ステッ
プ#114)。
When the switch SW2 is turned on, the CPU 100 sends signals to the shutter control circuit 108, the motor control circuit 109, and the diaphragm drive circuit 111 to perform the known shutter release operation (step # 114). ).

【0067】具体的には、まず、モータ制御回路109
を介してモータM2に通電して主ミラー2をアップさ
せ、絞り31を絞り込んだ後、マグネットMG−1に通
電し、シャッタ4の先幕を開放する。絞り31の絞り値
及びシャッタ4のシャッタスピードは、前記測光回路1
02にて検出された露出値とフィルム5の感度から決定
される。所定のシャッタ秒時(1/125秒)経過後、
マグネットMG−2に通電し、シャッタ4の後幕を閉じ
る。フィルム5への露光が終了すると、モータM2に再
度通電し、ミラーダウン、シャッタチャージを行うとと
もにフィルム給送用のモータMlにも通電し、フィルム
の駒送りを行い、一連のシャッタレリーズシーケンスの
動作が終了する。
Specifically, first, the motor control circuit 109
Then, the motor M2 is energized to raise the main mirror 2 and the diaphragm 31 is narrowed down, and then the magnet MG-1 is energized to open the front curtain of the shutter 4. The aperture value of the aperture 31 and the shutter speed of the shutter 4 are determined by the photometric circuit 1 described above.
It is determined from the exposure value detected in 02 and the sensitivity of the film 5. After a predetermined shutter time (1/125 seconds),
The magnet MG-2 is energized to close the rear curtain of the shutter 4. When the exposure on the film 5 is completed, the motor M2 is energized again to perform mirror down and shutter charge, and the film feeding motor Ml is energized to advance the film frame, and a series of shutter release sequence operations. Ends.

【0068】その後カメラは再びスイッチSW1がON
されるまで待機する(ステップ#102)。
After that, the switch SW1 of the camera is turned on again.
Wait until it is done (step # 102).

【0069】図6は、視線検出動作アルゴリズムを示す
フローチャートである。
FIG. 6 is a flow chart showing the visual axis detection operation algorithm.

【0070】図6において、前述のように視線検出回路
101は、CPU100より信号を受け取ると視線検出
を実行する(ステップ#104)。視線検出回路101
は撮影モードの中での視線検出かあるいは視線のキャリ
ブレーションモードの中での視線検出かの判定を行う
(ステップ#200)。
In FIG. 6, the line-of-sight detection circuit 101 executes line-of-sight detection upon receiving a signal from the CPU 100 as described above (step # 104). Line-of-sight detection circuit 101
Determines whether the sight line is detected in the photographing mode or the sight line is detected in the sight line calibration mode (step # 200).

【0071】実際には、図2のモードダイヤル44が視
線検出動作のためのキャリブレーションモードに設定さ
れていた場合は、後述するキャリブレーション(CA
L)動作(ステップ#300)を実行する。
In practice, when the mode dial 44 of FIG. 2 is set to the calibration mode for the visual axis detection operation, the calibration (CA
L) The operation (step # 300) is executed.

【0072】モードダイヤル44には視線検出モードの
設定があり、この設定位置で、3人分のキャリブレーシ
ョンデータを登録、実行が可能となるキャリブレーショ
ンデータナンバー1、2、3と視線検出を実行しないO
FFの計4つのポジション設定が図2の電子ダイヤル4
5の操作で可能である。
There is a line-of-sight detection mode setting on the mode dial 44, and calibration data numbers 1, 2, and 3 and line-of-sight detection that enable registration and execution of calibration data for three persons are executed at this set position. Not O
The FF has a total of four positions set by the electronic dial 4 in FIG.
It is possible by the operation of 5.

【0073】そこで、カメラがキャリブレーションモー
ドに設定されていない場合、視線検出回路101はカメ
ラが現在どのキャリブレーションデータナンバーに設定
されているかを認識する。
Therefore, when the camera is not set to the calibration mode, the line-of-sight detection circuit 101 recognizes which calibration data number the camera is currently set to.

【0074】つづいて視線検出回路101は、撮影モー
ドでの視線検出の場合はまず最初にカメラがどのような
姿勢になっているかを信号入力回路104を介して検出
する(ステップ#201)。信号入力回路104は図1
中の水銀スイッチ27(SW−ANG)の出力信号を処
理してカメラが横位置であるか縦位置であるか、また縦
位置である場合は例えばレリーズ釦41が天方向にある
か地(面)方向にあるか判断する。
Subsequently, in the case of detecting the line of sight in the photographing mode, the line-of-sight detection circuit 101 first detects the posture of the camera through the signal input circuit 104 (step # 201). The signal input circuit 104 is shown in FIG.
The output signal of the inside mercury switch 27 (SW-ANG) is processed to determine whether the camera is in the horizontal position or the vertical position, and in the case of the vertical position, for example, whether the release button 41 is in the top direction or the ground (surface). ) Judge whether it is in the direction.

【0075】次に、先に検出されたカメラの姿勢情報と
キャリブレーションデータに含まれる撮影者の眼鏡情報
より赤外発光ダイオード(以下、IREDと称す)13
a〜13hの選択を行う(ステップ#202)。
Next, an infrared light emitting diode (hereinafter referred to as IRED) 13 is obtained from the previously detected camera posture information and the photographer's eyeglass information included in the calibration data.
A to 13h are selected (step # 202).

【0076】すなわち、カメラが横位置に構えられ、撮
影者が眼鏡をかけていなかったならば、図2(b)に示
すIRED13a,13bが選択される。また、カメラ
が横位置で、撮影者が眼鏡をかけていれば、撮影者の眼
鋲反射光の影響が少なくなるように、IRED13a、
13bの間隔よりもさらに間隔の広い13c,13dの
IREDが選択される。
That is, if the camera is held in the horizontal position and the photographer does not wear glasses, the IREDs 13a and 13b shown in FIG. 2B are selected. If the camera is in the horizontal position and the photographer wears glasses, the IRED 13a,
IREDs 13c and 13d having a wider spacing than the spacing of 13b are selected.

【0077】又カメラが、例えばレリーズ釦41が天方
向にあるか地(面)方向に縦位置で構えられていたなら
ば、撮影者の眼球を下方から照明するようなIREDの
組み合わせ、すなわち撮影者が眼鏡をかけていなかった
ならば、13c,13gを、撮影者が眼鏡をかけていれ
ば、13a,13eの組み合わせが選択される。ここで
行われるIRED選択動作は、IRED選択動作1と称
しており、本発明の内容となる後述するキャリブレーシ
ョン動作中に行われるIRED選択動作2と区別してい
る。
Further, if the camera is, for example, the release button 41 being in the top direction or in the vertical direction in the ground (plane) direction, a combination of IREDs for illuminating the photographer's eyes from below, that is, photographing If the person does not wear glasses, 13c and 13g are selected, and if the photographer wears glasses, the combination of 13a and 13e is selected. The IRED selection operation performed here is referred to as an IRED selection operation 1 and is distinguished from an IRED selection operation 2 performed during a calibration operation described later, which is the content of the present invention.

【0078】次にイメージセンサ14(以下、CCD−
EYEと称す)の蓄積時聞及びIREDの照明パワーが
CCD−EYE14の本蓄積に先だって行われる予備蓄
積の像信号出力、あるいは眼鏡装着か否かの情報等に基
づいて設定される(ステップ#203)。
Next, the image sensor 14 (hereinafter, CCD-
(Referred to as EYE) and the illumination power of the IRED is set based on the image signal output of the preliminary accumulation performed prior to the main accumulation of the CCD-EYE 14 or the information as to whether or not the eyeglasses are attached (step # 203). ).

【0079】CCD−EYE14予備蓄積というのは、
本蓄積の直前に一定時間、たとえば1msと蓄積時間を
決めて常に像信号を取り込むことで、その信号レベルの
強弱に応じて実際の眼球像取り込みの蓄積時間を制御す
ることで、安定した眼球像信号を得ることが可能とな
る。
CCD-EYE14 preliminary storage means
A stable eye image can be obtained by controlling the accumulation time of the actual eyeball image capture depending on the strength of the signal level by always capturing the image signal for a fixed time, for example, 1 ms, just before the main accumulation. It becomes possible to obtain a signal.

【0080】CCD−EYE14の蓄積時聞及びIRE
Dの照明パワーが設定されると、CPU100はIRE
D駆動回路107を介してIRED13を所定のパワー
で点灯させるとともに、視線検出回路101はCCD−
EYE14の蓄積を開始する(ステップ#204)。ま
た、先に設定されたCCD−EYE14の蓄積時間にし
たがってここでの蓄積を終了し、それとともにIRED
13も消灯される。
CCD-EYE 14 accumulation time and IRE
When the illumination power of D is set, the CPU 100
The IRED 13 is turned on with a predetermined power via the D drive circuit 107, and the line-of-sight detection circuit 101 is a CCD-
The accumulation of EYE14 is started (step # 204). In addition, the accumulation here is completed according to the previously set accumulation time of the CCD-EYE 14, and along with that, the IRED
13 is also turned off.

【0081】次に、CCD−EYE14にて蓄積された
像信号は順次読み出され、視線検出回路101でA/D
変換された後にCPU100にメモリされる(ステップ
#205)。
Next, the image signals accumulated in the CCD-EYE 14 are sequentially read out, and the line-of-sight detection circuit 101 performs A / D conversion.
After the conversion, it is stored in the CPU 100 (step # 205).

【0082】図13は、CCD−EYE14の眼球像信
号を画像化したもので、図14中の眼球15の角膜16
において、仮にIRED13aと13bが発光すること
で、図13、図14に示す角膜反射像(以下、プルキン
エ像と記す)19a、19bが生じる。また、17は虹
彩、18は瞳孔である。
FIG. 13 shows an image of the eyeball image signal of the CCD-EYE 14, and the cornea 16 of the eyeball 15 in FIG.
In this case, if the IREDs 13a and 13b emit light, corneal reflection images (hereinafter referred to as Purkinje images) 19a and 19b shown in FIGS. 13 and 14 are generated. Further, 17 is an iris and 18 is a pupil.

【0083】これらの像信号に対して公知であるところ
の視線検出処理が行われる(ステップ#206)。
A known line-of-sight detection process is performed on these image signals (step # 206).

【0084】すなわち、CPU100において、眼球の
照明に使用された1組のIRED13a、13bの虚像
であるプルキンエ像19a、19bの位置が検出され
る。
That is, the CPU 100 detects the positions of the Purkinje images 19a and 19b, which are virtual images of the pair of IREDs 13a and 13b used to illuminate the eyeball.

【0085】前述の通り、プルキンエ像19a、19b
は光強度の強い輝点として現れるため、光強度に対する
所定のしきい値を設け、該しきい値を超える光強度のも
のをプルキンエ像とすることにより検出可能である。ま
た、瞳孔の中心位置は瞳孔18と虹彩17の境界点を複
数検出し、各境界点を基に円の最小二乗近似を行うこと
により算出される。これらプルキンエ像位置と瞳孔中心
位置とから眼球における回転角度θが求まり、さらに二
つのプルキンエ像19の間隔からカメラの接眼レンズ1
1と撮影者の眼球15との距離が算出され、CCD−E
YE14に投影された眼球像の結像倍率βを得ることが
できる。
As described above, Purkinje images 19a and 19b
Appears as a bright spot having a high light intensity, and can be detected by providing a predetermined threshold value for the light intensity and making a light intensity exceeding the threshold value a Purkinje image. Further, the center position of the pupil is calculated by detecting a plurality of boundary points between the pupil 18 and the iris 17 and performing least square approximation of a circle based on each boundary point. The rotation angle θ of the eyeball is obtained from the Purkinje image position and the pupil center position, and the eyepiece 1 of the camera is calculated from the distance between the two Purkinje images 19.
1 and the distance between the photographer's eyeball 15 are calculated, and the CCD-E
The imaging magnification β of the eyeball image projected on the YE 14 can be obtained.

【0086】以上のことから、眼球の回転角度θと結像
倍率β、さらにキャリブレーションで得られた個人差補
正情報を用いて、撮影者の視線方向のピント板7上の位
置座標を求めることができる。
From the above, the position coordinates on the focusing plate 7 in the line-of-sight direction of the photographer can be obtained using the rotation angle θ of the eyeball, the imaging magnification β, and the individual difference correction information obtained by the calibration. You can

【0087】図5に戻って、次に撮影者の視線位置を基
に視線情報の信頼性判定を行う(ステップ#105)。
Returning to FIG. 5, next, the reliability of the line-of-sight information is determined based on the line-of-sight position of the photographer (step # 105).

【0088】つづいて、図7のフローチャートを用いて
キャリブレーション動作アルゴリズムの説明を行う。
Next, the calibration operation algorithm will be described with reference to the flowchart of FIG.

【0089】前述したように、キャリブレーションとは
撮影者がファインダ視野内の焦点検出領域のドットマー
ク右端74′、左端70′をそれぞれ一定時間固祝する
ことで行い、そこから得られた眼球像データから視線補
正データを採取するというものであり、モードダイヤル
44が「CAL」ポジションに設定されることで、キャ
リブレーション動作がスタートする(ステップ#30
0)。
As described above, the calibration is performed by the photographer holding the right end 74 'and the left end 70' of the dot mark in the focus detection area in the finder field for a certain period of time, and the eyeball image obtained therefrom. The line-of-sight correction data is collected from the data, and the calibration operation is started by setting the mode dial 44 to the "CAL" position (step # 30).
0).

【0090】まず最初にカメラがどのような姿勢になっ
ているかを水銀スイッチ27(SW−ANG)の出力信
号と信号入力回路104を介して検出する(ステップ#
301)。これは図6視線検出フローのステップ#20
1と同じ検出処理である。
First, the posture of the camera is detected through the output signal of the mercury switch 27 (SW-ANG) and the signal input circuit 104 (step #
301). This is step # 20 in the eye gaze detection flow of FIG.
The detection process is the same as 1.

【0091】つぎに、ファインダ視野内の焦点検出領域
のドットマーク右端74一を点滅表示して撮影者に固祝
すべき目標を表示する(ステップ#302)。
Next, the right end 741 of the dot mark in the focus detection area within the finder field is displayed in a blinking manner to display the target to be held by the photographer (step # 302).

【0092】また同時に現在設定されているキャリブレ
ーションナンバからCPU100にメモリされているキ
ャリブレーションデータの確認を行い、既に登録済みの
場合は、図2のモニタ用LCD42の「CAL」表示を
そのまま点灯に、未登録の場合には、「CAL」表示を
点滅させる。
At the same time, the calibration data stored in the CPU 100 is confirmed from the currently set calibration number, and if already registered, the "CAL" display on the monitor LCD 42 in FIG. If it is not registered, the "CAL" display blinks.

【0093】つづいてカメラは、キャリブレーションを
行う際の撮影者の眼球を照明するIREDの選択動作2
を行う(ステップ#303)。このルーチンについては
後述する。
Subsequently, the camera selects the IRED which illuminates the eyeball of the photographer during the calibration operation 2
Is performed (step # 303). This routine will be described later.

【0094】ステップ#303にて、発光を行うべきI
REDが決定され、カメラは撮影者のSW1のON信号
待ちとなり、SW1−ON信号を検知すると前記図6の
フローチャート説明で行ったステップ#203から#ス
テップ205と同じ眼球像取り込み動作が行われる。
In step # 303, I which should emit light
The RED is determined, the camera waits for the ON signal of the photographer's SW1, and when the SW1-ON signal is detected, the same eyeball image capturing operation as in steps # 203 to # 205 described in the flowchart of FIG. 6 is performed.

【0095】つまり、CCD−EYE14の蓄積時間と
IRED13の照明パワーが設定され(ステップ#30
4)、実際にCCD−EYE14の蓄積とIRED13
の照明が実行され(ステップ#305)、CCD−EY
E14にて蓄積された像信号が順次読み出され、AD変
換後にCPU100にメモリされる(ステップ#30
6)。次にCPU100はメモリ上のAD変換された像
信号を定められた計算式に従って撮影者の眼球の回転角
度θを算出する(ステップ#307)。
That is, the accumulation time of the CCD-EYE 14 and the illumination power of the IRED 13 are set (step # 30).
4) Actually accumulation of CCD-EYE14 and IRED13
Illumination is performed (step # 305), and CCD-EY
The image signals accumulated at E14 are sequentially read out and AD-converted and then stored in the CPU 100 (step # 30).
6). Next, the CPU 100 calculates the rotation angle θ of the eyeball of the photographer according to a predetermined calculation formula for the AD-converted image signal on the memory (step # 307).

【0096】なお、眼球像取り込み動作中はファインダ
視野内の焦点検出領域のドットマーク右端74′の点滅
は点灯表示に変わり、撮影者に眼球像取り込み動作を実
行している最中であることを知らしめている。
During the eyeball image capturing operation, the blinking of the right end 74 'of the dot mark in the focus detection area in the finder field changes to a lighting display, indicating that the photographer is in the middle of performing the eyeball image capturing operation. I am informed.

【0097】つづいて算出された回転角度θは、その値
が妥当か否かの判定にかけられる(ステップ#30
8)。
The rotation angle θ calculated subsequently is used to judge whether the value is proper (step # 30).
8).

【0098】眼球光軸と視軸のズレが生体的に数十度も
ずれていることはほとんどないので、ここでは判定の閾
値を±10度に設定してある。ステップ#308では、
検出された眼球の回転角度OK、NGの判定を行ってい
るだけで、その結果がOKでもNGでも次のステップ#
309に進み、眼球の回転角度検出の総回数が10回未
満であればステップ#304にもどり、再度眼球像取り
込み動作が行われ、眼球の回転角度検出の総回数が10
回に達すると、今度はその10回のうちOKが何回発生
したかによってキャリブレーション(CAL)成功、失
敗の判定を行う(ステップ#310)。
Since the deviation between the optical axis of the eyeball and the visual axis rarely shifts by several tens of degrees in the biological sense, the threshold for determination is set to ± 10 degrees here. In step # 308,
Whether or not the detected rotation angles OK and NG of the eyeball are determined, and whether the result is OK or NG, the next step #
If the total number of eyeball rotation angle detections is less than 10 times, the process returns to step # 304, the eyeball image capturing operation is performed again, and the total number of eyeball rotation angle detections is 10 times.
When the number of times reaches 10, the calibration (CAL) success or failure is determined depending on how many times OK occurs out of the 10 times (step # 310).

【0099】ここでは6回以上の回転角度検出成功で右
端74′でのCAL成功(ステップ#311)となり、
引き続き、今度は左端70′でのキャリブレーション動
作を開始する。左端70′でのキャリブレーションが同
様に成功するとモニタ用LCD42の「CAL」表示は
点灯表示となりキャリブレーションデータはCPU10
0にメモリされる。もし既にキャリブレーションデータ
が登録されていた場合、新たに採取されたキャリブレー
ションデータは、メモリされていた過去のデータと統合
される。また回転角度の検出成功回数が6回未満の場合
にはCAL失敗(ステップ#312)となり、モニタ用
LCD42の「CAL」表示は点滅表示にかわり、撮影
者にキャリブレーションが失敗したことを知らしめる。
Here, the rotation angle detection succeeds six times or more, and the CAL at the right end 74 'succeeds (step # 311).
Subsequently, this time, the calibration operation at the left end 70 'is started. When the calibration at the left end 70 'is similarly successful, the "CAL" display on the monitor LCD 42 is turned on and the calibration data is stored in the CPU 10.
It is stored in 0. If the calibration data has already been registered, the newly acquired calibration data is integrated with the stored past data. If the number of successful rotation angle detections is less than 6, the CAL fails (step # 312), the "CAL" display on the monitor LCD 42 is replaced by the blinking display, and the photographer is informed that the calibration has failed. .

【0100】次に図8のフローチャートを用いて図7の
キャリブレーション動作フローチャート中のIRED選
択動作2(ステップ#303)にっての説明を行う。
Next, the IRED selection operation 2 (step # 303) in the calibration operation flowchart of FIG. 7 will be described with reference to the flowchart of FIG.

【0101】ここでは説明を簡略化するために、カメラ
が正位置に構えられた時で、なおかつキャリブレーショ
ン動作を始めて行う場合を例にとって説明する。また本
説明に用いる照明手段であるIRED13a〜13hの
配置は図2に示すものである。
Here, in order to simplify the description, a case where the calibration operation is performed for the first time when the camera is held at the normal position will be described as an example. The arrangement of the IREDs 13a to 13h, which are the illumination means used in this description, is as shown in FIG.

【0102】IRED選択動作2において、まず撮影者
の眼球を照明するための最初のIRED13の発光動作
を行うために、カメラの正位置姿勢に対応したIRED
13a、13bが選択発光される(ステップ#40
1)。この発光時にCCD−EYE14で得られた像信
号は前記説明してきたとおりAD変換され、CPU10
0にて信号処理される。ここで、前記従来例の項でも説
明したように、撮影者が眼鏡を装着していなければ、図
13、あるいは図12(a)のように撮影者の瞳孔1
8、虹彩17、プルキンエ像19a、19bが容易に検
出可能となる。しかし、撮影者が眼鏡を装着している場
合には、IRED13の発した照明光が眼鏡表面(裏面
も含む)で反射し、図12(b)のように眼球像信号中
に大きくて強い信号レベルの眼鏡ゴーストを発生させ
る。
In the IRED selection operation 2, first, in order to perform the first light emission operation of the IRED 13 for illuminating the photographer's eyeball, the IRED corresponding to the normal position and orientation of the camera
13a and 13b are selectively emitted (step # 40
1). The image signal obtained by the CCD-EYE 14 at the time of this light emission is AD-converted as described above, and the CPU 10
Signal processing is performed at 0. Here, as described in the section of the conventional example, if the photographer does not wear glasses, the pupil 1 of the photographer as shown in FIG. 13 or FIG.
8, the iris 17, and Purkinje images 19a and 19b can be easily detected. However, when the photographer wears spectacles, the illumination light emitted by the IRED 13 is reflected by the spectacles front surface (including the back surface), and a large and strong signal is included in the eyeball image signal as shown in FIG. 12B. Spawn a level glasses ghost.

【0103】このゴーストは、IRED13a、13b
のように両者の配置間隔が比較的狭い場合には、その発
生位置が撮影者の瞳孔、プルキンエ像の近傍に発生する
確率が高く、眼球像情報を阻害し結果的に視線検出(眼
球回転角検出も含む)を不能とさせる原因となる。
This ghost is the IRED 13a, 13b
If the distance between the two is relatively small as shown in Fig. 3, the probability that the position of occurrence is near the photographer's pupil and Purkinje's image is high, and this obstructs the eyeball image information, resulting in detection of the line of sight (eyeball rotation angle). (Including detection) will be the cause.

【0104】そのために、図12(b)の状態の画像信
号から眼鏡反射光を検出し、撮影者が眼鏡を装着してい
るか否かの判定を行う(ステップ#402)。この判定
は、眼鏡反射光に対応した信号が他の画素信号と比べて
極めて強くかつその範囲が大きいので容易に行うことが
可能である。
Therefore, the reflected light of the glasses is detected from the image signal in the state of FIG. 12B, and it is determined whether or not the photographer wears the glasses (step # 402). This determination can be easily performed because the signal corresponding to the eyeglass reflected light is extremely strong and its range is large compared to other pixel signals.

【0105】ステップ#402にて眼鏡反射光が無い、
つまり撮影者が眼鏡を装着していないと判定された場合
はステップ#409に移行し、当初の設定である照明I
RED13a、13bが決定する。
In step # 402, there is no light reflected from the glasses,
That is, when it is determined that the photographer does not wear glasses, the process proceeds to step # 409, and the illumination I that is the initial setting is set.
RED 13a, 13b determines.

【0106】一方、眼鏡反射光が存在する、撮影者が眼
鏡を装着していると判定された場合は、現在選択されて
いるIRED13a、13bの相互間隔よりも間隔の広
いIRED13c、13dの選択発光を行う(ステップ
#403)。このときCCD−EYE14で受光された
画像信号を図9(a)に示す。図9(a)ではIRED
13c、13dの発光により眼鏡反射光13c′、13
d′が発生しており、特に13c′が眼球回転角算出に
必要な瞳孔とプルキンエ像の画像を阻害していることが
わかる。もしIRED13c、13dの発光で図12
(c)の画像信号が得られれば、眼球回転角算出には何
の問題はないわけであるが、撮影者のファインダの覗き
方、装着している眼鏡の種類、特に形状によっては前述
の図9(a)の状態が多々発生することになる。
On the other hand, when it is determined that the photographer wears spectacles because there is reflected light from the spectacles, the selective emission of the IREDs 13c and 13d, which is wider than the currently selected mutual spacing of the IREDs 13a and 13b. Is performed (step # 403). The image signal received by the CCD-EYE 14 at this time is shown in FIG. In FIG. 9A, IRED
13c 'and 13c are reflected by the glasses 13c and 13d.
It can be seen that d'occurs, and particularly 13c 'obstructs the image of the pupil and the Purkinje image necessary for calculating the eyeball rotation angle. If the IREDs 13c and 13d emit light, FIG.
If the image signal of (c) is obtained, there is no problem in calculating the eyeball rotation angle. However, depending on how the photographer looks through the viewfinder, the type of eyeglasses worn, especially the shape, The state of 9 (a) frequently occurs.

【0107】ここで再び図8に戻って、図9(a)の状
態にて、瞳孔と眼鏡反射光との距離を画像信号からCP
U100は算出する(ステップ#404)。実際には瞳
孔中心を算出するのは前記眼鏡反射光の影響で瞳孔と虹
彩の境界エッジを正確に検出できない可能性が高いの
で、ここでは全画素信号の最低値を瞳孔中心と見なすこ
とで可能となる。また、CCD−EYE14の本蓄積の
前に行う予備蓄積での画像信号の全画素縦横80×10
0を4×4画素を一まとめの縦横20×25のブロック
画素信号に変換することで、最低輝度信号ブロック画素
となる瞳孔中心位置、最高輝度信号ブロック画素となる
眼鏡反射光位置を求めることは容易となる。このように
して求めた図9(a)の瞳孔中心と眼鏡反射光13c′
の距離をs(画素)とする。
Now, returning to FIG. 8 again, in the state of FIG. 9A, the distance between the pupil and the reflected light of the spectacles is measured from the image signal by CP.
U100 calculates (step # 404). Actually, it is highly possible that the boundary edge between the pupil and the iris cannot be accurately detected due to the influence of the reflected light from the eyeglasses, so here it is possible to consider the lowest value of all pixel signals as the pupil center. Becomes In addition, all pixels of the image signal in the preliminary accumulation performed before the main accumulation of the CCD-EYE 14 are 80 × 10 in all pixels.
By converting 0 into a block pixel signal of 4 × 4 pixels of 20 × 25 pixels in the vertical and horizontal directions, it is possible to obtain the pupil center position which is the lowest luminance signal block pixel and the eyeglass reflected light position which is the highest luminance signal block pixel. It will be easy. The pupil center and the spectacle reflected light 13c 'of FIG.
Is s (pixel).

【0108】つぎに、該s値を所定の値と比較を行う
(ステップ#405)。このs値が所定の値以上であれ
ば、瞳孔中心とプルキンエ像の検出には影響がないと見
なせる。たとえば30画素という値がここでは設定され
ている。判定の結果s値が30画素以上であればステッ
プ#409に移行し、現在選択されているIRED13
c、13dが決定する。
Next, the s value is compared with a predetermined value (step # 405). If the s value is a predetermined value or more, it can be considered that there is no influence on the detection of the center of the pupil and the Purkinje image. For example, a value of 30 pixels is set here. If the determination result shows that the s value is 30 pixels or more, the process proceeds to step # 409, and the currently selected IRED13
c and 13d are determined.

【0109】一方、図9(a)のように、前記s値が3
0画素未満のときにはIRED13c、13dと同じ間
隔をおいて、かつ異なった位置に配置されたIRED1
3g、13hが選択発光される(ステップ#406)。
On the other hand, as shown in FIG. 9A, the s value is 3
When the number of pixels is less than 0, the IRED1s are arranged at the same intervals as the IREDs 13c and 13d and at different positions.
3g and 13h are selectively emitted (step # 406).

【0110】IRED13g、13hが選択発光された
ときのCCD−EYE14で受光された画像信号を図9
(b)に示す。
FIG. 9 shows image signals received by the CCD-EYE 14 when the IREDs 13g and 13h are selectively emitted.
It shows in (b).

【0111】つづいて、ステップ#404で、行ったよ
うに瞳孔と眼鏡反射光との距離を画像信号からCPU1
00は算出する(ステップ#404)。ここで算出され
た距離をt(画素)とする。
Subsequently, in step # 404, the distance between the pupil and the reflected light of the spectacles is determined from the image signal by the CPU 1 as performed.
00 is calculated (step # 404). The distance calculated here is defined as t (pixel).

【0112】次に、ステップ#404とステップ#40
7で求まったそれぞれの瞳孔と眼鏡反射光との距離、
s、tの比較を行い(ステップ#408)、その値(画
素)の大きい方の照明条件であるIREDの組み合わせ
を選択する(ステップ#409)。本説明で用いてきた
模式的な図9(a)、図9(b)からの値s、tではs
<tとなることから、決定されるIREDは13g、1
3hとなる。
Next, step # 404 and step # 40
The distance between each pupil and the reflected light from the eyeglasses obtained in 7.
s and t are compared (step # 408), and the combination of IREDs, which is the illumination condition having the larger value (pixel), is selected (step # 409). The values s and t from the schematic FIGS. 9A and 9B used in this description are s.
Since <t, the IRED to be determined is 13 g, 1
It will be 3h.

【0113】また、本説明では、キャリブレーション動
作が始めて行われた場合についてのフローを示したが、
実際には、いろんな環境下でのキャリブレーション補正
値を取得するために、キャリブレーションを同じキャリ
ブレーションナンバーで実行し、得られた補正値を新し
い順に重み付け加算平均していく方法が取られる。この
場合はすでに登録されたキャリブレーションデータの中
に発光すべき照明(IRED)、具体的には、裸眼用照
明(正位置ではIRED13aと13b)か眼鏡用照明
(正位置では13cと13d、または13gと13h)
を使うかというのデータが入っているので、裸眼用照明
では本説明通りステップ#401から、眼鏡用照明で
は、ステップ#403からスタートすることになる。
Further, in this description, the flow in the case where the calibration operation is performed for the first time has been shown.
In practice, in order to obtain the calibration correction values under various environments, a method of performing the calibration with the same calibration number and performing weighted addition averaging of the obtained correction values in a new order is adopted. In this case, the illumination (IRED) that should be emitted in the already registered calibration data, specifically, the illumination for the naked eye (IRED 13a and 13b in the normal position) or the illumination for glasses (13c and 13d in the normal position, or 13g and 13h)
Since the data regarding whether or not to use is included, the process starts from step # 401 for the naked eye illumination and step # 403 for the eyeglass illumination.

【0114】(実施の第2の形態)本発明の第2の実施
形態を図10のフローチャートを用いて説明する。
(Second Embodiment) A second embodiment of the present invention will be described with reference to the flowchart of FIG.

【0115】本説明は図6のフローチャートにおけるス
テップ#104の視線検出アルゴリズムについての、改
善について行うものである。
This description is to improve the visual axis detection algorithm of step # 104 in the flowchart of FIG.

【0116】ここで、ステップ#500からステップ#
506までは図6のフローチャート中のステップ#20
0からステップ#206までと全く同じ処理であるので
説明を割愛する。
Here, from step # 500 to step #
Up to 506, step # 20 in the flowchart of FIG.
Since the processing is exactly the same as that from 0 to step # 206, the description will be omitted.

【0117】ステップ#506にて視線検出処理が行わ
れた後、算出された視線情報が成功か否かの判定にかけ
られる(ステップ#507)。ここで視線検出成功と判
断されたならば、算出された視線情報をもとに図5のス
テップ#106の焦点検出領域の選択を行う。一方視線
検出不成功と判断された場合、今回の不成功は何回目な
のかの判定を行う(ステップ#508)。
After the line-of-sight detection process is performed in step # 506, it is judged whether or not the calculated line-of-sight information is successful (step # 507). If it is determined that the visual axis detection is successful, the focus detection area is selected in step # 106 of FIG. 5 based on the calculated visual axis information. On the other hand, when it is determined that the line-of-sight detection is unsuccessful, it is determined how many times the present unsuccessfulness is (step # 508).

【0118】ここで、前回も不成功で、今回も不成功の
場合は完全に視線検出不能としてカメラは図5のステッ
プ#115の焦点検出領域自動選択動作に移行する。一
方視線検出不成功が今回が最初である場合は、まずステ
ップ#504で行った照明の種類を判別する(ステップ
#509)。これが裸眼用照明である場合には、視線検
出を条件を変えて再度行うために、前回ステップ#50
4で行ったCCD−EYE14の蓄積時間を1.5倍に
延長してセットする(ステップ#510)。それから再
度ステップ#504に戻って視線検出動作を実行する。
これは例えば、撮影者が何らかの要因でカメラから目を
離してファインダを覗いている場合に有効な対処手段で
ある。
If the previous time was unsuccessful and the current time is also unsuccessful, the line-of-sight cannot be detected completely, and the camera shifts to the focus detection area automatic selection operation of step # 115 in FIG. On the other hand, if the line-of-sight detection is unsuccessful this time for the first time, the type of illumination performed in step # 504 is first determined (step # 509). If this is an illumination for the naked eye, the previous step # 50 is performed in order to change the condition for line-of-sight detection again.
The accumulation time of the CCD-EYE 14 performed in step 4 is extended 1.5 times and set (step # 510). Then, the process returns to step # 504 again to execute the line-of-sight detection operation.
This is an effective measure when the photographer looks away from the camera and looks into the viewfinder for some reason.

【0119】一方で、ステップ#509で現在眼鏡用の
照明を行っていた場合には次のステップ#511にてI
RED選択動作3を実行する。
On the other hand, if the illumination for the glasses is currently being performed in step # 509, then in step # 511, I
The RED selection operation 3 is executed.

【0120】このIRED選択動作3は、前記図8のフ
ローチャートで説明したIRED選択動作2とほぼ同じ
のためあえて図示は省略するが、図8のフローチャート
のステップ#401からステップ#403が省略された
フローとなっており、ステップ#404で行われる眼鏡
反射光距離測定は、図10のステップ#504で得られ
た画像情報に対して行われ、図8のステップ#406で
行われる眼鏡照明2発光は、図10のステップ#504
で発光したIREDの組とは同じ間隔をおいて、かつ異
なった位置に配置されたIREDの組が使用される。つ
まり、ステップ#504で発光したのが、13c、13
dの組であったのであれば、図8のステップ#406で
行われる眼鏡照明2発光は、13g、13hの組とな
る。これらのIRED13の発光、CCD−EYE14
の蓄積によって得られる像信号処理は前記の4×4画素
のブロック信号を処理することで高速に行うことができ
る。
Since this IRED selection operation 3 is almost the same as the IRED selection operation 2 described in the flowchart of FIG. 8, the illustration thereof is omitted, but steps # 401 to # 403 of the flowchart of FIG. 8 are omitted. The flow chart shows that the eyeglass reflected light distance measurement performed in step # 404 is performed on the image information obtained in step # 504 in FIG. 10, and the eyeglass illumination 2 light emission performed in step # 406 in FIG. Is step # 504 in FIG.
A set of IREDs that are arranged at the same intervals as the set of IREDs that emits light at 1 and different positions are used. That is, the light emitted in step # 504 is 13c, 13
If it is the set of d, the spectacle illumination 2 light emission performed in step # 406 of FIG. 8 will be the set of 13g and 13h. Emission of these IRED13, CCD-EYE14
The image signal processing obtained by accumulating can be performed at high speed by processing the block signal of 4 × 4 pixels.

【0121】このように2種類のIRED照明の組の眼
鏡反射光の比較を行い、その結果を図10のステップ#
512にて判定を行う。
In this way, the reflected light from the glasses of the two types of IRED illuminations is compared, and the result is shown in step # of FIG.
A determination is made at 512.

【0122】つまり、ステップ#504で行われた眼鏡
用照明が変更されても効果がないと判定されたときは眼
鏡反射光の影響によるものではないとされ、ステップ#
510に移行し、蓄積時間の変更を行う。一方、眼鏡用
照明の変更で効果があると判定された場合は、IRED
の組を変更して再度ステップ#504に移行し、2回目
の視線検出を行う。
That is, when it is determined that the effect is not obtained even if the illumination for glasses performed in step # 504 is changed, it is determined that it is not due to the influence of the reflected light from the glasses, and step #
The process proceeds to 510 and the accumulation time is changed. On the other hand, if it is determined that changing the spectacle lighting is effective, then IRED
Group is changed, the process proceeds to step # 504 again, and the second line-of-sight detection is performed.

【0123】(変形例)本発明は、一眼レフカメラに適
用した場合を述べているが、レンズシャッタカメラ,ビ
デオカメラ等のカメラにも適用可能である。更に、その
他の光学機器や他の装置、構成ユニットとしても適用す
ることができるものである。
(Modification) The present invention has been described as applied to a single-lens reflex camera, but can also be applied to cameras such as a lens shutter camera and a video camera. Furthermore, it can be applied to other optical devices, other devices, and constituent units.

【0124】[0124]

【発明の効果】本発明は、観察者の眼球近傍を照明する
照明手段と、該照明手段によって照明された眼球の反射
光を受光する受光手段と、該受光手段によって得られた
眼球像情報から観察者の視線位置を算出する視線検出手
段を有し、前記照明手段は、二個一組で前記観察者の眼
球を照明するための発光を行う発光素子複数組からな
り、前記撮影者の眼球像情報から得られる眼球像位置
と、撮影者の装着している眼鏡からの反射光位置との位
置関係から前記照明手段の複数の発光素子の組の中から
最適な発光素子の組を選択する照明選択手段を有するこ
とを特徴とする視線検出装置及びそれを有した光学機器
を提供することによって、観察者が眼鏡を装着してカメ
ラ等の光学機器のファインダを覗いた際に、観察者の眼
球を照明するための照明光が観察者の眼鏡で反射し、そ
の反射光が観察者の視線を検出するための眼球像を妨げ
るのを防止し、観察者の正確な視線検出を可能とするこ
とができる。
According to the present invention, the illumination means for illuminating the vicinity of the eyeball of the observer, the light receiving means for receiving the reflected light of the eyeball illuminated by the illumination means, and the eyeball image information obtained by the light receiving means are used. There is a line-of-sight detection means for calculating the line-of-sight position of the observer, the illumination means is composed of a plurality of sets of light-emitting elements for emitting light to illuminate the eyes of the observer in pairs, the eyeball of the photographer From the positional relationship between the eyeball image position obtained from the image information and the position of the reflected light from the spectacles worn by the photographer, the optimum light emitting element set is selected from the plurality of light emitting element sets of the illumination means. By providing a line-of-sight detection device having an illumination selection unit and an optical device having the same, when an observer wears eyeglasses and looks through a viewfinder of an optical device such as a camera, A light to illuminate the eyeball Light is reflected by the observer's eyeglasses can the reflected light can be prevented from interfering with the eyeball image for detecting the line of sight of the observer, enabling accurate sight line detection of the observer.

【図面の簡単な説明】[Brief description of drawings]

【図1】一眼レフカメラの概略図。FIG. 1 is a schematic view of a single-lens reflex camera.

【図2】一眼レフカメラの上面概観図および一眼レフカ
メラの後部外観図。
FIG. 2 is a top view of the single-lens reflex camera and a rear view of the single-lens reflex camera.

【図3】ファインダ視野における撮影情報表示図。FIG. 3 is a view showing shooting information in a viewfinder field.

【図4】カメラの電気回路図。FIG. 4 is an electric circuit diagram of the camera.

【図5】カメラ動作のフローチャート。FIG. 5 is a flowchart of camera operation.

【図6】視線検出動作のフローチャート。FIG. 6 is a flowchart of a line-of-sight detection operation.

【図7】視線検出キャリブレーションのフローチャー
ト。
FIG. 7 is a flowchart of eye-gaze detection calibration.

【図8】IRED選択動作2のフローチャート。FIG. 8 is a flowchart of IRED selection operation 2.

【図9】本発明の効果説明図。FIG. 9 is an explanatory diagram of effects of the present invention.

【図10】第二の実施例説明フローチャート。FIG. 10 is a flowchart for explaining the second embodiment.

【図11】従来のIREDレイアウト説明図。FIG. 11 is an explanatory diagram of a conventional IRED layout.

【図12】従来例の眼球像説明図。FIG. 12 is an explanatory diagram of an eyeball image of a conventional example.

【図13】視線検出原理説明図。FIG. 13 is an explanatory diagram of a gaze detection principle.

【図14】視線検出原理説明図FIG. 14 is an explanatory diagram of a gaze detection principle.

【符号の説明】[Explanation of symbols]

1 撮影レンズ 2 主ミラー 6 焦点検出装置 6f イメージセンサ 7 ピント板 10 測光センサ 11 接眼レンズ 13 赤外発光ダイオード(IRED) 14 イメージセンサ(CCD−EYE) 15 眼球 16 角膜 17 虹彩 18 瞳孔 27 水銀スイッチ 31 絞り 41 レリーズ釦 44 モードダイヤル 45 電子ダイヤル 50 視線入力マーク 53 合焦マーク 70〜74 焦点検出領域マーク 100 CPU 100 視線検出回路 103 焦点検出回路 104 信号入力回路 105 LCD駆動回路 106 LED駆動回路 107 IRED駆動回路 110 焦点調節回路 1 Shooting lens 2 primary mirror 6 Focus detection device 6f image sensor 7 focus plate 10 Photometric sensor 11 eyepiece 13 Infrared light emitting diode (IRED) 14 Image sensor (CCD-EYE) 15 eyeballs 16 cornea 17 Iris 18 pupil 27 Mercury switch 31 aperture 41 Release button 44 Mode dial 45 electronic dial 50 Line-of-sight input mark 53 Focus mark 70-74 Focus detection area mark 100 CPU 100 line-of-sight detection circuit 103 Focus detection circuit 104 signal input circuit 105 LCD drive circuit 106 LED drive circuit 107 IRED drive circuit 110 Focus adjustment circuit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 観察者の眼球近傍を照明する照明手段
と、 該照明手段によって照明された眼球の反射光を受光する
受光手段と、 該受光手段によって得られた眼球像情報から観察者の視
線位置を算出する視線検出手段を有し、前記照明手段
は、二個一組で前記観察者の眼球を照明するための発光
を行う発光素子複数組からなり、 前記観察者の眼球像情報から得られる眼球像位置と、前
記観察者の装着している眼鏡からの反射光位置との位置
関係から前記照明手段の複数の光源の組の中から最適な
発光素子の組を選択する照明選択手段を有することを特
徴とする視線検出装置及びそれを有した光学機器。
1. An illuminating means for illuminating the vicinity of an observer's eyeball, a light receiving means for receiving reflected light of the eyeball illuminated by the illuminating means, and an eye line of the observer from eyeball image information obtained by the light receiving means. It has a line-of-sight detecting means for calculating the position, the illuminating means is composed of a plurality of light emitting elements for emitting light to illuminate the eyeball of the observer in pairs, and is obtained from eyeball image information of the observer. Illumination selection means for selecting an optimal set of light emitting elements from a set of a plurality of light sources of the illumination means from the positional relationship between the eyeball image position and the position of reflected light from the eyeglasses worn by the observer. An eye-gaze detecting device having the same and an optical instrument having the same.
【請求項2】 上記照明選択手段は、上記観察者の眼球
光軸と視軸との差を補正するための補正値採取動作、い
わゆるキャリブレーション時に作用し、該照明選択手段
により選択された発光素子の一組の位置は、前記観察者
の補正値と共に記憶されることを特徴とする請求項1記
載の視線検出装置及びそれを有した光学機器。
2. The illumination selection means operates during a correction value sampling operation for correcting the difference between the optical axis of the eyeball and the visual axis of the observer, so-called calibration, and the light emission selected by the illumination selection means. The line-of-sight detection device according to claim 1, wherein the position of the set of elements is stored together with the correction value of the observer, and an optical apparatus having the same.
【請求項3】 上記照明選択手段は、上記観察者の視線
位置を算出する視線検出動作が不成功と判定された時に
作用し、上記照明選択手段によって新規選択された発光
素子の組にて、再度視線検出を行うことを特徴とする請
求項1記載の視線検出装置及びそれを有した光学機器。
3. The illumination selecting means operates when it is determined that the line-of-sight detecting operation for calculating the line-of-sight position of the observer is unsuccessful, and in the set of light-emitting elements newly selected by the illumination selecting means, The line-of-sight detection device according to claim 1, wherein the line-of-sight detection is performed again, and an optical apparatus including the line-of-sight detection device.
JP2002159793A 2002-05-31 2002-05-31 Visual line detector and optical apparatus having the same Withdrawn JP2003339642A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002159793A JP2003339642A (en) 2002-05-31 2002-05-31 Visual line detector and optical apparatus having the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002159793A JP2003339642A (en) 2002-05-31 2002-05-31 Visual line detector and optical apparatus having the same

Publications (1)

Publication Number Publication Date
JP2003339642A true JP2003339642A (en) 2003-12-02

Family

ID=29773972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002159793A Withdrawn JP2003339642A (en) 2002-05-31 2002-05-31 Visual line detector and optical apparatus having the same

Country Status (1)

Country Link
JP (1) JP2003339642A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3158921A1 (en) 2015-10-23 2017-04-26 Fujitsu Limited Line of sight detection system and method
WO2017203815A1 (en) * 2016-05-27 2017-11-30 ソニー株式会社 Information processing device, information processing method, and recording medium
JP2020537556A (en) * 2017-10-17 2020-12-24 ヴェリリー ライフ サイエンシズ エルエルシー Flash optimization during continuous retina imaging
US10962772B2 (en) 2017-10-27 2021-03-30 Samsung Electronics Co., Ltd. Method of removing reflection area, and eye tracking method and apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3158921A1 (en) 2015-10-23 2017-04-26 Fujitsu Limited Line of sight detection system and method
WO2017203815A1 (en) * 2016-05-27 2017-11-30 ソニー株式会社 Information processing device, information processing method, and recording medium
US10893802B2 (en) 2016-05-27 2021-01-19 Sony Corporation Information processing apparatus, information processing method, and recording medium
JP2020537556A (en) * 2017-10-17 2020-12-24 ヴェリリー ライフ サイエンシズ エルエルシー Flash optimization during continuous retina imaging
JP7116163B2 (en) 2017-10-17 2022-08-09 ヴェリリー ライフ サイエンシズ エルエルシー Flash optimization during continuous retinal imaging
US10962772B2 (en) 2017-10-27 2021-03-30 Samsung Electronics Co., Ltd. Method of removing reflection area, and eye tracking method and apparatus

Similar Documents

Publication Publication Date Title
JP2002345756A (en) Visual line detector and optical equipment
JP3297481B2 (en) Eye gaze detection device
US5402199A (en) Visual axis detecting apparatus
JPH05333259A (en) Optical device provided with means for detecting line of sight
JPH07289517A (en) Line of sight detector and optical equipment with the same
JP2004008323A (en) Optical device with visual axis function
JP2002301030A (en) Equipment to detect sight line
JP2003339642A (en) Visual line detector and optical apparatus having the same
JP3530647B2 (en) Eye gaze detecting device and optical device
JP2003307774A (en) Optical apparatus with line-of-sight detecting function
JP2005249831A (en) Optical equipment having line-of-sight detector
JP3176147B2 (en) Eye gaze detection device
JP2002341239A (en) Sight line detecting device
JP2004012503A (en) Camera
JP3184634B2 (en) Optical device having line-of-sight detection device
JP3219491B2 (en) Eye gaze detection device
JP3530648B2 (en) Eye gaze detecting device and optical device
JP3211427B2 (en) Eye gaze detection device
JP3605080B2 (en) Eye gaze detection device
JP3605081B2 (en) Eye gaze detection device
JP3391892B2 (en) Eye gaze detecting device, optical device, and eye gaze detecting method
JP2003084193A (en) Optical device
JP2004012501A (en) Sight line detection device and optical device provided with the same
JPH06138364A (en) Camera provided with device for detecting line of sight
JP2004004300A (en) Line of sight detecting device and optical apparatus provided with it

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050802