JP2001258845A - Visual line detector - Google Patents

Visual line detector

Info

Publication number
JP2001258845A
JP2001258845A JP2000071981A JP2000071981A JP2001258845A JP 2001258845 A JP2001258845 A JP 2001258845A JP 2000071981 A JP2000071981 A JP 2000071981A JP 2000071981 A JP2000071981 A JP 2000071981A JP 2001258845 A JP2001258845 A JP 2001258845A
Authority
JP
Japan
Prior art keywords
image
eye
observer
eye image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000071981A
Other languages
Japanese (ja)
Inventor
Yasuo Suda
康夫 須田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000071981A priority Critical patent/JP2001258845A/en
Publication of JP2001258845A publication Critical patent/JP2001258845A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a visual line detector tolerant to an individual difference such as the eyelash form of an observer, the way of looking through an observ ing surface or the like and capable of performing a precise visual line detection. SOLUTION: In this detector, an imaging optical system for forming the eye image of the eye of the observer forms a plurality of eye images having a parallax. An arithmetic means for calculating the watching point of the observer from the eye images calculates the watching point by use of an eye image composed on the basis of the eye images (#301-#311, #316 and #317).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ等に用いら
れる視線検出装置の改良に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement in a gaze detecting device used for a camera or the like.

【0002】[0002]

【従来の技術】従来より、ファインダを観察する観察者
の視線方向を検出して、この結果をカメラの焦点検出点
や測距点選択等に用いる技術が知られている。ここに用
いられる視線検出装置は、例えば、特開平6−1877
2号に開示されているものであって、赤外光を観察者の
眼部に照射し、戻ってきた反射光から眼画像を形成し、
この眼画像データに基づいて視線検出を行う。
2. Description of the Related Art Conventionally, there has been known a technique in which the direction of a line of sight of an observer observing a finder is detected and the result is used for selecting a focus detection point of a camera or a distance measuring point. The gaze detection device used here is disclosed in, for example, Japanese Patent Laid-Open No. 6-1877.
No. 2, which irradiates infrared light to the observer's eye and forms an eye image from the returned reflected light;
Gaze detection is performed based on the eye image data.

【0003】通常、眼画像には瞼や瞳孔の他に、角膜で
の光源の反射像である第一プルキンエ像が認められる。
瞳孔と第一プルキンエ像との位置関係は眼球の回転に応
じて変化するので、眼画像から瞳孔と第一プルキンエ像
の情報を抽出することによって、注視点を検出すること
が可能である。
[0003] Usually, in an eye image, in addition to the eyelids and the pupils, a first Purkinje image, which is a reflection image of a light source on the cornea, is recognized.
Since the positional relationship between the pupil and the first Purkinje image changes according to the rotation of the eyeball, it is possible to detect the gazing point by extracting information on the pupil and the first Purkinje image from the eye image.

【0004】さらには、より検出精度を向上させるため
に、視差を持った複数の眼画像を用いる技術が知られて
いる。特開平2−134130号や特開平8−1409
37号はこの例であって、二方向からファインダ観察者
の眼部を撮像し、この一対の眼画像の情報から、第一プ
ルキンエ像の実空間座標と瞳孔中心の実空間座表を求
め、さらに、角膜曲率中心の実空間座表の算出を経て、
注視点座標を導くものである。
Further, a technique using a plurality of eye images having parallax in order to further improve detection accuracy is known. JP-A-2-134130 and JP-A-8-1409
No. 37 is an example of this, in which the eye of the finder observer is imaged from two directions, and from the information of the pair of eye images, the real space coordinates of the first Purkinje image and the real space coordinates of the pupil center are obtained. Furthermore, after calculating the real space coordinate table of the corneal curvature center,
This is to guide the fixation point coordinates.

【0005】[0005]

【発明が解決しようとする課題】ところが、従来型の視
線検出装置では、眼画像として瞳孔と第一プルキンエ像
を同時に、しかも良好に捉えられるとは限らず、この結
果、検出誤差が大きくなることもあって、しばしば実際
の注視点とは異なる位置を誤って出力していた。
However, in the conventional gaze detecting device, the pupil and the first Purkinje image cannot always be captured simultaneously and favorably as the eye image, and as a result, the detection error increases. For this reason, they often incorrectly output a position different from the actual point of gaze.

【0006】この原因は、まつげによって瞳孔が部分的
に隠れてしまうことである場合が多い。また、観察者が
ファインダを斜めに覗くことを原因として、第一プルキ
ンエ像が検出できない場合もある。さらには、ファイン
ダ光学系や眼鏡で生じるゴーストによって瞳孔の輪郭が
歪んで見えたり、第一プルキンエ像の位置がシフトして
見えたりもする。
The cause is often that the pupil is partially hidden by eyelashes. Further, there is a case where the first Purkinje image cannot be detected because the observer looks obliquely into the finder. Further, the contour of the pupil may appear distorted due to a ghost generated in the finder optical system or the glasses, or the position of the first Purkinje image may appear shifted.

【0007】このような不具合は、特開平8−1409
37号に示される眼部を二方向から撮像する視線検出装
置であっても、一対の画像のそれぞれで瞳孔と第一プル
キンエ像が捉えられなければその後の処理で誤差を生じ
ることから、同じように発生する。
[0007] Such a problem is described in Japanese Patent Application Laid-Open No. H08-1409.
Even in the eye gaze detecting device shown in No. 37 which captures the eye from two directions, if the pupil and the first Purkinje image are not captured in each of the pair of images, an error will occur in the subsequent processing. Occurs.

【0008】(発明の目的)本発明の第1の目的は、観
察者のまつげの態様や観察面の覗き方等の個人差につい
て寛容であり、しかも、高精度な視線検出を行うことの
できる視線検出装置を提供しようとするものである。
(Aim of the Invention) A first object of the present invention is to tolerate individual differences such as eyelashes of an observer and how to look at an observation surface, and it is possible to detect a gaze with high accuracy. It is an object to provide a line-of-sight detection device.

【0009】本発明の第2の目的は、観察者がより斜め
から観察面を覗いたとしても、視線検出不能状態に陥り
難いものとすることのできる視線検出装置を提供しよう
とするものである。
A second object of the present invention is to provide an eye-gaze detecting device which makes it difficult for an eye-gaze to be detected even when an observer looks into the observation surface from an oblique direction. .

【0010】[0010]

【課題を解決するための手段】上記第1の目的を達成す
るために、請求項1に記載の発明は、観察者の眼の眼画
像を形成する結像光学系と、前記眼画像から観察者の注
視点を演算する演算手段とを有する視線検出装置におい
て、前記結像光学系を、視差を持った複数の眼画像を形
成するものとし、前記演算手段を、前記複数の眼画像を
もとに合成した眼画像を用いて注視点を算出するものと
する視線検出装置とするものである。
In order to achieve the first object, the invention according to claim 1 provides an image forming optical system for forming an eye image of an observer's eye, and an image forming apparatus for observing the image from the eye image. A gaze detecting device having a calculating means for calculating a gaze point of a person, wherein the imaging optical system forms a plurality of eye images having parallax, and the calculating means also generates the plurality of eye images. And a gaze detection device that calculates a gazing point using the eye image synthesized with the above.

【0011】同じく上記第1の目的を達成するために、
請求項4に記載の発明は、観察者の眼の眼画像を形成す
る結像光学系と、前記眼画像から観察者の注視点を演算
する演算手段とを有する視線検出装置において、前記結
像光学系を、視差を持った複数の眼画像を形成するもの
とし、前記演算手段を、前記複数の眼画像のうちの一方
の画像と他方の画像の相加平均により合成した眼画像を
得、該合成した眼画像を用いて注視点を算出するものと
する視線検出装置とするものである。
[0011] Similarly, in order to achieve the first object,
According to a fourth aspect of the present invention, in the eye-gaze detecting apparatus having an imaging optical system that forms an eye image of an observer's eye, and an arithmetic unit that calculates a gazing point of the observer from the eye image, The optical system is to form a plurality of eye images having parallax, and the calculating means obtains an eye image synthesized by arithmetic averaging of one of the plurality of eye images and the other image, A gaze detection device is to calculate a gazing point using the synthesized eye image.

【0012】同じく上記第1の目的を達成するために、
請求項5に記載の発明は、観察者の眼の眼画像を形成す
る結像光学系と、前記眼画像から観察者の注視点を演算
する演算手段とを有する視線検出装置において、前記結
像光学系を、視差を持った複数の眼画像を形成するもの
とし、前記演算手段を、前記複数の眼画像のうちの一方
の画像と他方の画像の相乗平均により合成した眼画像を
得、該合成した眼画像を用いて注視点を算出するものと
する視線検出装置とするものである。
[0012] Similarly, in order to achieve the first object,
According to a fifth aspect of the present invention, in the visual line detection device, the image forming optical system includes: an imaging optical system that forms an eye image of an observer's eye; and a calculation unit that calculates a gazing point of the observer from the eye image. The optical system is configured to form a plurality of eye images having parallax, and the calculating unit obtains an eye image synthesized by a geometric mean of one of the plurality of eye images and the other image. This is a gaze detection device that calculates a gazing point using the synthesized eye image.

【0013】また、上記第2の目的を達成するために、
請求項6に記載の発明は、観察者の眼の眼画像を形成す
る結像光学系と、前記眼画像から観察者の注視点を演算
する演算手段とを有する視線検出装置において、前記結
像光学系を、視差を持った複数の眼画像を形成するもの
とし、前記演算手段を、前記複数の眼画像をもとに合成
した眼画像を用いて注視点を算出する第一の演算モード
と、一つの眼画像を用いて注視点を算出する第二の演算
モードを有するものとする視線検出装置とするものであ
る。
Further, in order to achieve the second object,
According to a sixth aspect of the present invention, in the eye-gaze detecting apparatus having an imaging optical system that forms an eye image of an observer's eye, and a calculating unit that calculates a gazing point of the observer from the eye image, An optical system for forming a plurality of eye images having parallax, and the calculating unit calculates a gazing point using an eye image synthesized based on the plurality of eye images; and And a gaze detection device having a second calculation mode for calculating a gazing point using one eye image.

【0014】[0014]

【発明の実施の形態】以下、本発明を図示の実施の形態
に基づいて詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on illustrated embodiments.

【0015】図1は本発明の実施の第1の形態に係る視
線検出装置を搭載したデジタルカラーカメラの概略構成
を示す図である。
FIG. 1 is a diagram showing a schematic configuration of a digital color camera equipped with a visual axis detection device according to a first embodiment of the present invention.

【0016】このカメラは、CCDあるいはCMOSセ
ンサなどの固体撮像素子を用いた単板式のデジタルカラ
ーカメラであり、固体撮像素子を連続的または単発的に
駆動して動画像または静止画像を表わす画像信号を得
る。ここで、固体撮像素子とは、露光した光を各画素毎
に電気信号に変換してその光量に応じた電荷をそれぞれ
蓄積し、その電荷を読み出すタイプの撮像デバイスであ
る。
This camera is a single-panel digital color camera using a solid-state imaging device such as a CCD or CMOS sensor, and continuously or spontaneously drives the solid-state imaging device to generate an image signal representing a moving image or a still image. Get. Here, the solid-state imaging device is an imaging device that converts exposed light into an electric signal for each pixel, accumulates charges corresponding to the amount of light, and reads out the charges.

【0017】同図において、1はカメラ本体、2は内部
に結像光学系3を有した撮像レンズである。この撮像レ
ンズ2は、公知のマウントを介してカメラ本体1に電気
的、機械的に接続されている。焦点距離の異なる撮像レ
ンズに交換することによって、様々な画角の撮影画面を
得ることが可能である。また、結像光学系3の一部の要
素であるフォーカシングレンズを不図示の駆動機構によ
って光軸L1方向に移動させることによって、物体のピ
ント合わせを行う。
In FIG. 1, reference numeral 1 denotes a camera body, and 2 denotes an imaging lens having an image forming optical system 3 therein. The imaging lens 2 is electrically and mechanically connected to the camera body 1 via a known mount. By changing to an imaging lens having a different focal length, it is possible to obtain shooting screens with various angles of view. The focusing of the object is performed by moving the focusing lens, which is a part of the imaging optical system 3, in the direction of the optical axis L1 by a driving mechanism (not shown).

【0018】4は光学ローパスフィルタ、5はメカニカ
ルシャッタ、6は固体撮像素子である。前記光学ローパ
スフィルタ4は、固体撮像素子6上に必要以上に高い空
間周波数の物体像が形成されないように結像光学系3の
カットオフ周波数を制限するものである。また、該光学
ローパスフィルタ4上には赤外線カットフィルタも形成
されている。前記固体撮像素子6で捉えられた物体像は
液晶ディスプレー7上に表示される。なお、該固体撮像
素子6は、増幅型固体撮像装置の1つであるCMOSプ
ロセスコンパチブルのセンサ(以降CMOSセンサと略
す)である。CMOSセンサの特長の一つに、エリアセ
ンサ部のMOSトランジスタと周辺回路のMOSトラン
ジスタを同一工程で形成できるため、マスク枚数、プロ
セス工程がCCDと比較して大幅に削減できるというこ
とが挙げられる。この特徴を利用すると、二つの光電変
換部の電荷を同時、または、別々にフローティングディ
フュージョン領域(FD領域)へ転送でき、FD領域に
接続した転送MOSトランジスタのタイミングだけで、
二つの光電変換部の信号電荷の加算、非加算を簡単に行
うことができる。
4 is an optical low-pass filter, 5 is a mechanical shutter, and 6 is a solid-state image sensor. The optical low-pass filter 4 limits the cut-off frequency of the imaging optical system 3 so that an object image with an unnecessarily high spatial frequency is not formed on the solid-state imaging device 6. An infrared cut filter is also formed on the optical low-pass filter 4. The object image captured by the solid-state imaging device 6 is displayed on a liquid crystal display 7. The solid-state imaging device 6 is a CMOS process-compatible sensor (hereinafter abbreviated as a CMOS sensor), which is one of amplification type solid-state imaging devices. One of the features of the CMOS sensor is that since the MOS transistor of the area sensor portion and the MOS transistor of the peripheral circuit can be formed in the same step, the number of masks and the number of process steps can be significantly reduced as compared with the CCD. By utilizing this feature, the charges of the two photoelectric conversion units can be transferred simultaneously or separately to the floating diffusion region (FD region), and only by the timing of the transfer MOS transistor connected to the FD region,
Addition and non-addition of the signal charges of the two photoelectric conversion units can be easily performed.

【0019】上記固体撮像素子6は、前述したような構
造を利用して、撮像レンズの射出瞳全体からの光束を受
光する第1の出力モードと、撮像レンズの射出瞳の一部
からの光束を受光する第2の出力モードとを切り替え可
能としている。第1の出力モードでの出力は、撮像とフ
ァインダ出力に、第2の出力モードでの出力は、焦点検
出とファインダ出力に用いられる。画素レベルで信号の
加算を行う第1の出力モードにおいては、信号を読み出
した後で加算する方式に比べてノイズの少ない信号を得
ることができる。
The solid-state image pickup device 6 uses the above-described structure to receive a light beam from the entire exit pupil of the image pickup lens and a light output from a part of the exit pupil of the image pickup lens. And the second output mode for receiving light. The output in the first output mode is used for imaging and finder output, and the output in the second output mode is used for focus detection and finder output. In the first output mode in which signals are added at a pixel level, a signal with less noise can be obtained as compared with a method in which signals are read and then added.

【0020】8,9は液晶ディスプレー7を観察するた
めの凹レンズと凸レンズであって、総合的に正のパワー
を有し、10はファインダ光学系の保護を兼ねた眼球照
明プリズムであって、ファインダ光路部分は平行平板で
構成され、ファインダ光学系の窓部材となっている。こ
れらはファインダ光学系を構成している。前記凸レンズ
9をファインダ光軸L2に沿って移動させることによ
り、視度を調節し、観察者に適切な液晶ディスプレー7
の見え具合を得ることができる。また、12および13
は射出光を特定方向に拡散する光拡散手段であるところ
の拡散板である。
Reference numerals 8 and 9 denote a concave lens and a convex lens for observing the liquid crystal display 7, which have a positive overall power. Reference numeral 10 denotes an eyeball illumination prism which also serves to protect the finder optical system. The optical path portion is formed of a parallel plate and serves as a window member of a finder optical system. These constitute a finder optical system. By moving the convex lens 9 along the finder optical axis L2, the diopter is adjusted, and the liquid crystal display 7 suitable for the observer is adjusted.
Can be obtained. 12 and 13
A diffusion plate is a light diffusion means for diffusing the emitted light in a specific direction.

【0021】前記眼球照明プリズム10の側方には、図
2に示す発光特性の赤色光を発する発光部であるところ
のLED11等が取り付けられており、該LED11よ
り発せられた光は眼球照明プリズム10の内部を透過
し、さらに、拡散板12あるいは13を透過してカメラ
の外部に射出される。これらは観察者の眼部を照明する
眼球照明系である。
An LED 11 or the like, which is a light-emitting portion that emits red light having a light emission characteristic shown in FIG. 2, is attached to the side of the eyeball illumination prism 10, and the light emitted from the LED11 is an eyeball illumination prism. The light passes through the inside of the camera 10 and further passes through the diffusion plate 12 or 13 and is emitted to the outside of the camera. These are eyeball illumination systems that illuminate the observer's eye.

【0022】前記LED11の発光中心波長は720nm
であって(図2参照)、この波長における比視感度はか
なり低い。しかし、発光強度の裾が短波長側に延びてい
ることもあって十分に視認可能である。したがって、観
察者が意識すれば、LED11の発光を通して視線検出
装置の作動状態を知ることができる。
The central emission wavelength of the LED 11 is 720 nm.
(See FIG. 2), and the relative visibility at this wavelength is quite low. However, the emission intensity is sufficiently visible, partly because the skirt of the emission intensity extends to the shorter wavelength side. Therefore, if the observer is conscious, the operating state of the gaze detection device can be known through the emission of the LED 11.

【0023】凹レンズ8,凸レンズ9,眼球照明プリズ
ム10のファインダ光路の有効部には、LED11の発
光波長を含むように可視域から760nm程度の波長に対
して増透コートが施されている。これは、眼部の照明が
ファインダ光学系で反射して再び眼に戻り、赤いゴース
トとして見えてしまうのを防ぐことと、次に述べる眼画
像撮像系にゴーストが重畳するのを可能な限り防ぐため
である。
The effective portion of the finder optical path of the concave lens 8, the convex lens 9, and the eyeball illumination prism 10 is provided with a transmission coating for a wavelength of about 760 nm from the visible region so as to include the emission wavelength of the LED 11. This is to prevent the illumination of the eye from being reflected by the finder optical system and returning to the eye again and appearing as a red ghost, and to prevent the ghost from being superimposed on the eye imaging system described below as much as possible. That's why.

【0024】ファインダ光学系の光路中、液晶ディスプ
レー7と凹レンズ8の間には、ダイクロイックミラー1
4が配置され、ファインダから逆に入ってくる光を上方
に分割している。図3はダイクロイックミラー14の分
光反射率特性であり、670nmを半値としたシャープカ
ット特性を示す。したがって、図2に示したLED11
の発光波長域の光は反射し、該LED11で照らされた
観察者の眼部からの反射光は、眼球照明プリズム10,
凸レンズ9,凹レンズ8を逆に通った後、ダイクロイッ
クミラー14で上方に反射する。
A dichroic mirror 1 is provided between the liquid crystal display 7 and the concave lens 8 in the optical path of the finder optical system.
4 are arranged to split light coming from the finder in the opposite direction upward. FIG. 3 shows the spectral reflectance characteristics of the dichroic mirror 14, which shows a sharp cut characteristic with a half value at 670 nm. Therefore, the LED 11 shown in FIG.
Is reflected, and the reflected light from the observer's eye illuminated by the LED 11 is reflected by the eyeball illumination prism 10,
After passing through the convex lens 9 and the concave lens 8 in reverse, the light is reflected upward by the dichroic mirror 14.

【0025】また、液晶ディスプレー7に表示された画
像の670nmよりも短波長の成分はダイクロイックミラ
ー14を透過し、凹レンズ8,凸レンズ9,ファインダ
光学系の窓部材である眼球照明プリズム10を経て射出
される。このとき、厳密には670nmよりも長波長の成
分がカットされている訳であるが、この波長域は比視感
度が低いためにファインダ画像に不自然さを生じること
はない。
A component having a wavelength shorter than 670 nm of the image displayed on the liquid crystal display 7 passes through the dichroic mirror 14 and is emitted through the concave lens 8, the convex lens 9, and the eyeball illumination prism 10 which is a window member of the finder optical system. Is done. At this time, strictly speaking, the component having a wavelength longer than 670 nm is cut off, but since the relative luminous efficiency is low in this wavelength region, no unnaturalness occurs in the finder image.

【0026】ダイクロイックミラー14の上方に位置す
る15はミラー、16は光路変更プリズム、17は複眼
レンズ、18は視線センサである。観察者の眼部からの
反射光はミラー15で光路を直角に曲げた後、光路変更
プリズム16,複眼レンズ17を通って視線センサ18
上に観察者の眼部の画像を形成する。後述するように、
視差を持った一対の眼部の画像を得ることによって、ま
つげの態様やファインダの覗き方等の個人差について寛
容で、しかも、高精度な視線検出を実現している。
Reference numeral 15 above the dichroic mirror 14 is a mirror, 16 is an optical path changing prism, 17 is a compound eye lens, and 18 is a line-of-sight sensor. The reflected light from the observer's eye is bent at a right angle by a mirror 15 and then passes through an optical path changing prism 16 and a compound eye lens 17 to a line-of-sight sensor 18.
An image of the eye of the observer is formed thereon. As described below,
By obtaining an image of a pair of eyes having parallax, it is possible to tolerate individual differences in eyelash mode, how to look through a finder, and the like, and to realize highly accurate gaze detection.

【0027】19はメインスイッチ、20はレリーズボ
タンである。
Reference numeral 19 denotes a main switch, and reference numeral 20 denotes a release button.

【0028】図4は、上記デジタルカラーカメラの電気
的構成を示すブロック図である。
FIG. 4 is a block diagram showing an electrical configuration of the digital color camera.

【0029】まず、カメラの撮像,記録に関する部分か
ら説明する。カメラは、撮像系,画像処理系,記録再生
系,制御系を有する。
First, a description will be given of a portion relating to imaging and recording of a camera. The camera has an imaging system, an image processing system, a recording / reproducing system, and a control system.

【0030】前記撮像系は、結像光学系3,メカニカル
シャッタ5および固体撮像素子6を含み、前記画像処理
系は、A/D変換器30,RGB画像処理回路31およ
びYC処理回路32を含む。また、前記記録再生系は、
記録処理回路33および再生処理回路34を含み、前記
制御系は、カメラシステム制御回路35,操作検出回路
36および固体撮像素子駆動回路37を含む。38は外
部のコンピュータ等に接続して、データの送受信をする
ための規格化された接続端子である。
The imaging system includes an imaging optical system 3, a mechanical shutter 5, and a solid-state imaging device 6, and the image processing system includes an A / D converter 30, an RGB image processing circuit 31, and a YC processing circuit 32. . Further, the recording / reproducing system includes:
The control system includes a recording processing circuit 33 and a reproduction processing circuit 34, and the control system includes a camera system control circuit 35, an operation detection circuit 36, and a solid-state imaging device driving circuit 37. Reference numeral 38 denotes a standardized connection terminal for transmitting and receiving data by connecting to an external computer or the like.

【0031】前記撮像系は、物体からの光を結像光学系
3を介して固体撮像素子6の撮像面に結像する光学処理
系であり、撮像レンズ2の不図示の絞りと、必要に応じ
てさらにメカニカルシャッタ5を調節することで、適切
な光量の被写体像を固体撮像素子6に露光できる。固体
撮像素子6は、長辺方向に3700画素、短辺方向に2
800画素の合計約1000万の画素数を有する撮像デ
バイスが適用されて、画素の前面には赤色(R),緑色
(G),青色(B)の3原色の光学フィルタがモザイク
状に配置されている。
The image pickup system is an optical processing system for forming an image of light from an object on the image pickup surface of the solid-state image pickup device 6 via the image forming optical system 3. By further adjusting the mechanical shutter 5 in response, a solid-state image sensor 6 can be exposed to a subject image having an appropriate amount of light. The solid-state image sensor 6 has 3700 pixels in the long side direction and 2 pixels in the short side direction.
An imaging device having a total of about 10 million pixels of 800 pixels is applied, and optical filters of three primary colors of red (R), green (G), and blue (B) are arranged in a mosaic shape in front of the pixels. ing.

【0032】固体撮像素子6から読み出された画像信号
は、それぞれA/D変換器30を介して画像処理系に供
給される。A/D変換器30は、露光した各画素の信号
の振幅に応じた、たとえば10ビットのデジタル信号に
変換して出力する信号変換回路であり、以降の画像信号
処理はデジタル処理にて実行される。
The image signals read from the solid-state image sensor 6 are supplied to an image processing system via the A / D converter 30. The A / D converter 30 is a signal conversion circuit that converts and outputs a 10-bit digital signal corresponding to the amplitude of the signal of each exposed pixel, for example, and the subsequent image signal processing is executed by digital processing. You.

【0033】前記画像処理系は、R,G,Bのデジタル
信号から所望の形式の画像信号を得る信号処理回路であ
り、R,G,Bの色信号を輝度信号Yおよび色差信号
(R−Y),(B−Y)にて表わされるYC信号などに
変換する。RGB画像処理回路31は、A/D変換器3
0を介して固体撮像素子6から受けた「3700×28
00」画素の画像信号を処理する信号処理回路であり、
ホワイトバランス回路,ガンマ補正回路,補間演算によ
る高解像度化を行う補間演算回路を有する。YC処理回
路32は、輝度信号Yおよび色差信号R−Y,B−Yを
生成する信号処理回路であり、高域輝度信号YHを生成
する高域輝度信号発生回路,低域輝度信号YLを生成す
る低域輝度信号発生回路、および、色差信号R−Y,B
−Yを生成する色差信号発生回路で構成されている。輝
度信号Yは高域輝度信号YHと低域輝度信号YLを合成
することによって形成される。
The image processing system is a signal processing circuit for obtaining an image signal of a desired format from R, G, B digital signals, and converts the R, G, B color signals into a luminance signal Y and a color difference signal (R−G). Y) and (B-Y). The RGB image processing circuit 31 includes the A / D converter 3
“3700 × 28” received from the solid-state imaging device 6 through
A signal processing circuit that processes the image signal of the “00” pixel;
It has a white balance circuit, a gamma correction circuit, and an interpolation operation circuit for increasing the resolution by interpolation operation. The YC processing circuit 32 is a signal processing circuit that generates a luminance signal Y and color difference signals RY and BY, and generates a high-frequency luminance signal generating circuit that generates a high-frequency luminance signal YH and a low-frequency luminance signal YL. Low-frequency luminance signal generating circuit and color difference signals RY, B
-Y is generated by a color difference signal generation circuit. The luminance signal Y is formed by combining the high-frequency luminance signal YH and the low-frequency luminance signal YL.

【0034】前記記録再生系は、メモリへの画像信号の
出力と、液晶ディスプレー7への画像信号の出力とを行
う処理系であり、記録処理回路33はメモリへの画像信
号の書き込み処理および読み出し処理を行ない、再生処
理回路34はメモリから読み出した画像信号を再生し
て、液晶ディスプレー7に出力する。また、記録処理回
路33は、静止画像および動画像を表わすYC信号を所
定の圧縮形式にて圧縮し、また、圧縮データを読み出し
た際に伸張する圧縮伸張回路を内部に有する。圧縮伸張
回路は、信号処理のためのフレームメモリなどを含み、
このフレームメモリに画像処理系からのYC信号をフレ
ーム毎に蓄積して、それぞれ複数のブロック毎に読み出
して圧縮符号化する。圧縮符号化は、たとえば、ブロッ
ク毎の画像信号を二次元直交変換,正規化およびハフマ
ン符号化することにより行なわれる。再生処理回路34
は、輝度信号Yおよび色差信号R−Y,B−Yをマトリ
ックス変換して、例えばRGB信号に変換する回路であ
る。再生処理回路34によって変換された信号は液晶デ
ィスプレー7に出力され、可視画像が表示再生される。
The recording / reproducing system is a processing system for outputting an image signal to the memory and outputting an image signal to the liquid crystal display 7. The recording processing circuit 33 writes and reads the image signal to and from the memory. After performing the processing, the reproduction processing circuit 34 reproduces the image signal read from the memory and outputs the reproduced image signal to the liquid crystal display 7. Further, the recording processing circuit 33 has therein a compression / expansion circuit for compressing the YC signal representing a still image and a moving image in a predetermined compression format, and for expanding when reading the compressed data. The compression / expansion circuit includes a frame memory and the like for signal processing,
The YC signal from the image processing system is stored in this frame memory for each frame, and is read out for each of a plurality of blocks and compression-encoded. The compression encoding is performed, for example, by subjecting an image signal of each block to two-dimensional orthogonal transformation, normalization, and Huffman encoding. Reproduction processing circuit 34
Is a circuit for performing a matrix conversion of the luminance signal Y and the color difference signals RY and BY to convert them into, for example, RGB signals. The signal converted by the reproduction processing circuit 34 is output to the liquid crystal display 7, and a visible image is displayed and reproduced.

【0035】一方、前記制御系は、レリーズボタン20
等の操作を検出する操作検出回路36と、その検出信号
に応動して各部を制御し、撮像の際のタイミング信号な
どを生成して出力するカメラシステム制御回路35と、
このカメラシステム制御回路35の制御の下に固体撮像
素子6を駆動する駆動信号を生成する固体撮像素子駆動
回路37とを含む。
On the other hand, the control system includes a release button 20
An operation detection circuit 36 that detects operations such as an operation, a camera system control circuit 35 that controls each unit in response to the detection signal, and generates and outputs a timing signal and the like at the time of imaging.
Under the control of the camera system control circuit 35, a solid-state image sensor driving circuit 37 that generates a drive signal for driving the solid-state image sensor 6 is included.

【0036】この制御系は、外部操作に応動して前記撮
像系,画像処理系,記録再生系をそれぞれ制御し、例え
ば、レリーズボタン20の押下を検出して、固体撮像素
子6の駆動、RGB画像処理回路31の動作、記録処理
回路33の圧縮処理などを制御する。
This control system controls the imaging system, the image processing system, and the recording / reproducing system in response to an external operation. For example, when the release button 20 is pressed, the driving of the solid-state imaging device 6 and the RGB are performed. The operation of the image processing circuit 31 and the compression processing of the recording processing circuit 33 are controlled.

【0037】次に、視線検出と焦点調節に関する部分に
ついて説明する。
Next, a description will be given of the parts relating to the visual line detection and the focus adjustment.

【0038】カメラシステム制御回路35には、さらに
視線検出・AF制御回路40とレンズシステム制御回路
41が接続されている。これらはカメラシステム制御回
路35を中心にして各々の処理に必要とするデータを相
互に通信している。
The camera system control circuit 35 is further connected to a line-of-sight detection / AF control circuit 40 and a lens system control circuit 41. These mutually communicate data required for each processing with the camera system control circuit 35 at the center.

【0039】視線検出・AF制御回路40は、ファイン
ダ光学系42を通して視線センサ18に投影されたファ
インダ観察者の眼画像からファインダ視野上の観察者の
注視点を検出する。ファインダ光学系42は、前述した
ように図1に示した凹レンズ8,凸レンズ9および眼球
照明プリズム10で構成されている。
The line-of-sight detection / AF control circuit 40 detects the gazing point of the observer in the finder field of view from the finder observer's eye image projected on the line-of-sight sensor 18 through the finder optical system 42. As described above, the finder optical system 42 includes the concave lens 8, the convex lens 9, and the eyeball illumination prism 10 shown in FIG.

【0040】ファインダ視野上の注視点情報からはさら
に注視位置の物体像に結像光学系3のピントを合わせる
べく、注視点上に焦点検出点を設定し、この点の結像状
態を検出する。デフォーカスが検出されると、これを結
像光学系3の一部の要素であるフォーカシングレンズの
駆動量に変換し、カメラシステム制御回路35を中継し
てレンズシステム制御回路41に送信する。レンズシス
テム制御回路41はフォーカシングレンズの駆動量を受
信すると、不図示の駆動機構によってフォーカシングレ
ンズを光軸L1方向に移動させることによって、注視点
上の物体にピントを合わせる。
From the gazing point information in the finder visual field, a focus detection point is set on the gazing point in order to further focus the image forming optical system 3 on the object image at the gazing position, and the imaging state of this point is detected. . When the defocus is detected, it is converted into a driving amount of a focusing lens, which is a part of the imaging optical system 3, and transmitted to the lens system control circuit 41 via the camera system control circuit 35. Upon receiving the driving amount of the focusing lens, the lens system control circuit 41 moves the focusing lens in the direction of the optical axis L1 by a driving mechanism (not shown) to focus on the object on the gazing point.

【0041】また、視線検出・AF制御回路40によっ
て、注視点上の物体にピントが合っていることが検出さ
れると、この情報はカメラシステム制御回路35に伝え
られ、カメラシステム制御回路35による撮像が許可さ
れる。このとき、レリーズボタン20が押下されれば、
前述のごとく上記の撮像系、画像処理系、記録再生系に
よる撮像制御が成される。
When the line-of-sight detection / AF control circuit 40 detects that the object on the gazing point is in focus, this information is transmitted to the camera system control circuit 35, and the information is transmitted to the camera system control circuit 35. Imaging is permitted. At this time, if the release button 20 is pressed,
As described above, the imaging control is performed by the imaging system, the image processing system, and the recording / reproducing system.

【0042】さて、固体撮像素子6の構成について説明
する。
Now, the configuration of the solid-state imaging device 6 will be described.

【0043】図5は、固体撮像素子6内のエリアセンサ
部の回路構成図である。同図は、2列×2行画素の二次
元エリアセンサを示したものであるが、実際は、280
0列×3700行等と画素数を多くし、実用的な解像度
を得る。
FIG. 5 is a circuit configuration diagram of the area sensor section in the solid-state imaging device 6. FIG. 1 shows a two-dimensional area sensor having 2 columns × 2 rows of pixels, but in actuality, it has 280 pixels.
By increasing the number of pixels to 0 columns × 3700 rows and the like, a practical resolution is obtained.

【0044】図5において、301および351はpn
フォトダイオードから成る第1,第2光電変換部、30
3および353は転送スイッチMOSトランジスタ、3
04はリセット用MOSトランジスタ、305はソース
フォロワアンプMOSトランジスタ、306は垂直選択
スイッチMOSトランジスタ、307はソースフォロワ
の負荷MOSトランジスタ、308は暗出力転送MOS
トランジスタ、309は明出力転送MOSトランジス
タ、310は暗出力蓄積容量CTN、311は明出力蓄積
容量CTS、312および354は垂直転送MOSトラン
ジスタ、313および355は垂直出力線リセットMO
Sトランジスタ、314は差動出力アンプ、315は垂
直走査部、316は水平走査部である。
In FIG. 5, 301 and 351 are pn
A first and a second photoelectric conversion unit comprising a photodiode, 30
3 and 353 are transfer switch MOS transistors, 3
04 is a reset MOS transistor, 305 is a source follower amplifier MOS transistor, 306 is a vertical select switch MOS transistor, 307 is a source follower load MOS transistor, and 308 is a dark output transfer MOS.
Transistor, 309 is a light output transfer MOS transistor, 310 is a dark output storage capacitor C TN , 311 is a light output storage capacitor C TS , 312 and 354 are vertical transfer MOS transistors, 313 and 355 are vertical output line reset MOs.
The S transistor 314 is a differential output amplifier, 315 is a vertical scanning unit, and 316 is a horizontal scanning unit.

【0045】図6に、受光部(例えば330−11)の
断面図を示す。なお、受光部330−21,330−1
2,330−22等も同一の構造である。
FIG. 6 is a sectional view of a light receiving section (for example, 330-11). The light receiving units 330-21 and 330-1
2, 330-22 and the like have the same structure.

【0046】同図において、317はP型ウェル、31
8,358はゲート酸化膜、320,350はポリS
i、321はn+ フローティングディフュージョン(F
D)領域である。340と390はn層であり、完全空
乏化できる濃度である。FD領域321は転送MOSト
ランジスタ303,353を介して第1光電変換部30
1および第2光電変換部351と接続される。制御パル
スφTXe により発生した電荷をFD部321へ完全転
送させ、制御パルスφTX0 により信号の加算、非加算
が可能である。なお、この図6では、第1光電変換部3
01と第2光電変換部351を離して描いたが、実際に
はその境界部は極めて小さく、実用上は第1光電変換部
301と第2光電変換部351は接しているとみなして
良い。以降、隣接した第1光電変換部と第2光電変換部
をひとまとめにして「受光部」と呼ぶことにする。ま
た、受光部とMOSトランジスタを含む各画素はほぼ正
方形にレイアウトされ、格子状に隣接して配置されてい
る。
In the figure, 317 is a P-type well, 31
8, 358 are gate oxide films and 320, 350 are poly S
i, 321 are n + floating diffusions (F
D) Region. Numerals 340 and 390 denote n layers, which are concentrations that can be completely depleted. The FD region 321 is connected to the first photoelectric conversion unit 30 via the transfer MOS transistors 303 and 353.
The first and second photoelectric conversion units 351 are connected. The charges generated by the control pulse φTX e are completely transferred to the FD unit 321, and signals can be added or not added by the control pulse φTX 0 . In FIG. 6, the first photoelectric conversion unit 3
Although the first photoelectric conversion unit 301 and the second photoelectric conversion unit 351 are drawn apart from each other, the boundary portion is actually extremely small, and the first photoelectric conversion unit 301 and the second photoelectric conversion unit 351 may be regarded as being in contact with each other in practical use. Hereinafter, the adjacent first and second photoelectric conversion units will be collectively referred to as a “light receiving unit”. The pixels including the light receiving section and the MOS transistor are laid out in a substantially square shape, and are arranged adjacent to each other in a lattice.

【0047】322は特定の波長の光を透過するカラー
フィルタ、323は撮像光学系3からの光束を効率的に
第1,第2光電変換部に導くためのマイクロレンズであ
る。各画素において受光部の占める割合はおおよそ数1
0%程度であって、結像光学系3から射出された光束を
有効に利用するためには、各受光部毎に集光用のマイク
ロレンズを設けて、受光部以外に到達しようとする光を
受光部に偏向ことが必要となる。
Reference numeral 322 denotes a color filter that transmits light of a specific wavelength, and 323 denotes a microlens for efficiently guiding a light beam from the imaging optical system 3 to the first and second photoelectric conversion units. The ratio of the light receiving section in each pixel is approximately
In order to effectively use the luminous flux emitted from the imaging optical system 3, which is about 0%, a microlens for condensing light is provided for each of the light receiving units, and light that is going to reach other than the light receiving units is provided. Must be deflected to the light receiving section.

【0048】図7は、固体撮像素子6の前面に設けたマ
イクロレンズと受光部との位置関係を示す平面図であ
る。
FIG. 7 is a plan view showing the positional relationship between the microlens provided on the front surface of the solid-state image sensor 6 and the light receiving section.

【0049】同図において、301を用いて先に説明し
た受光部330−21,330−22,330−11,
330−12は、この図7では、72−11,72−2
1,72−12,72−22として表している。マイク
ロレンズ71−11から71−44(図6の323に相
当)は受光部の中心と光軸とがおおよそ一致した軸対称
型の球面レンズあるいは非球面レンズであって、各々矩
形の有効部を持ち、光入射側を凸形状として格子状に密
に並べられている。
In the same figure, the light receiving sections 330-21, 330-22, 330-11 described above with reference to 301 are shown.
In FIG. 7, reference numerals 330-12 denote 72-11 and 72-2.
1, 72-12, and 72-22. Microlenses 71-11 to 71-44 (corresponding to 323 in FIG. 6) are axially symmetrical spherical lenses or aspherical lenses in which the center of the light receiving section substantially coincides with the optical axis. They are densely arranged in a lattice with the light incident side being convex.

【0050】前述したように1画素はそれぞれ二つの光
電変換部を有している。図に付した、R,G,Bは赤
色,緑色,青色のカラーフィルタを備えた光電変換部で
あることを、R,G,Bに続く1あるいは2は、第1光
電変換部か第2光電変換部かの区別を表している。例え
ば、R1は赤色カラーフィルタを備えた第1光電変換部
であり、G2は緑色カラーフィルタを備えた第2光電変
換部を意味する。
As described above, each pixel has two photoelectric conversion units. In the figure, R, G, and B denote photoelectric conversion units having red, green, and blue color filters, and 1 or 2 following R, G, and B denotes a first photoelectric conversion unit or a second photoelectric conversion unit. This indicates whether the photoelectric conversion unit is used. For example, R1 is a first photoelectric conversion unit having a red color filter, and G2 is a second photoelectric conversion unit having a green color filter.

【0051】このエリアセンサ部は、各画素にR(赤
色)G(緑色)B(青色)のカラーフィルタを交互に配
して、4画素が一組となる所謂ベイヤー配列を形成して
いる。ベイヤー配列では、観察者が画像を見たときに強
く感じやすいGの画素をRやBの画素よりも多く配置す
る事で、総合的な像性能を上げている。一般に、この方
式の撮像素子では、輝度信号は主にGから生成し、色信
号はR,G,Bから生成する。
In this area sensor section, R (red), G (green), and B (blue) color filters are alternately arranged for each pixel to form a so-called Bayer array in which four pixels constitute one set. In the Bayer array, the overall image performance is improved by arranging more G pixels that are easily felt by an observer when viewing an image than R and B pixels. Generally, in an image sensor of this type, a luminance signal is mainly generated from G, and a color signal is generated from R, G, and B.

【0052】次に、上記のマイクロレンズの作用につい
て述べる。
Next, the operation of the above-described micro lens will be described.

【0053】図8は、エリアセンサ部の断面図である。
不図示の結像光学系3は図の左側に位置し、該結像光学
系3より射出された光束は、光学ローパスフィルタ4を
通って、先ずマイクロレンズ71−11,71−21,
71−31,71−41に入射する。各マイクロレンズ
の後方にはカラーフィルタが配置され、ここで所望の波
長域のみが選択されて72−11から72−41の各受
光部に到達する。カラーフィルタは図7を用いて説明し
たようにベイヤー配列を構成しており、R,G,Bの3
種がある。また、ベイヤー配列であることから、断面に
現れるのはこのうちの2種であって、22Gが緑色透過
カラーフィルタ、22Rが赤色透過カラーフィルタであ
る。
FIG. 8 is a sectional view of the area sensor section.
An imaging optical system 3 (not shown) is located on the left side of the figure, and a light beam emitted from the imaging optical system 3 passes through the optical low-pass filter 4 and first passes through the micro lenses 71-11, 71-21,
It is incident on 71-31 and 71-41. A color filter is arranged behind each microlens, where only a desired wavelength band is selected and reaches each light receiving section from 72-11 to 72-41. The color filters constitute a Bayer array as described with reference to FIG.
There are seeds. Also, because of the Bayer arrangement, only two of them appear in the cross section, 22G being a green transmission color filter and 22R being a red transmission color filter.

【0054】各マイクロレンズのパワーは、固体撮像素
子6の各受光部を結像光学系3の射出瞳に投影するよう
に設定されている。このとき、各受光部の投影像が結像
光学系3の絞り開放時の射出瞳よりも大きくなるように
投影倍率を設定し、受光部に入射する光量と結像光学系
3の絞りSTの開度との関係をおおよそ線形にすると良
い。このマイクロレンズの作用によって、固体撮像素子
全体で、第2光電変換部に入射する光束は、エリアセン
サ部のいずれの位置に入射する光束も結像光学系3の射
出瞳の上半分を通過する光束となる。一方、固体撮像素
子全体の第1光電変換部に入射する光束は結像光学系3
の光軸L1を対称軸として上下を反転したものとして考
えればよい。
The power of each microlens is set so that each light receiving portion of the solid-state imaging device 6 is projected onto the exit pupil of the imaging optical system 3. At this time, the projection magnification is set so that the projected image of each light receiving unit is larger than the exit pupil of the imaging optical system 3 when the aperture is open, and the amount of light incident on the light receiving unit and the stop ST of the imaging optical system 3 are adjusted. It is good to make the relationship with the opening degree approximately linear. Due to the action of the microlenses, in the entire solid-state imaging device, the light beam incident on the second photoelectric conversion unit passes through the upper half of the exit pupil of the imaging optical system 3 even if the light beam enters any position of the area sensor unit. It becomes a luminous flux. On the other hand, the luminous flux incident on the first photoelectric conversion unit of the entire solid-state imaging device is the imaging optical system 3.
It may be considered that the optical axis L1 is a symmetric axis and is inverted upside down.

【0055】以上のような光学系にあっては、例えば固
体撮像素子6よりも手前に物体像が形成されていると
き、射出瞳の上側を通る半光束は図8の固体撮像素子6
上で下側にシフトし、射出瞳の下側を通る半光束は上側
にシフトする。つまり、結像光学系3の瞳の半分ずつを
通った光束で形成される一対の画像信号は物体像の結像
状態に応じて図8の上下方向に位相がシフトしたものと
なる。エリアセンサ部上に焦点検出点を設定し、この点
の周囲について一対の画像信号の位相シフトを調べれ
ば、この焦点検出点における結像光学系3の結像状態を
知ることができる。この構成によれば、撮影画面内のど
こにでも焦点検出点を置くことが可能である。
In the above-described optical system, for example, when an object image is formed before the solid-state image sensor 6, the half light beam passing above the exit pupil is changed to the solid-state image sensor 6 in FIG.
The light beam shifts downward on the upper side, and the half beam passing below the exit pupil shifts on the upper side. That is, a pair of image signals formed by a light beam that has passed through each half of the pupil of the imaging optical system 3 has a phase shifted in the vertical direction in FIG. 8 according to the imaging state of the object image. By setting a focus detection point on the area sensor unit and examining the phase shift of a pair of image signals around this point, the imaging state of the imaging optical system 3 at this focus detection point can be known. According to this configuration, it is possible to place the focus detection point anywhere in the shooting screen.

【0056】次に、上記の固体撮像素子6の電荷蓄積動
作について述べる。
Next, the charge storage operation of the solid-state imaging device 6 will be described.

【0057】先ず、FD部321は蓄積中、ブルーミン
グ防止(強い光が当たった時に電荷がまわりに漏れ出す
ことの防止)のため制御パルスφR0 をハイレベルにし
て電源VDDに固定しておく。光子hνが照射されると、
pnフォトダイオード301,351に電子が蓄積され
ていき、正孔はP型ウェル317を通して排出される。
First, during accumulation, the FD section 321 sets the control pulse φR 0 to a high level and fixes it to the power supply V DD in order to prevent blooming (prevent charges from leaking out when strong light is applied). . When photons hν are irradiated,
Electrons are accumulated in the pn photodiodes 301 and 351, and holes are discharged through the P-type well 317.

【0058】光電変換部301とFD部321の間には
転送MOSトランジスタ303によるエネルギー障壁
が、光電変換部51とFD部21の間には転送MOSト
ランジスタ53によるエネルギー障壁がそれぞれ形成さ
れている。このため、光電荷蓄積中は電子はpnフォト
ダイオード301,351に存在する。この後、水平走
査部を走査させ、同様に電荷蓄積動作を行えば全光電変
換部について電荷の蓄積が成される。
An energy barrier formed by the transfer MOS transistor 303 is formed between the photoelectric conversion unit 301 and the FD unit 321, and an energy barrier formed by the transfer MOS transistor 53 is formed between the photoelectric conversion unit 51 and the FD unit 21. Therefore, electrons are present in the pn photodiodes 301 and 351 during the accumulation of the photocharge. Thereafter, by scanning the horizontal scanning unit and performing the charge storage operation in the same manner, the charge is stored in all the photoelectric conversion units.

【0059】読み出し状態になると転送MOSトランジ
スタ303と353下の障壁をなくし、pnフォトダイ
オード301,351の電子をFD部321へ完全に転
送させる様に制御パルスφTX00,φTXe0を設定す
る。
In the read state, the control pulses φTX 00 and φTX e0 are set so that the barrier below the transfer MOS transistors 303 and 353 is eliminated and the electrons of the pn photodiodes 301 and 351 are completely transferred to the FD section 321.

【0060】第2の出力モードによる、焦点検出用画像
の読み出しは次のようなものである。
The readout of the focus detection image in the second output mode is as follows.

【0061】まず、制御パルスφR0 をハイレベルとし
てFD部321を電源VDDにリセットし、制御パルスφ
0 をハイレベルとして暗出力を蓄積容量310に蓄積
し、次に制御パルスφTX00をハイレベルとして、pn
フォトダイオード301に蓄積された光電荷をソースフ
ォロワMOSトランジスタ305,選択スイッチMOS
トランジスタ306を介して蓄積容量311に転送し
て、ノイズ成分を差動増幅器314によってキャンセル
し、第1光電変換部の画像信号VOUT を出力する。
First, the control pulse φR 0 is set to a high level to reset the FD section 321 to the power supply V DD ,
The dark output is stored in the storage capacitor 310 by setting S 0 to the high level, and then the control pulse φTX 00 is set to the high level to set pn
The photoelectric charge accumulated in the photodiode 301 is converted into a source follower MOS transistor 305 and a selection switch MOS.
The signal is transferred to the storage capacitor 311 via the transistor 306, the noise component is canceled by the differential amplifier 314, and the image signal V OUT of the first photoelectric conversion unit is output.

【0062】さらに、制御パルスφR0 をハイレベルと
してFD部321を電源VDDにリセットし、次に制御パ
ルスφTXe0をハイレベルとして、pnフォトダイオー
ド351に蓄積された光電荷をソースフォロワMOSト
ランジスタ305,選択スイッチMOSトランジスタ3
06を介して蓄積容量311に転送して、ノイズ成分を
差動増幅器314によってキャンセルし、第2光電変換
部画像信号VOUT を出力する。
Further, the control pulse φR 0 is set to the high level to reset the FD section 321 to the power supply V DD , and then the control pulse φTX e0 is set to the high level so that the photocharge accumulated in the pn photodiode 351 is converted into the source follower MOS transistor. 305, selection switch MOS transistor 3
Then, the signal is transferred to the storage capacitor 311 via 06, the noise component is canceled by the differential amplifier 314, and the second photoelectric conversion unit image signal V OUT is output.

【0063】また、同時に転送MOSトランジスタ30
3と353下の障壁をなくして、2つのpnフォトダイ
オード301と351の電荷をFD部321へ完全に転
送させる様に制御パルスφTX00,φTXe0を設定すれ
ば、第1光電変換部の電荷と第2光電変換部の電荷を加
算した第1の出力モードによる画像信号の読み出しを行
うことができる。
At the same time, the transfer MOS transistor 30
If the control pulses φTX 00 and φTX e0 are set so that the barriers below 3 and 353 are eliminated and the charges of the two pn photodiodes 301 and 351 are completely transferred to the FD section 321, the charges of the first photoelectric conversion section The image signal can be read in the first output mode in which the charge of the second photoelectric conversion unit and the charge of the second photoelectric conversion unit are added.

【0064】さて、視線検出装置について説明する。Now, the gaze detection device will be described.

【0065】図9から図11は、眼球照明系の詳細図で
ある。詳しくは、図9はその側面図、図10は眼球照明
プリズム10を図9の矢印Aの方向から見たときの正面
図、図11は照明光路の展開図である。ここで、展開し
た要素には展開前の対応する要素に附した番号の後
に、’を加えて示す。
FIGS. 9 to 11 are detailed views of the eyeball illumination system. 9 is a side view, FIG. 10 is a front view of the eyeball illumination prism 10 viewed from the direction of arrow A in FIG. 9, and FIG. 11 is a developed view of an illumination optical path. Here, the expanded element is indicated by adding 'after the number attached to the corresponding element before expansion.

【0066】眼球照明プリズム10の側方(物体像視野
の外側)には、発光部であるところのLED11,LE
D50,LED51,LED52が取り付けられてい
る。LED11,LED50,LED51,LED52
は、図2に示す発光特性の赤色光を発する。これらのL
EDとその光路は光軸L2を含む水平面と垂直面につい
て面対称であるので、ここではLED11に注目して説
明を加えることとする。
On the side of the eyeball illumination prism 10 (outside the visual field of the object image), the LED 11, LE
D50, LED51 and LED52 are attached. LED11, LED50, LED51, LED52
Emits red light having the emission characteristics shown in FIG. These L
Since the ED and its optical path are plane-symmetric with respect to a horizontal plane including the optical axis L2 and a vertical plane, an explanation will be given here focusing on the LED 11.

【0067】眼球照明プリズム10は、ファインダ光束
の通過面である面10e,10m、LED光の入射面で
ある面10i,10j,10k,10l、アルミニウム
を蒸着した反射面である面10g,10h、LED光の
射出面である凸面10a,10b,10c,10dで構
成されている。ファインダ系の光束が通過する窓部は図
10に示した波線10fの内側(これが物体像視野に相
当する)であり、これ以外の面は眼球照明系のために最
適な形状とすることができる。
The eyeball illumination prism 10 includes surfaces 10e and 10m which are finder light beam passing surfaces, surfaces 10i, 10j, 10k and 10l which are LED light incidence surfaces, surfaces 10g and 10h which are reflection surfaces on which aluminum is deposited. It is composed of convex surfaces 10a, 10b, 10c, and 10d, which are emission surfaces of LED light. The window through which the light beam of the finder system passes is inside the wavy line 10f shown in FIG. 10 (this corresponds to the field of view of the object image), and the other surface can be formed in an optimal shape for the eyeball illumination system. .

【0068】LED11から発せられた光は眼球照明プ
リズム10の面10iから眼球照明プリズム10の内部
に入射し、面10eで全反射し、さらに、面10gで金
属面反射して、凸面10aから射出される。
The light emitted from the LED 11 enters the inside of the eyeball illumination prism 10 from the surface 10i of the eyeball illumination prism 10, is totally reflected by the surface 10e, is further reflected by the metal surface at the surface 10g, and is emitted from the convex surface 10a. Is done.

【0069】LED11,LED50,LED51,L
ED52の発光波長は可視域の長波長側端部に位置し、
視認可能である。凸面10aのパワーはLED11が見
かけ上1m前方に位置するよう、LED光が僅かに発散
する光として凸面10aから射出するように設定されて
いる。すなわち、凸面10aはLED11の観察光学系
である。観察光学系はファインダ光学系を構成する窓部
材である眼球照明プリズム10に一体に形成されている
ので、極めて簡単な構成となり、しかも、眼球照明プリ
ズム10の内部を照明光路としているので小型化でき
る。
LED11, LED50, LED51, L
The emission wavelength of the ED 52 is located at the long wavelength side end of the visible region,
It is visible. The power of the convex surface 10a is set so that the LED 11 is located 1 m ahead in appearance, and the LED light is emitted from the convex surface 10a as light slightly diverging. That is, the convex surface 10a is an observation optical system of the LED 11. Since the observation optical system is formed integrally with the eyeball illumination prism 10 which is a window member constituting the finder optical system, the configuration becomes extremely simple, and furthermore, the interior of the eyeball illumination prism 10 is used as an illumination optical path, so that the size can be reduced. .

【0070】仮に、凸面10aからの射出光で直接眼部
を照明しようとすると、射出光が僅かにしか発散しない
ために、凸面10aの大きさとほぼ同じ範囲しか照明す
ることができず、眼部の一部分にしかLED光が当たら
ないことになる。眼部の一部分にしかLED光が当たっ
ていないと、瞳孔を完全に捉えることが難しく、視線検
出精度の低下が避けられない。拡散板12はこのような
問題を解消するための部材で、光の拡散によって観察者
の眼部を広く均一に照明する役割を持っている。
If it is attempted to illuminate the eye directly with the light emitted from the convex surface 10a, the emitted light diverges only slightly, so that it is possible to illuminate only the same area as the size of the convex surface 10a. LED light is applied to only a part of the LED. If the LED light shines only on a part of the eye, it is difficult to completely capture the pupil, and a decrease in the eye gaze detection accuracy is inevitable. The diffusion plate 12 is a member for solving such a problem, and has a role of illuminating the observer's eye widely and uniformly by diffusion of light.

【0071】図12(a),(b),(c)は、拡散板
12の説明図である。詳しくは、図12(a)は拡散面
12aの正面図、図12(b)は図108(a)の矢印
B方向から見た側面図、図11(c)は図12(a)の
矢印C方向から見た側面図である。
FIGS. 12A, 12B and 12C are explanatory views of the diffusion plate 12. FIG. Specifically, FIG. 12A is a front view of the diffusion surface 12a, FIG. 12B is a side view of the diffusion surface 12a viewed from the direction of arrow B in FIG. 108A, and FIG. 11C is an arrow in FIG. It is the side view seen from C direction.

【0072】図に示すように、拡散面12aには微細な
凹凸が形成されており、ここで眼球照明プリズム10か
ら射出した光は拡散する。この際、微細な凹凸は格子状
に形成されているため、光が図12(a)の上下方向と
左右方向に拡散し、観察者からは十字型形状に拡がった
LEDが1m先に見えることになる。もし、眼球照明系
の拡散板12a上に雨,雪,埃等が付着していれば、L
EDは通常通りの十字型には見えなくなるので、この観
点から観察者は正常に視線検出動作が成されているのか
を知ることができる。
As shown in the figure, fine irregularities are formed on the diffusion surface 12a, and the light emitted from the eyeball illumination prism 10 is diffused here. At this time, since the fine irregularities are formed in a lattice shape, the light is diffused in the vertical direction and the horizontal direction in FIG. 12A, and the observer can see the LED spread in a cross shape 1 m ahead. become. If rain, snow, dust, etc. adhere to the diffuser 12a of the eyeball illumination system, L
Since the ED does not look like a normal cross shape, the observer can know from this viewpoint whether the gaze detection operation is normally performed.

【0073】以上はLED11からの光路について説明
してきたが、LED50,LED51,LED52につ
いては、 ・LED50→面10j→面10e→面10g→凸面1
0b→拡散板12 ・LED51→面10k→面10e→面10h→凸面1
0c→拡散板13 ・LED52→面10l→面10e→面10h→凸面1
0d→拡散板13 となる。なお、凸面10bはLED50の観察光学系、
凸面10cはLED51の観察光学系、凸面10dはL
ED52の観察光学系である。
Although the optical path from the LED 11 has been described above, the LED 50, the LED 51, and the LED 52 are described as follows: LED 50 → surface 10j → surface 10e → surface 10g → convex surface 1
0b → Diffusion plate 12 ・ LED51 → Surface 10k → Surface 10e → Surface 10h → Convex surface 1
0c → Diffusion plate 13 ・ LED52 → Surface 10l → Surface 10e → Surface 10h → Convex surface 1
0d → diffusion plate 13 Note that the convex surface 10b is an observation optical system of the LED 50,
The convex surface 10c is an observation optical system of the LED 51, and the convex surface 10d is L
This is an observation optical system of the ED 52.

【0074】後述するように、注視点の検出は、瞳孔の
位置と角膜での光源の反射像である第一プルキンエ像の
位置に基づいて行う。人の瞼は上から閉じるため、眼部
を下側から照明すれば、第一プルキンエ像がまつげの陰
になり難い。そこで、カメラを正位置に構えたときはL
ED11とLED50を、縦位置に構えたときはカメラ
の向きに応じてLED11とLED51、あるいは、L
ED50とLED52を、それぞれ使い分けることとす
る。
As will be described later, the point of gaze is detected based on the position of the pupil and the position of the first Purkinje image which is a reflection image of the light source on the cornea. Since the eyelids of a person close from above, if the eyes are illuminated from below, the first Purkinje statue is less likely to be shaded by eyelashes. Therefore, when the camera is held at the correct position, L
When the ED 11 and the LED 50 are held in the vertical position, the LED 11 and the LED 51 or the L
The ED 50 and the LED 52 are used separately.

【0075】例えば、LED11とLED50を点灯さ
せたとき、正面から見た眼部は図13のようになる。
For example, when the LED 11 and the LED 50 are turned on, the eyes as viewed from the front are as shown in FIG.

【0076】図13において、60と61がLED11
およびLED50による第一プルキンエ像であり、拡散
板12の作用によって二つの第一プルキンエ像は十字型
となっている。特開平6−230271号には、十字型
の第一プルキンエ像を形成するために、光源自体を十字
型にしたり、複数のLEDを並べたりした構成が示され
ているが、このように観察光学系と拡散板の作用を利用
することにより、より簡単に十字型の第一プルキンエ像
を作ることができる。
In FIG. 13, 60 and 61 are LEDs 11
And the first Purkinje image formed by the LED 50. The two first Purkinje images have a cross shape due to the action of the diffusion plate 12. Japanese Patent Application Laid-Open No. Hei 6-230271 discloses a configuration in which a light source itself is formed in a cross shape or a plurality of LEDs are arranged to form a cross-shaped first Purkinje image. A cross-shaped first Purkinje image can be more easily formed by utilizing the action of the system and the diffusion plate.

【0077】LED11,LED50,LED51,L
ED52は、それぞれ凸面10a,凸面10b,凸面1
0c,凸面10dより成る観察光学系によって見かけ上
観察者より1m前方に位置するようにしている。前述の
ように、これらのLEDが発する光は視認可能である
が、ファインダ観察の妨げにならないようにしなければ
ならない。
LED11, LED50, LED51, L
The ED 52 has a convex surface 10a, a convex surface 10b, and a convex surface 1 respectively.
An observation optical system consisting of 0c and a convex surface 10d is apparently positioned 1 m ahead of the observer. As mentioned above, the light emitted by these LEDs is visible, but must not interfere with viewfinder viewing.

【0078】図14は、視覚特性の最も優れた視野位置
を原点としたときの視野角度と、視細胞数の関係を示し
た図である。視細胞の分布は視覚の特徴をよく表してい
ると考えて良い。
FIG. 14 is a diagram showing the relationship between the viewing angle and the number of photoreceptors when the viewing position having the best visual characteristics is taken as the origin. It can be considered that the distribution of photoreceptors well expresses visual characteristics.

【0079】視細胞には明るさと色の違いを感じ取るこ
とのできる錐体と、高感度であるが明るさのみを感じる
杆体とがある。この杆体は赤色に対する感度が極めて低
い。図14に示すように、錐体の数は視覚特性の中心に
鋭いピークがあり、おおよそ±8°の範囲の外側はかな
り少ない。一方、杆体の数は逆に視覚特性の中心で少な
く、周辺にピークがある。人は、錐体で物体の詳細を検
知し、杆体で周辺視野の情報を補っている。
The photoreceptor cells include a cone that can sense the difference between brightness and color, and a rod that has high sensitivity but senses only brightness. This rod has extremely low sensitivity to red. As shown in FIG. 14, the number of cones has a sharp peak at the center of the visual characteristic, and is considerably less outside the range of approximately ± 8 °. On the other hand, the number of rods is conversely small at the center of visual characteristics, and there is a peak at the periphery. A person detects details of an object with a cone, and supplements information on a peripheral visual field with a rod.

【0080】ここで、眼球照明系との関係について考え
てみると、先ず、その光源であるLEDは図2に示した
発光特性を持っているため、杆体では照明光を検知する
ことができない。また、錐体は周辺視野の感度が低いと
いう特徴があるので、ファインダ視野を見たときに照明
光が8°以上の角度を持って眼に投射されていれば、ほ
とんど気にならないと言うことになる。
Considering the relationship with the eyeball illumination system, first, since the LED, which is the light source, has the light emission characteristics shown in FIG. 2, the rod cannot detect the illumination light. In addition, since the cone has a characteristic of low sensitivity in the peripheral visual field, it is hardly noticeable if the illumination light is projected to the eye at an angle of 8 ° or more when looking at the viewfinder visual field. become.

【0081】図15(a),(b)は、ファインダ視野
と照明系との関係を示す説明図である。
FIGS. 15A and 15B are explanatory diagrams showing the relationship between the finder visual field and the illumination system.

【0082】同図において、60は観察者の眼球であ
る。眼球60はファインダ系のアイポイントに位置して
いるものとする。アイポイントは瞳孔が無限に絞られた
ときにファインダ視野全体を見渡すことのできる位置で
ある。61は物体像が表示される範囲、62は絞り表
示、63はシャッタスピード表示、64は固体撮像素子
6の設定感度、65は35mm写真フィルムを用いるカメ
ラでの値に換算したときの結像光学系3の焦点距離であ
る。
In the figure, reference numeral 60 denotes an observer's eyeball. It is assumed that the eyeball 60 is located at the eye point of the finder system. The eye point is a position where the entire finder field of view can be seen when the pupil is infinitely narrowed. 61 is a range in which an object image is displayed, 62 is an aperture display, 63 is a shutter speed display, 64 is a setting sensitivity of the solid-state imaging device 6, and 65 is an imaging optics when converted into a value using a camera using a 35 mm photographic film. This is the focal length of the system 3.

【0083】レンズ交換式のデジタルカラーカメラにお
いては、撮像レンズ2とカメラ本体1の組み合わせによ
って、結像光学系の焦点距離と固体撮像素子が捉えるイ
メージサイズの両方が変化する。そこで、組み合わせ毎
の撮影画角を分かりやすく表すために35mm写真フィル
ムを用いるカメラでの焦点距離値に換算して表示してい
る。
In a digital color camera of the interchangeable lens type, both the focal length of the imaging optical system and the image size captured by the solid-state imaging device change depending on the combination of the imaging lens 2 and the camera body 1. Therefore, in order to easily show the shooting angle of view for each combination, it is converted to the focal length value of a camera using a 35 mm photographic film and displayed.

【0084】さて、LED11を光源とする眼球照明系
との関係を考える。
Now, the relationship with an eyeball illumination system using the LED 11 as a light source will be considered.

【0085】61から65で表したファインダ表示の下
端を注視するときの光線が図15(a)のL3、また、
上端を注視するときの光線がL4である。すなわち、観
察者からは光線L3の方向に絞り表示62の下端やシャ
ッタスピード表示63の下端が見えることになる。ここ
では、光線L3と光線L4の間が物体像視野とする。ま
た、眼球照明プリズム10に形成された観察光学系であ
る凸面10aから射出して、瞳に到達する光線の内、フ
ァインダ表示の光路との成す角が最も小さくなる光線が
L5である。
When the user observes the lower end of the viewfinder display indicated by reference numerals 61 to 65, the light beam is L3 in FIG.
The light beam when the upper end is watched is L4. That is, the observer sees the lower end of the aperture display 62 and the lower end of the shutter speed display 63 in the direction of the light beam L3. Here, the area between the light beam L3 and the light beam L4 is the object image visual field. Further, among the light rays that are emitted from the convex surface 10a, which is the observation optical system formed in the eyeball illumination prism 10, and that reach the pupil, the light ray that forms the smallest angle with the optical path of the finder display is L5.

【0086】光線L3と光線L5の成す角、すなわち、
物体像視野との成す角θが8°以上であれば、ファイン
ダ表示の下端を見たときにも眼球照明光は視細胞のうち
錐体の少ない周辺視野に入射することになり、ほとんど
視認されない。一方、視線を下に移動させて、眼球照明
光の光線L5の方向に向ければ錐体によって捉えられ、
1m前方にLEDが赤く光って見えることになる。も
し、拡散板12上に水滴,雪,埃等が付着して眼球照明
が適切に成されていないときには、観察者からはLED
が通常通りの十字型に見えないので、視線検出が正常に
動作していないことを容易に知ることができる。したが
って、誤った視線検出結果に基づいて焦点調節を行って
しまうといったことが未然に防止される。
The angle formed between the light rays L3 and L5, that is,
If the angle θ formed with the object image visual field is 8 ° or more, the eyeball illumination light will enter the peripheral visual field with few cones among the visual cells even when the lower end of the finder display is viewed, and is hardly visually recognized. . On the other hand, if the line of sight is moved downward and directed in the direction of the ray L5 of the eyeball illumination light, it is captured by the cone,
The LED appears to glow red one meter forward. If water droplets, snow, dust, etc. adhere to the diffusion plate 12 and the eyeball illumination is not properly performed, the observer may send an LED.
Does not look like a normal cross, so it can be easily known that gaze detection is not operating normally. Therefore, it is possible to prevent the focus from being adjusted based on an incorrect gaze detection result.

【0087】さらに、可視光で眼球照明を行うことによ
り、観察者が眼鏡を使用した際にも利点がある。
Further, by illuminating the eyeball with visible light, there is an advantage even when the observer uses spectacles.

【0088】図16は、レンズ面に増透コートを施した
眼鏡の分光反射率特性の例である。増透コートがあると
物体がクリアに見えるため、日常生活のためにはたいへ
ん好ましい。これは図16の分光反射率特性のように、
およそ400nmから700nmの可視域で反射率を低い値
に抑えることで実現できる。
FIG. 16 shows an example of the spectral reflectance characteristics of spectacles having a lens surface coated with an anti-reflection coating. An object with a transparency coating is very preferable for everyday life because the object looks clear. This is similar to the spectral reflectance characteristic of FIG.
It can be realized by suppressing the reflectance to a low value in the visible region from about 400 nm to 700 nm.

【0089】ところが、一般にこういった眼鏡では70
0nmよりも長波長の領域ではむしろ高い反射率となり、
この値は増透コートがない眼鏡よりもむしろ高い。した
がって、眼球照明を赤外光で行うと眼鏡からの反射光に
妨げられて瞳孔や第一プルキンエ像をうまく捉えること
ができない場合も生じる。こういった事態を完全に防ぐ
ためには眼球照明を400nmから700nmの範囲の波長
で行えばよい。しかしながら、比視感度の高い波長域で
眼球照明を行うと今度は視細胞の杆体の感度域に入り、
ファインダ観察の妨げになり易い。
However, in general, such glasses require 70
In the wavelength region longer than 0 nm, the reflectance becomes rather high,
This value is higher than the spectacles without the coating. Therefore, when the eyeball is illuminated with infrared light, the pupil and the first Purkinje image may not be properly captured due to the interference of the reflected light from the eyeglasses. In order to completely prevent such a situation, the eyeball illumination may be performed at a wavelength in the range of 400 nm to 700 nm. However, when the eyeball is illuminated in the wavelength range of high relative luminous efficiency, it enters the sensitivity range of the rod of photoreceptors this time,
It tends to hinder finder observation.

【0090】そこで、図2に示したように、ピーク波長
が700nm付近にあり、400nmから700nmの可視域
にも強度分布の裾が含まれるような光で照明すること
で、眼鏡からの反射光を低く抑えつつ、しかも、ファイ
ンダ観察の妨げにもならない眼球照明系を実現すること
ができる。
Therefore, as shown in FIG. 2, the reflected light from the spectacles is illuminated with light having a peak wavelength near 700 nm and including the bottom of the intensity distribution in the visible region from 400 nm to 700 nm. And an eyeball illumination system that does not hinder finder observation can be realized.

【0091】図17は、眼球撮像系の光路展開図であ
る。
FIG. 17 is an optical path development diagram of the eyeball imaging system.

【0092】図1に示したダイクロイックミラー14,
ミラー15での反射を展開し、上方から見た状態を示し
ている。また、図17の矢印D方向から見た図として、
絞り71,複眼レンズ17,視線センサ18の平面図
を、それぞれ図18,図19,図20に示した。
The dichroic mirror 14, shown in FIG.
The state where the reflection at the mirror 15 is developed and viewed from above is shown. Also, as a diagram viewed from the direction of arrow D in FIG.
FIGS. 18, 19, and 20 are plan views of the diaphragm 71, the compound eye lens 17, and the line-of-sight sensor 18, respectively.

【0093】各図において、70は眼球、71は絞りで
ある。光路変更プリズム16には光入射面である二つの
凸面16a,16eがあり、ファインダ光学系42を通
して二つの方向から捉えた眼球70の画像を得る。眼球
70は眼球照明系によって照明され、光路変更プリズム
16の凸面16aから入射したその反射光は、次に、面
16bと面16cで反射し、面16d上の光軸L16に
近い位置から射出する。光路変更プリズム16の背後に
は、絞り71が位置する。図20に示すように、絞り7
1には、二つの開口71a,71bがあり、光路変更プ
リズム16の凸面16aから入射した光束はこのうち開
口71aによって絞られる。絞りを射出した光束は複眼
レンズ17のレンズ面17aから入射し、レンズ面17
cから射出して、後述する図21に示すように視線セン
サ18のエリアセンサ部18a上に撮像領域Eaの眼画
像を形成する。
In each figure, 70 is an eyeball, and 71 is a stop. The optical path changing prism 16 has two convex surfaces 16a and 16e which are light incident surfaces, and obtains images of the eyeball 70 captured from two directions through the finder optical system 42. The eyeball 70 is illuminated by the eyeball illumination system, and the reflected light incident from the convex surface 16a of the optical path changing prism 16 is then reflected by the surfaces 16b and 16c and exits from a position near the optical axis L16 on the surface 16d. . An aperture 71 is located behind the optical path changing prism 16. As shown in FIG.
1 has two openings 71a and 71b, and a light beam incident from the convex surface 16a of the optical path changing prism 16 is narrowed by the opening 71a. The luminous flux emitted from the aperture enters from the lens surface 17a of the compound eye lens 17, and
c, and forms an eye image of the imaging region Ea on the area sensor section 18a of the eye-gaze sensor 18 as shown in FIG.

【0094】また、光路変更プリズム16の凸面16e
から入射した反射光は、次に、面16fと面16gで反
射し、面16d上の光軸L6に近い位置から射出する。
次の絞り71では開口71bで絞られ、絞りを射出した
光束は複眼レンズ17のレンズ面17bから入射し、レ
ンズ面17dから射出して、後述する図21に示すよう
に視線センサ18のエリアセンサ部18b上に撮像領域
Ebの眼画像を形成する。なお、この際、絞り71の前
後に凸レンズを配置することにより、ディストーション
の少ない眼画像を得ている。これは、後述する眼画像の
合成を精度良く行う為に有効である。
The convex surface 16e of the optical path changing prism 16
Then, the reflected light incident on the surface 16f is reflected by the surfaces 16f and 16g, and is emitted from a position on the surface 16d near the optical axis L6.
At the next stop 71, the light beam emitted from the aperture 71b is stopped through the lens surface 17b of the compound eye lens 17, exits from the lens surface 17d, and exits from the lens surface 17d as shown in FIG. An eye image of the imaging region Eb is formed on the section 18b. At this time, by arranging convex lenses before and after the stop 71, an eye image with little distortion is obtained. This is effective for accurately synthesizing an eye image described later.

【0095】図21は、視線センサ18のエリアセンサ
部と眼画像との関係を示す図である。
FIG. 21 is a diagram showing the relationship between the area sensor section of the visual axis sensor 18 and the eye image.

【0096】同図において、80aはエリアセンサ部1
8aから得られる眼画像、80bはエリアセンサ部18
bから得られる眼画像である。眼画像80aと眼画像8
0bは視差を持った一対の眼画像となる。
In the figure, reference numeral 80a denotes the area sensor unit 1.
The eye image obtained from 8a, 80b is the area sensor unit 18
b is an eye image obtained from b. Eye image 80a and eye image 8
0b is a pair of eye images having parallax.

【0097】撮像領域Eaと撮像領域Ebは眼の左右方
向にずれているので、眼画像80aと眼画像80bでは
映っている目の位置が異なる。眼画像80aと眼画像8
0bで共通の画像となるのは、エリアセンサ部18a,
18bのハッチングをかけて示した部分であり、眼画像
80a,80bの下に示した撮像領域FaとFbであ
る。観察者がファインダを極端に斜めから覗いた場合で
あっても、撮像領域Eaと撮像領域Ebを左右方向にず
らしているために、少なくともどちらかの撮像領域には
眼部を捉えることができる。なお、演算処理の説明で
は、眼画像80aをA画像、眼画像80bをB画像と呼
ぶことにする。
Since the imaging region Ea and the imaging region Eb are shifted in the left-right direction of the eyes, the positions of the eyes appearing in the eye images 80a and 80b are different. Eye image 80a and eye image 8
0b becomes a common image because of the area sensor units 18a,
18b, which are indicated by hatching, and are the imaging areas Fa and Fb shown below the eye images 80a and 80b. Even when the observer looks into the finder extremely obliquely, the eyes can be captured in at least one of the imaging regions because the imaging region Ea and the imaging region Eb are shifted in the left-right direction. In the description of the arithmetic processing, the eye image 80a is referred to as an A image, and the eye image 80b is referred to as a B image.

【0098】眼画像には拡散板12の作用による十字型
の第一プルキンエ像の他、涙滴での反射輝点81やまつ
げでの反射輝点82が見える。しかし、反射輝点の原因
となる涙滴やまつげが、角膜のように大きな面積を持た
ないため、そこでの反射像は十字型にならず第一プルキ
ンエ像との区別が容易に付く。したがって、涙滴での反
射輝点81やまつげでの反射輝点82を真の第一プルキ
ンエ像と取り違えることがなく、高精度な視線検出がで
きる。
In the eye image, in addition to a cross-shaped first Purkinje image formed by the action of the diffusion plate 12, a reflected luminescent spot 81 due to tear drops and a reflected luminescent spot 82 due to eyelashes can be seen. However, since the teardrops and eyelashes that cause the reflective luminescent spot do not have a large area like the cornea, the reflected image there is not a cross shape and can be easily distinguished from the first Purkinje image. Therefore, the gaze detection can be performed with high accuracy without mistaking the reflected luminescent spot 81 with the teardrop or the reflected luminescent spot 82 with the eyelash as a true first Purkinje image.

【0099】なお、ここでは複数の眼画像の視差を眼に
対して横方向に設定したが、縦方向であっても良い。さ
らには、横方向と縦方向の両方であっても良い。この場
合には、四つの眼画像が得られるので、さらに、まつげ
の態様やファインダの覗き方等の個人差について寛容
で、しかも、高精度な検出を行うことができる。
Although the parallax of the plurality of eye images is set in the horizontal direction with respect to the eye here, it may be in the vertical direction. Further, both the horizontal direction and the vertical direction may be used. In this case, since four eye images are obtained, it is possible to perform a more forgiving and highly accurate detection of individual differences such as eyelash modes and how to look through the viewfinder.

【0100】次に、図22,図23及び図28に示すフ
ローチャートを用いて、カメラの動作を説明する。
Next, the operation of the camera will be described with reference to the flowcharts shown in FIG. 22, FIG. 23, and FIG.

【0101】図22のフローチャートは、カメラシステ
ム制御回路35内のROMに書き込まれている制御プロ
グラムである。
The flowchart in FIG. 22 is a control program written in the ROM in the camera system control circuit 35.

【0102】まず、図22において、制御プログラムが
スタートすると、先ず、ステップ#201において、操
作検出回路36を介してメインスイッチ19がONかど
うかを調べる。OFFであれば再びステップ#201を
繰り返し、ONであれば次のステップ#202に移行す
る。ステップ#202においては、固体撮像素子駆動回
路37を介して固体撮像素子6を駆動し、連続的な表示
用画像の取り込みを開始する。次のステップ#203に
おいては、固体撮像素子6により撮像した画像を再生処
理回路34を介して液晶ディスプレー7上に動画像とし
て表示するファインダ表示処理を開始する。続くステッ
プ#204においては、視線検出の成否を示すフラグF
LGeをリセットする。そして、ステップ#205にお
いて、視線検出・AF制御回路40に対して、視線検出
サブルーチンを起動するように指示する。
First, in FIG. 22, when the control program is started, first, in step # 201, it is checked whether or not the main switch 19 is ON via the operation detecting circuit. If it is OFF, step # 201 is repeated again, and if it is ON, the process proceeds to the next step # 202. In step # 202, the solid-state imaging device 6 is driven via the solid-state imaging device driving circuit 37, and continuous capture of display images is started. In the next step # 203, a finder display process for displaying an image captured by the solid-state imaging device 6 as a moving image on the liquid crystal display 7 via the reproduction processing circuit 34 is started. In the following step # 204, a flag F indicating the success or failure of the line-of-sight detection
Reset LGe. Then, in step # 205, it instructs the gaze detection / AF control circuit 40 to start the gaze detection subroutine.

【0103】ステップ#206においては、フラグFL
Geがセットされたかどうかを調べる。セットされてい
なければ先のステップ#204に戻り、セットされてい
れば、次のステップ#207に移行する。ステップ#2
07へ移行すると、ここでは視線検出・AF制御回路4
0に対して、AF制御サブルーチンを起動するように指
示する。そして、次のステップ#208において、操作
検出回路36を介してレリーズボタン20がONかどう
かを調べる。OFFであれば先のステップ#204に戻
り、ONであれば次のステップ#209に移行する。
At step # 206, the flag FL
Check whether Ge has been set. If it has not been set, the process returns to the previous step # 204. If it has been set, the process proceeds to the next step # 207. Step # 2
07, the eye-gaze detection / AF control circuit 4
0 is instructed to start the AF control subroutine. Then, in the next step # 208, it is checked via the operation detection circuit 36 whether or not the release button 20 is ON. If it is OFF, the process returns to the previous step # 204, and if it is ON, the process moves to the next step # 209.

【0104】ステップ#209においては、レリーズボ
タン20が押下されたので、固体撮像素子駆動回路37
を介して固体撮像素子6を第1の出力モードで駆動し、
高精細な画像の取り込みを行う。そして、次のステップ
#210においては、RGB画像処理,YC処理の施さ
れたデータを記録処理回路33を介して内部のメモリに
記録し、一連の制御を終了する。
In step # 209, since the release button 20 has been pressed, the solid-state image sensor driving circuit 37
Drives the solid-state imaging device 6 in the first output mode via
Capture high-definition images. Then, in the next step # 210, the data subjected to the RGB image processing and the YC processing is recorded in the internal memory via the recording processing circuit 33, and a series of controls is ended.

【0105】図23のフローチャートは、視線検出・A
F制御回路40内のROMに書き込まれている制御プロ
グラムであって、視線検出のための演算手段に相当す
る。複数の眼画像をもとに合成した眼画像を用いて注視
点を算出する第一の演算モードと、一つの眼画像を用い
て注視点を算出する第二の演算モードとを備えている。
The flow chart of FIG.
This is a control program written in the ROM in the F control circuit 40, and corresponds to a calculating means for detecting a line of sight. A first calculation mode for calculating a gazing point using an eye image synthesized based on a plurality of eye images and a second calculation mode for calculating a gazing point using one eye image are provided.

【0106】図23において、視線検出サブルーチンが
スタートすると、ステップ#301において、カメラの
姿勢に基づいてLEDを選択点灯するとともに、視線セ
ンサ18からA画像すなわち眼画像80aと、B画像す
なわち眼画像80bを読み出す。次のステップ#302
においては、A画像の中から最低輝度を示す領域を検出
し、続くステップ#303において、B画像の中から最
低輝度を示す領域を検出する。上記ステップ#302と
ステップ#303の処理は、眼画像の中で瞳孔が最低輝
度を示す特性を利用し、後のステップにおいて、第一プ
ルキンエ像をこの最低輝度領域を手がかりとして検出す
るための準備である。
In FIG. 23, when the line-of-sight detection subroutine starts, in step # 301, the LEDs are selectively turned on based on the attitude of the camera, and the A-line image, ie, the eye image 80a, and the B-image, ie, the eye image 80b, Is read. Next step # 302
In, the area having the lowest luminance is detected from the A image, and in the subsequent step # 303, the area having the lowest luminance is detected from the B image. The processing of steps # 302 and # 303 uses the characteristic that the pupil shows the lowest luminance in the eye image, and in a later step, preparations are made for detecting the first Purkinje image using the lowest luminance area as a clue. It is.

【0107】次のステップ#304においては、A画像
に現れた第一プルキンエ像の、次のステップ#305に
おいては、B画像に現れた第一プルキンエ像の、それぞ
れ重心座標を検出する。
In the next step # 304, the barycentric coordinates of the first Purkinje image appearing in the A image and in the next step # 305 the barycentric coordinates of the first Purkinje image appearing in the B image are detected.

【0108】上記第一プルキンエ像は十字型をしている
が、縦線と横線が重なった領域の重心座標をデータとし
て格納する。第一プルキンエ像の検出にはパターンマッ
チング等の手法を用いると良い。十字型であるために、
涙滴での反射輝点81やまつげでの反射輝点82を真の
第一プルキンエ像と取り違えることがなく、高精度な視
線検出ができる。
Although the first Purkinje image has a cross shape, the barycentric coordinates of the area where the vertical and horizontal lines overlap are stored as data. A technique such as pattern matching may be used for detecting the first Purkinje image. To be cross-shaped,
A highly accurate line of sight detection can be performed without confusing the reflected luminescent spot 81 with a teardrop or the reflected luminescent spot 82 with a eyelash with a true first Purkinje image.

【0109】ステップ#306においては、先のステッ
プ#304にてA画像の第一プルキンエ像の検出が成功
したかどうかを判定する。稀に、眼鏡からのゴーストに
妨げられたり、太陽光が直接入り込んだりして、第一プ
ルキンエ像の検出が失敗することがあるが、この場合に
はステップ#312に分岐する。また、第一プルキンエ
像の検出に成功していれば、ステップ#307に移行
し、ここでは先のステップ#305にてB画像の第一プ
ルキンエ像の検出が成功したかどうかを判定する。失敗
の場合にはステップ#315に分岐し、成功していれ
ば、次のステップ#308に移行する。
In step # 306, it is determined whether or not the detection of the first Purkinje image of the A image in step # 304 is successful. In rare cases, detection of the first Purkinje image may fail due to ghosting from the glasses or direct entry of sunlight. In this case, the process branches to step # 312. If the first Purkinje image has been successfully detected, the process proceeds to step # 307, where it is determined in the previous step # 305 whether the first Purkinje image of the B image has been successfully detected. If unsuccessful, the process branches to step # 315. If successful, the process proceeds to the next step # 308.

【0110】ステップ#308は、先のステップ#30
6,#307の判定を経て、A画像、B画像ともに第一
プルキンエ像の検出が成功している場合の処理である。
A画像とB画像を合成して、両方の情報を用いることに
より、不要情報の排除と欠落情報の補完を行う。この
際、画像の合成には第一プルキンエ像が瞳孔とほぼ同じ
深さに生じるという性質を利用する。
Step # 308 is the same as step # 30
This is a process in the case where the detection of the first Purkinje image has succeeded in both the A image and the B image after the determinations of # 6 and # 307.
By combining the A image and the B image and using both information, unnecessary information is eliminated and missing information is complemented. At this time, the property that the first Purkinje image is generated at substantially the same depth as the pupil is used for image synthesis.

【0111】ここで、図24は第一プルキンエ像と瞳孔
との関係を示す説明図であり、同図において、90は観
察者の眼球、91は瞳孔を形成する虹彩、92は角膜、
また、P1は角膜92の曲率中心である。眼球90はフ
ァインダ光軸L2上に位置し、ファインダ光軸L2に対
してφだけ傾いた方向から眼球照明93が成されている
ものとする。
FIG. 24 is an explanatory diagram showing the relationship between the first Purkinje image and the pupil. In FIG. 24, reference numeral 90 denotes the eyeball of the observer, 91 denotes the iris forming the pupil, 92 denotes the cornea,
P1 is the center of curvature of the cornea 92. The eyeball 90 is located on the finder optical axis L2, and the eyeball illumination 93 is provided from a direction inclined by φ with respect to the finder optical axis L2.

【0112】このとき、光源の角膜92による反射像で
ある第一プルキンエ像P2は、光源と角膜の曲率中心P
1とを結ぶ線上に形成される。第一プルキンエ像P2は
虚像であり、角膜92の半径をRとしたときに、ファイ
ンダ光軸L2の方向から見た第一プルキンエ像P2の深
さHは式(1)で与えられる。
At this time, the first Purkinje image P2, which is a reflection image from the cornea 92 of the light source, is formed by the light source and the curvature center P of the cornea.
1 is formed on a line connecting the two. The first Purkinje image P2 is a virtual image, and when the radius of the cornea 92 is R, the depth H of the first Purkinje image P2 viewed from the direction of the finder optical axis L2 is given by Expression (1).

【0113】 H=(1− cosφ)×R+Gcos φ ・・・・・・・・・(1) ここで、Gは眼球照明の方向から見たときの、第一プル
キンエ像の深さである。光源が1000mm前方にあると
したとき、Gは式(2)となる。
H = (1−cosφ) × R + Gcosφ (1) Here, G is the depth of the first Purkinje image when viewed from the direction of eyeball illumination. Assuming that the light source is 1000 mm ahead, G is given by equation (2).

【0114】 G=B/2−(R/2)2 /1000 ・・・・・・・・・(2) したがって、式(2)を式(1)に代入することによっ
て、HはRとφで表すことができる。
[0114] G = B / 2- (R / 2) 2/1000 ········· (2) Therefore, by substituting equation (2) into equation (1), H is a R It can be represented by φ.

【0115】さらに、 φ=25° R=7.7mm を用いて、Hを求めると、H=4.2mm となる。Further, when H is obtained using φ = 25 ° R = 7.7 mm, H = 4.2 mm.

【0116】一方、虹彩の深さKは、K=3.6mm であ
り、第一プルキンエ像の深さに極めて近い。この結果、
図17を用いて説明した、複眼レンズ17で視差を持っ
た一対の眼画像を捉えたとき、瞳孔と第一プルキンエ像
との位置関係は画像間でほとんど変化しない。これに対
して、まつげの位置とか、涙滴の位置は画像間で異なる
ことになる。また、眼鏡からの反射光によるゴーストあ
る場合にも、このゴーストも虹彩や第一プルキンエ像と
はかなり異なる深さに生じるので、その位置は画像間で
異なる。
On the other hand, the depth K of the iris is K = 3.6 mm, which is extremely close to the depth of the first Purkinje image. As a result,
When a pair of eye images having parallax is captured by the compound-eye lens 17 described with reference to FIG. 17, the positional relationship between the pupil and the first Purkinje image hardly changes between the images. On the other hand, the position of the eyelash and the position of the teardrop differ between images. Also, when there is a ghost due to the reflected light from the glasses, the ghost also occurs at a depth considerably different from that of the iris or the first Purkinje image, and thus the position differs between the images.

【0117】図23のフローチャートに戻って、ステッ
プ#308においては、図25に示すように、A画像
(80a)とB画像(80b)の第一プルキンエ像の座
標の差を算出する。そして、次のステップ#309にお
いて、A画像とB画像を合成する準備として、B画像の
シフト量SBを先に求めたA画像とB画像の第一プルキ
ンエ像の座標の差に設定する。続くステップ#310に
おいては、次に示すアルゴリズムにしたがって、A画像
とB画像を合成して、図26に示すようなC画像を生成
する。
Returning to the flowchart of FIG. 23, in step # 308, as shown in FIG. 25, the difference between the coordinates of the first Purkinje image of the A image (80a) and the B image (80b) is calculated. Then, in the next step # 309, as a preparation for combining the A image and the B image, the shift amount SB of the B image is set to the difference between the coordinates of the first Purkinje image of the A image and the B image. In the following step # 310, the A image and the B image are combined according to the following algorithm to generate a C image as shown in FIG.

【0118】画像合成アルゴリズムは次の通りである。The image synthesizing algorithm is as follows.

【0119】先ず、シフト量SBの整数部をe、小数部
をfとし、さらに、視線センサ18のエリアセンサ部1
8aとエリアセンサ部18bの各画素に図27に示すよ
うな番地を割り当てる。視差の方向が行の方向であるた
め各行の処理は同一であり、以下の処理をすべての行に
ついて行うことによって、C画像を生成する。
First, the integer part of the shift amount SB is e, the decimal part is f, and the area sensor 1
An address as shown in FIG. 27 is assigned to each pixel of the area sensor 8a and the area sensor section 18b. Since the direction of the parallax is the direction of the row, the processing of each row is the same, and the C image is generated by performing the following processing on all the rows.

【0120】ある行のA画像のX列データをAX 、B画
像のX列データをBX 、C画像のX列データをCX とす
る。
It is assumed that the X column data of the A image in a certain row is A X , the X column data of the B image is B X , and the X column data of the C image is C X.

【0121】1)X<n または X<eのとき Cx =Ax 2)n≦X<p+1 かつ e≦X<e+m のとき Cx =MIN(AX 、(1−f)×BX-e +f×B
X-e+1 )) 3)p+1 ≦X または e+m≦X のとき Cx =(1 −f)×BX-e +f×BX-e+1 C画像は、1)の範囲ではA画像だけから、2)の範囲
ではA画像とB画像の両方から、3)の範囲ではB画像
だけから作られる。
1) When X <n or X <e, C x = A x 2) When n ≦ X <p + 1 and e ≦ X <e + m, C x = MIN (A X , (1-f) × B Xe + F × B
X-e + 1 )) 3) When p + 1 ≦ X or e + m ≦ X, C x = (1−f) × B Xe + f × B X-e + 1 The C image is only from the A image in the range of 1). In the range 2), the A image and the B image are formed, and in the range 3), only the B image is formed.

【0122】また、MIN(u、v)は、uとvのうち
小なる値を選択する演算子である。A画像とB画像を重
ね合わせて比較した際、同一要素を捉えているにもかか
わらず、より明るいことを示すデータには、まつげやゴ
ーストが重畳していると推定できる。瞳孔の輝度に対し
てまつげの輝度は常に高く、また、ゴーストが重畳した
ところは常に明るくなることから、小なる値を選択する
演算子MIN(u,v)を用いるとこのような外乱を排
除した、図26のようなC画像を生成することが可能で
ある。
MIN (u, v) is an operator for selecting a smaller value between u and v. When the A image and the B image are superimposed and compared, it can be estimated that eyelashes and ghosts are superimposed on data indicating that the image is brighter even though the same element is captured. The luminance of the eyelashes is always higher than the luminance of the pupil, and the place where the ghost is superimposed is always brighter. Therefore, if the operator MIN (u, v) for selecting a small value is used, such disturbance is eliminated. Thus, a C image as shown in FIG. 26 can be generated.

【0123】図25の、眼画像80a(A画像)に見ら
れるゴースト94と眼画像80b(B画像)に見られる
ゴースト95は同一位置にないため、C画像では不要情
報であるゴーストが排除され、必要情報である瞳孔が補
完されている。
Since the ghost 94 seen in the eye image 80a (A image) and the ghost 95 seen in the eye image 80b (B image) in FIG. 25 are not at the same position, the ghost which is unnecessary information is eliminated in the C image. The pupil which is necessary information is supplemented.

【0124】このようなゴーストは、ファインダ光学
系,眼鏡,角膜での複数回反射で生じるが、特に眼鏡を
使用したときに多くなる。観察者が眼鏡を使用している
ときに、このMIN(u、v)演算子は特に有効であ
る。そこで、画像合成アルゴリズムを複数用意してお
き、公知の眼鏡判定手段によって眼鏡を使用していると
判定されたときはMIN(u、v)演算子を選択するよ
うにすると良い。
Such a ghost is caused by multiple reflections on the finder optical system, the spectacles, and the cornea, and is particularly increased when the spectacles are used. This MIN (u, v) operator is particularly useful when the observer is using glasses. Therefore, it is preferable to prepare a plurality of image synthesis algorithms, and select the MIN (u, v) operator when it is determined that the eyeglasses are used by a known eyeglass determination unit.

【0125】再び図23のフローチャートに戻って、ス
テップ#311においては、続くステップ#316での
処理の対象に先に合成したC画像を指定する。
Returning to the flowchart of FIG. 23 again, in step # 311, the previously synthesized C image is designated as the target of the processing in the following step # 316.

【0126】次に、ステップ#306よりステップ#3
12へ分岐した場合についてを説明する。
Next, from step # 306 to step # 3
The case of branching to 12 will be described.

【0127】ステップ#312においては、先のステッ
プ#305にてB画像の第一プルキンエ像の検出が成功
したかどうかを判定する。失敗の場合にはステップ#3
13に分岐し、成功していれば、次のステップ#314
に移行する。ステップ#313においては、上記ステッ
プ#306とステップ#312の判定が何れもN(NO
を意味する)であって、A画像,B画像ともに第一プル
キンエ像の検出に失敗していることから、これ以上の視
線検出処理を行わず、FLGeをリセットしてサブルー
チンをリターンする。
In step # 312, it is determined whether or not the detection of the first Purkinje image of the B image in step # 305 is successful. Step # 3 in case of failure
13 and, if successful, the next step # 314
Move to In step # 313, the determinations in step # 306 and step # 312 are both N (NO
This means that the detection of the first Purkinje image has failed in both the A image and the B image. Therefore, the line-of-sight detection processing is not performed any more, the FLGe is reset, and the subroutine is returned.

【0128】一方、ステップ#314は、先のステップ
#306,#312の判定を経て、B画像のみで第一プ
ルキンエ像の検出が成功している場合の処理である。
On the other hand, step # 314 is a process in the case where the detection of the first Purkinje image has been successful only with the B image after the determinations in the previous steps # 306 and # 312.

【0129】視線センサの受光部間にある不感帯が影響
して本来光学的には存在する第一プルキンエ像を画像と
して捉えることができなかったり、第一プルキンエ像に
眼鏡の反射光によるゴーストや太陽光が重畳して、一方
の画像のみしか第一プルキンエ像が検出されないことが
ある。また、ファインダ光学系をかなり斜めから覗いた
ときには、第一プルキンエ像を形成する光束の反射面が
角膜から外れてしまうために像が消失し、一方の画像の
みに第一プルキンエ像が現れることもある。このような
場合、続くステップ#316での処理の対象に第一プル
キンエ像を捉えることができたB画像を指定する。
The first Purkinje image, which is originally optically present, cannot be captured as an image due to the influence of the dead zone between the light receiving portions of the line-of-sight sensor. In some cases, the light is superimposed, and only the first image detects the first Purkinje image. In addition, when the finder optical system is viewed from an oblique direction, the reflection surface of the light beam forming the first Purkinje image is removed from the cornea, the image disappears, and the first Purkinje image may appear only in one image. is there. In such a case, a B image in which the first Purkinje image can be captured is designated as a target of processing in the subsequent step # 316.

【0130】次に、上記ステップ#307よりステップ
#315へ分岐した場合について説明する。
Next, the case where the process branches from step # 307 to step # 315 will be described.

【0131】ステップ#315は、ステップ#306と
ステップ#307の判定を経て、A画像のみで第一プル
キンエ像の検出が成功している場合の処理であって、ス
テップ#314と類似の現象が生じている。この場合、
続くステップ#316での処理の対象に第一プルキンエ
像を捉えることができたA画像を指定する。
Step # 315 is a process in the case where the detection of the first Purkinje image is successful only with the A image after the determinations of step # 306 and step # 307. Has occurred. in this case,
The A image in which the first Purkinje image can be captured is designated as a target to be processed in the subsequent step # 316.

【0132】A画像,B画像の両方で第一プルキンエ像
を捉えることができた場合の処理を第一の演算モード、
A画像とB画像のどちらかで捉えることができた場合の
処理を第二の演算モードとすれば、第一の演算モードと
第二の演算モードとが自動的に切り替わるので、ほとん
どの場合でステップ#316以降の処理に基づく注視点
出力を得ることが可能である。
The processing in the case where the first Purkinje image can be captured in both the A image and the B image is described in the first operation mode.
If the process in which the image can be captured by either the A image or the B image is set to the second operation mode, the first operation mode and the second operation mode are automatically switched. It is possible to obtain a gazing point output based on the processing after step # 316.

【0133】例えば、より斜めからファインダを覗いた
場合には一方の画像では第一プルキンエ像が捉えられな
くなるが、第二の演算モードによる視線検出を行うこと
で、検出不能状態になり難い視線検出装置を実現するこ
とができ、また、ゴーストのために瞳孔の検出や第一プ
ルキンエ像の検出が一方の眼画像についてできない場合
であっても、第二の演算モードによって検出不能状態に
ならない視線検出装置を実現することができる。
For example, when the finder is viewed from an oblique direction, the first Purkinje image cannot be captured in one of the images, but the sight line detection in the second calculation mode makes it difficult to detect the sight line. The device can be realized, and even if the pupil detection or the first Purkinje image cannot be detected for one of the eye images due to a ghost, the gaze detection is not disabled by the second calculation mode. The device can be realized.

【0134】ステップ#316へ移行すると、ここでは
指定された画像について、第一プルキンエ像の重心と瞳
孔像重心の相対ズレ量を算出する。そして、次のステッ
プ#317において、上記ステップ#316で求めた第
一プルキンエ像の重心と瞳孔像重心の相対ズレ量をファ
インダ上の注視点情報に変換する。なお、ステップ#3
16,#317の処理については、特開平6−1587
72号に詳述されている。最後に、ステップ#318に
おいて、視線検出が成功したので、FLGeをセットし
てサブルーチンをリターンする。
In step # 316, the relative displacement between the center of the first Purkinje image and the center of the pupil image is calculated for the designated image. Then, in the next step # 317, the relative displacement between the center of gravity of the first Purkinje image and the center of the pupil image obtained in step # 316 is converted into gazing point information on the finder. Step # 3
16 and # 317 are described in JP-A-6-1587.
No. 72. Finally, in step # 318, since the line of sight has been successfully detected, FLGe is set and the subroutine is returned.

【0135】図28のフローチャートは、視線検出・A
F制御回路40内のROMに書き込まれている制御プロ
グラムである。
The flow chart of FIG.
This is a control program written in a ROM in the F control circuit 40.

【0136】同図において、AF制御サブルーチンがス
タートすると、ステップ#401において、視線検出結
果に基づき、注視点上に焦点検出点を指定し、固体撮像
素子6上の焦点検出点を取り囲む矩形領域を焦点検出用
の画像データを取得すべき領域、および、焦点検出演算
の対照領域とする。次のステップ#402においては、
固体撮像素子6を第2の出力モードで駆動し、焦点検出
用の画像データを取得する。続くステップ#403にお
いては、上記ステップ#402で取得した画像データを
用いて、焦点検出演算を行う。得られたデフォーカス量
はフォーカシングレンズの駆動量に変換する。最後にス
テップ#404において、カメラシステム制御回路35
を介して、レンズシステム制御回路41にフォーカシン
グレンズの駆動量を伝達する。これを受けて、レンズシ
ステム制御回路41はフォーカシングレンズを結像レン
ズの光軸L1方向に移動させ、焦点調節が成される。
In the figure, when the AF control subroutine starts, in step # 401, a focus detection point is designated on the gazing point based on the result of the line-of-sight detection, and a rectangular area surrounding the focus detection point on the solid-state imaging device 6 is designated. An area from which image data for focus detection should be obtained and a control area for focus detection calculation. In the next step # 402,
The solid-state imaging device 6 is driven in the second output mode to acquire image data for focus detection. In the following step # 403, a focus detection calculation is performed using the image data obtained in the above step # 402. The obtained defocus amount is converted into a driving amount of the focusing lens. Finally, in step # 404, the camera system control circuit 35
, The driving amount of the focusing lens is transmitted to the lens system control circuit 41. In response to this, the lens system control circuit 41 moves the focusing lens in the direction of the optical axis L1 of the imaging lens, and the focus is adjusted.

【0137】(実施の第2の形態)不要情報の排除と欠
落情報の補完を行う第一の演算モードにおいて、A画像
とB画像を合成する際の、他の合成のし方を、本発明の
実施の第2の形態として、以下に説明する。その他は上
記実施の第1の形態と同様であるので、その説明は省略
する。
(Second Embodiment) In the first operation mode in which unnecessary information is eliminated and missing information is complemented, another method of synthesizing an A image and a B image according to the present invention will be described. The second embodiment will be described below. The other parts are the same as those of the first embodiment, and the description is omitted.

【0138】図23の視線検出サブルーチンにおけるス
テップ#310において、以下に示すアルゴリズムにし
たがって、A画像とB画像を合成し、C画像を生成す
る。
At step # 310 in the visual line detection subroutine of FIG. 23, the A image and the B image are combined according to the following algorithm to generate a C image.

【0139】先ず、シフト量SBの整数部をe、小数部
をfとし、さらに、視線センサ18のエリアセンサ部1
8aとエリアセンサ部18bの各画素に図27に示すよ
うな番地を割り当てる。各行の処理は同一であり、以下
の処理をすべての行について行うことにより、C画像を
生成する。
First, the integer part of the shift amount SB is e, the decimal part is f, and the area sensor 1
An address as shown in FIG. 27 is assigned to each pixel of the area sensor 8a and the area sensor section 18b. The processing of each row is the same, and the following processing is performed for all rows to generate a C image.

【0140】ある行のA画像のX列データをAX ,B画
像のX列データをBX ,C画像のX列データをCX とす
る。
It is assumed that the X column data of the A image in a certain row is A X , the X column data of the B image is B X , and the X column data of the C image is C X.

【0141】1)X<n または X<e のとき CX =AX 2)n≦X<p+1 かつ e≦X<e+m のとき CX =(AX +((1−f)×BX-e +f×B
X-e+1 ))/2 3)p+1 ≦X または e+m≦X のとき CX =(1 −f)×BX-e +f×BX-e+1 C画像は、1)の範囲ではA画像だけから、2)の範囲
ではA画像とB画像の両方から、3)の範囲ではB画像
だけから作られる。
1) When X <n or X <e, C X = A X 2) When n ≦ X <p + 1 and e ≦ X <e + m, C X = (A X + ((1-f) × B Xe ) + F × B
X-e + 1 )) / 2 3) When p + 1 ≦ X or e + m ≦ X, C X = (1−f) × B Xe + f × B X-e + 1 The C image is an A image in the range of 1). In the range of 2), only the A and B images are formed, and in the range of 3), only the B image is formed.

【0142】2)の範囲では、A画像とシフトしたB画
像の相加平均からC画像を生成している。このようにす
れば、2回眼画像を取り込んでそれを平均したのと等価
であるので、時間的にランダムなセンサノイズ等を1/
√(2)にする効果があり、視線検出の精度を向上させ
ることができる。また、A画像とB画像の一方のみにゴ
ースト等の光学的外乱がある座標では、合成像での光学
的外乱のレベルは1/2に低下する。この結果、ファイ
ンダ光学系や眼鏡で生じるゴーストによって瞳孔の輪郭
が歪んで見えたり、第一プルキンエ像の位置がシフトし
て見えたりしていた部分が、C画像では本来の形状に修
復される。
In the range 2), the C image is generated from the arithmetic mean of the A image and the shifted B image. This is equivalent to capturing the second eye image and averaging it, so that temporally random sensor noise and the like can be reduced by 1 /
効果 (2) has the effect of improving the accuracy of gaze detection. At coordinates where only one of the A image and the B image has an optical disturbance such as a ghost, the level of the optical disturbance in the composite image is reduced to half. As a result, the part where the contour of the pupil appears distorted due to the ghost generated by the finder optical system or the glasses or the position where the position of the first Purkinje image is shifted appears to be restored to the original shape in the C image.

【0143】(実施の第3の形態)不要情報の排除と欠
落情報の補完を行う第一の演算モードにおいて、A画像
とB画像を合成する際の、別の合成のし方を、本発明の
実施の第3の形態として、以下に説明する。その他は上
記実施の第1の形態と同様であるので、その説明は省略
する。
(Third Embodiment) In the first operation mode in which unnecessary information is eliminated and missing information is complemented, another method of synthesizing the A image and the B image according to the present invention will be described. The third embodiment will be described below. The other parts are the same as those of the first embodiment, and the description is omitted.

【0144】図23の視線検出サブルーチンにおけるス
テップ#310において、以下に示すアルゴリズムにし
たがって、A画像とB画像を合成し、C画像を生成す
る。
At step # 310 in the visual line detection subroutine of FIG. 23, the A image and the B image are combined according to the following algorithm to generate a C image.

【0145】先ず、シフト量SBの整数部をe、小数部
をfとし、さらに、視線センサ18のエリアセンサ部1
8aとエリアセンサ部18bの各画素に図206 に示すよ
うな番地を割り当てる。各行の処理は同一であり、以下
の処理をすべての行について行うことにより、C画像を
生成する。
First, the integer part of the shift amount SB is e, the decimal part is f, and the area sensor 1
An address as shown in FIG. 206 is assigned to each pixel of the area sensor 8a and the area sensor section 18b. The processing of each row is the same, and the following processing is performed for all rows to generate a C image.

【0146】ある行のA画像のX列データをAX ,B画
像のX列データをBX ,C画像のX列データをCX とす
る。
It is assumed that the X column data of the A image in a certain row is A X , the X column data of the B image is B X , and the X column data of the C image is C X.

【0147】1)X<n または X<e のとき CX =AX 2)n≦X<p+1 かつ e≦X<e+m のとき CX =√(AX ×((1−f)×BX-e +f×B
X-e+1 )) 3)p+1 ≦X または e+m≦X のとき CX =(1−f)×BX-e +f×BX-e +1 C画像は、1)の範囲ではA画像だけから、2)の範囲
ではA画像とB画像の両方から、3)の範囲ではB画像
だけから作られる。
1) When X <n or X <e, C X = A X 2) When n ≦ X <p + 1 and e ≦ X <e + m, C X = √ (A X × ((1-f) × B Xe + f × B
X-e + 1 )) 3) When p + 1 ≦ X or e + m ≦ X, C X = (1−f) × B Xe + f × B Xe +1 The C image is from the A image only in the range of 1) and 2). Is made from both the A image and the B image, and in the range 3) is made only from the B image.

【0148】2)の範囲では、A画像とシフトしたB画
像の相乗平均からC画像を生成している。等しくない2
数の相乗平均は常にそれらの数の相加平均よりも小さ
い、という数学上の性質から、上記実施の第1の形態に
示した合成方法と、上記実施の第2の形態に示した合成
方法の中間的な結果を得る。すなわち、ゴースト等の光
学外乱を排除する特性と、ランダムノイズを低減する特
性を併せ持ったものであり、高精度であって、かつ、た
いへん実用的である。
In the range 2), the C image is generated from the geometric mean of the A image and the shifted B image. Not equal 2
Because of the mathematical property that the geometric mean of numbers is always smaller than the arithmetic mean of those numbers, the combining method shown in the first embodiment and the combining method shown in the second embodiment Get intermediate results. That is, it has both the characteristic of eliminating optical disturbances such as ghosts and the characteristic of reducing random noise, and is highly accurate and very practical.

【0149】以上の実施の各形態によれば、ファインダ
光学系を通して観察者の眼の眼画像を形成する結像光学
系(複眼レンズ17等)を、視差を持った複数の眼画
像、実施の形態に則していえばA画像,B画像を形成す
る構成にし、前記A画像,B画像の眼画像をもとに合成
した眼画像を用いて注視点を演算手段に相当する視線検
出・AF制御回路40により算出(図23のステップ#
301〜#311,#316,#317)するようにし
ているので、眼画像を二方向から捉える技術を利用し
て、まつげの態様といった個人差について寛容な視線検
出を行うことができる。
According to each of the above embodiments, the imaging optical system (the compound eye lens 17 and the like) for forming an eye image of the observer's eye through the finder optical system is replaced with a plurality of eye images having parallax. According to the form, an A image and a B image are formed, and a gaze point and an AF control corresponding to a calculating unit are determined by using an eye image synthesized based on the A image and the B image. Calculated by the circuit 40 (step # in FIG. 23)
301 to # 311, # 316, and # 317), it is possible to perform a forgiving gaze detection with respect to individual differences such as the shape of eyelashes by using a technique of capturing an eye image from two directions.

【0150】また、上記の様な演算を行うことにより、
瞳孔の検出や第一プルキンエ像の検出に有害なゴースト
を排除することができ、高精度な視線検出を行うことが
できる。
By performing the above calculations,
Ghosts that are harmful to the detection of the pupil and the detection of the first Purkinje image can be eliminated, and highly accurate gaze detection can be performed.

【0151】更に、上記第2及び第3の形態で述べたよ
うな、合成した眼画像を得る(A画像とシフトしたB画
像の相加平均や相乗平均からC画像を得る)ようにして
いるので、2回の視線検出を行ったのと同等の高精度な
視線検出を行うことができる。
Furthermore, as described in the second and third embodiments, a combined eye image is obtained (a C image is obtained from an arithmetic mean or a geometric mean of an A image and a shifted B image). Therefore, it is possible to perform highly accurate gaze detection equivalent to performing two gaze detections.

【0152】また、前記視線検出・AF制御回路40
は、複数の眼画像をもとに合成した眼画像を用いて注視
点を算出する第一の演算モード(図23のステップ#3
06〜#311→#316)と、一つの眼画像を用いて
注視点を算出する第二の演算モード(図23のステップ
#306→#309→#315→#316)とを具備す
るようにしているので、より斜めからファインダを覗い
た場合には一方の画像では第一プルキンエ像が捉えられ
なくなるが、第二の演算モードによる視線検出を行うこ
とで、検出不能状態になり難い視線検出装置を実現する
ことができる。又、ゴーストのために瞳孔の検出や第一
プルキンエ像の検出が一方の眼画像についてできない場
合であっても、第二の演算モードによって検出不能状態
にならないようにすることができる。
The line-of-sight detection / AF control circuit 40
Is a first calculation mode for calculating a gazing point using an eye image synthesized based on a plurality of eye images (step # 3 in FIG. 23).
06 to # 311 → # 316) and a second calculation mode (step # 306 → # 309 → # 315 → # 316 in FIG. 23) for calculating the point of gaze using one eye image. Since the first Purkinje image cannot be captured in one of the images when the finder is viewed more diagonally, the gaze detection device that is less likely to be in a non-detectable state by performing the gaze detection in the second calculation mode. Can be realized. Further, even if the pupil detection or the first Purkinje image cannot be detected for one eye image due to a ghost, it is possible to prevent the detection from being disabled by the second calculation mode.

【0153】[0153]

【発明の効果】以上説明したように、請求項1に記載の
発明によれば、観察者のまつげの態様や観察面の覗き方
等の個人差について寛容であり、しかも、高精度な視線
検出を行うことができる視線検出装置を提供できるもの
である。
As described above, according to the first aspect of the present invention, it is possible to tolerate individual differences such as the eyelash form of the observer and how to look into the observation surface, and also to perform highly accurate gaze detection. The present invention can provide a gaze detection device capable of performing the following.

【0154】また、請求項6に記載の発明によれば、観
察者がより斜めから観察面を覗いたとしても、視線検出
不能状態に陥り難いものとすることができる視線検出装
置を提供できるものである。
According to the sixth aspect of the present invention, it is possible to provide a line-of-sight detecting device which can prevent a line of sight from being detected even when an observer looks into the observation surface from an oblique direction. It is.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の第1の形態に係る視線検出装置
を搭載したデジタルカラーカメラの構成図である。
FIG. 1 is a configuration diagram of a digital color camera equipped with a visual line detection device according to a first embodiment of the present invention.

【図2】本発明の実施の第1の形態に係るLEDの発光
特性を示す図である。
FIG. 2 is a diagram illustrating light emission characteristics of the LED according to the first embodiment of the present invention.

【図3】本発明の実施の第1の形態に係るダイクロイッ
クミラーの分光反射率特性を示す図である。
FIG. 3 is a diagram illustrating a spectral reflectance characteristic of the dichroic mirror according to the first embodiment of the present invention.

【図4】本発明の実施の第1の形態に係るデジタルカラ
ーカメラの電気的構成を示すブロック図である。
FIG. 4 is a block diagram showing an electrical configuration of the digital color camera according to the first embodiment of the present invention.

【図5】本発明の実施の第1の形態に係る固体撮像素子
内のエリアセンサ部の回路構成図である。
FIG. 5 is a circuit configuration diagram of an area sensor unit in the solid-state imaging device according to the first embodiment of the present invention.

【図6】本発明の実施の第1の形態に係る受光部の断面
図である。
FIG. 6 is a sectional view of a light receiving unit according to the first embodiment of the present invention.

【図7】本発明の実施の第1の形態においてマイクロレ
ンズと受光部との位置関係を示す平面図である。
FIG. 7 is a plan view showing a positional relationship between a microlens and a light receiving unit according to the first embodiment of the present invention.

【図8】本発明の実施の第1の形態に係るエリアセンサ
部の断面図である。
FIG. 8 is a sectional view of an area sensor unit according to the first embodiment of the present invention.

【図9】本発明の実施の第1の形態に係る眼球照明系の
側面図である。
FIG. 9 is a side view of the eyeball illumination system according to the first embodiment of the present invention.

【図10】本発明の実施の第1の形態に係る眼球照明系
の正面図である。
FIG. 10 is a front view of an eyeball illumination system according to the first embodiment of the present invention.

【図11】本発明の実施の第1の形態に係る照明光路の
展開図である。
FIG. 11 is a developed view of an illumination light path according to the first embodiment of the present invention.

【図12】本発明の実施の第1の形態に係る拡散板の説
明図である。
FIG. 12 is an explanatory diagram of a diffusion plate according to the first embodiment of the present invention.

【図13】本発明の実施の第1の形態において正面から
見た眼部を表す図である。
FIG. 13 is a diagram illustrating an eye portion viewed from the front according to the first embodiment of the present invention.

【図14】本発明の実施の第1の形態において視野角度
と視細胞数の関係を示した図である。
FIG. 14 is a diagram showing the relationship between the viewing angle and the number of photoreceptors in the first embodiment of the present invention.

【図15】本発明の実施の第1の形態においてファイン
ダ視野と照明系との関係を示す説明図である。
FIG. 15 is an explanatory diagram showing a relationship between a finder visual field and an illumination system according to the first embodiment of the present invention.

【図16】本発明の実施の第1の形態においてレンズ面
に増透コートを施した眼鏡の分光反射率特性の例であ
る。
FIG. 16 is an example of the spectral reflectance characteristics of spectacles in which a lens surface is provided with an anti-reflection coating in the first embodiment of the present invention.

【図17】本発明の実施の第1の形態に係る眼球撮像系
の光路展開図である。
FIG. 17 is an optical path development diagram of the eyeball imaging system according to the first embodiment of the present invention.

【図18】本発明の実施の第1の形態に係る絞りの平面
図である。
FIG. 18 is a plan view of the stop according to the first embodiment of the present invention.

【図19】本発明の実施の第1の形態に係る複眼レンズ
の平面図である。
FIG. 19 is a plan view of a compound eye lens according to the first embodiment of the present invention.

【図20】本発明の実施の第1の形態に係る視線センサ
の平面図である。
FIG. 20 is a plan view of the eye-gaze sensor according to the first embodiment of the present invention.

【図21】本発明の実施の第1の形態に係る視線センサ
のエリアセンサ部と眼画像との関係を示す図である。
FIG. 21 is a diagram illustrating a relationship between an area sensor unit of the eye-gaze sensor and an eye image according to the first embodiment of the present invention.

【図22】本発明の実施の第1の形態に係るカメラの動
作を示すフローチャートである。
FIG. 22 is a flowchart showing an operation of the camera according to the first embodiment of the present invention.

【図23】同じく本発明の実施の第1の形態に係るカメ
ラの動作を示すフローチャートである。
FIG. 23 is a flowchart showing an operation of the camera according to the first embodiment of the present invention.

【図24】本発明の実施の第1の形態において第一プル
キンエ像と瞳孔との関係を示す説明図である。
FIG. 24 is an explanatory diagram showing a relationship between a first Purkinje image and a pupil in the first embodiment of the present invention.

【図25】本発明の実施の第1の形態においてA画像と
B画像の第一プルキンエ像の座標の差を示す説明図であ
る。
FIG. 25 is an explanatory diagram showing a difference between the coordinates of the first Purkinje image of the A image and the B image in the first embodiment of the present invention.

【図26】本発明の実施の第1の形態において合成画像
であるC画像の説明図である。
FIG. 26 is an explanatory diagram of a C image that is a composite image according to the first embodiment of the present invention.

【図27】本発明の実施の第1の形態に係る視線センサ
のエリアセンサ部の各画素に割り当てた番地の説明図で
ある。
FIG. 27 is an explanatory diagram of addresses assigned to respective pixels of the area sensor unit of the eye-gaze sensor according to the first embodiment of the present invention.

【図28】本発明の実施の第1の形態においてカメラの
動作を示すフローチャートである。
FIG. 28 is a flowchart showing an operation of the camera according to the first embodiment of the present invention.

【符号の説明】[Explanation of symbols]

6 固体撮像素子 11 LED 14 ダイクロイックミラー 16 光路変更プリズム 17 複眼レンズ 18 視線センサ 35 カメラシステム制御回路 40 視線検出・AF制御回路 Reference Signs List 6 solid-state image pickup device 11 LED 14 dichroic mirror 16 optical path changing prism 17 compound eye lens 18 gaze sensor 35 camera system control circuit 40 gaze detection / AF control circuit

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 観察者の眼の眼画像を形成する結像光学
系と、前記眼画像から観察者の注視点を演算する演算手
段とを有する視線検出装置において、 前記結像光学系は、視差を持った複数の眼画像を形成す
るものであり、前記演算手段は、前記複数の眼画像をも
とに合成した眼画像を用いて注視点を算出するものであ
ることを特徴とする視線検出装置。
1. An eye-gaze detecting apparatus comprising: an imaging optical system that forms an eye image of an eye of an observer; and a calculating unit that calculates a gazing point of the observer from the eye image, wherein the imaging optical system includes: Forming a plurality of eye images having parallax, wherein the calculating means calculates a gazing point using an eye image synthesized based on the plurality of eye images; Detection device.
【請求項2】 前記演算手段は、前記合成した眼画像を
得るに際し、前記複数の眼画像の合成範囲を第1、第
2、第3の範囲に区分し、第1の範囲では、複数のうち
の一方の眼画像の情報だけを、第2の範囲では、複数の
眼画像の情報を、第3の領域では、複数のうちの他方の
眼画像の情報をだけを、それぞれ用いて前記合成した眼
画像を得ることを特徴とする請求項1に記載の視線検出
装置。
2. The arithmetic means, when obtaining the synthesized eye image, divides a synthesis range of the plurality of eye images into first, second, and third ranges, and includes a plurality of ranges in the first range. The synthesis is performed by using only the information of one of the plurality of eye images, the information of the plurality of eye images in the second range, and the information of the other one of the plurality of eye images in the third area. The eye-gaze detecting device according to claim 1, wherein an eye image is obtained.
【請求項3】 前記第2の範囲における合成した眼画像
は、前記複数の眼画像のそれぞれ対応する各検出位置の
うちの最小値を選択することにより得ることを特徴とす
る請求項2に記載の視線検出装置。
3. The combined eye image in the second range is obtained by selecting a minimum value of each detection position corresponding to each of the plurality of eye images. Gaze detection device.
【請求項4】 観察者の眼の眼画像を形成する結像光学
系と、前記眼画像から観察者の注視点を演算する演算手
段とを有する視線検出装置において、 前記結像光学系は、視差を持った複数の眼画像を形成す
るものであり、前記演算手段は、前記複数の眼画像のう
ちの一方の画像と他方の画像の相加平均により合成した
眼画像を得、該合成した眼画像を用いて注視点を算出す
るものであることを特徴とする視線検出装置。
4. A line-of-sight detection apparatus comprising: an imaging optical system that forms an eye image of an eye of an observer; and a calculating unit that calculates a gazing point of the observer from the eye image. Forming a plurality of eye images having parallax, wherein the calculating means obtains an eye image synthesized by an arithmetic mean of one of the plurality of eye images and the other image, and A gaze detection apparatus for calculating a gazing point using an eye image.
【請求項5】 観察者の眼の眼画像を形成する結像光学
系と、前記眼画像から観察者の注視点を演算する演算手
段とを有する視線検出装置において、 前記結像光学系は、視差を持った複数の眼画像を形成す
るものであり、前記演算手段は、前記複数の眼画像のう
ちの一方の画像と他方の画像の相乗平均により合成した
眼画像を得、該合成した眼画像を用いて注視点を算出す
るものであることを特徴とする視線検出装置。
5. A line-of-sight detection device comprising: an imaging optical system that forms an eye image of an eye of an observer; and a calculating unit that calculates a gazing point of the observer from the eye image. Forming a plurality of eye images having parallax, wherein the calculating means obtains an eye image synthesized by a geometric mean of one of the plurality of eye images and the other image; A gaze detection apparatus for calculating a point of gaze using an image.
【請求項6】 観察者の眼の眼画像を形成する結像光学
系と、前記眼画像から観察者の注視点を演算する演算手
段とを有する視線検出装置において、 前記結像光学系は、視差を持った複数の眼画像を形成す
るものであり、前記演算手段は、前記複数の眼画像をも
とに合成した眼画像を用いて注視点を算出する第一の演
算モードと、一つの眼画像を用いて注視点を算出する第
二の演算モードを有するものであることを特徴とする視
線検出装置。
6. A line-of-sight detection apparatus comprising: an imaging optical system that forms an eye image of an observer's eye; and a calculation unit that calculates a gazing point of the observer from the eye image. Forming a plurality of eye images having parallax, wherein the calculating means calculates a gazing point using an eye image synthesized based on the plurality of eye images; and A gaze detection device having a second calculation mode for calculating a point of regard using an eye image.
【請求項7】 前記演算手段は、前記複数の眼画像の何
れからもプルキンエ像を検出できることにより前記第一
の演算モードを選択し、前記複数の眼画像のうち、プル
キンエ像を検出することができない眼画像が存在するこ
とにより前記第二の演算モードを選択することを特徴と
する請求項6に記載の視線検出装置。
7. The arithmetic unit may select the first arithmetic mode by detecting a Purkinje image from any of the plurality of eye images, and detect a Purkinje image among the plurality of eye images. The eye gaze detecting apparatus according to claim 6, wherein the second calculation mode is selected when an unrecognizable eye image exists.
JP2000071981A 2000-03-15 2000-03-15 Visual line detector Pending JP2001258845A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000071981A JP2001258845A (en) 2000-03-15 2000-03-15 Visual line detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000071981A JP2001258845A (en) 2000-03-15 2000-03-15 Visual line detector

Publications (1)

Publication Number Publication Date
JP2001258845A true JP2001258845A (en) 2001-09-25

Family

ID=18590467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000071981A Pending JP2001258845A (en) 2000-03-15 2000-03-15 Visual line detector

Country Status (1)

Country Link
JP (1) JP2001258845A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017148241A (en) * 2016-02-24 2017-08-31 株式会社トプコン Ophthalmic photographing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017148241A (en) * 2016-02-24 2017-08-31 株式会社トプコン Ophthalmic photographing apparatus

Similar Documents

Publication Publication Date Title
JP4908668B2 (en) Focus detection device
US9319659B2 (en) Image capturing device and image capturing method
JP5066851B2 (en) Imaging device
US11126014B2 (en) Eyewear, eyewear systems and associated methods for enhancing vision
JP5133533B2 (en) Imaging device
TWI435593B (en) Method for capturing three-dimensional image
US7794084B2 (en) Eye fundus camera
JP4983271B2 (en) Imaging device
JP6951917B2 (en) Imaging device
JP2008072470A (en) Photoelectric conversion element and imaging apparatus
JP2014056014A (en) Imaging element and imaging apparatus
JP5484453B2 (en) Optical devices with multiple operating modes
JP5348258B2 (en) Imaging device
CN110312957A (en) Focus detection, focus detecting method and focus detection program
JP7091053B2 (en) Imaging device and focus detection method
JP2003000544A (en) Line-of-vision detector
JP2018152748A (en) Imaging/display device of stereoscopic image and head mount device
CN106412532B (en) Control equipment, picture pick-up device and control method
JP2001258845A (en) Visual line detector
JP5747510B2 (en) Imaging device
JP2001258844A (en) Visual lien detector
JP2010014950A (en) Imaging apparatus
JP2004191651A (en) Imaging apparatus
WO2013042606A1 (en) Digital camera and solid-state image capturing device
JP2019219577A (en) Detection device and detection method