JP2002186587A - Visual line detector - Google Patents

Visual line detector

Info

Publication number
JP2002186587A
JP2002186587A JP2000389686A JP2000389686A JP2002186587A JP 2002186587 A JP2002186587 A JP 2002186587A JP 2000389686 A JP2000389686 A JP 2000389686A JP 2000389686 A JP2000389686 A JP 2000389686A JP 2002186587 A JP2002186587 A JP 2002186587A
Authority
JP
Japan
Prior art keywords
gaze
eyeball
image
detected
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000389686A
Other languages
Japanese (ja)
Inventor
Yoshiaki Irie
良昭 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000389686A priority Critical patent/JP2002186587A/en
Publication of JP2002186587A publication Critical patent/JP2002186587A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To accurately correct the position of a visual line on the basis of proper calibration data. SOLUTION: This visual line detector, which has a plurality of image forming optical systems for forming a plurality of eyeball images to detect the position of the visual line of an observer through a finder optical system, has first computing means (#305-#312 or #314-#320, #322) for detecting the position of the visual line of the observer from the eyeball image synthesized on the basis of a plurality of the eyeball images, second computing means (#323-#329) for detecting the position of the visual line of the observer from one eyeball image among a plurality of the eyeball images, calibration means (#301-#304, #312, #329, #322) performing operation for obtaining calibration data for correcting the position of the visual line of the observer using the first or second arithmetic means, and a memory means for storing the calibration data obtained by the calibration means.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ等に搭載さ
れる視線検出装置の改良に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement in an eye-gaze detecting device mounted on a camera or the like.

【0002】[0002]

【従来の技術】従来より、撮影者(観察者)の視線方向
を検知し、撮影者がファインダ視野内のどの領域(位
置)を観察しているか、いわゆる撮影者の注視方向をカ
メラの一部に設けた視線検出装置で検知し、該視線検出
装置からの信号に基づいて自動焦点調節や自動露出等の
各種撮影機能を制御するようにしたカメラが種々提案さ
れている。
2. Description of the Related Art Conventionally, the gaze direction of a photographer (observer) is detected, and which area (position) in the viewfinder field the photographer is observing, that is, the so-called gaze direction of the photographer is partly determined by the camera. Various cameras have been proposed in which various types of photographing functions, such as automatic focus adjustment and automatic exposure, are controlled based on a signal detected by a visual axis detection device provided in the above.

【0003】例えば本出願人は、特開平1−24151
1号公報において、撮影者の注視方向を検出する視線検
出装置と、焦点検出装置と、複数個の測光感度分布を持
つ自動露出制御装置とを有し、前記視線検出装置からの
出力信号に基づいて焦点検出装置や自動露出制御装置の
駆動を制御するようにしたカメラを提案している。
[0003] For example, the present applicant has disclosed in
Patent Document 1 discloses a gaze detection device for detecting a gaze direction of a photographer, a focus detection device, and an automatic exposure control device having a plurality of photometric sensitivity distributions, based on an output signal from the gaze detection device. A camera has been proposed which controls the driving of a focus detection device and an automatic exposure control device.

【0004】ここで用いられる視線検出装置は、赤外光
を観察者の眼部に照射し、戻ってきた反射光から眼球像
を形成し、この眼球像データに基づいて視線検出を行う
ものである。
The eye-gaze detecting device used here irradiates infrared light to the eye of the observer, forms an eyeball image from the returned reflected light, and performs eye-gaze detection based on the eyeball image data. is there.

【0005】通常、これらの眼球像には瞼や瞳孔の他
に、角膜での光源の反射像であるプルキンエ像が発生
し、瞳孔とプルキンエ像との位置関係は眼球の回転に応
じて変化するので、眼球像から瞳孔とプルキンエ像の情
報を抽出することによって、注視点を検出することが可
能となる。
Usually, in these eyeball images, in addition to the eyelids and the pupils, Purkinje images, which are reflection images of the light source on the cornea, occur, and the positional relationship between the pupils and the Purkinje images changes according to the rotation of the eyeballs. Therefore, by extracting information on the pupil and the Purkinje image from the eyeball image, it is possible to detect the gazing point.

【0006】さらには、より視線検出精度を向上させる
ために、視差を持った複数の眼球像を用いる技術が知ら
れている。
[0006] Further, there is known a technique of using a plurality of eyeball images having parallax in order to further improve the line-of-sight detection accuracy.

【0007】[0007]

【発明が解決しようとする課題】観察者が上記説明した
視線検出装置において視線検出を実行する場合、観察者
の眼球光軸と視軸とのズレを補正する行為、いわゆるキ
ャリブレーションを行い、そのデータ採取に伴って算出
される視線の補正データはカメラに記憶され、観察者が
視線検出を行う際の該観察者の視線位置を求める計算に
用いられる。これら視線検出におけるキャリブレーショ
ンについては、特開平4−236935号公報等にて開
示がなされている。
When the observer performs the gaze detection in the above-described gaze detection device, the observer performs a so-called calibration to correct a deviation between the optical axis of the observer's eyeball and the visual axis. The line-of-sight correction data calculated along with the data collection is stored in the camera, and is used in the calculation for determining the line-of-sight position of the observer when the observer detects the line of sight. The calibration in the line of sight detection is disclosed in Japanese Patent Application Laid-Open No. 4-236935 and the like.

【0008】以下に述べる本発明にかかるところの観察
者の眼球を複数の結像光学系によって得られた視差を持
った複数の眼球像を基に撮影者の視線を検出する視線検
出装置においても、同様にキャリブレーションを実行
し、そこで得られたキャリブレーションデータを用いて
観察者の視線検出を行う必要がある。
A gaze detecting apparatus for detecting a gaze of a photographer based on a plurality of eyeball images having parallax obtained by a plurality of imaging optical systems according to the present invention will be described below. In the same manner, it is necessary to execute calibration, and detect the line of sight of the observer using the calibration data obtained therefrom.

【0009】ここで、前記複数の結像光学系が視線検出
装置のファインダ系光軸に対称に配置され、なおかつ観
察者の眼球がファインダ光軸上に存在すれば、複数の結
像光学系にて得られた視差を持った複数の眼球像は各々
対称な(例えば、二つ光学系がファインダ光軸に左右対
称に配置されれば左右対称な画像となる)眼球像を得る
ことができ、全く従来と同じキャリブレーションを実行
し、そこで得られた一つのキャリブレーションデータに
よって視線検出を行うことが可能である。しかし、実際
には常に観察者の眼球が正しいファインダ光軸上にとど
まっていることは殆どなく、眼球がファインダ光軸上か
ら外れた位置に存在する時は、前記複数の結像光学系に
よって受光素子上に結像した複数の眼球像は各々受光素
子上で異なった位置に眼球が結像されることとなる。一
方、眼球像を得るための光学系にはディストーション等
の光学的な歪が発生している。
Here, if the plurality of imaging optical systems are arranged symmetrically with respect to the optical axis of the finder system of the line-of-sight detection device, and if the observer's eyeball is located on the optical axis of the finder, the plurality of imaging optical systems are connected to the plurality of imaging optical systems. A plurality of eyeball images having parallax obtained by the above can be obtained as symmetric eyeball images (for example, a left-right symmetric image if two optical systems are disposed symmetrically with respect to the viewfinder optical axis), It is possible to perform exactly the same calibration as in the past and perform gaze detection with one piece of calibration data obtained therefrom. However, in practice, the observer's eyeball is rarely always on the correct viewfinder optical axis, and when the eyeball is located at a position off the viewfinder optical axis, light is received by the plurality of imaging optical systems. The plurality of eyeball images formed on the element are formed at different positions on the light receiving element. On the other hand, an optical system for obtaining an eyeball image has optical distortion such as distortion.

【0010】図12は、ファインダ光学系からある特定
の距離に設けた格子状のチャートがファインダ光軸から
ある角度を持って対称に配置された二つの結像系の受光
素子(CCD1とCCD2)上に結像された状態を示し
た図であり、受光素子であるCCD1とCCD2の画像
は左右反転像で非均一なことが分かる。つまり、ファイ
ンダ光軸上に存在し、受光素子上の異なった位置に結像
した複数の眼球像はその結像位置に応じて、この歪の影
響を受けるがために視線検出に必要な情報である眼球の
プルキンエ像(角膜反射像)と瞳孔中心位置の精度およ
び両者の相対関係が複数の結像光学系各々で異なること
となり、ただ一つのキャリブレーションデータでは視線
検出を精度良く実行することが困難であるという問題が
あった。
FIG. 12 shows two image-forming light receiving elements (CCD1 and CCD2) in which a grid-like chart provided at a specific distance from the finder optical system is symmetrically arranged at an angle from the finder optical axis. It is a diagram showing a state where the image is formed on the upper side, and it can be seen that the images of the light receiving elements CCD1 and CCD2 are non-uniform inverted right and left images. In other words, a plurality of eyeball images that exist on the optical axis of the finder and are formed at different positions on the light receiving element are affected by the distortion according to the image formation position, and thus are information necessary for gaze detection. The accuracy of the Purkinje image (corneal reflection image) of a certain eyeball and the center position of the pupil and the relative relationship between the two differ in each of the plurality of imaging optical systems, and it is necessary to perform eye gaze detection accurately with only one calibration data. There was a problem that it was difficult.

【0011】(発明の目的)本発明の第1の目的は、適
切なキャリブレーションデータによって視線位置の補正
を正確に行わせることのできる視線検出装置を提供しよ
うとするものである。
(Object of the Invention) A first object of the present invention is to provide an eye-gaze detecting device capable of accurately correcting an eye-gaze position with appropriate calibration data.

【0012】本発明の第2の目的は、精度の良い視線検
出を行うことのできる視線検出装置を提供しようとする
ものである。
A second object of the present invention is to provide a visual axis detection device capable of performing an accurate visual axis detection.

【0013】[0013]

【課題を解決するための手段】上記第1の目的を達成す
るために、請求項1に記載の発明は、物体を観察する為
のファインダ光学系の光軸に対して視差を持った複数の
眼球像を形成する複数の結像光学系を有し、前記ファイ
ンダ光学系を通して観察者の視線位置を検出する視線検
出装置において、前記複数の眼球像をもとに合成した眼
球像から観察者の視線位置を検出する第1の演算手段
と、前記複数の眼球像のうちの一つの眼球像から観察者
の視線位置を検出する第2の演算手段と、前記第1の演
算手段もしくは前記第2の演算手段を用いて観察者の視
線位置を補正する為のキャリブレーションデータを得る
動作を行うキャリブレーション手段と、該キャリブレー
ション手段により得られるキャリブレーションデータを
記憶する記憶手段とを有する視線検出装置とするもので
ある。
In order to achieve the first object, according to the first aspect of the present invention, a plurality of objects having a parallax with respect to the optical axis of a finder optical system for observing an object are provided. In a line-of-sight detection device that has a plurality of imaging optical systems that form an eyeball image and detects a line-of-sight position of the observer through the finder optical system, the viewer's eyeball image is synthesized from the eyeball images synthesized based on the plurality of eyeball images. First calculating means for detecting a gaze position, second calculating means for detecting a gaze position of an observer from one of the plurality of eyeball images, and the first calculating means or the second calculating means. Calibration means for performing an operation of obtaining calibration data for correcting the observer's line of sight position using the arithmetic means, and storage means for storing calibration data obtained by the calibration means. It is an eye-gaze detecting device having.

【0014】また、上記第2の目的を達成するために、
請求項2に記載の発明は、前記観察者の視線検出の際、
前記記憶手段に記憶されたキャリブレーションデータに
より前記第1の演算手段もしくは第2の演算手段によっ
て検出された視線位置に補正を加え、前記観察者の視線
位置を検出する請求項1に記載の視線検出装置とするも
のである。
Further, in order to achieve the second object,
The invention according to claim 2 is configured to detect the line of sight of the observer,
The gaze according to claim 1, wherein the gaze position detected by the first calculation unit or the second calculation unit is corrected based on the calibration data stored in the storage unit, and the gaze position of the observer is detected. It is a detection device.

【0015】[0015]

【発明の実施の形態】以下、本発明を図示の実施の形態
に基づいて詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on illustrated embodiments.

【0016】図1は本発明の実施の一形態に係る一眼レ
フカメラの要部構成図、図2は図1の一眼レフカメラの
視線検出装置を模式的に示した図、図3は同じく図1の
一眼レフカメラのファインダ内を示す図である。
FIG. 1 is a structural view of a principal part of a single-lens reflex camera according to an embodiment of the present invention, FIG. 2 is a diagram schematically showing a line-of-sight detecting device of the single-lens reflex camera of FIG. 1, and FIG. FIG. 2 is a diagram showing the inside of a finder of one single-lens reflex camera.

【0017】これらの図において、1は撮影レンズであ
り、便宜上2枚のレンズ1a,1bで示したが、実際は
さらに多数のレンズから構成されている。2は主ミラー
であり、ファインダ系による被写体像の観察状態と被写
体像の撮影状態に応じて撮影光路へ斜設され、或は、退
去される。3はサブミラーであり、主ミラー2を透過し
た光束をカメラボディの下方の後述する焦点検出装置6
へ向けて反射する。4はシャッタである。5は感光部材
であり、銀塩フィルム、或はCCDやMOS型等の固体
撮像素子或はビディコン等の撮像管より成っている。
In these figures, reference numeral 1 denotes a photographing lens, which is shown by two lenses 1a and 1b for convenience, but is actually constituted by a larger number of lenses. Reference numeral 2 denotes a main mirror which is inclined to the photographing optical path or retreated depending on the state of observation of the subject image by the finder system and the state of photography of the subject image. Reference numeral 3 denotes a sub-mirror which converts a light beam transmitted through the main mirror 2 into a focus detection device 6 described below below the camera body.
Reflects toward. Reference numeral 4 denotes a shutter. Reference numeral 5 denotes a photosensitive member, which is formed of a silver halide film, a solid-state image pickup device such as a CCD or MOS type, or an image pickup tube such as a vidicon.

【0018】6は焦点検出装置であり、結像面近傍に配
置されたフィールドレンズ6a、反射ミラー6b及び6
c、二次結像レンズ6e、絞り6d、複数のCCDから
成るラインセンサ6f等から構成されている。本実施の
形態における焦点検出装置6は、周知の位相差方式にて
焦点検出を行うものであり、図3に示すように、被写界
内の複数の領域(焦点検出領域マーク70〜74で示さ
れる5箇所)を焦点検出領域として、該焦点検出領域そ
れぞれにて焦点検出が可能となるように構成されてい
る。7は撮影レンズ1の予定結像面に配置されたピント
板、8はファインダ光路変更用のペンタプリズムであ
る。9,10は各々観察画面内の被写体輝度を測定する
ための結像レンズと測光センサであり、結像レンズ9は
ペンタプリズム8内の反射光路を介してピント板7と測
光センサ10を共役に関係付けられている。11はペン
タプリズム8の射出後方に配置される接眼レンズであ
り、撮影者の眼球15によるピント板7の観察に使用さ
れる。
Reference numeral 6 denotes a focus detection device, which includes a field lens 6a, reflection mirrors 6b and 6 arranged near the image plane.
c, a secondary imaging lens 6e, an aperture 6d, a line sensor 6f including a plurality of CCDs, and the like. The focus detection device 6 according to the present embodiment performs focus detection by a well-known phase difference method, and as illustrated in FIG. 3, a plurality of regions in the object scene (focus detection region marks 70 to 74). (Five locations shown) are used as focus detection areas so that focus detection can be performed in each of the focus detection areas. Reference numeral 7 denotes a focusing plate arranged on a predetermined image forming plane of the photographing lens 1, and 8 denotes a pentaprism for changing a finder optical path. Reference numerals 9 and 10 denote an imaging lens and a photometric sensor for measuring the luminance of the subject in the observation screen, respectively. The imaging lens 9 conjugates the focusing plate 7 and the photometric sensor 10 via a reflection optical path in the pentaprism 8. Be related. Reference numeral 11 denotes an eyepiece disposed behind the exit of the pentaprism 8, and is used for observing the focus plate 7 with the eyeball 15 of the photographer.

【0019】上記の主ミラー2、ピント板7、ペンタプ
リズム8、接眼レンズ11によってファインダ光学系が
構成されている。
A finder optical system is constituted by the main mirror 2, the focusing plate 7, the pentaprism 8, and the eyepiece 11.

【0020】23はペンタプリズム8と接眼レンズ11
の間に配置されて例えば可視光を透過し赤外光を反射す
る光分割器であるところのダイクロイックミラーであ
り、後述する赤外発光ダイオードで照明された撮影者の
眼球15の赤外反射光を視線検出のための結像光学系に
導くものである。
Reference numeral 23 denotes a pentaprism 8 and an eyepiece 11
A dichroic mirror, which is a light splitter that transmits visible light and reflects infrared light, for example, and is an infrared reflected light of a photographer's eye 15 illuminated by an infrared light emitting diode described later. Is guided to an image forming optical system for line of sight detection.

【0021】12a,12bは各々結像レンズであり、
14a,14bは各々CCD等の光電変換素子列を縦、
横それぞれ70画素、100画素の二次元的に配したイ
メージセンサ(以下、CCD−EYE14a,CCD−
EYE14bと記す)であり、図2にそれらの構成斜視
図を示している。
Reference numerals 12a and 12b denote imaging lenses, respectively.
14a and 14b are vertical columns of photoelectric conversion elements such as CCDs, respectively.
Image sensors (hereinafter referred to as CCD-EYE14a, CCD-
EYE14b), and FIG. 2 shows a perspective view of their configuration.

【0022】図2から分かるように、結像レンズ12
a,12bは各々ファインダ光軸の水平上で該ファイン
ダ光軸に対して所定の角度なすように配置されており、
さらに結像レンズ12a,12bに各々対応して接眼レ
ンズ直前の位置にある撮影者の眼球15の瞳孔近傍と共
役の結像関係になるようにCCD−EYE14a,14
bが配置され、これらによって視線検出を行うための受
光手段が構成されている。
As can be seen from FIG. 2, the imaging lens 12
a and 12b are arranged at a predetermined angle with respect to the finder optical axis on the horizontal of the finder optical axis, respectively.
Further, the CCD-EYEs 14a and 14 are arranged so as to have a conjugate imaging relationship with the vicinity of the pupil of the eyeball 15 of the photographer located immediately before the eyepiece corresponding to the imaging lenses 12a and 12b, respectively.
The light receiving means for detecting the line of sight is constituted by these.

【0023】このように、結像レンズ12aとCCD−
EYE14aにて第1の結像光学系が、結像レンズ12
bとCCD−EYE14bにて第2の結像光学系が、そ
れぞれ構成されており、この二つの結像光学系によって
得られた撮影者の視差を持った一対の眼球像を得ること
が可能である。
As described above, the imaging lens 12a and the CCD-
In the EYE 14a, the first imaging optical system
b and the CCD-EYE 14b constitute a second imaging optical system, respectively, and it is possible to obtain a pair of eyeball images having parallax of a photographer obtained by the two imaging optical systems. is there.

【0024】また、13a〜13hは各々撮影者の眼球
15の瞳孔近傍を照明するための照明手段を成す発光素
子であり、これら発光素子には赤外発光ダイオード(以
下、IREDと記す)が用いられ、接眼レンズ11の回
りに配置されており、13a〜13hの8個のIRED
内の2個一組の照明が状況に応じて一回の視線検出時に
発光する。
Reference numerals 13a to 13h denote light-emitting elements which constitute illumination means for illuminating the vicinity of the pupil of the eyeball 15 of the photographer. Infrared light-emitting diodes (hereinafter referred to as IREDs) are used for these light-emitting elements. And eight IREDs 13a to 13h are arranged around the eyepiece 11.
A set of two of them emits light upon one gaze detection depending on the situation.

【0025】以上、受光手段と照明手段と前述のダイロ
イックミラー23とによって視線検出装置が構成されて
いる。
As described above, the line of sight detecting device is constituted by the light receiving means, the illuminating means, and the above-mentioned dichroic mirror 23.

【0026】図1に戻って、21は明るい被写体の中で
も視認できる高輝度のスーパーインポーズ用LEDであ
り、ここから発光された光は投光用プリズム22を介
し、主ミラー2で反射されてピント板7の表示部に設け
られた微小プリズムアレイ7aで垂直方向に曲げられ、
ペンタプリズム8、接眼レンズ11を通って撮影者の眼
球15に達する。つまり、図3に示したファインダ視野
から分かるように、各々の焦点検出領域マーク70〜7
4がファインダ視野内で光り、焦点検出領域を表示させ
ることができるものである(これをスーパーインポーズ
表示という)。
Returning to FIG. 1, reference numeral 21 denotes a high-brightness superimposing LED which can be visually recognized even in a bright subject. Light emitted from the superimposing LED is reflected by the main mirror 2 via a light projecting prism 22. It is bent in the vertical direction by the micro prism array 7a provided on the display unit of the focus plate 7,
The light reaches the photographer's eyeball 15 through the pentaprism 8 and the eyepiece 11. That is, as can be seen from the finder field of view shown in FIG.
Reference numeral 4 denotes a light which shines in the finder visual field to display a focus detection area (this is referred to as a superimposed display).

【0027】図3において、左右の焦点検出領域マーク
70,74の内部には、ドットマーク70´、74´が
刻印されており、これは眼球の個人差による視線の検出
誤差を補正するための視線補正データを採取するキャリ
ブレーションの際の視標を示すものである。
In FIG. 3, dot marks 70 'and 74' are engraved inside the left and right focus detection area marks 70 and 74, respectively, for correcting a line-of-sight detection error due to individual differences in eyes. FIG. 9 shows a target at the time of calibration for collecting line-of-sight correction data.

【0028】ここで、51はシャッタ速度表示、52は
絞り値表示のセグメント、50は視線入力状態であるこ
とを示す視線入力マーク、53は撮影レンズ1の合焦状
態を示す合焦マークである。24はファインダ視野外に
撮影情報を表示するためのファインダ内LCD(以下、
F−LCDとも記す)で、照明用LED25によって照
明される。
Here, 51 is a shutter speed display, 52 is an aperture value display segment, 50 is a line-of-sight input mark indicating that the line of sight is being input, and 53 is a focus mark that indicates the state of focus of the photographic lens 1. . Reference numeral 24 denotes a finder LCD (hereinafter, referred to as an LCD) for displaying photographing information outside the finder field of view.
F-LCD), and is illuminated by the illumination LED 25.

【0029】上記F−LCD24を透過した光は三角プ
リズム26によって、図3の24で示したようにファイ
ンダ視野外に導かれ、撮影者は各種の撮影情報を知るこ
とができる。
The light transmitted through the F-LCD 24 is guided by the triangular prism 26 to the outside of the finder visual field as shown at 24 in FIG. 3, so that the photographer can know various photographing information.

【0030】再び図1に戻って、31は撮影レンズ1内
に設けられた絞り、32は後述の絞り駆動回路111を
含む絞り駆動装置、33はレンズ駆動用モータ、34は
駆動ギヤ等から成るレンズ駆動部材である。35はフォ
トカプラであり、前記レンズ駆動部材34に連動するパ
ルス板36の回転を検知してレンズ焦点調節回路110
に伝えており、該焦点調節回路110は、この情報とカ
メラ側からのレンズ駆動量の情報に基づいて前記レンズ
駆動用モータ33を所定量駆動させ、撮影レンズ1を合
焦位置に移動させるようになっている。37は公知のカ
メラとレンズとのインターフェイスとなるマウント接点
である。27は水銀スイッチ等の姿勢検出スイッチであ
り、カメラが横位置で構えられたか、縦位置で構えられ
たかを検出するものである。
Referring back to FIG. 1, reference numeral 31 denotes an aperture provided in the taking lens 1, reference numeral 32 denotes an aperture driving device including an aperture driving circuit 111 described later, reference numeral 33 denotes a lens driving motor, and reference numeral 34 denotes a driving gear and the like. This is a lens driving member. Reference numeral 35 denotes a photocoupler which detects rotation of a pulse plate 36 interlocked with the lens driving member 34 and
The focus adjustment circuit 110 drives the lens driving motor 33 by a predetermined amount based on this information and information on the amount of lens driving from the camera side, and moves the photographing lens 1 to a focusing position. It has become. Reference numeral 37 denotes a mount contact which serves as an interface between a known camera and a lens. Reference numeral 27 denotes a posture detection switch such as a mercury switch, which detects whether the camera is held in a horizontal position or a vertical position.

【0031】図4は、上記構成の一眼レフカメラに内蔵
された電気的構成を示すブロック図であり、図1と同一
のものは同一番号をつけている。
FIG. 4 is a block diagram showing an electrical configuration incorporated in the single-lens reflex camera having the above-described configuration. The same components as those in FIG. 1 are denoted by the same reference numerals.

【0032】カメラ本体に内蔵されたマイクロコンピュ
ータの中央処理装置(以下、CPUと記す)100に
は、視線検出回路101、測光回路102、自動焦点検
出回路103、信号入力回路104、LCD駆動回路1
05、LED駆動回路106、IRED駆動回路10
7、シャッタ制御回路108、モータ制御回路109が
接続されている。また、撮影レンズ1内に配置された焦
点調節回路110、絞り駆動回路111とは、図1で示
したマウント接点37を介して信号の伝達がなされる。
A central processing unit (hereinafter, referred to as a CPU) 100 of a microcomputer built in the camera body includes a line-of-sight detection circuit 101, a photometry circuit 102, an automatic focus detection circuit 103, a signal input circuit 104, an LCD drive circuit 1
05, LED drive circuit 106, IRED drive circuit 10
7, a shutter control circuit 108 and a motor control circuit 109 are connected. Further, signals are transmitted to the focus adjustment circuit 110 and the aperture driving circuit 111 disposed in the taking lens 1 via the mount contact 37 shown in FIG.

【0033】CPU100に付随したEEPROM10
0aは、記憶手段としての視線の個人差を補正する視線
補正データの記憶機能を有している。
EEPROM 10 attached to CPU 100
Reference numeral 0a has a storage function of a line of sight correction data for correcting an individual difference of the line of sight as storage means.

【0034】前記視線検出回路101は、イメージセン
サであるCCD−EYE14a,14bからの眼球像の
信号をA/D変換し、この二つの像情報をCPU100
に送信する。するとCPU100は、視線検出に必要な
眼球像の各特徴点を所定のアルゴリズムにしたがって抽
出し、さらに各特徴点の位置から撮影者の視線を算出す
る。前記測光回路102は、測光センサ10からの信号
を増幅後、対数圧縮,A/D変換し、各センサの輝度情
報としてCPU100に送信する。前記測光センサ10
は、ファインダ画面内の6つの領域を測光するSPC−
0,SPC−1,SPC−2,SPC−3,SPC−
4,SPC−5から成る6つのフォトダイオードから構
成されており、いわゆる分割測光が可能である。
The line-of-sight detection circuit 101 A / D-converts the eyeball image signals from the CCD-EYEs 14a and 14b, which are image sensors, and converts the two image information into the CPU 100.
Send to Then, the CPU 100 extracts each feature point of the eyeball image necessary for gaze detection according to a predetermined algorithm, and further calculates the gaze of the photographer from the position of each feature point. The photometric circuit 102 amplifies the signal from the photometric sensor 10, performs logarithmic compression and A / D conversion, and transmits the result to the CPU 100 as luminance information of each sensor. The photometric sensor 10
Is an SPC that measures light in six areas in the viewfinder screen.
0, SPC-1, SPC-2, SPC-3, SPC-
It is composed of six photodiodes 4 and 4, SPC-5, and is capable of so-called split photometry.

【0035】ラインセンサ6fは、前述の図3に示し
た、画面内の5つの焦点検出領域70〜74に対応した
5組のラインセンサCCD−0,CCD−1,CCD−
2,CCD−3,CCD−4から構成される公知のCC
Dラインセンサである。前記自動焦点検出回路103
は、上記のラインセンサ6fから得た電圧をA/D変換
し、CPU100に送る。
The line sensor 6f includes five sets of line sensors CCD-0, CCD-1, CCD-C corresponding to the five focus detection areas 70 to 74 in the screen shown in FIG.
2. A well-known CC composed of CCD-3 and CCD-4
It is a D line sensor. The automatic focus detection circuit 103
A / D converts the voltage obtained from the line sensor 6f and sends it to the CPU 100.

【0036】SW1はカメラのレリーズ釦の第1ストロ
ークでONし、測光,AF,視線検出動作等を開始させ
る為のスイッチ、SW2はレリーズ釦の第2ストローク
でONするレリーズスイッチである。SW−DIAL1
とSW−DIAL2は、カメラ概観部に設けられた電子
ダイヤル(不図示)内に設けられたダイヤルスイッチで
あり、回転してクリックパルスを発生させる。ここで発
生したパルス信号は、信号入力回路104のアップダウ
ンカウンタに入力され、電子ダイヤルの回転クリック量
がカウントされる。SW−HV1,SW−HV2は姿勢
検出スイッチ27に相当する姿勢検出スイッチであり、
この信号を基にカメラの姿勢状態が検出される。
SW1 is a switch for turning on the first stroke of the release button of the camera to start photometry, AF, line of sight detection, and the like, and SW2 is a release switch for turning on the second stroke of the release button. SW-DIAL1
And SW-DIAL2 are dial switches provided in an electronic dial (not shown) provided in the camera overview section, and rotate to generate a click pulse. The pulse signal generated here is input to an up / down counter of the signal input circuit 104, and the rotation click amount of the electronic dial is counted. SW-HV1 and SW-HV2 are posture detection switches corresponding to the posture detection switch 27,
The posture state of the camera is detected based on this signal.

【0037】これらスイッチの状態信号は信号入力回路
104に入力され、データバスによってCPU100に
送信される。
The state signals of these switches are input to the signal input circuit 104 and transmitted to the CPU 100 via the data bus.

【0038】前記LCD駆動回路105は、液晶表示素
子であるLCDを表示駆動させるための公知の構成より
成るもので、CPU100からの信号に従い、絞り値、
シャッタ秒時、設定した撮影モード等の表示をカメラ外
観部のモニター用LCD42(不図示)とファインダ内
LCD(F−LCD)24の両方に同時に表示させるこ
とができる。
The LCD drive circuit 105 has a well-known structure for driving and driving an LCD, which is a liquid crystal display element.
At the time of shutter release, the display of the set photographing mode and the like can be simultaneously displayed on both the monitor LCD 42 (not shown) and the finder LCD (F-LCD) 24 in the camera exterior part.

【0039】前記LED駆動回路106は、照明用LE
D(F−LED)25とスーパーインポーズ用LED2
1を点灯、点滅制御する。前記IRED駆動回路107
は、CPU100の指示に従ってIRED13a〜13
hを選択的に点灯させたり、該IRED13a〜13h
への出力電流値(あるいはパルス数)を変化させて照明
パワーを制御する。前記シャッタ制御回路108は、通
電すると先幕を走行させるマグネットMG−1と、後幕
を走行させるマグネットMG−2を制御し、感光部材に
所定光量を露光させる。前記モータ制御回路109は、
フィルムの巻き上げ、巻き戻しを行うモータM1と主ミ
ラー2及びシャッタ4のチャージを行うモータM2を制
御するためのものである。
The LED driving circuit 106 includes an illumination LE.
D (F-LED) 25 and Superimpose LED2
1 is turned on and off. The IRED drive circuit 107
Correspond to the IREDs 13a to 13
h is selectively turned on or the IREDs 13a to 13h
The illumination power is controlled by changing the output current value (or the number of pulses). The shutter control circuit 108 controls the magnet MG-1 for running the front curtain and the magnet MG-2 for running the rear curtain when energized, and exposes the photosensitive member with a predetermined amount of light. The motor control circuit 109 includes:
This is for controlling a motor M1 for winding and rewinding the film and a motor M2 for charging the main mirror 2 and the shutter 4.

【0040】上記シャッタ制御回路108とモータ制御
回路109によって、一連のカメラのレリーズシーケン
ス動作が実行される。
The shutter control circuit 108 and the motor control circuit 109 execute a series of camera release sequence operations.

【0041】次に、上記視線検出装置を有した一眼レフ
カメラの主要部分の動作について、図5のフローチャー
トを用いて説明する。
Next, the operation of the main part of the single-lens reflex camera having the above-mentioned eye-gaze detecting device will be described with reference to the flowchart of FIG.

【0042】カメラの外観部に設けられたモードダイヤ
ル(不図示)は撮影モード等の選択を行うためのもの
で、プログラムAE、シャッタ優先AE,絞り優先A
E、マニュアル露出の各撮影モードが設定可能である。
また、視線入力用の「CAL」ポジションもモードダイ
ヤル中にあり、「CAL」ポジションにして、前記電子
ダイヤルを操作する事により、視線入力のon,of
f、そしてキャリブレーションの実行及び選択を行うこ
とができる。この不図示のモードダイヤルを回転させて
カメラを不作動状態から所定の撮影モードに設定すると
(この実施の形態では、シャッタ優先AEに設定された
場合をもとに説明する)、カメラの電源がONされ(#
100)、CPU100のEEPROM100aに記憶
された視線のキャリブレーションデータ以外の視線検出
に使われる変数がリセットされる(#101)。そし
て、カメラはレリーズ釦が押し込まれてスイッチSW1
がonされるまで待機する(#102)。
A mode dial (not shown) provided on the exterior of the camera is used to select a photographing mode and the like, and includes a program AE, a shutter priority AE, and an aperture priority A.
Each shooting mode of E and manual exposure can be set.
A "CAL" position for line-of-sight input is also in the mode dial, and by turning the electronic dial to the "CAL" position, the line-of-sight input is turned on and off.
f, and execution and selection of calibration can be performed. When the mode dial (not shown) is rotated to set the camera from a non-operation state to a predetermined shooting mode (this embodiment will be described based on a case where the shutter priority AE is set), the power of the camera is turned off. ON (#
100), variables used for gaze detection other than the gaze calibration data stored in the EEPROM 100a of the CPU 100 are reset (# 101). Then, when the release button is depressed, the switch SW1 is pressed.
Is turned on (# 102).

【0043】レリーズ釦が押し込まれてスイッチSW1
がonされたことを信号入力回路104が検出すると、
CPU100は視線検出を行う際にどのキャリブレーシ
ョンデータを使用するかを視線検出回路101に確認す
る(#103)。この時、確認されたキャリブレーショ
ンデータナンバーのキャリブレーションデータが初期値
のままで変更されていなかったり、あるいは、視線禁止
モードに設定されていたら(#103のyes)、視線
検出は実行せずに、すなわち視線情報を用いずに焦点検
出領域自動選択サブルーチンによって特定の焦点検出領
域を選択する(#115)。そして、この焦点検出領域
において自動焦点検出回路103は焦点検出動作を行う
(#107)。
When the release button is depressed, the switch SW1 is pressed.
Is turned on, the signal input circuit 104 detects
The CPU 100 checks with the eye-gaze detection circuit 101 which calibration data to use when performing eye-gaze detection (# 103). At this time, if the calibration data of the confirmed calibration data number is unchanged from the initial value or is set to the line-of-sight prohibition mode (yes in # 103), the line-of-sight detection is not executed. That is, a specific focus detection area is selected by the automatic focus detection area selection subroutine without using the visual line information (# 115). Then, in this focus detection area, the automatic focus detection circuit 103 performs a focus detection operation (# 107).

【0044】焦点検出領域の自動選択のアルゴリズムと
してはいくつかの方法が考えられるが、多点AFカメラ
では公知となっている中央焦点検出領域に重み付けを置
いた近点優先アルゴリズムが有効である。
There are several possible algorithms for automatic selection of the focus detection area. For a multi-point AF camera, a near-point priority algorithm that is known and weighted to the central focus detection area is effective.

【0045】また、前記キャリブレーションデータナン
バーに対応する視線のキャリブレーションデータが所定
の値に設定されていてそのデータが撮影者により入力さ
れたものであることが認識されると(#103のn
o)、視線検出回路101はそのキャリブレーションデ
ータにしたがって視線検出を実行し、視線をピント板7
上の注視点座標に変換する(#104)。この視線検出
の詳細については、図6により後述する。そして、視線
情報の検出が成功か否かの判定を行う(#105)。こ
こでの判定条件は、角膜反射像であるプルキンエ像及び
瞳孔中心位置の信頼性及び眼球の回転角等である。この
結果、不成功ならばステップ#115の「焦点検出領域
自動選択サブルーチン」に進む。また、視線検出が成功
ならば、CPU100は該注視点座標に近接した焦点検
出領域を選択する(#106)。これにより、自動焦点
検出回路103は検出された視線情報も用いて選択され
た焦点検出領域での焦点検出を実行する(#107)。
When it is recognized that the line-of-sight calibration data corresponding to the calibration data number has been set to a predetermined value and that the data has been input by the photographer (n in # 103).
o), the line-of-sight detection circuit 101 performs line-of-sight detection according to the calibration data, and
The coordinates are converted to the coordinates of the upper gazing point (# 104). The details of this gaze detection will be described later with reference to FIG. Then, it is determined whether or not the detection of the line-of-sight information is successful (# 105). The determination conditions here include the Purkinje image, which is a corneal reflection image, the reliability of the pupil center position, the rotation angle of the eyeball, and the like. As a result, if unsuccessful, the process proceeds to a "focus detection area automatic selection subroutine" of step # 115. If the gaze detection is successful, the CPU 100 selects a focus detection area close to the gazing point coordinates (# 106). As a result, the automatic focus detection circuit 103 performs focus detection in the selected focus detection area using the detected line-of-sight information (# 107).

【0046】次に、上記選択された焦点検出領域での焦
点検出結果が焦点検出不能(NG)であるかを判定し
(#108)、不能であればCPU100はLCD駆動
回路105に信号を送ってファインダ内LCD24の合
焦マーク53を点滅させ、焦点検出がNGであることを
撮影者に警告し(#117)、スイッチSW1が離され
るまでこの警告を続ける(#118→#117→#11
8……)。
Next, it is determined whether the focus detection result in the selected focus detection area indicates that the focus cannot be detected (NG) (# 108), and if not, the CPU 100 sends a signal to the LCD drive circuit 105. The focus mark 53 on the LCD 24 in the finder is blinked to warn the photographer that the focus detection is NG (# 117), and this warning is continued until the switch SW1 is released (# 118 → # 117 → # 11).
8 ...).

【0047】一方、焦点検出が可能であり(#118の
no)、所定のアルゴリズムで選択された焦点検出領域
の焦点調節状態が合焦でなければ(#109のno)、
CPU100はレンズ焦点調節回路110に信号を送っ
て所定量、撮影レンズ1を駆動させる(#116)。レ
ンズ駆動後は、自動焦点検出回路103が再度焦点検出
を行い、撮影レンズ1が合焦しているか否かの判定を行
う(#101→#108→#109)。
On the other hand, if focus detection is possible (No in # 118) and the focus adjustment state of the focus detection area selected by a predetermined algorithm is not in focus (No in # 109),
The CPU 100 sends a signal to the lens focus adjustment circuit 110 to drive the photographing lens 1 by a predetermined amount (# 116). After driving the lens, the automatic focus detection circuit 103 performs focus detection again, and determines whether or not the photographing lens 1 is in focus (# 101 → # 108 → # 109).

【0048】所定の焦点検出領域において撮影レンズ1
が合焦していたならば(#109のno)、CPU10
0はLCD駆動回路105に信号を送ってファインダ内
LCD24の合焦マーク53を点灯させるとともに、L
ED駆動回路106にも信号を送って合焦している焦点
検出領域に対応したスーパーインポーズ用LED21を
点灯させ、該焦点検出領域を光らせることで合焦表示さ
せる(#110)。
In a predetermined focus detection area, the photographing lens 1
Is focused (no in # 109), the CPU 10
0 sends a signal to the LCD drive circuit 105 to turn on the focus mark 53 of the LCD 24 in the finder,
A signal is also sent to the ED drive circuit 106 to turn on the superimpose LED 21 corresponding to the focused focus detection area, and the focus detection area is illuminated to display focus (# 110).

【0049】合焦した焦点検出領域がファインダ内に表
示されたのを撮影者が見て、その焦点検出領域が正しく
ない、あるいは撮影を中止すると判定してレリーズ釦か
ら手を離し、スイッチSW1をoffすると(#11
1)、引き続きカメラはスイッチSW1がonされるま
で待機するステップ#102へ戻る。
The photographer observes that the focused focus detection area is displayed in the viewfinder, determines that the focus detection area is incorrect, or decides to stop photographing, releases his hand from the release button, and switches SW1. When it is turned off (# 11
1) Subsequently, the camera returns to step # 102 to wait until the switch SW1 is turned on.

【0050】また、撮影者が合焦表示された焦点検出領
域を見て、引き続きスイッチSW1をonし続けたなら
ば、CPU100は測光回路102に信号を送信して測
光を行わせる(#112)。この時、合焦した焦点検出
領域を含む測光領域に重み付けを行った露出値が演算さ
れる。本実施の形態の場合、測光演算結果としてセグメ
ントと小数点を用いて絞り値(図3の52に示すF5.6
)を表示している。
If the photographer looks at the focus detection area where the focus is displayed and continues to turn on the switch SW1, the CPU 100 transmits a signal to the photometric circuit 102 to perform photometry (# 112). . At this time, an exposure value is calculated by weighting the photometry area including the focused focus detection area. In the case of the present embodiment, an aperture value (F5.6 shown at 52 in FIG. 3) is calculated using a segment and a decimal point as a photometric calculation result.
) Is displayed.

【0051】さらにレリーズ釦が押し込まれてスイッチ
SW2がonされているかどうかの判定を行い(#11
3)、スイッチSW2がoff状態であれば再びスイッ
チSW1の状態の確認を行う(#111)。
Further, it is determined whether the release button is depressed and the switch SW2 is turned on (# 11).
3) If the switch SW2 is off, the state of the switch SW1 is confirmed again (# 111).

【0052】また、スイッチSW2がonされたならば
CPU100はシャッタ制御回路108、モータ制御回
路109、及び、絞り駆動回路111にそれぞれ信号を
送信して、公知のシャッタレリーズ動作を行う(#11
4)。
When the switch SW2 is turned on, the CPU 100 transmits a signal to each of the shutter control circuit 108, the motor control circuit 109, and the aperture driving circuit 111 to perform a known shutter release operation (# 11).
4).

【0053】具体的には、まず、モータ制御回路109
を介してモータM2に通電して主ミラー2をアップさ
せ、絞り31を絞り込んだ後、マグネットMG−1に通
電し、シャッタ4の先幕を開放する。絞り31の絞り値
及びシャッタ4のシャッタスピードは、前記測光回路1
02にて検出された露出値とフィルム5の感度から決定
される。所定のシャッタ秒時(1/125秒)経過後、
マグネットMG−2に通電し、シャッタ4の後幕を閉じ
る。フィルム5への露光が終了すると、モータM2に再
度通電し、ミラーダウン、シャッタチャージを行うとと
もにフィルム給送用のモータM1にも通電し、フィルム
の駒送りを行い、一連のシャッタレリーズシーケンスの
動作を終了する。
Specifically, first, the motor control circuit 109
Then, the motor M2 is energized to raise the main mirror 2 and the aperture 31 is stopped down. Then, the magnet MG-1 is energized to open the front curtain of the shutter 4. The aperture value of the aperture 31 and the shutter speed of the shutter 4 are determined by the photometric circuit 1
02 is determined from the exposure value detected and the sensitivity of the film 5. After the lapse of a predetermined shutter time (1/125 seconds),
The magnet MG-2 is energized, and the rear curtain of the shutter 4 is closed. When the exposure of the film 5 is completed, the motor M2 is energized again to perform mirror down and shutter charging, and is also energized to the film feeding motor M1 to feed the film frame, thereby performing a series of shutter release sequence operations. To end.

【0054】その後、カメラは再びスイッチSW1がo
nされるまで待機する(#102)。
Thereafter, the camera again sets the switch SW1 to o
n (# 102).

【0055】図6は、上記ステップ#104にて実行さ
れる視線検出動作を示すフローチャートである。
FIG. 6 is a flowchart showing the line-of-sight detection operation executed in step # 104.

【0056】図6において、前述のように視線検出回路
101は、CPU100より信号を受け取ると視線検出
を実行する(#104)。まず、視線検出回路101は
撮影モードの中での視線検出か、あるいは視線のキャリ
ブレーションモードの中での視線検出かの判定を行う
(#200)。実際には、前記モードダイヤルが視線検
出動作のためのキャリブレーションモードに設定されて
いた場合は、後述するキャリブレーション(CAL)動
作(#300)を実行する。
In FIG. 6, as described above, the line-of-sight detection circuit 101 executes line-of-sight detection upon receiving a signal from the CPU 100 (# 104). First, the gaze detection circuit 101 determines whether the gaze is detected in the photographing mode or the gaze is detected in the gaze calibration mode (# 200). Actually, when the mode dial is set to the calibration mode for the line-of-sight detection operation, a later-described calibration (CAL) operation (# 300) is executed.

【0057】モードダイヤルには視線検出モードの設定
があり、この設定位置で、3人分のキャリブレーション
データを登録、実行が可能となるキャリブレーションデ
ータナンバー1,2,3と、視線検出を実行しないof
fの計4つのポジション設定が前記電子ダイヤルの操作
で可能である。
The mode dial has a line-of-sight detection mode setting. At this set position, calibration data numbers 1, 2, and 3 for registering and executing calibration data for three persons, and performing line-of-sight detection Not of
f, a total of four positions can be set by operating the electronic dial.

【0058】そして、カメラがキャリブレーションモー
ドに設定されていない場合、視線検出回路101はカメ
ラが現在どのキャリブレーションデータナンバーに設定
されているかを認識する。
When the camera is not set to the calibration mode, the line-of-sight detection circuit 101 recognizes which calibration data number the camera is currently set to.

【0059】続いて視線検出回路101は、撮影モード
での視線検出の場合は、まず最初にカメラがどのような
姿勢になっているかを信号入力回路104を介して検出
する(#201)。信号入力回路104は図1中の姿勢
検出スイッチ27(SW−ANG)の出力信号を処理し
てカメラが横位置であるか縦位置であるか、また縦位置
である場合は例えばレリーズ釦41が天方向にあるか地
(面)方向にあるかを判定する。
Subsequently, in the case of gaze detection in the photographing mode, the gaze detection circuit 101 first detects the attitude of the camera via the signal input circuit 104 (# 201). The signal input circuit 104 processes the output signal of the attitude detection switch 27 (SW-ANG) in FIG. 1 to determine whether the camera is in the horizontal position or the vertical position. If the camera is in the vertical position, for example, the release button 41 is pressed. It is determined whether it is in the top direction or the ground (plane) direction.

【0060】次に、上記のカメラの姿勢情報とキャリブ
レーションデータに含まれる撮影者の眼鏡情報よりIR
ED13a〜13hの選択を行う(#202)。すなわ
ち、カメラが横位置に構えられ、撮影者が眼鏡をかけて
いなかったならば、図2に示すIRED13a,13b
を選択する。また、カメラが横位置で、撮影者が眼鏡を
かけていれば、撮影者の眼鏡反射光の影響が少なくなる
ように、IRED13a,13bの間隔よりもさらに間
隔の広い13c,13dのIREDを選択する。又カメ
ラが、例えばレリーズ釦(撮影者の右手側)が天方向に
あるか地面方向に縦位置で構えられていたならば、撮影
者の眼球を下方から照明するようなIREDの組み合わ
せ、すなわち撮影者が眼鏡をかけていなかったならばI
RED13a,13eを、撮影者が眼鏡をかけていれば
IRED13c,13gの組み合わせを、それぞれ選択
する。
Next, the IR information is obtained from the camera attitude information and the photographer's eyeglass information included in the calibration data.
The EDs 13a to 13h are selected (# 202). That is, if the camera is held in the horizontal position and the photographer does not wear glasses, the IREDs 13a and 13b shown in FIG.
Select Also, if the camera is in the horizontal position and the photographer wears glasses, the IREDs 13c and 13d having a wider interval than the intervals between the IREDs 13a and 13b are selected so as to reduce the influence of the spectacle reflected light of the photographer. I do. Also, if the camera is held, for example, with the release button (right side of the photographer) in the top direction or the vertical position in the ground direction, a combination of IREDs that illuminates the photographer's eyeball from below, that is, photographing I did not wear glasses
The REDs 13a and 13e are selected, and the combination of the IREDs 13c and 13g is selected if the photographer wears glasses.

【0061】次に、撮影者の眼球像を得るための二つの
イメージセンサであるCCD−EYE14a,14b
(図6のフローではCCD1,CCD2と表記)の蓄積
時間及びIREDの照明パワーをCCD−EYE14
a,14bの本蓄積に先だって行われる予備蓄積の像信
号出力、あるいは眼鏡装着か否かの情報等に基づいて設
定する(#203)。CCD−EYE予備蓄積というの
は、本蓄積の直前に一定時間、たとえば1msと蓄積時
間を決めて常に像信号を取り込むことで、その信号レベ
ルの強弱に応じて実際の眼球像取り込みの蓄積時間を制
御することで、安定した眼球像信号を得ることが可能と
なる。
Next, CCD-EYEs 14a and 14b which are two image sensors for obtaining an eyeball image of a photographer.
The storage time of the CCD (illustrated as CCD1 and CCD2 in the flow of FIG. 6) and the illumination power of the IRED are determined by the CCD-EYE14.
The setting is made based on the image signal output of the preliminary accumulation performed prior to the actual accumulation of a and 14b, information on whether or not glasses are worn (# 203). The CCD-EYE pre-accumulation means that an image signal is always taken in after a fixed time, for example, 1 ms, is determined immediately before the main accumulation, and the accumulation time of the actual eyeball image taking is determined according to the level of the signal level. By controlling, a stable eyeball image signal can be obtained.

【0062】実際の予備蓄積制御としてはCCD−EY
E14aと14bの二つの像信号が得られるので、ここ
では両者の平均の信号値を用いて本蓄積を制御してい
る。
As the actual preliminary storage control, a CCD-EY
Since two image signals E14a and E14b are obtained, the main accumulation is controlled using the average signal value of the two.

【0063】CCD−EYE14の蓄積時間及びIRE
Dの照明パワーを設定すると、CPU100はIRED
駆動回路107を介してIRED13を所定のパワーで
点灯させ、視線検出回路101は二つのイメージセンサ
CCD−EYE14a,14bの蓄積を開始する(#2
04,#207)。また、先に設定されたCCD−EY
E14の蓄積時間にしたがってここでの蓄積を終了し、
それとともにIRED13も消灯する。
The storage time and IRE of the CCD-EYE 14
When the lighting power of D is set, the CPU 100
The IRED 13 is turned on with a predetermined power via the drive circuit 107, and the line-of-sight detection circuit 101 starts accumulation of the two image sensors CCD-EYEs 14a and 14b (# 2).
04, # 207). Also, the CCD-EY set earlier
The accumulation here ends according to the accumulation time of E14,
At the same time, the IRED 13 is turned off.

【0064】次に、CCD−EYE14a,14bにて
蓄積された像信号を順次読み出し、視線検出回路101
でA/D変換した後にCPU100にメモリする(#2
05,#208)。
Next, the image signals accumulated in the CCD-EYEs 14a and 14b are sequentially read out,
A / D-converted and stored in the CPU 100 (# 2
05, # 208).

【0065】ここで、簡単に図10と図11を用いて視
線検出の原理について説明する。
Here, the principle of gaze detection will be briefly described with reference to FIGS.

【0066】図10はCCD−EYE14の眼球像信号
を画像化したもので、図11中の眼球15の角膜16に
おいて、仮にIRED13aと13bが発光すること
で、図10に示すプルキンエ像19a,19bが生じ
る。なお、17は虹彩、18は瞳孔である。
FIG. 10 shows an image of an eyeball image signal of the CCD-EYE 14. The IREDs 13a and 13b emit light at the cornea 16 of the eyeball 15 in FIG. 11, and the Purkinje images 19a and 19b shown in FIG. Occurs. In addition, 17 is an iris and 18 is a pupil.

【0067】これらの像信号に対して公知であるところ
の視線検出処理が行われる。すなわち、CPU100に
おいて、眼球の照明に使用された1組のIRED13
a,13bの虚像であるプルキンエ像(P像)19a,
19bの位置が検出される。前述の通り、プルキンエ像
19a,19bは光強度の強い輝点として現れるため、
光強度に対する所定のしきい値を設け、該しきい値を超
える光強度のものをプルキンエ像とすることにより検出
可能である。また、瞳孔の中心位置は瞳孔18と虹彩1
7の境界点を複数検出し、各境界点を基に円の最小二乗
近似を行うことにより算出される。これらプルキンエ像
位置と瞳孔中心位置とから眼球における回転角度θを求
めることができ、さらに二つのプルキンエ像19の間隔
からカメラの接眼レンズ11と撮影者の眼球17との距
離が算出され、CCD−EYE14に投影された眼球像
の結像倍率βを得ることができる。
A known line-of-sight detection process is performed on these image signals. That is, in the CPU 100, one set of the IREDs 13
a, a Purkinje image (P image) 19a, which is a virtual image of 13b,
The position of 19b is detected. As described above, since the Purkinje images 19a and 19b appear as bright spots with high light intensity,
A predetermined threshold value for the light intensity is provided, and a light intensity exceeding the threshold value can be detected as a Purkinje image. The center position of the pupil is the pupil 18 and the iris 1
7 are detected by performing a least-squares approximation of a circle based on each of the boundary points. The rotation angle θ of the eyeball can be obtained from the Purkinje image position and the pupil center position, and the distance between the eyepiece 11 of the camera and the photographer's eyeball 17 is calculated from the interval between the two Purkinje images 19. The imaging magnification β of the eyeball image projected on the EYE 14 can be obtained.

【0068】以上のことから、眼球の回転角度θと結像
倍率β、さらにキャリブレーションで得られた個人差補
正情報を用いて、撮影者の視線方向のピント板7上の位
置座標を求めることができる。
From the above, the position coordinates on the focus plate 7 in the line of sight of the photographer are obtained using the rotation angle θ of the eyeball, the imaging magnification β, and the individual difference correction information obtained by the calibration. Can be.

【0069】図6に戻って、CPU100はメモリして
いるCCD−EYE14a,14bの眼球像信号を基に
上記説明した眼球の回転角度を算出する(#206,#
209)。次に、CCD−EYE14a,14bによっ
て得られた各々の像信号から上記プルキンエ像の算出が
できたかの判定を行う(#210)。ここで、CCD−
EYE14aの像信号からのみプルキンエ像が検出され
たのであれば、上記説明した視線検出処理のプロセスに
したがって、まずプルキンエ像位置と瞳孔中心位置を求
め、眼球の回転角の算出し、撮影者の視線方向をピント
板上の座標に変換する(#212)。また、CCD−E
YE14bの像信号からのみプルキンエ像が検出された
場合も同様に、上記説明した視線検出処理を行う。
Returning to FIG. 6, the CPU 100 calculates the above-described eyeball rotation angle based on the stored eyeball image signals of the CCD-EYEs 14a and 14b (# 206, #).
209). Next, it is determined whether the Purkinje image has been calculated from the respective image signals obtained by the CCD-EYEs 14a and 14b (# 210). Here, CCD-
If the Purkinje image is detected only from the image signal of the EYE 14a, the Purkinje image position and the pupil center position are first obtained according to the above-described eye gaze detection process, and the rotation angle of the eyeball is calculated. The direction is converted into coordinates on the focus plate (# 212). In addition, CCD-E
Similarly, when the Purkinje image is detected only from the YE14b image signal, the above-described line-of-sight detection processing is performed.

【0070】上記二例は、二つあるイメージセンサの片
一方の眼球像において、撮影者の眼鏡の反射光や太陽か
らの反射光、あるいはカメラのファインダを極端に斜め
から覗いたためにプルキンエ像あるいは瞳孔中心位置の
検出に失敗した場合の例であり、この時は視線検出可能
な他方のイメージセンサ像のみを用いることによって視
線検出を行うことが可能となっている。
In the above two examples, in one of the eyeball images of the two image sensors, the reflected light of the photographer's spectacles or the reflected light from the sun, or the Purkinje image or This is an example in which the detection of the pupil center position has failed. At this time, it is possible to perform the gaze detection by using only the other image sensor image that can detect the gaze.

【0071】一方、CCD−EYE14a,14bの像
信号の両方ともプルキンエ像を検出することができた場
合は、CCD−EYE14a,14bの二つの像信号を
合成して一つの眼球画像を作成する(#211)。画像
合成のためのアルゴリズムについては、特願2000−
071981号に詳細な説明がなされているが、基本的
には、CCD−EYE14a,14b上の二つの眼球画
像から得られる各々二つプルキンエ像の上記CCD−E
YE上での画素座標を検出し、これらを一致させたとき
のプルキンエ像以外の画素における信号レベルにつき、
二つの画像のうちの低い信号値を採用(高い信号値はま
つ毛やゴーストが重畳している部分と推定できるので)
することで一つの眼球像を作成することが可能となる。
又視差を持った光学系により眼球像を形成する構成の場
合、図12に示した様に光学的な歪みにより画像は左右
反転像で非均一となるので、左右の画像の非均一の領域
部分についてはファインダ光軸に近い方の画像のみを採
用する(図12を例にすると、画像の左側の非均一な領
域部分についてはCCD2画像の左側の画像を、右画側
の非均一な領域部分についてはCCD1画像の右側の画
像を、それぞれ採用する)ので、上記光学的な歪みを考
慮した画像の合成を可能にしている。
On the other hand, if the Purkinje image can be detected from both the CCD-EYEs 14a and 14b, the two image signals of the CCD-EYEs 14a and 14b are combined to form one eyeball image ( # 211). The algorithm for image synthesis is described in Japanese Patent Application
No. 071981, which is described in detail, basically, the above-mentioned CCD-E of two Purkinje images each obtained from two eyeball images on the CCD-EYEs 14a and 14b.
Pixel coordinates on YE are detected, and when they are matched with each other, the signal level in the pixels other than the Purkinje image is calculated as follows:
Uses the lower signal value of the two images (because the higher signal value can be estimated as the part where the eyelashes and ghosts are superimposed)
By doing so, one eyeball image can be created.
Further, in the case of a configuration in which an eyeball image is formed by an optical system having parallax, since the image becomes non-uniform in a horizontally inverted image due to optical distortion as shown in FIG. As for (2), only the image closer to the finder optical axis is used (in the example of FIG. 12, the image on the left side of the CCD2 image is used for the non-uniform area on the left side of the image, , The image on the right side of the CCD1 image is adopted), so that it is possible to combine images in consideration of the optical distortion.

【0072】ここで、眼球像の合成について、図8の例
を用いて更に詳しく説明する。
Here, the synthesis of the eyeball image will be described in more detail with reference to the example of FIG.

【0073】CCD−EYE14a,14bから得られ
た像信号がそれぞれ図8のCCD1画像、CCD2画像
であり、これらの眼球像はカメラのファインダを覗いて
いる撮影者のまつ毛が太陽光によって光っており、瞳孔
エッジの検出を不正確なものとしている状態である。こ
れに対し上記手法により合成された画像では光ったまつ
毛の信号レベルが抑えられて瞳孔エッジの検出が容易と
なっているのが分かる。これは瞳孔およびプルキンエ像
はファインダ光軸上座標においてほぼ等距離に存在する
のに対し、まつ毛は数ミリメータのレベルでアイピース
レンズ寄りに存在するために、CCD1画像、CCD2
画像とでは視差が発生し、上記合成を行うことでまつ毛
の反射光が抑えられることになる。また同様に、撮影者
の眼球を照明するIRED13が撮影者の掛けている眼
鏡の表面で反射する眼鏡ゴーストについてもその影響緩
和の効果が期待できるものである。
The image signals obtained from the CCD-EYEs 14a and 14b are the CCD1 image and the CCD2 image in FIG. 8, respectively. These eyeball images are obtained by the eyelashes of the photographer looking through the viewfinder of the camera being illuminated by sunlight. And pupil edge detection is inaccurate. On the other hand, in the image synthesized by the above method, it can be seen that the signal level of the shining eyelashes is suppressed and the pupil edge is easily detected. This is because the pupil and the Purkinje image exist at approximately the same distance in the coordinates on the viewfinder optical axis, whereas the eyelashes exist at the level of several millimeters near the eyepiece lens.
Parallax occurs between the image and the image, and the reflected light of the eyelashes is suppressed by performing the synthesis. Similarly, the effect of reducing the influence can be expected for eyeglass ghosts in which the IRED 13 that illuminates the eyeball of the photographer reflects on the surface of the glasses worn by the photographer.

【0074】図6に戻って、合成が成された眼球像から
はプルキンエ像と瞳孔中心検出処理を行い、眼球の回転
角を算出し、撮影者の視線方向をピント板上の座標に変
換する(#212)。
Returning to FIG. 6, the Purkinje image and the center of the pupil are detected from the synthesized eyeball image, the rotation angle of the eyeball is calculated, and the direction of the line of sight of the photographer is converted into coordinates on the focusing screen. (# 212).

【0075】以上のように撮影者の視線検出が終了した
ら、図5のカメラ動作フローチャートのステップ#10
6に戻る(#213)。
When the line of sight of the photographer has been detected as described above, step # 10 of the camera operation flowchart of FIG.
The process returns to # 6 (# 213).

【0076】次に、図7のフローチャートを用いて、キ
ャリブレーション(CAL)動作について説明する。
Next, the calibration (CAL) operation will be described with reference to the flowchart of FIG.

【0077】前述したようにキャリブレーションとは、
撮影者がファインダ視野内の焦点検出領域のドットマー
ク右端74´、左端70´をそれぞれ一定時間固視する
ことで行い、そこから得られた眼球像データから視線補
正データを採取するというものであり、不図示のモード
ダイヤルが「CAL」ポジションに設定されることで、
キャリブレーション動作がスタートする(#300)。
As described above, calibration is
The photographer performs fixation on the right end 74 'and the left end 70' of the dot mark in the focus detection area in the viewfinder visual field, respectively, for a certain period of time, and collects eye-gaze correction data from eyeball image data obtained therefrom. By setting the mode dial (not shown) to the “CAL” position,
The calibration operation starts (# 300).

【0078】まず最初にカメラがどのような姿勢になっ
ているかを姿勢検出スイッチ27(SW−ANG)の出
力信号を信号入力回路104を介して検出する(#30
1)。これは、図6視線検出フローのステップ#201
と同じ検出処理である。次に、ファインダ視野内の焦点
検出領域のドットマーク右端74´を点滅表示して撮影
者に固視すべき目標を表示する(#302)。また同時
に、現在設定されているキャリブレーションナンバーか
らCPU100にメモリされているキャリブレーション
データの確認を行い、既に登録済みの場合は、カメラ外
観部のモニター用LCD42の「CAL」表示をそのま
ま点灯に、未登録の場合には、「CAL」表示を点滅さ
せる。
First, the output signal of the attitude detection switch 27 (SW-ANG) is detected via the signal input circuit 104 to determine the attitude of the camera (# 30).
1). This corresponds to step # 201 in the gaze detection flow in FIG.
This is the same detection processing as. Next, the right end 74 'of the dot mark in the focus detection area in the finder visual field is blinked to display a target to be fixed to the photographer (# 302). At the same time, the calibration data stored in the CPU 100 is checked from the currently set calibration number. If the calibration data has already been registered, the “CAL” display on the monitor LCD 42 of the camera external part is lit as it is, If not registered, the “CAL” display flashes.

【0079】次に、キャリブレーションを行う際の撮影
者の眼球を照明するIREDの選択動作を行う(#30
3)。この場合のIREDの選択動作は、図6中で説明
した動作と多少異なり、カメラの姿勢情報を用いるのは
同様であるが、撮影者がキャリブレーションを過去に行
い、その時のキャリブレーションデータが既にカメラに
記憶されている場合には、記憶されたIREDの組を、
つまり、眼鏡装着時用か非装着時(裸眼)用の組のいづ
れかを記憶情報に従って最初から選択する。一方、初め
てキャリブレーションを行う場合は、眼鏡装着時用か非
装着時用のIREDの組を選択する情報がないため、キ
ャリブレーションの第一回目の眼球像照明は眼鏡非装着
時用のIREDの組を選択発光し、後述のCCDの眼球
像信号中に眼鏡の反射によるゴーストの有無の判定に従
って、眼鏡ゴースト発生が検知されれば、二回目以降の
照明は眼鏡用のIREDの組に変更されるものである。
Next, an IRED selecting operation for illuminating the photographer's eyeball at the time of performing the calibration is performed (# 30).
3). The operation of selecting the IRED in this case is slightly different from the operation described in FIG. 6, and is similar to using the posture information of the camera, but the photographer performs calibration in the past, and the calibration data at that time is already If stored in the camera, the stored set of IREDs
In other words, one of the pair for wearing glasses or for not wearing (with naked eyes) is selected from the beginning according to the stored information. On the other hand, when the calibration is performed for the first time, since there is no information for selecting the pair of the IREDs for wearing or not wearing the glasses, the first eye image illumination of the calibration is performed by the IRED for the glasses not wearing. The set is selectively illuminated, and according to the determination of the presence or absence of ghost due to the reflection of the glasses in the eyeball image signal of the CCD described later, if the occurrence of the ghost of the glasses is detected, the illumination after the second time is changed to the IRED set for the glasses. Things.

【0080】そして、発光を行うべきIREDの組を決
定し(#203)、カメラは撮影者のSW1のON信号
待ちとなり、SW1−ON信号を検知すると前記図6の
フローチャート説明で行ったCCD−EYE14aにお
けるステップ#204から#ステップ206、同じくC
CD−EYE14bにおけるステップ#207から#ス
テップ209と同じ眼球像取り込み動作を実行する。
Then, the set of IREDs to emit light is determined (# 203), and the camera waits for the photographer's SW1 ON signal, and when the camera detects the SW1-ON signal, the CCD-C as described in the flowchart of FIG. Steps # 204 to # 206 in the EYE 14a, C
The same eyeball image capturing operation as in steps # 207 to # 209 in the CD-EYE 14b is executed.

【0081】つまり、CCD−EYE14aの蓄積時間
とIRED13の照明パワーを設定し、実際にCCD−
EYE14aの蓄積とIRED13を点灯させ(#30
5)、CCD−EYE14aにて蓄積された像信号を順
次読み出し、A/D変換後にCPU100にメモリする
(#306)。
That is, the storage time of the CCD-EYE 14a and the illumination power of the IRED 13 are set, and
The accumulation of the EYE 14a and the turning on of the IRED 13 (# 30
5), the image signals accumulated in the CCD-EYE 14a are sequentially read out, and are stored in the CPU 100 after A / D conversion (# 306).

【0082】次に、CPU100はメモリ上のA/D変
換された像信号から一対のプルキンエ像の検出動作を行
い、プルキンエ像を検出できたか否かの判定を行う(#
307)。
Next, the CPU 100 detects a pair of Purkinje images from the A / D-converted image signals on the memory, and determines whether or not a Purkinje image has been detected (#).
307).

【0083】また、CCD−EYE14bにおいても同
じ処理を、ステップ#314からステップ#316にて
行う。
The same process is performed in the CCD-EYE 14b in steps # 314 to # 316.

【0084】次に、CCD−EYE14aにおいて、プ
ルキンエ像を検出できた場合にはプルキンエ像と瞳孔中
心を算出し、眼球の回転角度θを算出する(#30
8)。そして、回転角θを算出するとその値が妥当か否
かの判定を行う(#309)。眼球光軸と視軸のズレが
生体的に数十度もずれていることは殆どないので、ここ
では判定の閾値を±10度に設定してある。上記ステッ
プ#309では、検出された眼球の回転角度OK,NG
の判定を行っているだけで、その結果がOKでもNGで
も次のステップ#310に進み、眼球の回転角度検出の
総回数が10回未満であればステップ#304に戻り、
再度眼球像取り込み動作を行い、眼球の回転角度検出の
総回数が10回に達すると、今度はその10回のうちO
Kが何回発生したかによってキャリブレーション(CA
L)成功、失敗の判定を行う(#311)。
Next, when the Purkinje image is detected by the CCD-EYE 14a, the Purkinje image and the center of the pupil are calculated, and the rotation angle θ of the eyeball is calculated (# 30).
8). When the rotation angle θ is calculated, it is determined whether or not the value is appropriate (# 309). Since the deviation between the optical axis of the eyeball and the visual axis hardly deviates by several tens of degrees biologically, the threshold value for determination is set to ± 10 degrees here. In step # 309, the detected rotation angles OK and NG of the eyeball are detected.
Is satisfied, the process proceeds to the next step # 310 whether the result is OK or NG. If the total number of rotation angle detection of the eyeball is less than 10, the process returns to step # 304.
The eyeball image capturing operation is performed again, and when the total number of rotation angle detections of the eyeball reaches ten times, this time, out of the ten times, O
Calibration (CA
L) Success or failure is determined (# 311).

【0085】この実施の形態では6回以上の回転角度検
出成功で焦点検出領域マーク右端74´でのCAL成功
(#311のno)となり、引き続き、今度は左端70
´でのキャリブレーション動作を開始する。左端70で
のキャリブレーションを同様に成功するとモニター用L
CD42の「CAL」表示を点灯表示し、キャリブレー
ションデータをCCD−EYE14aのカメラ横位置で
のキャリブレーションデータであるCAL−A1として
CPU100のEEPROM100aにメモリする。も
し既にキャリブレーションデータが登録されていた場
合、新たに採取されたキャリブレーションデータは、メ
モリされていた過去のデータと統合される。
In this embodiment, the CAL succeeds at the right end 74 'of the focus detection area mark (no in # 311) when the rotation angle has been detected more than six times.
'Starts the calibration operation. If the calibration at the left end 70 is also successful, the monitor L
The “CAL” display on the CD 42 is displayed, and the calibration data is stored in the EEPROM 100a of the CPU 100 as CAL-A1, which is calibration data at the lateral position of the camera of the CCD-EYE 14a. If the calibration data has already been registered, the newly collected calibration data is integrated with the past data stored in the memory.

【0086】また、回転角度の検出成功回数が6回未満
の場合にはCAL失敗(#312のyes)となり、モ
ニター用LCD42の「CAL」表示を点滅表示にし、
撮影者にキャリブレーションが失敗したことを知らしめ
る(#313)。
If the number of successful rotation angle detections is less than 6, the CAL fails (yes in # 312), and the "CAL" display on the monitor LCD 42 flashes.
The photographer is notified that the calibration has failed (# 313).

【0087】なおこのフローチャートでは、焦点検出領
域マーク右端74´と左端70´でのキャリブレーショ
ン動作の区別は省略して描いてある。
In this flowchart, the distinction between the calibration operation at the right end 74 'of the focus detection area mark and the calibration operation at the left end 70' is omitted.

【0088】一方、CCD−EYE14bについても同
様であり、ステップ#316にてプルキンエ像を検出す
ると、ステップ#317からステップ#320を通じ
て、CCD−EYE14bのカメラ横位置でのキャリブ
レーションデータであるCAL−A2としてCPU10
0にメモリする。
On the other hand, the same applies to the CCD-EYE 14b. When the Purkinje image is detected in step # 316, the CAL-EYE 14b is calibrated data at the camera horizontal position of the CCD-EYE 14b through steps # 317 to # 320. CPU 10 as A2
Store to 0.

【0089】ここで説明を再びステップ#307に戻
し、CCD−EYE14aの像信号処理においてプルキ
ンエ像検出が可能であったときは、前述の如くステップ
#308にて眼球回転角算出を行うが、同時にCCD−
EYE14bの像信号処理におけるステップ#316に
てプルキンエ像検出が同じタイミングで可能であったか
否かの判定を行う(#323)。ここで、CCD−EY
E14aの像信号とCCD−EYE14bの像信号から
ともにプルキンエ像が検出可能であったときには、図6
のフローチャートで説明したように、各々の像信号を合
成して一つの眼球画像を作成する(#324)。
Here, the description returns to step # 307. If the Purkinje image can be detected in the image signal processing of the CCD-EYE 14a, the eyeball rotation angle is calculated in step # 308 as described above. CCD-
At step # 316 in the image signal processing of the EYE 14b, it is determined whether or not the Purkinje image detection is possible at the same timing (# 323). Here, CCD-EY
When the Purkinje image can be detected from both the image signal of E14a and the image signal of CCD-EYE14b, FIG.
As described with reference to the flowchart of (1), each image signal is combined to create one eyeball image (# 324).

【0090】以下、得られた合成眼球像からCCD−E
YE14a,14bの時と同じプロセスで、プルキンエ
像と瞳孔中心を算出し、眼球の回転角度θを算出する
(#325)。さらに回転角θを算出するとその値が妥
当か否かの判定を行い(#326)、検出回数(#32
7)、検出成功回数(#328)をチェックし、最終的
にはCCD−EYE14aと14bから合成された眼球
画像を、カメラ横位置でのキャリブレーションデータで
あるCAL−A0としてCPU100にメモリする(#
329)。
Hereinafter, the CCD-E is obtained from the obtained synthesized eyeball image.
In the same process as in the case of the YEs 14a and 14b, the Purkinje image and the pupil center are calculated, and the rotation angle θ of the eyeball is calculated (# 325). Further, when the rotation angle θ is calculated, it is determined whether the value is appropriate (# 326), and the number of detections (# 32)
7), the number of successful detections (# 328) is checked, and finally the eyeball image synthesized from the CCD-EYEs 14a and 14b is stored in the CPU 100 as CAL-A0, which is calibration data at the camera lateral position ( #
329).

【0091】図7のフローチャートにおいては、カメラ
を横位置に構えたときを例にとってキャリブレーション
データCAL−A0からCAL−A2を算出し、記憶す
る説明を行ったが、図7中のステップ#301における
姿勢判別により、撮影者がキャリブレーションを行って
いる時に構えられるカメラの姿勢が横位置なのか、レリ
ーズ釦(撮影者の右手側)が天方向の縦位置なのか、あ
るいは地面方向の縦位置なのかを判別し、その姿勢状態
でのキャリブレーションに応じて、図9に示すように、
異なるキャリブレーションデータをメモリに格納する。
In the flowchart of FIG. 7, the description has been given of the case where the CAL-A2 is calculated from the calibration data CAL-A0 and stored, taking the case where the camera is held in the horizontal position as an example. The posture discrimination in, whether the posture of the camera held when the photographer is performing calibration is the horizontal position, whether the release button (right side of the photographer) is the vertical position in the top direction, or the vertical position in the ground direction Is determined, and according to the calibration in the posture state, as shown in FIG.
Store different calibration data in memory.

【0092】また、図6で説明した視線検出動作におい
て、ステップ#201のカメラの姿勢検知情報をもと
に、図9から、つまりカメラのメモリから視線検出実行
時のカメラの姿勢状態に応じたキャリブレーションデー
タを呼び出し、ステップ#212の視線検出処理中にこ
れらのキャリブレーションデータを個人差補正に用い、
視線検出処理を行うことになる。
In the gaze detection operation described with reference to FIG. 6, based on the camera posture detection information in step # 201, the position of the camera at the time of gaze detection execution from FIG. Call the calibration data, and use these calibration data for individual difference correction during the line-of-sight detection process of step # 212,
A gaze detection process is performed.

【0093】以上の実施の形態によれば、視差を持った
複数の眼球像を形成するための複数の結像レンズ12
a,12bを有し、これにより結像される眼球像をもと
に(CCD−EYE14aと14bの出力をもとに)に
合成した眼球像から撮影者の視線位置(視線)を検出す
る第1の演算手段(#305〜#307、#314〜#
316、#323〜#329)と、前記複数の眼球像の
うちの一つの眼球像から撮影者の視線を検出する第2の
演算手段(図7の#305〜#312又は#314〜#
330、#322)と、キャリブレーションデータ動作
時に、前記第1もしくは第2の演算手段を用いて得られ
るキャリブレーションデータを記憶するEEPROM1
00aとを有する視線検出装置としているので、適切な
キャリブレーションデータを用いて実際の視線検出によ
り得られる視線位置の補正が可能となる。
According to the above embodiment, a plurality of imaging lenses 12 for forming a plurality of eyeball images having parallax.
a and 12b for detecting the line-of-sight position (line of sight) of the photographer from the eyeball image synthesized based on the eyeball image formed thereby (based on the outputs of the CCD-EYEs 14a and 14b). 1 calculation means (# 305 to # 307, # 314 to #
316, # 323 to # 329) and second arithmetic means (# 305 to # 312 or # 314 to # 314 in FIG. 7) for detecting the line of sight of the photographer from one of the plurality of eyeball images.
330, # 322) and an EEPROM 1 for storing calibration data obtained by using the first or second calculating means during the operation of the calibration data.
Since the eye-gaze detecting device has the eye gaze position 00a, it is possible to correct the eye-gaze position obtained by actual eye-gaze detection using appropriate calibration data.

【0094】そして、焦点検出領域を選択する等に用い
られる実際の視線検出時には、前記第1の演算手段によ
り視線位置が検出された場合は、同じく該第1の演算手
段を用いて得られたキャリブレーションデータにより前
記視線位置の補正を行い、前記第2の演算手段により視
線位置が検出された場合は、同じく該第2の演算手段を
用いて得られたキャリブレーションデータにより前記視
線位置の補正を行うようにしているので(図6の#21
0〜#212)、精度の良い視線検出を行うことが可能
となる。なお、上記視線検出時に何れの演算手段により
視線検出が行われたかは、眼球像の何れよりもプルキン
エ像を検出(抽出)できたか否かで判定する。詳しく
は、眼球像の何れよりもプルキンエ像を検出できた場合
は第1の演算手段により、何れか一方のみにて検出でき
た場合は第2の演算手段により、視線検出が行われたも
のと判定するようにしている。
At the time of actual line-of-sight detection used for selecting a focus detection area and the like, when the line-of-sight position is detected by the first arithmetic unit, the line-of-sight position is also obtained by using the first arithmetic unit. The gaze position is corrected by the calibration data, and when the gaze position is detected by the second calculating means, the gaze position is corrected by the calibration data similarly obtained by using the second calculating means. Is performed (# 21 in FIG. 6).
0 to # 212), it is possible to perform accurate gaze detection. It should be noted that the line of sight detected by any of the arithmetic means at the time of line of sight detection is determined by whether or not a Purkinje image has been detected (extracted) from any of the eyeball images. Specifically, when the Purkinje image can be detected from any of the eyeball images, the gaze detection is performed by the first calculation unit, and when the Purkinje image can be detected by only one of the eyeball images, the gaze detection is performed by the second calculation unit. The decision is made.

【0095】さらに、図9のように、各姿勢に応じたキ
ャリブレーションデータを予め採取して記憶させておく
ことにより、実際の視線検出の姿勢に適したキャリブレ
ーションデータを選択することができ、更に精度の良い
視線検出を行うことが可能となる。
Furthermore, as shown in FIG. 9, by previously collecting and storing the calibration data corresponding to each posture, it is possible to select the calibration data suitable for the actual gaze detection posture. It is possible to perform more accurate gaze detection.

【0096】(変形例)本発明は、一眼レフカメラに適
用した場合を述べているが、レンズシャッタカメラ,ビ
デオカメラ等のカメラにも適用可能である。更に、その
他の光学機器や他の装置、構成ユニットとしても適用す
ることができるものである。
(Modification) Although the present invention has been described as applied to a single-lens reflex camera, it is also applicable to cameras such as a lens shutter camera and a video camera. Further, the present invention can be applied to other optical devices, other devices, and constituent units.

【0097】[0097]

【発明の効果】以上の説明したように、請求項1に記載
の発明によれば、適切なキャリブレーションデータによ
って視線位置の補正を正確に行わせることができる視線
検出装置を提供できるものである。
As described above, according to the first aspect of the present invention, it is possible to provide an eye-gaze detecting device capable of accurately correcting the eye-gaze position using appropriate calibration data. .

【0098】また、請求項2に記載の発明によれば、精
度の良い視線検出を行うことができる視線検出装置を提
供できるものである。
Further, according to the second aspect of the present invention, it is possible to provide a visual axis detection device capable of performing an accurate visual axis detection.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の一形態に係る一眼レフカメラの
概略を示す構成図である。
FIG. 1 is a configuration diagram schematically showing a single-lens reflex camera according to an embodiment of the present invention.

【図2】図1の一眼レフカメラに内臓された視線検出装
置の斜視図である。
FIG. 2 is a perspective view of a gaze detecting device incorporated in the single-lens reflex camera of FIG. 1;

【図3】図1の一眼レフカメラのファインダ視野におけ
る撮影情報表示を示す図である。
FIG. 3 is a diagram showing a display of photographing information in a finder visual field of the single-lens reflex camera of FIG. 1;

【図4】図1の一眼レフカメラの電気的構成を示すブロ
ック図である。
FIG. 4 is a block diagram showing an electrical configuration of the single-lens reflex camera of FIG. 1;

【図5】図1の一眼レフカメラの主要部分の動作を示す
フローチャートである。
FIG. 5 is a flowchart showing an operation of a main part of the single-lens reflex camera of FIG. 1;

【図6】図1の一眼レフカメラにおける視線検出動作を
示すフローチャートである。
FIG. 6 is a flowchart showing a gaze detection operation in the single-lens reflex camera of FIG. 1;

【図7】図1の一眼レフカメラにおける視線検出キャリ
ブレーションを示すフローチャートである。
FIG. 7 is a flowchart illustrating gaze detection calibration in the single-lens reflex camera of FIG. 1;

【図8】本実施の形態において視差画像合成効果を説明
する為の図である。
FIG. 8 is a diagram for explaining a parallax image synthesizing effect in the present embodiment.

【図9】本実施の形態に係るキャリブレーションデータ
の一覧を示す図である。
FIG. 9 is a diagram showing a list of calibration data according to the present embodiment.

【図10】一般的な視線検出の原理を説明する為の図で
ある。
FIG. 10 is a diagram for explaining the general principle of gaze detection.

【図11】同じく視線検出の原理を説明する為の図であ
る。
FIG. 11 is a diagram for explaining the principle of gaze detection.

【図12】一般的な光学系収差について説明する為の図
である。
FIG. 12 is a diagram for explaining general optical system aberrations.

【符号の説明】[Explanation of symbols]

1 撮影レンズ 6 焦点検出装置 6f イメージセンサ 11 接眼レンズ 12a,12b 結像レンズ1、結像レンズ2 13 赤外発光ダイオード(IRED) 14a,14b イメージセンサ(CCD−EYE1、
CCD−EYE2) 15 眼球 16 角膜 17 虹彩 18 瞳孔 27 姿勢検出スイッチ 100 CPU 101 視線検出回路 103 焦点検出回路 107 IRED駆動回路 110 焦点調節回路
Reference Signs List 1 shooting lens 6 focus detection device 6f image sensor 11 eyepiece lens 12a, 12b imaging lens 1, imaging lens 2 13 infrared light emitting diode (IRED) 14a, 14b image sensor (CCD-EYE1,
CCD-EYE2) 15 eyeball 16 cornea 17 iris 18 pupil 27 posture detection switch 100 CPU 101 gaze detection circuit 103 focus detection circuit 107 IRED drive circuit 110 focus adjustment circuit

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 物体を観察する為のファインダ光学系の
光軸に対して視差を持った複数の眼球像を形成する複数
の結像光学系を有し、前記ファインダ光学系を通して観
察者の視線位置を検出する視線検出装置において、 前記複数の眼球像をもとに合成した眼球像から観察者の
視線位置を検出する第1の演算手段と、前記複数の眼球
像のうちの一つの眼球像から観察者の視線位置を検出す
る第2の演算手段と、前記第1の演算手段もしくは前記
第2の演算手段を用いて観察者の視線位置を補正する為
のキャリブレーションデータを得る動作を行うキャリブ
レーション手段と、該キャリブレーション手段により得
られるキャリブレーションデータを記憶する記憶手段と
を有することを特徴とする視線検出装置。
1. A finder optical system for observing an object, comprising: a plurality of imaging optical systems for forming a plurality of eyeball images having parallax with respect to an optical axis of the finder optical system; A gaze detection device that detects a position, a first calculation unit that detects a gaze position of an observer from an eyeball image synthesized based on the plurality of eyeball images, and one eyeball image of the plurality of eyeball images And an operation of obtaining calibration data for correcting the observer's line-of-sight position using the first operation unit or the second operation unit. An eye gaze detecting apparatus comprising: a calibration unit; and a storage unit for storing calibration data obtained by the calibration unit.
【請求項2】 前記観察者の視線検出の際、前記記憶手
段に記憶されたキャリブレーションデータにより前記第
1の演算手段もしくは第2の演算手段によって検出され
た視線位置に補正を加え、前記観察者の視線位置を検出
することを特徴とする請求項1に記載の視線検出装置。
2. The method according to claim 1, wherein the gaze position detected by the first calculation means or the second calculation means is corrected based on the calibration data stored in the storage means when the gaze of the observer is detected. The gaze detection device according to claim 1, wherein the gaze position of a person is detected.
【請求項3】 前記第1の演算手段を用いて観察者の視
線位置を検出した場合は、該第1の演算手段を用いて得
られたキャリブレーションデータにより前記視線位置の
補正を行い、前記第2の演算手段を用いて観察者の視線
位置を検出した場合は、該第2の演算手段を用いて得ら
れたキャリブレーションデータを用いて前記視線位置の
補正を行うことを特徴とする請求項2に記載の視線検出
装置。
3. When the gaze position of the observer is detected using the first calculation means, the gaze position is corrected based on calibration data obtained using the first calculation means, and When the gaze position of the observer is detected using the second calculation means, the gaze position is corrected using calibration data obtained using the second calculation means. Item 3. A gaze detection device according to item 2.
【請求項4】 前記複数の眼球像のすべてより角膜反射
像を得ることができた場合に、前記第1の演算手段を用
いて観察者の視線位置の検出が行われたものと判定し、
前記複数の眼球像うちの一つより角膜反射像を得ること
ができた場合に、前記第2の演算手段を用いて観察者の
視線位置の検出が行われたものと判定することを特徴と
する請求項3に記載の視線検出装置。
4. When it is possible to obtain a corneal reflection image from all of the plurality of eyeball images, it is determined that the gaze position of the observer has been detected using the first calculation means,
When a corneal reflection image can be obtained from one of the plurality of eyeball images, it is determined that the gaze position of the observer has been detected using the second arithmetic unit. The eye gaze detecting device according to claim 3.
【請求項5】 観察時の視線検出装置の姿勢状態を検出
する姿勢検出手段を有し、 前記キャリブレーション手段により得られるキャリブレ
ーションデータは、前記姿勢検出手段により検出される
各姿勢状態毎に前記記憶手段に記憶されることを特徴と
することを特徴とする請求項1〜4の何れかに記載の視
線検出装置。
5. An attitude detecting means for detecting an attitude state of the visual line detection device at the time of observation, wherein calibration data obtained by the calibrating means is provided for each attitude state detected by the attitude detecting means. The gaze detecting device according to claim 1, wherein the gaze detecting device is stored in a storage unit.
【請求項6】 前記第1の演算手段は、前記各眼球像よ
り角膜反射像をそれぞれ抽出し、その後各角膜反射像の
位置を演算によりシフトさせて一致させ、該一致させた
位置での角膜反射像信号以外の各眼球像信号のうちの低
い信号値を採用することにより、合成した眼球像信号を
生成することを特徴とする請求項1に記載の視線検出装
置。
6. The first calculating means extracts a corneal reflection image from each of the eyeball images, and thereafter shifts the positions of the corneal reflection images by calculation to make them coincide with each other. The eye-gaze detecting device according to claim 1, wherein a synthesized eye-ball image signal is generated by adopting a low signal value of each eye-ball image signal other than the reflection image signal.
JP2000389686A 2000-12-22 2000-12-22 Visual line detector Pending JP2002186587A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000389686A JP2002186587A (en) 2000-12-22 2000-12-22 Visual line detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000389686A JP2002186587A (en) 2000-12-22 2000-12-22 Visual line detector

Publications (1)

Publication Number Publication Date
JP2002186587A true JP2002186587A (en) 2002-07-02

Family

ID=18856183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000389686A Pending JP2002186587A (en) 2000-12-22 2000-12-22 Visual line detector

Country Status (1)

Country Link
JP (1) JP2002186587A (en)

Similar Documents

Publication Publication Date Title
US6674964B2 (en) Visual axis detecting apparatus
JP3297481B2 (en) Eye gaze detection device
US5402199A (en) Visual axis detecting apparatus
JPH07289517A (en) Line of sight detector and optical equipment with the same
JP2004008323A (en) Optical device with visual axis function
JP2002301030A (en) Equipment to detect sight line
JP4054436B2 (en) Optical device
JP3184633B2 (en) camera
JP3256294B2 (en) Eye gaze detection apparatus and eye gaze detection method
JP2003339642A (en) Visual line detector and optical apparatus having the same
JP3530647B2 (en) Eye gaze detecting device and optical device
JP3176147B2 (en) Eye gaze detection device
JP3391892B2 (en) Eye gaze detecting device, optical device, and eye gaze detecting method
JP2003307774A (en) Optical apparatus with line-of-sight detecting function
JP4594402B2 (en) Auto focus camera
JP3219491B2 (en) Eye gaze detection device
JP3184634B2 (en) Optical device having line-of-sight detection device
JP2002186587A (en) Visual line detector
JP3530648B2 (en) Eye gaze detecting device and optical device
JP3211427B2 (en) Eye gaze detection device
JP2002341239A (en) Sight line detecting device
JP3605080B2 (en) Eye gaze detection device
JP3332581B2 (en) An optical device, a camera, a line-of-sight detection device, a line-of-sight detection method, and a relative position determination method between an eyepiece and an eyeball position.
JP2003084193A (en) Optical device
JPH0938038A (en) Sight line detection device and optical instrument therewith