JP3210089B2 - Eye gaze detection device and camera - Google Patents

Eye gaze detection device and camera

Info

Publication number
JP3210089B2
JP3210089B2 JP23836792A JP23836792A JP3210089B2 JP 3210089 B2 JP3210089 B2 JP 3210089B2 JP 23836792 A JP23836792 A JP 23836792A JP 23836792 A JP23836792 A JP 23836792A JP 3210089 B2 JP3210089 B2 JP 3210089B2
Authority
JP
Japan
Prior art keywords
observer
image
eye
sensor
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23836792A
Other languages
Japanese (ja)
Other versions
JPH0682680A (en
Inventor
康夫 須田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP23836792A priority Critical patent/JP3210089B2/en
Publication of JPH0682680A publication Critical patent/JPH0682680A/en
Application granted granted Critical
Publication of JP3210089B2 publication Critical patent/JP3210089B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Landscapes

  • Viewfinders (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、一眼レフカメラ、スチ
ールビデオカメラ、ビデオカメラ等に最適な視線検出装
置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an eye-gaze detecting device most suitable for a single-lens reflex camera, a still video camera, a video camera and the like.

【0002】[0002]

【従来の技術】従来、特開平3−109029号公報に
開示されているように、カメラに内蔵された視線検出装
置が知られている。ところで、カメラのファインダーの
覗き方は様々であって、接眼レンズに眼をかなり近づけ
て覗く人もいれば、かなり遠くから覗く人もいる。特
に、メガネを掛けている場合は接眼レンズからの距離が
遠くなる傾向がある。この時、視線検出用のセンサー上
の画像の劣化を防ぐため、メガネの有無に応じて視線検
出光学系の構成を変える機構を備えたカメラが、特開平
4−138431号公報にて開示されている。
2. Description of the Related Art Conventionally, as disclosed in Japanese Patent Application Laid-Open No. 3-109029, there is known an eye-gaze detecting device built in a camera. By the way, there are various ways to look through the viewfinder of the camera. Some people look closely at the eyepiece and some people look far from it. In particular, when wearing glasses, the distance from the eyepiece tends to be long. At this time, in order to prevent deterioration of an image on a gaze detection sensor, a camera having a mechanism for changing the configuration of a gaze detection optical system according to the presence or absence of glasses is disclosed in Japanese Patent Application Laid-Open No. 4-138431. I have.

【0003】しかしながら、様々なファインダーの覗き
方にも対応した視線検出装置は未だ実現されていなかっ
た。
[0003] However, a gaze detection device that can handle various ways of looking through a viewfinder has not been realized yet.

【0004】また、ファインダー光学系からビームスプ
リッターを用いて視線検出に用いる光束を分離する際、
このビームスプリッターに起因したゴーストが視線の誤
検出を起こすことがあった。特開平2−5号公報にはこ
の対策として、ビームスプリッターの各透過面を僅かに
傾ける技術が開示されている。しかしながら、一般にガ
ラスでつくられるビームスプリッターの構成面のうち互
いに平行な面あるいは互いに直角な面が少なくなるほど
製作の困難性が増し、この結果製作コストが高くなる問
題があった。
[0004] Further, when separating a light beam used for line-of-sight detection from a finder optical system using a beam splitter,
A ghost caused by the beam splitter may cause erroneous detection of the line of sight. Japanese Patent Laid-Open No. 2-5 discloses a technique for slightly tilting each transmission surface of the beam splitter as a countermeasure for this. However, as the number of parallel surfaces or surfaces perpendicular to each other among the constituent surfaces of a beam splitter generally made of glass decreases, the difficulty in manufacturing increases, and as a result, the manufacturing cost increases.

【0005】[0005]

【発明が解決しようとしている課題】本発明は上記欠点
に鑑み、観察者がどのような距離から観察系を覗いても
視線検出精度が低下しない視線検出装置を実現すること
を目的とし、また、ゴーストの発生しない簡単な視線検
出光学系を実現することを他の目的としたものである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned drawbacks, and it is an object of the present invention to provide an eye-gaze detecting device that does not reduce the eye-gaze detection accuracy even when an observer looks into an observation system from any distance. It is another object of the present invention to realize a simple visual axis detection optical system free from ghost.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するため
に、本願の請求項1に係る発明は、観察用光学系で観察
する観察者の眼を照明する光源と、センサーと、該セン
サー上に該観察者の眼の像を形成するための結像レンズ
部とを有し、該センサー上に生じた該観察者の眼からの
反射像に依って観察者の視線を検出する視線検出装置で
あって、前記センサー出力のうち、前記光源による角膜
反射像よりも低い値のアナログ信号をA/D変換して視
線を検出するための演算を行い、前記結像レンズ部は前
記観察用光学系のアイポイントよりも前記観察用光学系
に近い位置にピントを合わせていることを特徴としてい
る。 また、上記課題を解決するために、本願の請求項3
に係る発明は、観察用光学系で観察する観察者の眼を照
明する光源と、センサーと、該センサー上に該観察者の
眼の像を形成するための結像レンズ部とを有し、該セン
サー上に生じた該観察者の眼からの反射像に依って観察
者の視線を検出する視線検出装置であって、前記結像レ
ンズ部は、前記センサー出力より認識される角膜反射像
の大きさが、前記観察光学系からの前記観察者の眼の距
離に依って実質的に変化しないように構成してあること
を特徴としている。 また、上記課題を解決するために、
本願の請求項4に係る発明は、ファインダー光学系で観
察する観察者の眼を照明する光源と、エリアセンサー
と、該エリアセンサー上に該観察者の眼の像を形成する
ための結像レンズ部とを有し、前記エリアセンサーの出
力を非線形アンプに入力し、該非線形アンプの出力を用
いて前記エリアセンサー上に生じた前記光源の角膜反射
像と瞳孔像との相対関係に依って前記観察者の視線を検
出する視線検出装置であって、前記結像レンズ部は前記
ファインダー光学系のアイポイントよりも前記ファイン
ダー光学系に近い位置にピントを合わせるように構成
てあることを特徴としている。 これらの構成により、
記観察者がどのような距離からファインダーを覗いても
視線検出精度が低下しない視線検出装置やカメラを実現
したものである。
[Means for Solving the Problems] In order to solve the above-mentioned problems
The invention according to claim 1 of the present application provides a light source for illuminating an observer's eye observed by an observation optical system, a sensor, and an image forming method for forming an image of the observer's eye on the sensor. A lens unit, and a line-of-sight detection device that detects the line of sight of the observer based on a reflection image generated on the sensor from the eye of the observer, and among the sensor outputs, the cornea by the light source
A / D converting an analog signal with a lower value than the reflected image
Performs an operation for detecting lines, the imaging lens unit which has features that the focus at a position closer to the observation optical system than the eye point of the optical system for the observation
You. Further, in order to solve the above-mentioned problem, the present invention relates to claim 3 of the present application.
The invention according to the present invention has a light source for illuminating an observer's eye observed by an observation optical system, a sensor, and an imaging lens unit for forming an image of the observer's eye on the sensor. A line-of-sight detection device that detects a line of sight of an observer based on a reflected image from the observer's eye generated on the sensor, wherein the imaging lens unit includes a corneal reflection image recognized from the sensor output . magnitude, and are configured to not substantially vary depending on the distance of the observer's eyes from the observation optical system that
It is characterized by. In order to solve the above problems,
The invention according to claim 4 of the present application provides a light source for illuminating an observer's eye observed by a finder optical system, an area sensor, and an imaging lens for forming an image of the observer's eye on the area sensor. Unit, the output of the area sensor is input to a non-linear amplifier, the output of the non-linear amplifier, the corneal reflection image of the light source generated on the area sensor using the relative relationship between the pupil image and the A line-of-sight detection device that detects a line of sight of an observer, wherein the imaging lens unit is configured to focus on a position closer to the finder optical system than an eye point of the finder optical system.
It is characterized by having. With these configurations, a gaze detection device and a camera are realized in which the gaze detection accuracy does not decrease even if the observer looks into the finder from any distance.

【0007】また、上記課題を解決するために、本願の
請求項5に係る発明は、観察用光学系で観察する観察者
の眼を照明する光源と、センサーと、該センサーに該観
察者の眼からの光束を導くために該観察用光学系の光路
中に配置したビームスプリッターと、該ビームスプリッ
ターに隣接して配置され、該ビームスプリッターからの
該観察者の眼からの光束で、該センサー上に該観察者の
眼の像を形成するための結像レンズ部とを有し、該セン
サー上に生じた該観察者の眼からの反射像に依って観察
者の視線を検出する視線検出装置であって、前記結像レ
ンズ部はそのレンズとは光軸を異にする偏芯開口を備え
た絞りを有することを特徴としている。 また、上記課題
を解決するために、本願の請求項6に係る発明は、観察
用光学系で観察する観察者の眼を照明する光源と、セン
サーと、該センサーに該観察者の眼からの光束を導くた
めに該観察用光学系の光路中に配置したビームスプリッ
ターと、該ビームスプリッターからの該観察者の眼から
の光束で、該センサー上に該観察者の眼の像を形成する
ための結像レンズ部とを有し、該センサー上に生じた該
観察者の眼からの反射像に依って観察者の視線を検出す
る視線検出装置であって、前記結像レンズ部は、前記光
源の角膜反射像により前記センサーから生じる反射光が
前記ビームスプリッターへ入射するのを遮る絞りを有す
ことを特徴としている。 また、上記課題を解決するた
めに、本願の請求項7に係る発明は、観察用光学系で観
察する観察者の眼を照明する光源と、センサーと、該セ
ンサーに該観察者の眼からの光束を導くために該観察用
光学系の光路中に配置したビームスプリッターと、該ビ
ームスプリッターからの該観察者の眼からの光束で、該
センサー上に該観察者の眼の像を形成するための結像レ
ンズ部とを有し、該センサー上に生じた該観察者の眼か
らの反射像に依って観察者の視線を検出する視線検出装
置であって、前記結像レンズ部は、前記センサー上の前
記光源の角膜反射像の形成位置から外れた位置を通る光
軸を備えた絞りを有することを特徴としている。 これら
の構成により、センサーで反射した光がビームスプリッ
ターに達することによってゴーストの発生してしまうこ
とを防止している。
Further, in order to solve the above-mentioned problems, the present invention
The invention according to claim 5 , wherein a light source for illuminating an observer's eye to be observed by the observation optical system, a sensor, and an optical path of the observation optical system for guiding a light beam from the observer's eye to the sensor. A beam splitter disposed therein, and a light flux from the observer's eye disposed adjacent to the beam splitter for forming an image of the observer's eye on the sensor. An image lens unit, and a line-of-sight detection device that detects the line of sight of the observer based on a reflection image generated on the sensor from the observer's eyes, wherein the imaging lens unit is a lens. It is characterized by having a stop provided with an eccentric aperture having a different optical axis . In addition, the above problems
In order to solve the above problem, the invention according to claim 6 of the present application is directed to a light source for illuminating an observer's eye observed by an observation optical system, a sensor, and a light flux from the observer's eye to the sensor. A beam splitter disposed in an optical path of the observation optical system, and an imaging lens for forming an image of the observer's eye on the sensor with a light beam from the observer's eye from the beam splitter. A line-of-sight detection device that detects a line of sight of an observer based on a reflected image from the observer's eye generated on the sensor, wherein the imaging lens unit includes a corneal reflection unit of the light source. It is characterized in that it has a diaphragm for blocking reflected light generated from the sensor by an image from entering the beam splitter . In addition, to solve the above-mentioned problem,
The invention according to claim 7 of the present application is directed to a light source for illuminating an observer's eye observed by an observation optical system, a sensor, and the observation device for guiding a light beam from the observer's eye to the sensor. A beam splitter disposed in the optical path of the optical system, and an imaging lens unit for forming an image of the observer's eye on the sensor with a light beam from the observer's eye from the beam splitter. A gaze detection device that detects a gaze of the observer based on a reflection image generated from the eye of the observer on the sensor, wherein the imaging lens unit includes a cornea of the light source on the sensor. It is characterized by having a stop provided with an optical axis passing through a position deviating from the position where the reflection image is formed . these
With this configuration, the light reflected from the sensor
May cause ghosting
And has prevented.

【0008】[0008]

【実施例】図8は本発明による視線検出装置を組み込ん
だカメラの要部構成を模式的に表わした図であり、該図
に於て、5はカメラ本体、6は該カメラ本体5に着脱自
在に取り付けられた交換レンズであり、これらはカメラ
マウント5a及びレンズマウント351aとで結合され
ている。
FIG. 8 is a diagram schematically showing a main part of a camera incorporating a visual line detection device according to the present invention. In FIG. These are interchangeable lenses that are freely mounted, and are connected with the camera mount 5a and the lens mount 351a.

【0009】カメラ本体5内に於て、10は可動ハーフ
ミラー、12はペンタプリズム、14は接眼レンズでフ
ァインダー光学系を構成する。また、ファインダーは画
像表示管を見るものであっても良い。306は測光用受
光素子である。307は測光演算回路で、フィルム感度
情報入力回路308、シャッター制御回路309、マイ
クロコンピュータ310(以下MCU)と接続されてい
る。
In the camera body 5, reference numeral 10 denotes a movable half mirror, reference numeral 12 denotes a pentaprism, and reference numeral 14 denotes an eyepiece, which constitutes a finder optical system. Further, the finder may look at the image display tube. Reference numeral 306 denotes a photometric light receiving element. A photometric operation circuit 307 is connected to the film sensitivity information input circuit 308, the shutter control circuit 309, and the microcomputer 310 (hereinafter, MCU).

【0010】マイクロコンピュータ310にはA/Dコ
ンバーターが内蔵され、このA/Dコンバーターは前述
の測光用受光素子や後述する測距センサーからのアナロ
グ信号をディジタル変換する。
The microcomputer 310 has a built-in A / D converter, and this A / D converter converts an analog signal from the light-receiving element for photometry described above or an analog signal from a distance measuring sensor to be described later into a digital signal.

【0011】334はフォーカルプレーンシャッター
で、その背後には銀塩フィルムあるいは固体撮像素子が
配される。311はミラー駆動カム、312はミラー駆
動用モーターで、モータードライブ回路313に接続さ
れている。314はフィルム巻上げ巻戻し用モーター
で、ミラー駆動用モーター312同様モータードライブ
回路313に接続されている。55は焦点検出(測距)
センサーで、測距演算回路317に接続されている。
Reference numeral 334 denotes a focal plane shutter, behind which a silver halide film or a solid-state image sensor is disposed. Reference numeral 311 denotes a mirror driving cam, and 312 denotes a mirror driving motor, which is connected to the motor drive circuit 313. A film winding / rewinding motor 314 is connected to the motor drive circuit 313 like the mirror driving motor 312. 55 is focus detection (ranging)
The sensor is connected to the distance calculation circuit 317.

【0012】また43は、CCD等のエリアセンサー
で、視線検出回路330に接続されている。CCDの開
口率は一般的に20〜75%で80〜25%の不感帯を
有する。さらに、25は液晶表示板からなる表示素子で
表示照明用のLEDと共に表示駆動回路331に接続さ
れている。
Reference numeral 43 denotes an area sensor such as a CCD, which is connected to the visual line detection circuit 330. The aperture ratio of a CCD is generally 20 to 75% and has a dead zone of 80 to 25%. Further, reference numeral 25 denotes a display element formed of a liquid crystal display panel, which is connected to a display drive circuit 331 together with an LED for display illumination.

【0013】318はカメラシステム全体を動かしてい
る電池、319はメイン電源スイッチ、320はDC/
DCコンバーターで、電池318からマイクロコンピュ
ータ310へと接続されている。321は測光測距用ス
イッチ、322はレリーズスイッチである。なお、一般
的には、スイッチ321、322は2段ストロークスイ
ッチであって、図示しないレリーズボタンの第1ストロ
ークでスイッチ321がON、第2ストロークでスイッ
チ322がONとなるように構成されている。また、S
WSは不図示の設定ダイヤル、撮影モード選択部材、測
距視野固定ボタンに接続されているスイッチである。
Reference numeral 318 denotes a battery for operating the entire camera system; 319, a main power switch; and 320, a DC / DC switch.
A DC converter is connected from the battery 318 to the microcomputer 310. Reference numeral 321 denotes a photometric distance measuring switch, and 322 denotes a release switch. Generally, the switches 321 and 322 are two-stage stroke switches, and are configured such that the switch 321 is turned on by a first stroke of a release button (not shown) and the switch 322 is turned on by a second stroke. . Also, S
Reference numeral WS denotes a switch connected to a setting dial (not shown), a shooting mode selection member, and a distance measurement field fixing button.

【0014】323a〜323eはカメラ本体5側の接
点ピン群で、マウント5aの近傍に設置されている。一
方、352a〜352eは交換レンズ本体6側の接点ピ
ン群で、カメラ側の接点ピン群323a〜323eに対
向している。
Reference numerals 323a to 323e denote contact pin groups on the camera body 5 side, which are installed near the mount 5a. On the other hand, reference numerals 352a to 352e denote contact pin groups on the interchangeable lens body 6, which face the contact pin groups 323a to 323e on the camera side.

【0015】交換レンズ6側において、7はズームレン
ズや単焦点レンズのような撮影用光学レンズである。3
53は焦点調整に使われるレンズ駆動用モーターで、レ
ンズ駆動回路354と接続されている。レンズ駆動用モ
ーター353の回転によってラチェット360を介して
カウンタ362へパルス数が入力される。361は絞り
駆動回路で、マイクロコンピュータ355へ接続され、
かつパルスモーター356へ接続され、該モーター35
6によって絞り9が駆動される。357はズーミング時
に用いられるズーム駆動用モーターで、ズーム駆動回路
358に接続されている。359a〜359eはレンズ
焦点距離をマイクロコンピュータ355に伝達するため
のエンコーダ、363はパワーズームスイッチである。
On the interchangeable lens 6 side, reference numeral 7 denotes a photographing optical lens such as a zoom lens or a single focus lens. 3
Reference numeral 53 denotes a lens driving motor used for focus adjustment, which is connected to the lens driving circuit 354. The number of pulses is input to the counter 362 via the ratchet 360 by the rotation of the lens driving motor 353. An aperture driving circuit 361 is connected to the microcomputer 355,
The motor 35 is connected to the pulse motor 356.
The diaphragm 9 is driven by 6. Reference numeral 357 denotes a zoom drive motor used for zooming, and is connected to the zoom drive circuit 358. 359a to 359e are encoders for transmitting the lens focal length to the microcomputer 355, and 363 is a power zoom switch.

【0016】図1〜図2は、本発明を適用した視線検出
装置の光学構成を詳しく説明するための図である。
FIGS. 1 and 2 are diagrams for explaining in detail the optical configuration of a visual axis detection device to which the present invention is applied.

【0017】先ず、図2(a)、(b)はカメラであっ
て、特に、一眼レフカメラの例を示す図であり、(a)
はカメラを横からみた断面図、(b)はカメラを上から
みた断面図である。図中、5は一眼レフカメラ本体、6
は一眼レフカメラ本体5からの指令に基づいて撮影レン
ズ7を光軸8方向に移動保持するレンズ鏡筒である。ま
た、9は撮影光束を制限する絞りであって、これによっ
ていわゆるFナンバーが規定される。
First, FIGS. 2A and 2B show a camera, in particular, an example of a single-lens reflex camera.
3 is a cross-sectional view of the camera as viewed from the side, and FIG. 3B is a cross-sectional view of the camera as viewed from above. In the figure, 5 is a single-lens reflex camera body, 6
Reference numeral denotes a lens barrel that moves and holds the photographing lens 7 in the direction of the optical axis 8 based on a command from the single-lens reflex camera body 5. Reference numeral 9 denotes an aperture for restricting a luminous flux, which defines a so-called F number.

【0018】10はハーフミラー、11は光入射面にフ
レネルレンズ11a、光射出面にマット面11bを有
し、前述の表示素子25に隣接して設けられたフォーカ
シングスクリーンである。12はペンタプリズム、13
は視線検出のための赤外光を分離するビームスプリッタ
ー、14は接眼レンズであり、これらはファインダー系
を構成している。
Reference numeral 10 denotes a half mirror, 11 denotes a focusing screen having a Fresnel lens 11a on a light incident surface and a matte surface 11b on a light exit surface, and provided adjacent to the display element 25 described above. 12 is a pentaprism, 13
Is a beam splitter for separating infrared light for line-of-sight detection, and 14 is an eyepiece, which constitutes a finder system.

【0019】図2(b)に示した47は偏芯絞り、42
は眼球48bの像をエリアセンサー43上に形成する結
像レンズである。
FIG. 2B shows an eccentric diaphragm 47,
Is an imaging lens that forms an image of the eyeball 48b on the area sensor 43.

【0020】また、図2(a)の16は前述の測距セン
サー55及び測距演算回路317を含む公知の多点焦点
検出装置で、ハーフミラー10を透過した物体光が、そ
の背後に配設されたサブミラー15を介して導かれる。
焦点検出装置16の測距エリアの1つは視線検出装置の
出力で選択される。
In FIG. 2A, reference numeral 16 denotes a known multi-point focus detecting device including the above-described distance measuring sensor 55 and the distance measuring operation circuit 317. The object light transmitted through the half mirror 10 is disposed behind the same. The light is guided through the provided sub-mirror 15.
One of the distance measurement areas of the focus detection device 16 is selected by the output of the eye gaze detection device.

【0021】17は既述のファインダー構成要素、及
び、焦点検出装置を保持し、ミラーボックスを構成する
前板である。
Reference numeral 17 denotes a front plate that holds the above-described finder components and the focus detection device and constitutes a mirror box.

【0022】次に視線検出装置について説明する。図1
は視線検出装置の構成要素を示す斜視図である。図に於
いて、13及び14は図2に示したビームスプリッター
と接眼レンズであり、ビームスプリッター13のダイク
ロイックミラー13aが視線検出に用いる赤外光を反射
して、視線検出用の光路を形成している。40a、40
bは接眼レンズ14の下方に配設された赤外発光ダイオ
ード(以下IRED)で、ファインダー観察者の眼球に
向けて赤外光を照射する。眼球の角膜で反射した光束は
接眼レンズ14を透過し、ビームスプリッター13の入
射面13bに入射する。ビームスプリッター13の内部
では、ダイクロイックミラー13aで先ず反射し、今度
は入射面13で全反射した後、射出面13cより射出す
る。この射出面13cに対向して、偏芯絞り47と結像
レンズ42が配設されており、エリアセンサー43の受
光部上にファインダー観察者の眼球48bと、IRED
40a,40bの発光部の像(後述のP像)とを形成す
る。
Next, the gaze detecting device will be described. FIG.
FIG. 2 is a perspective view showing components of a visual line detection device. In the figure, reference numerals 13 and 14 denote a beam splitter and an eyepiece shown in FIG. 2, and a dichroic mirror 13a of the beam splitter 13 reflects infrared light used for line-of-sight detection to form an optical path for line-of-sight detection. ing. 40a, 40
An infrared light emitting diode (IRED) disposed below the eyepiece 14 irradiates infrared light toward the eyeball of the finder observer. The light beam reflected by the cornea of the eyeball passes through the eyepiece lens 14 and enters the incident surface 13b of the beam splitter 13. Inside the beam splitter 13, the light is first reflected by the dichroic mirror 13a, then totally reflected by the entrance surface 13, and then exits from the exit surface 13c. An eccentric diaphragm 47 and an image forming lens 42 are provided so as to face the exit surface 13c, and an eyeball 48b of a finder observer and an IRED
An image (P image described later) of the light emitting units 40a and 40b is formed.

【0023】ところで、一般にCCD等エリアセンサー
の受光部の反射率はかなり高く、入射光の一部は光電変
換されずに乱反射する。また、結像レンズ42の結像倍
率はかなり小さいため、エリアセンサー43の受光部は
ほぼ結像レンズ42の焦点位置にあり、この結果、エリ
アセンサー43での反射光がビームスプリッター13の
射出面13cで再び反射するとエリアセンサー上にスポ
ット状のゴーストが生じることとなる。
In general, the reflectivity of the light receiving portion of an area sensor such as a CCD is considerably high, and a part of incident light is irregularly reflected without being photoelectrically converted. Further, since the imaging magnification of the imaging lens 42 is considerably small, the light receiving portion of the area sensor 43 is almost at the focal position of the imaging lens 42. As a result, the reflected light from the area sensor 43 is reflected by the exit surface of the beam splitter 13. When the light is reflected again at 13c, a spot-like ghost is generated on the area sensor.

【0024】このようなゴーストの発生を未然に防ぐた
め、偏芯絞り47は、図3に示すように、結像レンズ4
2の光軸Lよりも下方に開口47aの中心Mを設定して
いる。
In order to prevent such a ghost from occurring, the eccentric diaphragm 47 is, as shown in FIG.
The center M of the opening 47a is set below the second optical axis L.

【0025】すなわち、IRED40a,40bが接眼
レンズ14の下方に位置しているため、眼球の角膜で反
射して生じるIREDの像は、エリアセンサー43の受
光部上において光軸Lよりも上方に形成されるが、この
反射光の正反射に近い反射成分が絞り開口47aを通ら
ないように、IRED像とは反対側に絞り開口47aを
配置しているのである。
That is, since the IREDs 40a and 40b are located below the eyepiece 14, an IRED image generated by reflection from the cornea of the eyeball is formed above the optical axis L on the light receiving portion of the area sensor 43. However, the aperture 47a is arranged on the side opposite to the IRED image so that the reflection component close to the regular reflection of the reflected light does not pass through the aperture 47a.

【0026】このように構成することによって、センサ
ー面反射ゴーストの影響を受けない高精度な視線検出が
可能となっている。
With this configuration, it is possible to perform highly accurate line-of-sight detection without being affected by ghost reflections on the sensor surface.

【0027】では、図4と図5を用いて視線検出の原理
を説明する。図4は、エリアセンサー43の受光部43
aとこの上に投影されたファインダー観察者の前眼部の
像48とを示す図である、図の中央部に黒い円として示
される瞳孔49の内部に見える二つの輝点は、IRED
40a,40bの角膜反射像であって、いわゆるプルキ
ンエ第一像(以下P像)と呼ばれるものである。角膜の
曲率が約7.7mmと小さいため、ここでの反射によっ
て生じる虚像の深さ方向の位置はほぼ虹彩の位置と同一
である。従って、エリアセンサー上には眼の像と同程度
のシャープさで、P像も投影される。
Next, the principle of gaze detection will be described with reference to FIGS. FIG. 4 shows a light receiving section 43 of the area sensor 43.
a and an image 48 of the anterior segment of the finder observer projected thereon. The two bright spots visible inside the pupil 49 shown as black circles in the center of the figure are IREDs.
The corneal reflection images 40a and 40b are so-called Purkinje first images (P images). Since the curvature of the cornea is as small as about 7.7 mm, the position in the depth direction of the virtual image generated by the reflection is substantially the same as the position of the iris. Therefore, the P image is also projected on the area sensor with the same sharpness as the eye image.

【0028】ファインダー観察者の視線位置を知るに
は、この二つのP像の中心と瞳孔49の中心との相対的
位置関係を求め、眼球の回転角を算出すれば良い。
In order to know the line of sight of the finder observer, the relative positional relationship between the center of the two P images and the center of the pupil 49 may be obtained, and the rotation angle of the eyeball may be calculated.

【0029】図5は、図4に示した矢印A位置でのエリ
アセンサー43aの水平ライン出力を示したもので、よ
り詳しくは視線検出回路330内の線形アンプの出力で
ある。中央部の二つのピークがP像、領域Bが瞳孔、領
域C1,C2が虹彩、領域D1,D2が白目に相当す
る。P像の強度は、瞳孔のエッジ部のコントラストに比
して極めて高く、瞳孔の中心を求めるに際して瞳孔エッ
ジを高精度に検出するためには、矢印Eで示した範囲の
みをA/D変換して以降の演算処理に用いることとな
る。
FIG. 5 shows the horizontal line output of the area sensor 43a at the position of the arrow A shown in FIG. 4, and more specifically, the output of the linear amplifier in the visual line detection circuit 330. The two peaks at the center correspond to the P image, the area B corresponds to the pupil, the areas C1 and C2 correspond to the iris, and the areas D1 and D2 correspond to the white eye. The intensity of the P image is extremely high as compared with the contrast of the edge of the pupil, and in order to detect the pupil edge with high accuracy when determining the center of the pupil, only the range indicated by the arrow E is subjected to A / D conversion. Will be used for the subsequent arithmetic processing.

【0030】この結果、P像がデフォーカスしてエリア
センサー上に投影されていたとしても、このボケ像の裾
部分を拡大してみるため、かなり立上がり、立下がりの
はっきりした信号となる。
As a result, even if the P image is defocused and projected on the area sensor, a signal having a sharp rise and fall is obtained in order to enlarge the bottom of the blurred image.

【0031】なお、視線検出装置の使用者が眼鏡を掛け
ていた場合には、眼鏡で反射したIRED光が接眼レン
ズやビームスプリッターで反射し、もう一度眼鏡で反射
してエリアセンサー上に投影されると言ったゴースト形
成光路が存在する。このように発生するゴーストは、I
REDの虚像が遠くにできるためかなりスポット的で、
しかも眼鏡の赤外反射率が高い場合には瞳孔レベルの数
倍の強度になる。一般的には、誤ってこのゴーストをP
像として検出することが考え得るが、本実施例の特徴と
する後述の光学構成は、このような不具合をも未然に防
ぐことができる。
When the user of the eye-gaze detecting device wears glasses, the IRED light reflected by the glasses is reflected by the eyepiece or the beam splitter, reflected again by the glasses, and projected onto the area sensor. A ghost-forming optical path exists. The ghost generated in this way is I
Because the virtual image of RED can be far away, it is quite spot-like,
In addition, when the infrared reflectance of the glasses is high, the intensity becomes several times the pupil level. Generally, this ghost is mistakenly
Although detection as an image is conceivable, the optical configuration described later, which is a feature of the present embodiment, can prevent such a problem beforehand.

【0032】また、エリアセンサーとして例えばCCD
を用いたときには前述のように各画素ごとに不感帯が存
在するが、この構成は、眼が接眼レンズから離れたとき
にIREDの像がこの不感帯に埋もれて出力されないと
言った不具合の発生をも防ぐ利点もある。
As an area sensor, for example, a CCD
As described above, there is a dead zone for each pixel when is used, but this configuration also has the disadvantage that the image of the IRED is buried in this dead zone and is not output when the eye moves away from the eyepiece. There is also the advantage of preventing it.

【0033】次に、図9から図11を用いて、P像の検
出方法及び視線検出方法について詳述する。
Next, a method of detecting a P image and a method of detecting a line of sight will be described in detail with reference to FIGS.

【0034】図9は視線検出の主たるフローチャートで
ある。MCU310が視線検出動作を開始すると、ステ
ップ(#000)を経て、ステップ(#001)のデー
タの初期化を実行する。
FIG. 9 is a main flow chart of gaze detection. When the MCU 310 starts the line-of-sight detection operation, the data is initialized in step (# 001) through step (# 000).

【0035】変数EYEMINは眼球反射像の光電変換
信号中の最低の輝度値を記憶する変数であり、マイクロ
コンピュータ(MCU310)に内蔵されているA/D
変換器の分解能を8bitと想定し、像信号の読み込み
に伴って、逐次的に最低値を比較・更新してゆく。初期
値は8bitで最大の値を表す255を格納しておく。
The variable EYEMIN is a variable for storing the lowest luminance value in the photoelectric conversion signal of the eyeball reflection image, and is an A / D built in the microcomputer (MCU 310).
Assuming that the resolution of the converter is 8 bits, the lowest value is sequentially compared and updated as the image signal is read. The initial value stores 255 representing the maximum value of 8 bits.

【0036】変数EDGCNTは、虹彩と瞳孔の境界を
エッジとして抽出した個数をカウントする変数である。
The variable EDGCNT is a variable for counting the number of boundaries extracted between the iris and the pupil as edges.

【0037】変数IP1,IP2,JP1,JP2は発
光ダイオード40a,40bの角膜反射のP像の位置を
表す変数であり、横方向(X軸)の範囲IP1〜IP
2,縦方向(Y軸)の範囲JP1〜JP2で囲まれる眼
球反射像の領域内に、2個のP像が存在する。
Variables IP1, IP2, JP1, JP2 are variables representing the position of the P image of the corneal reflection of the light emitting diodes 40a, 40b, and are in the lateral (X-axis) range IP1 to IP2.
2. Two P images exist in the region of the eyeball reflection image surrounded by the ranges JP1 and JP2 in the vertical direction (Y axis).

【0038】いまエリアセンサー43aの画素数は横方
向に150画素、縦方向に100画素のサイズを想定し
ており、IP1,IP2,JP1,JP2は全体のちょ
うど真中の位置(75、50)を初期値として格納して
おく。
Now, the number of pixels of the area sensor 43a is assumed to be 150 pixels in the horizontal direction and 100 pixels in the vertical direction, and IP1, IP2, JP1 and JP2 indicate the position (75, 50) in the center of the whole. It is stored as an initial value.

【0039】データの初期化の次はステップ(#00
2)へ移行する。
Following the data initialization, step (# 00)
Go to 2).

【0040】ステップ(#002)ではP像用の発光ダ
イオード40a,40bを点灯する。次のステップ(#
003)にて、エリアセンサー43aの蓄積動作を開始
させる。センサーの制御は本発明と直接の関わりはない
ので詳細な説明は省略するが、本発明の実施例では不図
示のセンサー・インターフェース回路によって駆動制御
されるものとする。
In step (# 002), the light emitting diodes 40a and 40b for the P image are turned on. Next step (#
At 003), the accumulation operation of the area sensor 43a is started. Since the control of the sensor has no direct relation to the present invention, a detailed description thereof will be omitted. However, in the embodiment of the present invention, the drive is controlled by a sensor interface circuit (not shown).

【0041】ステップ(#004)において、エリアセ
ンサーの蓄積終了を待つ。
In step (# 004), the process waits until the accumulation of the area sensor is completed.

【0042】所定の電荷蓄積が終了すると、次のステッ
プ(#005)で発光ダイオードを消灯する。
When the predetermined charge accumulation is completed, the light emitting diode is turned off in the next step (# 005).

【0043】さて、次のステップ(#006)以降か
ら、エリアセンサーの光電変換信号の読み込みを開始す
る。
From the next step (# 006) onward, reading of the photoelectric conversion signal of the area sensor is started.

【0044】ステップ(#006)はループ変数Jを0
から99までカウントアップしながら、枠内の処理を実
行する、いわゆる「ループ処理」を表している。
In the step (# 006), the loop variable J is set to 0.
This represents a so-called "loop process" in which the process in the frame is executed while counting up from "99" to "99".

【0045】ステップ(#006)内のループ処理で
は、先ずステップ(#007)にてエリアセンサーの横
方向(X軸)の1ラインの光電変換信号の読み込みを行
う。1ラインの読み込みはサブルーチン形式となってお
り、図10にサブルーチン「1ライン読み込み」のフロ
ーチャートを示す。
In the loop processing in step (# 006), first, in step (# 007), a photoelectric conversion signal of one line in the horizontal direction (X-axis) of the area sensor is read. The reading of one line is in a subroutine format. FIG. 10 shows a flowchart of the subroutine "1 line reading".

【0046】サブルーチン「1ライン読み込み」がコー
ルされると、図10のステップ(#100)を経て、次
のステップ(#101)を実行する。ステップ(#10
1)と、その枠内のステップ(#102)は前述したス
テップ(#006)と同様のループ処理を表しており、
ステップ(#101)では変数Kを0から3へカウント
アップさせながら、そしてステップ(#102)では変
数Iを0から149までカウントアップさせながら、そ
れぞれの枠内の処理を実行してゆく。従って、ステップ
(#101)とステップ(#102)は変数Kと変数I
の、いわゆる「入れ子」となったループ処理を表してい
る。ステップ(#102)のループ処理内のステップ
(#103)では、配列変数IM(i,k)の再格納作
業を行っている。
When the subroutine "1 line read" is called, the next step (# 101) is executed via the step (# 100) in FIG. Step (# 10
1) and the step (# 102) in the frame represent the same loop processing as the above-described step (# 006).
In step (# 101), the process in each frame is executed while incrementing the variable K from 0 to 3 and in step (# 102), incrementing the variable I from 0 to 149. Therefore, the step (# 101) and the step (# 102) include the variable K and the variable I
Represents a so-called "nested" loop process. In step (# 103) in the loop processing of step (# 102), the array variable IM (i, k) is restored.

【0047】本実施例では、マイクロコンピュータMC
U310が信号処理を行っているわけであるが、一般に
マイクロコンピュータの内蔵RAM(ランダム・アクセ
ス・メモリ)の記憶容量は、エリアセンサーの全画素情
報を一度に記憶できる程大きくはない。そこで、本実施
例では、エリアセンサーから出力される像信号を逐時読
みだしながら、横方向(X軸)5ライン分に相当する最
新の像信号のみをマイクロコンピュータの内蔵RAMに
記憶させ、1ラインの読み込み毎に視線検出のための処
理を実行するようにしている。
In this embodiment, the microcomputer MC
Although the U310 performs signal processing, the storage capacity of the built-in RAM (random access memory) of the microcomputer is generally not large enough to store all pixel information of the area sensor at one time. Therefore, in the present embodiment, while reading out the image signals output from the area sensor one by one, only the latest image signals corresponding to five lines in the horizontal direction (X axis) are stored in the built-in RAM of the microcomputer. The processing for gaze detection is executed every time a line is read.

【0048】ステップ(#101)からステップ(#1
03)の2重ループ処理で実行している内容は、新たな
1ライン分の像信号を読み込むために、記憶している過
去5ライン分の像信号データを更新する作業である。す
なわち、配列変数IM(i,k)の内、IM(i,0)
[i=0〜149]が最も過去の、またIM(i,4)
[i=0〜149]が最も最近の1ラインの像データを
表しており、次のようにデータを更新して新たな1ライ
ン分の像信号をIM(i,4)[i=0〜149]に格
納できるように準備する。
From step (# 101) to step (# 1)
The content executed in the double loop processing of 03) is an operation of updating the stored image signal data of the past five lines in order to read a new image signal of one line. That is, among the array variables IM (i, k), IM (i, 0)
[I = 0 to 149] is the oldest and IM (i, 4)
[I = 0 to 149] represents the most recent one-line image data. The data is updated as follows to obtain a new one-line image signal as IM (i, 4) [i = 0 to 149].

【0049】IM(i,0)←IM(i,1) IM(i,1)←IM(i,2) IM(i,2)←IM(i,3) IM(i,3)←IM(i,4)[i=0〜149]IM (i, 0) ← IM (i, 1) IM (i, 1) ← IM (i, 2) IM (i, 2) ← IM (i, 3) IM (i, 3) ← IM (I, 4) [i = 0 to 149]

【0050】さて、ステップ(#101)〜ステップ
(#103)のデータ更新のためのループ処理が終了す
ると、次のステップ(#104)のループ処理を実行す
る。
When the loop process for updating data in steps (# 101) to (# 103) is completed, the loop process in the next step (# 104) is executed.

【0051】ステップ(#104)のループ処理では、
エリアセンサーの横方向(X軸)の1ライン分(150
画素)の像信号を逐次的にA/D変換しながら、RAM
に格納し、また像信号の最小値を検出している。
In the loop processing of step (# 104),
One line in the horizontal direction (X axis) of the area sensor (150
A / D conversion of the image signal of the pixel
And the minimum value of the image signal is detected.

【0052】ステップ(#104)のループ内の最初の
ステップ(#105)では、マイクロコンピュータMC
U310の内蔵のA/D変換器から、像信号をA/D変
換したディジタル値ADCを取り出し、その値を一時的
に変換EYEDTに格納する。そして、次のステップ
(#106)にて、EYEDTの値を配列変数IM
(I,4)に格納する。変数Iは外側のループ処理ステ
ップ(#104)にて0から149までカウントアップ
される。
In the first step (# 105) in the loop of step (# 104), the microcomputer MC
The digital value ADC obtained by A / D converting the image signal is taken out from the built-in A / D converter of U310, and the value is temporarily stored in the conversion EYEDT. Then, in the next step (# 106), the value of EYEDT is stored in the array variable IM.
(I, 4). The variable I is counted up from 0 to 149 in the outer loop processing step (# 104).

【0053】ステップ(#107)と(#108)は像
信号の最小値検出処理である。変数EYEMINは像
信号の最小値を保持する変数であり、ステップ(#10
7)において、EYEMINよりEYEDTの方が小さ
ければ、ステップ(#108)へ分岐し、EYEMIN
をこの小さなEYEDTの値で更新する。
Steps (# 107) and (# 108) are processing for detecting the minimum value of the image signal. The variable EYEMIN is a variable that holds the minimum value of the image signal, and is set in step (# 10).
In 7), if EYEDT is smaller than EYEMIN, the process branches to step (# 108), and EYEMIN
Is updated with this small EYEDT value.

【0054】ステップ(#104)〜(#108)のル
ープ処理が終了し、新たな1ライン分の像信号の格納
と、最小値の検出が終わると、次のステップ(#10
9)でサブルーチン「1ラインの読み込み」をリターン
する。
When the loop processing of steps (# 104) to (# 108) is completed and storage of a new image signal for one line and detection of the minimum value are completed, the next step (# 10)
In 9), the subroutine "read one line" is returned.

【0055】図9のフローチャートに戻って、ステップ
(#007)のサブルーチン「1ラインの読み込み」が
完了すると、次のステップ(#008)へ移行し、外側
のループ処理ステップ(#006)のループ変数Jが5
以上か否か調べる。
Returning to the flow chart of FIG. 9, when the subroutine "read one line" of step (# 007) is completed, the process proceeds to the next step (# 008) and the loop of the outer loop processing step (# 006) Variable J is 5
Check to see if this is the case.

【0056】ループ変数Jはエリアセンサーの縦方向
(Y軸)の画素ラインを表しており、本実施例では、エ
リアセンサーの画素数を(150×100)としている
ので、Jは0から99までカウントアップされる。
The loop variable J represents a pixel line in the vertical direction (Y axis) of the area sensor. In this embodiment, since the number of pixels of the area sensor is (150 × 100), J is from 0 to 99. Counted up.

【0057】ステップ(#008)にてループ変数Jが
5以上の場合にはステップ(#009)へ分岐する。こ
れは、読み込んだ像信号のライン数が5以上になると、
エリアセンサーの縦方向(Y軸)の処理が出来るように
なるからである。
If the loop variable J is 5 or more in step (# 008), the flow branches to step (# 009). This is because when the number of lines of the read image signal becomes 5 or more,
This is because processing in the vertical direction (Y axis) of the area sensor can be performed.

【0058】分岐した先のステップ(#009)ではサ
ブルーチン「P像の検出」を実行する。
In the step (# 009) ahead of the branch, a subroutine "detection of P image" is executed.

【0059】サブルーチン「P像の検出」は、前述した
角膜反射のP像の位置を検出するための処理であり、エ
リアセンサーの横方向(X軸)の1ラインの読み込み毎
に実行する。そのフローチャートを図11に示す。
The subroutine "detection of P image" is a process for detecting the position of the P image of corneal reflection described above, and is executed every time one line in the horizontal direction (X axis) of the area sensor is read. The flowchart is shown in FIG.

【0060】サブルーチン「P像の検出」がコールされ
ると、ステップ(#200)を経てステップ(#20
1)のループ処理を実行する。ループ処理内では、像デ
ータ(配列変数IM(i,k)に記憶)中のP像の位置
を検索し、もし見つかれば、エリアセンサー上でのその
位置を記憶する。本実施例ではP像は2個発生するの
で、記憶する位置情報も2個となる。
When the subroutine "P image detection" is called, the program proceeds to step (# 20) through step (# 200).
The loop processing of 1) is executed. In the loop processing, the position of the P image in the image data (stored in the array variable IM (i, k)) is searched, and if found, the position on the area sensor is stored. In this embodiment, since two P images are generated, two pieces of position information are stored.

【0061】ループ内の最初のステップ(#202)で
は、所定位置の像データがP像としての条件を満足する
か否かを判定する。条件としては、次のようなものであ
る。
In the first step (# 202) in the loop, it is determined whether or not the image data at a predetermined position satisfies the condition as a P image. The conditions are as follows.

【0062】ステップ(#202)の「P像条件」 IM(I,2)>C1 かつIM(I,1)>C2 かつIM(I,3)>C2 かつIM(I−1,2)>C2 かつIM(I+1,2)>C2 但し、C1,C2はしきい値定数で、C1≧C2なる関
係があり、例えば、C1=230,C2=200であ
る。また、変数Iはループ処理のループ変数であり、エ
リアセンサーの横方向(X軸)の位置を表している。
"P image condition" in step (# 202) IM (I, 2)> C1 and IM (I, 1)> C2 and IM (I, 3)> C2 and IM (I-1,2)> C2 and IM (I + 1,2)> C2 where C1 and C2 are threshold constants and have a relationship of C1 ≧ C2, for example, C1 = 230 and C2 = 200. The variable I is a loop variable of the loop processing, and represents the position of the area sensor in the horizontal direction (X axis).

【0063】上記条件は、P像が図5で説明したよう
に、スポット像のようなものであることに注目し、横/
縦方向(X/Y軸)の両方向に定義したものである。こ
の条件が満足されたとき、位置(I,2)にP像が存在
するものと見なす。
The above conditions are based on the fact that the P image is like a spot image as described with reference to FIG.
It is defined in both directions of the vertical direction (X / Y axis). When this condition is satisfied, it is considered that a P image exists at the position (I, 2).

【0064】前述したように配列変数IM(i,k)は
エリアセンサーの横方向(X軸)の1ライン読み込み毎
に更新しており、縦方向(Y軸)位置JラインはIM
(i,4)[i=0〜149]に格納されている。従っ
て、変数IMに対するアドレス(1,2)は、エリアセ
ンサー上では、位置(I,J−2)となる。
As described above, the array variable IM (i, k) is updated every time one line is read in the horizontal direction (X axis) of the area sensor, and the vertical (Y axis) position J line is set to IM.
(I, 4) [i = 0 to 149]. Therefore, the address (1, 2) for the variable IM is the position (I, J-2) on the area sensor.

【0065】ステップ(#202)にて、P像の条件を
満足する像データがあった場合、ステップ(#203)
以降へ分岐し、ない場合には外側のループ変数Iがカウ
ントアップされる。
In step (# 202), if there is image data that satisfies the condition of the P image, step (# 203)
Branching to the following, if not, the outer loop variable I is counted up.

【0066】ステップ(#203)以降は、2個のP像
の存在範囲(X軸方向の範囲[IP1〜IP2],Y軸
方向の範囲[JP1〜JP2])を決定する処理であ
る。
Step (# 203) and subsequent steps are processing for determining the range of existence of the two P images (the range [IP1 to IP2] in the X-axis direction and the range [JP1 to JP2] in the Y-axis direction).

【0067】先ず、ステップ(#203)では、エリア
センサーの横方向(X軸)の位置を表す変数Iと変数I
P1を比較し、I<IP1ならば、ステップ(#20
4)へ分岐する。すなわち、P像の存在範囲のうち、横
方向の左方にあるP像位置IP1の位置よりも、変数I
の位置の方が左にあれば、IP1を書き換えようとする
ものである。
First, in step (# 203), a variable I and a variable I representing the position of the area sensor in the horizontal direction (X axis) are set.
P1 is compared. If I <IP1, step (# 20)
Branch to 4). In other words, the variable I is smaller than the position of the P image position IP1 on the left side in the horizontal direction in the P image existence range.
If the position is on the left, IP1 is to be rewritten.

【0068】ステップ(#204)では、変数IP1に
変数Iの値を格納し、そのときの縦方向の位置(J−
2)を変数JP1に格納する。
In step (# 204), the value of the variable I is stored in the variable IP1, and the vertical position (J-
2) is stored in the variable JP1.

【0069】ステップ(#205)、(#206)で
は、P像存在範囲のうち、横方向の右方にあるP像位置
IP2と、その縦方向位置を表すJP2の更新の判定を
行う。
In steps (# 205) and (# 206), the P image position IP2 on the right side in the horizontal direction in the P image existence range and the update of JP2 representing the vertical position are determined.

【0070】以上のようにして、ステップ(#201)
のループ処理で、横方向(X軸)の位置Iが0から14
9までの1ラインの処理が終了すると、次のステップ
(#207)へ移行する。
As described above, step (# 201)
In the loop processing, the position I in the horizontal direction (X axis) is changed from 0 to 14
When the processing of one line up to 9 is completed, the process proceeds to the next step (# 207).

【0071】以上の処理が終了すると、次のステップ
(#208)でサブルーチン「P像の検出」をリターン
する。
When the above process is completed, the subroutine "P image detection" is returned in the next step (# 208).

【0072】再び図9のフローチャートに戻る。Returning to the flowchart of FIG.

【0073】ステップ(#009)のサブルーチン「P
像の検出」が完了すると、次のステップ(#010)で
サブルーチン「瞳孔エッジの検出」を実行する。
The subroutine "P" of step (# 009)
When the "image detection" is completed, a subroutine "pupil edge detection" is executed in the next step (# 010).

【0074】「瞳孔エッジの検出」は眼球反射像中の瞳
孔エッジ(虹彩と瞳孔の境界)の位置の検出を行うサブ
ルーチンである。
The "pupil edge detection" is a subroutine for detecting the position of the pupil edge (the boundary between the iris and the pupil) in the eyeball reflection image.

【0075】ステップ(#010)のサブルーチン「瞳
孔エッジの検出」が完了すると、外側のループ処理ステ
ップ(#006)のループ変数J(エリアセンサーの縦
方向、Y軸の座標を表す)がカウントアップされ、Jが
99となるまで、再びステップ(#007)以降の処理
が実行される。
When the subroutine "pupil edge detection" in step (# 010) is completed, the loop variable J (representing the vertical direction of the area sensor and the coordinates of the Y axis) in the outer loop processing step (# 006) is counted up. Then, the processing after step (# 007) is executed again until J becomes 99.

【0076】ループ変数Jが99となり、エリアセンサ
ーの全画素の読み込みと処理が終了すると、ステップ
(#006)からステップ(#011)へ移行する。
When the loop variable J becomes 99 and reading and processing of all the pixels of the area sensor are completed, the process proceeds from step (# 006) to step (# 011).

【0077】ステップ(#011)〜(#013)で
は、ステップ(#006)のループ処理内で検出された
P像位置及び瞳孔エッジ情報から、瞳孔の中心座標の検
出と視線の検出を行う。
In steps (# 011) to (# 013), the center coordinates of the pupil and the line of sight are detected from the P image position and the pupil edge information detected in the loop processing in step (# 006).

【0078】先ず、ステップ(#011)ではサブルー
チン「瞳孔推定範囲の設定」をコールする。
First, in step (# 011), a subroutine "setting of estimated pupil range" is called.

【0079】ステップ(#010)のサブルーチン「瞳
孔エッジの検出」で検出された複数の瞳孔エッジ点に
は、実際に瞳孔円(虹彩と瞳孔の境界が形成する円)を
表しているエッジ点以外にも、種々のノイズによって発
生した偽のエッジ点も含まれている。
The pupil edge points detected in the subroutine “pupil edge detection” in step (# 010) include those other than the edge points that actually represent the pupil circle (the circle formed by the boundary between the iris and the pupil). Also, false edge points generated by various noises are included.

【0080】「瞳孔推定範囲の設定」は、上記偽のエッ
ジ点を排除するために、P像位置情報に基づいて、確か
らしいエッジ点の座標範囲を限定するためのサブルーチ
ンである。
"Setting of estimated pupil range" is a subroutine for limiting the coordinate range of a probable edge point based on P image position information in order to eliminate the false edge point.

【0081】次にステップ(#012)のサブルーチン
「瞳孔中心の検出」をコールする。
Next, the subroutine "detection of pupil center" in step (# 012) is called.

【0082】「瞳孔中心の検出」は、確からしい瞳孔エ
ッジ点の座標から、瞳孔円の形状(中心座標と大きさ)
を推定するサブルーチンである。
“Detection of the pupil center” is based on the coordinates of the pupil edge points (center coordinates and size) based on the coordinates of the pupil edge points that are likely to be present.
Is a subroutine for estimating.

【0083】瞳孔円の形状の推定には、「最小2乗法」
を用いる。
To estimate the shape of the pupil circle, the "least squares method"
Is used.

【0084】ステップ(#012)での「瞳孔中心の検
出」が完了すると、ステップ(#013)へ移行し、サ
ブルーチン「視線の検出」をコールする。「視線の検
出」は、これまでの処理で検出したP像位置及び瞳孔円
の中心位置から、視線(注視点)を検出するサブルーチ
ンである。
When the "detection of pupil center" in step (# 012) is completed, the process proceeds to step (# 013) and calls a subroutine "detection of line of sight". “Detection of line of sight” is a subroutine for detecting a line of sight (point of gaze) from the P image position and the center position of the pupil circle detected in the processing up to this point.

【0085】基本的には、眼球光軸の回転角θを計算す
れば良い。本発明の実施例では、瞳孔中心を横方向(X
軸)、縦方向(Y軸)の2次元で検出しているので、横
方向のみではなく、縦方向の視線の方向も検出すること
ができる。
Basically, it is sufficient to calculate the rotation angle θ of the optical axis of the eyeball. In the embodiment of the present invention, the center of the pupil is moved in the horizontal direction (X
Axis) and the vertical direction (Y axis) are detected in two dimensions, so that not only the horizontal direction but also the direction of the visual line in the vertical direction can be detected.

【0086】視線の検出が完了すると、ステップ(#0
14)へ移行し、一連の処理を終了する。
When the detection of the line of sight is completed, step (# 0)
The process proceeds to 14), and a series of processing ends.

【0087】ところで、図11ステップ(#202)の
説明で示したP像の条件は、A/D変換後のP像の大き
さが縦横それぞれ3画素程度で一定であることを前提と
している。この結果、このような簡潔な条件をもって精
度良くP像位置を検出できるのであって、もしもこの条
件が崩れると検出精度は大きく低下してしまう。
By the way, the condition of the P image shown in the description of the step (# 202) in FIG. 11 is based on the premise that the size of the P image after A / D conversion is constant about 3 pixels in each of the vertical and horizontal directions. As a result, the P image position can be detected with high accuracy under such a simple condition, and if this condition is broken, the detection accuracy is greatly reduced.

【0088】しかしながら、カメラのファインダーの覗
き方は様々であって、接眼レンズ14に眼をかなり近づ
けて覗く人もいれば、かなり遠くから覗く人もいる。特
に、メガネを掛けている場合は接眼レンズ14からの距
離が遠くなる傾向があって、エリアセンサー上に投影さ
れる眼の像の倍率は一定しない。
However, there are various ways of looking through the viewfinder of the camera. Some people look closely at the eyepiece lens 14 while others look from a far distance. In particular, when wearing glasses, the distance from the eyepiece 14 tends to be long, and the magnification of the eye image projected on the area sensor is not constant.

【0089】本実施例の特徴とするところは、このよう
な像倍率の変化があってもP像を精度良く検出すること
であり、次に図6及び図7を用いてこのための光学構成
を説明する。
The feature of the present embodiment is that the P image can be detected with high accuracy even if there is such a change in the image magnification. Next, referring to FIGS. 6 and 7, an optical configuration for this purpose will be described. Will be described.

【0090】図6は、図1に示した視線検出光学系を光
路に沿った展開説明図であって、62は結像レンズ42
と接眼レンズ14の合成光学系を表す仮想レンズ、60
はその光軸、61bはIRED40aあるいは40bの
角膜による虚像であって、その光軸上位置はファインダ
ー光学系のアイポイントに一致させてある。仮想レンズ
62による結像倍率は約−0.1倍である。また光軸と
直交する方向は5倍程度に拡大して示している。なお、
簡単のためIREDを光軸上において説明する。
FIG. 6 is a development explanatory view of the visual axis detection optical system shown in FIG. 1 along the optical path.
A virtual lens representing a combined optical system of the eyepiece 14 and the eyepiece 14;
Is the optical axis, 61b is a virtual image of the cornea of the IRED 40a or 40b, and its position on the optical axis is matched with the eye point of the finder optical system. The imaging magnification by the virtual lens 62 is about -0.1. Also, the direction orthogonal to the optical axis is shown enlarged about five times. In addition,
For simplicity, the IRED will be described on the optical axis.

【0091】このような光学系においてIREDの虚像
位置が変化したときの光学挙動について考える。図7
(a)は様々なファインダーの覗き方に対応させてIR
EDの角膜による虚像位置の変化した状態を表した図で
ある。図において、61a〜61eはIRED角膜によ
る虚像であって、61aに示す眼を接眼レンズに近づけ
た状態から61eのように眼を接眼レンズから遠ざけた
状態を順次表している。接眼レンズ14と眼との距離が
変化するとIREDと角膜との距離も変化するため、虚
像61a〜61eの大きさはaからeへの順に小さくな
っていく。
Consider the optical behavior when the virtual image position of the IRED changes in such an optical system. FIG.
(A) IR for various viewfinder viewing methods
It is a figure showing the state where the virtual image position by the cornea of ED changed. In the figure, reference numerals 61a to 61e denote virtual images formed by the IRED cornea, and sequentially show the state in which the eye shown in 61a is close to the eyepiece and the state in which the eye is moved away from the eyepiece like 61e. When the distance between the eyepiece 14 and the eye changes, the distance between the IRED and the cornea also changes, so that the sizes of the virtual images 61a to 61e decrease in order from a to e.

【0092】図7(b)は、図7(a)に示した光学系
の像面付近のみを拡大して示した図で、63a〜63e
はそれぞれ虚像61a〜61eの仮想レンズ62による
像で、IREDによるP像である。64から67はこの
結像におけるマージナル光線である。図が複雑になるの
を避けるため、両端のP像63aとP像63eを形成す
る光線のみを示している。また、それぞれの像及び光線
にふった添え字は対応させてある。
FIG. 7B is an enlarged view showing only the vicinity of the image plane of the optical system shown in FIG.
Are images of the virtual images 61a to 61e by the virtual lens 62, and are P images by IRED. Reference numerals 64 to 67 denote marginal rays in this image formation. In order to avoid complicating the drawing, only the light rays forming the P image 63a and the P image 63e at both ends are shown. Also, the subscripts for each image and light beam are associated.

【0093】幾何光学的な考察より明らかなように、虚
像61a〜61eが仮想レンズ62から離れるほどその
像63a〜63eは仮想レンズ62に近づき、その大き
さは小さくなる。
As is clear from the consideration of geometrical optics, the farther the virtual images 61a to 61e are from the virtual lens 62, the closer the images 63a to 63e to the virtual lens 62 and the smaller the size.

【0094】ところで、先に説明したように、視線検出
に使われるエリアセンサー43aの出力は図5示領域E
の範囲でA/D変換されたものであって、P像の裾部分
を拡大して用いている。そのため、A/D変換後のP像
情報の大きさはP像を形成する光線の広がりの大きさに
等しいと考えて良い。すなわち、エリアセンサー上でP
像がボケていたとしてもA/D変換後はボケ像を形成す
る光束の最も外側部分がP像としてとらえられる。
By the way, as described above, the output of the area sensor 43a used for gaze detection is the area E shown in FIG.
The A / D conversion is performed in the range of, and the foot portion of the P image is enlarged and used. Therefore, it can be considered that the magnitude of the P image information after the A / D conversion is equal to the magnitude of the spread of the light beam forming the P image. That is, P on the area sensor
Even if the image is blurred, the outermost portion of the light beam forming the blurred image is captured as a P image after A / D conversion.

【0095】したがって、P像63aのA/D変換後の
大きさは光線64a,65a,66a,67aの実線部
分で規定され、また、P像63eのA/D変換後の大き
さは光線64e,65e,66e,67eの実線部分で
規定される。もし、エリアセンサー43aの受光面がP
像63eと同一面にあるとすると、P像63aのデフォ
ーカス像はこの受光面上で光線64a,65aが入射す
る点68,69を外周とした点像として出力されること
になる。
Therefore, the size of the P image 63a after the A / D conversion is defined by the solid line portions of the light beams 64a, 65a, 66a, and 67a, and the size of the P image 63e after the A / D conversion is the light beam 64e. , 65e, 66e, and 67e. If the light receiving surface of the area sensor 43a is P
Assuming that the image 63e is on the same plane as the image 63e, the defocused image of the P image 63a is output as a point image with the points 68 and 69 on the light receiving surface where the light rays 64a and 65a are incident.

【0096】この結果、ファインダー観察者の眼の位置
によって、出力されるP像の大きさが異なって図11ス
テップ(#202)の説明で示したP像条件に適さず、
精度良くP像位置を検出することは困難である。
As a result, the size of the output P image differs depending on the position of the eye of the finder observer, and is not suitable for the P image condition described in the description of step (# 202) in FIG.
It is difficult to accurately detect the position of the P image.

【0097】しかしながら、眼を接眼レンズ14に近づ
けたとき程P像が大きくなるため、前ピン状態にあるP
像の光束の広がりはどれもエリアセンサー上でほぼ同一
の広がりとなること、そして、A/D変換の結果、P像
の照度分布に関わらず光束の広がりがP像として出力さ
れることを利用すればP像サイズを一定に保つことも可
能である。
However, the closer the eye is to the eyepiece 14, the larger the P image becomes.
The spread of the luminous flux of the image is almost the same on the area sensor, and the spread of the luminous flux is output as the P image regardless of the illuminance distribution of the P image as a result of the A / D conversion. Then, the P image size can be kept constant.

【0098】すなわち、P像サイズの眼球位置への依存
状態はエリアセンサー43aの位置に依って変化し、エ
リアセンサー43aの受光面を仮想レンズ62からさら
に遠ざけて設定すると、P像サイズの眼球位置依存を小
さくできる。例えば図7(b)に於いて、設計的に決定
されたアイポイントに眼を置いたときに得られるP像6
3bの図中やや右寄りにエリアセンサー43aの受光部
を置けば、前ピン状態となるP像63b,63c,63
d,63eの受光部上の光束の広がりと、後ピン状態と
なるP像63aの光束の広がりとはほぼ同一の大きさに
なる。このような場合、簡単な条件で常にP像を精度良
く検出することが可能である。
That is, the dependence of the size of the P image on the eyeball position changes depending on the position of the area sensor 43a. If the light receiving surface of the area sensor 43a is set further away from the virtual lens 62, the position of the eyeball of the P image size is Dependence can be reduced. For example, in FIG. 7B, a P image 6 obtained when an eye is placed on an eye point determined by design.
If the light receiving portion of the area sensor 43a is placed slightly to the right in the drawing of 3b, the P images 63b, 63c, 63 in the front focus state
The spread of the light beams on the light receiving portions d and 63e and the spread of the light beam of the P image 63a in the back focus state are substantially the same. In such a case, the P image can always be accurately detected under simple conditions.

【0099】以上の性質からP像を前ピン状態でとらえ
れば、その大きさが変化しないわけであるが、前述のよ
うに虚像61a〜61eの深さ方向の位置はほぼ虹彩と
同一であって、余り大きな前ピン状態になると今度は眼
の像のシャープさが低下し瞳孔の検出に支障が生じる。
このことから、エリアセンサーの位置は、アイポイント
から接眼レンズ14までの間の何れかの位置にピントを
合わせるように設定するのが適当であると言える。
From the above properties, if the P image is captured in the front focus state, its size does not change. However, as described above, the positions of the virtual images 61a to 61e in the depth direction are almost the same as the iris. If the front focus state becomes too large, the sharpness of the image of the eye is reduced this time, which hinders pupil detection.
From this, it can be said that it is appropriate to set the position of the area sensor so as to focus on any position between the eye point and the eyepiece 14.

【0100】なお、ここではエリアセンサーを配置する
位置に注目して視線検出光学系について説明したが、結
像レンズ42の位置を同様な結像状態となるように調節
しても光学的に等価である。
Although the eye-gaze detecting optical system has been described by paying attention to the position at which the area sensor is arranged, optically equivalent is obtained even if the position of the imaging lens 42 is adjusted to obtain a similar image-forming state. It is.

【0101】また、視線検出装置の使用者が眼鏡を掛け
ていた場合には、眼鏡で反射したIRED光が接眼レン
ズやビームスプリッターで反射し、もう一度眼鏡で反射
してエリアセンサー上に投影されると言ったゴースト形
成光路が存在するが、このように接眼レンズの近くにピ
ントを合わせることで、ゴーストがかなりデフォーカス
するため、これを誤って、P像として検出することがな
くなる利点が生じる。
When the user of the eye-gaze detecting device wears glasses, the IRED light reflected by the glasses is reflected by the eyepiece or the beam splitter, reflected again by the glasses, and projected onto the area sensor. However, there is an advantage that the ghost is considerably defocused by focusing on the vicinity of the eyepiece in this manner, so that the ghost is not erroneously detected as a P image.

【0102】さらには、エリアセンサーとして例えばC
CDを用いたときには各画素ごとに不感帯が存在する
が、上記のような構成によれば眼をどの位置に置いても
P像が小さくなりすぎないため、眼が接眼レンズから離
れたときにIREDの像がこの不感帯に埋もれて出力さ
れないと言った不具合がなくなることは上述した通りで
ある。
Further, as an area sensor, for example, C
When a CD is used, a dead zone exists for each pixel. However, according to the above configuration, the P image does not become too small regardless of where the eye is placed. As described above, the problem that the image is not output because it is buried in the dead zone is eliminated.

【0103】(他の実施例)図12及び図13は本発明
の第2の実施例である。図12は図8に示した視線検出
回路内のアンプの特性を非線形にした場合の特性図であ
る。図のように入力が大きくなったときに、出力があま
り伸びないようにしていることが特徴である。図13は
この非線形アンプを通した後のエリアセンサー43の信
号で、図5と同様に、P像が投影されている水平ライン
について抜き出したものである。
(Other Embodiments) FIGS. 12 and 13 show a second embodiment of the present invention. FIG. 12 is a characteristic diagram when the characteristic of the amplifier in the visual line detection circuit shown in FIG. 8 is made nonlinear. As shown in the figure, when the input becomes large, the output does not increase so much. FIG. 13 shows the signal of the area sensor 43 after passing through the non-linear amplifier, which is extracted from the horizontal line on which the P image is projected, as in FIG.

【0104】瞳孔B、虹彩C1,C2、白目D1,D2
に相当する出力レベルは図12の特性80によって引き
伸ばされ、これより高いレベルは、特性81によって圧
縮されている。したがって、図13に示す二つのP像
は、下部が特性80上部が特性81によって変換された
ものである。
Pupil B, irises C1 and C2, white eyes D1 and D2
Are extended by the characteristic 80 in FIG. 12, and higher levels are compressed by the characteristic 81. Accordingly, the two P images shown in FIG.

【0105】この結果、P像の大きさは第1実施例と同
じく、P像を形成する光束の広がりの範囲と考えて良
く、図7(b)を用いて説明した如く視線検出光学系の
エリアセンサーの位置は、アイポイントから接眼レンズ
14までの何れかの位置にピントを合わせるように設定
することで、ファインダー観察者の眼球距離に関わらず
一定の大きさのP像が得られる。
As a result, as in the first embodiment, the size of the P image can be considered to be the range of the spread of the light beam forming the P image, and as described with reference to FIG. By setting the position of the area sensor so as to focus on any position from the eye point to the eyepiece 14, a P image of a fixed size can be obtained regardless of the eyeball distance of the finder observer.

【0106】[0106]

【発明の効果】以上述べた本発明は観察系の観察者の明
視の距離に個人差があっても視線検出精度が均一化され
る効果がある。
The present invention described above has the effect of uniformizing the line-of-sight detection accuracy even if there is an individual difference in the distance of clear vision of the observer of the observation system.

【0107】また、エリアセンサーとして例えばCCD
を用いたときには各画素ごとに不感帯が存在するが、上
記のような構成によれば眼をどの位置に置いてもP像が
小さくなりすぎないため、IREDの像がこの不感帯に
埋もれて出力されないといった不具合がなくなった。
As an area sensor, for example, a CCD
Is used, a dead zone exists for each pixel. However, according to the above configuration, the P image does not become too small regardless of where the eye is placed, so that the IRED image is not buried in the dead zone and output. Such a defect has disappeared.

【0108】さらに、眼鏡等で発生したIREDのゴー
ストをよりぼかすため、誤ってゴーストをP像として検
出することがなくなった。
Further, since the ghost of the IRED generated by the glasses or the like is further blurred, the ghost is not erroneously detected as the P image.

【0109】あるいは、エリアセンサーでの反射光がビ
ームスプリッターの射出面で再び反射して生じるスポッ
ト状のゴーストの発生を抑えることができた。
Alternatively, it was possible to suppress the occurrence of spot-like ghosts generated by the light reflected by the area sensor being reflected again by the exit surface of the beam splitter.

【0110】またこの結果、ビームスプリッターの面を
僅かに傾けると言ったことが必要なくなり、視線検出光
学系が極めて簡単な構成になった。
As a result, it is not necessary to slightly incline the surface of the beam splitter, and the line-of-sight detection optical system has an extremely simple structure.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例であって、視線検出光学系の斜
視図。
FIG. 1 is a perspective view of an eye-gaze detecting optical system according to an embodiment of the present invention.

【図2】(a)は一眼レフカメラの縦断面図で、(b)
は一眼レフカメラの上面透視図。
FIG. 2A is a longitudinal sectional view of a single-lens reflex camera, and FIG.
1 is a top perspective view of a single-lens reflex camera.

【図3】図2図示視線検出光学系の絞りの平面図。FIG. 3 is a plan view of a stop of the visual line detection optical system shown in FIG. 2;

【図4】エリアセンサーと、その上に投影された眼の像
を表す説明図。
FIG. 4 is an explanatory diagram showing an area sensor and an image of an eye projected on the area sensor.

【図5】第1プルキンエ像が投影された水平ラインの出
力を表す説明図。
FIG. 5 is an explanatory diagram showing an output of a horizontal line on which a first Purkinje image is projected.

【図6】図1に示した視線検出光学系の展開説明図。FIG. 6 is a development explanatory view of the visual line detection optical system shown in FIG. 1;

【図7】(a)は図1に示した視線検出光学系の展開説
明図で、IREDの虚像位置が変化したときの挙動を説
明するための図で、(b)は視線検出光学系の像面付近
を拡大した図。
7A is a development explanatory view of the visual line detection optical system shown in FIG. 1, and is a diagram for explaining a behavior when a virtual image position of the IRED changes, and FIG. 7B is a diagram of the visual line detection optical system. The figure which expanded the vicinity of an image plane.

【図8】視線検出装置を含むカメラシステムのブロック
図。
FIG. 8 is a block diagram of a camera system including a visual line detection device.

【図9】視線検出動作を説明するためのフローチャー
ト。
FIG. 9 is a flowchart for explaining a gaze detection operation.

【図10】CCDエリアセンサーからの像データの読み
込みを説明するためのフローチャート。
FIG. 10 is a flowchart illustrating reading of image data from a CCD area sensor.

【図11】P像の検出動作を説明するためのフローチャ
ート。
FIG. 11 is a flowchart for explaining a P image detection operation.

【図12】視線検出回路内の非線形アンプの特性図。FIG. 12 is a characteristic diagram of a nonlinear amplifier in the visual line detection circuit.

【図13】図12に示したアンプを通した後の、第1プ
ルキンエ像が投影された水平ラインの出力を表す説明
図。
FIG. 13 is an explanatory diagram showing an output of a horizontal line on which a first Purkinje image is projected after passing through the amplifier shown in FIG. 12;

【符号の説明】[Explanation of symbols]

13 ビームスプリッター 14 接眼レンズ 40a・40b 照明用光源(赤外発光ダイオード) 42 結像レンズ 43 エリアセンサー 47 偏芯絞り Reference Signs List 13 beam splitter 14 eyepiece 40a / 40b illumination light source (infrared light emitting diode) 42 imaging lens 43 area sensor 47 eccentric diaphragm

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭59−146028(JP,A) 特開 昭61−172552(JP,A) 特開 昭63−194237(JP,A) 特開 平1−241511(JP,A) 特開 平1−274736(JP,A) 特開 平2−5(JP,A) 特開 平3−87818(JP,A) 特開 平3−177826(JP,A) 特開 平3−109029(JP,A) 特開 平4−138431(JP,A) 特開 平4−240438(JP,A) 特開 平2−206425(JP,A) 特開 平3−109031(JP,A) 特開 平2−271825(JP,A) 特開 平3−107909(JP,A) (58)調査した分野(Int.Cl.7,DB名) G02B 7/28 G03B 13/02 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-59-146028 (JP, A) JP-A-61-172552 (JP, A) JP-A-63-194237 (JP, A) JP-A-1- 241511 (JP, A) JP-A-1-274736 (JP, A) JP-A-2-5 (JP, A) JP-A-3-87818 (JP, A) JP-A-3-177826 (JP, A) JP-A-3-109029 (JP, A) JP-A-4-138431 (JP, A) JP-A-4-240438 (JP, A) JP-A-2-206425 (JP, A) JP-A-3-109031 (JP, A) JP-A-2-271825 (JP, A) JP-A-3-107909 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G02B 7/28 G03B 13 / 02

Claims (9)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 観察用光学系で観察する観察者の眼を照
明する光源と、 センサーと、 該センサー上に該観察者の眼の像を形成するための結像
レンズ部とを有し、 該センサー上に生じた該観察者の眼からの反射像に依っ
て観察者の視線を検出する視線検出装置であって、前記センサー出力のうち、前記光源による角膜反射像よ
りも低い値のアナログ信号をA/D変換して視線を検出
するための演算を行い、 前記結像レンズ部は前記観察用光学系のアイポイントよ
りも前記観察用光学系に近い位置にピントを合わせてい
ることを特徴とする視線検出装置。
1. A light source for illuminating an observer's eye observed by an observation optical system, a sensor, and an imaging lens unit for forming an image of the observer's eye on the sensor, A line-of-sight detection device that detects a line of sight of an observer based on a reflected image generated from the observer's eyes on the sensor, wherein a corneal reflection image by the light source is included in the sensor output
A / D conversion of analog signal of lower value to detect gaze
A visual axis detection device , wherein the imaging lens unit focuses on a position closer to the observation optical system than an eye point of the observation optical system.
【請求項2】 前記観察者の眼からの反射像は前記光源
の角膜反射像と瞳孔像であることを特徴とする請求項1
の視線検出装置。
2. The reflection image from the observer's eye is a corneal reflection image and a pupil image of the light source.
Gaze detection device.
【請求項3】 観察用光学系で観察する観察者の眼を照
明する光源と、 センサーと、 該センサー上に該観察者の眼の像を形成するための結像
レンズ部とを有し、 該センサー上に生じた該観察者の眼からの反射像に依っ
て観察者の視線を検出する視線検出装置であって、 前記結像レンズ部は、前記センサー出力より認識される
角膜反射像の大きさが、前記観察光学系からの前記観察
者の眼の距離に依って実質的に変化しないように構成し
てあることを特徴とする視線検出装置。
3. A light source for illuminating an observer's eye observed by an observation optical system, a sensor, and an imaging lens unit for forming an image of the observer's eye on the sensor. A line-of-sight detection device that detects a line of sight of an observer based on a reflected image generated on the sensor from the observer's eyes, wherein the imaging lens unit is recognized from an output of the sensor. A line-of-sight detection device, wherein a size of a corneal reflection image is configured not to substantially change depending on a distance of the observer's eye from the observation optical system.
【請求項4】 ファインダー光学系で観察する観察者の
眼を照明する光源と、エリアセンサーと、 該エリアセンサー上に該観察者の眼の像を形成するため
の結像レンズ部とを有し、 前記エリアセンサーの出力を非線形アンプに入力し、該
非線形アンプの出力を用いて前記エリアセンサー上に生
じた前記光源の角膜反射像と瞳孔像との相対関係に依っ
て前記観察者の視線を検出する視線検出装置であって、 前記結像レンズ部は前記ファインダー光学系のアイポイ
ントよりも前記ファインダー光学系に近い位置にピント
を合わせていることを特徴とする視線検出装置。
4. A light source for illuminating an observer's eye observed by a finder optical system, an area sensor, and an imaging lens unit for forming an image of the observer's eye on the area sensor. Inputting the output of the area sensor to a non-linear amplifier, and using the output of the non-linear amplifier to change the line of sight of the observer based on the relative relationship between the corneal reflection image and the pupil image of the light source generated on the area sensor. A gaze detection device for detecting, wherein the imaging lens unit focuses on a position closer to the finder optical system than an eye point of the finder optical system.
【請求項5】 観察用光学系で観察する観察者の眼を照
明する光源と、 センサーと、 該センサーに該観察者の眼からの光束を導くために該観
察用光学系の光路中に配置したビームスプリッターと、 該ビームスプリッターに隣接して配置され、該ビームス
プリッターからの該観察者の眼からの光束で、該センサ
ー上に該観察者の眼の像を形成するための結像レンズ部
とを有し、 該センサー上に生じた該観察者の眼からの反射像に依っ
て観察者の視線を検出する視線検出装置であって、 前記結像レンズ部はそのレンズとは光軸を異にする偏芯
開口を備えた絞りを有することを特徴とする視線検出装
置。
5. A light source for illuminating an observer's eye observed by an observation optical system; a sensor; and a light source arranged in an optical path of the observation optical system for guiding a light beam from the observer's eye to the sensor. A beam splitter, and an imaging lens unit that is disposed adjacent to the beam splitter and forms an image of the observer's eye on the sensor with a light beam from the observer's eye from the beam splitter. A gaze detection device that detects a gaze of the observer based on a reflection image generated on the sensor from the eye of the observer, wherein the imaging lens unit has an optical axis with the lens. A line-of-sight detection device comprising a stop provided with a different eccentric aperture.
【請求項6】 観察用光学系で観察する観察者の眼を照
明する光源と、 センサーと、 該センサーに該観察者の眼からの光束を導くために該観
察用光学系の光路中に配置したビームスプリッターと、 該ビームスプリッターからの該観察者の眼からの光束
で、該センサー上に該観察者の眼の像を形成するための
結像レンズ部とを有し、 該センサー上に生じた該観察者の眼からの反射像に依っ
て観察者の視線を検出する視線検出装置であって、 前記結像レンズ部は、前記光源の角膜反射像により前記
センサーから生じる反射光が前記ビームスプリッターへ
入射するのを遮る絞りを有することを特徴とする視線検
出装置。
6. A light source for illuminating an observer's eye observed by an observation optical system, a sensor, and a light source arranged in an optical path of the observation optical system for guiding a light beam from the observer's eye to the sensor. A beam splitter, and an image forming lens unit for forming an image of the observer's eye on the sensor with a light beam from the observer's eye from the beam splitter. A line-of-sight detection device that detects a line of sight of an observer based on a reflected image from the eyes of the observer, wherein the imaging lens unit is configured to generate reflected light generated from the sensor by a corneal reflection image of the light source; A line-of-sight detection device comprising a stop for blocking incidence on a splitter.
【請求項7】 観察用光学系で観察する観察者の眼を照
明する光源と、 センサーと、 該センサーに該観察者の眼からの光束を導くために該観
察用光学系の光路中に配置したビームスプリッターと、 該ビームスプリッターからの該観察者の眼からの光束
で、該センサー上に該観察者の眼の像を形成するための
結像レンズ部とを有し、 該センサー上に生じた該観察者の眼からの反射像に依っ
て観察者の視線を検出する視線検出装置であって、 前記結像レンズ部は、前記センサー上の前記光源の角膜
反射像の形成位置からずれた位置を通る光軸を備えた絞
りを有することを特徴とする視線検出装置。
7. A light source for illuminating an observer's eye observed by an observation optical system, a sensor, and a sensor disposed in an optical path of the observation optical system for guiding a light beam from the observer's eye to the sensor. A beam splitter, and an image forming lens unit for forming an image of the observer's eye on the sensor with a light beam from the observer's eye from the beam splitter. A line-of-sight detection device that detects a line of sight of the observer based on a reflection image from the eyes of the observer, wherein the imaging lens unit is displaced from a formation position of a corneal reflection image of the light source on the sensor. A line-of-sight detection device comprising a stop having an optical axis passing through a position.
【請求項8】 前記光源は前記観察用光学系の光軸の下
方から前記観察者の眼を照明するように構成され、前記
絞りの光軸は前記結像レンズ部の光軸から下方に偏芯し
ていることを特徴とする請求項またはまたはの視
線検出装置。
8. The light source is configured to illuminate the observer's eye from below the optical axis of the observation optical system, and the optical axis of the stop is deviated downward from the optical axis of the imaging lens unit. visual axis detecting device according to claim 5 or 6 or 7, characterized in that it is the core.
【請求項9】 請求項1乃至請求項のいずれかに記載
の前記視線検出装置と該視線検出装置の出力を用いて撮
影のための装置を制御する制御回路とを有するカメラ。
9. A camera having a control circuit for controlling the apparatus for photographing using the output of the visual line detecting device and the visual axis detecting device according to any one of claims 1 to 8.
JP23836792A 1992-09-07 1992-09-07 Eye gaze detection device and camera Expired - Fee Related JP3210089B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23836792A JP3210089B2 (en) 1992-09-07 1992-09-07 Eye gaze detection device and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23836792A JP3210089B2 (en) 1992-09-07 1992-09-07 Eye gaze detection device and camera

Publications (2)

Publication Number Publication Date
JPH0682680A JPH0682680A (en) 1994-03-25
JP3210089B2 true JP3210089B2 (en) 2001-09-17

Family

ID=17029139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23836792A Expired - Fee Related JP3210089B2 (en) 1992-09-07 1992-09-07 Eye gaze detection device and camera

Country Status (1)

Country Link
JP (1) JP3210089B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009512009A (en) * 2005-10-10 2009-03-19 トビイ テクノロジー アーベー Eye tracker with wide working distance
US9612656B2 (en) 2012-11-27 2017-04-04 Facebook, Inc. Systems and methods of eye tracking control on mobile device

Also Published As

Publication number Publication date
JPH0682680A (en) 1994-03-25

Similar Documents

Publication Publication Date Title
US5253008A (en) Camera
US6308015B1 (en) Camera having automatic focusing device
US5335035A (en) Visual line direction detecting device for the camera
JPH07128579A (en) Detecting method for light of sight, detecting means for line of sight and video device having detecting means for line of sight
JP3219534B2 (en) Optical device
US5987151A (en) Apparatus for detecting visual axis
US5546224A (en) Viewfinder device wherein the spacing between the display and the optical system is variable to effect diopter adjustment
JPH07151950A (en) Camera
US5402199A (en) Visual axis detecting apparatus
JPH07191382A (en) Finder device for camera
JP3210089B2 (en) Eye gaze detection device and camera
JP3097250B2 (en) Camera display device
JPH01277533A (en) Optical apparatus
JP4054436B2 (en) Optical device
US5610681A (en) Optical eye-control apparatus
JP3559622B2 (en) Gaze detection device and optical apparatus having gaze detection device
JP3774528B2 (en) SLR camera viewfinder
JP7446898B2 (en) Electronics
JP3184542B2 (en) camera
JP3171698B2 (en) Camera focal length control device
JP3495824B2 (en) Optical equipment having a line-of-sight detection device
JPH10148864A (en) Photometry device for camera
JPH0792375A (en) Line of sight detector
JP2756413B2 (en) Optical device provided with gaze detection device
JPH06138377A (en) Camera provided with focus detecting means and line-of-sight detecting means

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010626

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080713

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080713

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090713

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090713

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees