JP2002301030A - Equipment to detect sight line - Google Patents

Equipment to detect sight line

Info

Publication number
JP2002301030A
JP2002301030A JP2001109541A JP2001109541A JP2002301030A JP 2002301030 A JP2002301030 A JP 2002301030A JP 2001109541 A JP2001109541 A JP 2001109541A JP 2001109541 A JP2001109541 A JP 2001109541A JP 2002301030 A JP2002301030 A JP 2002301030A
Authority
JP
Japan
Prior art keywords
gaze
line
sight
area
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001109541A
Other languages
Japanese (ja)
Inventor
Yoshiaki Irie
良昭 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001109541A priority Critical patent/JP2002301030A/en
Publication of JP2002301030A publication Critical patent/JP2002301030A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable each person to use equipment by minimizing the influence of fluctuation of a sight line among the each person. SOLUTION: This equipment includes a visual line detecting means for detecting an observer's sight line; an area selecting means for dividing the screen of the equipment into a plurality of areas for control of the various movements of the equipment and for selecting an area from which information should be obtained according to the output of the sight line detecting means; a fixation point distribution computing means for obtaining information about a plurality of positions of visual lines when the observer fixes his sight at the same point; and a varying means for varying either the size of the area (70-74 or 70, 72 and 74) to be selected by the area selecting means or the number of areas and the size of each area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、観察者の視線を検
出する視線検出機能付き機器の改良に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement in a device having a line-of-sight detection function for detecting a line of sight of an observer.

【0002】[0002]

【従来の技術】従来より撮影者(観察者)の視線方向を
検知し、撮影者がファインダ視野内のどの領域(位置)
を観察しているか、いわゆる撮影者の注視方向をカメラ
の一部に設けた視線検出手段で検知し、該視線検出手段
からの信号に基づいて自動焦点調節や自動露出等の各種
撮影機能を制御するようにしたカメラが種々提案されて
いる。
2. Description of the Related Art Conventionally, the direction of the line of sight of a photographer (observer) is detected, and the photographer can determine which region (position) in the finder field of view.
The gaze direction of the photographer is detected by a gaze detection unit provided in a part of the camera, and various photographing functions such as automatic focus adjustment and automatic exposure are controlled based on a signal from the gaze detection unit. Various cameras have been proposed.

【0003】例えば本出願人は、特開平1−24151
1号公報において、撮影者の注視方向を検出する視線検
出手段と、複数個の測光感度分布を持つ自動露出制御手
段とを有し、前記視線検出手段からの出力信号に基づい
て焦点検出手段や自動露出制御手段の駆動を制御するよ
うにしたカメラを提案している。
[0003] For example, the present applicant has disclosed in
In Japanese Patent Publication No. 1 (1993), there is provided a line-of-sight detecting means for detecting a gaze direction of a photographer, and automatic exposure control means having a plurality of photometric sensitivity distributions, and a focus detecting means based on an output signal from the line-of-sight detecting means. A camera that controls the driving of an automatic exposure control unit has been proposed.

【0004】[0004]

【発明が解決しようとする課題】上記説明したカメラの
みならず視線検出機能を有する機器を使用する場合、観
察者は、機器の表示部にある選択すべき領域の表示を注
視することになる訳であるが、この注視するという行為
自体が視線検出を行う上で大きな誤差を生む要因となっ
ている。
When using not only the camera described above but also a device having a line-of-sight detection function, the observer looks at the display of the area to be selected on the display section of the device. However, this act of gazing itself is a factor that causes a large error in performing the gaze detection.

【0005】つまり、一点あるいは一方向を所定時間注
視する能力が個人によって異なっているために、前記視
線検出機能を持った機器の表示部にある選択すべき領域
の表示を注視しても、ある人は目的の領域を選択できる
が、またある別の人は選択できないということが発生し
てしまっていた。
In other words, since the ability to gaze at one point or one direction for a predetermined time differs from individual to individual, even if the user gazes at the display of the area to be selected on the display unit of the device having the gaze detection function. It has happened that one can select the target area, but another cannot.

【0006】つまり、一点あるいは一方向を所定時間注
視する能力のばらつきは、視線検出機能を誰もが使える
ようになるための大きな障害となっていた。
That is, the variation in the ability to gaze at one point or one direction for a predetermined time has been a major obstacle for anyone to use the gaze detection function.

【0007】上記課題に対する一つの対策として、特開
平4−101126号公報においては、画面内を複数の
領域に分割し、複数回の視線検出を行い、前記各領域に
対して視線位置の存在する頻度、停留時間に基づいて注
視点、領域を決定するという提案を行っている。つま
り、視線位置を複数個採取することによって、視線位置
のばらつきを平均化し、安定させようというのがその目
的である。
As one countermeasure against the above problem, Japanese Patent Laid-Open No. 4-101126 discloses a method in which the screen is divided into a plurality of regions, a plurality of gaze detections are performed, and a gaze position exists for each of the regions. A proposal is made to determine the point of regard and area based on frequency and parking time. That is, the purpose is to average and stabilize the variation in the line-of-sight position by collecting a plurality of line-of-sight positions.

【0008】しかしながら、常に視線検出を複数回連続
して実行すると、最終的に視線位置を決定するのに時間
を要するために視線検出機器としての応答性が悪くなる
のが欠点であった。
However, if the line-of-sight detection is always performed continuously a plurality of times, it takes a long time to finally determine the line-of-sight position, so that the responsiveness of the line-of-sight detection device is deteriorated.

【0009】また、本出願人は特開平6−308373
号公報において、視線検出手段の出力に基づいてカメラ
の諸動作の制御を行う情報を得るべく領域を、撮影画面
内より選択するカメラにおいて、前記選択領域を、視線
検出手段の出力の信頼性によって切り換えることを特徴
とする視線検出機能付カメラを提案している。例えば、
視線の信頼性が低い時は、本来5つの選択可能な領域を
3つにするといったように、選択できる領域数を切り換
えるようにしたものである。
Further, the present applicant has disclosed Japanese Patent Application Laid-Open No. 6-308373.
In the publication, in a camera for selecting an area for obtaining information for controlling various operations of the camera based on the output of the line-of-sight detecting means from a shooting screen, the selected area is determined by the reliability of the output of the line-of-sight detecting means. A camera with a visual line detection function characterized by switching is proposed. For example,
When the reliability of the line of sight is low, the number of selectable areas is switched so that five selectable areas are originally three.

【0010】ここで述べられている視線検出手段の信頼
性とは、眼球像のコントラストあるいは瞳孔の大きさ等
を、あるいは算出されたプルキンエ像及び瞳孔中心の位
置を評価したものを意味しており、実際にこれらの信頼
性判定で効果があるのは、眼球像そのものが何らかの要
因で一時的に不良の時であり、冒頭で述べた本来人間の
生理的問題である注視する能力の差によって発生する視
線位置のばらつきに対する解決とはなっていなかった。
[0010] The reliability of the eye-gaze detecting means described herein means the evaluation of the contrast of the eyeball image or the size of the pupil, or the calculated Purkinje image and the position of the center of the pupil. However, the effect of these reliability judgments is actually effective when the eyeball image itself is temporarily defective for some reason, and it is caused by the difference in the ability to gaze, which is originally a physiological problem of human beings, as described at the beginning. It does not solve the variation in the line of sight.

【0011】(発明の目的)本発明の目的は、注視する
能力の個人差によって発生する視線位置のばらつきの影
響を最小限にとどめ、機器を使用する人それぞれに対し
て意図した領域の選択を行わせることのできる視線検出
機能付き機器を提供しようとするものである。
(Object of the Invention) An object of the present invention is to minimize the influence of variations in the line of sight caused by individual differences in gazing ability, and to select an intended area for each person who uses the device. It is an object of the present invention to provide a device with a visual line detection function that can be performed.

【0012】[0012]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、観察者の視線を検出する視線検出手段
と、機器の諸動作の制御を行うために該機器の画面内を
複数に分割された、情報を得るべき領域を前記視線検出
手段の出力に基づいて選択する領域選択手段とを有する
視線検出機能付き機器において、観察者が同一個所を注
視した時の複数の視線位置情報を得るための注視点分布
演算手段と、該注視点分布演算手段の出力に基づいて、
前記領域選択手段にて選択されるべき領域の大きさ、あ
るいは領域の数とその大きさを可変する可変手段とを有
する視線検出機能付き機器とするものである。
In order to achieve the above object, the present invention provides a gaze detecting means for detecting a gaze of an observer and a plurality of screens of the device for controlling various operations of the device. In a device with a line-of-sight detection function having an area selection means for selecting an area from which information is to be obtained based on the output of the line-of-sight detection means, a plurality of pieces of line-of-sight position information when the observer gazes at the same place Gazing point distribution calculating means for obtaining, based on the output of the gazing point distribution calculating means,
A device with a line-of-sight detection function having a size of an area to be selected by the area selecting means, or a variable means for changing the number of areas and the size is provided.

【0013】[0013]

【発明の実施の形態】以下、本発明を図示の実施の形態
に基づいて詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on illustrated embodiments.

【0014】(実施の第1の形態)まず、本発明の実施
の第1の形態を、図1から図11を用いて説明する。
(First Embodiment) First, a first embodiment of the present invention will be described with reference to FIGS.

【0015】図1は本発明を一眼レフカメラに適用した
ときの実施の形態を示す要部構成図、図2(A),
(B)は図1の一眼レフカメラの上面及び背面を示す
図、図3は同じく図1の一眼レフカメラのファインダ内
を示す図である。
FIG. 1 is a schematic diagram showing a main part of an embodiment in which the present invention is applied to a single-lens reflex camera.
FIG. 3B is a diagram showing an upper surface and a rear surface of the single-lens reflex camera of FIG. 1, and FIG. 3 is a diagram showing an inside of a finder of the single-lens reflex camera of FIG.

【0016】図1において、1は撮影レンズであり、便
宜上2枚のレンズで示したが、実際はさらに多数のレン
ズから構成されている。2は主ミラーであり、ファイン
ダ系による被写体像の観察状態と被写体像の撮影状態に
応じて撮影光路へ斜設され或は退去される。3はサブミ
ラーであり、主ミラー2を透過した光束をカメラボディ
の下方の後述する焦点検出装置6へ向けて反射する。
In FIG. 1, reference numeral 1 denotes a photographing lens, which is shown by two lenses for convenience, but is actually composed of a larger number of lenses. Reference numeral 2 denotes a main mirror which is inclined or retreated to a photographing optical path depending on the state of observation of the subject image by the finder system and the state of photography of the subject image. Reference numeral 3 denotes a sub-mirror, which reflects a light beam transmitted through the main mirror 2 toward a later-described focus detection device 6 below the camera body.

【0017】4はシャッタである。5は感光部材であ
り、銀塩フィルム或はCCDやMOS型等の固体撮像素
子、或は、ビディコン等の撮像管より成っている。6は
焦点検出装置であり、結像面近傍に配置されたフィール
ドレンズ6a、反射ミラー6b及び6c、二次結像レン
ズ6d、絞り6e、複数のCCDから成るラインセンサ
6f等から構成されている。本例における焦点検出装置
6は周知の位相差方式にて焦点検出を行うものであり、
図3に示すように、被写界内の複数の領域(焦点検出領
域マーク70〜74で示される5箇所)を焦点検出領域
として、該焦点検出領域それぞれにて焦点検出可能とな
るように構成されている。
Reference numeral 4 denotes a shutter. Reference numeral 5 denotes a photosensitive member, which is formed of a silver halide film, a solid-state image pickup device such as a CCD or MOS type, or an image pickup tube such as a vidicon. Reference numeral 6 denotes a focus detection device, which includes a field lens 6a, reflection mirrors 6b and 6c, a secondary imaging lens 6d, a diaphragm 6e, a line sensor 6f including a plurality of CCDs, and the like, which are arranged in the vicinity of the image plane. . The focus detection device 6 in the present example performs focus detection by a well-known phase difference method.
As shown in FIG. 3, a plurality of areas (five points indicated by focus detection area marks 70 to 74) in the field of view are set as focus detection areas so that focus detection can be performed in each of the focus detection areas. Have been.

【0018】7は撮影レンズ1の予定結像面に配置され
たピント板、8はファインダ光路変更用のペンタプリズ
ムである。9,10は各々観察画面内の被写体輝度を測
定するための結像レンズと測光センサであり、結像レン
ズ9はペンタプリズム8内の反射光路を介してピント板
7と測光センサ10を共役に関係付けている。
Reference numeral 7 denotes a focusing plate arranged on a predetermined image forming plane of the photographing lens 1, and 8 denotes a pentaprism for changing a finder optical path. Reference numerals 9 and 10 denote an imaging lens and a photometric sensor for measuring the luminance of the subject in the observation screen, respectively. The imaging lens 9 conjugates the focusing plate 7 and the photometric sensor 10 via a reflection optical path in the pentaprism 8. Have a relationship.

【0019】11は、ペンタプリズム8の射出後方に配
置される、光分割器11aを備えた接眼レンズ11であ
り、撮影者の眼球15によるピント板7の観察に使用さ
れる。光分割器11aは、例えば可視光を透過し赤外光
を反射するダイクロイックミラーより成っている。
Reference numeral 11 denotes an eyepiece 11 provided behind the pentaprism 8 and having a light splitter 11a. The eyepiece 11 is used for observing the focus plate 7 with an eyeball 15 of a photographer. The light splitter 11a is composed of, for example, a dichroic mirror that transmits visible light and reflects infrared light.

【0020】上記の主ミラー2,ピント板7,ペンタプ
リズム8,接眼レンズ11によってファインダ光学系が
構成されている。
The main mirror 2, focus plate 7, pentaprism 8, and eyepiece 11 constitute a finder optical system.

【0021】12は結像レンズである。14はCCD等
の光電変換素子列を縦、横それぞれ80画素、100画
素の二次元的に配したイメージセンサ(CCD−EY
E)であり、結像レンズ12に関して所定の位置にある
撮影者の眼球15の瞳孔近傍と共役になるように配置さ
れており、結像レンズ12とイメージセンサ14(CC
D−EYE)にて視線検出を行うための受光手段を構成
している。13a〜13hは各々撮影者の眼球15の瞳
孔近傍を照明するための発光素子からなる照明手段であ
る。これら発光素子には、赤外発光ダイオード(以下、
IREDと記す)が用いられ、図2(B)に示すように
接眼レンズ11の回りに配置されており、一回の視線検
出時に発光するのは13aから13hの内のいづれかの
2個一組のIREDである。
Reference numeral 12 denotes an imaging lens. Reference numeral 14 denotes an image sensor (CCD-EY) in which a photoelectric conversion element array such as a CCD is two-dimensionally arranged with 80 pixels vertically and 100 pixels horizontally.
E), and is arranged so as to be conjugate with the vicinity of the pupil of the eyeball 15 of the photographer at a predetermined position with respect to the imaging lens 12, and the imaging lens 12 and the image sensor 14 (CC
D-EYE) constitutes a light receiving means for detecting the line of sight. Reference numerals 13a to 13h denote illumination means each including a light emitting element for illuminating the vicinity of the pupil of the eyeball 15 of the photographer. These light emitting devices include an infrared light emitting diode (hereinafter, referred to as an infrared light emitting diode).
2B, and is disposed around the eyepiece lens 11 as shown in FIG. 2B, and emits a light at the time of a single line-of-sight detection. IRED.

【0022】以上、受光手段と照明手段と前述のダイロ
イックミラー11aとによって視線検出装置が構成され
ている。
As described above, the eye-gaze detecting device is constituted by the light receiving means, the illuminating means, and the above-described dichroic mirror 11a.

【0023】21は明るい被写体の中でも視認できる高
輝度のスーパーインポーズ用LEDであり、ここから発
光された光は投光用プリズム22を介し、主ミラー2で
反射されてピント板7の表示部に設けた微小プリズムア
レイ7aで垂直方向に曲げられ、ペンタプリズム8、接
眼レンズ11を通って撮影者の眼15に達する。
Reference numeral 21 denotes a high-intensity superimposing LED that can be visually recognized even in a bright subject. Light emitted from the superimposing LED is reflected by the main mirror 2 through a light projecting prism 22 and is displayed on the focusing screen 7. Is bent in the vertical direction by the micro prism array 7a provided to the photographer, and reaches the photographer's eye 15 through the pentaprism 8 and the eyepiece 11.

【0024】つまり、図3に示したファインダ視野から
判かるように、各々の焦点検出領域マーク70〜74が
ファインダ視野内で光り、焦点検出領域を表示させるこ
とができるものである(以下、これをスーパーインポー
ズ表示という)。
That is, as can be seen from the finder visual field shown in FIG. 3, each of the focus detection area marks 70 to 74 shines in the finder visual field, so that the focus detection area can be displayed. Is called superimposed display).

【0025】図3において、左右の焦点検出領域マーク
70,74の内部には、ドットマーク70´,74´が
刻印されており、これは眼球の個人差による視線の検出
誤差を補正するための視線補正データを採取する(キャ
リブレーションと称されている)際の視標を示すもので
ある。
In FIG. 3, dot marks 70 'and 74' are engraved inside the left and right focus detection area marks 70 and 74, respectively, for correcting a line-of-sight detection error due to an individual difference of an eyeball. It shows a target when collecting line-of-sight correction data (referred to as calibration).

【0026】また、図3の破線で描かれた60から64
までの5つの領域は、視線検出によって演算された撮影
者の視線位置と前記5つの焦点検出領域を対応させるた
めに設定された視線有効領域であり、例えば演算された
視線位置が領域61内に存在していたら、該領域61内
の焦点検出領域マーク71に対応したCCD−L1セン
サ(後述)にて焦点検出が実行される。又視線有効領域
60から64は図1の測光センサ10の分割形状と概一
致しており、周辺領域65と合わせ測光センサ10は6
分割センサとなっている。なお詳細は後述するが、キャ
リブレーション時に得られる撮影者の注視点分布の度合
いに応じて上記5つの視線有効領域は3つの領域に変更
される場合があり、この場合は視線位置に対応して3つ
の領域の中から1つの領域が選択され焦点検出が実行さ
れる。
Further, 60 to 64 drawn by broken lines in FIG.
The five areas up to are eye-gaze effective areas set in order to associate the photographer's gaze position calculated by gaze detection with the five focus detection areas. For example, the calculated gaze position is within the area 61. If there is, focus detection is performed by a CCD-L1 sensor (described later) corresponding to the focus detection area mark 71 in the area 61. The line-of-sight effective areas 60 to 64 substantially match the divided shape of the photometric sensor 10 in FIG.
It is a split sensor. Although the details will be described later, the five visual line effective areas may be changed to three areas according to the degree of the photographer's gazing point distribution obtained at the time of calibration. One area is selected from the three areas, and focus detection is performed.

【0027】図3のファインダ画面下部において、51
はシャッタ速度表示、52は絞り値表示のセグメント、
50は視線入力状態であることを示す視線入力マーク、
53は撮影レンズ1の合焦状態を示す合焦マークであ
る。24はファインダ視野外に撮影情報を表示するため
のファインダ内LCD(以下、F−LCDとも記す)
で、照明用LED25によって照明される。
At the bottom of the finder screen in FIG.
Is a shutter speed display, 52 is an aperture value display segment,
50 is a line-of-sight input mark indicating that it is in a line-of-sight input state;
Reference numeral 53 denotes a focusing mark indicating the focusing state of the taking lens 1. Reference numeral 24 denotes an LCD in the finder for displaying photographing information outside the finder field of view (hereinafter also referred to as F-LCD).
The illumination is performed by the illumination LED 25.

【0028】上記F−LCD24を透過した光は三角プ
リズム26によって、図3の24で示したようにファイ
ンダ視野外に導かれ、撮影者は各種の撮影情報を知るこ
とができる。
The light transmitted through the F-LCD 24 is guided by the triangular prism 26 to the outside of the viewfinder as shown in FIG. 3 so that the photographer can know various photographing information.

【0029】図1に戻って、31は撮影レンズ1内に設
けた絞り、32は絞り駆動回路111を含む絞り駆動装
置、33はレンズ駆動用モータ、34は駆動ギヤ等から
成るレンズ駆動部材である。35はフォトカプラであ
り、前記レンズ駆動部材34に連動するパルス板36の
回転を検知してレンズ焦点調節回路110に伝えてお
り、該焦点調節回路110は、この情報とカメラ側から
のレンズ駆動量の情報に基づいて前記レンズ駆動用モー
タ33を所定量駆動させ、撮影レンズ1を合焦位置に移
動させるようになっている。37は公知のカメラとレン
ズとのインターフェイスとなるマウント接点である。
Returning to FIG. 1, reference numeral 31 denotes an aperture provided in the taking lens 1, reference numeral 32 denotes an aperture driving device including an aperture driving circuit 111, reference numeral 33 denotes a lens driving motor, and reference numeral 34 denotes a lens driving member including a driving gear and the like. is there. Reference numeral 35 denotes a photocoupler which detects rotation of the pulse plate 36 interlocked with the lens driving member 34 and transmits the rotation to the lens focus adjustment circuit 110. The focus adjustment circuit 110 uses this information to drive the lens from the camera. The lens driving motor 33 is driven by a predetermined amount based on the information on the amount, and the photographing lens 1 is moved to a focusing position. Reference numeral 37 denotes a mount contact which serves as an interface between a known camera and a lens.

【0030】27は水銀スイッチ等の姿勢検出スイッチ
であり、カメラが横位置で構えられたか、縦位置で構え
られたかを検出するものである。
Reference numeral 27 denotes a posture detection switch such as a mercury switch, which detects whether the camera is held in a horizontal position or a vertical position.

【0031】図2(a),(b)において、41はレリ
ーズ釦である。42は外部モニター表示装置としてのモ
ニター用LCDで、予め決められたパターンを表示する
固定セグメント表示部と、可変数値表示用の7セグメン
ト表示部とから成っている。44はモードダイヤルであ
り、撮影モード等の選択を行うためのものである。カメ
ラ本体に刻印された指標43を表示に合わせる事によっ
て、その表示内容で撮影モードが設定される。例えば、
カメラを不作動とするロックポジション、予め設定した
撮影プログラムによって制御される自動撮影モードのポ
ジション、撮影者が撮影内容を認定できるマニュアル撮
影モードで、プログラムAE、シャッタ優先AE、絞り
優先AE、被写体深度優先AE、マニュアル露出の各撮
影モードが設定可能である。また、視線入力用の「CA
L」ポジションもモードダイヤル44中にあり、「CA
L」ポジションにして、後述の電子ダイヤル45を操作
する事により、視線入力のON,OFF、そしてキャリ
ブレーションの実行及び選択を行うことができる。
In FIGS. 2A and 2B, reference numeral 41 denotes a release button. Reference numeral 42 denotes a monitor LCD as an external monitor display device, which comprises a fixed segment display section for displaying a predetermined pattern and a 7-segment display section for displaying a variable numerical value. Reference numeral 44 denotes a mode dial for selecting a shooting mode and the like. By matching the indicator 43 engraved on the camera body with the display, the shooting mode is set based on the displayed content. For example,
Locking position to deactivate the camera, position in automatic shooting mode controlled by a preset shooting program, manual shooting mode in which the photographer can certify shooting contents, program AE, shutter priority AE, aperture priority AE, depth of field Each shooting mode of priority AE and manual exposure can be set. In addition, "CA"
The "L" position is also in the mode dial 44, and the "CA"
By operating the electronic dial 45 described later in the "L" position, it is possible to turn on / off the line-of-sight input, and execute and select the calibration.

【0032】45は電子ダイヤルであり、回転してクリ
ックパルスを発生させることによってモードダイヤル4
4で選択されたモードの中でさらに選択されたモードの
中でさらに選択し得る設定値を選択する為のものであ
る。例えば、モードダイヤル44にてシャッタ優先の撮
影モードを選択すると、ファインダ内LCD24及びモ
ニター用LCD42には、現在設定されているシャッタ
速度が表示される。この表示を見て、撮影者が電子ダイ
ヤル45を回転させると、その回転方向にしたがって現
在設定されているシャッタ速度から順次シャッタ速度が
変化していくように構成されている。
Reference numeral 45 denotes an electronic dial, which is rotated to generate a click pulse, so that the mode dial 4
This is for selecting a set value that can be further selected from among the modes further selected from among the modes selected in Step 4. For example, when a shooting mode with shutter priority is selected with the mode dial 44, the currently set shutter speed is displayed on the LCD 24 in the viewfinder and the LCD 42 for monitoring. When the photographer rotates the electronic dial 45 while watching this display, the shutter speed is sequentially changed from the currently set shutter speed according to the rotation direction.

【0033】その他の操作部材については、本発明とは
直接関係ないのでその説明は省略する。
The other operation members are not directly related to the present invention, and the description is omitted.

【0034】図4は上記構成の一眼レフカメラに内蔵さ
れた電気的構成を示すブロック図であり、図1と同一の
ものは同一番号を付している。
FIG. 4 is a block diagram showing an electrical configuration incorporated in the single-lens reflex camera having the above-described configuration. The same components as those in FIG. 1 are denoted by the same reference numerals.

【0035】カメラ本体に内蔵されたマイクロコンピュ
ータの中央処理装置(以下、CPUと記す)100に
は、視線検出回路101、測光回路102、自動焦点検
出回路103、信号入力回路104、LCD駆動回路1
05、LED駆動回路106、IRED駆動回路10
7、シャッタ制御回路108、モータ制御回路109が
接続されている。また、撮影レンズ1内に配置された焦
点調節回路110、絞り駆動回路111とは、図1で示
したマウント接点37を介して信号の伝達がなされる。
A central processing unit (hereinafter referred to as a CPU) 100 of a microcomputer built in the camera body includes a line-of-sight detection circuit 101, a photometry circuit 102, an automatic focus detection circuit 103, a signal input circuit 104, an LCD drive circuit 1
05, LED drive circuit 106, IRED drive circuit 10
7, a shutter control circuit 108 and a motor control circuit 109 are connected. Further, signals are transmitted to the focus adjustment circuit 110 and the aperture driving circuit 111 disposed in the taking lens 1 via the mount contact 37 shown in FIG.

【0036】CPU100に付随したEEPROM10
0aは記憶手段としての視線の個人差を補正する視線補
正データの記憶機能を有している。
EEPROM 10 attached to CPU 100
Reference numeral 0a has a storage function of a line of sight correction data for correcting an individual difference in line of sight as storage means.

【0037】前記視線検出回路101は、イメージセン
サ14(CCD−EYE)からの眼球像の信号をA/D
変換し、この像情報をCPU100に送信する。CPU
100は視線検出に必要な眼球像の各特徴点を所定のア
ルゴリズムにしたがって抽出し、さらに各特徴点の位置
から撮影者の視線を算出する。前記測光回路102は、
測光センサ10からの信号を増幅後、対数圧縮、A/D
変換し、各センサの輝度情報としてCPU100に送信
する。前記測光センサ10は、ファインダ画面内の6つ
の領域(図3の領域60から65に対応)を測光するS
PC−L2,SPC−L1,SPC−C,SPC−R
1,SPC−R2、SPC−Mから成る6つのフォトダ
イオードから構成されており、いわゆる分割測光が可能
である。
The eye-gaze detecting circuit 101 converts an eyeball image signal from the image sensor 14 (CCD-EYE) into an A / D signal.
The image information is converted and transmitted to the CPU 100. CPU
100 extracts each feature point of the eyeball image required for gaze detection according to a predetermined algorithm, and further calculates the gaze of the photographer from the position of each feature point. The photometric circuit 102
After amplifying the signal from the photometric sensor 10, logarithmic compression, A / D
The data is converted and transmitted to the CPU 100 as luminance information of each sensor. The photometry sensor 10 measures the light in six areas (corresponding to the areas 60 to 65 in FIG. 3) in the finder screen.
PC-L2, SPC-L1, SPC-C, SPC-R
It is composed of six photodiodes consisting of 1, SPC-R2 and SPC-M, and is capable of so-called split photometry.

【0038】ラインセンサ6fは、前述の図3に示し
た、画面内の5つの焦点検出領域に対応した5組のライ
ンセンサCCD−L2,CCD−L1,CCD−C,C
CD−R1,CCD−R2から構成される公知のCCD
ラインセンサである。前記自動焦点検出回路103は、
上記のラインセンサ6fから得た電圧をA/D変換し、
CPU100に送る。
The line sensor 6f comprises five sets of line sensors CCD-L2, CCD-L1, CCD-C, C corresponding to the five focus detection areas in the screen shown in FIG.
A known CCD composed of a CD-R1 and a CCD-R2
It is a line sensor. The automatic focus detection circuit 103 includes:
A / D converting the voltage obtained from the line sensor 6f,
Send to CPU100.

【0039】SW1はレリーズ釦41の第1ストローク
でONし、測光、AF、視線検出動作等を開始させる為
のスイッチ、SW2はレリーズ釦41の第2ストローク
でONするレリーズスイッチである。SW−DIALI
とSW−DIAL2は、既に説明した電子ダイヤル45
内に設けられたダイヤルスイッチであり、信号入力回路
104のアップダウンカウンタに入力され、電子ダイヤ
ル45の回転クリック量をカウントする。SW−HV
1,SW−HV2は姿勢検出スイッチ27に相当する姿
勢検出スイッチであり、この信号を基にカメラの姿勢状
態が検出される。
SW1 is a switch which is turned on by the first stroke of the release button 41 to start photometry, AF, line-of-sight detection operation, etc., and SW2 is a release switch which is turned on by the second stroke of the release button 41. SW-DIALI
And SW-DIAL2 are the electronic dial 45 already described.
The dial switch is provided in the inside, and is input to an up / down counter of the signal input circuit 104, and counts a rotation click amount of the electronic dial 45. SW-HV
1, SW-HV2 is a posture detection switch corresponding to the posture detection switch 27, and the posture state of the camera is detected based on this signal.

【0040】これらスイッチの状態信号入力回路104
に入力され、データバスによってCPU100に送信さ
れる。
The state signal input circuit 104 of these switches
And transmitted to the CPU 100 via the data bus.

【0041】前記LCD駆動回路105は、液晶表示素
子であるLCDを表示駆動させるための公知の構成より
成るもので、CPU100からの信号に従い、絞り値、
シャッタ秒時、設定した撮影モード等の表示をモニター
用LCD42とファインダ内LCD(F−LCD)24
の両方に同時に表示させることができる。前記LED駆
動回路106は、照明用LED(F−LED)25とス
ーパーインポーズ用LED21を点灯,点滅制御する。
前記IRED駆動回路107は、CPU100の指示に
従ってIRED13a〜13hを選択的に点灯させた
り、該IRED13a〜13hへの出力電流値(あるい
はパルス数)を変化させて照明パワーを制御する。
The LCD drive circuit 105 has a well-known configuration for driving and driving an LCD which is a liquid crystal display element.
At the time of shutter release, the display of the set photographing mode and the like are displayed on the monitor LCD 42 and the LCD (F-LCD) 24 in the viewfinder.
Can be displayed at the same time. The LED drive circuit 106 controls lighting and blinking of the illumination LED (F-LED) 25 and the superimposition LED 21.
The IRED drive circuit 107 controls the illumination power by selectively turning on the IREDs 13a to 13h or changing the output current value (or the number of pulses) to the IREDs 13a to 13h in accordance with an instruction from the CPU 100.

【0042】前記シャッタ制御回路108は、通電する
と先幕を走行させるマグネットMG−1と、後幕を走行
させるマグネットMG−2を制御し、感光部材に所定光
量を露光させる。前記モータ制御回路109は、フィル
ムの巻き上げ、巻き戻しを行うモータM1と主ミラー2
及びシャッタ4のチャージを行うモータM2を制御する
ためのものである。
The shutter control circuit 108 controls the magnet MG-1 for running the front curtain and the magnet MG-2 for running the rear curtain when energized, and exposes the photosensitive member to a predetermined amount of light. The motor control circuit 109 includes a motor M1 for winding and rewinding the film and a main mirror 2
And for controlling the motor M2 for charging the shutter 4.

【0043】上記シャッタ制御回路108とモータ制御
回路109によって、一連のカメラのレリーズシーケン
ス動作する。
The shutter control circuit 108 and the motor control circuit 109 perform a series of camera release sequence operations.

【0044】次に、視線検出装置を有した上記構成のカ
メラの動作について、図5のフローチャートを用いて説
明する。
Next, the operation of the camera having the above configuration having the visual axis detection device will be described with reference to the flowchart of FIG.

【0045】モードダイヤル44を回転させてカメラを
不作動状態から所定の撮影モードに設定すると(この実
施の形態では、シャッタ優先AEに設定された場合をも
とに説明する)、カメラの電源がONされ(ステップ#
100)、CPU100のEEPROM100aに記憶
された視線のキャリブレーションデータ以外の視線検出
に使われる変数がリセットされる(ステップ#10
1)。そして、カメラはレリーズ釦41が押し込まれて
スイッチSW1がONされるまで待機する(ステップ#
102)。
When the mode dial 44 is turned to set the camera from a non-operation state to a predetermined shooting mode (this embodiment will be described based on a case where the shutter priority AE is set), the power of the camera is turned off. ON (Step #
100), variables used for line-of-sight detection other than line-of-sight calibration data stored in the EEPROM 100a of the CPU 100 are reset (step # 10).
1). Then, the camera waits until the release button 41 is pressed and the switch SW1 is turned on (step #).
102).

【0046】レリーズ釦41が押し込まれてスイッチS
W1がONされたことを信号入力回路104が検出する
と、6秒間の測光タイマが作動し、その間カメラは連続
的に測光センサ10と測光回路102、CPU100は
カメラの被写界光の測光値取り込み及び演算を繰り返
し、ファインダ内F−LCD24と外部モニター用LC
D42に常に最新の測光演算値、つまりシャッタ秒時の
表示51と撮影レンズの絞り値表示52を行う。
When the release button 41 is depressed and the switch S
When the signal input circuit 104 detects that W1 has been turned on, the photometric timer for 6 seconds operates, during which the camera continuously operates the photometric sensor 10 and the photometric circuit 102, and the CPU 100 captures the photometric value of the scene light of the camera. And the calculation are repeated, and the F-LCD 24 in the finder and the LC for external monitor
In D42, the latest photometric calculation value, that is, the display 51 of the shutter speed and the aperture value display 52 of the photographing lens are always displayed.

【0047】上記スイッチSW1がONし、測光タイマ
が作動すると同時にCPU100は図2のモードダイヤ
ル44の設定が視線入力がONかOFFの何れにセット
されているのかを信号入力回路104を通じて検知する
(ステップ#103)。ここで、視線入力OFF、つま
り視線禁止モードに設定されているか、あるいは後述の
視線検出が不成功であった場合は視線情報を用いずに焦
点検出領域自動選択サブルーチンによって特定の焦点検
出領域を選択する(ステップ#116)。そして、この
焦点検出領域において自動焦点検出回路103は焦点検
出動作を行う(ステップ#107)。
At the same time when the switch SW1 is turned on and the photometric timer is activated, the CPU 100 detects through the signal input circuit 104 whether the setting of the mode dial 44 in FIG. 2 is set to ON or OFF. Step # 103). Here, if the line-of-sight input is OFF, that is, the line-of-sight prohibition mode is set, or if the line-of-sight detection described later is unsuccessful, a specific focus detection region is selected without using line-of-sight information by the focus detection region automatic selection subroutine. (Step # 116). Then, in this focus detection area, the automatic focus detection circuit 103 performs a focus detection operation (Step # 107).

【0048】焦点検出領域自動選択のアルゴリズムとし
てはいくつかの方法が考えられるが、多点AFカメラで
は公知となっている中央焦点検出領域に重み付けを置い
た近点優先アルゴリズムが有効である。
Several methods can be considered as an algorithm for automatic selection of a focus detection area, but a near-point priority algorithm in which weighting is applied to a central focus detection area, which is known for a multipoint AF camera, is effective.

【0049】上記ステップ#103にてカメラの動作モ
ードが視線検出動作を実行する視線検出モードに設定さ
れている時は、視線検出を行う際にどのキャリブレーシ
ョンデータを使用するかを視線検出回路101に確認す
る。さらに、前記キャリブレーションデータナンバーに
対応する視線のキャリブレーションデータが所定の値に
設定されていてそのデータが撮影者により入力されたも
のであることが認識されると、視線検出回路101はそ
のキャリブレーションデータにしたがって視線検出を実
行し、視線はピント板7上の視線位置座標に変換される
(ステップ#104)。
When the operation mode of the camera is set to the line-of-sight detection mode in which the line-of-sight detection operation is performed in step # 103, the line-of-sight detection circuit 101 determines which calibration data is used in line-of-sight detection. To confirm. Further, when the gaze calibration data corresponding to the calibration data number is set to a predetermined value and it is recognized that the data is input by the photographer, the gaze detection circuit 101 performs the calibration. The line of sight is detected in accordance with the application data, and the line of sight is converted into the coordinates of the line of sight on the focus plate 7 (step # 104).

【0050】上記ステップ#104の視線検出動作につ
いての詳細は後述するとして、次に上記ステップ#10
4で検出された視線検出は成功か否かの判定にかけられ
る(ステップ#105)。ここでの判定条件は、角膜反
射像であるプルキンエ像及び瞳孔中心位置の信頼性及び
眼球の回転角等である。この結果、不成功ならばステッ
プ#116の焦点検出領域自動選択サブルーチンに進
む。また、視線検出が成功ならば、CPU100は該視
線位置座標が属する5つまたは3つの視線有効領域に対
応した焦点検出領域を選択する(ステップ#106)。
そして、自動焦点検出回路103はステップ#106あ
るいはステップ#116にて選択がなされた焦点検出領
域での焦点検出を実行する(ステップ#107)。
The details of the line-of-sight detection operation in step # 104 will be described later.
The gaze detection detected in step 4 is performed to determine whether it is successful (step # 105). The determination conditions here include the Purkinje image, which is a corneal reflection image, the reliability of the pupil center position, the rotation angle of the eyeball, and the like. As a result, if unsuccessful, the process proceeds to a focus detection area automatic selection subroutine of step # 116. If the gaze detection is successful, the CPU 100 selects a focus detection area corresponding to five or three gaze effective areas to which the gaze position coordinates belong (step # 106).
Then, the automatic focus detection circuit 103 executes focus detection in the focus detection area selected in step # 106 or step # 116 (step # 107).

【0051】次に、レンズ駆動を行う前の状態でCCD
ラインセンサの信号から、上記フローにより選択された
焦点検出領域の焦点検出が可能か否かの判定が行われ
(ステップ#108)、焦点検出が可能であれば、CP
U100はレンズ焦点調節回路110に信号を送って所
定量撮影レンズ1を駆動させる(ステップ#109)。
Next, before driving the lens, the CCD
It is determined from the signal of the line sensor whether or not the focus detection of the focus detection area selected by the above flow is possible (step # 108).
U100 sends a signal to the lens focus adjustment circuit 110 to drive the photographing lens 1 by a predetermined amount (step # 109).

【0052】さらに撮影レンズ駆動後の所定の焦点検出
領域において撮影レンズ1が合焦しているか否かの判定
が行われ(ステップ#110)、合焦していたならば、
CPU100はLCD駆動回路105に信号を送ってフ
ァインダ内LCD24の合焦マーク53を点灯させると
ともに、LED駆動回路106にも信号を送って合焦し
ている焦点検出領域に対応したスーパーインポーズ用L
ED21を点灯させ、該焦点検出領域を光らせることで
合焦表示させる(ステップ#111)。
Further, it is determined whether or not the photographing lens 1 is in focus in a predetermined focus detection area after driving the photographing lens (step # 110).
The CPU 100 sends a signal to the LCD drive circuit 105 to turn on the focus mark 53 of the LCD 24 in the finder, and also sends a signal to the LED drive circuit 106 to output a superimposing L corresponding to the focused focus detection area.
The ED 21 is turned on, and the focus detection area is illuminated to display an in-focus state (step # 111).

【0053】上記ステップ#108にて焦点検出判定に
て不能と判定されるか、あるいはステップ#110にて
レンズ駆動後に合焦判定で合焦失敗と判定された場合
は、CPU100はLCD駆動回路105に信号を送っ
てファインダ内LCD24の合焦マーク53を点滅さ
せ、被写体にピントを合わせることができなかったこと
を知らしめ(ステップ#117)、再度スイッチSW1
が一旦OFFし、再度ONするのを待つ(ステップ#1
18)。
If it is determined in step # 108 that the focus detection is not possible, or if it is determined in step # 110 that the focusing has failed after the lens is driven, then the CPU 100 drives the LCD drive circuit 105 To make the focus mark 53 on the LCD 24 in the viewfinder blink, indicating that the subject could not be focused (step # 117), and again switch SW1
Turns off once and waits for it to turn on again (step # 1).
18).

【0054】ここでステップ#111に戻ると、 撮影
レンズ1の合焦表示がなされた後、CPU100はステ
ップ#102でONした測光タイマの状態が引き続きO
Nしているか否かの検知を行う(ステップ#112)。
ここで合焦した焦点検出領域がファインダ内に表示され
たのを撮影者が見て、その焦点検出領域が正しくない、
あるいは撮影を中止すると判定してレリーズ釦41から
手を離し、スイッチSW1がOFFされるとステップ#
102に戻り、スイッチSW1のON待ちとなる。
Here, when the flow returns to step # 111, after the in-focus display of the photographic lens 1 is made, the CPU 100 keeps the state of the photometry timer turned on in step # 102 as O.
It is detected whether or not N is performed (step # 112).
The photographer sees that the focused focus detection area is displayed in the viewfinder, and the focus detection area is incorrect.
Alternatively, when it is determined that the photographing is to be stopped, the hand is released from the release button 41, and when the switch SW1 is turned off, step # is performed.
The process returns to step 102, where the switch SW1 is turned on.

【0055】一方、撮影者が合焦表示された焦点検出領
域を見て、引き続きスイッチSW1をONし続けられて
いるならば、CPU100は測光回路102に被写界輝
度の測定を実行させ、カメラの露出値を決定させる(ス
テップ#113)。さらにレリーズ釦41を押し込んで
スイッチSW2がONされたならば(ステップ#11
4)、CPU100はシャッタ制御回路108、モータ
制御回路109、及び、絞り駆動回路111にそれぞれ
信号を送信して、公知のシャッタレリーズ動作を行う
(ステップ#115)。
On the other hand, if the photographer looks at the focus detection area displayed in focus and continues to turn on the switch SW1, the CPU 100 causes the photometric circuit 102 to execute the measurement of the field luminance, and Is determined (step # 113). If the switch SW2 is turned on by further pressing the release button 41 (step # 11)
4), the CPU 100 transmits a signal to each of the shutter control circuit 108, the motor control circuit 109, and the aperture drive circuit 111 to perform a known shutter release operation (step # 115).

【0056】具体的には、まず、モータ制御回路109
を介してモータM2に通電して主ミラー2をアップさ
せ、絞り31を絞り込んだ後、マグネットMG−1に通
電し、シャッタ4の先幕を開放する。絞り31の絞り値
及びシャッタ4のシャッタスピードは、前記測光回路1
02にて検出された露出値とフィルム5の感度から決定
される。所定のシャッタ秒時(1/125秒)経過後、
マグネットMG−2に通電し、シャッタ4の後幕を閉じ
る。フィルム5への露光が終了すると、モータM2に再
度通電し、ミラーダウン、シャッタチャージを行うとと
もにフィルム給送用のモータM1にも通電し、フィルム
の駒送りを行い、一連のシャッタレリーズシーケンスの
動作が終了する。
Specifically, first, the motor control circuit 109
Then, the motor M2 is energized to raise the main mirror 2 and the aperture 31 is stopped down. Then, the magnet MG-1 is energized to open the front curtain of the shutter 4. The aperture value of the aperture 31 and the shutter speed of the shutter 4 are determined by the photometric circuit 1
02 is determined from the exposure value detected and the sensitivity of the film 5. After the lapse of a predetermined shutter time (1/125 seconds),
The magnet MG-2 is energized, and the rear curtain of the shutter 4 is closed. When the exposure of the film 5 is completed, the motor M2 is energized again to perform mirror down and shutter charging, and is also energized to the film feeding motor M1 to feed the film frame, thereby performing a series of shutter release sequence operations. Ends.

【0057】その後、カメラは再びスイッチSW1がO
Nされるまで待機する(ステップ#102)。
After that, the camera turns on the switch SW1 again.
It waits until N is reached (step # 102).

【0058】図6は、視線検出動作アルゴリズムを示す
フローチャートである。
FIG. 6 is a flow chart showing the gaze detection operation algorithm.

【0059】図6において、前述のように視線検出回路
101は、CPU100より信号を受け取ると視線検出
を実行する(ステップ#104)。視線検出回路101
は撮影モードの中での視線検出かあるいは視線のキャリ
ブレーションモードの中での視線検出かの判定を行う
(ステップ#200)。
In FIG. 6, as described above, the line-of-sight detection circuit 101 executes line-of-sight detection upon receiving a signal from the CPU 100 (step # 104). Eye-gaze detection circuit 101
Determines whether the gaze is detected in the photographing mode or the gaze is detected in the gaze calibration mode (step # 200).

【0060】実際には、図2のモードダイヤル44が視
線検出動作のためのキャリブレーションモードに設定さ
れていた場合は、後述するキャリブレーション(CA
L)動作(ステップ#300)を実行する。
Actually, when the mode dial 44 in FIG. 2 is set to the calibration mode for the line-of-sight detection operation, a calibration (CA
L) Perform the operation (Step # 300).

【0061】モードダイヤル44には視線検出モードの
設定があり、この設定位置で、3人分のキャリブレーシ
ョンデータを登録、実行が可能となるキャリブレーショ
ンデータナンバー1、2、3と、視線検出を実行しない
OFFの計4つのポジション設定が図2の電子ダイヤル
45の操作で可能である。
The mode dial 44 has a line-of-sight detection mode setting. At this set position, calibration data numbers 1, 2, and 3 for registering and executing calibration data for three persons and line-of-sight detection are set. A total of four positions that are not executed can be set by operating the electronic dial 45 in FIG.

【0062】そこで、カメラがキャリブレーションモー
ドに設定されていない場合、視線検出回路101はカメ
ラが現在どのキャリブレーションデータナンバーに設定
されているかを認識する。
Therefore, when the camera is not set to the calibration mode, the line-of-sight detection circuit 101 recognizes which calibration data number the camera is currently set to.

【0063】続いて視線検出回路101は、撮影モード
での視線検出の場合はまず最初にカメラがどのような姿
勢になっているかを信号入力回路104を介して検出す
る(ステップ#201)。信号入力回路104は図1中
の姿勢検出スイッチ27(SW−ANG)の出力信号を
処理してカメラが横位置であるか縦位置であるか、また
縦位置である場合は例えばレリーズ釦41が天方向にあ
るか地(面)方向にあるか判定する。
Subsequently, in the case of gaze detection in the photographing mode, the gaze detection circuit 101 first detects the attitude of the camera via the signal input circuit 104 (step # 201). The signal input circuit 104 processes the output signal of the attitude detection switch 27 (SW-ANG) in FIG. 1 to determine whether the camera is in the horizontal position or the vertical position. If the camera is in the vertical position, for example, the release button 41 is pressed. It is determined whether it is in the top direction or the ground (plane) direction.

【0064】次に、先に検出されたカメラの姿勢情報と
キャリブレーションデータに含まれる撮影者の眼鏡情報
よりIRED13a〜13hの選択を行う(ステップ#
202)。すなわち、カメラが横位置に構えられ、撮影
者が眼鏡をかけていなかったならば、図2(b)に示す
IRED13a,13bが選択される。また、カメラが
横位置で、撮影者が眼鏡をかけていれば、撮影者の眼鏡
反射光の影響が少なくなるように、IRED13a,1
3bの間隔よりもさらに間隔の広い13c,13dのI
REDが選択される。
Next, the IREDs 13a to 13h are selected based on the camera attitude information detected earlier and the photographer's eyeglass information included in the calibration data (step #).
202). That is, if the camera is held in the horizontal position and the photographer does not wear glasses, the IREDs 13a and 13b shown in FIG. 2B are selected. Also, if the camera is in the horizontal position and the photographer wears glasses, the IREDs 13a, 1a, 1a, 1a, 1a, 1b are arranged so that the influence of the reflected light of the photographer's glasses decreases.
Ic of 13c and 13d wider than the interval of 3b
RED is selected.

【0065】又カメラが、例えばレリーズ釦41が天方
向にあるか地(面)方向に縦位置で構えられていたなら
ば、撮影者の眼球を下方から照明するようなIREDの
組み合わせ、すなわち撮影者が眼鏡をかけていなかった
ならば、13a,13fを、撮影者が眼鏡をかけていれ
ば、13c,13eの組み合わせが選択される。
If the camera is held, for example, with the release button 41 in the top direction or in the vertical position in the ground (plane) direction, a combination of IREDs that illuminates the photographer's eyeball from below, that is, shooting If the user does not wear glasses, 13a and 13f are selected, and if the photographer wears glasses, a combination of 13c and 13e is selected.

【0066】次に、イメージセンサ14(以下、CCD
−EYEと記す)の本蓄積に先だって予備蓄積が行われ
る(ステップ#203)。上記CCD−EYE14の予
備蓄積というのは、本蓄積の直前に一定時間、たとえば
1msと蓄積時間を決めて常に像信号を取り込むこと
で、その信号レベルの強弱に応じて実際の眼球像取り込
みの蓄積時間を制御することで、安定した眼球像信号を
得ることが可能となる。つまり、予備蓄積の像信号出力
に基づいて、観察者の眼球近傍の明るさ(外光量)が測
定される(ステップ#204)。
Next, the image sensor 14 (hereinafter referred to as CCD)
Preliminary accumulation is performed prior to the actual accumulation of (−EYE) (step # 203). The pre-accumulation of the CCD-EYE 14 means that an image signal is always taken in after a fixed time, for example, 1 ms, is determined immediately before the main accumulation, and the actual accumulation of the eyeball image is made according to the level of the signal level. By controlling the time, a stable eyeball image signal can be obtained. That is, the brightness (external light amount) near the eyeball of the observer is measured based on the image signal output of the preliminary accumulation (step # 204).

【0067】次に、CCD−EYE14の蓄積時間及び
IREDの照明パワーが、ステップ#204の外光量あ
るいは眼鏡装着か否かの情報等に基づいて設定される
(ステップ#205)。上記CCD−EYE14の蓄積
時間及びIREDの照明パワーが設定されると、CPU
100はIRED駆動回路107を介してIRED13
を所定のパワーで点灯させるとともに、視線検出回路1
01はCCD−EYE14の蓄積を開始する(ステップ
#206)。また、先に設定されたCCD−EYE14
の蓄積時間にしたがってここでの蓄積を終了し、それと
ともにIRED13も消灯される。
Next, the accumulation time of the CCD-EYE 14 and the illumination power of the IRED are set based on the external light amount in step # 204 or information on whether or not the glasses are worn (step # 205). When the accumulation time of the CCD-EYE 14 and the illumination power of the IRED are set, the CPU
Reference numeral 100 denotes an IRED 13 via an IRED drive circuit 107.
Is turned on at a predetermined power, and the gaze detection circuit 1 is turned on.
01 starts accumulation of the CCD-EYE 14 (step # 206). In addition, the CCD-EYE14 set earlier is used.
The accumulation here is terminated according to the accumulation time, and the IRED 13 is also turned off.

【0068】次に、CCD−EYE14にて蓄積された
像信号は順次読み出され、視線検出回路101でA/D
変換された後にCPU100にメモリされる(ステップ
#207)。
Next, the image signals stored in the CCD-EYE 14 are sequentially read out, and the eye-gaze detecting circuit 101 performs A / D conversion.
After the conversion, it is stored in the CPU 100 (step # 207).

【0069】ここで簡単に視線検出の原理について、図
7及び図8を用いて説明する。
Here, the principle of gaze detection will be briefly described with reference to FIGS. 7 and 8. FIG.

【0070】図7はCCD−EYE14の眼球像信号を
画像化したもので、図8中の眼球15の角膜16におい
て、仮にIRED13aと13bが発光することで、図
7及び図8に示すプルキンエ19a,19bが生じる。
また、17は虹彩、18は瞳孔である。
FIG. 7 is an image of an eyeball image signal of the CCD-EYE 14. The IREDs 13a and 13b emit light at the cornea 16 of the eyeball 15 in FIG. 8, and the Purkinje 19a shown in FIGS. , 19b.
Reference numeral 17 denotes an iris, and reference numeral 18 denotes a pupil.

【0071】図6に戻り、これらの像信号に対して公知
であるところの視線検出処理が行われる(ステップ#2
08)。すなわち、CPU100において、眼球の照明
に使用された1組のIRED13a,13bの虚像であ
るプルキンエ像19a,19bの位置が検出される。
Returning to FIG. 6, known line-of-sight detection processing is performed on these image signals (step # 2).
08). That is, the CPU 100 detects the positions of the Purkinje images 19a and 19b, which are virtual images of the pair of IREDs 13a and 13b used for illuminating the eyeball.

【0072】前述の通り、プルキンエ像19a,19b
は光強度の強い輝点として現れるため、光強度に対する
所定の閾値を設け、該閾値を超える光強度のものをプル
キンエ像とすることにより検出可能である。また、瞳孔
の中心位置は瞳孔18と虹彩17の境界点を複数検出
し、各境界点を基に円の最小二乗近似を行うことにより
算出される。これらプルキンエ像位置と瞳孔中心位置と
から眼球における回転角度θが求まり、さらに2つのプ
ルキンエ像19の間隔からカメラの接眼レンズ11と撮
影者の眼球15との距離が算出され、CCD−EYE1
4に投影された眼球像の結像倍率βを得ることができ
る。
As described above, Purkinje images 19a and 19b
Appears as a bright spot having a high light intensity. Therefore, a predetermined threshold value for the light intensity is provided, and a light intensity exceeding the threshold value can be detected as a Purkinje image. The center position of the pupil is calculated by detecting a plurality of boundary points between the pupil 18 and the iris 17 and performing a least square approximation of a circle based on each boundary point. The rotation angle θ of the eyeball is determined from the Purkinje image position and the pupil center position, and the distance between the eyepiece 11 of the camera and the photographer's eyeball 15 is calculated from the interval between the two Purkinje images 19.
Thus, the imaging magnification β of the eyeball image projected on the image No. 4 can be obtained.

【0073】以上のことから、眼球の回転角度θと結像
倍率β、さらにキャリブレーションで得られた個人差補
正情報を用いて、撮影者の視線方向のピント板7上の位
置座標を求めることができる。
From the above, the position coordinates on the focus plate 7 in the line of sight of the photographer are determined using the rotation angle θ of the eyeball, the imaging magnification β, and the individual difference correction information obtained by the calibration. Can be.

【0074】次のステップ#209にて、視線位置が決
まると、図5のステップ#105の視線にて領域選択を
行うか否かの判定を行う動作へ戻り、視線位置に対応し
た視線有効領域が決定し、さらに該領域に対応した焦点
検出領域が決定される。
When the line-of-sight position is determined in the next step # 209, the operation returns to step # 105 of FIG. 5 for determining whether or not to select an area based on the line-of-sight. Is determined, and a focus detection area corresponding to the area is determined.

【0075】次に、図9のフローチャートを用いて、キ
ャリブレーション動作アルゴリズムの説明を行う。
Next, the calibration operation algorithm will be described with reference to the flowchart of FIG.

【0076】前述したようにキャリブレーションとは、
撮影者がファインダ視野内の焦点検出領域のドットマー
ク右端74´,左端70´をそれぞれ一定時間固視する
ことで行い、そこから得られた眼球像データから視線補
正データを採取するというものであり、本実施の形態で
はこのキャリブレーション動作そのものが前記図6の視
線検出アルゴリズム中の視線検出実行回数を決める手段
となっている。
As described above, the calibration is
The photographer fixes the right and left dot marks 74 'and 70' of the focus detection area in the viewfinder visual field, respectively, for a certain period of time, and collects eye-gaze correction data from eyeball image data obtained therefrom. In the present embodiment, the calibration operation itself serves as means for determining the number of times of execution of the eye gaze detection in the eye gaze detection algorithm of FIG.

【0077】モードダイヤル44が「CAL」ポジショ
ンに設定されることで、キャリブレーション動作がスタ
ートする(ステップ#300)。
When the mode dial 44 is set to the "CAL" position, the calibration operation starts (step # 300).

【0078】まず最初にカメラがどのような姿勢になっ
ているかを姿勢検出スイッチ27(SW−ANG)の出
力信号と信号入力回路104を介して検出する(ステッ
プ#301)。これは図6のステップ#201と同じ検
出処理である。次に、ファインダ視野内の焦点検出領域
のドットマーク右端74´を点滅表示して撮影者に固視
すべき目標を表示する(ステップ#302)。また同時
に、現在設定されているキャリブレーションナンバーか
らEEPROM100aにメモリされているキャリブレ
ーションデータの確認を行い、既に登録済みの場合は、
図2のモニター用LCD42の「CAL」表示をそのま
ま点灯に、未登録の場合には、「CAL」表示を点滅さ
せる。
First, the attitude of the camera is detected via the output signal of the attitude detection switch 27 (SW-ANG) and the signal input circuit 104 (step # 301). This is the same detection processing as step # 201 in FIG. Next, the right end 74 'of the dot mark in the focus detection area in the finder field of view is blinked to display a target to be fixed to the photographer (step # 302). At the same time, the calibration data stored in the EEPROM 100a is checked based on the currently set calibration number.
The "CAL" display on the monitor LCD 42 in FIG. 2 is lit as it is, and if not registered, the "CAL" display blinks.

【0079】続いてカメラは、キャリブレーションを行
う際の撮影者の眼球を照明するIREDの選択動作を行
う(ステップ#303)。この場合のIREDの選択動
作は、図6中で説明した動作と多少異なり、カメラの姿
勢情報を用いるのは同様であるが、キャリブレーション
を過去に行って、キャリブレーションデータが既にカメ
ラに記憶されている場合には、記憶されているIRED
の組を、つまり、眼鏡装着時用か非装着時(裸眼)用の
組の何れかを記憶情報に従って最初から選択する。一
方、初めてキャリブレーションを行う場合は、眼鏡装着
時用か非装着時用のIREDの組を選択する情報がない
ため、キャリブレーションの第1回目の眼球像照明は眼
鏡非装着時用のIREDの組を選択発光し、後述のCC
Dの眼球像信号中に眼鏡の反射によるゴーストの有無の
判定に従って、眼鏡ゴースト発生が検知されれば、2回
目以降の照明は眼鏡用のIREDの組に変更される。
Subsequently, the camera performs an operation of selecting an IRED for illuminating the photographer's eyeball at the time of performing calibration (step # 303). The operation of selecting the IRED in this case is slightly different from the operation described with reference to FIG. 6 and is similar to using the posture information of the camera. However, calibration is performed in the past, and the calibration data is already stored in the camera. If so, the stored IRED
, That is, either the pair for wearing glasses or the pair for non-wearing (the naked eye) is selected from the beginning according to the stored information. On the other hand, when the calibration is performed for the first time, there is no information for selecting the pair of IREDs for wearing or not wearing glasses, so the first eye image illumination of the calibration is performed using the IRED for wearing no glasses. Select a group to emit light, and
According to the determination of the presence or absence of the ghost due to the reflection of the spectacles in the eyeball image signal of D, if the generation of the spectacles ghost is detected, the illumination after the second time is changed to the set of the IRED for the spectacles.

【0080】ステップ#303にて、発光を行うべきI
REDの組が決定され、カメラは撮影者のスイッチSW
1のON信号待ちとなり、スイッチSW1のON信号を
検知すると前記図6のフローチャートの説明で行ったス
テップ#203から#ステップ205と同じ眼球像取り
込み動作が行われる。
At step # 303, I
The set of RED is determined, and the camera switches the photographer's switch SW.
1 and waits for the ON signal of the switch SW1. When the ON signal of the switch SW1 is detected, the same eyeball image capturing operation as in steps # 203 to # 205 described in the flowchart of FIG. 6 is performed.

【0081】つまり、CCD−EYE14の蓄積時間と
IRED13の照明パワーが設定され(ステップ#30
4)、実際にCCD−EYE14の蓄積とIRED13
の照明が実行され(ステップ#305)、CCD−EY
E14にて蓄積された像信号が順次読み出され、AD変
換後にCPU100にメモリされる(ステップ#30
6)。次にCPU100はメモリ上のAD変換された像
信号を定められた計算式に従って撮影者の眼球の回転角
度θを算出する(ステップ#307)。
That is, the accumulation time of the CCD-EYE 14 and the illumination power of the IRED 13 are set (step # 30).
4) Actually accumulating CCD-EYE14 and IRED13
(Step # 305), and the CCD-EY
The image signals accumulated at E14 are sequentially read out and stored in the CPU 100 after AD conversion (step # 30).
6). Next, the CPU 100 calculates the rotation angle θ of the photographer's eyeball in accordance with a predetermined calculation formula of the AD-converted image signal on the memory (step # 307).

【0082】なお、眼球像取り込み動作中はファインダ
視野内の焦点検出領域のドットマーク右端74´の点滅
は点灯表示に変わり、撮影者に眼球像取り込み動作を実
行している最中であることを知らしめている。
During the eyeball image capturing operation, the blinking of the right end 74 'of the dot mark in the focus detection area in the finder field of view changes to a lit display, and the photographer is informed that the eyeball image capturing operation is being performed. I know.

【0083】続いて、算出された回転角度θは、その値
が妥当か否かの判定にかけられる(ステップ#30
8)。眼球光軸と視軸のズレが生体的に数十度もずれて
いることはほとんどないので、ここでは判定の閾値を±
10度に設定してある。このステップ#308では、検
出された眼球の回転角度OK,NGの判定を行っている
だけで、その結果がOKでもNGでも次のステップ#3
09に進み、眼球の回転角度検出の総回数が10回未満
であればステップ#304に戻り、再度眼球像取り込み
動作が行われ、眼球の回転角度検出の総回数が10回に
達すると、今度はその10回のうちOKが何回発生した
かによってキャリブレーション(CAL)成功、失敗の
判定を行う(ステップ#310)。
Subsequently, the calculated rotation angle θ is subjected to a determination as to whether or not the value is appropriate (step # 30).
8). Since the deviation between the optical axis of the eyeball and the visual axis is hardly displaced by several tens of degrees biologically, the threshold value for the determination is set to ±
It is set to 10 degrees. In this step # 308, only the detected rotation angles OK and NG of the detected eyeball are determined, and if the result is OK or NG, the next step # 3
09, if the total number of eyeball rotation angle detections is less than ten, the process returns to step # 304, where the eyeball image capturing operation is performed again, and when the total number of eyeball rotation angle detections reaches ten, this time Determines whether calibration (CAL) has succeeded or failed depending on how many times OK has occurred among the 10 times (step # 310).

【0084】ここでは6回以上の回転角度検出成功で右
端74´でのキャリブレーション成功となり、引き続
き、今度は左端70´でのキャリブレーション動作を開
始する。左端70´でのキャリブレーションが同様に成
功すると右端指標74´と左端指標70´それぞれにお
ける注視点(正確には注視回転角)の分布が得られる。
図10(a)と図10(b)にその一例を示す。
In this case, the calibration at the right end 74 'is successful when the rotation angle is detected six times or more, and the calibration operation is started at the left end 70'. If the calibration at the left end 70 'is similarly successful, the distribution of the gazing point (more precisely, the gazing rotation angle) at each of the right end index 74' and the left end index 70 'is obtained.
FIGS. 10A and 10B show an example thereof.

【0085】図10(a)と図10(b)は、撮影者a
と撮影者bという2人の該カメラのキャリブレーション
対象者に、各人右端指標74´を見てキャリブレーショ
ンを行ってもらい、10回の回転角度検出に全て成功し
たデータをθx,θy座標系にプロットしたものであ
り、便宜的にθx,θy座標系の原点に各θx,θy、
10個づつのデータの平均値を一致させてあるため、原
点を平均中心とした分布となっている。
FIGS. 10A and 10B show the photographer a
And two photographers b, who are to be calibrated by the camera, perform calibration by looking at the right end index 74 ′ of each person. Are plotted at the origin of the θx, θy coordinate system for convenience.
Since the average value of every ten data is matched, the distribution has the origin at the average center.

【0086】図10(a)と図10(b)から明らかな
ように、撮影者aの人に対し、撮影者bの人は1点(こ
の場合指標74´)を注視していてもその注視点のばら
つきが大きいことがわかる。そこで、これら注視点分布
を定量化するためにθx,θy各々に対して標準偏差を
計算する(ステップ#311)。標準偏差σは次式で算
出する(式はθxについてのもの)。
As is clear from FIGS. 10 (a) and 10 (b), even if the photographer b looks at one point (in this case, the index 74 ') with respect to the photographer a. It can be seen that the gazing points vary widely. Therefore, in order to quantify these gazing point distributions, a standard deviation is calculated for each of θx and θy (step # 311). The standard deviation σ is calculated by the following equation (the equation is for θx).

【0087】[0087]

【式1】 (Equation 1)

【0088】よって、上式より、指標47´を注視した
ときのX方向、y方向の標準偏差をそれぞれ、σRx,
σRy、また指標40´を注視したときのX方向、y方
向の標準偏差をそれぞれ、σLx,σLyと各々計算す
ることができる。本説明のカメラでは視線検出で選択す
べき視線有効領域60から64が水平方向のみに並んで
いることから、ここではX方向のみの注視点分布を示す
標準偏差「σx=(σRx+σLx)/2」を定義して
以下説明を続ける。
Therefore, from the above equation, the standard deviations in the X direction and the y direction when the indicator 47 'is watched are represented by σRx,
σRy and standard deviations in the X direction and the y direction when the indicator 40 ′ is watched can be calculated as σLx and σLy, respectively. In the camera of the present description, the eye-gaze effective areas 60 to 64 to be selected for eye-gaze detection are arranged only in the horizontal direction. Therefore, here, the standard deviation “σx = (σRx + σLx) / 2” indicating the gaze point distribution only in the X-direction. And the description is continued below.

【0089】次に、計算されたX方向の注視点分布の標
準偏差σxを閾値と比較する(ステップ#312)。閾
値はここでは0.7度としている。実際には視線検出で
選択すべき領域60から64を選択するためには隣接し
た各領域中心間の距離/2(ここでは視線角度にして約
2度)が分離できれば可能であるはずであるが、実際に
は注視時のばらつき以外にも撮影者のファインダの覗き
方の差、キャリブレーションでの誤差、視線検出時の誤
差等が視線検出の結果に影響するため、ここでの閾値は
厳しい値を設定してある。
Next, the calculated standard deviation σx of the gazing point distribution in the X direction is compared with a threshold value (step # 312). Here, the threshold value is 0.7 degrees. Actually, it should be possible to select the regions 60 to 64 to be selected in the line-of-sight detection if the distance between the centers of the adjacent regions / 2 (here, the line-of-sight angle is approximately 2 degrees) can be separated. However, in addition to variations in gaze, differences in the way the photographer looks through the viewfinder, errors in calibration, errors in gaze detection, etc. affect the gaze detection results. Is set.

【0090】説明の便宜上「σx=σRx」とすると、
上記撮影者aは標準偏差σx=0.39であることより
閾値0.7を下回っているので注視点分布のばらつきは
少ない人であると判定し、図3で説明したところの視線
有効領域60から64の5領域から1領域を選択する視
線選択モード1が決定される(ステップ#313)。一
方、上記撮影者bは標準偏差σx=0.85であること
より閾値0.7を上回っているので注視点分布のばらつ
きは大きい人であると判定し、後述する図11(b)の
ごとく視線有効領域80,81,82の3領域から1領
域を選択する視線選択モード2が決定される(ステップ
#314)。
Assuming that “σx = σRx” for convenience of explanation,
Since the photographer “a” has a standard deviation σx = 0.39 and falls below the threshold value 0.7, it is determined that the variation in the gazing point distribution is small, and the gaze effective area 60 described with reference to FIG. The line-of-sight selection mode 1 for selecting one area from five areas 64 to 64 is determined (step # 313). On the other hand, since the photographer b has the standard deviation σx = 0.85 and thus exceeds the threshold value 0.7, it is determined that the variation in the gazing point distribution is a large person, and as shown in FIG. The line-of-sight selection mode 2 for selecting one region from the three line-of-sight effective regions 80, 81, 82 is determined (step # 314).

【0091】図11(a)と図11(b)は、前記図1
0(a)と図10(b)で説明した撮影者a,bが実際
に視線検出を行って、その結果、一つの視線有効領域が
選択されることを説明したものである。
FIGS. 11 (a) and 11 (b) correspond to FIG.
This explains that the photographers a and b described with reference to FIG. 10 (a) and FIG. 10 (b) actually perform gaze detection, and as a result, one gaze effective area is selected.

【0092】図11(a)において、撮影者aはキャリ
ブレーション時の注視点分布演算(#311)によって
注視点分布のばらつきが少ない人と判定されているた
め、視線検出で検出されたピント板7上の座標90が5
つの視線有効領域60から64の何れの領域に属するか
で視線検出で選択される領域を決定しており、図11
(a)では視線有効領域61が選択され、最終的には焦
点検出領域71にて焦点検出動作が行われる。
In FIG. 11A, since the photographer a is determined to be a person with little variation in the gazing point distribution by the gazing point distribution calculation (# 311) at the time of calibration, the focus plate detected by the gaze detection is determined. The coordinate 90 on 7 is 5
The region to be selected in the line-of-sight detection is determined depending on which of the two line-of-sight effective regions 60 to 64 belongs to.
In (a), the line-of-sight effective area 61 is selected, and finally a focus detection operation is performed in the focus detection area 71.

【0093】一方、図11(b)において、撮影者bは
注視点分布のばらつきが大きい人と判定されるため、図
11(a)のように60から64の5つの領域を高い確
率で選択するのは困難であると推測される。そこで5つ
の焦点検出領域から1つの領域を選択し、焦点検出を行
う機能を放棄して、本来5つある焦点検出領域からあえ
て中間領域を間引いた3つの領域のみを視線検出で選択
可能とすることで、視線位置のばらつきから発生する選
択間違い回避し、選択しようとする意思との一致確率を
高くすることができる。つまり、図11(b)では視線
検出で検出されたピント板7上の座標91が3つの視線
有効領域80から82のいづれの領域に属するかで視線
検出で選択される領域を決定しており、図11(b)で
は視線有効領域81が選択されている。
On the other hand, in FIG. 11B, since the photographer b is determined to be a person having a large variation in the gazing point distribution, five regions 60 to 64 are selected with high probability as shown in FIG. 11A. It is presumed to be difficult to do. Therefore, one area is selected from the five focus detection areas, the function of performing focus detection is abandoned, and only three areas in which the intermediate area is intentionally thinned out of the originally five focus detection areas can be selected by gaze detection. By doing so, it is possible to avoid a selection error caused by a variation in the line of sight, and to increase the probability of coincidence with the intention to select. In other words, in FIG. 11B, the region selected by the line-of-sight detection is determined depending on which of the three line-of-sight effective regions 80 to 82 the coordinate 91 on the focus plate 7 detected by the line-of-sight detection belongs to. In FIG. 11B, the visual line effective area 81 is selected.

【0094】図9に戻って、上記ステップ#313およ
びステップ#314にて視線検出実行回数が決定される
と、モニター用LCD42の「CAL」表示はキャリブ
レーション成功を意味する点灯表示となり、キャリブレ
ーションデータはCPU100にメモリされる。キャリ
ブレーションが成功すると、CPU100はキャリブレ
ーションによって得られた撮影者の眼球の個人差による
視線の検出誤差を補正するための視線補正データと、上
記ステップ#313またはステップ#314で決定した
視線選択モード1かモード2の何れかが対応付けられて
CPU100のEEPROM100aに記憶される。も
し既にキャリブレーションデータが登録されていた場
合、新たに採取されたキャリブレーションデータは、メ
モリされていた過去のデータと統合される(ステップ#
316)。
Returning to FIG. 9, when the number of times of execution of the line-of-sight detection is determined in steps # 313 and # 314, the "CAL" display on the monitor LCD 42 changes to a light-on display indicating successful calibration, and the calibration is performed. The data is stored in the CPU 100. If the calibration is successful, the CPU 100 determines the gaze correction data for correcting the gaze detection error due to the individual difference of the photographer's eyeball obtained by the calibration, and the gaze selection mode determined in step # 313 or # 314. Either 1 or mode 2 is stored in the EEPROM 100a of the CPU 100 in association with each other. If the calibration data has already been registered, the newly collected calibration data is integrated with the past data stored in the memory (step #).
316).

【0095】また、上記ステップ#310にて回転角度
の検出成功回数が6回未満の場合にはCAL失敗とな
り、モニター用LCD42の「CAL」表示は点滅表示
にかわり、撮影者にキャリブレーションが失敗したこと
を知らしめる(ステップ#315)。
If the number of successful rotation angle detections is less than 6 in step # 310, CAL failure occurs, the "CAL" display on the monitor LCD 42 changes to a blinking display, and the photographer fails calibration. Is notified (step # 315).

【0096】上記説明において、いくつの領域に対し視
線情報から一つの領域を決定するかという視線選択モー
ドを決定するのに撮影者の注視点分布座標の標準偏差を
算出して求めたが、標準偏差以外にも分散の値や、信頼
性区間の値などの統計処理によって求めるようにしても
良い。
In the above description, the standard deviation of the gazing point distribution coordinates of the photographer was calculated and determined to determine the line of sight selection mode for determining how many regions should determine one region from the line of sight information. In addition to the deviation, it may be obtained by statistical processing such as a variance value or a value of a reliability section.

【0097】また、上記説明では注視点分布座標の標準
偏差から求まった視線選択モードをキャリブレーション
ナンバーと対応させてEEPROM100aに記憶する
ようにしてあるが、標準偏差そのものの値を記憶してお
き、実際にカメラを撮影する際の視線検出実行時にこの
標準偏差値をCPU100が読み取り、視線選択モード
1又は2をその場で選択するようにしても良い。
In the above description, the line-of-sight selection mode obtained from the standard deviation of the coordinates of the gazing point distribution is stored in the EEPROM 100a in association with the calibration number, but the value of the standard deviation itself is stored. The CPU 100 may read this standard deviation value at the time of executing the line-of-sight detection when actually photographing the camera, and select the line-of-sight selection mode 1 or 2 on the spot.

【0098】さらには視線選択モードと標準偏差の両方
の履歴を記憶し、キャリブレーションの積み重ね時に得
られる新しい標準偏差の値と過去の標準偏差の値から最
新の視線選択モードを更新するのがより実用的である。
Further, it is more preferable to store the history of both the line-of-sight selection mode and the standard deviation, and to update the latest line-of-sight selection mode from the new standard deviation value and the past standard deviation value obtained when the calibrations are stacked. It is practical.

【0099】(実施の第2の形態)図12(a)から図
12(c)は、本発明の実施の第2の形態に係る視線検
出機能付きビデオカメラのファインダ視野図である。
(Second Embodiment) FIGS. 12A to 12C are viewfinder views of a video camera with a visual line detection function according to a second embodiment of the present invention.

【0100】本ビデオカメラにおいても、撮影者の視線
位置を補正するためのキャリブレーション動作は必要で
あり、上記実施の第1の形態にて図9を用いたキャリブ
レーション動作の説明のように、キャリブレーション動
作中に撮影者の注視点分布を測定することが可能であ
る。
In the present video camera, a calibration operation for correcting the gaze position of the photographer is necessary. As described in the first embodiment, the calibration operation using FIG. It is possible to measure the gaze point distribution of the photographer during the calibration operation.

【0101】図12(a)から図12(c)は本ビデオ
カメラの撮影者がビデオカメラのファインダを覗き、モ
ード設定ボタンを押すことによって視線選択設定モード
に入ったときのファインダ表示を示している。
FIGS. 12A to 12C show the viewfinder display when the photographer of the present video camera looks into the viewfinder of the video camera and presses the mode setting button to enter the eye-gaze selection setting mode. I have.

【0102】ここでキャリブレーション時の注視点分布
演算によって注視点分布のばらつきが少ない人と判定さ
れた人の場合にビデオカメラのファインダ上に表示され
るのが図12(a)であり、89はビデオカメラの撮影
レンズを通してCCDで撮像された被写体像で、その両
側には被写体像を一部ける形態で視線検出により機能選
択可能なメニューが6種類表示されている。
Here, FIG. 12A shows a view displayed on the viewfinder of the video camera in the case of a person who is determined to have a small variation in the gazing point distribution by the gazing point distribution calculation at the time of calibration. Is a subject image picked up by a CCD through a photographic lens of a video camera. On both sides of the subject image, six types of menus from which functions can be selected by gaze detection are displayed in such a manner that a part of the subject image is displayed.

【0103】83はビデオカメラの撮影レンズを広角側
に移動させるワイド表示領域、84は同撮影レンズを望
遠側に移動させるテレ表示領域、85は撮影する画像に
手ぶれ補正を行うか否かを設定する手ぶれ防止表示領
域、86は撮影する動画に年、月、時、分を表示するか
否かを設定するデート表示領域、87は動画撮影開始時
に白い画面から序々に画面が現れてくるフェードイン形
式で動画を記録するか否かの設定をするフェードイン表
示領域、88は動画撮影終了時に撮影画面から序々に画
面が白く消えていくフェードアウト形式で動画を記録す
るか否かの設定をするフェードアウト表示領域のことを
示している。
Reference numeral 83 denotes a wide display area for moving the photographic lens of the video camera to the wide angle side, 84 denotes a tele display area for moving the photographic lens to the telephoto side, and 85 denotes whether or not to perform camera shake correction on the image to be shot. 86 is a date display area for setting whether or not to display the year, month, hour, and minute in a video to be shot, and 87 is a fade-in screen that gradually appears from a white screen at the start of video shooting. A fade-in display area for setting whether or not to record a moving image in a format, and a fade-out area for setting whether or not to record a moving image in a fade-out format in which a screen gradually disappears white from a shooting screen at the end of moving image shooting. This indicates a display area.

【0104】これらの表示領域内に連続検出される視線
位置が所定時間とどまっていることが検知されると、そ
の機能が有効となる。また、2者択一の設定ではさらに
一定時間視線位置がその領域に検出されると有効となる
前の状態へ変化するとぐる式の変化形態をとっている。
設定が終了し、再度モード設定ボタンを押すことで設定
は終了する。
When it is detected that the line-of-sight position continuously detected in these display areas remains for a predetermined time, the function becomes effective. Further, in the alternative setting, a change form of a formula that changes to a state before the gaze position is valid when the gaze position is detected in the area for a certain period of time is adopted.
The setting is completed, and the setting is completed by pressing the mode setting button again.

【0105】一方、図12(b)は、キャリブレーショ
ン時の注視点分布採取手段によって注視点分布のばらつ
きが大きい人と判定された人の場合にビデオカメラのフ
ァインダ上に表示される視線検出により選択可能なメニ
ューを示しており、上記説明した各種メニューの一部で
あるワイド表示領域90、テレ表示領域91、手ぶれ防
止表示領域92と次ページにあるメニューに表示を切り
換える次ページ表示領域93の計4つのメニューが、各
々図12(a)の6つのメニューの個々の大きさよりも
大きな領域を持って表示されている。そのため、注視点
分布のばらつきの大きな人でも確実に機能設定を視線検
出により選択が可能となっている。
On the other hand, FIG. 12B shows a case where the gaze point is displayed on the viewfinder of the video camera when a person whose gaze point distribution is determined to be large in variation by the gaze point collection means during calibration. The menus that can be selected are shown. The wide display area 90, the tele display area 91, the camera shake prevention display area 92, which is a part of the various menus described above, and the next page display area 93 for switching the display to the menu on the next page. A total of four menus are displayed with areas larger than the size of each of the six menus in FIG. For this reason, even a person with a large variation in the gazing point distribution can reliably select the function setting by gaze detection.

【0106】また、図12(b)では図12(a)の6
つに対して3つの機能選択しか行えないので、前記93
の次ページ表示領域を視線で選択すると、図12(c)
のように残りの3つの機能94から96が表示され選択
可能となる。なお、97は前ページのメニュー画面に戻
るための前ページ表示領域である。
In FIG. 12B, 6 in FIG.
Since only three functions can be selected for each,
When the next page display area is selected with the line of sight, FIG.
, The remaining three functions 94 to 96 are displayed and selectable. Reference numeral 97 denotes a previous page display area for returning to the menu screen of the previous page.

【0107】上記実施の各形態によれば、撮影者が同一
個所を注視した時の複数の視線位置情報を得るための注
視点分布演算を行う手段(図9のステップ#311)を
有し、該注視点分布演算を行う手段の出力に基づいて、
図5のステップ#106にて選択されるべき領域の大き
さ(図11(a)と(b)参照)、あるいは領域の数と
その大きさ(図12(a)と(b),(c)参照)を可
変するようにしている。
According to each of the above embodiments, there is provided means (step # 311 in FIG. 9) for performing a gaze point distribution calculation for obtaining a plurality of pieces of gaze position information when the photographer gazes at the same place. Based on the output of the means for performing the gazing point distribution calculation,
The size of the region to be selected in step # 106 of FIG. 5 (see FIGS. 11A and 11B), or the number and size of the regions (FIGS. 12A, 12B, and 12C) )).

【0108】よって、人間の生理的問題である注視する
能力の差によって発生する視線位置のばらつきの影響を
最小限にとどめ、機器を使用する人それぞれに応じて精
度の良い、快適に動作する視線検出機能を実行すること
が可能となる。
Therefore, the influence of the variation in the gaze position caused by the difference in the ability to gaze, which is a physiological problem of humans, is minimized, and the gaze that can be operated accurately and comfortably for each person who uses the device. The detection function can be executed.

【0109】(変形例)上記実施の形態では、一眼レフ
カメラに適用した場合を述べているが、レンズシャッタ
カメラ,ビデオカメラ等のカメラにも適用可能である。
更に、ヘッドマウント式の視線検出ユニットとディスプ
レイを組み合わせた機器やその他の機器、構成ユニット
としても適用することができる。
(Modification) In the above embodiment, the case where the present invention is applied to a single-lens reflex camera is described. However, the present invention is also applicable to a camera such as a lens shutter camera and a video camera.
Furthermore, the present invention can also be applied as a device in which a head-mounted line-of-sight detection unit and a display are combined, another device, and a constituent unit.

【0110】[0110]

【発明の効果】以上説明したように、本発明によれば、
注視する能力の個人差によって発生する視線位置のばら
つきの影響を最小限にとどめ、機器を使用する人それぞ
れに対して意図した領域の選択することができる視線検
出機能付き機器を提供できるものである。
As described above, according to the present invention,
It is possible to provide a device with a line-of-sight detection function capable of selecting an intended region for each person who uses the device, while minimizing the influence of line-of-sight variations caused by individual differences in gaze ability. .

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の第1の形態に係る一眼レフカメ
ラの概略図である。
FIG. 1 is a schematic diagram of a single-lens reflex camera according to a first embodiment of the present invention.

【図2】図1の一眼レフカメラの上面および後部外観を
示す図である。
FIG. 2 is a diagram showing an upper surface and a rear appearance of the single-lens reflex camera of FIG. 1;

【図3】図1の一眼レフカメラのファインダ視野図であ
る。
FIG. 3 is a view of a viewfinder of the single-lens reflex camera of FIG. 1;

【図4】図1の一眼レフカメラの電気的構成を示すブロ
ック図である。
FIG. 4 is a block diagram showing an electrical configuration of the single-lens reflex camera of FIG. 1;

【図5】図1の一眼レフカメラの一連の動作を示すフロ
ーチャートである。
FIG. 5 is a flowchart showing a series of operations of the single-lens reflex camera of FIG. 1;

【図6】図5のステップ#104の視線検出動作を示す
フローチャートである。
FIG. 6 is a flowchart showing a line-of-sight detection operation in step # 104 of FIG. 5;

【図7】一般的な視線検出の原理を説明する為の図であ
る。
FIG. 7 is a diagram for explaining the general principle of gaze detection.

【図8】同じく一般的な視線検出の原理を説明する為の
図である。
FIG. 8 is a diagram for explaining a general principle of line-of-sight detection.

【図9】図6のステップ#300のキャリブレーション
動作を示すフローチャートである。
FIG. 9 is a flowchart showing a calibration operation in step # 300 of FIG. 6;

【図10】本実施の第1の形態に係る注視点分布図であ
る。
FIG. 10 is a gazing point distribution diagram according to the first embodiment of the present invention.

【図11】本実施の第1の形態に係る視線選択領域の説
明図である。
FIG. 11 is an explanatory diagram of a gaze selection area according to the first embodiment.

【図12】本実施の第2の形態に係る視線選択領域の説
明図である。
FIG. 12 is an explanatory diagram of a line-of-sight selection area according to the second embodiment.

【符号の説明】[Explanation of symbols]

6 焦点検出装置 6f イメージセンサ 10 測光センサ 13 赤外発光ダイオード(IRED) 14 イメージセンサ(CCD−EYE) 70〜74 焦点検出領域マーク 100 CPU 101 視線検出回路 103 焦点検出回路 106 LED駆動回路 107 IRED駆動回路 110 焦点調節回路 Reference Signs List 6 Focus detection device 6f Image sensor 10 Photometry sensor 13 Infrared light emitting diode (IRED) 14 Image sensor (CCD-EYE) 70-74 Focus detection area mark 100 CPU 101 Line of sight detection circuit 103 Focus detection circuit 106 LED drive circuit 107 IRED drive Circuit 110 Focus adjustment circuit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 観察者の視線を検出する視線検出手段
と、機器の諸動作の制御を行うために該機器の画面内を
複数に分割された、情報を得るべき領域を前記視線検出
手段の出力に基づいて選択する領域選択手段とを有する
視線検出機能付き機器において、 観察者が同一個所を注視した時の複数の視線位置情報を
得るための注視点分布演算手段と、該注視点分布演算手
段の出力に基づいて、前記領域選択手段にて選択される
べき領域の大きさ、あるいは領域の数とその大きさを可
変する可変手段とを有することを特徴とする視線検出機
能付き機器。
1. A gaze detecting means for detecting a gaze of an observer, and a plurality of divided areas in a screen of the device for controlling various operations of the device to obtain information. A gaze detection function device having a gaze detection function for selecting based on an output, a gaze point calculating means for obtaining a plurality of pieces of gaze position information when an observer gazes at the same place; An apparatus with a visual line detection function, comprising: a variable means for changing the size of the area to be selected by the area selecting means or the number of the areas and the size based on the output of the means.
【請求項2】 前記注視点分布演算手段によって得られ
た観察者の複数の視線位置のデータを、統計処理にて数
値化し、記憶することを特徴とする請求項1に記載の視
線検出機能付き機器。
2. The gaze detection function according to claim 1, wherein data of a plurality of gaze positions of the observer obtained by the gaze point distribution calculating means are digitized by statistical processing and stored. machine.
【請求項3】 前記視線検出手段にて算出された視線位
置を補正するための補正値を算出するためのキャリブレ
ーション手段を有し、該キャリブレーション手段による
キャリブレーション動作実行と同時に、前記注視点分布
演算手段は動作することを特徴とする請求項1又は2に
記載の視線検出機能付き機器。
3. The apparatus according to claim 1, further comprising: a calibration unit configured to calculate a correction value for correcting the gaze position calculated by the gaze detection unit. The apparatus with a gaze detection function according to claim 1, wherein the distribution calculation unit operates.
JP2001109541A 2001-04-09 2001-04-09 Equipment to detect sight line Pending JP2002301030A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001109541A JP2002301030A (en) 2001-04-09 2001-04-09 Equipment to detect sight line

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001109541A JP2002301030A (en) 2001-04-09 2001-04-09 Equipment to detect sight line

Publications (1)

Publication Number Publication Date
JP2002301030A true JP2002301030A (en) 2002-10-15

Family

ID=18961464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001109541A Pending JP2002301030A (en) 2001-04-09 2001-04-09 Equipment to detect sight line

Country Status (1)

Country Link
JP (1) JP2002301030A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012080910A (en) * 2010-10-06 2012-04-26 Fujitsu Ltd Correction value computing device, correction value computing method, and correction value computing program
JP2015049721A (en) * 2013-09-02 2015-03-16 ソニー株式会社 Information processor, information processing method and program
KR20180023983A (en) 2015-08-11 2018-03-07 주식회사 소니 인터랙티브 엔터테인먼트 Head Mount Display
JP2018183249A (en) * 2017-04-24 2018-11-22 アルパイン株式会社 Visual line detection device, visual line detection program, and visual line detection method
WO2020255675A1 (en) * 2019-06-17 2020-12-24 キヤノン株式会社 Electronic device and control method therefor
WO2021205979A1 (en) * 2020-04-09 2021-10-14 ソニーグループ株式会社 Imaging device, method for controlling imaging device, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012080910A (en) * 2010-10-06 2012-04-26 Fujitsu Ltd Correction value computing device, correction value computing method, and correction value computing program
US10180718B2 (en) 2013-09-02 2019-01-15 Sony Corporation Information processing apparatus and information processing method
JP2015049721A (en) * 2013-09-02 2015-03-16 ソニー株式会社 Information processor, information processing method and program
US9939894B2 (en) 2013-09-02 2018-04-10 Sony Corporation Information processing to operate a display object based on gaze information
US10635901B2 (en) 2015-08-11 2020-04-28 Sony Interactive Entertainment Inc. Head-mounted display
KR20180023983A (en) 2015-08-11 2018-03-07 주식회사 소니 인터랙티브 엔터테인먼트 Head Mount Display
US11126840B2 (en) 2015-08-11 2021-09-21 Sony Interactive Entertainment Inc. Head-mounted display
JP2018183249A (en) * 2017-04-24 2018-11-22 アルパイン株式会社 Visual line detection device, visual line detection program, and visual line detection method
WO2020255675A1 (en) * 2019-06-17 2020-12-24 キヤノン株式会社 Electronic device and control method therefor
JP2020204710A (en) * 2019-06-17 2020-12-24 キヤノン株式会社 Electronic apparatus and method for controlling the same
JP7353811B2 (en) 2019-06-17 2023-10-02 キヤノン株式会社 Electronic equipment and its control method
US11910081B2 (en) 2019-06-17 2024-02-20 Canon Kabushiki Kaisha Electronic apparatus, method for controlling the same, and storage medium
WO2021205979A1 (en) * 2020-04-09 2021-10-14 ソニーグループ株式会社 Imaging device, method for controlling imaging device, and program

Similar Documents

Publication Publication Date Title
US6674964B2 (en) Visual axis detecting apparatus
JP3297481B2 (en) Eye gaze detection device
JPH08563A (en) Optical device and camera
US5402199A (en) Visual axis detecting apparatus
JP2002301030A (en) Equipment to detect sight line
JP2004008323A (en) Optical device with visual axis function
JP3304408B2 (en) Gaze detection device and device having gaze detection device
JP3184633B2 (en) camera
JP3530647B2 (en) Eye gaze detecting device and optical device
JP2003339642A (en) Visual line detector and optical apparatus having the same
JP2003307774A (en) Optical apparatus with line-of-sight detecting function
JP3219491B2 (en) Eye gaze detection device
JP3184634B2 (en) Optical device having line-of-sight detection device
JP3176147B2 (en) Eye gaze detection device
JP3211427B2 (en) Eye gaze detection device
JP3186249B2 (en) Eye gaze detection device and eye gaze detection method
JP2002341239A (en) Sight line detecting device
JP3605080B2 (en) Eye gaze detection device
JP3605081B2 (en) Eye gaze detection device
JP3530648B2 (en) Eye gaze detecting device and optical device
JPH0688935A (en) Optical device having detecting function for line of sight
JPH06138373A (en) Sight line detecting device
JP3391892B2 (en) Eye gaze detecting device, optical device, and eye gaze detecting method
JP2003084193A (en) Optical device
JP3492324B2 (en) Optical device