JP3461392B2 - camera - Google Patents

camera

Info

Publication number
JP3461392B2
JP3461392B2 JP23263694A JP23263694A JP3461392B2 JP 3461392 B2 JP3461392 B2 JP 3461392B2 JP 23263694 A JP23263694 A JP 23263694A JP 23263694 A JP23263694 A JP 23263694A JP 3461392 B2 JP3461392 B2 JP 3461392B2
Authority
JP
Japan
Prior art keywords
screen
line
sight
center
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23263694A
Other languages
Japanese (ja)
Other versions
JPH0894915A (en
Inventor
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optic Co Ltd filed Critical Olympus Optic Co Ltd
Priority to JP23263694A priority Critical patent/JP3461392B2/en
Publication of JPH0894915A publication Critical patent/JPH0894915A/en
Application granted granted Critical
Publication of JP3461392B2 publication Critical patent/JP3461392B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Landscapes

  • Focusing (AREA)
  • Viewfinders (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、撮影者の視線方向を検
出して撮影者が画面のどの部分を撮影したいかを判定す
る機能を有するカメラに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera having a function of detecting a photographer's line-of-sight direction and determining which portion of a screen the photographer wants to photograph.

【0002】[0002]

【従来の技術】従来より、カメラ等の撮像装置において
は、使用者がファインダ内のどの部分を見ているかを、
該使用者の視線方向より判定し、所謂多点AFの選択の
参考とする種々の技術が提案されている。
2. Description of the Related Art Conventionally, in an image pickup device such as a camera, it has been difficult to determine which part of the viewfinder the user is looking at.
Various techniques have been proposed which are judged from the direction of the user's line of sight and are used as a reference for selection of so-called multipoint AF.

【0003】例えば、米国特許第4574314号で
は、撮影者の見ている方向に存在する被写体にピントを
合わせる技術が提案されている。かかる技術によれば、
視線方向検出部と測距方向可変自在の測距部を組み合わ
せることにより、例えば図4(a)に示されるように画
面中央に主要被写体である人物がいない構図においても
正しく人物にピントが合わせられるカメラを提供するこ
とができる。
For example, US Pat. No. 4,574,314 proposes a technique for focusing on a subject existing in the direction the photographer is looking. According to such technology,
By combining the line-of-sight direction detection unit and the distance measurement unit that can change the distance measurement direction, the person can be correctly focused even in a composition in which the person who is the main subject is not in the center of the screen as shown in FIG. 4A, for example. A camera can be provided.

【0004】この他にも、画面内の複数のポイントを測
距して、即ち多点AFによる各ポイントの測距結果から
最至近距離を示す被写体にピントを合わせるような技術
も提案されている。
In addition to this, a technique has been proposed in which a plurality of points on the screen are measured, that is, a subject showing the closest distance is focused on the basis of the distance measurement result of each point by multipoint AF. .

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記米
国特許第4574314号では、視線方向を検出するの
にテレビカメラを利用しており、構成が複雑且つ高価な
ものとなっていた。さらに、最至近選択の多点AFで
は、図4(a)に示されるような画面中央に主要被写体
がいないシーンでは主要被写体の人物にピント合わせが
可能だが、図4(b)のようなシーンでは画面中央の人
物にピントを合わせることができないといった欠点があ
った。
However, in the above-mentioned U.S. Pat. No. 4,574,314, a television camera is used to detect the line-of-sight direction, and the structure is complicated and expensive. Furthermore, in the multi-point AF with the closest selection, it is possible to focus on the person of the main subject in a scene where the main subject is not in the center of the screen as shown in FIG. 4A, but the scene as shown in FIG. Then, there was a drawback that you couldn't focus on the person in the center of the screen.

【0006】また、視線方向を検出するのは、撮影者の
目の個人差や眼鏡使用の有無といった条件差が大きく、
状況によっては大変困難である。そこで、信頼性が低く
なっても写真画面には影響しないような設計上の工夫が
必要であった。
[0006] Further, the gaze direction is detected due to a large difference in conditions such as individual differences in the eyes of the photographer and the presence or absence of use of eyeglasses.
It can be very difficult in some situations. Therefore, it is necessary to devise a design that does not affect the photographic screen even if the reliability becomes low.

【0007】本発明は上記問題に鑑みてなされたもの
で、その目的とするところは、簡単な構成により、あら
ゆるシーンにおいて主要被写体に正しくピントを合わせ
た写真を撮影できるカメラを提供することにある。
The present invention has been made in view of the above problems, and an object thereof is to provide a camera capable of taking a photograph in which a main subject is correctly focused in any scene with a simple structure. .

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、本発明の第1の態様では、撮影画面内の中央を含ん
だ複数ポイントの測距データを検出することが可能なカ
メラにおいて、撮影者がファインダ画面中央部を注視し
ているか否かのみを検出する視線検出手段と、上記視線
検出手段により、撮影者が画面中央部を注視していると
判断された場合には、画面中央の測距データを選択し、
画面中央部を注視していないと判断された場合には、所
定の判断基準により上記複数ポイントの測距データの中
から1つの測距データを選択する選択手段とを具備した
ことを特徴とするカメラが提供される。本発明の第2の
態様では、上記第1の態様において、上記所定の判断基
準は、上記複数ポイントの測距データのうち、最至近に
ある測距ポイントに対応する測距データを選択するもの
であることを特徴とするカメラが提供される。本発明の
第3の態様では、上記第1の態様において、さらに、上
記ファインダ画面内において画面中央部の測距ポイント
に対応する表示を行う表示部を具備し、この表示部は、
測距データ検出時と上記視線検出手段の作動時とでその
表示態様が異なることを特徴とするカメラが提供され
る。
In order to achieve the above object, according to a first aspect of the present invention, in a camera capable of detecting distance measurement data of a plurality of points including a center in a photographing screen, If the photographer determines that the photographer is gazing at the central portion of the screen, the visual line detection means that detects only whether the photographer is gazing at the central portion of the viewfinder screen or not Select the distance measurement data of
When it is determined that the center portion of the screen is not being gazed at, the selection means for selecting one distance measuring data from the distance measuring data of the plurality of points is provided according to a predetermined criterion. A camera is provided. According to a second aspect of the present invention, in the first aspect, the predetermined judgment group
Quasi is the closest among the above ranged distance measurement data
Selecting distance measurement data corresponding to a certain distance measurement point
A camera is provided. According to a third aspect of the present invention, in addition to the above first aspect,
Distance measurement point in the center of the viewfinder screen
Is provided with a display unit for performing a display corresponding to
When the distance measurement data is detected and the line-of-sight detection means is activated,
A camera characterized by different display modes is provided.
It

【0009】[0009]

【0010】[0010]

【作用】即ち、本発明の第1の態様では、視線検出手段
により撮影者がファインダ画面中央部を注視しているか
否かのみが検出され、選択手段により、上記視線検出手
段により、撮影者が画面中央部を注視していると判断さ
れた場合には、画面中央の測距データが選択され、画面
中央部を注視していないと判断された場合には、所定の
判断基準により上記複数ポイントの測距データの中から
1つの測距データが選択される。本発明の第2の態様で
は、上記第1の態様において、上記所定の判断基準とし
て、上記複数ポイントの測距データのうち、最至近にあ
る測距ポイントに対応する測距データが選択される。
発明の第3の態様では、上記第1の態様において、さら
に、上記ファインダ画面内において画面中央部の測距ポ
イントに対応する表示を行う表示により、測距データ検
出時と上記視線検出手段の作動時とでその表示態様が異
なる表示がなされる。
In other words, in the first aspect of the present invention, the line-of-sight detecting means detects only whether or not the photographer is gazing at the central portion of the finder screen, and the selecting means detects the photographer by the line-of-sight detecting means. If it is determined that the user is gazing at the center of the screen, the distance measurement data at the center of the screen is selected, and if it is determined that the center of the screen is not gazing, the above multiple points are determined according to the predetermined criteria. One piece of distance measurement data is selected from the distance measurement data of. According to a second aspect of the present invention, in the first aspect, the predetermined determination criterion is
Of the distance measurement data of the above multiple points,
Ranging data corresponding to the ranging point is selected. A third aspect of the present invention is the same as the first aspect.
In the above viewfinder screen,
The distance measurement data detection
The display mode differs depending on the time of departure and the time of operation of the line-of-sight detection means
Is displayed.

【0011】[0011]

【0012】[0012]

【実施例】以下、図面を参照して、本発明の実施例につ
いて説明する。先ず図1には本発明のカメラの概念図を
示し説明する。図1(a)に示されるカメラは、中央視
線検出部3と多点AF部1の出力が判定部10の入力に
接続され、該判定部10の出力がピント合せ部2の入力
に接続された構成となっている。かかる構成において、
中央視線検出部3は撮影者がファインダ画面内の中央部
分を見ているか否かを検出し、該情報を判定部10に出
力する。多点AF部1は、画面内の複数のポイントを測
距できるように構成されており、該測距情報も判定部1
0に出力される。判定部10は、これら情報に基づいて
ピント合せ距離を決定し、該結果に基づいてピント合せ
部2を制御してピントを合せる。従って、このカメラに
よれば、単に一か所の視線方向を検出するだけで、マル
チAFの副作用を克服した高精度のピント合せが可能と
なる。
Embodiments of the present invention will be described below with reference to the drawings. First, FIG. 1 shows a conceptual diagram of a camera of the present invention, which will be described. In the camera shown in FIG. 1A, the outputs of the central line-of-sight detection unit 3 and the multipoint AF unit 1 are connected to the input of the determination unit 10, and the output of the determination unit 10 is connected to the input of the focusing unit 2. It has been configured. In such a configuration,
The central line-of-sight detection unit 3 detects whether the photographer is looking at the central portion of the finder screen and outputs the information to the determination unit 10. The multipoint AF unit 1 is configured to measure a plurality of points on the screen, and the distance measurement information also determines the distance measurement information.
It is output to 0. The determination unit 10 determines the focusing distance based on these pieces of information, and controls the focusing unit 2 based on the result to focus. Therefore, according to this camera, it is possible to perform high-precision focusing overcoming the side effect of multi-AF by simply detecting the line-of-sight direction at one place.

【0013】次に図1(b)に示されるカメラは、右視
線検出部4aと左視線検出部4bとが一体に構成された
視線検出部4の出力が判定部10の入力に接続され、該
判定部10の出力が多点AF部1、分割AE部5、そし
てピント合せ部2の入力に接続された構成となってい
る。かかる構成において、視線検出部4は撮影者が画面
内の右方向を見ているか左方向を見ているかのみを検出
する。そして、右視線検出部4a、左視線検出部4bに
よって撮影者が画面内の右または左を見ていないと判定
された時には、多点AFの中央の測距結果を優先する。
従って、条件によって視線検出が困難な状況においても
確率的に主要被写体の存在確率の高い中央測距を優先す
るので、失敗のない写真撮影が可能である。また、測距
ポイントに合せて画面内を分割して測距できる分割AE
部5を設けているので、ピントばかりでなく、露出も主
要被写体に合せることができる。この構成では、撮影者
が右を見た時及び左を見た時のみを比較判定すればよい
ので、視線方向を検出し易く、失敗が起きにくいといっ
た利点がある。
Next, in the camera shown in FIG. 1 (b), the output of the line-of-sight detection unit 4 in which the right-eye line-of-sight detection unit 4a and the left line-of-sight detection unit 4b are integrated is connected to the input of the determination unit 10, The output of the determination unit 10 is connected to the inputs of the multipoint AF unit 1, the divided AE unit 5, and the focusing unit 2. In such a configuration, the line-of-sight detection unit 4 detects only whether the photographer is looking to the right or left in the screen. Then, when it is determined by the right-eye-gaze detecting unit 4a and the left-eye-gaze detecting unit 4b that the photographer is not looking right or left in the screen, the focus detection result at the center of the multipoint AF is prioritized.
Therefore, even in a situation where it is difficult to detect the line of sight depending on the conditions, the central distance measurement, which has a high probability of existence of the main subject, is prioritized, so that it is possible to take a photograph without failure. In addition, a division AE that allows distance measurement by dividing the screen according to the distance measurement points
Since the part 5 is provided, not only the focus but also the exposure can be adjusted to the main subject. With this configuration, since it is only necessary for the photographer to make a comparison determination when looking at the right side and when looking at the left side, there is an advantage that it is easy to detect the line-of-sight direction and failure does not occur easily.

【0014】次に図2には本発明の第1の実施例に係る
カメラの構成を示し説明する。尚、同図に示される構成
は、図1(a)を更に具現化したものであり、中央視線
検出部3、多点AF部1の構成を詳細に示している。
Next, FIG. 2 shows the structure of a camera according to the first embodiment of the present invention, which will be described. The configuration shown in FIG. 1 is a further implementation of FIG. 1A, and shows the configurations of the central line-of-sight detection unit 3 and the multipoint AF unit 1 in detail.

【0015】この図2において、符号7は撮影者の目で
あり、符号7aは盲点である。該盲点7aは視神経の集
合部で網膜に光が当たっても視覚を生じない部分であ
り、ここには視細胞は存在せず比較的反射率の高い組織
で覆われているので反射率が高いことが知られている。
第1の実施例では、当該網膜7aにハーフミラー15を
介して赤外発光ダイオード(IRED)11の光を入射
させ、該反射信号光をハーフミラー15で反射させ、受
光素子18を用いて受光する。この光路中には、偏光フ
ィルタ16,17が配置されており、眼球7の角膜表面
や眼鏡表面からの正反射光は透過しないようになってい
る。
In FIG. 2, reference numeral 7 is a photographer's eye, and reference numeral 7a is a blind spot. The blind spot 7a is a concentric portion of the optic nerve that does not produce vision even when the retina is exposed to light, and since it has no photoreceptor cells and is covered with a tissue having a relatively high reflectance, it has a high reflectance. It is known.
In the first embodiment, the light of the infrared light emitting diode (IRED) 11 is incident on the retina 7a through the half mirror 15, the reflected signal light is reflected by the half mirror 15, and the light is received by the light receiving element 18. To do. Polarizing filters 16 and 17 are arranged in this optical path so that specularly reflected light from the corneal surface of the eyeball 7 or the spectacle surface is not transmitted.

【0016】上記IRED11に電流を流して発光制御
するのがドライバ13である。これに対して、ドライバ
14は可視のLED12に電流を流して発光制御する。
該LED12より投射された可視光はレンズ12aで集
光され撮影者の眼球に入射される。このLED12は、
カメラファインダ画面の中央部を表示するよう発光する
こともできる。撮影者がこの画面中央部を注視する時、
IRED11の光は撮影者の眼球の眼底で拡散反射して
反射信号光となり、受光素子18に入射するように各素
子は配置されている。受光素子18としては、入射した
位置を検出できる機能を持った半導体光位置検出素子
(PSD)を用い、該PSD上のどの位置に反射信号光
が入射したか判断できるようになっている。これによ
り、撮影者の視線位置がどこを向いているかを、ある範
囲では連続的にモニタすることができる上、撮影者の眼
の個体差を考慮した検出をも可能としている。
The driver 13 controls the light emission by passing a current through the IRED 11. On the other hand, the driver 14 controls the light emission by passing a current through the visible LED 12.
The visible light projected from the LED 12 is condensed by the lens 12a and enters the eyeball of the photographer. This LED 12
The light can also be emitted to display the central part of the camera finder screen. When the photographer gazes at the center of this screen,
The elements of the IRED 11 are arranged so that the light of the IRED 11 is diffused and reflected by the fundus of the eyeball of the photographer to become reflected signal light and is incident on the light receiving element 18. As the light receiving element 18, a semiconductor light position detecting element (PSD) having a function of detecting the incident position is used, and it is possible to determine at which position on the PSD the reflected signal light is incident. As a result, it is possible to continuously monitor where the line of sight of the photographer is facing within a certain range, and also it is possible to perform detection in consideration of individual differences between the eyes of the photographer.

【0017】このPSD18は、光入射位置に依存した
2つの信号電流を出力するので、専用の集積回路(I
C)19は、この2つの信号電流をアナログ的に演算し
て、光位置に比例する信号に変換する。
Since the PSD 18 outputs two signal currents depending on the light incident position, the dedicated integrated circuit (I
C) 19 computes these two signal currents in an analog manner and converts them into a signal proportional to the light position.

【0018】ここで、図2(a)では、ファインダの光
学系を図示していないが、これを図示すると図2(b)
の符号29のようになる。撮影者は、このファインダ光
学系29を介して被写体30を観察すると同時にハーフ
ミラー28を介してIRED11の光を眼底に受光する
ことができるようになっている。
Here, although the optical system of the finder is not shown in FIG. 2A, it is shown in FIG. 2B.
The reference numeral 29 in FIG. The photographer can observe the subject 30 through the finder optical system 29 and simultaneously receive the light of the IRED 11 into the fundus through the half mirror 28.

【0019】また、図2(a)の符号1には詳細な多点
AF部1の詳細な構成例を示す。符号25a,25b,
25cは独立点灯可能な赤外発光ダイオード(IRE
D)であり、選択式ドライバ20を介して順次投光制御
される。IRED25a,25b,25cの光は投光レ
ンズ24を介して投射され、被写体からの反射信号光は
受光レンズ21を介してPSD22上に入射する。
Reference numeral 1 in FIG. 2A shows a detailed configuration example of the detailed multipoint AF section 1. Reference numerals 25a, 25b,
25c is an infrared light emitting diode (IRE
D), and the light emission is sequentially controlled via the selective driver 20. The light from the IREDs 25a, 25b, 25c is projected through the light projecting lens 24, and the reflected signal light from the subject is incident on the PSD 22 through the light receiving lens 21.

【0020】投受光レンズ21,24は、所定の基線長
だけ離して配置されているので、三角測距の原理に従っ
て、被写体距離に応じて基線長方向に反射光入射位置が
変化する。AFIC23は、PSD22の2つの電流信
号から信号光の入射位置を演算するための集積回路であ
る。これらの回路をシーケンス制御し、IC19,23
の出力より、視線位置や被写体距離を計算するのがワン
チップマイクロコンピュータ等からなるCPU10であ
る。
Since the light projecting / receiving lenses 21 and 24 are arranged apart from each other by a predetermined base line length, the reflected light incident position changes in the base line length direction according to the object distance according to the principle of triangulation. The AFIC 23 is an integrated circuit for calculating the incident position of signal light from the two current signals of the PSD 22. These circuits are sequence-controlled and IC19, 23
The CPU 10, which is a one-chip microcomputer or the like, calculates the line-of-sight position and the subject distance from the output.

【0021】以下、図3のフローチャートを参照して、
第1の実施例に係るカメラのCPU10の動作を説明す
る。CPU10は、カメラのレリーズ釦の半押し状態で
開成する1stレリーズスイッチ31の状態を検出し
(ステップS1)、当該スイッチ31がONされると、
撮影者が撮影に入ったとしてステップS2以降のシーケ
ンスに移る。
Hereinafter, referring to the flowchart of FIG.
The operation of the CPU 10 of the camera according to the first embodiment will be described. The CPU 10 detects the state of the 1st release switch 31 which opens when the release button of the camera is half pressed (step S1), and when the switch 31 is turned on,
Assuming that the photographer has started photographing, the sequence proceeds to step S2 and subsequent steps.

【0022】続いて、測距用IRED25a,25b,
25cを順次発光させ、画面内の3ポイントを測距し
(ステップS2)、ファインダ画面中央部に表示用LE
D12を点灯させ、使用者に画面内中心を示す(ステッ
プS3)。使用者が当該画面中央部を注視すると、眼底
照明用のIRED11が照明用光が入射し易くなるよう
に配置されているので、IRED11を発光させ、IC
19から眼底からの反射光入射位置に依存した信号Vc
を入力する(ステップS4)。
Subsequently, the distance measuring IREDs 25a, 25b,
25c are sequentially emitted to measure distances at 3 points on the screen (step S2), and the LE for display is displayed at the center of the finder screen.
D12 is turned on to show the center of the screen to the user (step S3). When the user gazes at the center of the screen, the IRED 11 for illuminating the fundus of the eye is arranged so that the illumination light can easily enter.
Signal Vc depending on the incident position of reflected light from the fundus from 19
Is input (step S4).

【0023】このVcが所定の範囲と判定されたならば
(ステップS5)、画面内中心の表示LED12を点滅
させ、使用者に画面中央にピントを合せることを認知さ
せる(ステップS6)。そして、レリーズ釦の押し込み
によって開成する2ndレリーズスイッチ32の状態を
検出するのだが(ステップS7)、これがONすると、
中央の測距結果lcをピント合せ距離lpとし(ステッ
プS8)、ピント合せを行う(ステップS9)。その
後、CPU10はシャッタ機構を制御して露光動作を行
い(ステップS10)、表示用LED12を消灯してシ
ーケンスを終了する(ステップS11)。
When it is determined that this Vc is within the predetermined range (step S5), the display LED 12 at the center of the screen is blinked to let the user recognize that the center of the screen is focused (step S6). Then, the state of the second release switch 32 which is opened by pressing the release button is detected (step S7), but when this is turned on,
The center distance measurement result lc is set as the focusing distance lp (step S8), and focusing is performed (step S9). After that, the CPU 10 controls the shutter mechanism to perform the exposure operation (step S10), turns off the display LED 12, and ends the sequence (step S11).

【0024】一方、ステップS5において、「No」に
分岐すると、画面中央以外を撮影者は見ていたと判断
し、2ndレリーズスイッチがONすると(ステップS
12)、画面内の左右、中央の測距結果のうち最至近の
結果をピント合せ距離lpとしてステップS9に移行す
る(ステップS14)。以降の処理は上述したステップ
S9乃至S11に準ずる。
On the other hand, if it is branched to "No" in step S5, it is judged that the photographer is looking at a portion other than the center of the screen, and the second release switch is turned on (step S5).
12) Then, the closest result of the distance measurement results of the left and right sides and the center of the screen is set as the focusing distance lp, and the process proceeds to step S9 (step S14). The subsequent processing conforms to steps S9 to S11 described above.

【0025】以上説明したように、第1の実施例に係る
カメラでは、図4(a)のようなシーンでも、図4
(b)のようなシーンでも、簡単に素早く人物にピント
合せすることができる
As described above, in the camera according to the first embodiment, even in the scene as shown in FIG.
Even in a scene like (b), it is possible to focus on a person easily and quickly .

【0026】第1の実施例では、咄嗟のレリーズ釦の押
し込みで視線検出動作が1回しか行えず、その信頼性が
低くても、多くの場合はステップS14のマルチAFの
最至近選択を行うので、通常のマルチAF並みの精度の
ピント合せが保証される。また、レリーズ釦をゆっくり
と慎重に押し下げるような状況では視線検出動作の信頼
性が上がる。
In the first embodiment, the line-of-sight detection operation can be performed only once by pressing the shutter release button, and even if the reliability thereof is low, in most cases, the closest selection of the multi-AF in step S14 is performed. Therefore, it is possible to guarantee the focusing with the same accuracy as the normal multi-AF. Further, in a situation where the release button is pushed down slowly and carefully, the reliability of the eye gaze detection operation increases.

【0027】さらに、図4(b)に示すような雑然とし
た被写体のあるシーンでは、使用者が慎重にゆっくりと
レリーズを行えば、確実に視線検出が行え、中央の被写
体30に正しくピントを合せることができる。中央選択
時には表示用LED12が点滅するので失敗もない。ま
た、何度も視線検出を行い、表示点滅状態で構図を変更
することにより、フォーカスロック撮影も可能である
Furthermore, in a scene with a cluttered subject as shown in FIG. 4B, if the user carefully and slowly releases the line of sight, the line of sight can be reliably detected, and the subject 30 in the center can be correctly focused. Can be combined. Since the display LED 12 blinks when the center is selected, there is no failure. Focus-lock photography is also possible by repeatedly detecting the line of sight and changing the composition while the display is blinking .

【0028】また、図4(a)のようなシーンでも、先
ず人物30を画面中心におき、レリーズ釦を半押して表
示LEDを点滅させた後、構図を図4(a)の位置に戻
せば確実に人物30にピント合せができる。このよう
に、本実施例は従来提案された視線検出結果を基にした
AFカメラより、遥かに単純な構成で効果のあるAFカ
メラを提供するものである。
Also in the scene as shown in FIG. 4A, if the person 30 is first placed in the center of the screen, the release button is half-pressed to blink the display LED, and then the composition is returned to the position shown in FIG. 4A. The person 30 can be reliably focused. As described above, the present embodiment provides an AF camera which has a far simpler structure and is more effective than the AF camera based on the previously proposed visual axis detection result.

【0029】さらに、第1の実施例では、3点AFをス
テップS2で行った後に視線検出を行っているが(ステ
ップS4)、視線検出を行った後にAFを行うようにし
てもよい。また、PSD18の出力に基づく信号Vcの
判定レンジβ1 ,β2 を使用者の個人差を考慮して可変
できるようにしてもよい。
Further, in the first embodiment, the visual axis detection is performed after the three-point AF is performed in step S2 (step S4), but the AF may be performed after the visual axis detection is performed. Further, the determination ranges β1 and β2 of the signal Vc based on the output of the PSD 18 may be variable in consideration of individual differences of users.

【0030】次に、図5には前述した図1(b)に基づ
く本発明の第2の実施例に係るカメラの構成を示し説明
する。第2の実施例は、図2に符号3として示した視線
検出部を2つ用意して、使用者が画面内左右のいずれの
方向を見ているかを検出できるようにしたものである。
従って、ここでは検出原理については説明を省略し、図
2(a)に図示したレンズ12aや偏光板16,17等
は図示していない。
Next, FIG. 5 shows the structure of a camera according to the second embodiment of the present invention based on FIG. In the second embodiment, two line-of-sight detection units indicated by reference numeral 3 in FIG. 2 are prepared so that it is possible to detect which of the left and right directions in which the user is looking.
Therefore, the description of the detection principle is omitted here, and the lens 12a and the polarizing plates 16 and 17 shown in FIG. 2A are not shown.

【0031】また、測距装置は図2(a)に符号1とし
て示したものを想定し、画面内の複数のポイントの測光
を行うための測光部5を追加した。測光部5は、三分割
のセンサ41a,41b,41cと受光レンズ42とセ
ンサ出力の処理回路43からなり、符号41aは図5
(b)画面8内の5aの部分からの光をレンズ42を介
して集光して受光し、センサ41a,41cは各々画面
内の5b,5cの部分を受光し、これらの受光量は回路
43によって測光結果としてCPU10に入力される。
さらに、CPU10は、AF部1によって画面8の中の
位置1a,1b,1cを各々時分割して測距可能であ
る。また、視線検出用の表示用LEDは12a,12b
の位置に点灯している。
Further, the distance measuring device is assumed to be the one indicated by reference numeral 1 in FIG. 2A, and a photometric portion 5 for performing photometry at a plurality of points on the screen is added. The photometric unit 5 is composed of three-divided sensors 41a, 41b, 41c, a light receiving lens 42, and a sensor output processing circuit 43.
(B) The light from the portion 5a in the screen 8 is condensed and received via the lens 42, and the sensors 41a and 41c respectively receive the portions 5b and 5c in the screen, and the amount of light received by the circuit is The photometric result is input to the CPU 10 by 43.
Further, the CPU 10 can measure distances by time division of the positions 1a, 1b, 1c in the screen 8 by the AF unit 1. Further, the display LEDs for detecting the line of sight are 12a and 12b.
Is lit in the position.

【0032】従って、使用者がこれらの表示用LEDを
注視すると、IRED11a又は11bの光が眼底で反
射して、該反射光がセンサ18a又は18bに入射す
る。もし、使用者の眼が70aの位置にあれば、図示し
た光路でセンサ18aに光が入射し、眼が70bの位置
にあれば、センサ18bに光が入射する。
Therefore, when the user gazes at these display LEDs, the light from the IRED 11a or 11b is reflected by the fundus and the reflected light enters the sensor 18a or 18b. If the user's eye is at the position of 70a, light is incident on the sensor 18a through the illustrated optical path, and if the eye is at the position of 70b, light is incident on the sensor 18b.

【0033】よって、これらのセンサ出力を各々アンプ
19a,19bで増幅し、比較器40にて比較すれば、
左右いずれの方向を見ているかが単純に比較できる。さ
らに、IRED11a,11bをパルス状に投光できる
ようにし、投光時と非投光時のセンサ出力を比較器40
で比較できるようにしておく。IRED11a,11b
の非投光時と投光時の出力差がなければ使用者はそちら
の方は見ていないと考えられるので、このような構成に
より、左右のいずれの方向を見ているか、あるいは見て
いないかを判別することができる。
Therefore, if these sensor outputs are respectively amplified by the amplifiers 19a and 19b and compared by the comparator 40,
You can simply compare which direction you are looking at. Further, the IREDs 11a and 11b are made to be able to project light in pulses, and the sensor output at the time of projecting and at the time of non-projecting the comparator 40
So that you can compare with. IRED 11a, 11b
If there is no output difference between when the light is not projected and when the light is not projected, the user is not likely to look at it. Can be determined.

【0034】以下、図6のフローチャートを参照して、
かかる構成の第2の実施例に係るカメラのCPU10の
動作を説明する。動作を開始すると、CPU10は1s
tレリーズスイッチの状態を判定し(ステップS10
1)、当該1stレリーズスイッチがONされると、表
示用LED12a,12bを点灯させ(ステップS10
2)、IRED11a,11bの発光時及び非発光時の
アンプ19a,19bの出力VR,VL及びVR0,V
L0がCPU10に入力される(ステップS103,S
104)。
Hereinafter, with reference to the flowchart of FIG.
The operation of the CPU 10 of the camera according to the second embodiment having such a configuration will be described. When the operation starts, the CPU 10
The state of the t-release switch is determined (step S10
1) When the 1st release switch is turned on, the display LEDs 12a and 12b are turned on (step S10).
2), the outputs VR, VL and VR0, V of the amplifiers 19a, 19b when the IREDs 11a, 11b emit light and do not emit light
L0 is input to the CPU 10 (steps S103, S
104).

【0035】続いて、右側視線用IRED11aを発光
させた時のアンプ19aの出力VRが非発光時のアンプ
19aの出力VR0よりも大きい時には(ステップS1
05)、使用者は右側を見ているとして表示用LED1
2aを点滅させ(ステップS117)、レリーズスイッ
チが押し込まれていればステップS118を「YES」
に分岐し、右側測距用のAFIRED(図2(a)では
符号25a)を発光させて測距を行い(ステップS12
0)、側測光用センサ41aの出力をもとに測光値B
を検出する(ステップS121)。
Next, when the output VR of the amplifier 19a when the right-eye gaze IRED 11a emits light is larger than the output VR0 of the amplifier 19a when it does not emit light (step S1).
05), the LED 1 for display indicates that the user is looking at the right side.
2a is blinked (step S117), and if the release switch is pushed, step S118 is "YES".
And the distance is measured by making the right distance measuring AFIRED (reference numeral 25a in FIG. 2A) emit light (step S12).
0), the photometric value B based on the output of the right side photometric sensor 41a
Is detected (step S121).

【0036】そして、距離lにピント合せ(ステップS
110)、上記測光値Bに基づいて露光を行い(ステッ
プS111)、最後に表示用LEDを消灯させてシーケ
ンスを終了する(ステップS112)。また、ステップ
S105を「No」に分岐すれば、左側視線用のセンサ
18bのIRED11b投光時、非投光時の出力結果を
比較し、投光時の結果VLが非投光時の結果VL0より
明らかに大きければステップS113へと分岐し、左側
測距、測光を行い(ステップS115,S116)、ス
テップS110以降のシーケンスに移行する。
Then, focusing on the distance 1 (step S
110), exposure is performed based on the photometric value B (step S111), and finally the display LED is turned off to end the sequence (step S112). If step S105 is branched to “No”, the output results of the left eye gaze sensor 18b when the IRED 11b is projected and when it is not projected are compared, and the result VL when projected is the result VL0 when not projected. If it is obviously larger, the process branches to step S113 to perform left-side distance measurement and photometry (steps S115 and S116), and the sequence proceeds to step S110 and subsequent steps.

【0037】また、ステップS106を「No」に分岐
すると、画面左右は見ていないとして画面中央の測距・
測光を行い(ステップS108,S109)、その結果
に従って、ピント合せを行い(ステップS110)、露
光動作を行う(ステップS111)。
If step S106 is branched to "No", it is assumed that the left and right sides of the screen are not viewed and the distance measurement at the center of the screen is performed.
Photometry is performed (steps S108 and S109), and according to the result, focusing is performed (step S110) and an exposure operation is performed (step S111).

【0038】以上説明したように、第2の実施例では、
使用者の見ている所が左か右かだけを検出すればよいの
で、視線検出装置を従来のものに比べ、簡単な構成且つ
安価にできるといった利点がある。さらに、第2の実施
例でも、図4(a),(b)のいずれのシーンでも失敗
なく、正しく被写体30にピント合せをすることがで
き、露出も合せることが可能になる。
As described above, in the second embodiment,
Since it is only necessary to detect whether the user is looking at the left side or the right side, there is an advantage that the line-of-sight detection device can have a simpler structure and a lower cost than the conventional one. Further, also in the second embodiment, the subject 30 can be correctly focused and the exposure can be adjusted without fail in any of the scenes of FIGS. 4 (a) and 4 (b).

【0039】また、視線判定が困難な状況では、主要被
写体のうち、7〜8割が存在するとされる画面中央部優
先(中央重点)の設計となっているので、失敗の少ない
写真撮影が楽しめる。また、残りの2〜3割の写真は画
面中央以外に存在するのが、この時には、視線検出を行
って画面右側又は左側の測距データ、測光データを選択
すればよい。この時、使用者にとって、画面内の近接し
た2点を見分けるのは困難であるし、検出装置側でも使
用者の視線方向の微妙な変化を検出するには複雑且つ高
価な技術を要することになる。そこで、第2の実施例で
は、2つの視線検出ポイントはなるべく離間させ、図5
(b)の位置12a,12bのように視線ポイント表示
を行っている。
Further, in a situation where it is difficult to determine the line of sight, the design is such that 70% to 80% of the main subjects are present in the center of the screen (center priority), so photography with few failures can be enjoyed. . The remaining 20 to 30% of the photographs exist outside the center of the screen. At this time, the line-of-sight detection may be performed to select the distance measurement data or photometry data on the right or left side of the screen. At this time, it is difficult for the user to distinguish two adjacent points on the screen, and it is necessary for the detection device side to also require a complicated and expensive technique to detect a subtle change in the direction of the user's line of sight. Become. Therefore, in the second embodiment, the two line-of-sight detection points are separated as much as possible, and
The line-of-sight point is displayed like the positions 12a and 12b in (b).

【0040】従来技術では、なるべく測距ポイント1
a,1b,1cと一致したポイントに視線検出エリア1
2a,12bなどを設けようとしたが、被写体は画面中
央分に存在する確率が高く、測距ポイント1a,1b,
1cが離れすぎると、その隙間に被写体が入るとピンボ
ケになってしまう。一方、眼球は同一のポイントを見よ
うとしても固視微動と呼ばれる振動をしているので、視
線検出ポイントを近接させると、検出時の信頼性が低く
なる。
In the prior art, the distance measuring point 1 is as possible.
The line-of-sight detection area 1 is at the point that matches a, 1b, and 1c.
2a, 12b, etc. were tried to be provided, but there is a high probability that the subject exists in the center of the screen, and the distance measuring points 1a, 1b,
If 1c is too far away, the subject will be out of focus if the subject enters the gap. On the other hand, even if the eyeballs try to see the same point, they vibrate called fixational tremor, so if the line-of-sight detection points are brought close to each other, the reliability at the time of detection becomes low.

【0041】これに対して、第2の実施例では、前述の
ように視線検出ポイントはなるべく間隔をとり、測距ポ
イントは近接させてAFの失敗に対応させ、動作の安定
性や使い易さを高めている。つまり、測距ポイント(3
点)と同じ数だけの視線検出ポイントを持つ場合より本
発明は単純安価かつ固視微動を対策し、高信頼性での設
計が可能となる。
On the other hand, in the second embodiment, as described above, the line-of-sight detection points are spaced as much as possible, and the distance measurement points are brought close to each other so as to respond to the AF failure, thereby improving the stability of operation and the ease of use. Is increasing. That is, the distance measuring point (3
The present invention makes it possible to design with high reliability, by taking measures against simple and inexpensive fixation tremor as compared with the case where the same number of visual axis detection points as the number of points).

【0042】以上の実施例では、視線検出技術の単純化
と判定が困難な時の性能保証については述べたが、視線
検出判定が困難な時の性能保証について特に水陸両用カ
メラを例にとり、更に詳細に示した第3の実施例につい
て説明する。
In the above embodiments, the simplification of the visual axis detection technology and the performance guarantee when the judgment is difficult have been described. However, the performance guarantee when the visual axis detection and judgment is difficult is made by taking an amphibious camera as an example. The detailed third embodiment will be described.

【0043】先ず、図7には図2(b)に相当する光学
系の配置を示し説明する。第3の実施例では、IRED
11のハーフミラー28を透過した光をプリズム50を
介して受光素子51にて受光する点が異なっている。プ
リズム50は面50aの所で上記IREDの光を全反射
して受光素子51に入射させているが、仮に位置1aの
部分に水が接触すると、全反射条件が満たされなくなっ
て、受光素子51の受光量が減少してしまう。つまり、
受光素子51の出力を不図示のCPUがモニタすること
により水中判定が可能となる。このように、水中判定と
視線検出が可能なカメラが第3の実施例であるが、水中
写真撮影時には使用者は水中眼鏡をかけており、視線検
出は不可能となると考えられる。
First, FIG. 7 shows the arrangement of the optical system corresponding to FIG. In the third embodiment, IRED
The difference is that the light transmitted through the half mirror 28 of No. 11 is received by the light receiving element 51 via the prism 50. The prism 50 totally reflects the light of the above-mentioned IRED at the surface 50a and makes it enter the light receiving element 51. However, if water comes into contact with the position 1a, the total reflection condition will not be satisfied, and the light receiving element 51 will not be satisfied. The amount of received light will be reduced. That is,
The CPU (not shown) monitors the output of the light receiving element 51 to enable the underwater determination. As described above, the camera capable of underwater determination and line-of-sight detection is the third example, but it is considered that the user wears underwater glasses when taking an underwater photograph, and line-of-sight detection is impossible.

【0044】この第3の実施例では、図8に示すような
シーケンスにより、水中判定時には視線検出を行わない
ようにしている。誤って、視線方向を検出して思いもよ
らぬ方向の測距を行って失敗写真を撮影してしまうこと
を防止する。
In the third embodiment, the line of sight is not detected at the time of underwater determination by the sequence shown in FIG. It is possible to prevent the user from mistakenly detecting the line-of-sight direction and performing distance measurement in an unexpected direction to take a failed photograph.

【0045】即ち、1stレリーズスイッチのONが検
出されると(ステップS200)、センサ51の出力よ
り水中検知結果を判定する(ステップS201)。水中
である場合には視線検出を行わず測距する(ステップS
210)。この測距は、多点AFの最至近選択でもよい
が、比較的小さい被写体を大きく撮影する機会の多い水
中撮影なので、中央一点測距として多点測距を禁止した
形で行ってもよい。
That is, when the ON of the first release switch is detected (step S200), the underwater detection result is judged from the output of the sensor 51 (step S201). If it is under water, the line of sight is not detected and the distance is measured (step S
210). This distance measurement may be the closest selection of the multipoint AF, but since it is underwater photography in which a relatively small subject is often photographed large, it may be performed in a form in which the multipoint distance measurement is prohibited as the central one-point distance measurement.

【0046】また、水中でないと判定された時は、視線
判定を行い(ステップS202)、視線を加味した測距
を行う(ステップS203)。こうして、ステップS2
04にて2ndレリーズスイッチがONされると、ステ
ップS203,S210での測距結果に従ってピント合
せを行い(ステップS205)、露光を行い(ステップ
S206)、シーケンスを終了する。
When it is determined that the subject is not underwater, line-of-sight determination is performed (step S202), and distance measurement is performed in consideration of the line-of-sight (step S203). Thus, step S2
When the 2nd release switch is turned on in 04, focusing is performed according to the distance measurement results in steps S203 and S210 (step S205), exposure is performed (step S206), and the sequence ends.

【0047】以上説明したように、第3の実施例では、
水中においては撮影者が水中めがねをかけている事が多
いということから、視線検出を禁止して、誤った検出が
なされないように対策した。このように、陸上では使用
者の視線方向を考慮したピント合せを行い、水中では例
えば中央重点のピント合せを行うように切り換え制御で
きるので、状況に応じて正確な失敗のない撮影が楽しめ
る。
As described above, in the third embodiment,
Since it is common for photographers to wear underwater glasses underwater, we prohibited the line-of-sight detection and took measures to prevent false detection. In this way, the switching control can be performed so that the focusing is performed in consideration of the direction of the user's line of sight on land and the focusing is performed in the center, for example, in the water, so that accurate shooting without failure can be enjoyed depending on the situation.

【0048】尚、以上の実施例の眼底照明用の信号光は
反射率の高い盲点からの反射を想定して表示用LEDと
は別のIRED11によって発光させたが、十分なS/
Nが得られなければ、盲点や赤外線にこだわる必要はな
く、表示用LEDの光を眼底照射用信号光として利用し
てもよい。また、上記各実施例では、光投射型の所謂ア
クティブAFのマルチAFを前提として記述したが、被
写体の輝度分布情報に基づいた所謂パッシブ型のAFに
て、マルチAFを構成してもよい。
Note that the signal light for illuminating the fundus of the above-described embodiment was emitted by the IRED 11 different from the display LED, assuming reflection from a blind spot having a high reflectance, but sufficient S /
If N is not obtained, it is not necessary to pay attention to blind spots or infrared rays, and the light of the LED for display may be used as the signal light for fundus irradiation. Further, in each of the above-described embodiments, the description is made on the premise of the multi-AF of the light projection type so-called active AF, but the multi-AF may be configured by the so-called passive AF based on the luminance distribution information of the subject.

【0049】以上詳述したように、本発明のカメラで
は、単純で安価な視線検出装置と画面内の複数のポイン
トを測距できる多点AFの技術を効果的に結び付け、相
互の問題点を打ち消し合ったので、あらゆるシーンにお
いて、主要被写体に正しくピント合せできるオートフォ
ーカスカメラが安価で提供できる。
As described in detail above, in the camera of the present invention, the simple and inexpensive visual axis detection device and the multi-point AF technology capable of measuring a plurality of points on the screen are effectively combined, and mutual problems are caused. Since they cancel each other out, it is possible to provide an autofocus camera that can focus on the main subject correctly in all scenes at low cost.

【0050】尚、本発明の上記実施態様によれば、以下
のごとき構成が得られる。 (1)写真画面内の中央を含む複数のポイントを測距で
きる測距手段と、撮影者が画面内中央を見つめているこ
とを検出する中央視線検出手段と、上記中央視線検出手
段が視線検出判定したときには上記測距手段の中央測距
のみを有効とするように上記測距手段の出力を選択する
選択手段と、からなることを特徴とするカメラ。 (2)撮影者が写真画面内の周辺部を検出していること
を判定する周辺視線判定手段と、上記写真画面内の中央
と周辺とを測距できる測距手段と、上記周辺視線判定手
段が視線判定できないときには上記測距手段のうち画面
中央の測距結果を有効とするように上記測距手段の出力
を選択する選択手段と、からなることを特徴とするカメ
ラ。 (3)カメラの使用環境が水中か陸上かを判別する水中
判定手段と、撮影者がファインダ画面内のどの方向を見
ているかを判定する視線判定手段と、上記視線判定手段
の出力結果に従って画面内の複数ポイントの測距結果を
選択する測距手段と、を有するカメラにおいて、上記水
中判定手段が水中であると判定したときには上記視線判
定手段の出力結果を無視して上記測距手段の出力を選択
する選択手段と、を有することを特徴とするカメラ。 (4)撮影者が被写体を観察するファインダ画面内の所
定のポイントを表示する表示手段と、上記表示手段の近
傍から信号光を投光する投光手段と、を有し、撮影者が
上記表示手段を見つめた時に撮影者の眼底からの上記信
号光の反射信号を受光するように設けられた受光手段を
具備したことを特徴とする視線方向判別装置。 (5)上記(4)に記載の視線方向判別装置において、
上記表示手段を形成する発光素子を具備し、この発光素
子が前記信号光投光手段を兼ねることを特徴とする視線
方向判別装置。
According to the above embodiment of the present invention, the following constitution can be obtained. (1) Distance measuring means capable of measuring a plurality of points including the center of the picture screen, central line-of-sight detecting means for detecting that the photographer is gazing at the center of the screen, and the central line-of-sight detecting means detecting the line of sight A camera comprising: a selection unit that selects the output of the distance measuring unit so that only the central distance measurement of the distance measuring unit is effective when the determination is made. (2) Peripheral line-of-sight determination means for determining that the photographer is detecting the peripheral portion within the photograph screen, distance measuring means for measuring the distance between the center and the periphery of the photograph screen, and the peripheral visual line determination means. When the line-of-sight cannot be determined, the camera further comprises a selecting means for selecting the output of the distance measuring means so that the distance measuring result at the center of the screen among the distance measuring means is valid. (3) Underwater determination means for determining whether the environment in which the camera is used is underwater or land, line-of-sight determination means for determining which direction the photographer is looking in the viewfinder screen, and a screen according to the output result of the line-of-sight determination means. In a camera having a distance measuring means for selecting distance measuring results of a plurality of points in the inside, when the underwater judging means judges that the water is underwater, the output result of the line of sight judging means is ignored and the output of the distance measuring means is ignored. And a selecting unit for selecting. (4) The photographer has a display unit for displaying a predetermined point on the finder screen for observing the subject, and a light projecting unit for projecting signal light from the vicinity of the display unit. A line-of-sight direction discriminating apparatus comprising a light-receiving unit provided so as to receive a reflected signal of the signal light from the fundus of the photographer when gazing at the unit. (5) In the line-of-sight direction determination device described in (4) above,
A line-of-sight direction discriminating apparatus comprising a light emitting element forming the display means, the light emitting element also serving as the signal light projecting means.

【0051】[0051]

【発明の効果】本発明によれば、簡単な構成により、あ
らゆるシーンにおいて主要被写体に正しくピントを合わ
せた写真を撮影できるカメラを提供することができる。
According to the present invention, it is possible to provide a camera capable of taking a photograph in which a main subject is correctly focused in any scene with a simple structure.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のカメラの概念図である。FIG. 1 is a conceptual diagram of a camera of the present invention.

【図2】本発明の第1の実施例に係るカメラの構成を示
す図である。
FIG. 2 is a diagram showing a configuration of a camera according to a first embodiment of the present invention.

【図3】第1の実施例に係るカメラのCPU10の動作
を示すフローチャートである。
FIG. 3 is a flowchart showing an operation of the CPU 10 of the camera of the first embodiment.

【図4】(a)は主被写体が撮影画面の中央以外にある
構図例を示し、(b)は主被写体よりも至近の被写体が
撮影画面の中央以外にある構図例を示す図である。
FIG. 4A is a diagram showing a composition example in which a main subject is outside the center of the photographing screen, and FIG. 4B is a diagram showing a composition example in which a subject closer to the main subject is outside the center of the photographing screen.

【図5】前述した図1(b)に基づく本発明の第2の実
施例に係るカメラの構成を示す図である。
FIG. 5 is a diagram showing a configuration of a camera according to a second embodiment of the present invention based on FIG. 1 (b) described above.

【図6】第2の実施例に係るカメラのCPU10の動作
を示すフローチャートである。
FIG. 6 is a flowchart showing an operation of the CPU 10 of the camera of the second embodiment.

【図7】図2(b)に相当する第3の実施例に係るカメ
ラの光学系の配置を示す図である。
FIG. 7 is a diagram showing an arrangement of optical systems of a camera according to a third example corresponding to FIG.

【図8】第3の実施例によるCPUの動作を示すフロー
チャートである。
FIG. 8 is a flowchart showing the operation of the CPU according to the third embodiment.

【符号の説明】[Explanation of symbols]

1…多点AF部 2…ピント合せ部 3…中央視線検出部 4…視線検出部 5…分割AF部 10…判定部 1 ... Multi-point AF section 2 ... Focusing section 3 ... Central line-of-sight detection unit 4 ... Line-of-sight detection unit 5: Split AF section 10 ... Judgment unit

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G02B 7/28 G03B 13/16 G03B 13/36 ─────────────────────────────────────────────────── ─── Continuation of the front page (58) Fields surveyed (Int.Cl. 7 , DB name) G02B 7/28 G03B 13/16 G03B 13/36

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 撮影画面内の中央を含んだ複数ポイント
の測距データを検出することが可能なカメラにおいて、 撮影者がファインダ画面中央部を注視しているか否かの
みを検出する視線検出手段と、 上記視線検出手段により、撮影者が画面中央部を注視し
ていると判断された場合には、画面中央の測距データを
選択し、画面中央部を注視していないと判断された場合
には、所定の判断基準により上記複数ポイントの測距デ
ータの中から1つの測距データを選択する選択手段と、
を具備したことを特徴とするカメラ。
1. A camera capable of detecting distance measurement data of a plurality of points including the center of a photographing screen, and a line-of-sight detecting means for detecting only whether or not the photographer is gazing at the central portion of the finder screen. When the photographer determines that the photographer is gazing at the center of the screen, the distance measurement data at the center of the screen is selected and it is determined that the photographer is not gazing at the center of the screen. Means for selecting one distance measuring data from the distance measuring data of a plurality of points according to a predetermined judgment criterion;
A camera comprising:
【請求項2】 上記所定の判断基準は、上記複数ポイン
トの測距データのうち、最至近にある測距ポイントに対
応する測距データを選択するものであることを特徴とす
る請求項1に記載のカメラ。
2. The predetermined criterion is the plurality of points.
Of the distance measurement data of the
It is characterized by selecting the distance measurement data
The camera according to claim 1, wherein
【請求項3】 さらに、上記ファインダ画面内において
画面中央部の測距ポイントに対応する表示を行う表示部
を具備し、この表示部は、測距データ検出時と上記視線
検出手段の作動時とでその表示態様が異なることを特徴
とする請求項1に記載のカメラ。
3. Further, in the finder screen,
Display unit that displays the distance measurement points in the center of the screen
This display is equipped with the
The display mode is different when the detection means is activated.
The camera according to claim 1.
JP23263694A 1994-09-28 1994-09-28 camera Expired - Fee Related JP3461392B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23263694A JP3461392B2 (en) 1994-09-28 1994-09-28 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23263694A JP3461392B2 (en) 1994-09-28 1994-09-28 camera

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003181575A Division JP2004004909A (en) 2003-06-25 2003-06-25 Camera

Publications (2)

Publication Number Publication Date
JPH0894915A JPH0894915A (en) 1996-04-12
JP3461392B2 true JP3461392B2 (en) 2003-10-27

Family

ID=16942411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23263694A Expired - Fee Related JP3461392B2 (en) 1994-09-28 1994-09-28 camera

Country Status (1)

Country Link
JP (1) JP3461392B2 (en)

Also Published As

Publication number Publication date
JPH0894915A (en) 1996-04-12

Similar Documents

Publication Publication Date Title
JP2950546B2 (en) Eye gaze detecting device and camera having eye gaze detecting device
JP3186072B2 (en) Equipment with gaze detection device
JPH05297266A (en) Camera with focus sensing means and line-of-sight sensing means
US6674964B2 (en) Visual axis detecting apparatus
JPH06304142A (en) Device for detecting line of sight
JP2920940B2 (en) Equipment with gaze detection means
JP3297481B2 (en) Eye gaze detection device
US5402199A (en) Visual axis detecting apparatus
JP2749818B2 (en) Eye gaze detection device
US5579080A (en) Camera including an apparatus for detecting a line of sight
JPH02264632A (en) Sight line detector
JP2861349B2 (en) Optical device having line-of-sight detecting means
JP3461392B2 (en) camera
JPH08152552A (en) Range-finding device and range-finding method
JP3184633B2 (en) camera
JP2004004909A (en) Camera
JP2950759B2 (en) Optical equipment having a line-of-sight detection device
JP3184634B2 (en) Optical device having line-of-sight detection device
JP2955425B2 (en) Camera information setting device
JPH07222719A (en) Line of sight detector
JP3391892B2 (en) Eye gaze detecting device, optical device, and eye gaze detecting method
JP2733260B2 (en) Detection device and optical equipment
JPH0938038A (en) Sight line detection device and optical instrument therewith
JP3530648B2 (en) Eye gaze detecting device and optical device
JPH06125874A (en) Sight line detecting device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030729

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080815

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090815

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100815

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100815

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130815

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees