JPH0720373A - Focus controller for camera - Google Patents

Focus controller for camera

Info

Publication number
JPH0720373A
JPH0720373A JP5165526A JP16552693A JPH0720373A JP H0720373 A JPH0720373 A JP H0720373A JP 5165526 A JP5165526 A JP 5165526A JP 16552693 A JP16552693 A JP 16552693A JP H0720373 A JPH0720373 A JP H0720373A
Authority
JP
Japan
Prior art keywords
line
sight
defocus amount
range
finding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5165526A
Other languages
Japanese (ja)
Other versions
JP3500171B2 (en
Inventor
Shinichi Kodama
晋一 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP16552693A priority Critical patent/JP3500171B2/en
Publication of JPH0720373A publication Critical patent/JPH0720373A/en
Application granted granted Critical
Publication of JP3500171B2 publication Critical patent/JP3500171B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Eye Examination Apparatus (AREA)
  • Focusing (AREA)
  • Viewfinders (AREA)

Abstract

PURPOSE:To optimumly and accurately set a defocus amount. CONSTITUTION:A multiple range-finding part 1 performs range-finding to plural discrete range-finding points, and a line-of-sight detection part 3 detects the position of the line of sight of a photographer with resolution finer than range- finding by the range-finding part 1. Based on range-finding information by the range-finding part 1 and the position of the line of sight, a defocus amount decision part 4 calculates the defocus amount of a photographing optical system. Then, focus control is performed based on the defocus amount, and positional relation between the position of the line of sight detected by the detection part 3 and the plural range-finding points is detected. Based on the positional relation, an algorithm for obtaining the defocus amount based on the range- finding information and the position of the line of sight is changed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は撮影者の視線方向を検出
し、該視線信号にてカメラの情報を決定するカメラの焦
点制御装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a focus control device for a camera, which detects the direction of the line of sight of the photographer and determines the camera information based on the line-of-sight signal.

【0002】[0002]

【従来の技術】従来、マルチ・オートフォーカス(マル
チAF)機能を有するカメラにおいては、複数のAFデ
ータより最適値を選択する必要性があり、測距データや
焦点距離(f値)等を基に理想のアルゴリズムを工夫し
ている。かかる場合、カメラ側のみにおいて最終的な測
距情報を決定するため、撮影者の意図が完全に取り込ま
れることはなく、ピントがぼけた写真となることもあ
る。
2. Description of the Related Art Conventionally, in a camera having a multi-auto focus (multi-AF) function, it is necessary to select an optimum value from a plurality of AF data, and it is necessary to select an optimum value based on distance measurement data and focal length (f value). Is devising an ideal algorithm. In such a case, since the final distance measurement information is determined only on the camera side, the photographer's intention may not be completely captured, and the photograph may be out of focus.

【0003】この問題に鑑みてフォーカスエリアの選択
をスイッチや視線入力により行い撮影者の意図を取り込
むための種々の技術が提案されている。しかしながら、
この場合もコンパクトカメラのユーザにおいては主要被
写体を認識し、例えばダイヤル操作、釦操作とキャリブ
レーション等の入力フォーマットに従って操作する必要
があるため操作性が良いとは言い難い。また、コンパク
トカメラは望遠ズーム化、小型化にてFナンバーが大き
くなり深度が深くなりつつあるが、当該コンパクトカメ
ラの撮影者は特にピントの甘い写真よりも大ボケ写真の
方を問題とすることが多い。これらの状況を考えると、
撮影者が意識することなく主要被写体を見るだけで最適
な写真を撮れることが要望される。
In view of this problem, various techniques have been proposed for selecting a focus area by using a switch or line-of-sight input to capture the intention of the photographer. However,
Also in this case, it is difficult to say that the operability is good because the user of the compact camera needs to recognize the main subject and operate it according to the input format such as dial operation, button operation and calibration. Also, the compact camera is getting deeper and deeper due to the larger F-number due to the telephoto zoom and downsizing. However, the photographer of the compact camera is more concerned about the large-blur photo than the unfocused photo. There are many. Given these situations,
It is required that the photographer be able to take an optimal photograph by simply looking at the main subject without being aware of it.

【0004】この問題に鑑みて、例えば特開昭63−1
94237号公報や特開平3−87818号公報ではフ
ァインダを覗く撮影者の視線方向を検出して当該視線の
情報に基づいてカメラに情報を入力する技術が開示され
ている。そして、特開平2−206425号公報では検
出方式等に関する技術が開示されている。さらに、特開
平4−307506号公報や特開平5−88075号公
報では視線検出位置を用いた測距情報の決定に関する技
術が開示されている。また、特開昭59−146028
号公報や特開平1−276106号公報ではマルチ測距
情報より最適な測距情報を決定するアルゴリズムについ
て開示されている。
In view of this problem, for example, JP-A-63-1
Japanese Patent Application Laid-Open No. 94237 and Japanese Patent Application Laid-Open No. 3-87818 disclose a technique of detecting a line-of-sight direction of a photographer looking into a viewfinder and inputting information to a camera based on the information of the line-of-sight. Japanese Patent Application Laid-Open No. 2-206425 discloses a technique relating to a detection method and the like. Further, JP-A-4-307506 and JP-A-5-88075 disclose techniques relating to determination of distance measurement information using a sight line detection position. Also, JP-A-59-146028
Japanese Patent Laid-Open Publication No. 1-276106 and Japanese Patent Laid-Open No. 1-276106 disclose an algorithm for determining the optimum distance measurement information from the multiple distance measurement information.

【0005】[0005]

【発明が解決しようとする課題】前述したようなマルチ
AF機能を有するカメラにおいては、マルチAFデータ
より最適値を選択する必要性があり、測距データや焦点
距離等を基にしたアルゴリズムの工夫により、かなりの
合焦点率が実現されているが、かかる場合にはカメラ側
のみにて最終的な測距情報を決定するため、撮影者の意
図が完全に取り込まれることはない。
In the camera having the multi-AF function as described above, it is necessary to select the optimum value from the multi-AF data. Therefore, the algorithm based on the distance measurement data and the focal length is devised. However, in this case, since the final distance measurement information is determined only on the camera side in this case, the intention of the photographer is not completely taken in.

【0006】そして、このようにフォーカスエリアの選
択をスイッチや視線入力にて行って撮影者の意図を入力
する場合、コンパクトカメラのユーザにおいては主要被
写体を認識し、それぞれの入力フォーマットに従って操
作する必要がある為、操作性が良いとは言い難い。
When the focus area is thus selected by the switch or the line-of-sight input to input the intention of the photographer, the user of the compact camera needs to recognize the main subject and operate according to each input format. Therefore, it is hard to say that the operability is good.

【0007】また、上記視線入力による場合、人間の目
は常に動いている為、撮影時に意識して主要被写体を黙
視してスイッチ操作することは使用感の良い方法とは言
い難い。さらに、離散配置のフォーカスエリアの場合は
主要被写体とフォーカスエリアの不一致が発生し、例え
ばフォーカスエリアの境付近が選択されると誤測距につ
ながってしまう。
Further, in the case of the above-mentioned line-of-sight input, since human eyes are always moving, it is hard to say that it is a method with a good usability to silently operate the main subject while taking a picture. Further, in the case of discretely arranged focus areas, the main subject and the focus areas do not coincide with each other. For example, if the vicinity of the boundary between the focus areas is selected, incorrect distance measurement will result.

【0008】本発明は上記問題に鑑みてなされたもの
で、その目的とするところは、撮影者の視線によるフォ
ーカスエリアの選択領域を処理内容に応じて分割し、視
線情報とマルチ測距のアルゴリズムを組み合わせて使用
することで、撮影者に負担をかけることなく、より的確
に最適なデフォーカス量を設定することにある。
The present invention has been made in view of the above problems, and an object of the present invention is to divide a selected area of a focus area according to the line of sight of a photographer according to processing contents, and to generate line of sight information and an algorithm for multi-distance measurement. By combining and using the above, the optimum defocus amount can be set more accurately without imposing a burden on the photographer.

【0009】[0009]

【課題を解決するための手段】上記問題を解決するため
に、本発明のカメラの焦点制御装置では、複数の離散的
測距点について測距を行う測距手段と、上記測距手段に
よる上記測距点よりも細かい分解能で撮影者の視線位置
を検出する視線検出手段と、上記測距手段による測距情
報と上記視線位置とに基づいて撮影光学系のデフォ−カ
ス量を演算する演算手段と、上記デフォ−カス量に基づ
いて焦点制御を行う制御手段とを有するカメラの焦点制
御装置において、上記視線検出手段によって検出された
上記視線位置と上記複数の測距点の位置関係を検出する
位置関係検出手段と、上記位置関係に基づいて、上記測
距情報と上記視線位置とに基づいてデフォ−カス量を求
める演算アルゴリズムを変更する変更手段とを具備した
ことを特徴とする。
In order to solve the above problems, in a camera focus control apparatus of the present invention, a distance measuring means for performing distance measurement for a plurality of discrete distance measuring points, and the above-mentioned distance measuring means Line-of-sight detecting means for detecting the line-of-sight position of the photographer with a resolution finer than the distance-measuring point, and calculating means for calculating the defocus amount of the photographing optical system based on the distance-measurement information by the distance-measuring device and the line-of-sight position And a focus control device for a camera having a control means for performing focus control based on the defocus amount, for detecting a positional relationship between the sight line position detected by the sight line detecting means and the plurality of focus detection points. The present invention is characterized by including a positional relationship detecting means and a changing means for changing a calculation algorithm for obtaining a defocus amount based on the distance measurement information and the line-of-sight position based on the positional relationship.

【0010】[0010]

【作用】即ち、本発明のカメラの焦点制御装置では、測
距手段が複数の離散的測距点について測距を行い、視線
検出手段が上記測距手段による上記測距点よりも細かい
分解能で撮影者の視線位置を検出し、演算手段が上記測
距手段による測距情報と上記視線位置とに基づいて撮影
光学系のデフォ−カス量を演算し、制御手段が上記デフ
ォ−カス量に基づいて焦点制御を行う。そして、位置関
係検出手段が上記視線検出手段によって検出された上記
視線位置と上記複数の測距点の位置関係を検出し、変更
手段が上記位置関係に基づいて、上記測距情報と上記視
線位置とに基づいてデフォ−カス量を求める演算アルゴ
リズムを変更する。
That is, in the focus control device for a camera of the present invention, the distance measuring means performs distance measurement for a plurality of discrete distance measuring points, and the line-of-sight detecting means has a finer resolution than the distance measuring points by the distance measuring means. The line-of-sight position of the photographer is detected, the calculation unit calculates the defocus amount of the photographing optical system based on the distance measurement information by the distance-measuring unit and the line-of-sight position, and the control unit based on the defocus amount. Focus control. The positional relationship detecting means detects the positional relationship between the line-of-sight position detected by the line-of-sight detecting means and the plurality of distance measuring points, and the changing means detects the distance measuring information and the line-of-sight position based on the positional relationship. The calculation algorithm for obtaining the amount of defocus is changed based on and.

【0011】[0011]

【実施例】本発明の実施例について説明する前に、本発
明の実施例に採用される視線検出の原理について説明す
る。尚、視線方向を検出する方法としては種々の方法が
挙げられるが、ここではカメラに適用できる方法として
プルキンエ像と眼底の反射像又は虹彩のエッジを用いて
視線方向を検出する方法について簡単に述べる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Before describing the embodiments of the present invention, the principle of line-of-sight detection adopted in the embodiments of the present invention will be described. There are various methods for detecting the line-of-sight direction. Here, a method for detecting the line-of-sight direction using a Purkinje image and a reflection image of the fundus or an edge of the iris will be briefly described as a method applicable to a camera. .

【0012】図13に示すように、一般に光95が眼球
90を通過すると、各界面部毎に反射が生じる。即ち角
膜前面91、角膜後面91´、水晶体の前面93´、水
晶体の後面93”の各界面で反射される。これらの反射
によって結ばれる像は当業技術関係者においては良く知
られているもので、一般にはプルキンエ像と称されてい
る。そして、角膜前面91から各々第1プルキンエ像、
第2プルキンエ像、第3プルキンエ像、第4プルキンエ
像と称される。尚、同図において符号92は虹彩、93
は水晶体、94は網膜、97は強膜をそれぞれ示す。
As shown in FIG. 13, when light 95 generally passes through the eyeball 90, reflection occurs at each interface. That is, it is reflected at the interfaces of the front surface 91 of the cornea, the rear surface 91 'of the cornea, the front surface 93' of the lens, and the rear surface 93 "of the lens. The images formed by these reflections are well known to those skilled in the art. , And is generally referred to as the Purkinje image, and the first Purkinje image from the front surface 91 of the cornea,
They are called the second Purkinje image, the third Purkinje image, and the fourth Purkinje image. In the figure, reference numeral 92 is an iris, and 93
Is a lens, 94 is a retina, and 97 is a sclera.

【0013】本発明の実施例は、上記第1プルキンエ像
を利用して視線を検出するもので、当該第1プルキンエ
像は角膜前面91からの反射光によって結ばれる光源の
虚像であり、単に角膜反射像とも呼ばれる最も強い反射
像である。
In the embodiment of the present invention, the line of sight is detected by using the first Purkinje image, and the first Purkinje image is a virtual image of a light source formed by reflected light from the anterior surface of the cornea 91, and is simply the cornea. This is the strongest reflection image, which is also called the reflection image.

【0014】この反射像である第1プルキンエ像95a
の様子は図14により示され、眼球90に光を投光し、
その反射像をとらえると受光出力の高い第1プルキンエ
像95aが検出される。尚、上記第1プルキンエ像95
a以外のプルキンエ像は反射光量が弱く反射像のできる
位置が異なる為、検出することは難しい。
The first Purkinje image 95a which is the reflection image
14 is shown in FIG. 14, in which light is projected onto the eyeball 90,
When the reflected image is captured, the first Purkinje image 95a having a high received light output is detected. The first Purkinje image 95
It is difficult to detect Purkinje images other than a because the amount of reflected light is weak and the position where a reflected image is formed is different.

【0015】そして、眼球90に光を投光した時に眼底
からの反射光95bにより眼底像が瞳孔の周縁99のシ
ルエットとして検出される。この眼底からの反射像95
bは第1プルキンエ像95aと共に図14に示してある
が、実施例ではこの2つの像を用いて視線方向を検出す
る。
Then, when light is projected onto the eyeball 90, the fundus image is detected as the silhouette of the peripheral edge 99 of the pupil by the reflected light 95b from the fundus. Reflected image 95 from this fundus
Although b is shown in FIG. 14 together with the first Purkinje image 95a, the line-of-sight direction is detected using these two images in the embodiment.

【0016】この検出像は眼球の回転により図15に示
すように変化する。即ち、眼球90の光軸98と眼に投
光する光束が平行にある場合は、図15(a)に示すよ
うに眼底像95bの中心即ち瞳孔中心と第1プルキンエ
像95aの中心が一致している。そして、眼球90が回
転した場合には、図15(b)に示すように光軸98が
眼球90の回転中心90cを中心に回転している。その
場合、眼底像95bの中心は眼からの反射光を受光する
センサ画素列上の異なった位置に受光できる。
This detected image changes as shown in FIG. 15 due to the rotation of the eyeball. That is, when the optical axis 98 of the eyeball 90 and the light flux projected on the eye are parallel to each other, the center of the fundus image 95b, that is, the center of the pupil and the center of the first Purkinje image 95a coincide with each other, as shown in FIG. ing. When the eyeball 90 rotates, the optical axis 98 rotates around the rotation center 90c of the eyeball 90 as shown in FIG. In that case, the center of the fundus image 95b can be received at different positions on the sensor pixel row that receives the reflected light from the eye.

【0017】さらに、第1プルキンエ像95aの中心は
眼底像95bの中心とも相対的に異なる位置に受光す
る。これは角膜91の前面に持つ曲面の中心が眼球の回
転中心と異なる為である。従って、この2つの像のセン
サ画素列に対する絶対位置のずれと上記2つの像の相対
的なずれより、ファインダを覗く撮影者の眼球90の回
転量とシフト量を求めることができ、更には撮影者がど
こを見ているか判別することができる。
Further, the center of the first Purkinje image 95a is received at a position relatively different from the center of the fundus image 95b. This is because the center of the curved surface on the front surface of the cornea 91 is different from the center of rotation of the eyeball. Therefore, the amount of rotation and the amount of shift of the eyeball 90 of the photographer looking into the finder can be obtained from the displacement of the absolute positions of these two images with respect to the sensor pixel row and the relative displacement of the two images, and further, the photographing. It is possible to determine where the person is looking.

【0018】次に本発明の実施例が採用した視線検出像
からの特徴抽出処理について説明する。尚、実施例では
特徴抽出を角膜反射像95a又は眼底反射像95bを用
いて検出する。
Next, the feature extraction processing from the line-of-sight detection image adopted by the embodiment of the present invention will be described. In the embodiment, feature extraction is detected using the corneal reflection image 95a or the fundus reflection image 95b.

【0019】先ず図16(a)乃至(c)は角膜反射9
5aと眼底反射95bとの関係を示す図である。同図に
おいて、pxは角膜反射95aの重心位置、ixは眼底
反射95bの重心位置を示す。そして、眼球中心が固定
されるならば眼底反射95bの重心位置ix,角膜反射
95aの重心位置pxのみ又は両方を含めた重心位置を
検出すれば回転角は検出できる。この図16に示す眼底
反射は一般に赤目状態即ち眼底からの反射光が多い状態
であり、赤目状態でない場合、即ち明るい状態で光彩が
絞られた場合又は反射光が受光系に戻らない場合には眼
底反射95bの出力はさらに低下する。そして、ファイ
ンダ中央から見た場合、図16(a)は回転角“0”で
中央、図16(b)は回転角負で左側、図16(c)は
回転角正で右側をそれぞれ見ていることになる。
First, FIGS. 16A to 16C show the corneal reflection 9
It is a figure which shows the relationship between 5a and the fundus reflex 95b. In the figure, px indicates the center of gravity of the corneal reflection 95a, and ix indicates the center of gravity of the fundus reflection 95b. If the center of the eyeball is fixed, the rotation angle can be detected by detecting the barycentric position ix of the fundus reflection 95b, the barycentric position px of the corneal reflection 95a, or the barycentric position including both. The fundus reflection shown in FIG. 16 is generally a red-eye state, that is, a state in which a large amount of light is reflected from the fundus. The output of the fundus reflex 95b further decreases. When viewed from the center of the finder, FIG. 16A shows the center at a rotation angle of “0”, FIG. 16B shows the left side with a negative rotation angle, and FIG. 16C shows the right side with a positive rotation angle. Will be there.

【0020】そして、図17(a)乃至(c)は角膜反
射95aと眼底反射95bとの関係を示す図である。同
図において、pxは角膜反射95aの重心位置を示し、
ixは眼底反射95bの重心位置を示す。そして、眼底
反射95bの重心位置ix,角膜反射95aの重心位置
pxのみ又は両方を含めた重心位置を検出すれば、おお
よそのシフト量は検出できる。そして、先に示した図1
6と同様に、この図17に示す眼底反射は一般に赤目状
態即ち眼底からの反射光が多い状態であり、赤目状態で
ない場合即ち明るい状態で光彩が絞られた場合又は反射
光が受光系に戻らない場合、眼底反射95bの出力はさ
らに低下する。そして、ファインダ中央から見た場合、
図17(a)はシフト量“0”で中央、図17(b)は
シフト量負で左側、図17(c)はシフト量正で右側を
見ていることになる。
17 (a) to 17 (c) are diagrams showing the relationship between the corneal reflection 95a and the fundus reflection 95b. In the figure, px indicates the center of gravity of the corneal reflection 95a,
ix indicates the position of the center of gravity of the fundus reflection 95b. The approximate shift amount can be detected by detecting the barycentric position ix of the fundus reflection 95b, the barycentric position px of the corneal reflection 95a, or both of them. Then, as shown in FIG.
Similar to 6, the fundus reflection shown in FIG. 17 is generally a red-eye state, that is, a state in which a large amount of light is reflected from the fundus, and when it is not in a red-eye state, that is, when the iris is squeezed in a bright state or the reflected light returns to the light receiving system. If not, the output of the fundus reflex 95b is further reduced. And when viewed from the center of the viewfinder,
17A, the shift amount is “0”, the center is viewed, FIG. 17B is the shift amount is negative and the left side is viewed, and FIG. 17C is the shift amount is positive, and the right side is viewed.

【0021】この図16,17で示したように、検出光
量分布の重心位置を検出することで視線がどちらを見て
いるかをほぼ検出することができる。また、一般に1回
のシャッタシーケンス(1stレリーズ付近から2nd
レリーズまで)においては眼のシフトは大きく変化する
ことはなく、相対的な動きを検出することで撮影者が見
ようとする範囲の大きさは判定可能となる。さらに、シ
ーケンス内で基準位置検出を行うことで見ようとしてい
るおおよその位置検出ができる。
As shown in FIGS. 16 and 17, by detecting the barycentric position of the detected light amount distribution, it is possible to almost detect which the line of sight is looking. Also, in general, one shutter sequence (2nd from near the 1st release)
During the release), the eye shift does not change significantly, and it is possible to determine the size of the range that the photographer intends to see by detecting the relative movement. Further, by performing reference position detection in the sequence, it is possible to detect the approximate position to be seen.

【0022】以下、前述したような原理に基づく本発明
の実施例について説明する。図1は本発明の第1の実施
例に係るカメラの焦点制御装置の構成を示す図である。
この図1に示すように、マルチ測距部1と測光部2、視
線検出部3、ブロック分割部5はデフォーカス量決定部
4に接続されており、それぞれの情報をデフォーカス量
決定部4に送る。そして、撮影光学系6はデフォーカス
量決定部4と相互に接続されており、撮影光学系6はデ
フォーカス量決定部3に情報を送ると共にデフォーカス
量決定部4より情報を受け取る。
An embodiment of the present invention based on the above-mentioned principle will be described below. 1 is a diagram showing the configuration of a focus control device for a camera according to a first embodiment of the present invention.
As shown in FIG. 1, the multi-distance measuring unit 1, the photometric unit 2, the line-of-sight detecting unit 3, and the block dividing unit 5 are connected to the defocus amount determining unit 4, and the respective information is defocused by the defocus amount determining unit 4. Send to. The photographing optical system 6 is connected to the defocus amount determining unit 4, and the photographing optical system 6 sends information to the defocus amount determining unit 3 and receives information from the defocus amount determining unit 4.

【0023】このような構成において、マルチ測距部1
は複数点の測距を行い測距情報をデフォーカス量決定部
4に送り、測光部2は測光情報をデフォーカス量決定部
4に送り、視線検出部3は撮影者が見ている位置に関す
る情報をデフォーカス量決定部4に送る。そして、撮影
光学系6は焦点距離(f値)、絞り(Fno)に関する
情報をデフォーカス量決定部4に送り、ブロック分割部
5は視線検出するブロックを設定し設定した情報をデフ
ォーカス量決定部4に送る。さらに、デフォーカス量決
定部4は測光情報や撮影光学系情報、視線情報、マルチ
測定情報、そしてブロック情報に基づいて撮影光学系6
のデフォーカス量を決定する。
In such a configuration, the multi-range finding section 1
Performs the distance measurement at a plurality of points and sends the distance measurement information to the defocus amount determination unit 4, the photometry unit 2 sends the photometry information to the defocus amount determination unit 4, and the line-of-sight detection unit 3 relates to the position viewed by the photographer. The information is sent to the defocus amount determination unit 4. Then, the photographing optical system 6 sends information about the focal length (f value) and the aperture (Fno) to the defocus amount determination unit 4, and the block division unit 5 sets the block for line-of-sight detection and determines the set information. Send to Part 4. Further, the defocus amount determination unit 4 uses the photometric system 6 based on the photometric information, the photographic optical system information, the line-of-sight information, the multi-measurement information, and the block information.
Determine the defocus amount of.

【0024】次に図2は上記第1の実施例を更に具現化
した第2の実施例に係るカメラの焦点制御装置の構成を
示す図である。尚、本実施例は横配置の3点AFのフォ
ーカスエリアの選択を視線信号を用いて行う。
Next, FIG. 2 is a diagram showing the structure of a focus control device for a camera according to a second embodiment, which is a further implementation of the first embodiment. In this embodiment, the focus area of the horizontally arranged three-point AF is selected using the line-of-sight signal.

【0025】この図2において、複数点測距回路(マル
チAF回路)11,測光回路(AE回路)21,撮影レ
ンズ14は中央演算処理装置(CPU)12に接続され
ており、該CPU12は表示回路13に接続されてい
る。そして、上記CPU12は駆動回路15を介してレ
ンズ14にも接続されており、さらに、上記CPU12
は投光LED17にも接続されており、該投光LED1
7及びファインダ光学系16は視線検出光学系18に接
続されている。そして、上記視線検出光学系18は視線
センサ(PSD)19に接続されており、該PSD19
は光量の重心検出に対応する信号を出力し、インターフ
ェース回路(I/F回路)20を介して上記CPU12
に接続されている。
In FIG. 2, a multi-point distance measuring circuit (multi-AF circuit) 11, a photometric circuit (AE circuit) 21, and a photographing lens 14 are connected to a central processing unit (CPU) 12, and the CPU 12 displays. It is connected to the circuit 13. The CPU 12 is also connected to the lens 14 via a drive circuit 15, and the CPU 12 is further connected.
Is also connected to the light emitting LED 17, and the light emitting LED 1
7 and the finder optical system 16 are connected to the visual axis detection optical system 18. The visual axis detection optical system 18 is connected to a visual axis sensor (PSD) 19, and the PSD 19
Outputs a signal corresponding to the detection of the center of gravity of the light quantity, and the CPU 12 through the interface circuit (I / F circuit) 20.
It is connected to the.

【0026】このような構成において、マルチAF回路
11は複数点に測距を行い測距情報をCPU12へ送
り、AE回路21は測光情報をCPU12へ送り、レン
ズ14は焦点距離情報(ズーム値,絞り範囲情報)をC
PU14に送る。そして、視線検出系はCPU12から
の指令を受けると、投光LED17より視線検出光学系
18及びファインダ光学系16を介して眼球90に対し
て光が投光される。さらに、この眼球からの反射光は再
びファインダ光学系16,視線検出光学系18を介して
視線センサ19に受光される。そして、このPSD19
からの出力信号はI/F回路20により重心位置に対応
する信号と明るさに対応する信号に変換された後、CP
U12に入力される。そして、このCPU12はI/F
回路20より視線に関する情報、明るさに関する情報と
マルチAF回路11より複数点の測距情報を基にまばた
きを検出すると共にデフォーカス量を決定する。さら
に、設定されたデフォーカス量にて駆動回路15を介し
てレンズ14を駆動する。
In such a configuration, the multi-AF circuit 11 measures the distance to a plurality of points and sends the distance measurement information to the CPU 12, the AE circuit 21 sends the photometry information to the CPU 12, and the lens 14 the focal length information (zoom value, zoom value, (Aperture range information) is C
Send to PU14. When the line-of-sight detection system receives a command from the CPU 12, light is emitted from the light emitting LED 17 to the eyeball 90 via the line-of-sight detection optical system 18 and the finder optical system 16. Further, the reflected light from the eyeball is again received by the visual axis sensor 19 via the finder optical system 16 and the visual axis detecting optical system 18. And this PSD19
The output signal from the I / F circuit 20 is converted into a signal corresponding to the position of the center of gravity and a signal corresponding to the brightness, and then the CP
Input to U12. And this CPU 12 is an I / F
The circuit 20 detects the blink and the defocus amount based on the information about the line of sight, the information about the brightness, and the multi-AF circuit 11 based on the distance measurement information of a plurality of points. Further, the lens 14 is driven via the drive circuit 15 with the set defocus amount.

【0027】ここで、上記視線検出光学系18の詳細な
構成は図3に示す通りである。この図3に示すように、
投光LED17からの投光光の光路上には投光レンズ2
7を介してハーフミラー22が配置されており、上記投
光光は該ハーフミラー22により反射される。そして、
この反射光の光路上にはプリズム23が配置されてお
り、反射光はプリズム23の反斜面23aにて反射さ
れ、ファインダ24を介して撮影者の眼球90へと導か
れる。そして、上記撮影者の眼球からの反射光は入射光
と同じ光路を通ってファインダ24を介してプリズム2
3に入射され、その反射面23aにて反射される。そし
て、この反射光はハーフミラー22を透過し、受光レン
ズ25を介して視線センサ19に受光される。
The detailed structure of the visual axis detecting optical system 18 is as shown in FIG. As shown in this FIG.
The projection lens 2 is provided on the optical path of the projection light from the projection LED 17.
A half mirror 22 is arranged via 7 and the projected light is reflected by the half mirror 22. And
A prism 23 is arranged on the optical path of this reflected light, and the reflected light is reflected by the anti-slope 23a of the prism 23 and guided to the eyeball 90 of the photographer through the finder 24. Then, the reflected light from the eyeball of the photographer passes through the same optical path as the incident light and passes through the viewfinder 24 to the prism 2
3 and is reflected by the reflecting surface 23a. Then, the reflected light passes through the half mirror 22 and is received by the line-of-sight sensor 19 via the light receiving lens 25.

【0028】一方、被写体光は、該被写体光に重ねて表
示を示す表示液晶26を介してプリズムに入射され、そ
の反斜面23aを透過して、更にファインダ24を介し
て撮影者の眼球90へと導かれる。
On the other hand, the subject light is made incident on the prism through the display liquid crystal 26 which is superposed on the subject light and indicates a display, passes through the anti-slope 23a thereof, and further passes through the viewfinder 24 to the eyeball 90 of the photographer. Is led.

【0029】尚、ファインダ表示の様子は図4に示す通
りである。即ち図4(a),(c)はスーパーインポー
ズにて画面の中央に表示する場合であり、図4(b),
(d)は枠の部分に表示する場合を示す。また、視線モ
ードの表示は視線検出モードの場合点灯し、視線検出出
来ない場合点滅にて警告する。
The viewfinder display is as shown in FIG. That is, FIGS. 4 (a) and 4 (c) show the case of displaying in the center of the screen by superimposing, and FIG.
(D) shows the case where it is displayed in the frame portion. In addition, the line-of-sight mode display lights up in the line-of-sight detection mode, and blinks when the line-of-sight cannot be detected.

【0030】以下、図5のフローチャートを参照して、
第2の実施例のメインシーケンスについて説明する。メ
インシーケンスを開始すると(ステップS1)、先ず1
stレリーズスイッチのオン/オフの判定を行う(ステ
ップS2)。そして、1stレリーズスイッチがオフの
場合にはステップS15へ進み、1stレリーズスイッ
チがオンの場合には続いてイニシャライズを行う。ここ
ではフォーカスエリアを中央に設定する(ステップS
3)。
Hereinafter, with reference to the flowchart of FIG.
The main sequence of the second embodiment will be described. When the main sequence is started (step S1), first 1
Whether the st release switch is turned on or off is determined (step S2). If the 1st release switch is off, the process proceeds to step S15, and if the 1st release switch is on, the initialization is continued. Here, the focus area is set to the center (step S
3).

【0031】続いて、後述するサブルーチン“視線検
出”を実行して視線方向を検出する(ステップS4)。
さらに、このサブルーチン“視線検出”にて検出された
視線座標X(視線重心)をフラグX1に、フラグF1に
FXを入力する(ステップS5)。そして、マルチA
F,AEを行う。ここで、AFデータは左よりLL,L
C,LRとし、AF方式は公知の位相差方式でもアクテ
ィブ方式でもよい(ステップS6)。
Subsequently, a subroutine "line-of-sight detection" which will be described later is executed to detect the line-of-sight direction (step S4).
Further, the line-of-sight coordinates X (line-of-sight center of gravity) detected in this subroutine "line-of-sight detection" are input to the flag X1 and FX to the flag F1 (step S5). And multi A
Perform F and AE. Here, AF data are LL and L from the left.
The AF method may be a known phase difference method or an active method with C and LR (step S6).

【0032】そして、視線基準位置検出用の表示を行
う。これは表示フラシング又は音を併用して行うと更に
良い。またAF終了の信号と兼用してもよい(ステップ
S7)。続いて、再び上記サブルーチン“視線検出”を
実行して視線方向を検出し(ステップS8)、検出され
た視線座標X(視線重心)をフラグX0に、FXをフラ
グF0にストアする(ステップS9)。
Then, a display for detecting the reference position of the line of sight is displayed. It is even better to do this with display flashing or sound. It may also be used as an AF end signal (step S7). Then, the subroutine "line of sight detection" is executed again to detect the line of sight (step S8), and the detected line of sight coordinates X (center of gravity of line of sight) is stored in the flag X0 and FX is stored in the flag F0 (step S9). .

【0033】続いて、後述するサブルーチン“フォーカ
スエリア設定”を実行し(ステップS10)、1stレ
リーズスイッチのオン/オフの判定を行う(ステップS
11)。そして、1stレリーズスイッチがオフの場合
にはステップS15へ移行し、1stレリーズスイッチ
がオンの場合には2ndレリーズスイッチのオン/オフ
の判定を行う(ステップS12)。
Then, a subroutine "focus area setting" which will be described later is executed (step S10), and it is determined whether the first release switch is on or off (step S).
11). If the 1st release switch is off, the process proceeds to step S15, and if the 1st release switch is on, it is determined whether the 2nd release switch is on or off (step S12).

【0034】そして、この2ndレリーズスイッチがオ
フの場合には上記ステップS11へ戻り、2ndレリー
ズスイッチがオンの場合には設定されたフォーカスエリ
アの測距データLにて決定されるデフォーカス量に応じ
てレンズを駆動する(ステップS13)。続いて露光シ
ーケンスや巻き上げシーケンス等のカメラシーケンスを
行い(ステップS14)、本シーケンスを終了する(ス
テップS15)。
If the 2nd release switch is off, the process returns to step S11, and if the 2nd release switch is on, the defocus amount determined by the distance measurement data L of the set focus area is determined. To drive the lens (step S13). Subsequently, a camera sequence such as an exposure sequence and a winding sequence is performed (step S14), and this sequence ends (step S15).

【0035】次に図6のフローチャートを参照して、上
記サブルーチン“視線検出”のシーケンスを説明する。
このサブルーチン“視線検出”を開始すると(ステップ
S21)、先ずイニシャライズを行う。ここでは、変数
i,m,E,X,フラグFX(視線信号の有効性を評価
するフラグ)を“0”に初期化する(ステップS2
2)。続いて、変数iをインクリメントした後(ステッ
プ23)、IRED17の光を撮影者の目に投光し(ス
テップS24)、このIRED17の投光に同期して光
量に相当する信号(総電流値)をEiとして検出する
(ステップS25)。そして、重心座標Xiを検出し
(ステップS26)、明るさに対応する信号を加算処理
(E=E+Ei)する(ステップS27)。
Next, the sequence of the above subroutine "line of sight detection" will be described with reference to the flow chart of FIG.
When this subroutine "line-of-sight detection" is started (step S21), first, initialization is performed. Here, variables i, m, E, X and flag FX (a flag for evaluating the effectiveness of the line-of-sight signal) are initialized to "0" (step S2).
2). Then, after incrementing the variable i (step 23), the light of the IRED 17 is projected onto the eyes of the photographer (step S24), and a signal (total current value) corresponding to the amount of light is synchronized with the projection of the IRED 17 Is detected as Ei (step S25). Then, the barycentric coordinate Xi is detected (step S26), and the signal corresponding to the brightness is added (E = E + Ei) (step S27).

【0036】そして、検出回数の判定を行い(ステップ
S28)、i=K(K:所定値)でない場合にはステッ
プS23へ戻り、i=Kの場合には平均明るさに対応す
る信号E(E=E/K)を検出する(ステップS2
9)。
Then, the number of times of detection is determined (step S28). If i = K (K: predetermined value) is not satisfied, the process returns to step S23, and if i = K, the signal E ( E = E / K) is detected (step S2)
9).

【0037】さらに、平均明るさに対応する上記信号E
(E0<E<E1;E0,E1は所定値)の評価を行う
(ステップS36)。そして、E0<E<E1でない場
合にはフラグFXを“1”に設定して本シーケンスを抜
け(ステップS37)、E0<E<E1の場合には変数
iを“0”に設定した後(ステップS38)、変数iを
インクリメントする(ステップS30)。
Further, the signal E corresponding to the average brightness
(E0 <E <E1; E0 and E1 are predetermined values) is evaluated (step S36). If not E0 <E <E1, the flag FX is set to "1" to exit the present sequence (step S37). If E0 <E <E1, set the variable i to "0" ( In step S38), the variable i is incremented (step S30).

【0038】そして、各検出電流よりまばたきの判定を
行う。ここでは、検出電流Eiと平均電流Eの差の絶対
値が所定値dより大きい時はまばたきと判定する。ま
た、検出電流Eiと平均電流Eの比にて判定してもよい
(ステップS31)。
Then, the blink is determined from each detected current. Here, when the absolute value of the difference between the detected current Ei and the average current E is larger than the predetermined value d, it is determined that the eye blinks. Alternatively, the determination may be made by the ratio of the detected current Ei and the average current E (step S31).

【0039】このステップS31にて、|Ei−E|<
dでない場合にはステップS34へ移行し、|Ei−E
|<dの場合には重心の総和X(X=X+Xi)を算出
を行う(ステップS32)。続いて、変数mをインクリ
メントした後(ステップS33)、視線算出回数の判定
を行う(ステップS34)。そして、i=Kでない場合
にはステップS30へ戻り、i=Kの場合には重心の平
均値(X=X/m)を算出する(ステップS35)。こ
うして本システムを終了しメインシーケンスに戻る(ス
テップS39)。
At step S31, | Ei-E | <
If not d, the process proceeds to step S34 and | Ei-E
If | <d, the total sum X (X = X + Xi) of the centers of gravity is calculated (step S32). Then, after incrementing the variable m (step S33), the number of eye-gaze calculation times is determined (step S34). Then, if i = K is not satisfied, the process returns to step S30, and if i = K, the average value of the center of gravity (X = X / m) is calculated (step S35). In this way, the system is terminated and the process returns to the main sequence (step S39).

【0040】ここで、図7は視線検出領域を分割した様
子を示す図である。先ず図7(a)は視線検出領域をア
ルゴリズム的に<A*(*;L,C,R)>,<B*
(*;L,C1,C2,R)>,<C*(*;L,R)
>,<D*(*;L,R)>の4種類に分割し、中心を
原点にして左右対象に配置した様子を示す。
Here, FIG. 7 is a diagram showing a state in which the line-of-sight detection area is divided. First, in FIG. 7A, the line-of-sight detection area is algorithmically <A * (*; L, C, R)>, <B *.
(*; L, C1, C2, R)>, <C * (*; L, R)
>, <D * (*; L, R)> are divided into four types, and they are arranged symmetrically with the center as the origin.

【0041】各アルゴリズムの機能は、<A*>は対象
フォーカスエリアの測距情報にてデフォーカス量を設定
し、<B*>は対象フォーカスエリアを深度内に入れる
デフォーカス量を設定し、<C*>は隣接する2つのフ
ォーカスエリアの情報より設定し、<D*>は全体のフ
ォーカスエリアの情報より設定する。更に、原点からの
ブロック<AC>までの距離はa、<BC>までの距離
はb、<CR>までの距離はc、<AR>までの距離は
d、<LR>までの距離はeとする。尚、同図は左右対
象であるので片側座標のみ示している。
The function of each algorithm is that <A *> sets the defocus amount by the distance measurement information of the target focus area, <B *> sets the defocus amount that puts the target focus area within the depth, <C *> is set from the information of two adjacent focus areas, and <D *> is set from the information of the entire focus areas. Further, the distance from the origin to the block <AC> is a, the distance to <BC> is b, the distance to <CR> is c, the distance to <AR> is d, and the distance to <LR> is e. And Since the drawing is symmetrical with respect to the left and right, only the one-sided coordinates are shown.

【0042】これに対して、図7(b)は、視線検出領
域を<A*(*;L,C,R)>,<B*(*;L1,
L2,C1,C2,R1,R2)>,<C*(*;L,
R)>,<D*(*;L,R)>の4種類に分割し、中
心を原点にして左右対象に配置した様子を示す。尚、各
アルゴリズムの機能については先に示した図7(a)と
同様である。
On the other hand, in FIG. 7B, the line-of-sight detection areas are <A * (*; L, C, R)>, <B * (*; L1,
L2, C1, C2, R1, R2)>, <C * (*; L,
R)>, <D * (*; L, R)> are divided into four types, and they are arranged symmetrically with the center as the origin. The function of each algorithm is the same as that shown in FIG.

【0043】以下、図8のフローチャートを参照して、
上記サブルーチン“フォーカスエリア設定”のシーケン
スを説明する。本サブルーチン“フォーカスエリア設
定”のシーケンスを開始すると(ステップS40)、先
ずフラグF0,F1の判定を行う(ステップS41)。
そして、フラグF0,F1のいずれかに“1”がある場
合には測距情報を公知のマルチAFのアルゴリズム(視
線情報は使用しない)にて測距データLを設定し(ステ
ップS67)、視線モードマークを点滅し警告表示を行
った後、本シーケンスを抜ける(ステップS68)。
Hereinafter, with reference to the flowchart of FIG.
The sequence of the subroutine "focus area setting" will be described. When the sequence of this subroutine "focus area setting" is started (step S40), the flags F0 and F1 are first determined (step S41).
Then, if either of the flags F0 and F1 has "1", the distance measurement information L is set by the known multi-AF algorithm (the eye sight information is not used) as the distance measurement information (step S67). After the mode mark blinks and a warning is displayed, this sequence is exited (step S68).

【0044】一方、上記ステップS41でフラグF0,
F1のどちらにも“1”がない場合には視線の動き量
(X1−X0)を変数Zにストアし(ステップS4
2)、この動き量Zの判定を行う(ステップS43乃至
S52)。
On the other hand, in step S41, the flag F0,
If there is no "1" in either F1, the amount of movement of the line of sight (X1-X0) is stored in the variable Z (step S4
2) The movement amount Z is determined (steps S43 to S52).

【0045】そして、Z<−eのときはL1=LL,L
2=LC,L3=LRとした後、後述するサブルーチン
“処理D”を実行し(ステップS43,53,66)、
−e≦Z<−dのときはL=LLとした後、本シーケン
スを抜ける(ステップS44,54,69)。そして、
−d≦Z<−cのときはL1=LL,L2=LCとした
後、後述するサブルーチン“処理B”を実行し(ステッ
プS45,55,64)、−c≦Z<−bのときはL1
=LL,L2=LCとした後、後述するサブルーチン
“処理C”を実行する(ステップS46,56,6
5)。
When Z <-e, L1 = LL, L
After setting 2 = LC and L3 = LR, a subroutine “process D” described later is executed (steps S43, 53, 66),
When −e ≦ Z <−d, L = LL is set, and then the present sequence is exited (steps S44, 54, 69). And
When −d ≦ Z <−c, L1 = LL and L2 = LC are set, and then a subroutine “process B” described later is executed (steps S45, 55, 64), and when −c ≦ Z <−b, L1
= LL, L2 = LC, a subroutine "process C" described later is executed (steps S46, 56, 6).
5).

【0046】さらに、−b≦Z<−aのときはL1=L
C,L2=LLとした後、後述するサブルチン“処理
B”を実行し(ステップS47,57,64)、−a≦
Z<aのときはL=LCとした後、本シーケンスを抜け
る(ステップS48,58,69)。また、a≦Z<b
のときはL1=LC,L2=LRとした後、後述するサ
ブルーチン“処理B”を実行し(ステップS49,5
9,64)、b≦Z<cのときはL1=LC,L2=L
Rとした後、後述するサブルーチン“処理C”を実行す
る(ステップS50,60,65)。
Further, when -b≤Z <-a, L1 = L
After setting C and L2 = LL, a subroutine "process B" described later is executed (steps S47, 57, 64), and -a≤
When Z <a, L = LC is set, and then the present sequence is exited (steps S48, 58, 69). Also, a ≦ Z <b
In case of, L1 = LC and L2 = LR are set, and then a subroutine “process B” described later is executed (steps S49, 5).
9, 64), and when b ≦ Z <c, L1 = LC, L2 = L
After setting to R, a subroutine "process C" described later is executed (steps S50, 60, 65).

【0047】そして、c≦Z<dのときはL1=LR,
L2=LCとした後、後述するサブルーチン“処理B”
を実行し(ステップS51,61,64)、d≦Z<e
のときはL=LRとした後、本シーケンスを抜ける(ス
テップS52,62,69)。さらに、e≦Zのときは
L1=LR,L2=LC,L3=LLとした後、後述す
るサブルーチン“処理D”を実行する(ステップS5
2,63,69)。
When c≤Z <d, L1 = LR,
After setting L2 = LC, a subroutine “process B” described later
Is executed (steps S51, 61, 64), and d ≦ Z <e
In this case, after L = LR, this sequence is exited (steps S52, 62, 69). Further, when e ≦ Z, L1 = LR, L2 = LC, L3 = LL are set, and then a subroutine “process D” described later is executed (step S5).
2, 63, 69).

【0048】こうして、それぞれに応じてサブルーチン
“処理B”,“処理C”,“処理D”を実行した後、本
シーケンスを抜ける(ステップS69)。次に図9のフ
ローチャートを参照して上記サブルーチン“処理B”の
シーケンスを説明する。本シーケンスは近接のフォーカ
スエリアを所定の深度内に入るように設定するためのも
ので、本シーケンスを開始すると(ステップS70)、
先ず過焦点距離K(K=f2 /(δ0*Fno):fは
レンズの焦点距離、Fnoは撮影時の絞り値,δ0は設
定許容錯乱円)を設定する(ステップS71)。
In this way, after the subroutines "process B", "process C", and "process D" are executed according to the respective processes, the present sequence is exited (step S69). Next, the sequence of the subroutine "process B" will be described with reference to the flowchart of FIG. This sequence is for setting the adjacent focus area so as to be within a predetermined depth, and when this sequence is started (step S70),
First, the hyperfocal length K (K = f 2 / (δ0 * Fno): f is the focal length of the lens, Fno is the aperture value at the time of shooting, and δ0 is the set permissible circle of confusion) (step S71).

【0049】続いて、L1,L2の大小関係の判定を行
い(ステップS72)、この判定結果に応じて測距デー
タLを設定する。即ちL1>L2のときにはL=K*L
1/(K+L1)とし(ステップS73)、L1≦L2
のときにはL=K*L1/(K−L1)とする(ステッ
プS74)。こうして本シーケンスを抜ける(ステップ
S75)。
Subsequently, the magnitude relationship between L1 and L2 is determined (step S72), and the distance measurement data L is set according to the determination result. That is, when L1> L2, L = K * L
1 / (K + L1) (step S73), L1 ≦ L2
If, then L = K * L1 / (K-L1) is set (step S74). In this way, the present sequence is exited (step S75).

【0050】次に図10のフローチャートを参照して上
記サブルーチン“処理C”のシーケンスを説明する。本
シーケンスは2つのフォーカスエリアの測距データの至
近側のフォーカスエリアを所定の深度内に入るように設
定するためのもので、本シーケンスを開始すると(ステ
ップS80)、先ず過焦点距離K(K=f2 /(δ1*
Fno):fはレンズの焦点距離、Fnoは撮影時の絞
り値,δ1は設定許容錯乱円)を設定する(ステップS
81)。続いて、L1,L2の大小関係の判定を行い
(ステップS82)、この判定結果に応じて測距データ
Lを設定する。即ち、L1>L2のときにはL=K*L
2/(K−L2)とし(ステップS83)、L1≦L2
のときにはL=K*L1/(K−L1)とする(ステッ
プS84)。こうして本シーケンスを抜ける(ステップ
S85)。
Next, the sequence of the subroutine "process C" will be described with reference to the flowchart of FIG. This sequence is for setting the focus areas on the near side of the distance measurement data of two focus areas so as to be within a predetermined depth. When this sequence is started (step S80), first, the hyperfocal distance K (K = F 2 / (δ1 *
Fno): f is the focal length of the lens, Fno is the aperture value at the time of shooting, and δ1 is the set permissible circle of confusion (step S).
81). Subsequently, the magnitude relationship between L1 and L2 is determined (step S82), and the distance measurement data L is set according to the determination result. That is, when L1> L2, L = K * L
2 / (K−L2) (step S83), L1 ≦ L2
If, then L = K * L1 / (K-L1) is set (step S84). In this way, the present sequence is exited (step S85).

【0051】次に図11のフローチャートを参照して上
記サブルーチン“処理D”のシーケンスを説明する。本
シーケンスは3つのフォーカスエリアの測距データの関
係より隣接のフォーカスエリアを所定の深度内に入るよ
うに設定するためのもので、本シーケンスを開始すると
(ステップS90)、先ず過焦点距離K(K=f2
(δ1*Fno):fはレンズの焦点距離、Fnoは撮
影時の絞り値,δ1は設定許容錯乱円)を設定する(ス
テップS91)。続いてL1,L2,L3の大小関係の
判定を行い(ステップS92乃至S94)、この判定結
果に応じて測距データLを設定する。即ち、L1>L
2,L3の場合にはL=K*L1/(K+L1)とし
(ステップS95)、L3≧L1>L2,L2≧L1≧
L3のときはL=L1とし(ステップS96)、L1≦
L2,L1<L3のときはL=K*L1/(K−L1)
とする(ステップS97)。こうして、本シーケンスを
抜ける(ステップS98)。
Next, the sequence of the subroutine "process D" will be described with reference to the flowchart of FIG. This sequence is for setting the adjacent focus areas so as to be within a predetermined depth based on the relationship between the distance measurement data of the three focus areas. When this sequence is started (step S90), first, the hyperfocal distance K ( K = f 2 /
(Δ1 * Fno): f is the focal length of the lens, Fno is the aperture value at the time of shooting, and δ1 is the set permissible circle of confusion (step S91). Subsequently, the magnitude relationship between L1, L2, and L3 is determined (steps S92 to S94), and the distance measurement data L is set according to the determination result. That is, L1> L
In the case of 2 and L3, L = K * L1 / (K + L1) is set (step S95), and L3 ≧ L1> L2, L2 ≧ L1 ≧
When L3, L = L1 (step S96), L1 ≦
When L2, L1 <L3, L = K * L1 / (K-L1)
(Step S97). In this way, the present sequence is exited (step S98).

【0052】以上、本発明の実施例について説明した
が、本発明はこれに限定されることなく種々の改良、変
更が可能であることは勿論である。例えば、重心検出が
可能であればPSD以外のセンサ(ラインセンサ等)を
用いてもよい。そして、角膜反射でなく白目/黒目の割
合をフォトダイオードにて検出して目の動きとしてもよ
い。さらに、光彩とプルキンエ像を用いて一度に撮影者
が見ている位置を検出してもよい。また、測距点は複数
であれば3点に捕らわれる必要はない。
Although the embodiments of the present invention have been described above, it is needless to say that the present invention is not limited to these and various improvements and modifications can be made. For example, a sensor (line sensor or the like) other than PSD may be used as long as the center of gravity can be detected. Then, instead of corneal reflection, the ratio of white eye / black eye may be detected by the photodiode and used as eye movement. Further, the position viewed by the photographer may be detected at once using the glow and the Purkinje image. Further, if the distance measuring points are plural, it is not necessary to be caught by three points.

【0053】そして、カメラのシーケンスとしては視線
検知が必要ない場合(測距点が深度内に入る場合等)は
視線検出シーケンスを省略するのがよい。さらに、分割
されたフォーカスエリアのアルゴリズムは各種方式を組
み合わせてもよい。例えば、サブルーチン“処理C”に
より隣接する2つのデータより至近選択等の公知のマル
チAF選択のアルゴリズムを用いても設定してもよい。
また、サブルーチン“処理C”により隣接する2つのデ
ータの中央に設定してもよい。そして、サブルーチン
“処理D”により全体のデータより至近選択等の公知の
マルチAF選択のアルゴリズムを用いて処理を簡略設定
してもよい。また、視線検出領域を図12(a),
(b)に示すように撮影レンズの焦点距離に応じて分割
し、アルゴリズムを変更してもよい。
If it is not necessary to detect the line of sight as the sequence of the camera (when the distance measuring point is within the depth, etc.), the line of sight detection sequence may be omitted. Furthermore, the algorithms of the divided focus areas may be combined with each other. For example, a well-known multi-AF selection algorithm such as closest selection from two adjacent data may be set by the subroutine "Processing C".
Further, it may be set at the center of two adjacent data by the subroutine "process C". Then, the processing may be simplified by using a well-known multi-AF selection algorithm such as the closest selection from the entire data by the subroutine "processing D". In addition, the line-of-sight detection area is shown in FIG.
The algorithm may be changed according to the focal length of the taking lens as shown in (b).

【0054】[0054]

【発明の効果】以上詳述したように、本発明によれば、
撮影者の視線によるフォーカスエリアの選択領域を処理
内容に応じて分割し、視線情報とマルチ測距のアルゴリ
ズムを組み合わせて使用することで、簡単な構成にて撮
影者に負担をかけることなく、より的確に最適なデフォ
ーカス量を設定し、ピントが合った写真を得るカメラの
焦点制御装置を提供することができる。
As described in detail above, according to the present invention,
By dividing the selected area of the focus area according to the photographer's line of sight according to the processing contents and using the combination of the line-of-sight information and the multi-distance measurement algorithm, the simple configuration does not burden the photographer. A focus control device for a camera can be provided in which an optimal defocus amount is set accurately and a photograph in focus is obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例に係るカメラの焦点制御
装置の構成を示す図である。
FIG. 1 is a diagram showing a configuration of a focus control device for a camera according to a first embodiment of the present invention.

【図2】本発明の第2の実施例に係るカメラの焦点制御
装置の構成を示す図である。
FIG. 2 is a diagram showing a configuration of a focus control device for a camera according to a second embodiment of the present invention.

【図3】視線検出光学系18の詳細な構成を示す図であ
る。
FIG. 3 is a diagram showing a detailed configuration of a line-of-sight detection optical system 18.

【図4】ファインダ表示の様子を示す図である。FIG. 4 is a diagram showing how a finder display is displayed.

【図5】第2の実施例のメインシーケンスを示すフロー
チャートである。
FIG. 5 is a flowchart showing a main sequence of the second embodiment.

【図6】サブルーチン“視線検出”のシーケンスを示す
フローチャートである。
FIG. 6 is a flowchart showing a sequence of a subroutine “visual axis detection”.

【図7】視線検出領域を分割した様子を示す図である。FIG. 7 is a diagram showing a state in which a visual line detection area is divided.

【図8】サブルーチン“フォーカスエリア設定”のシー
ケンスを示すフローチャートである。
FIG. 8 is a flowchart showing a sequence of a subroutine “focus area setting”.

【図9】サブルーチン“処理B”のシーケンスを示すフ
ローチャートである。
FIG. 9 is a flowchart showing a sequence of a subroutine “process B”.

【図10】サブルーチン“処理C”のシーケンスを示す
フローチャートである。
FIG. 10 is a flowchart showing a sequence of a subroutine “process C”.

【図11】サブルーチン“処理D”のシーケンスを示す
フローチャートである。
FIG. 11 is a flowchart showing a sequence of a subroutine “process D”.

【図12】撮影レンズの焦点距離に応じて視線検出領域
を分割した様子を示す図である。
FIG. 12 is a diagram showing a state in which the line-of-sight detection area is divided according to the focal length of the photographing lens.

【図13】人間の眼球の構造を示す図である。FIG. 13 is a diagram showing the structure of a human eyeball.

【図14】角膜反射像である第1プルキンエ像95aの
様子を示す図である。
FIG. 14 is a diagram showing a state of a first Purkinje image 95a which is a corneal reflection image.

【図15】第1プルキンエ像95aが眼球の回転により
変化する様子を示す図である。
FIG. 15 is a diagram showing how the first Purkinje image 95a changes as the eyeball rotates.

【図16】角膜反射95aと眼底反射95bとの関係を
示す図である。
FIG. 16 is a diagram showing a relationship between a corneal reflection 95a and a fundus reflection 95b.

【図17】角膜反射95aと眼底反射95bとの関係を
示す図である。
FIG. 17 is a diagram showing a relationship between a corneal reflection 95a and a fundus reflection 95b.

【符号の説明】[Explanation of symbols]

1…マルチ測距部、2…測光部、3…視線検出部、4…
デフォーカス量決定部、5…ブロック分割部、6…撮影
光学系。
1 ... Multi distance measuring unit, 2 ... Photometric unit, 3 ... Line-of-sight detecting unit, 4 ...
Defocus amount determination unit, 5 ... Block division unit, 6 ... Shooting optical system.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G03B 13/02 9120−2K 8411−2K G03B 3/00 A ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G03B 13/02 9120-2K 8411-2K G03B 3/00 A

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 複数の離散的測距点について測距を行う
測距手段と、 上記測距手段による上記測距点よりも細かい分解能で撮
影者の視線位置を検出する視線検出手段と、 上記測距手段による測距情報と上記視線位置とに基づい
て撮影光学系のデフォ−カス量を演算する演算手段と、 上記デフォ−カス量に基づいて焦点制御を行う制御手段
と、を有するカメラの焦点制御装置において、 上記視線検出手段によって検出された上記視線位置と上
記複数の測距点の位置関係を検出する位置関係検出手段
と、 上記位置関係に基づいて、上記測距情報と上記視線位置
とに基づいてデフォ−カス量を求める演算アルゴリズム
を変更する変更手段と、を具備したことを特徴とするカ
メラの焦点制御装置。
1. A distance measuring means for performing distance measurement for a plurality of discrete distance measuring points, and a visual axis detecting means for detecting a visual axis position of a photographer with a resolution finer than that of the distance measuring points by the distance measuring means, A camera having a calculating means for calculating the defocus amount of the photographing optical system based on the distance measurement information by the distance measuring means and the line-of-sight position, and a control means for performing focus control based on the defocus amount. In the focus control device, a positional relationship detecting unit that detects a positional relationship between the line-of-sight position detected by the line-of-sight detecting unit and the plurality of distance measuring points, and the distance measuring information and the line-of-sight position based on the positional relationship. And a changing means for changing a calculation algorithm for obtaining a defocus amount based on the following.
JP16552693A 1993-07-05 1993-07-05 Camera focus control device Expired - Fee Related JP3500171B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16552693A JP3500171B2 (en) 1993-07-05 1993-07-05 Camera focus control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16552693A JP3500171B2 (en) 1993-07-05 1993-07-05 Camera focus control device

Publications (2)

Publication Number Publication Date
JPH0720373A true JPH0720373A (en) 1995-01-24
JP3500171B2 JP3500171B2 (en) 2004-02-23

Family

ID=15814073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16552693A Expired - Fee Related JP3500171B2 (en) 1993-07-05 1993-07-05 Camera focus control device

Country Status (1)

Country Link
JP (1) JP3500171B2 (en)

Also Published As

Publication number Publication date
JP3500171B2 (en) 2004-02-23

Similar Documents

Publication Publication Date Title
JPH05232373A (en) Device for detecting direction of line of sight for camera
US5987151A (en) Apparatus for detecting visual axis
JPH07151950A (en) Camera
JPH08271784A (en) Optical instrument with function of detecting line of sight
US5402199A (en) Visual axis detecting apparatus
JP2872292B2 (en) Equipment having line-of-sight detection means
US5737642A (en) Camera having a line-of-sight detecting means
JP4054436B2 (en) Optical device
JP3256294B2 (en) Eye gaze detection apparatus and eye gaze detection method
JPH0720373A (en) Focus controller for camera
JP3171698B2 (en) Camera focal length control device
JP3344757B2 (en) Focus area setting device
JP3184542B2 (en) camera
JP3363492B2 (en) Eye gaze detection apparatus and eye gaze detection method
JP3495824B2 (en) Optical equipment having a line-of-sight detection device
JP3164447B2 (en) Automatic focusing device
JP3308635B2 (en) camera
JP2733260B2 (en) Detection device and optical equipment
JP3457973B2 (en) Camera focus detection device
JPH06186617A (en) Camera
JP3483366B2 (en) Camera having line-of-sight detection means
JPH0743601A (en) Device for detecting line of sight
JPH05232372A (en) Camera provided with device for detecting line of sight
JPH06308371A (en) Line-of-sight detecting device
JPH07222719A (en) Line of sight detector

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020924

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081205

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081205

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091205

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101205

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees