JPH08152552A - Range-finding device and range-finding method - Google Patents

Range-finding device and range-finding method

Info

Publication number
JPH08152552A
JPH08152552A JP29498894A JP29498894A JPH08152552A JP H08152552 A JPH08152552 A JP H08152552A JP 29498894 A JP29498894 A JP 29498894A JP 29498894 A JP29498894 A JP 29498894A JP H08152552 A JPH08152552 A JP H08152552A
Authority
JP
Japan
Prior art keywords
line
sight
distance
weighting
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP29498894A
Other languages
Japanese (ja)
Other versions
JP3628737B2 (en
Inventor
Shinichi Kodama
晋一 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP29498894A priority Critical patent/JP3628737B2/en
Publication of JPH08152552A publication Critical patent/JPH08152552A/en
Application granted granted Critical
Publication of JP3628737B2 publication Critical patent/JP3628737B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Abstract

PURPOSE: To select optimum range-finding data by comprehensively evaluating line-of-sight information and information concerned in the reliability of the line-of-sight information, and the range-finding information of a camera. CONSTITUTION: A multiple range-finding part 2 performs range-finding at plural points and outputs a range-finding value to a focusing area decision part 1. A line-of-sight detection part 3 detects information on the gazing point of a photographer and outputs the information on the gazing point to the decision part 1. The decision part 1 gives weight to respective focusing areas based on the distance relation of the range-finding information from the range-finding part 2, gives weight to the respective focusing areas based on the output value on the gazing point from the detection part 3, and selects the range-finding data which obtains the highest points in the sum total. In the case where the data obtains the same points, judgment is performed in a specified rule such as center priority, closest range priority or line-of-sight priority.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、複数の焦点検出領域に
おいて測距を行い、該焦点検出領域に対応して検出され
た複数の距離データより最適のデータを選択する測距装
置及び測距方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance measuring device and a distance measuring device for performing distance measurement in a plurality of focus detection areas and selecting optimum data from a plurality of distance data detected corresponding to the focus detection areas. It is about the method.

【0002】[0002]

【従来の技術】従来、カメラへの各種情報の入力は、例
えばダイアルや釦等の操作に基づいて行われており、当
該入力情報が増加するに従って操作環境は煩雑になり、
視線情報を活用することは有効な解決案になっている。
2. Description of the Related Art Conventionally, various kinds of information are input to a camera based on, for example, an operation of a dial or a button, and the operating environment becomes complicated as the input information increases.
Utilizing line-of-sight information is an effective solution.

【0003】ここで、上記視線情報を自動焦点調節(以
下、AFと略記する)に応用する技術については、従来
より種々の提案がなされている。例えば特開平3−21
9218号、特開平4−307506号公報では、視線
による位置又は当該位置付近のフォーカスポイントより
最適位置を選択する技術が開示されている(先行例
1)。そして、特開昭63−94232号、特開平4−
221943号公報では、視線の動きに応じて、それぞ
れの領域に重み付けを行いフォーカスポイントを設定す
る技術が開示されている(先行例2)。
Here, various proposals have heretofore been made regarding a technique for applying the above-mentioned line-of-sight information to automatic focus adjustment (hereinafter abbreviated as AF). For example, JP-A-3-21
Japanese Patent No. 9218 and Japanese Patent Laid-Open No. 4-307506 disclose a technique of selecting an optimum position from a position by the line of sight or a focus point near the position (prior example 1). Then, JP-A-63-94232 and JP-A-4-94232
Japanese Patent No. 221943 discloses a technique of weighting each area and setting a focus point according to the movement of the line of sight (prior example 2).

【0004】さらに、特開平4−138434号公報で
は、視線信号の信頼性を評価して、信頼性が低い場合は
視線情報を使わない方式にてフォーカスポイントの選択
を行う技術が開示されている(先行例3)。この他、A
Fのみのアルゴリズムに関してもマルチ測距のみのアル
ゴリズムにてフォーカスポイントを設定する技術が開示
されている(先行例4)。
Further, Japanese Unexamined Patent Publication No. 4-138434 discloses a technique for evaluating the reliability of the line-of-sight signal and selecting the focus point by a method that does not use the line-of-sight information when the reliability is low. (Prior example 3). Besides this, A
Regarding the F-only algorithm, a technique of setting the focus point by the multi-distance-only algorithm has been disclosed (Prior example 4).

【0005】[0005]

【発明が解決しようとする課題】しかしながら、AFへ
の視線情報の応用に関して、カメラでの視線検出では、
撮影時に撮影者が主要被写体を見つめることを前提に、
撮影者が見つめているフォーカスポイントの情報に基づ
いてAFが行われているのだが、現状のコンパクトカメ
ラにおいてはカメラの小型化に従ってファインダを覗く
とファインダ全体を目を動かすこと無くほぼ見ることが
可能であり、特に注意を払わない場合など目が中央付近
に固定されることも多々あり問題となっていた。
However, regarding the application of the sight line information to the AF, in the sight line detection by the camera,
Assuming that the photographer looks at the main subject at the time of shooting,
AF is performed based on the focus point information that the photographer is gazing at, but with the current compact camera, if you look into the viewfinder as the camera becomes smaller, you can almost see the entire viewfinder without moving your eyes. This is a problem because the eyes are often fixed near the center when no particular attention is paid.

【0006】さらに、マルチAFのアルゴリズムでは、
高確率にて最適なフォーカスポイントの選択を行ってい
るので、かかる状況下では、視線情報を加味して主要被
写体を判定すると、かえって最適に写された写真に悪影
響を及ぼしめる可能性がある為、失敗写真にのみ視線情
報を加味することが望まれていた。
Further, in the multi-AF algorithm,
Since the optimum focus point is selected with a high probability, under such circumstances, if the main subject is determined by adding the line-of-sight information, it may adversely affect the optimally photographed image. , It was desired to add line-of-sight information only to failed photographs.

【0007】また、前述した先行例に係る技術において
は、以下に示すような課題を含んでいた。即ち、上記先
行例1では、視線情報のみに依存するため撮影者が主要
被写体に注目しなかった場合は間違った選択をするおそ
れがあると共に、銀塩写真の場合はフォーカスポイント
が離散的に配置され1つのフォーカスポイントはかなり
狭い領域にあり、注目した所にフォーカスポイントが存
在する確率は低くなり必ずしも最適のフォーカスポイン
トの選択が可能かは疑わしかった。
Further, the above-mentioned prior art technique has the following problems. That is, in the above-mentioned first example, since the photographer may make an incorrect selection when the photographer does not pay attention to the main subject because it depends only on the line-of-sight information, the focus points are discretely arranged in the case of silver halide photography. However, one focus point is in a fairly narrow area, and the probability that the focus point exists at the point of interest is low, so it was doubtful that the optimum focus point could be selected.

【0008】そして、上記先行例2では、特に小型化さ
れたコンパクトカメラでは、ファインダを注視する際
に、目を開いて動かす必要性が非常に少ない為、目の動
きが主要被写体に必ずしも対応しないものとなってい
た。さらに、上記先行例3では、マルチ測距のアルゴリ
ズムにて高い確率で最適なフォーカスポイント設定が可
能ではあるが、撮影者の意志を反映することができなか
った。また、上記先行例4では、視線信号の信頼性を高
めるにはエリアセンサを用いた高度な検出が必要とな
り、コストが高く、処理時間もかかり問題があった。
Further, in the above-mentioned prior art example 2, particularly in a compact camera which is downsized, it is not necessary to open and move the eye when gazing at the viewfinder, so that the eye movement does not always correspond to the main subject. It was a thing. Further, in the above-mentioned prior art example 3, although it is possible to set the optimum focus point with a high probability by the multi-range finding algorithm, the intention of the photographer cannot be reflected. Further, in the above-mentioned prior art example 4, in order to improve the reliability of the line-of-sight signal, high-level detection using an area sensor is required, resulting in a high cost and a long processing time, which is a problem.

【0009】本発明は上記問題に鑑みてなされたもの
で、その目的とするところは、視線情報と該視線情報の
信頼性に係る情報と、カメラの測距情報とを総合的に評
価し、焦点検出領域に対応して検出された複数の距離デ
ータより最適な距離データを選択することにある。
The present invention has been made in view of the above problems, and an object thereof is to comprehensively evaluate line-of-sight information, information relating to the reliability of the line-of-sight information, and distance measurement information of a camera, The optimum distance data is selected from a plurality of distance data detected corresponding to the focus detection area.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するため
に、本発明の第1の実施例に係る測距装置は、予め定義
された複数の焦点検出領域において測距を行う多点測距
手段と、上記多点測距手段の出力データに基づいて上記
複数の焦点検出領域に対して第1の重み付けを行う第1
の重み付け手段と、観察者の視線方向を検出すると共
に、視線方向検出時の信頼性を評価する視線評価手段
と、上記視線評価手段の出力に応じて、上記複数の焦点
検出領域に対して第2の重み付けを行う第2の重み付け
手段と、上記第1の重み付け手段の出力と、上記第2の
重み付け手段の出力との加算値に基づき、上記複数の焦
点検出領域に対応して検出された複数の距離データの中
からただ1つの距離データを選択するデータ選択手段と
を具備することを特徴とする。
In order to achieve the above object, a distance measuring apparatus according to a first embodiment of the present invention is a multi-point distance measuring apparatus that measures distances in a plurality of predefined focus detection areas. Means and a first weighting for the plurality of focus detection areas based on output data of the multipoint distance measuring means.
The weighting means, the eye gaze direction of the observer is detected, the eye gaze evaluation means for evaluating the reliability at the time of gaze direction detection, and the plurality of focus detection areas for the plurality of focus detection areas according to the output of the eye gaze evaluation means. Based on the added value of the second weighting means for weighting 2, the output of the first weighting means, and the output of the second weighting means, detection is made corresponding to the plurality of focus detection areas. Data selection means for selecting only one distance data from a plurality of distance data.

【0011】そして、第2の態様による測距装置は、上
記第2の重み付け手段が、予め定義された複数の視線検
出領域に基づいた観察者の視線方向を検出し、上記複数
の焦点検出領域に対して該検出時の信頼性係数を乗じた
重み付けを行う。
In the distance measuring device according to the second aspect, the second weighting means detects the line-of-sight direction of the observer based on a plurality of predefined line-of-sight detection regions, and the plurality of focus detection regions are detected. Is weighted by multiplying the reliability coefficient at the time of detection.

【0012】さらに、第3の態様による測距方法は、多
点測距手段からの複数の距離データに応じて、それぞれ
の距離に応じた距離重み値を焦点検出領域ごとに付与す
ると共に、所定の視線検出領域に基づき観察者の視線方
向を判定し、該視線検出時の信頼性係数との積に基づく
視線重み値を焦点検出領域ごとに付与し、上記視線重み
値と上記距離重み値との加算値を評価し、その中の最大
値を与えるものに基づいて、上記複数の距離データの中
からただ1つの距離データを選択することを特徴とす
る。
Further, in the distance measuring method according to the third aspect, according to a plurality of distance data from the multi-point distance measuring means, a distance weight value corresponding to each distance is given to each focus detection area, and a predetermined value is given. The eye gaze direction of the observer is determined based on the eye gaze detection area, and the eye gaze weight value based on the product with the reliability coefficient at the time of gaze detection is given to each focus detection area, and the eye gaze weight value and the distance weight value are Is evaluated, and only one distance data is selected from the plurality of distance data based on the one that gives the maximum value among them.

【0013】[0013]

【作用】即ち、本発明の第1の実施例に係る測距装置で
は、多点測距手段により予め定義された複数の焦点検出
領域において測距が行われ、第1の重み付け手段により
上記多点測距手段の出力データに基づいて上記複数の焦
点検出領域に対して第1の重み付けが行われ、視線評価
手段により観察者の視線方向が検出されると共に視線方
向検出時の信頼性が評価され、第2の重み付け手段によ
り上記視線評価手段の出力に応じて上記複数の焦点検出
領域に対して第2の重み付けが行われ、データ選択手段
により上記第1の重み付け手段の出力と上記第2の重み
付け手段の出力との加算値に基づき上記複数の焦点検出
領域に対応して検出された複数の距離データの中からた
だ1つの距離データが選択される。
That is, in the distance measuring apparatus according to the first embodiment of the present invention, distance measurement is performed in a plurality of focus detection areas defined in advance by the multipoint distance measuring means, and the first weighting means performs the distance measurement. First weighting is performed on the plurality of focus detection areas based on the output data of the point distance measuring means, and the line-of-sight evaluation means detects the line-of-sight direction of the observer and the reliability at the time of detecting the line-of-sight direction is evaluated. Then, the second weighting means performs the second weighting on the plurality of focus detection areas according to the output of the line-of-sight evaluation means, and the data selection means outputs the first weighting means and the second weighting means. Only one distance data is selected from the plurality of distance data detected corresponding to the plurality of focus detection areas based on the added value with the output of the weighting means.

【0014】そして、第2の態様による測距装置では、
上記第2の重み付け手段により予め定義された複数の視
線検出領域に基づいた観察者の視線方向が検出され、上
記複数の焦点検出領域に対して該検出時の信頼性係数を
乗じた重み付けが行われる。
In the distance measuring device according to the second aspect,
The second weighting means detects the line-of-sight direction of the observer based on a plurality of predefined line-of-sight detection regions, and performs weighting by multiplying the plurality of focus detection regions by a reliability coefficient at the time of detection. Be seen.

【0015】さらに、第3の態様による測距方法では、
多点測距手段からの複数の距離データに応じて、それぞ
れの距離に応じた距離重み値を焦点検出領域ごとに付与
され、所定の視線検出領域に基づき観察者の視線方向が
判定され、該視線検出時の信頼性係数との積に基づく視
線重み値を焦点検出領域ごとに付与され、上記視線重み
値と上記距離重み値との加算値が評価され、その中の最
大値を与えるものに基づいて、上記複数の距離データの
中からただ1つの距離データが選択される。
Further, in the distance measuring method according to the third aspect,
According to a plurality of distance data from the multi-point distance measuring means, a distance weight value corresponding to each distance is given to each focus detection area, and the line-of-sight direction of the observer is determined based on the predetermined line-of-sight detection area. A line-of-sight weight value based on the product of the reliability coefficient at the time of line-of-sight detection is given to each focus detection area, the added value of the line-of-sight weight value and the distance weight value is evaluated, and the one giving the maximum value among them is given. Based on this, only one distance data is selected from the plurality of distance data.

【0016】[0016]

【実施例】先ず、図1(a)乃至図1(c)には、本発
明の概念図を示し説明する。図1(a)に示される測距
装置を用いたカメラは、複数点を測距可能なマルチ測距
部2と、撮影者の注視点を検出可能な視線検出部3、複
数のフォーカスエリアより最適なフォーカスエリアを決
定するフォーカスエリア決定部1により構成され、マル
チ測距部2と視線検出部3は共にフォーカスエリア決定
部1に接続されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS First, the concept of the present invention will be described with reference to FIGS. 1 (a) to 1 (c). A camera using the distance measuring device shown in FIG. 1A includes a multi-distance measuring unit 2 capable of measuring a plurality of points, a line-of-sight detecting unit 3 capable of detecting a gazing point of a photographer, and a plurality of focus areas. The focus area determination unit 1 determines an optimum focus area. The multi-range finding unit 2 and the line-of-sight detection unit 3 are both connected to the focus area determination unit 1.

【0017】このような構成において、マルチ測距部2
は複数点を測距し、該測距値をフォーカスエリア決定部
1に出力する。視線検出部3は撮影者の注視点情報を検
出し、該注視点情報をフォーカスエリア決定部1に出力
する。フォーカスエリア決定部1はマルチ測距部2の測
距情報の遠近関係に基づいて各々のフォーカスエリアに
重み付け(得点を与える)をして、視線検出部3の注視
点の出力値に基づいて各フォーカスエリアに重み付けを
して、各々の総和にて最も得点の高いフォーカスエリア
を選択する。また、同得点の場合は中央優先、至近優
先、視線優先等の所定の規則に基づいて判断を行う。
In such a configuration, the multi distance measuring unit 2
Measures a plurality of points and outputs the measured distance values to the focus area determining unit 1. The line-of-sight detection unit 3 detects the gaze point information of the photographer and outputs the gaze point information to the focus area determination unit 1. The focus area determination unit 1 weights (gives a score) to each focus area based on the perspective relationship of the distance measurement information of the multi-distance measurement unit 2, and determines each based on the output value of the gaze point of the line-of-sight detection unit 3. The focus areas are weighted and the focus area with the highest score in each sum is selected. Further, in the case of the same score, the judgment is made based on a predetermined rule such as center priority, close-up priority, and gaze priority.

【0018】このように、図1(a)に示される測距装
置では、マルチ測距にて得られた測距情報に応じて各フ
ォーカスポイントに重みをもたせ、さらに視線検出によ
って得られたファインダ内の位置に相当する情報より各
フォーカスポイントに重みをもたせ、各フォーカスポイ
ントの重み値が最高のものを選択する。
As described above, in the distance measuring device shown in FIG. 1A, each focus point is weighted according to the distance measuring information obtained by the multi-distance measuring, and the finder obtained by the line-of-sight detection. Each focus point is given a weight based on the information corresponding to the position inside, and the focus point having the highest weight value is selected.

【0019】図1(b)に示される測距装置を用いたカ
メラは、複数点を測距可能なマルチ測距部2と撮影者の
注視点を検出可能な視線検出部3、該視線検出部3から
出力される信号の信頼性を判定する信頼性判定部4、複
数のフォーカスエリアより最適なフォーカスエリアを決
定するフォーカスエリア決定部1により構成され、マル
チ測距部2と視線検出部3は共にフォーカスエリア決定
部1に接続され、信頼性判定部4は視線検出部3とフォ
ーカスエリア決定部1に接続されている。
A camera using the distance measuring device shown in FIG. 1B includes a multi-distance measuring unit 2 capable of measuring a plurality of points, a line-of-sight detecting unit 3 capable of detecting a gazing point of a photographer, and the line-of-sight detection. The reliability determination unit 4 that determines the reliability of the signal output from the unit 3 and the focus area determination unit 1 that determines an optimal focus area from a plurality of focus areas are configured. Are connected to the focus area determination unit 1, and the reliability determination unit 4 is connected to the line-of-sight detection unit 3 and the focus area determination unit 1.

【0020】このような構成において、マルチ測距部2
は複数点を測距し、該測距値をフォーカスエリア決定部
1に出力する。視線検出部3は撮影者の注視点情報を検
出し注視点情報をフォーカスエリア決定部1に出力す
る。信頼性判定部4は視線検出部3の検出信号より信号
の信頼性を複数評価して信頼性の度合をフォーカスエリ
ア決定部1に出力する。フォーカスエリア決定部1はマ
ルチ測距部2の測距情報の遠近関係に基づいて各々のフ
ォーカスエリアに重み付け(得点を与える)をして、視
線検出部3の注視点の出力値に基づいて各フォーカスエ
リアに重み付けをして、信頼性判定部4の信頼性情報
(0.0〜1.0の間の値)を視線によって重み付けら
れた各フォーカスエリアの得点に乗し、測距情報での重
み付け値と視線情報によって重み付けられた値に信頼性
情報を掛けた値の総和にて最も得点の高いフォーカスエ
リアを選択する。また、同得点の場合は中央優先、至近
優先、視線優先等の所定の規則に基づいて判断を行う。
In such a configuration, the multi distance measuring unit 2
Measures a plurality of points and outputs the measured distance values to the focus area determining unit 1. The line-of-sight detection unit 3 detects the gaze point information of the photographer and outputs the gaze point information to the focus area determination unit 1. The reliability determination unit 4 evaluates the reliability of a plurality of signals from the detection signal of the line-of-sight detection unit 3 and outputs the degree of reliability to the focus area determination unit 1. The focus area determination unit 1 weights (gives a score) to each focus area based on the perspective relationship of the distance measurement information of the multi-distance measurement unit 2, and determines each based on the output value of the gaze point of the line-of-sight detection unit 3. The focus area is weighted, and the reliability information (value between 0.0 and 1.0) of the reliability determination unit 4 is put on the score of each focus area weighted by the line of sight to obtain the distance measurement information. The focus area having the highest score is selected from the sum of the weighted value and the value weighted by the line-of-sight information multiplied by the reliability information. Further, in the case of the same score, the judgment is made based on a predetermined rule such as center priority, close-up priority, and gaze priority.

【0021】このように、図1(b)に示される測距装
置では、マルチ測距にて得られた測距情報に応じて各フ
ォーカスポイントに重みをもたせ、さらに視線検出によ
って得られたファインダ内の位置に相当する情報より各
フォーカスポイントに重みをもたせ、また視線信号の信
頼性を判断し信頼性の度合に応じて上記視線情報より得
られた各フォーカスポイントの重みに所定の係数を掛け
新しい重みを設定する各フォーカスポイントの重みは測
距情報より得られた重みと信頼性を加味した視線情報よ
り得られた重みの加算値にて決定される。
As described above, in the distance measuring device shown in FIG. 1B, each focus point is weighted according to the distance measuring information obtained by the multi-distance measuring, and the finder obtained by the sight line detection. Each focus point is given a weight based on the information corresponding to the position inside, and the weight of each focus point obtained from the above-mentioned line-of-sight information is multiplied by a predetermined coefficient according to the degree of reliability by judging the reliability of the line-of-sight signal. The weight of each focus point for which a new weight is set is determined by an addition value of the weight obtained from the distance measurement information and the weight obtained from the line-of-sight information in which reliability is added.

【0022】図1(c)に示される測距装置を用いたカ
メラは、複数点を測距可能なマルチ測距部2と撮影者の
注視点を検出可能な視線検出部3、該視線検出部3から
出力される信号の信頼性を判定する信頼性判定部4、被
写体の明るさを検出する測光部5、ストロボ部6、スト
ロボ部6の発光の条件を設定するストロボ制御部7、フ
ィルムのISO感度を検出するISO検出部8、複数の
フォーカスエリアより最適なフォーカスエリアを決定す
るフォーカスエリア決定部1により構成され、マルチ測
距部2と視線検出部3は共にフォーカスエリア決定部1
に接続され、信頼性判定部4は視線検出部3とフォーカ
スエリア決定部1に接続され、ストロボ制御部7はIS
O検出部8、測光部5、ストロボ部6とフォーカスエリ
ア決定部1に接続され、ストロボ部6はフォーカスエリ
ア決定部1に接続されている。
A camera using the distance measuring device shown in FIG. 1C includes a multi-distance measuring unit 2 capable of measuring a plurality of points, a line-of-sight detecting unit 3 capable of detecting a gazing point of a photographer, and the line-of-sight detection. Reliability determination unit 4 for determining the reliability of the signal output from the unit 3, photometric unit 5 for detecting the brightness of the subject, strobe unit 6, strobe control unit 7 for setting the conditions for light emission of the strobe unit 6, film Is composed of an ISO detection section 8 for detecting the ISO sensitivity and a focus area determination section 1 for determining an optimal focus area from a plurality of focus areas. The multi-ranging section 2 and the line-of-sight detection section 3 are both focus area determination section 1
The reliability determination unit 4 is connected to the line-of-sight detection unit 3 and the focus area determination unit 1, and the flash control unit 7 is connected to the IS.
The O detection unit 8, the photometry unit 5, the strobe unit 6 and the focus area determination unit 1 are connected, and the strobe unit 6 is connected to the focus area determination unit 1.

【0023】このような構成において、マルチ測距部2
は複数点を測距し測距をフォーカスエリア決定部1に出
力する。視線検出部3は撮影者の注視点情報を検出し注
視点情報をフォーカスエリア決定部1に出力する。信頼
性判定部4は視線検出部3の検出信号より信号の信頼性
を複数評価して信頼性の度合をフォーカスエリア決定部
1に出力する。測光部5は被写体の明るさを測定し測定
値をストロボ制御部7に出力する。ISO検出部8はフ
ィルムのISO感度をストロボ制御部7に出力する。ス
トロボ制御部7は測光部5の明るさ情報とISO検出部
8のISO感度値より発光条件を判定し、ストロボ発光
の有無とストロボのガイドNoをフォーカスエリア決定
部1に出力すると共に、該フォーカスエリア決定部1に
て決定されたフォーカスエリアの測距情報に応じてスト
ロボ光の光量制御を行う。そして、フォーカスエリア決
定部1はマルチ測距部2の測距情報の遠近関係に基づい
て各々のフォーカスエリアに重み付け(得点を与える)
をして、視線検出部3の注視点の出力値に基づいて各フ
ォーカスエリアに重み付けをして、信頼性判定部4の信
頼性情報(0.0〜1.0の間の値)を視線によって重
み付けられた各フォーカスエリアの得点に乗し、ストロ
ボ制御部7からのストロボ発光有無、ガイドNoと測距
情報よりストロボ光の到達光量に応じて各フォーカスエ
リアに重み付けをして、測距情報での重み付け値と視線
情報によって重み付けられた値に信頼性情報を掛けた値
とストロボ光量による重み付けの総和にて最も得点の高
いフォーカスエリアを選択する。また、同得点の場合は
中央優先、至近優先、視線優先等の所定のルールにて判
断を行う。
In such a configuration, the multi distance measuring unit 2
Measures a plurality of points and outputs the measured distance to the focus area determination unit 1. The line-of-sight detection unit 3 detects the gaze point information of the photographer and outputs the gaze point information to the focus area determination unit 1. The reliability determination unit 4 evaluates the reliability of a plurality of signals from the detection signal of the line-of-sight detection unit 3 and outputs the degree of reliability to the focus area determination unit 1. The photometric unit 5 measures the brightness of the subject and outputs the measured value to the strobe control unit 7. The ISO detection section 8 outputs the ISO sensitivity of the film to the strobe control section 7. The strobe control unit 7 determines the light emission condition based on the brightness information of the photometry unit 5 and the ISO sensitivity value of the ISO detection unit 8, outputs the presence / absence of strobe light emission and a strobe guide number to the focus area determination unit 1, and outputs the focus information. The amount of strobe light is controlled according to the distance measurement information of the focus area determined by the area determination unit 1. Then, the focus area determination unit 1 weights each focus area (gives a score) based on the perspective relationship of the distance measurement information of the multi-distance measurement unit 2.
Then, each focus area is weighted based on the output value of the gazing point of the line-of-sight detection unit 3, and the reliability information (value between 0.0 and 1.0) of the reliability determination unit 4 is viewed. Each focus area is weighted by the score of each focus area, and each focus area is weighted according to the strobe light emission amount from the strobe control unit 7, the guide No and the distance measurement information, and the distance measurement information is weighted. The focus area with the highest score is selected from the sum of the weighting value in step (1) and the value weighted by the line-of-sight information multiplied by the reliability information and the total weighting by the strobe light amount. Further, in the case of the same score, the judgment is made according to a predetermined rule such as center priority, close-up priority, and gaze priority.

【0024】このように、図1(c)に示される測距装
置では、マルチ測距にて得られた測距情報に応じて各フ
ォーカスポイントに重みをもたせ、また、測距情報とス
トロボ発光条件とよりストロボ到達距離による重み付け
を追加し、さらに視線検出によって得られたファインダ
内の位置に相当する情報より各フォーカスポイントに重
みをもたせ、また視線信号の信頼性を判断し信頼性の度
合に応じて上記視線情報より得られた各フォーカスポイ
ントの重みに所定の係数を掛け新しい重みを設定する。
各フォーカスポイントの重みは測距情報より得られた重
みと信頼性を加味した視線情報より得られた重みの加算
値にて決定される。
As described above, in the distance measuring device shown in FIG. 1C, each focus point is weighted according to the distance measuring information obtained by the multi distance measuring, and the distance measuring information and the stroboscopic light emission are performed. Conditions and weighting based on the strobe distance are added, and each focus point is given weight based on the information corresponding to the position in the viewfinder obtained by line-of-sight detection, and the reliability of the line-of-sight signal is judged to determine the degree of reliability. Accordingly, the weight of each focus point obtained from the line-of-sight information is multiplied by a predetermined coefficient to set a new weight.
The weight of each focus point is determined by the added value of the weight obtained from the distance measurement information and the weight obtained from the line-of-sight information in which reliability is taken into consideration.

【0025】本発明は、基本的には上記3態様に大別さ
れるが、以下、図面を参照して、本発明の実施例につい
て更に詳細に説明する。尚、視線検出の方式について
は、赤目像の重心位置と角膜反射(第1プルキンエ像)
を用いる方式を採用する(特公昭61−59132号、
特開平2−5号公報等)。
The present invention is basically divided into the above-mentioned three modes, and the embodiments of the present invention will be described in more detail below with reference to the drawings. Regarding the method of line-of-sight detection, the center of gravity of the red-eye image and corneal reflection (first Purkinje image)
Is adopted (Japanese Patent Publication No. 61-59132,
JP-A No. 2-5).

【0026】先ず図2には本発明の第1の実施例に係る
測距装置を採用したカメラの構成を示し説明する。この
第1の実施例は、カメラの3点のフォーカスエリア選択
に使用したものであり、視線検出では1次元の検出を行
っている。
First, FIG. 2 shows the structure of a camera which employs the distance measuring apparatus according to the first embodiment of the present invention, and will be described. The first embodiment is used for selecting three focus areas of the camera, and one-dimensional detection is performed in the line-of-sight detection.

【0027】同図に示されるように、目に光束を投光す
るLED回路13はファインダ・視線光学系15とCP
U11に接続され、目からの反射光束を受光するライン
センサ回路14はファインダ・視線光学系15とCPU
11に接続される。CPU11は視線検出に関するLE
D回路13とラインセンサ回路(ピーク検出可能なデバ
イス例えばSIT等)14に接続されると共にマルチA
F回路12とレンズ駆動回路16と測光回路17と1s
t,2ndレリーズスイッチに接続される。
As shown in the figure, the LED circuit 13 for projecting a luminous flux to the eye includes a finder / line-of-sight optical system 15 and a CP.
The line sensor circuit 14 which is connected to U11 and receives the reflected light flux from the eye includes a finder / line-of-sight optical system 15 and a CPU.
11 is connected. The CPU 11 is an LE for line-of-sight detection.
It is connected to a D circuit 13 and a line sensor circuit (a device capable of detecting peaks such as SIT) 14 and also has a multi-A.
F circuit 12, lens drive circuit 16, photometric circuit 17, and 1s
It is connected to the t, 2nd release switch.

【0028】このような構成にて、LED回路13はC
PU11からの制御信号を受けて、赤目(センサ位置に
おいて眼底からの反射光を発生する)、非赤目を発生さ
せる位置に配置されたLEDを発光し、発光光束をファ
インダ・視線光学系15を介して目に送る。ラインセン
サ14は投光された光束の目からの反射光束をファイン
ダ・視線光学系15を介して受光し、検出信号をCPU
11に送る。マルチAF回路12は複数点の測距を行い
測距情報をCPU11に送る。測光回路17は被写体の
明るさ情報をCPU11に送る。レンズ駆動回路16は
CPU11からの制御信号に応じてレンズを駆動する。
CPU11は視線検出系(LED回路13、ラインセン
サ14)の制御すると共に得られた信号より視線方向を
検出し、測光回路17の情報をも考慮した信頼性判定を
行い、視線方向と信頼性より各フォーカスエリアに視線
による重み付けを行い、マルチAF回路12からの測距
情報にてAFによる重み付けを行い最適なフォーカスエ
リアを選択し、対応する測距情報にてレンズの駆動量を
算出し、レンズ駆動回路16を制御する。
With such a configuration, the LED circuit 13 is C
In response to the control signal from the PU 11, the LEDs arranged at the positions for generating red eyes (which generate reflected light from the fundus at the sensor position) and non-red eyes are caused to emit light, and the emitted luminous flux is passed through the viewfinder / gaze optical system 15. Send it to your eyes. The line sensor 14 receives the reflected luminous flux of the projected luminous flux from the eye through the finder / line-of-sight optical system 15, and outputs a detection signal to the CPU.
Send to 11. The multi-AF circuit 12 measures distances at a plurality of points and sends distance measurement information to the CPU 11. The photometric circuit 17 sends the brightness information of the subject to the CPU 11. The lens driving circuit 16 drives the lens according to the control signal from the CPU 11.
The CPU 11 controls the line-of-sight detection system (the LED circuit 13, the line sensor 14), detects the line-of-sight direction from the obtained signal, performs reliability determination in consideration of the information of the photometric circuit 17, and determines the line-of-sight direction and reliability. Each focus area is weighted by the line-of-sight, AF is weighted by the distance measurement information from the multi-AF circuit 12, the optimum focus area is selected, and the lens drive amount is calculated by the corresponding distance measurement information. The drive circuit 16 is controlled.

【0029】ここで、上記ファインダ・視線光学系15
の詳細な構成は図3に示される通りである。即ち、被写
体からの光束は赤外カットフィルタ152、メインミラ
ーMM、赤外のハーフミラーHM0、赤外のハーフミラ
ーHM1を含むビームスプリッタ153を介して目に導
かれる。視線検出用のLED回路13の光源LED0、
LED1からの光束は赤外のハーフミラーHM0と赤外
のハーフミラーHM1を含むビームスプリッタ153を
介して目に導かれ、目からの反射光は赤外のハーフミラ
ーHM1を含むビームスプリッタ153、可視光カット
フィルタ151a、視線光学系154を介してラインセ
ンサ回路14に導かれる。また、被写体からの光束は赤
外カットフィルタ152の前面(被写体側)とビームス
プリッタ153の後面(目側)に配置された可視光カッ
トフィルタ151b,cにて制約を受けている。また、
1次結像面付近には表示用LED156とパララックス
補正用の液晶素子155が配置されている。赤目発生投
光、受光軸をファインダの光軸とずらして配置してもよ
い。
Here, the finder / line-of-sight optical system 15 is used.
The detailed configuration of is as shown in FIG. That is, the light flux from the subject is guided to the eye via the beam splitter 153 including the infrared cut filter 152, the main mirror MM, the infrared half mirror HM0, and the infrared half mirror HM1. The light source LED0 of the LED circuit 13 for detecting the line of sight,
The light flux from the LED 1 is guided to the eye through the beam splitter 153 including the infrared half mirror HM0 and the infrared half mirror HM1, and the reflected light from the eye is reflected by the beam splitter 153 including the infrared half mirror HM1. The light is guided to the line sensor circuit 14 via the light cut filter 151a and the line-of-sight optical system 154. The light flux from the subject is restricted by visible light cut filters 151b and 151c disposed on the front surface (subject side) of the infrared cut filter 152 and the rear surface (eye side) of the beam splitter 153. Also,
A display LED 156 and a parallax correction liquid crystal element 155 are arranged near the primary image plane. The red-eye generating light-projecting and light-receiving axes may be displaced from the optical axis of the finder.

【0030】上記視線検出用の光源LED0、LED1
による目からの反射光の状態は図4に示される通りであ
る。即ち、図4(a)はLED0の投光によって検出さ
れる信号の状態を示し、赤目(眼底反射)状態の上に角
膜反射信号が重畳されているのが判る。図4(b)はL
ED1の投光によって検出される信号の状態を示し、赤
目(眼底反射)は発生していないのが判る。本実施例で
は、図4(a),(b)にて検出された信号の差分処理
にて赤目(眼底反射)の信号を抜き出し、重心位置を検
出することで瞳孔の中心位置を求める。
Light sources LED0 and LED1 for detecting the line of sight
The state of the reflected light from the eye due to is as shown in FIG. That is, FIG. 4A shows the state of the signal detected by the light emitted from the LED 0, and it can be seen that the corneal reflection signal is superimposed on the red-eye (fundus reflex) state. 4 (b) is L
The state of the signal detected by the projection of the ED1 is shown, and it can be seen that no red eye (fundus reflex) has occurred. In the present embodiment, the red eye (fundus reflex) signal is extracted by the difference processing of the signals detected in FIGS. 4A and 4B, and the center position of the pupil is obtained by detecting the center of gravity.

【0031】図5はファインダのマスキングの状態を示
す図である。同図に示されるように、撮影者の見える領
域の外側に視線検出用の光束(赤外線光束)のみ透過す
るフィルタを設ける。これによって、アイポイントの自
由度が高いカメラでも瞳孔がファインダによってけられ
赤目像の重心検出の精度が低下することの防止ができ
る。つまり、検出系は常に撮影者の目全体を常に見るこ
とができる。
FIG. 5 is a view showing a masking state of the finder. As shown in the figure, a filter that transmits only the luminous flux (infrared luminous flux) for line-of-sight detection is provided outside the viewable area of the photographer. As a result, even with a camera having a high degree of freedom of the eye point, it is possible to prevent the pupil from being eclipsed by the finder and the accuracy of detecting the center of gravity of the red-eye image from being lowered. That is, the detection system can always see the entire eye of the photographer.

【0032】以下、図6のフローチャートを参照して、
第1の実施例の測距装置を用いたカメラのシーケンスを
説明する。カメラシーケンスの開始すると(ステップS
1)、CPU11はイニシャライズを行う。ここでは、
フォーカスエリアを中央に設定する(ステップS2)。
続いて、CPU11は1stレリーズスイッチのON/
OFFを判定し(ステップS3)、当該1stレリーズ
スイッチがOFFの場合にはステップS12へ移行し、
1stレリーズスイッチがONの場合には測光回路17
による測光(測光値Ex)、マルチAF回路12による
マルチ測距(FL、FC、FRの3点測距)を開始する
(ステップS4)。
Hereinafter, referring to the flow chart of FIG.
A sequence of the camera using the distance measuring device of the first embodiment will be described. When the camera sequence starts (step S
1), the CPU 11 performs initialization. here,
The focus area is set to the center (step S2).
Then, the CPU 11 turns on / off the 1st release switch.
It is determined to be OFF (step S3), and if the 1st release switch is OFF, the process proceeds to step S12,
When the 1st release switch is ON, the photometric circuit 17
And the multi-focusing by the multi-AF circuit 12 (3-point ranging of FL, FC, FR) is started (step S4).

【0033】さらに、CPU11は視線検出の必要性判
断を行い(ステップS5)、3点とも測距情報がほぼ同
じである場合やセルフタイマモード設定時等の如く視線
検出が不要の場合には、フラグFpを“1”に設定して
ステップS8へ進む(ステップS7)。これに対して、
視線検出が必要である場合には、CPU11は後述する
サブルーチン“視線検出”を実行し、視線検出を行う
(ステップS6)。
Further, the CPU 11 judges the necessity of the sight line detection (step S5), and when the distance measurement information is substantially the same for all three points, or when the sight line detection is not necessary such as when the self-timer mode is set, The flag Fp is set to "1" and the process proceeds to step S8 (step S7). On the contrary,
When the line-of-sight detection is necessary, the CPU 11 executes a later-described subroutine "line-of-sight detection" to detect the line-of-sight (step S6).

【0034】続いて、CPU11は後述するサブルーチ
ン“フォーカスエリア選択”を実行し、マルチAFの測
距と測距情報の選択を行う(ステップS8)。そして、
再度1stレリーズスイッチのON/OFFを判定し
(ステップS9)、当該1stレリーズスイッチがOF
Fの場合にはステップS12へ進み、1stレリーズス
イッチがONの場合には2ndレリーズスイッチのON
/OFFを判定する(ステップS10)。そして、2n
dレリーズスイッチがOFFの場合にはステップS9に
戻り、2ndレリーズスイッチがONの場合には、CP
U11はレンズ駆動回路16によるレンズ駆動、露出決
定、露光などの撮影シーケンスを実行し(ステップS1
1)、本シーケンスを終了する(ステップS12)。
Subsequently, the CPU 11 executes a later-described subroutine "focus area selection" to perform multi-AF distance measurement and distance measurement information selection (step S8). And
The ON / OFF of the 1st release switch is determined again (step S9), and the 1st release switch is turned off.
If it is F, go to step S12 and if the 1st release switch is ON, turn the 2nd release switch ON.
/ OFF is determined (step S10). And 2n
If the d release switch is OFF, the process returns to step S9, and if the 2nd release switch is ON, CP
U11 executes a shooting sequence such as lens driving by the lens driving circuit 16, exposure determination, and exposure (step S1).
1) and this sequence is ended (step S12).

【0035】尚、1stレリーズスイッチのON(ステ
ップS3)に同期して最初に視線検出した後(おおまか
な測光は同時に行う)、測光回路17による測光、マル
チAF回路12による測距を行った後、視線の必要性を
判断してもよい。更に視線検出と測光、測距を同時に行
ってもよいことは勿論である。
After first sight line detection in synchronism with turning on of the 1st release switch (step S3) (rough photometry is performed simultaneously), photometry by the photometry circuit 17 and distance measurement by the multi AF circuit 12 are performed. , The necessity of the line of sight may be judged. Further, it is needless to say that line-of-sight detection, photometry, and distance measurement may be performed at the same time.

【0036】次に図7のフローチャートを参照して、図
6のステップS6にて実行されるサブルーチン“視線検
出”のシーケンスを説明する。本サブルーチン“視線検
出”を開始すると(ステップS21)、CPU11はイ
ニシャライズを行う。ここでは、フラグFq,Ft,F
k,Fe1,Fe2を“0”とする(ステップS2
2)。続いて、LED0により赤目を発生させる投光
(投光0)を行い(ステップS23)、後述するサブル
ーチン“信号検出”を実行して信号検出を行う(ステッ
プS24)。
Next, the sequence of the subroutine "line-of-sight detection" executed in step S6 of FIG. 6 will be described with reference to the flowchart of FIG. When this subroutine "line of sight detection" is started (step S21), the CPU 11 initializes. Here, the flags Fq, Ft, F
k, Fe1, and Fe2 are set to "0" (step S2
2). Then, the LED0 is used to emit light (light emission 0) to generate a red eye (step S23), and a subroutine "signal detection" described later is executed to perform signal detection (step S24).

【0037】続いて、CPU11は積分時間に関するフ
ラグFtの状態を判定し(ステップS25)、当該フラ
グFtが“1”である場合にはステップS35へ進む。
これに対して、フラグFtが“0”の場合にはCPU1
1は検出積分時間tsをt0に格納し(ステップS2
6)、画像信号を(E(i))をD0(i)に格納する
(i:1〜N)(ステップS27)。
Subsequently, the CPU 11 determines the state of the flag Ft related to the integration time (step S25). If the flag Ft is "1", the process proceeds to step S35.
On the other hand, when the flag Ft is “0”, the CPU 1
1 stores the detection integration time ts in t0 (step S2
6) The image signal (E (i)) is stored in D0 (i) (i: 1 to N) (step S27).

【0038】続いて、CPU11はLED1により赤目
を発生させない投光(投光1)を行い(ステップS2
8)、サブルーチン“信号検出”を実行して信号検出を
行う(ステップS29)。そして、CPU11は積分時
間に関するフラグFtの状態を判定し(ステップS3
0)、フラグFtが“1”である場合にはステップS3
5へ進む。これに対して、フラグFtが“0”の場合に
はCPU11は検出積分時間tsをt1に格納し(ステ
ップS31)、画像信号(E(i))をD1(i)
(i:1〜N)に格納する(ステップS32)。
Subsequently, the CPU 11 carries out light projection (light projection 1) which does not cause the red eye by the LED 1 (step S2).
8) The subroutine "signal detection" is executed to perform signal detection (step S29). Then, the CPU 11 determines the state of the flag Ft related to the integration time (step S3
0), if the flag Ft is "1", step S3
Go to 5. On the other hand, when the flag Ft is "0", the CPU 11 stores the detection integration time ts in t1 (step S31), and the image signal (E (i)) is D1 (i).
The data is stored in (i: 1 to N) (step S32).

【0039】続いて、CPU11は後述するサブルーチ
ン“信号処理”を実行し、検出信号の信頼性判定及び視
線方向を算出する(ステップS33)。そして、信頼性
に関するフラグFkの状態を判定し(ステップS3
4)、フラグFkが“0”の場合にはステップS36に
移行し、フラグFkが“1”である場合にはステップS
35へ進み、視線信頼性のフラグFqを“1”に設定す
る(ステップS35)。こうして、視線位置の表示をL
EDにて行い(ステップS36)、本シーケンスを終了
する(ステップS37)。
Subsequently, the CPU 11 executes a subroutine "signal processing" which will be described later, and determines the reliability of the detection signal and calculates the line-of-sight direction (step S33). Then, the state of the flag Fk relating to the reliability is judged (step S3
4) If the flag Fk is "0", the process proceeds to step S36. If the flag Fk is "1", the process proceeds to step S36.
In step S35, the line-of-sight reliability flag Fq is set to "1" (step S35). In this way, the display of the line-of-sight position is
ED is performed (step S36), and this sequence is ended (step S37).

【0040】尚、上記ステップS36における視線位置
表示の様子は図11に示される通りである。同図には、
視線検出領域とフォーカスエリアが示されている。ファ
インダには、各領域に対応した表示用LED(他のカメ
ラ表示と兼用してもよい)α,β,γと警告用のLED
が配置されている。
The state of the line-of-sight position display in step S36 is as shown in FIG. In the figure,
The line-of-sight detection area and the focus area are shown. The viewfinder has display LEDs corresponding to each area (may also be used as another camera display) α, β, γ and warning LEDs
Is arranged.

【0041】次に図8のフローチャートを参照して、図
7のステップS24,S29にて実行されるサブルーチ
ン“信号検出(センサ制御)”のシーケンスを説明す
る。サブルーチン“信号検出”を開始すると(ステップ
S41)、CPU11は先ずイニシャライズを行う。こ
こでは、積分に関するフラグFtを“0”とし、積分の
リセット、タイマのリセット・スタートを行う(ステッ
プS42)。
Next, the sequence of the subroutine "signal detection (sensor control)" executed in steps S24 and S29 of FIG. 7 will be described with reference to the flowchart of FIG. When the subroutine "signal detection" is started (step S41), the CPU 11 first initializes. Here, the flag Ft related to integration is set to "0", the integration is reset, and the timer is reset / started (step S42).

【0042】続いて、積分を開始し(ステップS4
3)、積分時間のリミッタ判定を行う(ステップS4
4)。ここで、t>Tmax(Tmaxは積分のリミッ
タ時間で所定値)の場合にはステップS49へ移行し、
フラグFtを“1”に設定し(ステップS49)、本シ
ーケンスを終了する(ステップS50)。
Then, the integration is started (step S4
3), limiter determination of integration time is performed (step S4)
4). Here, when t> Tmax (Tmax is a predetermined value of the limiter time of integration), the process proceeds to step S49,
The flag Ft is set to "1" (step S49), and this sequence ends (step S50).

【0043】一方、t≦Tmaxの場合にはセンサのピ
ークモニタレベルの判定を行う(ステップS45)。そ
して、ピーク判定しない場合にはステップS44へ戻
り、ピーク判定した場合には積分(積分時間ts)を終
了する(ステップS46)。
On the other hand, when t≤Tmax, the peak monitor level of the sensor is determined (step S45). Then, when the peak determination is not made, the process returns to step S44, and when the peak determination is made, the integration (integration time ts) is ended (step S46).

【0044】続いて、積分時間tsの判定を行い(ステ
ップS47)、ts<Tminの場合にはステップS4
9へ移行し、ts≧Tminの場合には信号E(i)
(i=1〜N)の読み出し、処理(AGC、A/D等)
を行い(ステップS48)、本シーケンスを終了する
(ステップS50)。
Then, the integration time ts is judged (step S47), and if ts <Tmin, step S4.
9, and if ts ≧ Tmin, signal E (i)
(I = 1 to N) reading and processing (AGC, A / D, etc.)
Is performed (step S48), and this sequence is ended (step S50).

【0045】尚、積分制御は所定時間にて一度行い、結
果に基づいて、一度目と異なる積分時間を設定して行う
ことを繰り返す方式でもよい。但し、時分割にて検出す
るときの対になるペアの積分時間はほぼ同じ(補正係数
の誤差範囲)にて連続に行うとよい。また、積分時間に
てノイズ成分の受光量がほぼ同一になるように投光光量
も前もって調整しておくとよい。また、LED0による
投光(投光0)時の検出は図8のシーケンスに基づいて
行い、LED1による投光(投光1)時の検出を図9に
示す方式により行ってもよい。図9のシーケンスでは、
ピーク検出をしなくてもよいことになる(ステップS5
1〜S60)。
The integration control may be performed once at a predetermined time, and based on the result, a different integration time from the first time may be set and performed repeatedly. However, it is advisable to continuously perform the integration time of the pair to be detected in a time division manner with substantially the same integration time (correction coefficient error range). Further, it is preferable to adjust the projected light quantity in advance so that the received light quantity of the noise component becomes substantially the same in the integration time. Further, the detection when the LED 0 emits light (light emission 0) may be performed based on the sequence of FIG. 8, and the detection when the LED 1 emits light (light emission 1) may be performed by the method shown in FIG. In the sequence of FIG. 9,
It is not necessary to detect the peak (step S5).
1 to S60).

【0046】次に図10のフローチャートを参照して、
図7のステップS36にて実行されるサブルーチン“表
示”のシーケンスを説明する。各領域が選択された場合
は対応するLEDα,β,γが発光し、フラグFpが
“1”の場合には警告LED(視線情報が使えない旨の
表示)が発光する。そして、これらの表示は、撮影終了
又は1stレリーズスイッチが離される等にて通常のカ
メラシーケンスから抜けた場合に消えるようになってい
る(ステップS61〜S69)。
Next, referring to the flowchart of FIG.
The sequence of the subroutine "display" executed in step S36 of FIG. 7 will be described. When each area is selected, the corresponding LED α, β, γ emits light, and when the flag Fp is “1”, the warning LED (indication that the line-of-sight information cannot be used) emits light. Then, these displays disappear when the normal camera sequence is exited due to the end of shooting or the release of the 1st release switch (steps S61 to S69).

【0047】次に図12のフローチャートを参照して、
図7のステップS33にて実行されるサブルーチン“信
号処理”のシーケンスを説明する。このサブルーチン
“信号処理”を開始すると(ステップS71)、後述す
るサブルーチン“ゴースト処理”を実行した後(ステッ
プS72)、外部の明るさに応じて変数h、rを設定す
る(ステップS73)。
Next, referring to the flowchart of FIG.
The sequence of the subroutine "signal processing" executed in step S33 of Fig. 7 will be described. When this subroutine "signal processing" is started (step S71), after the subroutine "ghost processing" described later is executed (step S72), variables h and r are set according to the external brightness (step S73).

【0048】この変数hは、図14に示されるように、
測光値Exに応じて階段的に設定される。この変数hの
値は被写体が明るくなると小さくなるのに対して、変数
rは被写体の明るさに依存しない値である。この変数r
は角膜の反射像に関係するので被写体の明るさに依存し
なくてもよいが、変数hは瞳孔を通る眼底反射光に関係
するので明るさに大きく影響を受けるのである。
This variable h is, as shown in FIG.
It is set stepwise according to the photometric value Ex. The value of the variable h decreases as the subject becomes brighter, while the variable r does not depend on the brightness of the subject. This variable r
Is related to the reflection image of the cornea and does not have to depend on the brightness of the subject, but the variable h is related to the light reflected from the fundus passing through the pupil and is greatly affected by the brightness.

【0049】続いて、データD0(i)をF(i)
(i:1〜N)に格納し(ステップS74)、後述する
サブルーチン“特徴抽出1”を実行して、上記画像F
(i)より特徴点を抽出する(変数kは0に設定)(ス
テップS75)。続いて、特徴点抽出における信頼性フ
ラグFe1の状態を判定し(ステップS76)、フラグ
Fe1が“1”である場合にはステップS84へ移行す
る。
Subsequently, the data D0 (i) is converted into F (i).
(I: 1 to N) (step S74), the subroutine "feature extraction 1" described later is executed, and the image F
Feature points are extracted from (i) (variable k is set to 0) (step S75). Subsequently, the state of the reliability flag Fe1 in the feature point extraction is determined (step S76), and if the flag Fe1 is "1", the process proceeds to step S84.

【0050】上記ステップS76において、フラグFe
1が“0”の場合には、先に検出されたMAX位置xを
x0に格納し、平均値AvをAv0に格納する(ステッ
プS77)。そして、データD1(i)をF(i)
(i:1〜N)に格納し(ステップS78)、サブルー
チン“特徴点抽出1”を実行して、画像F(i)より特
徴点を抽出する(変数kは“1”に設定)(ステップS
79)。
In step S76, the flag Fe
When 1 is "0", the previously detected MAX position x is stored in x0, and the average value Av is stored in Av0 (step S77). Then, the data D1 (i) is converted to F (i)
(I: 1 to N) (step S78), the subroutine "feature point extraction 1" is executed to extract feature points from the image F (i) (variable k is set to "1") (step S
79).

【0051】続いて、再び特徴点抽出における信頼性フ
ラグFe1の判定を行い(ステップS80)、フラグF
e1が“1”である場合にはステップS84へ移行し、
フラグFe1が0の場合には先に検出された平均値Av
をAv1に格納する(ステップS81)。そして、検出
された平均値Av0,Av1に所定の重みをもたせて差
分処理Avd(Avd=a×Av0−b×AV1;a,
b所定値)を行う(ステップS82)。続いて、差分処
理結果Avdの適性判定(トータル値による異常光の判
定)を行う(Ka,Kbは所定値)(ステップS8
3)。そして、Ka<Avd<Kbでない場合にはステ
ップS84へ移行し、フラグFkを“1”と(信頼性な
し)した後、シーケンスを抜ける(ステップS93)。
Then, the reliability flag Fe1 in the feature point extraction is determined again (step S80), and the flag F is determined.
If e1 is “1”, the process proceeds to step S84,
When the flag Fe1 is 0, the previously detected average value Av
Is stored in Av1 (step S81). Then, the difference values Avd (Avd = a × Av0−b × AV1; a, are added to the detected average values Av0 and Av1 by giving a predetermined weight.
b predetermined value) is performed (step S82). Subsequently, the suitability determination of the difference processing result Avd (determination of abnormal light based on the total value) is performed (Ka and Kb are predetermined values) (step S8).
3). If Ka <Avd <Kb is not satisfied, the process proceeds to step S84, the flag Fk is set to "1" (no reliability), and then the sequence is exited (step S93).

【0052】一方、Ka<Avd<Kbの場合には、後
述するサブルーチン“特徴抽出2”を実行し(ステップ
S85)、特徴点抽出における信頼性フラグFe2の判
定を行う(ステップS86)。そして、フラブFe2が
“1”である場合にはステップS84へ移行し、信号処
理における信号の信頼性を判断するフラグFkを“1”
(信頼性なし)とした後、シーケンスを抜ける(ステッ
プS93)。
On the other hand, if Ka <Avd <Kb, the subroutine "feature extraction 2" described later is executed (step S85), and the reliability flag Fe2 in the feature point extraction is determined (step S86). Then, if the flag Fe2 is "1", the process proceeds to step S84, and the flag Fk for judging the reliability of the signal in the signal processing is set to "1".
After setting it to "not reliable", the sequence is exited (step S93).

【0053】上記フラグFe2が“0”の場合には先に
特徴抽出にて検出されたMAX位置xをx1に格納し
(ステップS87)、目の動きの判定をx0,x1にて
行い(ステップS88)、|x0−x1|<εでない場
合にはステップ84へ移行し、|x0−x1|<εの場
合には後述するサブルーチン“信号変換”を実行し、信
号の変換を変数hにて行う(ステップS89)。
When the flag Fe2 is "0", the MAX position x previously detected by the feature extraction is stored in x1 (step S87), and the eye movement is determined at x0 and x1 (step S87). S88), if | x0-x1 | <[epsilon], the process proceeds to step 84, and if | x0-x1 | <[epsilon], a subroutine "signal conversion" described later is executed, and the signal conversion is performed by the variable h. Perform (step S89).

【0054】そして、D0(i),D1(i)にて差分
処理D(i)(D(i)=a×D0(i)−b×D1
(i))を行い(ステップS90)、D(i)にて重心
検出(重心値xd)を行う(ステップS91)。そし
て、評価値x(x=xd−x0+S;Sは補正値で右
目、左目の情報値又は個人情報値による)を戻し(ステ
ップS92)、シーケンスを抜けメインルーチンに戻る
(ステップS93)。
Then, difference processing D (i) (D (i) = a * D0 (i) -b * D1) at D0 (i) and D1 (i).
(I)) is performed (step S90), and the gravity center is detected (centroid value xd) at D (i) (step S91). Then, the evaluation value x (x = xd-x0 + S; S is a correction value, which depends on the information value of the right eye or the information of the left eye or the personal information value) is returned (step S92), and the sequence is returned to the main routine (step S93).

【0055】また、ステップS82にて、差分処理を行
っているが、差分時が0以下の場合は、その画素処理値
を0にするとさらに良い。次に図13のフローチャート
を参照して、図12のステップS72にて実行されるサ
ブルーチン“ゴースト処理”のシーケンスを説明する。
In step S82, the difference process is performed. If the difference time is 0 or less, it is better to set the pixel processing value to 0. Next, the sequence of the subroutine "ghost processing" executed in step S72 of FIG. 12 will be described with reference to the flowchart of FIG.

【0056】サブルーチン“ゴースト処理”を開始する
と(ステップS101)、ゴーストデータDk0
(i),Dk1(i)の読み込みを行う(ステップS1
02)。当該ゴーストデータDk0(i),Dk1
(i)は、暗黒中にてLED0,LED1をそれぞれ発
光させ所定の積分時間tdにて積分して得られたデータ
であり、予め記録されているものとする。続いて、視線
検出用のデータよりゴーストデータを積分時間にて正規
化して差分をとり(ステップS103)、本シーケンス
を抜ける(ステップS104)。
When the subroutine "ghost processing" is started (step S101), the ghost data Dk0
(I) and Dk1 (i) are read (step S1)
02). The ghost data Dk0 (i), Dk1
(I) is data obtained by causing LED0 and LED1 to emit light in the dark and integrating for a predetermined integration time td, and is assumed to be recorded in advance. Subsequently, the ghost data is normalized from the data for detecting the line of sight by the integration time to obtain the difference (step S103), and the present sequence is exited (step S104).

【0057】次に図15のフローチャートを参照して、
図12のステップS75,S79にて実行されるサブル
ーチン“特徴抽出1”のシーケンスを説明する。本シー
ケンスでは検出データから所定値以上の値の連続値jp
及び最大値MAX、最大値位置x、平均値Av、コント
ラスト値Cを検出評価する。
Next, referring to the flowchart of FIG.
The sequence of the subroutine "feature extraction 1" executed in steps S75 and S79 of FIG. 12 will be described. In this sequence, a continuous value jp of a value equal to or more than a predetermined value is detected from the detected data
Also, the maximum value MAX, the maximum value position x, the average value Av, and the contrast value C are detected and evaluated.

【0058】即ち、サブルーチン“特徴抽出1”を開始
すると(ステップS111)、イニシャライズを行う。
ここでは、変数j,i,jp,S,MAX,x,Cを
“0”とし、フラグFeを“0”とする(ステップS1
12)。
That is, when the subroutine "feature extraction 1" is started (step S111), initialization is performed.
Here, the variables j, i, jp, S, MAX, x, C are set to "0", and the flag Fe is set to "0" (step S1).
12).

【0059】続いて、i=1〜Nまでにおいて以下の処
理を行う。即ち、検出データF(i)を所定値Hと比較
して、所定値H以上のデータが連続して存在する最大値
(連続長さ)をjpに格納する(ステップS113,S
114,S124〜S126,S122,S123)。
そして、総和値Sを算出し(ステップS115)、最大
値MAXの検出及び最大値位置xの設定を行う(ステッ
プS117,S118)。そして、変数iが2以上にな
った所からコントラスト値の総和値C(C=C+|F
(i)−F(i−1)|)の算出を行う(ステップS1
20)。
Then, the following processing is performed from i = 1 to N. That is, the detection data F (i) is compared with the predetermined value H, and the maximum value (continuous length) at which data having the predetermined value H or more continuously exists is stored in jp (steps S113, S).
114, S124 to S126, S122, S123).
Then, the total sum value S is calculated (step S115), the maximum value MAX is detected, and the maximum value position x is set (steps S117 and S118). Then, from the point where the variable i becomes 2 or more, the sum value C of contrast values (C = C + | F
(I) -F (i-1) |) is calculated (step S1).
20).

【0060】こうして検出された値の評価を以下のよう
にして行う。即ち、連続長さjpの判定を行い(ステッ
プS127)、先ず、強い異常光の判定では、jp<L
でない場合にはステップS131へ移行し、特徴抽出に
おける検出信号の信頼性に関するフラグFe1を“1”
(信頼性なし)に設定する。jp<Lの場合にはコント
ラスト値Cの評価を行う(ステップS128)。
The value thus detected is evaluated as follows. That is, the continuous length jp is determined (step S127). First, in the determination of strong abnormal light, jp <L
If not, the process proceeds to step S131, and the flag Fe1 regarding the reliability of the detection signal in the feature extraction is set to "1".
Set to (unreliable). When jp <L, the contrast value C is evaluated (step S128).

【0061】次いで、まばたき状態検出(まばたき時は
コントラストが低下する)では、C>Cpでない場合に
はステップS131へ移行し、特徴抽出における検出信
号の信頼性に関するフラグFe1を“1”(信頼性な
し)に設定し、C<Cpの場合には平均値Avの算出を
行い(ステップS129)、最大値MAXと平均値Av
の評価を行う(ステップS130)。
Next, in the blink state detection (the contrast decreases when blinking), if C> Cp is not satisfied, the process proceeds to step S131, and the flag Fe1 relating to the reliability of the detection signal in the feature extraction is set to "1" (reliability. None), and if C <Cp, the average value Av is calculated (step S129), and the maximum value MAX and the average value Av are set.
Is evaluated (step S130).

【0062】そして、まばたき状態検出(まばたき時は
角膜反射が発生しない)では、MAX−Av>ε(k)
(ε(k)は所定値、kは0又は1で、ε(0)とε
(1)は同じでも異なってもよい)でない場合にはステ
ップS131へ行き、特徴抽出における検出信号の信頼
性に関するフラグFe1を“1”(信頼性なし)に設定
し、MAX−Av>ε(k)の場合には本シーケンスを
抜け、メインルーチンに戻る(ステップS133)。
Then, MAX-Av> ε (k) is detected in the blinking state detection (the cornea reflection does not occur at the time of blinking).
(Ε (k) is a predetermined value, k is 0 or 1, and ε (0) and ε
If (1) may not be the same or different), the process proceeds to step S131, the flag Fe1 regarding the reliability of the detection signal in the feature extraction is set to "1" (no reliability), and MAX-Av> ε ( In the case of k), this sequence is exited and the process returns to the main routine (step S133).

【0063】次に図16のフローチャートを参照して、
図12のステップS85にて実行されるサブルーチン
“特徴抽出2”のシーケンスを説明する。本シーケンス
では、データ領域を変数r(ここでは、rは固定値)に
て狭め、この狭めたデータから最大値MAX、最大値位
置xを検出し評価する。特に、非赤目状態では、端に存
在する白目のレベルが高くなり、最大値が間違って検出
されることがある為、検出範囲を限定し白目の影響を低
減する。
Next, referring to the flowchart of FIG.
The sequence of the subroutine "feature extraction 2" executed in step S85 of FIG. 12 will be described. In this sequence, the data area is narrowed by a variable r (here, r is a fixed value), and the maximum value MAX and the maximum value position x are detected from the narrowed data and evaluated. Particularly, in the non-red-eye state, the level of the white eye existing at the edge becomes high, and the maximum value may be erroneously detected. Therefore, the detection range is limited and the influence of the white eye is reduced.

【0064】サブルーチン“特徴抽出2”を開始すると
(ステップS151)、イニシャライズを行う。ここで
は、変数i,MAX,x,Sを“0”とし、フラグFe
2を“0”(信頼性あり)とする(ステップS15
2)。続いて、i=1〜Nの範囲で、更にx0−r〜x
0+rまでにおいて最大値検出を行う。
When the subroutine "feature extraction 2" is started (step S151), initialization is performed. Here, the variables i, MAX, x, and S are set to "0", and the flag Fe is set.
2 is set to "0" (reliable) (step S15)
2). Then, in the range of i = 1 to N, further x0-r to x
Maximum value detection is performed up to 0 + r.

【0065】即ち、検出範囲の限定を行い(ステップS
153〜S155,S160〜S162)、最大値MA
X、最大値位置xの検出を行う(ステップS156〜S
158)。そして、i=1〜Nの範囲で更にx0−r〜
x0+rまでにおいて平均値Av検出し、信頼性判定を
行う(ステップS163)。
That is, the detection range is limited (step S
153 to S155, S160 to S162), maximum value MA
X, the maximum value position x is detected (steps S156 to S156).
158). Then, in the range of i = 1 to N, x0-r
The average value Av is detected up to x0 + r, and reliability determination is performed (step S163).

【0066】続いて、最大値MAXと平均値Avの比較
を行う(δは所定値)(ステップS164)。ここで、
MAX−Av>δの場合にはステップS165へ移行
し、MAX−Av>δでない場合にはフラグFe2を
“1”(信頼性なし)に設定し(ステップS165)、
本シーケンスを抜ける(ステップS166)。ここで
は、マスク処理x0−r〜x0+rを図27(c)のよ
うに行っているが、なめらかなマスク処理(図27
(d)参照)を行ってもよい(図27(b)参照)。
Subsequently, the maximum value MAX and the average value Av are compared (δ is a predetermined value) (step S164). here,
If MAX-Av> δ, the process proceeds to step S165, and if not MAX-Av> δ, the flag Fe2 is set to "1" (unreliable) (step S165).
This sequence is exited (step S166). Here, the mask processing x0-r to x0 + r is performed as shown in FIG. 27C, but the smooth mask processing (see FIG. 27) is performed.
(See (d)) may be performed (see FIG. 27 (b)).

【0067】次に図17のフローチャートを参照して、
図12のステップS89にて実行されるサブルーチン
“信号変換”のシーケンスを説明する。サブルーチン
“信号変換”を開始すると(ステップS171)、イニ
シャライズ(i=1)を行い(ステップS272)、i
=1〜Nの範囲で、i<x0−h又はi>x0+hの場
合にはD0(i),D1(i)を0にし、本シーケンス
を抜ける(ステップS173〜S179)。ここでは、
マスク処理を図27(c)のような形状で行っている
が、図27(d)のようななめらかなマスクを用いても
よい。なめらかなマスクを用いることで、より広い情報
をS/Nよく取り入れられる。
Next, referring to the flowchart of FIG.
The sequence of the subroutine "signal conversion" executed in step S89 of Fig. 12 will be described. When the subroutine "signal conversion" is started (step S171), initialization (i = 1) is performed (step S272), and i
= 1 to N, when i <x0-h or i> x0 + h, D0 (i) and D1 (i) are set to 0, and this sequence is exited (steps S173 to S179). here,
Although the mask processing is performed in the shape as shown in FIG. 27C, a smooth mask as shown in FIG. 27D may be used. By using a smooth mask, wider information can be taken in S / N well.

【0068】次に図18のフローチャートを参照して、
図6のステップS8にて実行されるサブルーチン“フォ
ーカスエリアの選択”のシーケンスを説明する。フォー
カスエリアの選択を開始すると(ステップS181)、
視線情報の必要性のフラグFpの判定を行い(ステップ
S182)、フラグFpが“1”(視線情報必要なし)
の場合には各フォーカスエリアa,b,eに対する重み
付け(a(0)=d(0)=e(0)=3)を行う(ス
テップS185)。そして、信頼係数kを“1”に設定
して信頼係数を各フォーカスエリアの重みに掛ける(a
(1)=k×a(0),d(1)=k×d(0),e
(1)=k×e(0),k=1)(ステップS18
6)。
Next, referring to the flowchart of FIG.
The sequence of the subroutine "focus area selection" executed in step S8 of FIG. 6 will be described. When the focus area selection is started (step S181),
The flag Fp indicating the need for the line-of-sight information is determined (step S182), and the flag Fp is "1" (no need for line-of-sight information).
In the case of, weighting (a (0) = d (0) = e (0) = 3) for each focus area a, b, e is performed (step S185). Then, the reliability coefficient k is set to "1" and the weighting of each focus area is multiplied by the reliability coefficient (a
(1) = k × a (0), d (1) = k × d (0), e
(1) = k × e (0), k = 1) (step S18
6).

【0069】上記ステップS182にて、フラグFpが
“0”(視線情報必要)である場合には、後述するサブ
ルーチン“視線重み付け”を実行して視線による重み付
けを行い(ステップS183)、後述するサブルーチン
“信頼性重みづけ”を実行して信頼性による重み付けを
行う(ステップS184)。
In step S182, if the flag Fp is "0" (requires line-of-sight information), a subroutine "line-of-sight weighting" to be described later is executed to perform line-of-sight weighting (step S183), and the subroutine to be described later will be described. "Reliability weighting" is executed to perform reliability weighting (step S184).

【0070】続いて、後述するサブルーチン“距離重み
付け”を実行して距離による重み付けを行い(ステップ
S187)、各フォーカスエリアの重みを加算処理(a
=a(1)+a(2),b=(1)+b(2),c=c
(1)+c(2))する(ステップS188)。そし
て、重み値の判定を行い(ステップS189)、選択条
件にて同一の重みが存在しない場合最も大きな重みを有
するフォーカスエリアを選択する(ステップS19
0)。
Subsequently, a subroutine "distance weighting" which will be described later is executed to perform weighting by distance (step S187), and the weighting process for each focus area is performed (a
= A (1) + a (2), b = (1) + b (2), c = c
(1) + c (2)) (step S188). Then, the weight value is determined (step S189), and if the same weight does not exist in the selection conditions, the focus area having the largest weight is selected (step S19).
0).

【0071】選択条件にて同一の重み値が存在する場合
(MAXの重みが複数点ある)中央のaが含まれるか否
かの判定を行う(ステップS191)。そして、中央a
が含まれている場合は中央aを選択し(ステップS19
6)、中央aが含まれていない場合は両サイドの至近側
のフォーカスエリアを選択する(ステップS192,S
193,S194)。
When the same weight value exists in the selection conditions (there are a plurality of MAX weights), it is determined whether or not the central a is included (step S191). And the center a
If is included, the center a is selected (step S19
6) If the center "a" is not included, the focus areas on the closest sides of both sides are selected (steps S192, S).
193, S194).

【0072】こうして選択されたフォーカスエリアの測
距情報に基づいて撮影レンズの駆動量を算出し(ステッ
プS197)、ファインダのパララックスを選択された
フォーカスエリアの距離情報に基づいて液晶にて補正し
(ステップS198)、本シーケンスを抜ける(ステッ
プS199)。尚、バララックス補正はファインダ光学
系で行う以外にフィルム上に磁気記録等にてファインダ
光学系に合わせてトリミング(パララックス)情報を記
録して、ラボ処理にて補正してもよい。
The drive amount of the photographing lens is calculated based on the distance measurement information of the focus area thus selected (step S197), and the parallax of the viewfinder is corrected by the liquid crystal based on the distance information of the selected focus area. (Step S198), this sequence is exited (step S199). The parallax correction may be performed by a lab process by recording trimming (parallax) information on the film in accordance with the finder optical system by magnetic recording or the like, instead of performing it by the finder optical system.

【0073】次に図19及び図20を参照して、図18
のステップS183にて実行されるサブルーチン“視線
重み付け”のシーケンスを説明する。尚、図19は視線
重み付けを行う視線検出領域の様子を示し、詳細には、
図19(a)は本実施例にて採用した分割領域を示し、
図19(b),図28(a)は他の分割例を示してい
る。
Next, referring to FIG. 19 and FIG.
The sequence of the subroutine "line-of-sight weighting" executed in step S183 of FIG. FIG. 19 shows a state of the line-of-sight detection area in which line-of-sight weighting is performed.
FIG. 19A shows the divided areas adopted in this embodiment,
19 (b) and 28 (a) show other examples of division.

【0074】本サブルーチン“視線重み付け”では、図
19(a)に示す検出領域A乃至Fに応じてフォーカス
エリアに重み付けを行う。尚、各領域が選択された際の
重み付け係数a(0),b(0),c(0)は下記の表
に示される通りである(ステップS201〜S21
5)。
In this subroutine "line-of-sight weighting", the focus areas are weighted according to the detection areas A to F shown in FIG. The weighting factors a (0), b (0), c (0) when each area is selected are as shown in the following table (steps S201 to S21).
5).

【0075】[0075]

【表1】 [Table 1]

【0076】次に図21のフローチャートを参照して、
図18のステップS184にて実行されるサブルーチン
“信頼性重み付け”のシーケンスを説明する。本サブル
ーチンでは、視線情報の信頼性のフラグFqの判定を行
い、フラグFqが“1”(信頼性なし)の場合には信頼
性係数kを0.5に設定し、フラグFqが“0”(信頼
性あり)の場合は信頼性係数kを“1”に設定する(ス
テップS221〜S224)。そして、各フォーカスエ
リアの視線による重み付け値に信頼性係数を掛け(a
(1)=k×a(0)、b(1)=k×b(0)、c
(1)=k×c(0))、本シーケンスを抜ける(ステ
ップS225,S226)。
Next, referring to the flowchart of FIG.
The sequence of the subroutine "reliability weighting" executed in step S184 of FIG. 18 will be described. In this subroutine, the flag Fq of the reliability of the line-of-sight information is determined. If the flag Fq is "1" (no reliability), the reliability coefficient k is set to 0.5, and the flag Fq is "0". In the case of (reliable), the reliability coefficient k is set to "1" (steps S221 to S224). Then, the weighted value of the line of sight of each focus area is multiplied by the reliability coefficient (a
(1) = k × a (0), b (1) = k × b (0), c
(1) = k × c (0)), this sequence is exited (steps S225 and S226).

【0077】尚、信頼性は複数(例えば、フラグFqの
代わりにフラグFk(画検出像の異常フラグ)とフラグ
Ft(積分時の異常フラグ)を別々に評価してフラグ状
態の組み合わせで別々の信頼係数k1,k2を複数設定
してもよい。また、図28(a)に示すような配置の場
合の視線による重み付けの例を、図28(b)に示す。
As for reliability, a plurality of flags (for example, flag Fk (image detection image abnormality flag) and flag Ft (integration abnormality flag) instead of flag Fq are evaluated separately, and different flag states are combined to obtain different reliability values. A plurality of reliability coefficients k1 and k2 may be set, and an example of weighting by the line of sight in the case of the arrangement shown in Fig. 28 (a) is shown in Fig. 28 (b).

【0078】次に図22のフローチャートを参照して、
図18のステップS187にて実行されるサブルーチン
“距離重み付け”のシーケンスを説明する。サブルーチ
ン“距離重み付け”を開始すると(ステップS23
1)、各測距情報を距離ブロック値に変換する(ほぼ同
じ距離は同じブロック値になる)(ステップS23
2)。距離をブロック値に変換する様子は図23に示
す。各フォーカスエリア(a,d,e)に対応してブロ
ック値はLa,Ld,Leとする。ブロック値の関係と
各フォーカスエリア重み値を設定し本シーケンスを抜け
る(ステップS233〜S259)。尚、設定テーブル
は図24に示される。
Next, referring to the flowchart of FIG. 22,
The sequence of the subroutine "distance weighting" executed in step S187 of Fig. 18 will be described. When the subroutine "distance weighting" is started (step S23)
1) Convert each distance measurement information into a distance block value (almost the same distance has the same block value) (step S23).
2). FIG. 23 shows how the distance is converted into the block value. The block values are La, Ld, and Le corresponding to each focus area (a, d, e). The relationship between the block values and each focus area weight value are set, and this sequence is exited (steps S233 to S259). The setting table is shown in FIG.

【0079】そして、図25に示されるように、こうし
て選択されたフォーカスエリアの測距情報に応じてファ
インダの1次結像面付近に配置された液晶にて撮影領域
以外を遮光する。
Then, as shown in FIG. 25, the liquid crystal arranged near the primary image forming plane of the finder shields the light except for the photographing area according to the distance measurement information of the focus area thus selected.

【0080】以上説明したように、第1の実施例は、簡
単なアルゴリズムにて測距情報、視線情報、更には視線
信号の信頼性も含めた情報に基づいて、最適な測距ポイ
ントを設定することができる。
As described above, the first embodiment sets the optimum distance measuring point based on the distance measuring information, the line-of-sight information, and the information including the reliability of the line-of-sight signal with a simple algorithm. can do.

【0081】以上、本発明の実施例について説明した
が、本発明はこれに限定されることなく種々の改良、変
更が可能であることは勿論である。例えば、視線検出方
式はエリアセンサを用いて信頼性を向上してもよい。そ
して、信頼性判断をまばたき、目の動きにて行っている
が、カメラと顔の接触(カメラファインダに眼を押し付
けている)の判定や眼がね判定を組み合わせるとさらに
よい。さらに、キャリブレーションを個人毎に行えばさ
らに検出精度は向上する。また、キャリブレーションを
シーケンス中の表示(シーケンス開始時、または1st
視線検出直後等)にて行ってもよい。
Although the embodiments of the present invention have been described above, it is needless to say that the present invention is not limited to these embodiments and that various improvements and modifications can be made. For example, the line-of-sight detection method may use an area sensor to improve reliability. Then, the reliability judgment is performed by blinking and moving the eyes, but it is more preferable to combine the judgment of the contact between the camera and the face (the eye is pressed against the camera finder) and the judgment of the eye glasses. Further, if the calibration is performed for each individual, the detection accuracy is further improved. In addition, display the calibration during the sequence (at the start of the sequence, or 1st
Immediately after detecting the line of sight).

【0082】そして、検出領域はさらに分割を行い、エ
リアセンサを用いたパッシブタイプの2次元の広視野A
Fを用いてもよく、また、アクティブのスキャンマルチ
AFを用いてもよい。さらに、センサの積分制御に関し
ても所定時間による固定式でもよい。また、視線検出方
式も他の公知の方式を用いてもよい。
The detection area is further divided into a passive type two-dimensional wide field of view A using an area sensor.
F may be used, or active scan multi-AF may be used. Further, the integral control of the sensor may be a fixed type for a predetermined time. Further, as the visual axis detection method, another known method may be used.

【0083】さらに、図18のステップS189にて同
じ重みの場合、中央優先ではなく(至近優先または視線
位置優先でフォーカスエリアを選択してもよい。また、
優先順位を中央→視線位置にしてもよい。そして、スト
ロボ発生の判定を行い(ISO感度と明るさ情報よ
り)、ストロボ発光時には測距情報、ストロボガイドナ
ンバ値より被写体の明るさがどの様になるかを想定して
各フォーカスエリアにストロボによる重み付けa
(3),d(3),e(3)を行い最終的な加算処理に
てフォーカスエリアを選択するとよい。
Further, when the weights are the same in step S189 of FIG. 18, the focus area may be selected (priority to the near focus or priority to the line-of-sight position) instead of the center priority.
The priority order may be center → gaze position. Then, the flash generation is determined (from ISO sensitivity and brightness information), and when the flash fires, it is assumed that the brightness of the subject will be based on the distance measurement information and the flash guide number value. Weighting a
(3), d (3), and e (3) may be performed to select the focus area in the final addition processing.

【0084】尚、図26にはストロボを加味した第2の
実施例の構成を示し説明する。第2の本実施例では、図
2の構成にストロボ回路18とISO感度読み取りスイ
ッチを付加した構成となる。重み付け値は以下のように
設定するとよい。尚、被写体明るさは最適露出に対して
の値を示す。
Incidentally, FIG. 26 shows the structure of the second embodiment in which a strobe is taken into consideration and will be described. In the second embodiment, a strobe circuit 18 and an ISO sensitivity reading switch are added to the configuration of FIG. The weighting value may be set as follows. It should be noted that the subject brightness indicates a value with respect to the optimum exposure.

【0085】[0085]

【表2】 [Table 2]

【0086】尚、本発明の上記実施態様によれば、以下
のごとき構成が得られる。 (1)複数の焦点検出領域を測距する多点測距手段と、
撮影者の視線方向を検出する視線検出手段と、上記多点
測距手段の出力と上記視線検出手段の出力とに基づい
て、ただ1つの測距データを選択する選択手段と、から
なることを特徴とする測距装置。 (2)複数フォーカスポイントを測距するマルチ測距手
段と、上記マルチ測距手段にて検出された測距情報に応
じてそれぞれのフォーカスポイントに重み値を与える測
距重み付け手段と、撮影者の視線方向を検出する視線検
出手段と、上記視線検出手段にて検出された視線信号に
対応する視線検出ブロックを判定し、その対応するブロ
ックに応じて、それぞれのフォーカスポイントに重み値
を与える視線重み付け手段と、上記測距重み値と上記視
線重み値との加算値に基づいて、ただ1つのフォーカス
ポイントを選択することを特徴とする測距装置。 (3)上記測距重み付け手段は、上記マルチ測距手段か
らの距離が近いものほど大きな重み値を与えることを特
徴とする上記(2)に記載の測距装置。 (4)上記測距重み付け手段は、複数の測距データが所
定の範囲内にあるときは、同一の重み値を与えることを
特徴とする上記(2)に記載の測距装置。 (5)上記視線重み付け手段は、ファインダに示された
視線検出ブロックに対するそれぞれのフォーカスッポイ
ントに重み付けをすることを特徴とする上記(2)に記
載の測距装置。 (6)複数のフォーカスポイントを測距する多点測距手
段と、上記多点測距手段にて検出された距離情報に応じ
てそれぞれのフォーカスポイントに重み値を与える測距
重み付け手段と、撮影者の視線方向を検出する視線検出
手段と、上記視線検出手段にて検出された視線信号に対
応する視線検出ブロックを判定し、その対応するブロッ
クに応じて、それぞれのフォーカスポイントに重み値を
与える視線重み付け手段と、上記視線検出手段により得
られたデータの信頼性を評価する検出信頼性判定手段
と、上記視線検出手段にて検出された信頼性度合いに応
じて視線重み付け手段の出力に所定の係数を乗じた重み
値をそれぞれのフォーカスポイントに設定する信頼性係
数手段と、上記測距重み値と上記視線重み値との加算値
に基づいて、ただ1つのフォーカスポイントを選択する
ことを特徴とする測距装置。 (7)上記信頼性判定手段は、視線検出時の信頼性を2
値で評価し、上記信頼性係数手段は信頼性評価値に応じ
た係数を設定することを特徴とする上記(6)に記載の
測距装置。 (8)複数のフォーカスポイントを測距する多点測距手
段と、上記多点測距手段にて検出された距離情報に応じ
てそれぞれのフォーカスポイントに重み付けを行う測距
重み付け手段と、ストロボ装置と、上記ストロボ装置の
発光条件と、発光時における到達光量とを判定し、それ
ぞれのフォーカスポイントに重み付けを行うストロボ重
み付け手段と、撮影者の視線方向を検出する視線検出手
段と、上記視線検出手段にて検出された視線信号に対応
する視線検出ブロックを判定し、その対応するブロック
に応じて、それぞれのフォーカスポイントに重み付けを
行う視線重み付け手段と、上記視線検出手段により得ら
れたデータの信頼性を評価する検出信頼性判定手段と、
上記視線検出手段にて検出された信頼性度合いに応じ
て、それぞれのフォーカスポイントにおいて視線重み付
け手段の出力に所定の係数を乗じた重み付けを行う信頼
性係数手段と、上記測距重み値と上記視線重み値との加
算値に基づいて、ただ1つのフォーカスポイントを選択
することを特徴とする測距装置。 (9)上記ストロボ重み付け手段は、測距情報とストロ
ボ発光光量とに基づき露光がアンダーとなる度合いに応
じた重み付けを行うことを特徴とする上記(8)に記載
の測距装置。
According to the above embodiment of the present invention, the following constitution can be obtained. (1) Multi-point distance measuring means for measuring a plurality of focus detection areas,
A line-of-sight detecting means for detecting the line-of-sight direction of the photographer, and a selecting means for selecting only one piece of distance-measuring data based on the outputs of the multi-point distance-measuring means and the output of the sight-line detecting means. Characteristic distance measuring device. (2) Multi-distance measuring means for measuring a distance between a plurality of focus points, distance-distance weighting means for giving a weight value to each focus point according to the distance-measuring information detected by the multi-distance measuring means, and a photographer's A line-of-sight detection unit that detects the line-of-sight direction and a line-of-sight detection block corresponding to the line-of-sight signal detected by the line-of-sight detection unit are determined, and line-of-sight weighting that gives a weight value to each focus point according to the corresponding block. A distance measuring device, wherein only one focus point is selected on the basis of a means and a sum of the distance measuring weight value and the line-of-sight weight value. (3) The distance measuring apparatus according to (2), wherein the distance measuring weighting means gives a larger weight value as the distance from the multi distance measuring means is shorter. (4) The distance measuring device according to (2), wherein the distance measuring weighting means gives the same weight value when a plurality of distance measuring data are within a predetermined range. (5) The distance measuring apparatus according to (2), wherein the line-of-sight weighting unit weights each focus point for the line-of-sight detection block shown in the viewfinder. (6) Multipoint distance measuring means for measuring a plurality of focus points, distance measuring weighting means for giving a weight value to each focus point according to distance information detected by the multipoint distance measuring means, and photographing The line-of-sight detection means for detecting the line-of-sight direction of the person and the line-of-sight detection block corresponding to the line-of-sight signal detected by the line-of-sight detection means are determined, and a weight value is given to each focus point according to the corresponding block. Line-of-sight weighting means, detection reliability determination means for evaluating the reliability of the data obtained by the line-of-sight detection means, and predetermined output to the line-of-sight weighting means according to the degree of reliability detected by the line-of-sight detection means. Based on the reliability coefficient means for setting the weight value multiplied by the coefficient to each focus point, and the added value of the distance measurement weight value and the line-of-sight weight value, only 1 is set. Distance measuring apparatus and selects the focus point. (7) The reliability determining means determines the reliability at the time of detecting the line of sight as 2
The distance measuring device according to (6), wherein the reliability coefficient means sets a coefficient according to the reliability evaluation value. (8) Multi-point distance measuring means for measuring a plurality of focus points, distance measuring weighting means for weighting each focus point according to distance information detected by the multi-point distance measuring means, and strobe device And strobe weighting means for determining the light emission conditions of the strobe device and the amount of light reached at the time of light emission, and weighting each focus point, a line-of-sight detection means for detecting the line-of-sight direction of the photographer, and the line-of-sight detection means. The line-of-sight detection block corresponding to the line-of-sight signal detected by the line-of-sight detection unit is determined, and the line-of-sight weighting unit that weights each focus point according to the corresponding block, and the reliability of the data obtained by the line-of-sight detection unit. A detection reliability determination means for evaluating
In accordance with the reliability degree detected by the line-of-sight detection means, reliability coefficient means for weighting the output of the line-of-sight weighting means by a predetermined coefficient at each focus point, the distance measurement weight value and the line-of-sight A distance measuring device characterized in that only one focus point is selected on the basis of a value added to a weight value. (9) The distance measuring apparatus according to (8), wherein the strobe weighting means performs weighting according to the degree of underexposure based on the distance measurement information and the strobe light emission amount.

【0087】[0087]

【本発明の効果】本発明によれば、簡単なアルゴリズム
にて測距情報、視線情報、更には視線信号の信頼性も含
めた情報に基づき、焦点検出領域に対応して検出された
複数の距離データより、最適な測距データを選択する測
距装置及び測距方法を提供することができる。
According to the present invention, a plurality of plural objects detected in correspondence with the focus detection area based on the distance measurement information, the line-of-sight information, and the information including the reliability of the line-of-sight signal by a simple algorithm. It is possible to provide a distance measuring device and a distance measuring method for selecting optimum distance measuring data from distance data.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の測距装置を用いたカメラの概念図であ
る。
FIG. 1 is a conceptual diagram of a camera using a distance measuring device of the present invention.

【図2】本発明の第1の実施例に係る測距装置を用いた
カメラの構成を示す図である。
FIG. 2 is a diagram showing a configuration of a camera using the distance measuring apparatus according to the first embodiment of the present invention.

【図3】図2におけるファインダ・視線光学系の詳細な
構成を示す図である。
FIG. 3 is a diagram showing a detailed configuration of a finder / line-of-sight optical system in FIG.

【図4】第1の実施例の視線検出用の光源LED0、L
ED1による目からの反射光による検出信号の状態を示
す図である。
FIG. 4 is a light source LED0, L for line-of-sight detection of the first embodiment.
It is a figure which shows the state of the detection signal by the reflected light from the eye by ED1.

【図5】ファインダのマスキングの状態を示す図であ
る。
FIG. 5 is a diagram showing a masking state of a finder.

【図6】第1の実施例のカメラシーケンスを示すフロー
チャートである。
FIG. 6 is a flowchart showing a camera sequence of the first embodiment.

【図7】図6のステップS6にて実行されるサブルーチ
ン“視線検出”のシーケンスを示すフローチャートであ
る。
FIG. 7 is a flowchart showing a sequence of a subroutine “line-of-sight detection” executed in step S6 of FIG.

【図8】図7のステップS24,S29にて実行される
サブルーチン“信号検出(センサ制御)”のシーケンス
を示すフローチャートである。
8 is a flowchart showing a sequence of a subroutine "signal detection (sensor control)" executed in steps S24 and S29 of FIG.

【図9】図8の改良例のシーケンスを示すフローチャー
トである。
9 is a flowchart showing a sequence of the modified example of FIG.

【図10】図7のステップS36にて実行されるサブル
ーチン“表示”のシーケンスを示すフローチャートであ
る。
10 is a flowchart showing a sequence of a subroutine "display" executed in step S36 of FIG.

【図11】LEDによるファインダの各種表示の様子を
示す図である。
FIG. 11 is a diagram showing various display states of a finder by LEDs.

【図12】図7のステップS33にて実行されるサブル
ーチン“信号処理”のシーケンスを示すフローチャート
である。
FIG. 12 is a flowchart showing a sequence of a subroutine “signal processing” executed in step S33 of FIG.

【図13】図12のステップS72にて実行されるサブ
ルーチン“ゴースト処理”のシーケンスを示すフローチ
ャートである。
FIG. 13 is a flowchart showing a sequence of a subroutine “ghost processing” executed in step S72 of FIG.

【図14】変数h,rの設定方法を説明するための図で
ある。
FIG. 14 is a diagram for explaining a method of setting variables h and r.

【図15】図12のステップS75,S79にて実行さ
れるサブルーチン“特徴抽出1”のシーケンスを示すフ
ローチャートである。
15 is a flowchart showing the sequence of a subroutine "feature extraction 1" executed in steps S75 and S79 of FIG.

【図16】図12のステップS85にて実行されるサブ
ルーチン“特徴抽出2”のシーケンスを示すフローチャ
ートである。
16 is a flowchart showing a sequence of a subroutine "feature extraction 2" executed in step S85 of FIG.

【図17】図12のステップS89にて実行されるサブ
ルーチン“信号変換”のシーケンスを示すフローチャー
トである。
17 is a flowchart showing a sequence of a subroutine "signal conversion" executed in step S89 of FIG.

【図18】図6のステップS8にて実行されるサブルー
チン“フォーカスエリアの選択”のシーケンスを示すフ
ローチャートである。
FIG. 18 is a flowchart showing a sequence of a subroutine “focus area selection” executed in step S8 of FIG.

【図19】図19は視線重み付けを行う視線検出領域の
様子を示す図である。
FIG. 19 is a diagram showing a state of a line-of-sight detection area in which line-of-sight weighting is performed.

【図20】図18のステップS183にて実行されるサ
ブルーチン“視線重み付け”のシーケンスを示すフロー
チャートである。
20 is a flowchart showing a sequence of a subroutine "line-of-sight weighting" executed in step S183 of FIG.

【図21】図18のステップS184にて実行されるサ
ブルーチン“信頼性重み付け”のシーケンスを示すフロ
ーチャートである。
FIG. 21 is a flowchart showing a sequence of a subroutine “reliability weighting” executed in step S184 of FIG.

【図22】図18のステップS187にて実行されるサ
ブルーチン“距離重み付け”のシーケンスを示すフロー
チャートである。
22 is a flowchart showing a sequence of a subroutine "distance weighting" executed in step S187 of FIG.

【図23】距離をブロック値に変換する様子を説明する
ための図である。
FIG. 23 is a diagram for explaining how a distance is converted into a block value.

【図24】設定テーブルの様子を示す図である。FIG. 24 is a diagram showing an appearance of a setting table.

【図25】選択されたフォーカスエリアの測距情報に応
じてファインダの1次結像面付近に配置された液晶にて
撮影領域以外を遮光する様子を示す図である。
FIG. 25 is a diagram showing how a liquid crystal arranged near the primary image forming surface of the finder shields light other than the photographing area according to the distance measurement information of the selected focus area.

【図26】ストロボを加味した第2の実施例の構成を示
す図である。
FIG. 26 is a diagram showing a configuration of a second exemplary embodiment with a strobe taken into consideration.

【図27】マスク処理について説明するための図であ
る。
FIG. 27 is a diagram for explaining mask processing.

【図28】(a)はフォーカスエリアの配置を示し、
(b)は(a)のフォーカスエリアa乃至cに対する重
み付けの例を示す図である。
FIG. 28 (a) shows the arrangement of focus areas,
(B) is a figure which shows the example of weighting with respect to the focus areas a to c of (a).

【符号の説明】[Explanation of symbols]

1…フォーカスエリア決定部、2…マルチ測距部、3…
視線検出装置、4…信頼性判定部、5…測光部、6…ス
トロボ部、7…ストロボ制御部、8…ISO検出部、1
1…CPU、12…マルチAF回路、13…LED回
路、14…ラインセンサ回路、15…ファインダ・視線
光学系、16…レンズ駆動回路、17…測光回路。
1 ... Focus area determination unit, 2 ... Multi distance measuring unit, 3 ...
Line-of-sight detection device, 4 ... Reliability determination unit, 5 ... Photometric unit, 6 ... Strobe unit, 7 ... Strobe control unit, 8 ... ISO detection unit, 1
1 ... CPU, 12 ... Multi AF circuit, 13 ... LED circuit, 14 ... Line sensor circuit, 15 ... Viewfinder / line-of-sight optical system, 16 ... Lens drive circuit, 17 ... Photometric circuit.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G03B 7/28 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI technical display area G03B 7/28

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 予め定義された複数の焦点検出領域にお
いて測距を行う多点測距手段と、 上記多点測距手段の出力データに基づいて上記複数の焦
点検出領域に対して第1の重み付けを行う第1の重み付
け手段と、 観察者の視線方向を検出すると共に、視線方向検出時の
信頼性を評価する視線評価手段と、 上記視線評価手段の出力に応じて上記複数の焦点検出領
域に対して第2の重み付けを行う第2の重み付け手段
と、 上記第1の重み付け手段の出力と上記第2の重み付け手
段の出力との加算値に基づき、上記複数の焦点検出領域
に対応して検出された複数の距離データの中からただ1
つの距離データを選択するデータ選択手段と、を具備す
ることを特徴とする測距装置。
1. A multipoint distance measuring means for performing distance measurement in a plurality of predefined focus detection areas, and a first for the plurality of focus detection areas based on output data of the multipoint distance measuring means. First weighting means for performing weighting, line-of-sight evaluation means for detecting the line-of-sight direction of the observer, and evaluating reliability when detecting the line-of-sight direction, and the plurality of focus detection areas according to the output of the line-of-sight evaluation means A second weighting means for performing a second weighting with respect to the first weighting means, and an added value of the output of the first weighting means and the output of the second weighting means. Only 1 out of multiple detected distance data
A distance measuring device comprising: data selecting means for selecting one distance data.
【請求項2】 上記第2の重み付け手段は、予め定義さ
れた複数の視線検出領域に基づいた観察者の視線方向を
検出し、上記複数の焦点検出領域に対して該検出時の信
頼性係数を乗じた重み付けを行うことを特徴とする請求
項1に記載の測距装置。
2. The second weighting means detects the line-of-sight direction of an observer based on a plurality of predefined line-of-sight detection regions, and the reliability coefficient at the time of detection for the plurality of focus detection regions. The distance measuring device according to claim 1, wherein weighting is performed by multiplying by.
【請求項3】 多点測距手段からの複数の距離データに
応じて、それぞれの距離に応じた距離重み値を焦点検出
領域ごとに付与すると共に、 所定の視線検出領域に基づき観察者の視線方向を判定
し、該視線検出時の信頼性係数との積に基づく視線重み
値を焦点検出領域ごとに付与し、 上記視線重み値と上記距離重み値との加算値を評価し、
その中の最大値を与えるものに基づいて、上記複数の距
離データの中からただ1つの距離データを選択すること
を特徴とする測距方法。
3. A distance weighting value corresponding to each distance is assigned to each focus detection area in accordance with a plurality of distance data from the multi-point distance measuring means, and the line of sight of an observer is determined based on a predetermined line of sight detection area. The direction is determined, a line-of-sight weight value based on the product of the reliability coefficient at the time of detecting the line-of-sight is given to each focus detection region, and the added value of the line-of-sight weight value and the distance weight value is evaluated,
A distance measuring method characterized in that only one distance data is selected from the plurality of distance data based on the one giving the maximum value among them.
JP29498894A 1994-11-29 1994-11-29 Ranging device and ranging method Expired - Fee Related JP3628737B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29498894A JP3628737B2 (en) 1994-11-29 1994-11-29 Ranging device and ranging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29498894A JP3628737B2 (en) 1994-11-29 1994-11-29 Ranging device and ranging method

Publications (2)

Publication Number Publication Date
JPH08152552A true JPH08152552A (en) 1996-06-11
JP3628737B2 JP3628737B2 (en) 2005-03-16

Family

ID=17814898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29498894A Expired - Fee Related JP3628737B2 (en) 1994-11-29 1994-11-29 Ranging device and ranging method

Country Status (1)

Country Link
JP (1) JP3628737B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236249A (en) * 2001-02-09 2002-08-23 Canon Inc Automatic focusing camera
JP2002354498A (en) * 2001-05-24 2002-12-06 Nikon Corp Electronic camera
US6985158B2 (en) * 2001-10-04 2006-01-10 Eastman Kodak Company Method and system for displaying an image
US7158182B2 (en) 2001-09-28 2007-01-02 Nikon Corporation Camera that engages in a focusing operation through a contrast method
JP2008176333A (en) * 2008-02-08 2008-07-31 Canon Inc Autofocus camera
JP2012234191A (en) * 2012-07-09 2012-11-29 Canon Inc Imaging apparatus
JP2018532141A (en) * 2015-08-19 2018-11-01 ゼットティーイー コーポレイション Focus acquisition method and apparatus, program, and recording medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236249A (en) * 2001-02-09 2002-08-23 Canon Inc Automatic focusing camera
JP4593805B2 (en) * 2001-02-09 2010-12-08 キヤノン株式会社 Auto focus camera
JP2002354498A (en) * 2001-05-24 2002-12-06 Nikon Corp Electronic camera
US7158182B2 (en) 2001-09-28 2007-01-02 Nikon Corporation Camera that engages in a focusing operation through a contrast method
US6985158B2 (en) * 2001-10-04 2006-01-10 Eastman Kodak Company Method and system for displaying an image
JP2008176333A (en) * 2008-02-08 2008-07-31 Canon Inc Autofocus camera
JP4594402B2 (en) * 2008-02-08 2010-12-08 キヤノン株式会社 Auto focus camera
JP2012234191A (en) * 2012-07-09 2012-11-29 Canon Inc Imaging apparatus
JP2018532141A (en) * 2015-08-19 2018-11-01 ゼットティーイー コーポレイション Focus acquisition method and apparatus, program, and recording medium

Also Published As

Publication number Publication date
JP3628737B2 (en) 2005-03-16

Similar Documents

Publication Publication Date Title
US5485241A (en) Optical equipment with device for detecting direction of visual axis
US6674964B2 (en) Visual axis detecting apparatus
JP3628737B2 (en) Ranging device and ranging method
US11650660B2 (en) Electronic device, control method, and non-transitory computer readable medium
US5561289A (en) Device for detecting line of sight
US5402199A (en) Visual axis detecting apparatus
US5579080A (en) Camera including an apparatus for detecting a line of sight
US5734930A (en) Optical apparatus having a visual axis detector
US5627621A (en) Camera
JP3256294B2 (en) Eye gaze detection apparatus and eye gaze detection method
JP3304408B2 (en) Gaze detection device and device having gaze detection device
JPH0815750A (en) Line-of-sight detection device
JP3461392B2 (en) camera
US20230125838A1 (en) Electronic apparatus and control method for electronic apparatus
JP3530647B2 (en) Eye gaze detecting device and optical device
JP3184634B2 (en) Optical device having line-of-sight detection device
JP2950759B2 (en) Optical equipment having a line-of-sight detection device
JP3219491B2 (en) Eye gaze detection device
JP3308635B2 (en) camera
CN114650350A (en) Gaze detection apparatus, gaze detection method, and computer-readable storage medium
JP3530648B2 (en) Eye gaze detecting device and optical device
JP3624030B2 (en) Gaze detection device and optical device
JP2004004909A (en) Camera
JP3500171B2 (en) Camera focus control device
GB2273991A (en) Optical equipment with device for directing direction of visual axis

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040907

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041124

A61 First payment of annual fees (during grant procedure)

Effective date: 20041209

Free format text: JAPANESE INTERMEDIATE CODE: A61

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081217

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081217

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091217

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101217

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 7

Free format text: PAYMENT UNTIL: 20111217

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111217

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 8

Free format text: PAYMENT UNTIL: 20121217

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees