JP3393887B2 - Distance measuring device - Google Patents

Distance measuring device

Info

Publication number
JP3393887B2
JP3393887B2 JP2788993A JP2788993A JP3393887B2 JP 3393887 B2 JP3393887 B2 JP 3393887B2 JP 2788993 A JP2788993 A JP 2788993A JP 2788993 A JP2788993 A JP 2788993A JP 3393887 B2 JP3393887 B2 JP 3393887B2
Authority
JP
Japan
Prior art keywords
eye
distance
focus
pattern
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2788993A
Other languages
Japanese (ja)
Other versions
JPH06242367A (en
Inventor
晋一 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optic Co Ltd filed Critical Olympus Optic Co Ltd
Priority to JP2788993A priority Critical patent/JP3393887B2/en
Publication of JPH06242367A publication Critical patent/JPH06242367A/en
Application granted granted Critical
Publication of JP3393887B2 publication Critical patent/JP3393887B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】この発明は、撮影者の目の情報を
用いて、複数の測距情報より最適な測距情報を選択する
測距装置に関する。 【0002】 【従来の技術】従来、複数点測距機能を有するカメラに
於いては、撮影時の遠近存在等により、誤測距(中抜け
状態)が発生していた。これらの問題に対して、複数点
の測距情報より最適の測距情報を選択する手段が多く提
案されている。 【0003】例えば、特開昭59−146028号公
報、特開昭60−172008号公報、特開昭60−2
33610号公報等に於いては、中央点重視にて測距情
報より最適なところ(最至近、所定距離範囲)を選択す
ることが開示されている。更に、特開平1−27610
6号公報等には、各種情報をファジィ処理にて選択する
ことが開示されている。 【0004】また、目の情報を測距に使用するものも提
案されている。これらは、例えば特開昭60−1942
37号公報等では視線位置にてAF(オートフォーカ
ス)を行う方式が、そして特開昭63−40525号公
報等では目の屈折率を測定して測距する方式が開示され
ている。 【0005】 【発明が解決しようとする課題】ところで、複数点測距
の測距結果より自動的に1つの情報を選択する場合にカ
メラの情報(焦点距離、測光値等)、距離情報、選択領
域の優先順位等を用いることが考えられているが、撮影
者の意図が考慮されていないためできあがった写真の完
成度は低い場合がある。 【0006】更に、撮影者の意図をより忠実に反映する
ために、視線にて測距領域を決定し、その領域にて焦点
検出を行う方法も提案されている。しかしながら、撮影
者がファインダを覗く位置や、ファインダからの距離が
固定されないため、大きなセンサ(エリアセンサ)等を
必要としており、その結果、コストの上昇、実装の大型
化が避けられないものであった。 【0007】また、撮影者の目の屈折率を測定し、その
結果に基いて撮影レンズの合焦点位置を算出する方法も
提案されているが、眼底からの反射光量は微弱で、更に
高いS/Nの信号が得られない(眼底は薄い透明膜構造
のため複屈折反射の様な現象がある)。加えて、撮影レ
ンズの焦点距離、測距レンジに対応する精度を得ること
は難しいという課題を有していた。 【0008】この発明は上記課題に鑑みてなされたもの
で、その目的とするところは、複数の測距情報より1つ
を選択しても撮影者の意図が考慮されずにできあがった
写真の完成度が低くなることなく、撮影者の意図をより
忠実に反映してもコストの上昇、実装の大型化につなが
らず、且つ高いS/Nの信号を得ることができ、撮影レ
ンズの焦点距離、測距レンジに対応する精度を得ること
が可能な測距装置を提供することである。 【0009】 【課題を解決するための手段】すなわちこの発明は、対
象物の複数点についてそれぞれ距離情報を出力可能な複
数点測距手段と、使用者の眼のピント状態を検出するピ
ント検出手段と、使用者の視線方向を検出することなし
に、上記ピント検出手段の出力に対応する距離と最も近
い距離を出力している距離情報を、上記複数点測距手段
によって検出された複数の距離情報の中から選択する選
択手段と、を具備することを特徴とする。 【0010】 【作用】この発明の測距装置にあっては、複数点測距手
段にて対象物の複数点についてそれぞれ距離情報が出力
される。ピント検出手段では、使用者の眼のピント状態
が検出される。そして、選択手段にて、使用者の視線方
向を検出することなしに、上記ピント検出手段の出力に
対応する距離と最も近い距離を出力している距離情報
が、上記複数点測距手段によって検出された複数の距離
情報の中から選択される。 【0011】 【実施例】以下、図面を参照してこの発明の実施例を説
明する。初めに、実施例について説明する前に、この発
明に採用される眼のピント状態を検出する方式について
図2を参照して説明する。 【0012】一般に、人間が被写体をはっきり見る時、
目は水晶体にて屈折率を可変することで被写体からの光
束を網膜上に結像する。図2(a)は目1のピントの合
っている状態を示している。このとき、被写体であるO
1 点からの光束は、水晶体2で屈折され、網膜3上に結
像されている。また、図2(b)及び(c)は、目1の
ピントが合っていない状態を示している。 【0013】これより、目1がO1 点を見ている時(同
図(a))、O1 点からコントラストパターンが投光さ
れると、網膜3上ではコントラストパターンがぼけない
状態となる。また、目1が図2(a)の状態にてO2
またはO3 点からコントラストパターンが投光される
と、網膜3上ではコントラストパターンがぼけた状態と
なる。つまり、時分割にて、光路的に異なった位置から
コントラストパターンを投光し、網膜3のコントラスト
パターンの状態を検出すれば、目1のピント状態を検出
することが可能となる。 【0014】図1は、この発明の第1の実施例の構成を
示すブロック図である。同図に於いて、この測距装置
は、距離を検出する複数測距装置4と、目1のピント状
態を検出するピント検出装置5と、このピント検出装置
5の制御、目の信号の処理、及び複数測距装置4の測距
信号より最適値を選択する測距点選択装置6で構成され
ている。そして、上記ピント検出装置5は、パターン投
影装置7と、このパターン投影装置7によるパターンを
投影して、目1の眼底状態を検出する目検出光学系8
と、目1の眼底のパターン像を検出する受光検出装置9
で構成されている。このような構成の測距装置にて、複
数検出された測距情報より目1のピント状態に基いて最
適値が選択される。 【0015】図3は、図1の更に詳細な構成を示すブロ
ック図である。尚、カメラにて一般に用いられているマ
ルチ測距方式はアクティブ、パッシブ等が公知である。
同実施例では、アクティブ測距方式にて説明する。 【0016】この測距装置は、マルチ測距装置10と、
光学的に距離を異にした位置から目に向け光を投光する
ピント検出装置11と、このピント検出装置11にて検
出された信号を基に目のピント状態を検出し、上記マル
チ測距装置10にて検出された測距情報から最適値を検
出するCPU12で構成されている。 【0017】上記ピント検出装置11は、投光光学系a
13、パターンa14、IRED(赤外発光ダイオー
ド)a15と、投光光学系b16、パターンb17、I
REDb18を有する投光ブロックと、目1の眼底光を
受光して検出する受光光学系19、センサ20、このセ
ンサ20の出力信号をA/D変換してCPU12に供給
するA/D変換部21を有する受光ブロックとで構成さ
れている。また、上記CPU12は、受光ブロックにて
検出された信号を基に、目1のピント状態を検出し、マ
ルチ測距装置10にて検出された測距情報より最適値を
検出するものである。 【0018】図4は、ファインダの構成の一部を示した
もので、被写体光束を導くファインダ光学系22と、こ
のファインダ光学系22の一部を共用して赤外光に関し
てのミラー23を介し、目1の眼底の状態を検出する受
光光学系19及びセンサ20を有した構成となってい
る。更に、このファインダは、光学的に距離を異にした
2組の投光光学系13、16と、パターンa14及びパ
ターンb17と、投光用IREDa15及び投光用IR
EDb18を有している。尚、投光系は、ファインダ光
軸に対して斜めより投光するように構成されている。ま
た、このセンサ20は、ライン形状のセンサCCDにて
構成し、パターンa14及びパターンb17はラインセ
ンサにて検出し易いように構成する。 【0019】図5は、等価的な位置(A、B)からパタ
ーンa14及びパターンb17が投光された場合の、目
の見ている位置と眼底の投光パターンの様子を示した図
である。尚、ここでは投光パターンは、1ラインの場合
について示してある。 【0020】同実施例では検出距離を4分割し、図中I
はL1より遠い(L0)場合、IIはL2からL1の範囲
の場合、III はL4からL3の範囲の場合、IVはL4よ
り近い(L5)場合に設定する。また、II、III に対応
するコントラストのスレッシュレベルはK1、K2とす
る。 【0021】図5(a)は、A、Bの光学的位置関係を
示したものである。また、図5(b)〜(e)は、目の
ピント位置が各点にある状態にて、A点から投光された
パターンとB点から投光されたパターンの眼底での様子
を示したものである。同図(b)は目がA点より遠い所
を見ている場合、同図(c)は目がA点付近を見ている
場合、同図(d)は目がA、B点の間に存在する場合、
そして(e)は目がB点より近距離側を見ている場合で
ある。投光位置とコントラストの関係にて、目のピント
状態を推定できる。アクティブによるマルチAFは、カ
メラではすでに公知であるが、図6にその構成を簡単に
示す。測距エリア3点の方式にて説明する。 【0022】図6(a)に於いて、カメラの投光光学系
24を介して、AF用の赤外光源AF_IREDa、
b、c25、26、27が被写体に向かって時分割にて
投光される。そして、被写体からの反射光が、受光光学
系28を介してPSD29にて検出される。図6(b)
は、ファインダでのフォーカスエリアの位置を示してい
る。投光位置に応じてフォーカスエリアa、b、cが対
応する。次に、図7のフローチャートを参照して、この
測距装置が適用されたカメラの動作を説明する。 【0023】AFシーケンスがスタートされると、先ず
イニシャライズ(フォーカスエリアを中心に設定する)
がなされる(ステップS1)。次いで、ファースト(1
st)レリーズ“ON”の判定がなされる(ステップS
2)。ここで、1stレリーズが“OFF”の場合は、
選択フォーカスエリアがリセットされた後(ステップS
9)、同シーケンスを終了する。 【0024】上記ステップS2にて、1stレリーズが
“ON”の場合は、マルチ測距を行うサブルーチン“A
F”が行われる(ステップS3)。次いで、目がどのあ
たりの距離にピントを合わせているかの判定を行うサブ
ルーチン“目のピント検出”が行われる(ステップS
4)。 【0025】続いて、マルチAFのデータから、目のピ
ント状態にて最適値が選択されるサブルーチン“AFデ
ータの選択”が行われる(ステップS5)。そして、1
stレリーズの判定が行われ(ステップS6)、1st
レリーズが“OFF”の場合はステップS9へ移行
し、”ON”の場合はセカンド(2nd)レリーズの判
定が行われる(ステップS7)。 【0026】このステップS7にて、2ndレリーズが
“OFF”の場合はステップS6に戻る。一方、“O
N”の場合は、AF情報に基いて撮影レンズが駆動され
た後(ステップS8)、本AFシーケンスを終了する。
図8は、マルチAFのデータを検出するサブルーチン
“AF”のフローチャートである。 【0027】サブルーチン“AF”がスタートされ、赤
外光源AF_IREDb26が投光されると(ステップ
S11)、PSD29にて反射光の位置検出が行われる
(ステップS12)。そして、PSD29の位置情報か
ら、フォーカスエリアbの距離(Lb)が求められる
(ステップS13)。次いで、フォーカスエリアa、c
に関して、同様なシーケンス(対応するAF_IRED
を投光しPSDにて検出、距離算出)が行われ、フォー
カスエリアaの距離(La)、フォーカスエリアcの距
離(Lc)が求められる(ステップS14〜S19)。
この後、本サブルーチン“AF”を終了する。次に、図
9の“目のピント検出”のフローチャートを参照して、
目のピント状態を検出するサブルーチンを説明する。 【0028】サブルーチン“目のピント検出”がスター
トされると、先ずセンサ20がリセットされる(ステッ
プS21)。そして、IREDa15が投光されて(ス
テップS22)、センサ積分が行われる(ステップS2
3)。次いで、積分終了時にデータが読出され(ステッ
プS24)、この読出されたデータのA/D変換が行わ
れる(ステップS25)。 【0029】こうしてコントラストが算出(隣接画素の
差分値の絶対値の総和:ΣA)されると(ステップS2
6)、センサがリセットされ(ステップS27)、赤外
光源IREDb18が投光される(ステップS28)。
次いで、センサ積分がなされ(ステップS29)、積分
終了時にデータが読出されると(ステップS30)、こ
の読出されたデータのA/D変換が行われる(ステップ
S31)。そして、コントラストが算出(ΣB)される
と(ステップS32)、本サブルーチン“目のピント検
出”を終了する。図10は、マルチAFのデータより最
適値を選択するサブルーチン“AFデータ選択”のフロ
ーチャートを示したものである。 【0030】サブルーチン“AFデータの選択”がスタ
ートされ、初めにコントラストΣAと基準値K1との比
較が行われる(ステップS41)。ここで、ΣA<K1
でない場合は、ステップS42に移行して、Lmax にL
1が、Lmin にL2が代入される。上記ステップS41
にてΣA<K1の場合は、続いてコントラストΣAとコ
ントラストΣBとの比較が行われる(ステップS4
3)。 【0031】このステップS43にて、ΣA<ΣBでな
い場合はステップS44に移行し、Lmax にL0が、L
min にL1が代入される。一方、ΣA<ΣBの場合は、
次にコントラストΣBと基準値K2の比較が行われる
(ステップS45)。このステップS45に於いて、Σ
B<K2でない場合はステップS46に移行し、Lmax
にL3が、Lmin にL4が代入される。これに対し、Σ
B<K2の場合は、Lmax にL4が、Lmin にL5が代
入される(ステップS47)。 【0032】こうして、上記ステップS42、S44、
S46、S47がなされると、次にマルチ測距での測距
データLbが、Lmin とLmax の範囲内にあるか否かの
判定が行われる(ステップS48)。ここで、Lmin <
Lb<Lmax の場合は、ステップS50へ移行する。一
方、Lmin <Lb<Lmax でない場合は、LcにLb
が、そしてLbにMAX(検出距離の最大値)が代入さ
れた後(ステップS49)、測距データLaがLmin と
Lmax の範囲内にあるか否かの判定が行われる(ステッ
プS50)。 【0033】このステップS50に於いて、Lmin <L
a<Lmax の場合はステップS52へ移行し、Lmin <
La<Lmax でない場合はLaにMAXが代入された後
(ステップS51)ステップS52に進む。そして、ス
テップS52では、測距データLcがLmin とLmax の
範囲内にあるか否かの判定が行われる。ここで、Lmin
<Lc<Lmax の場合はステップS54へ移行し、Lmi
n <Lc<Lmaxでない場合はLcにMAXが代入され
る(ステップS53)。 【0034】その後、測距データLa、Lb、Lcより
最小値がLDに代入される(ステップS54)。次い
で、LDとMAXの比較が行われる(ステップS5
5)。ここで、LD=MAXでない場合はそのまま本サ
ブルーチンを終了する。一方、LD=MAXの場合は、
LDにLCのデータが代入された後(ステップS5
6)、本サブルーチン“AFデータ選択”を終了する。
以上、本発明の実施例について説明したが、本発明はこ
れに限定されることなく、種々の改良、変更が可能であ
ることは勿論である。例えば、目のピント検出領域を4
分割したが、更に細かく分割してもよい。また、マルチ
AF方式も位相差方式、コントラスト方式を用いてもよ
い。更に、目のピント状態にてレンズを大まかに初期駆
動してもよい。 【0035】また、目のピント検出領域内に複数点の測
距データが存在する場合は、図11に示されるようなフ
ローチャートを行ってもよい。図11のフローチャート
は、図10とほぼ同様であり、目のピント状態が最至近
領域が選択された場合3つのデータの真中のデータを選
択するように設定してあるので、図10と異なる部分の
み以下、説明する。 【0036】上記ステップS53でLcにMAXが代入
された後、Lmin とL5との比較が行われる(ステップ
S57)。ここで、Lmin =L5でない場合はステップ
S54に移行し、Lmin =L5の場合は、La、Lb、
Lcよりデータの真中の値がLDに代入される(ステッ
プS58)。次いで、LDとMAXの比較が行われる
(ステップS59)。ここで、LD=MAXでない場合
はそのまま本サブルーチンを終了し、LD=MAXの場
合は測距データLa、Lb、Lcより最小値がLDに代
入された後(ステップS54)、再びLDとMAXの比
較が行われ(ステップS55)、LD=MAXの場合に
LDにLCのデータが代入された後(ステップS5
6)、本サブルーチン“AFデータ選択”を終了する。
このように、検出領域毎に選択するデータを変更しても
よい。また、撮影レンズの焦点距離情報を利用して測距
データの選択を変更してもよい。更に、目のピント検出
用のセンサは蓄積型(CCD等)のみではなく、非蓄積
型(フォトダイオード等)を用いてもよい。尚、パター
ン投光は同軸でも軸をずらしてもよく、投光パターンは
点像であってもよい。 【0037】また、目のピント状態判定に関して、投光
パターンを光学的に距離の異なる位置から投光するので
はなく、図12に示されるように、光学的にほぼ同一距
離にて目に対して異なる角度から投光してもよい。検出
センサとしては眼底付近にピントが合うように設置され
たPSD等の位置検出センサ30を用いる。 【0038】検出は、コントラスト状態を検出する代わ
りに、レンズ31、赤外ミラー32を介して投光IRE
D33が時分割にて投光され、対応するPSDでの位置
情報とPSDの検出電流の両方にて行われる。すなわ
ち、投光IRED33が投光されると、目1のレンズの
ピントに応じた位置に当たり、その反射光は目1のレン
ズ、赤外ミラー32、ミラー31を介してPSD30に
集光される。この反射光の受光値から、目のピント位置
が検出されるものである。 【0039】 【発明の効果】以上のようにこの発明によれば、複数の
測距情報より最適値を選択する場合に使用者の意図の含
まれる使用者の目のピント状態を用いることで、より的
確な測距情報の選択ができかつ精度の高い合焦点検出が
可能となる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance measuring apparatus for selecting optimum distance measuring information from a plurality of distance measuring information by using information of a photographer's eyes. 2. Description of the Related Art Conventionally, in a camera having a multi-point distance measuring function, an erroneous distance measurement (hollow state) has occurred due to the presence or absence of distance at the time of photographing. In order to solve these problems, many means have been proposed for selecting the most suitable ranging information from the ranging information of a plurality of points. For example, JP-A-59-146028, JP-A-60-172008, and JP-A-60-2
No. 33610 discloses that an optimum location (closest, predetermined distance range) is selected from distance measurement information with emphasis on the center point. Further, Japanese Patent Application Laid-Open No. 1-27610
Japanese Patent Laid-Open Publication No. 6 (1999) discloses that various kinds of information are selected by fuzzy processing. [0004] Further, there has been proposed an image sensor that uses eye information for distance measurement. These are described, for example, in JP-A-60-1942.
No. 37 discloses a method of performing AF (autofocus) at a line-of-sight position, and Japanese Patent Application Laid-Open No. 63-40525 discloses a method of measuring a refractive index of an eye to measure a distance. [0005] By the way, when one piece of information is automatically selected from the distance measurement result of the multi-point distance measurement, camera information (focal length, photometric value, etc.), distance information, selection Although it is conceivable to use the priority order of the regions and the like, the degree of perfection of the completed photograph may be low because the intention of the photographer is not considered. Further, in order to more faithfully reflect the photographer's intention, a method has been proposed in which a distance measurement area is determined based on a line of sight and focus detection is performed in that area. However, since the position at which the photographer looks into the viewfinder and the distance from the viewfinder are not fixed, a large sensor (area sensor) or the like is required. As a result, an increase in cost and an increase in mounting size are inevitable. Was. A method has also been proposed in which the refractive index of the photographer's eyes is measured, and the focus position of the photographing lens is calculated based on the result. However, the amount of reflected light from the fundus is weak and the S is higher. / N signal cannot be obtained (the fundus has a phenomenon like birefringence reflection due to a thin transparent film structure). In addition, there is a problem that it is difficult to obtain the accuracy corresponding to the focal length and the ranging range of the photographing lens. SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and has as its object to complete a photograph which has been made without considering the photographer's intention even when one of a plurality of distance measurement information is selected. Even if the photographer's intention is reflected more faithfully without lowering the degree, the signal of high S / N can be obtained without increasing the cost and increasing the size of the mounting, and the focal length of the photographing lens, An object of the present invention is to provide a distance measuring device capable of obtaining an accuracy corresponding to a distance measuring range. That is, the present invention provides a multi-point distance measuring means capable of outputting distance information for a plurality of points on an object, and a focus detecting means for detecting a focus state of a user's eye. Without detecting the user's line of sight
The distance corresponding to the output of the focus detection
Distance information that is output had distance, characterized by comprising a selection means for al selection or a plurality of distance information detected by the plurality of points the distance measurement means. In the distance measuring apparatus according to the present invention, distance information is output for each of a plurality of points on the object by the plurality of points measuring means. The focus detection means detects the focus state of the user's eye. Then, the user's line of sight
Without detecting the direction, the output of the focus detection
Distance information that outputs the corresponding distance and the closest distance
Is a plurality of distances detected by the multi-point distance measuring means.
Selected from information . Embodiments of the present invention will be described below with reference to the drawings. First, before describing the embodiment, a method of detecting a focus state of an eye employed in the present invention will be described with reference to FIG. Generally, when a human clearly sees a subject,
The eye forms a light flux from the subject on the retina by changing the refractive index with the crystalline lens. FIG. 2A shows a state where the eye 1 is in focus. At this time, the object O
The light flux from one point is refracted by the crystalline lens 2 and is imaged on the retina 3. FIGS. 2B and 2C show a state where the eye 1 is out of focus. Thus, when the eye 1 is looking at the point O 1 (FIG. 3A), if the contrast pattern is projected from the point O 1 , the contrast pattern is not blurred on the retina 3. . When the eye 1 emits a contrast pattern from the O 2 point or the O 3 point in the state shown in FIG. 2A, the contrast pattern is blurred on the retina 3. In other words, by projecting a contrast pattern from a position different from the optical path in a time division manner and detecting the state of the contrast pattern of the retina 3, the focus state of the eye 1 can be detected. FIG. 1 is a block diagram showing the configuration of the first embodiment of the present invention. In FIG. 1, the distance measuring device includes a plurality of distance measuring devices 4 for detecting a distance, a focus detecting device 5 for detecting a focus state of the eye 1, a control of the focus detecting device 5, and a processing of an eye signal. , And a ranging point selecting device 6 for selecting an optimum value from the ranging signals of the plurality of ranging devices 4. The focus detection device 5 includes a pattern projection device 7 and an eye detection optical system 8 that projects a pattern by the pattern projection device 7 to detect a fundus state of the eye 1.
And a light receiving detector 9 for detecting a pattern image of the fundus of the eye 1
It is composed of In the distance measuring apparatus having such a configuration, an optimum value is selected based on a plurality of detected distance measurement information based on the focus state of eye 1. FIG. 3 is a block diagram showing a more detailed configuration of FIG. Note that active and passive multi-ranging methods generally used in cameras are known.
In the embodiment, an active distance measurement method will be described. The distance measuring device includes a multi-range measuring device 10,
A focus detection device for projecting light toward the eye from a position at an optically different distance; and a focus state of the eye is detected based on a signal detected by the focus detection device. It comprises a CPU 12 for detecting an optimum value from the distance measurement information detected by the device 10. The focus detecting device 11 includes a light projecting optical system a
13, pattern a14, IRED (infrared light emitting diode) a15, light projecting optical system b16, pattern b17, I
A light projecting block having the REDb 18, a light receiving optical system 19 for receiving and detecting fundus light of the eye 1, a sensor 20, and an A / D converter 21 for A / D converting an output signal of the sensor 20 and supplying the output signal to the CPU 12. And a light receiving block having The CPU 12 detects the focus state of the eye 1 based on the signal detected by the light receiving block, and detects an optimum value from the ranging information detected by the multi-ranging device 10. FIG. 4 shows a part of the configuration of a finder. A finder optical system 22 for guiding a subject light beam and a part of the finder optical system 22 are shared via a mirror 23 for infrared light. , A light receiving optical system 19 for detecting the state of the fundus of the eye 1 and a sensor 20. Further, the finder includes two sets of light projecting optical systems 13 and 16 having optically different distances, a pattern a14 and a pattern b17, a light projecting IREDa15 and a light projecting IR
It has EDb18. The light projecting system is configured to project light obliquely with respect to the finder optical axis. The sensor 20 is configured by a line-shaped sensor CCD, and the pattern a14 and the pattern b17 are configured to be easily detected by the line sensor. FIG. 5 is a diagram showing the position of the eyes and the appearance of the light-projecting pattern of the fundus when the patterns a14 and b17 are projected from the equivalent positions (A, B). . Here, the light projection pattern is shown for the case of one line. In this embodiment, the detection distance is divided into four parts,
Is set far from L1 (L0), II is set in the range from L2 to L1, III is set in the range from L4 to L3, and IV is set when it is closer to L4 (L5). The contrast threshold levels corresponding to II and III are K1 and K2. FIG. 5A shows an optical positional relationship between A and B. FIGS. 5B to 5E show the state of the pattern projected from the point A and the pattern projected from the point B on the fundus in a state where the focus position of the eye is at each point. It is a thing. FIG. 4B shows the case where the eye looks farther than point A, FIG. 4C shows the case where the eye looks near point A, and FIG. If present in
(E) is a case where the eye is looking at a short distance side from the point B. The focus state of the eye can be estimated based on the relationship between the projection position and the contrast. Active multi-AF is already known in cameras, but its configuration is simply shown in FIG. The description will be made based on a three-point measuring area method. In FIG. 6A, an infrared light source AF_IREDa for AF is transmitted through a light projecting optical system 24 of the camera.
b, c25, 26, and 27 are projected toward the subject in a time-division manner. Then, the reflected light from the subject is detected by the PSD 29 via the light receiving optical system 28. FIG. 6 (b)
Indicates the position of the focus area in the viewfinder. Focus areas a, b, and c correspond to the projection positions. Next, an operation of the camera to which the distance measuring apparatus is applied will be described with reference to a flowchart of FIG. When the AF sequence is started, first, initialization (set the focus area as a center)
Is performed (step S1). Then, first (1
st) Release “ON” is determined (step S)
2). Here, when the first release is “OFF”,
After the selected focus area is reset (step S
9), the sequence ends. In step S2, if the first release is "ON", the subroutine "A" for multi-ranging is performed.
F "is performed (step S3). Next, a subroutine" eye focus detection "is performed for determining which distance the eye is in focus (step S3).
4). Subsequently, a subroutine "selection of AF data" for selecting an optimum value from the multi-AF data in the state where the eye is in focus is performed (step S5). And 1
The first release is determined (step S6).
When the release is “OFF”, the process proceeds to step S9, and when the release is “ON”, the determination of the second (2nd) release is performed (step S7). If the second release is "OFF" at step S7, the process returns to step S6. On the other hand, "O
In the case of N ", after the photographing lens is driven based on the AF information (step S8), the present AF sequence ends.
FIG. 8 is a flowchart of a subroutine "AF" for detecting multi-AF data. When the subroutine "AF" is started and the infrared light source AF_IREDb 26 is projected (step S11), the position of the reflected light is detected by the PSD 29 (step S12). Then, the distance (Lb) of the focus area b is obtained from the position information of the PSD 29 (step S13). Next, focus areas a and c
, A similar sequence (corresponding AF_IRED
, And the distance is calculated by the PSD, and the distance (La) of the focus area a and the distance (Lc) of the focus area c are obtained (steps S14 to S19).
Thereafter, the present subroutine "AF" ends. Next, referring to the flowchart of “Eye Focus Detection” in FIG.
A subroutine for detecting the eye focus state will be described. When the subroutine "eye focus detection" is started, first, the sensor 20 is reset (step S21). Then, the IREDa 15 is projected (step S22), and sensor integration is performed (step S2).
3). Next, at the end of the integration, data is read (step S24), and A / D conversion of the read data is performed (step S25). When the contrast is calculated (total sum of absolute values of difference values between adjacent pixels: こ う A) (step S2)
6) The sensor is reset (step S27), and the infrared light source IREDb18 is emitted (step S28).
Next, sensor integration is performed (step S29), and when data is read at the end of integration (step S30), A / D conversion of the read data is performed (step S31). Then, when the contrast is calculated () B) (step S32), the subroutine “eye focus detection” ends. FIG. 10 shows a flowchart of a subroutine "AF data selection" for selecting an optimum value from multi-AF data. The subroutine "selection of AF data" is started, and first, the contrast ΔA is compared with the reference value K1 (step S41). Here, ΣA <K1
If not, the flow shifts to step S42 to set Lmax to L.
1 is substituted for Lmin and L2 is substituted for Lmin. Step S41 above
If ΣA <K1, then the contrast ΣA and the contrast ΣB are compared (step S4).
3). If ΣA <ΣB is not satisfied in step S43, the flow shifts to step S44, where Lmax is set to L0.
L1 is substituted for min. On the other hand, if ΣA <ΣB,
Next, the contrast ΔB is compared with the reference value K2 (step S45). In this step S45,
If B <K2, the flow shifts to step S46, where Lmax
Is substituted for L3, and L4 is substituted for Lmin. In contrast, Σ
If B <K2, L4 is substituted for Lmax and L5 is substituted for Lmin (step S47). Thus, the above steps S42, S44,
After performing S46 and S47, it is determined whether or not the distance measurement data Lb in the multi-range measurement is within the range of Lmin and Lmax (step S48). Here, Lmin <
If Lb <Lmax, the process proceeds to step S50. On the other hand, when Lmin <Lb <Lmax is not satisfied, Lc is set to Lb.
Then, after MAX (the maximum value of the detection distance) is substituted for Lb (step S49), it is determined whether or not the distance measurement data La is within the range between Lmin and Lmax (step S50). In this step S50, Lmin <L
If a <Lmax, the process proceeds to step S52, and Lmin <
If La <Lmax is not satisfied, after MAX is substituted for La (step S51), the process proceeds to step S52. Then, in step S52, it is determined whether or not the distance measurement data Lc is within the range between Lmin and Lmax. Where Lmin
If <Lc <Lmax, the flow shifts to step S54, where Lmi
If n <Lc <Lmax, MAX is substituted for Lc (step S53). Thereafter, the minimum value is substituted for LD from the distance measurement data La, Lb, Lc (step S54). Next, comparison between LD and MAX is performed (step S5).
5). Here, if LD = MAX is not satisfied, this subroutine is terminated. On the other hand, when LD = MAX,
After the data of LC is substituted into LD (step S5
6), end this subroutine "AF data selection".
Although the embodiment of the present invention has been described above, the present invention is not limited to this, and it is needless to say that various improvements and modifications can be made. For example, if the focus detection area of the eye is 4
Although it is divided, it may be divided more finely. Further, the multi AF method may use a phase difference method or a contrast method. Further, the lens may be roughly initially driven while the eye is in focus. If the distance measurement data of a plurality of points exists in the focus detection area of the eye, a flowchart as shown in FIG. 11 may be performed. The flowchart of FIG. 11 is almost the same as that of FIG. 10, and the focus state of the eyes is set so that the data in the middle of the three data is selected when the closest area is selected. Only the following will be described. After MAX is substituted for Lc in step S53, a comparison is made between Lmin and L5 (step S57). Here, if Lmin = L5, the process proceeds to step S54, and if Lmin = L5, La, Lb,
The middle value of the data is assigned to LD from Lc (step S58). Next, comparison between LD and MAX is performed (step S59). Here, if LD = MAX, this subroutine is terminated as it is. If LD = MAX, the minimum value is substituted into the LD from the distance measurement data La, Lb, Lc (step S54), and then the LD and MAX are again processed. The comparison is performed (step S55), and after LD data is substituted into LD when LD = MAX (step S5).
6), end this subroutine "AF data selection".
As described above, the data to be selected may be changed for each detection area. The selection of the distance measurement data may be changed using the focal length information of the photographing lens. Further, the sensor for detecting the focus of the eye is not limited to a storage type (such as a CCD), but may be a non-storage type (such as a photodiode). The pattern light projection may be coaxial or the axis may be shifted, and the light projection pattern may be a point image. Regarding the focus state determination of the eye, instead of projecting the light projection pattern from a position having a different optical distance, as shown in FIG. Light from different angles. As the detection sensor, a position detection sensor 30, such as a PSD, which is installed so as to be focused near the fundus, is used. In the detection, instead of detecting the contrast state, the light is projected through the lens 31 and the infrared mirror 32.
D33 is emitted in a time-division manner, and is performed using both the position information of the corresponding PSD and the detection current of the PSD. That is, when the light projection IRED 33 is projected, it hits a position corresponding to the focus of the eye 1 lens, and the reflected light is focused on the PSD 30 via the eye 1 lens, the infrared mirror 32 and the mirror 31. The focus position of the eye is detected from the received light value of the reflected light. As described above, according to the present invention, when an optimum value is selected from a plurality of pieces of distance measurement information, the focus state of the user's eyes which is included in the user's intention is used. More accurate distance measurement information can be selected, and highly accurate focus detection can be performed.

【図面の簡単な説明】 【図1】この発明の第1の実施例の構成を示すブロック
図である。 【図2】眼のピント状態を検出する方式について説明す
るもので、(a)は目のピントの合っている状態を示し
た図、(b)及び(c)は目のピントが合っていない状
態を示した図である。 【図3】図1の更に詳細な構成を示すブロック図であ
る。 【図4】ファインダの概略構成の一部を示した図であ
る。 【図5】等価的な位置(A、B)からパターンa及びパ
ターンbが投光された場合の、目の見ている位置と眼底
の投光パターンの様子を示したもので、(a)はA、B
の光学的位置関係を示した図、(b)は目がA点より遠
い所を見ている場合、(c)は目がA点付近を見ている
場合、(d)は目がA、B点の間に存在する場合、
(e)は目がB点より近距離側を見ている場合のA点及
びB点から投光されたパターンの眼底での様子を示した
図である。 【図6】(a)はアクティブによるマルチAFの概略構
成を示した図、(b)はファインダでのフォーカスエリ
アの位置を示した図である。 【図7】この測距装置が適用されたカメラの動作を説明
するフローチャートである。 【図8】マルチAFのデータを検出するサブルーチン
“AF”のフローチャートである。 【図9】目のピント状態を検出するサブルーチンを説明
する“目のピント検出”のフローチャートである。 【図10】マルチAFのデータより最適値を選択するサ
ブルーチン“AFデータ選択”のフローチャートであ
る。 【図11】目のピント検出領域内に複数点の測距データ
が存在する場合のマルチAFのデータより最適値を選択
するサブルーチン“AFデータ選択”のフローチャート
の他の例である。 【図12】目のピント状態判定に関して、投光パターン
を光学的にほぼ同一距離にて目に対して異なる角度から
投光した例を示した図である。 【符号の説明】 1…目、2…水晶体、3…網膜、4…複数測距装置、
5、11…ピント検出装置、6…測距点選択装置、7…
パターン投影装置、8…目検出光学系、9…受光検出装
置、10…マルチ測距装置、12…CPU、13…投光
光学系a、14…パターンa、15…IRED(赤外発
光ダイオード)a、16…投光光学系b、17…パター
ンb、18…IREDb、19…受光光学系、20…セ
ンサ、21…A/D変換部、22…ファインダ光学系、
23…ミラー。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a configuration of a first embodiment of the present invention. FIGS. 2A and 2B are diagrams illustrating a method of detecting an in-focus state of an eye, wherein FIG. 2A illustrates a state in which the eye is in focus, and FIGS. 2B and 2C illustrate an in-focus state of the eye; It is a figure showing a state. FIG. 3 is a block diagram showing a more detailed configuration of FIG. 1; FIG. 4 is a diagram showing a part of a schematic configuration of a finder. 5A and 5B show a position where an eye is viewed and a state of a light projection pattern of a fundus when a pattern a and a pattern b are projected from equivalent positions (A and B), respectively. Are A, B
FIG. 4B is a diagram showing the optical positional relationship of FIG. 4B. FIG. 5B shows a case where the eye looks far from the point A, FIG. 5C shows a case where the eye looks near the point A, and FIG. If it exists between point B,
(E) is a diagram showing a state at the fundus of a pattern projected from points A and B when the eyes are looking at a short distance side from point B. FIG. 6A is a diagram illustrating a schematic configuration of active multi-AF, and FIG. 6B is a diagram illustrating a position of a focus area in a finder. FIG. 7 is a flowchart illustrating an operation of a camera to which the distance measuring device is applied. FIG. 8 is a flowchart of a subroutine “AF” for detecting multi-AF data. FIG. 9 is a flowchart of “eye focus detection” illustrating a subroutine for detecting an eye focus state; FIG. 10 is a flowchart of a subroutine “AF data selection” for selecting an optimum value from multi-AF data. FIG. 11 is another example of a flowchart of a subroutine “AF data selection” for selecting an optimum value from multi-AF data when distance measurement data of a plurality of points exists in the eye focus detection area. FIG. 12 is a diagram showing an example in which a light projection pattern is projected from a different angle with respect to the eye at substantially the same optical distance for the focus state determination of the eye. [Explanation of Signs] 1 eye, 2 lens, 3 retina, 4 distance measuring device,
5, 11: Focus detection device, 6: Distance measuring point selection device, 7:
Pattern projection device, 8: eye detection optical system, 9: light reception detection device, 10: multi-ranging device, 12: CPU, 13: light projection optical system a, 14: pattern a, 15: IRED (infrared light emitting diode) a, 16: light projecting optical system b, 17: pattern b, 18: IREDb, 19: light receiving optical system, 20: sensor, 21: A / D converter, 22: finder optical system,
23 ... Mirror.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平4−138434(JP,A) 特開 昭62−38134(JP,A) 特開 昭50−39128(JP,A) 特開 昭63−40525(JP,A) 特開 平2−5(JP,A) 特開 平1−190177(JP,A) 特開 平6−138378(JP,A) 特開 平6−148504(JP,A) (58)調査した分野(Int.Cl.7,DB名) G02B 7/28 - 7/34 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-4-138434 (JP, A) JP-A-62-38134 (JP, A) JP-A-50-39128 (JP, A) JP-A 63-38128 40525 (JP, A) JP-A-2-5 (JP, A) JP-A-1-190177 (JP, A) JP-A-6-138378 (JP, A) JP-A-6-148504 (JP, A) (58) Field surveyed (Int. Cl. 7 , DB name) G02B 7/ 28-7/34

Claims (1)

(57)【特許請求の範囲】 【請求項1】 対象物の複数点についてそれぞれ距離情
報を出力可能な複数点測距手段と、 使用者の眼のピント状態を検出するピント検出手段と、使用者の視線方向を検出することなしに、上記ピント検
出手段の出力に対応する距離と最も近い距離を出力して
いる距離情報を、 上記複数点測距手段によって検出され
た複数の距離情報の中から選択する選択手段と、 を具備することを特徴とする測距装置。
(57) [Claims] [Claim 1] Plural point distance measuring means capable of outputting distance information for each of a plurality of points of an object, focus detecting means for detecting a focus state of a user's eye, and use Focus detection without detecting the gaze direction of the
Output the closest distance and the distance corresponding to the output of the output means
Distance information are a distance measuring apparatus characterized by comprising a selection means for al selection or a plurality of distance information detected by the plurality of points the distance measurement means.
JP2788993A 1993-02-17 1993-02-17 Distance measuring device Expired - Fee Related JP3393887B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2788993A JP3393887B2 (en) 1993-02-17 1993-02-17 Distance measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2788993A JP3393887B2 (en) 1993-02-17 1993-02-17 Distance measuring device

Publications (2)

Publication Number Publication Date
JPH06242367A JPH06242367A (en) 1994-09-02
JP3393887B2 true JP3393887B2 (en) 2003-04-07

Family

ID=12233465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2788993A Expired - Fee Related JP3393887B2 (en) 1993-02-17 1993-02-17 Distance measuring device

Country Status (1)

Country Link
JP (1) JP3393887B2 (en)

Also Published As

Publication number Publication date
JPH06242367A (en) 1994-09-02

Similar Documents

Publication Publication Date Title
KR101395015B1 (en) Camera, focus detection method and control method
US20040183939A1 (en) Camera having AF function
US4694151A (en) Autofocusing zoom lens system with beam splitter prism for single lens reflex cameras
US6407802B1 (en) Multi-point distance measuring apparatus
US5517276A (en) Active distance measuring apparatus with the remote control function
US5239335A (en) Auto focus apparatus having a plurality of light emitting elements
JP4560173B2 (en) Focus detection device
JP4426670B2 (en) Camera focusing device
JP3393887B2 (en) Distance measuring device
JPH0943682A (en) Finder device
US5617174A (en) Active range finding device
JP2768459B2 (en) Focus detection device
JP2000258683A (en) Focus detector and range-finding device
JP2000019386A (en) Camera
JPS63259521A (en) Composite type focusing detection device
JP3228574B2 (en) camera
US6556785B2 (en) Range finder
US20010008580A1 (en) Multipoint focus detecting apparatus
JP2950759B2 (en) Optical equipment having a line-of-sight detection device
US8077251B2 (en) Photometry apparatus and camera
JP3337528B2 (en) Distance measuring device
JP3868035B2 (en) Ranging device
JP3174128B2 (en) camera
JPS63139310A (en) Pattern projecting device for detecting focus
JP2758625B2 (en) camera

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080131

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090131

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090131

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100131

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110131

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120131

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130131

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees