JPH0561610B2 - - Google Patents
Info
- Publication number
- JPH0561610B2 JPH0561610B2 JP2176937A JP17693790A JPH0561610B2 JP H0561610 B2 JPH0561610 B2 JP H0561610B2 JP 2176937 A JP2176937 A JP 2176937A JP 17693790 A JP17693790 A JP 17693790A JP H0561610 B2 JPH0561610 B2 JP H0561610B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- focus
- block
- contrast
- circuit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000001514 detection method Methods 0.000 claims description 42
- 230000003287 optical effect Effects 0.000 description 29
- 238000012546 transfer Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 11
- 238000009825 accumulation Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 5
- 238000000034 method Methods 0.000 description 4
- 230000004075 alteration Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 101000857682 Homo sapiens Runt-related transcription factor 2 Proteins 0.000 description 1
- 102100025368 Runt-related transcription factor 2 Human genes 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
Description
産業上の利用分野
本発明は、対物レンズ例えば撮影レンズを通過
した被写体光束を受けて、ピント状態を検出する
カメラのピント検出装置に関する。
従来技術
撮影レンズの光軸を挟む撮影レンズの第1の部
分と第2の部分をそれぞれ通過した被写体光束に
よりつくられる二つの像の相関位置を検出して、
ピント状態を知るようにしたピント検出装置がす
でに提案されている。その光学系の原理的な構成
は第1図のようであり、撮影レンズ2の予定焦点
面と等価な位置にコンデンサレンズ4が配され、
更にコンデンサレンズ4の背後に結像レンズ6,
8が配され、それらの結像面に例えばCCDによ
るラインセンサ10,12が配されている。ライ
ンセンサ10,12上の像14,16は、ピント
を合わすべき物体の像が予定焦点面より前方に結
像する、いわゆる前ピンの場合、互いに光軸18
の方に近づき、反対に後ピンの場合、光軸18か
ら遠ざかる。ピントが合つた場合、二つの像1
4,16の互いに対応し合う二点間の距離は光学
系の構成から定められる特定の長さとなる。した
がつて、ラインセンサ10,12上の像の光分布
パターンを電気信号に変換して、それらの相対的
位置関係を求めると、ピント状態を知ることがで
きる。
解決しようとする問題点
相対的位置関係は2つの像パターンを比較する
ことにより求められるが、被写体の輝度が低い場
合や被写体のコントラストが低い場合に像パター
ンの変化が乏しいため位置関係を精度よく求める
ことが困難となる。このようなときに上記位置関
係に基づいてピントずれ量を求めてもその値が有
効でなくなるばかりでなくなる合焦点とは逆方向
にレンズが駆動されるという不都合が生じる。
本発明の目的は、正確なピント検出が可能か否
か又は検出結果が信頼できるか否かをピント検出
用の受光出力から精度よく判別できるピント検出
装置を提供することにある。
問題点を解決するための手段
本発明は、第1の像信号と第2の像信号とが最
良の相関を有する最良相関値を、被写体像のコン
トラストで規格化し、ピント検出が可能か否かを
この規格化された値に基づいて判別するようにし
たことを特徴とする。
作 用
高輝度又は高コントラストの被写体に対して得
られた最良相関値と低輝度又は低コストラストの
被写体に対して得られた最良相関値とが仮に同じ
であつても、被写体コントラストは異なるので、
それに伴ない規格化された相関値も変わつてく
る。従つて、ピント検出が可能か否かを、規格化
された相関値の値から判別することができる。
実施例
第2図は、本発明によるピント検出装置を1眼
レフカメラに適用した場合における光学系等の構
成例を示す図である。第2図において、撮影レン
ズ22、反射鏡24、焦点板26、ペンタプリズ
ム28等は1眼レフカメラを構成する周知の要素
である。ただし、ピント検出装置の出力を用いて
自動的にピント合わせを行うようにカメラを構成
する場合は、撮影レンズ22はモーターを含むレ
ンズ駆動装置30によつて焦点調節光学系が駆動
され得るように構成される。反射鏡24、中央部
分が半透過性につくられ、その背後に副ミラー3
2が設けられ、これを介して被写体光の一部がミ
ラーボツクスの低部に配置されたピント検出装置
の受光部34に導かれる。受光部34は、コンデ
ンサレンズ36、反射鏡38、結像レンズ群4
0、ラインセンサ42等により構成されている。
ラインセンサ42の出力は信号処理回路44によ
り後述のようにして処理され、合焦位置からのピ
ントのずれ量およびその方向を示すデフオーカス
信号が出力される。このデフオーカス信号に基づ
いて表示装置46ではピント状態が表示され、駆
動装置30より撮影レンズ22合焦位置へ駆動さ
れる。
第3図は、受光部34の光学系を示す図で、直
線48は撮影レンズの光軸を示し、点線50はフ
イルム露光面と等価な面を示す。コンデンサレン
ズ52、露光等価面50の位置ではなく、そこか
らコンデンサレンズ52の焦点距離f1だけ離れた
位置に配してある。コンデンサレンズ52の後方
には光軸48を対称軸として結像レンズ54,5
6が配してあり、これら結像レンズの前面には視
野制限マスク58,60が設けてある。各結像レ
ンズ54,56の結像面にはCCDによるライン
センサ62,64が配してある。ここで、コンデ
ンサレンズ52が露光等価面50から外れた位置
に配してあるのは次の理由による。ラインセンサ
62,64には露光等価面50の物体像が再結像
されるように光学系が構成されるが、この露光等
価面50にコンデンサレンズ52を配した場合、
このレンズの表面に疵があつたり、ほこりが付着
したりしていると、これがラインセンサ上で像と
なつて現れ、本来の物体の像に対するノイズとな
つてしまう。したがつてコンデンサレンズ52を
露光等価面から外しておけば以上のようなノイズ
を避けることができる。さらに、カメラ内に組込
む場合、カメラの光学系に大きな変更を加えるこ
となくおさめることができる。また、マスク5
8,60は、撮影レンズを通過する被写体光のう
ち特定絞り値、例えばF5.6相当の開口領域を通過
する被写体光のみを受け入れるように、コンデン
サレンズ52との関連において構成される。この
ようにすれば、撮影レンズとして種々の交換レン
ズが用いられる場合、その開放絞り値がF56より
小さい撮影レンズであれば、この撮影レンズ自身
の瞳マスク部で一部の光線が蹴られた像をライン
センサ62,64が受けるという場合がなくな
り、常用される大抵の交換レンズが適用できるよ
うになる。
次に、光軸上の点66,68,70は撮影レン
ズ前方の一つの物点に対する前ピン、合焦、後ピ
ンの状態にある像を示す。各像66,68,70
のラインセンサ62上における入射点はそれぞれ
72,74,76であり、ラインセンサ64上に
おいては78,80,82である。
第4図は、前ピン、合焦、後ピンの像84,8
6,88に対するラインセンサ領域での再結像を
示す。前ピン像84に対する再結像90,92
は、ラインセンサの受光面94より手前に位置
し、かつ光軸48側に互いに寄つている。合焦像
86に対する再結像96,98はラインセンサの
受光面94と一致し、後ピン像88に対する再結
像100,102はラインセンサの受光面94の
後方に位置し、光軸48から離れている。したが
つて、前ピン像84に対する再結像90,92は
ラインセンサの受光面94上では、若干ぼけて引
伸ばされた像となる。また、後ピン像88に対す
る再結像100,102は受光面94上では若干
ぼけて、縮小された像となる。
次に第5図を参照して像の合焦位置からのずれ
量eに対するラインセンサ62における像の移動
量hの関係を説明する。合焦時に効軸48上に結
像する像68の光線のうち、コンデンサレンズ5
2を通過後光軸48と平行に進む光線を考える。
像68に対してずれ量eだけ前ピンあるいは後ピ
ンの像66,70の場合、前述の光線は露光等価
面50の位置では光軸48からそれぞれgだけ離
れた点67又は71を通過する。ここで露光等価
面50上の3つの点68,67,71を光源と
し、コンデンサレンズ52と結像レンズ54とに
よる結像系55により、上記の光源に対する像が
ラインセンサ62上に結像し、それぞれの像が7
4,72,76であるとする。また、結像系55
の倍率をαとする。第5図は幾何学的に見れば、
次式が成立する。
g/e=H/f1 ……(1)
α=h/g ……(2)
この二つの式から、gを消去すると、
e=f1/αHh ……(3)
となり、(3)式においてf1/αHは結像系の構成に
よつて定められる定数であるから、移動量hが検
出されればずれ量eが求められる。しかし、第4
図で示したように露光等価面50において正常に
結像するのは合焦像だけであつて、他の像はその
前後に位置するわけであるから、厳密には倍率α
は一定ではなく、結像系55に対して光源となる
像66,70のそれぞれの位置によつて異なる。
合焦時の倍率をα0とすれば、第13図のように前
ピンの場合はα0より大きく、後ピンの場合はα0よ
り小さくなる。さらには、光学系の像面湾曲など
の収差によつてセンサ面上における像の位置の違
いで倍率が異なる。そこで、より正確なずれ量の
算出にあたつては、後述のように移動量hに応じ
て予め倍率を用意しておき、これを用いる。以
下、移動量hおよびずれ量eの検出を行う回路に
ついて説明する。
第6図は第3図のラインセンサ62,64の画
素構成の一実施例を示す図で、ラインセンサ62
を基準部、ライセンサ64を参照部と呼ぶ。画素
L1〜L26,R1〜R30はホトダイオードであり、電
荷結合素子CCDを構成する。尚、画素L26とR1と
の間の空白部にダミーとしての画素を設けて、二
つのラインセンサ62,64を一つのラインの
CCDとして構成してもよい。さらには第7図の
ようにラインセンサ62と64の間に電荷転送ラ
イン65を這わせてもよい。ホトダイオード6
7,69はCCDの電荷蓄積時間を定めるための
入射光強度をモニターするためのものである。
尚、このモニター用ホトダイオードは第8図のよ
うに画素Liの間のすき間を埋めるような形状にし
てもよい。こうすると画素面とほぼ近い強度の光
をモニターできるようになる。
次に、実施例ではラインセンサの基準部62に
おける像パターンが三つのブロツクに分割され
る。第1のブロツクは画素L1〜L10、第2のブロ
ツクは画素L9〜L18、第3のブロツクは画素L17〜
L26における像パターンにそれぞれ対応する。各
ブロツク像パターンは10個の画素からなつてい
る、ここでは各ブロツクは10個の画素数である
が、それぞれの画素数を必ずしも同数にする必要
はない。ピント検出においては各ブロツクの像と
比較部64の像とが比較される。例えば、第1の
ブロツクの像を用いる場合は、次のような比較操
作が行われる。まず、参照領域の画素R1〜R10の
部分の像を対称として第1のブロツクの像との比
較が行われる。この場合の比較の内容は(4)式で示
され、画素L1とR1、L2とR2、……L10とR10の各
組における画素出力の差の絶対値の和が算出され
る。
H1(1)=10
〓k=1
|Lk−Rk| ……(4)
次いで、前回の像より1画素だけシフトして、
参照部64の画素R2〜R11の部分の像が比較され
る。その処理内容を(5)式で示す。
H1(2)=10
〓k=1
|Lk−Rk+1| ……(5)
以下、同様にして次式で示す比較処理が行わ
れ、合計21個の比較結果が得られる。
H1(3)=10
〓k=1
|Lk−Rk+2| ……(6)
H1(21)=10
〓k=1
|Lk−Rk+20| ……(7)
今、第1のブロツクの像が例えば、画素R2〜
R11の部分の像と一致する場合は21個の比較結果
の中でH1(l2)が最小となる。この最小値に対応
する画素領域を見出すことにより、おおまかなピ
ント位置を検知できる。
第1のブロツクの像を用いた比較操作と同様な
操作が、第2および第3のブロツクの像を用いて
行われる。それぞれの比較内容は一般的に次式で
示される。
H1(l)=10
〓k=1
|Lk−Rk+l-1| ……(8)
H1(l)=10
〓k=1
|Lk+8−Rk+l-1| ……(9)
H1(l)=10
〓k=
1|Lk+16−Rk+l-1| ……(10)
ここでl=1、2、……、21である。
以上の比較操作により各ブロツクの像に対して
21個、全体として63個の比較結果が得られる。
今、合焦の場合、第2のブロツクの像が比較部6
2の画素R11〜R20の部分の像と一致するように
光学系を構成する。こうすれば、合焦の場合、第
1のブロツクの像は画素R3〜R12、第3のブロツ
クの像は画素R19〜R28のそれぞれの部分の像と
一致する。この場合は、像の状態によつてはいず
れのブロツクを用いてもピント位置の検出が可能
である。しかし、コントラストが低い像でおおわ
れたブロツクでは、比較結果の中から最小値が特
定できない場合が生ずる。そこで、ある一定値以
上のコントラストのあるブロツクを複数個選んで
それらブロツクに対応する比較結果からピント位
置の検出を行う。
また、前ピン状態の場合は、第4図を参照して
基準部62と参照部64とにおける像は光軸48
側に寄つた部分で一致するから、第3のブロツク
の像が参照部64の或る部分の像と一致する。反
対に後ピンの場合は、二つの像は光軸48から遠
ざかつた部分で一致するから、第1のブロツクの
像が参照部64の或る部分と一致する。したがて
非合焦の場合は、第1ブロツクあるいは第3ブロ
ツクの像に関する比較結果の中で最小値が見出せ
る可能性がある。ただし、像にコントラストが十
分に存在しない場合はピント検出は不能と見な
し、最小値の検出は行わない。尚、第1ブロツク
と第2ブロツクおよび第2ブロツクと第3ブロツ
クのそれぞれにおいて、画素L9とL10およびL17と
L18が共用されている。このように画素を共用す
ると、例えば、画素L9とL10の部分で像のコント
ラストが存在し、他の画素領域ではコントラスト
が存在しないような場合でも、ピント検出が可能
となる。画素の共用が行われないと、二つのブロ
ツクの境界の部分のみに像のコントラストが位置
するような場合、各ブロツクの中ではコントラス
トが存在しないことになり、ピント検出は不能に
なつてしまう。
さて、いずれかのブロツクにおいて比較結果の
最小値が見出され、像の一致領域が特定される
と、これに対応して像のピント位置あるいは合焦
位置からのずれ量が特定される。しかし、以上ま
での過程で求められるずれ量の精度は、画素の配
列ピツチ分の分解能どまりである。そこで、後述
のような補間計算処理を行い、さらにピント検出
装置の光学系に基づく誤差要因の補正を行つてず
れ量の精度の向上がはかられる。
第9図A,Bは、以上に概説したラインセンサ
からの像パターン信号の処理を行う回路構成を示
すブロツク回路図である。この信号処理回路は
CCD104を含むシステム全体の動作のための
制御信号を出力する制御ロジツク106をもつて
いる。CCD104から直列に送り出される各画
素信号は、順次デジタル化回路108により例え
ば8ビツトのデジタル信号に変換され、それぞれ
は予め指定された各番地のランダムアクセスメモ
リ110に貯えられる。画素信号の記憶が完了す
ると、基準部のメモリデータからコントラスト検
出回路112により第1、第2、第3の各ブロツ
クのコントラストC1・C2・C3が検出され、予め
定めたレベル以上であるか否かが判定される。コ
ントラストC1,C2,C3は次式で示すように隣合
う二つの画素の出力の差の絶対値の総和に相当す
る。なお、コントラストの算出はブロツクの領域
をはみ出さないものとする。また、一つおき、あ
るいはそれ以上おきの画素の出力の差を用いても
よい。
C1=9
〓k=1
|Lk−Lk+1| ……(11)
C2=9
〓k=1
|Lk+8−Lk+9| ……(12)
C2=9
〓k=1
|Lk+16−Lk+17| ……(13)
求められたコントラストC1,C2,C3はそれぞ
れ予め指定された番地のメモリ114に貯えら
れ、さらに予め定めたレベルC0と比較回路11
6で大小関係が判定される。レベルC0を越えて
いる場合は例えば“1”が、また越えていない場
合は“0”が出力され、コントラストC1,C2,
C3に対するそれぞれの判定結果d1,d2,d3がメモ
リ120に貯えられる。
次に各ブロツクの像と参照部の像との比較が像
比較回路122で行われる。この場合、コントラ
ストが所定レベルC0に達していないブロツクの
像についての比較は行われず、所定レベルC0を
越えているブロツクのみの像と参照部の像との比
較が実行される。この比較の内容は(8)、(9)、(10)式
で示した通りである。各ブロツクについて21個の
比較結果が得られが、これらは順次予め定められ
た番地のメモリ124に貯えられる。次いで、求
められた各ブロツクの比較結果の中の最小値H1
(l1)、H2(l2)、H3(l3)およびそれぞれの比較番
目l1、l2、l3が検索回路126で検索され、その
結果がメモリ128に貯えられる。
次に標準回路130によりコントラストが所定
レベルを越えているブロツクに対する上記の最小
値H1(l1)、H2(l2)、H3(l3)とコントラストC1,
C2,C3との比が求められる。それぞれは次式で
示される。
NH1=H1(l1)/C1 ……(14)
NH2=H2(l2)/C2 ……(15)
NH3=H3(l3)/C3 ……(16)
これらの比は次のようなことを意味する。前述
したように、例えば撮影レンズが合焦位置もしく
はその近傍にある場合、三つのブロツクのいずれ
を用いてもピント検出が可能となる場合がある。
このような場合どのブロツクを採用するのが最適
であるかというブロツクの選択の問題が生ずる。
また、非合焦の場合、どのブロツクを採用すれば
前ピンあるいは後ピンの状態が検出できるかとい
う判定の問題が生ずる。特定のブロツクの採用に
あたつては、求められた各ブロツクの最小値H1
(l1)、H2(l2)、H3(l3)の中の最も小さい値をと
るブロツクを指定すればよいように考えられる
が、これは適切ではない。一般に像のコントラス
ト状態は一様なものではなく、例えば第1のブロ
ツクの領域にはコントラストの大きい像が位置
し、他のブロツクには、コントラストのあまり大
きくない像が位置するかも知れない。二つの像パ
ターンの一致を検出する場合、一般にコントラス
トが大きい方が有利である。そこで、コントラス
トをも特定ブロツクの選択の要素に加える。とこ
ろで、例えば第1のブロツクについての最小値
H1(l1)に対して画素1ピツチだけ前後にずらせ
たときの比較結果H1(l1−1)、H1(l1+1)につ
いて考える。この最小値H1(l1)が仮に合焦状態
に対するものであるとすれば、H1(l1−l)ある
いはH1(l1+1)はコントラスト検出回路112
で求められるコントラストC1と略一致する。と
いうのは、コントラストC1、比較結果H(l1−
1)、H1(l1+1)のそれぞれが隣合う画素の出力
の差に関するものということに由来する。相違す
るのは、コントラストC1が同一像であるのに対
して比較結果は異なる像に対するものであるとい
う点である。このようであるから、最小値H1(l1)
をコントラストC1で割つた値NH1は最小値H1
(l1)と画素1ビツチずらせた場合の比較結果と
の比に略相当する。これを式で示すと
NHi=Hi(li)/Ci≒Hi(li)/Hi(li±1)…
…(17)
ただし、i=1、2、3である。
今、NHiを標準化指数と呼ぶことにすると、
合焦または略合焦状態に対応し、かつコントラス
トが大きいブロツクに対応する標準化指数が3個
の値の中で最も小さくなると考えて、これをブロ
ツクの選定基準に定める。
実際には、基準部と参照部との像の光分布パタ
ーンは、光学系の収差や第1の像と第2の像の光
軸に対する位置的な非対称性などによつて完全に
は一致し得ないので、最小値Hi(li)が0をとる
ことはない。また、非合焦状態の場合において、
像の一致が全く見られないブロツクに関しては、
標準化指数は比較的大きな値をとる。そこで、標
準化指数に対して予め基準値NH0を定め、これ
を越える場合ピント検出は不能であると判定す
る。かくて、求められた多くて3個の標準化指数
のうちの最小値に関し、これが基準値NH0より
小さいとき、この最小値に対応するブロツクの検
出データLkをピントのずれ量を示す情報として
採用する。すなわち最小値検出回路132で複数
ブロツクにわたつて真の最小値を求める。同時に
それに対応するブロツクを検出し、該最小値Hk
(lk)をとる比較番号lkをメモリ128から選出回
路134によつて取り出す。その後、最小値Hk
(lk)をとるブロツクの標準化された最小値NHk
が所定値NH0と減算回路136で比較されNHk
がNH0より小さいときに次のステツプに進み、
そうでないときはピント検出不能とする。今、第
1のブロツクの像に対してl1が得られたとし、例
えばl1=18であるとする。これは画素L1〜L10上
の像と画素R18〜R27上の像とが最も良く一致し
ていることを意味する。この場合の二つの画素領
域上の像の間隔D1を求める。この間隔D1は画素
L1とR18との間の間隔である。第6図に示すよう
に画素L1とR1との間隔を1.50mm、画素のピツチP
を30μとすれば
D1=1.50+0.03×18=2.04(mm)……(18)
と求めることができる。第1のブロツクに関して
比較番号l1を用いて像の間隔D1は次式で示され
る。
D1=1.50+0.03l1
同様にして第2のブロツクの場合について像の
間隔D2を求めると第1のブロツクの場合より8
画素分短くなるから
D2=1.50−0.03×8+0.03l2 ……(19)
第3のブロツクについては、第2のブロツクの
場合よりさらに8画素分短くなるから、
D3=1.50−0.03×8×2+0.03l2……(20)
となる。以上の三つの式をさらに一般化して示す
Dk=1.50−0.03{8(k−1)lk}……(21)
となる(21)式で示される間隔の限界精度は画素
のピツチPに相当する。
第10図にブロツク2の像についての比較結果
の例を示す。最小値H2(l2)をとる比較番号l2は
8となつている。第10図のように比較結果H2
(l2−1)とH2(l2+1)が等しくない場合、真の
一致点は比較番号l2=8の点ではなく、l2=8と
最小値H2(l2)の次に小さい比較結果をとる比較
番号l2+1=9との間に存在する。このような中
間点の位置を求めると、ピント検出精度は画素ピ
ツチ以上に向上する。そこで、この中間点の位置
を求める方法について説明する。今、第10図に
おいてH2(l2−1)とH2(l2)とを結ぶ線を延長
し、他方この延長線と勾配が反対でH2(l2+1)
を通る線を引くとき、両者の交わる点が二つの像
の真の一致であると見なす。このようにすると、
第11図のようなHk(lk−1)≧Hk(lk+1)の場
合、lkと真の一致点qとの間の長さβは、図の幾
何学的構成から次式で示される。
β=1/2・Hk(lk−1)−Hk(lk+1)/Hk(lk−
1)−Hk(lk)・P
……(22)
第12図のようにHk(lk−1)<Hk(lk+1)の
場合は、
β=1/2・Hk(lk−1)−Hk(lk−1)/Hk(lk+
1)−Hk(lk)・P
……(23)
となる。
第9図の回路では、補間演算回路138で
(22)式または(23)式の計算が行われる。さら
には(21)式に対して補間値βだけ次式のように
補正が加えられる。
D′k=Dk±β ……(24)
ここで右辺第2項βの正符号は(22)式が用い
られる場合に対応し、負符号は(23)式が用いら
れる場合に対応する。以上のようにして補間演算
回路138から基準部62と参照部64における
二つの像の間隔D′kが算出される。
次に、ずれ量演算回路140で間隔D′kを用い
て合焦位置からの撮影レンズの像のずれ量eが求
められる。合焦時の二つの像の間隔をD0とすれ
ば第5図における像の移動量hは次式でされる。
h=1/2(D′k−D0) ……(25)
ここで、h<0は前ピン、h>0は後ピンを示
す。第5図の結像系の場合、D0=2Hであるが、
実際には組立誤差などにより若干異なつてくるの
で、組立調整時にD0として適切な値をセツトす
ることが好ましい。
さて、移動量hが求まると(3)式に基づいてずれ
量eが求められるが、倍率αはhに応じて予め、
例えば第1表のような数値を実験的に定めて
ROM142に用意しておき、これを用いてずれ
量eを算出する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a focus detection device for a camera that detects a focus state by receiving a beam of light from an object that has passed through an objective lens, such as a photographic lens. Prior Art Detecting the relative position of two images created by the subject light beams that have passed through the first and second parts of the photographing lens that sandwich the optical axis of the photographic lens,
A focus detection device that detects the focus state has already been proposed. The basic configuration of the optical system is shown in FIG.
Furthermore, behind the condenser lens 4, there is an imaging lens 6,
8 are arranged, and line sensors 10 and 12 using, for example, CCD are arranged on their imaging planes. The images 14 and 16 on the line sensors 10 and 12 are formed on the optical axis 18 of each other in the case of so-called front focusing, in which the image of the object to be focused is formed in front of the intended focal plane.
On the other hand, in the case of rear focus, it moves away from the optical axis 18. When in focus, two images 1
The distance between two corresponding points 4 and 16 is a specific length determined from the configuration of the optical system. Therefore, the focus state can be determined by converting the light distribution pattern of the images on the line sensors 10 and 12 into electrical signals and determining their relative positional relationship. The problem to be solved: The relative positional relationship can be found by comparing two image patterns, but when the brightness of the subject is low or the contrast of the subject is low, there is little change in the image pattern, so it is difficult to accurately determine the positional relationship. It becomes difficult to seek. In such a case, even if the amount of defocus is determined based on the above-mentioned positional relationship, the value will not only become invalid, but also cause the lens to be driven in the opposite direction to the in-focus point. An object of the present invention is to provide a focus detection device that can accurately determine whether accurate focus detection is possible or whether the detection result is reliable from the light reception output for focus detection. Means for Solving the Problems The present invention normalizes the best correlation value where the first image signal and the second image signal have the best correlation by the contrast of the subject image, and determines whether focus detection is possible. is characterized in that it is determined based on this standardized value. Effect Even if the best correlation value obtained for a subject with high brightness or high contrast is the same as the best correlation value obtained for a subject with low brightness or low cost contrast, the subject contrast will be different. ,
Correspondingly, the standardized correlation value also changes. Therefore, whether or not focus detection is possible can be determined from the standardized correlation value. Embodiment FIG. 2 is a diagram showing an example of the configuration of an optical system, etc. when the focus detection device according to the present invention is applied to a single-lens reflex camera. In FIG. 2, a photographing lens 22, a reflecting mirror 24, a focus plate 26, a pentaprism 28, etc. are well-known elements constituting a single-lens reflex camera. However, when configuring the camera to automatically perform focusing using the output of the focus detection device, the photographing lens 22 is configured so that the focusing optical system can be driven by a lens driving device 30 including a motor. configured. The reflecting mirror 24 has a semi-transparent central part, and a sub-mirror 3 behind it.
2, through which part of the subject light is guided to a light receiving section 34 of a focus detection device disposed at the bottom of the mirror box. The light receiving section 34 includes a condenser lens 36, a reflecting mirror 38, and an imaging lens group 4.
0, line sensor 42, etc.
The output of the line sensor 42 is processed by the signal processing circuit 44 as will be described later, and a defocus signal indicating the amount of focus shift from the in-focus position and its direction is output. Based on this defocus signal, the display device 46 displays the focus state, and the driving device 30 drives the photographing lens 22 to the in-focus position. FIG. 3 is a diagram showing the optical system of the light receiving section 34, in which a straight line 48 indicates the optical axis of the photographing lens, and a dotted line 50 indicates a surface equivalent to the exposure surface of the film. The condenser lens 52 is not located at the exposure equivalent surface 50, but is placed at a position separated by the focal length f 1 of the condenser lens 52 from there. Behind the condenser lens 52 are imaging lenses 54 and 5 with the optical axis 48 as the axis of symmetry.
6 are arranged, and field-limiting masks 58 and 60 are provided in front of these imaging lenses. CCD line sensors 62, 64 are arranged on the imaging plane of each imaging lens 54, 56. Here, the reason why the condenser lens 52 is arranged at a position away from the exposure equivalent plane 50 is as follows. The line sensors 62 and 64 are configured with an optical system so that the object image on the exposure equivalent surface 50 is re-imaged, but when the condenser lens 52 is arranged on the exposure equivalent surface 50,
If there are scratches or dust on the surface of this lens, this will appear as an image on the line sensor and become noise in the original image of the object. Therefore, by removing the condenser lens 52 from the equivalent exposure plane, the above noise can be avoided. Furthermore, when it is incorporated into a camera, it can be installed without making any major changes to the camera's optical system. Also, mask 5
8 and 60 are configured in relation to the condenser lens 52 so as to receive only the object light that passes through an aperture area corresponding to a specific aperture value, for example, F5.6, out of the object light that passes through the photographic lens. In this way, when various interchangeable lenses are used as photographic lenses, if the maximum aperture value of the photographic lens is smaller than F56, an image in which some of the light rays are rejected by the pupil mask of the photographic lens itself can be created. This eliminates the need for the line sensors 62 and 64 to receive such damage, and it becomes possible to apply most commonly used interchangeable lenses. Next, points 66, 68, and 70 on the optical axis represent images in the front focus, in-focus, and back focus states for one object point in front of the photographing lens. Each image 66, 68, 70
The incident points on the line sensor 62 are 72, 74, and 76, and the incident points on the line sensor 64 are 78, 80, and 82, respectively. Figure 4 shows images 84, 8 of front focus, focus, and back focus.
6 and 88 are shown in the line sensor area. Reimaging 90, 92 for front focus image 84
are located in front of the light receiving surface 94 of the line sensor and are closer to the optical axis 48 side. Re-images 96 and 98 for the focused image 86 coincide with the light-receiving surface 94 of the line sensor, and re-images 100 and 102 for the rear-focused image 88 are located behind the light-receiving surface 94 of the line sensor and are located from the optical axis 48. is seperated. Therefore, the re-images 90 and 92 for the front-focus image 84 become slightly blurred and enlarged images on the light-receiving surface 94 of the line sensor. Furthermore, the re-images 100 and 102 for the rear focused image 88 are slightly blurred and become reduced images on the light receiving surface 94. Next, with reference to FIG. 5, the relationship between the amount of image movement h in the line sensor 62 and the amount of deviation e of the image from the in-focus position will be described. Among the rays of the image 68 that are formed on the effective axis 48 during focusing, the condenser lens 5
Consider a ray that travels parallel to the optical axis 48 after passing through 2.
When the images 66 and 70 are front-focused or rear-focused by a deviation amount e from the image 68, the aforementioned light rays pass through a point 67 or 71, respectively, which is separated by g from the optical axis 48 at the position of the exposure equivalent surface 50. Here, three points 68, 67, and 71 on the exposure equivalent surface 50 are used as light sources, and an image of the above light sources is formed on the line sensor 62 by an imaging system 55 including a condenser lens 52 and an imaging lens 54. , each statue is 7
Suppose that they are 4, 72, and 76. In addition, the imaging system 55
Let α be the magnification of . If you look at Figure 5 geometrically,
The following formula holds true. g/e=H/f 1 ……(1) α=h/g ……(2) If g is eliminated from these two equations, e=f 1 /αHh ……(3), (3) In the equation, f 1 /αH is a constant determined by the configuration of the imaging system, so if the movement amount h is detected, the shift amount e can be found. However, the fourth
As shown in the figure, only the focused image is normally formed on the exposure equivalent surface 50, and the other images are located before and after it, so strictly speaking, the magnification α
is not constant, but varies depending on the respective positions of the images 66 and 70 serving as light sources with respect to the imaging system 55.
Assuming that the magnification at the time of focusing is α 0 , as shown in FIG. 13, the magnification is larger than α 0 in the case of front focus, and smaller than α 0 in the case of rear focus. Furthermore, the magnification varies depending on the position of the image on the sensor surface due to aberrations such as field curvature of the optical system. Therefore, in calculating a more accurate amount of deviation, a magnification is prepared in advance according to the amount of movement h and used as described later. A circuit for detecting the movement amount h and the deviation amount e will be described below. FIG. 6 is a diagram showing an example of the pixel configuration of the line sensors 62 and 64 shown in FIG.
is called a reference part, and the licensor 64 is called a reference part. pixel
L 1 to L 26 and R 1 to R 30 are photodiodes and constitute a charge coupled device CCD. A dummy pixel is provided in the blank space between pixels L 26 and R 1 to connect the two line sensors 62 and 64 to one line.
It may also be configured as a CCD. Furthermore, a charge transfer line 65 may be provided between line sensors 62 and 64 as shown in FIG. Photodiode 6
7 and 69 are for monitoring the intensity of incident light to determine the charge accumulation time of the CCD.
Incidentally, this monitor photodiode may be shaped to fill the gap between the pixels L i as shown in FIG. 8. This makes it possible to monitor light with an intensity almost close to that of the pixel surface. Next, in the embodiment, the image pattern at the reference portion 62 of the line sensor is divided into three blocks. The first block includes pixels L 1 to L 10 , the second block includes pixels L 9 to L 18 , and the third block includes pixels L 17 to L 10 .
Each corresponds to the image pattern in L 26 . Each block image pattern consists of 10 pixels, each block having 10 pixels here, but the number of pixels in each block does not necessarily have to be the same. In focus detection, the image of each block and the image of the comparing section 64 are compared. For example, when using the image of the first block, the following comparison operation is performed. First, the image of pixels R 1 to R 10 in the reference area is symmetrically compared with the image of the first block. The content of the comparison in this case is shown by equation (4), and the sum of the absolute values of the differences in pixel output for each pair of pixels L 1 and R 1 , L 2 and R 2 , ... L 10 and R 10 is calculated. be done. H 1 (1)= 10 〓 k=1 |L k −R k | ...(4) Next, shift by one pixel from the previous image,
Images of pixels R 2 to R 11 of the reference section 64 are compared. The processing details are shown in equation (5). H 1 (2)= 10 〓 k=1 |L k −R k+1 | ...(5) Similarly, the comparison process shown by the following equation is performed, and a total of 21 comparison results are obtained. H 1 (3)= 10 〓 k=1 |L k −R k+2 | ……(6) H 1 (21)= 10 〓 k=1 |L k −R k+20 | ……(7) Now, the image of the first block is, for example, pixel R 2 ~
If the image matches the image of the R 11 portion, H 1 (l 2 ) is the smallest among the 21 comparison results. By finding the pixel area corresponding to this minimum value, the approximate focus position can be detected. A comparison operation similar to that using the first block image is performed using the second and third block images. The content of each comparison is generally expressed by the following formula. H 1 (l)= 10 〓 k=1 |L k −R k+l-1 | …(8) H 1 (l)= 10 〓 k=1 |L k+8 −R k+l-1 | ...(9) H 1 (l)= 10 〓 k= 1 | L k+16 −R k+l-1 | ...(10) Here l=1, 2, ..., 21. By the above comparison operation, the image of each block is
21 results, for a total of 63 comparison results.
Now, in the case of focusing, the image of the second block is in the comparison section 6.
The optical system is configured to match the image of the second pixel R 11 to R 20 . In this way, in the case of focusing, the image of the first block coincides with the images of the pixels R 3 to R 12 and the image of the third block coincides with the images of the respective portions of the pixels R 19 to R 28 . In this case, the focus position can be detected using any block depending on the state of the image. However, for blocks covered with images with low contrast, it may not be possible to identify the minimum value from the comparison results. Therefore, a plurality of blocks having a contrast of a certain value or more are selected and the focus position is detected from the comparison results corresponding to these blocks. In addition, in the case of the front focus state, referring to FIG.
Since they match in the portions closer to the sides, the image of the third block matches the image of a certain portion of the reference portion 64. On the other hand, in the case of rear focus, the two images coincide at a portion remote from the optical axis 48, so that the image of the first block coincides with a certain portion of the reference portion 64. Therefore, in the case of out-of-focus, there is a possibility that the minimum value can be found among the comparison results for the images of the first block or the third block. However, if there is insufficient contrast in the image, focus detection is considered to be impossible, and the minimum value is not detected. In addition, in the first block and the second block, and the second block and the third block, pixels L9 , L10 , and L17 are
L 18 is shared. By sharing pixels in this way, focus detection becomes possible, for example, even if there is image contrast between pixels L9 and L10 , but no contrast exists in other pixel areas. If pixels are not shared, if image contrast is located only at the boundary between two blocks, there will be no contrast within each block, and focus detection will become impossible. Now, when the minimum value of the comparison result is found in one of the blocks and the matching area of the images is specified, the focus position of the image or the amount of deviation from the focus position is specified correspondingly. However, the accuracy of the amount of deviation determined through the above process is limited to the resolution of the pixel arrangement pitch. Therefore, interpolation calculation processing as described below is performed, and error factors based on the optical system of the focus detection device are corrected to improve the accuracy of the amount of deviation. FIGS. 9A and 9B are block circuit diagrams showing a circuit configuration for processing the image pattern signal from the line sensor outlined above. This signal processing circuit
It has a control logic 106 that outputs control signals for the operation of the entire system including the CCD 104. Each pixel signal sent out in series from the CCD 104 is sequentially converted into, for example, an 8-bit digital signal by a digitizing circuit 108, and each pixel signal is stored in a random access memory 110 at a predetermined address. When the pixel signal storage is completed, the contrast detection circuit 112 detects the contrasts C 1 , C 2 , and C 3 of each of the first, second, and third blocks from the memory data of the reference section, and detects the contrasts C 1 , C 2 , and C 3 of each of the first, second, and third blocks from the memory data of the reference section. It is determined whether or not there is. The contrasts C 1 , C 2 , and C 3 correspond to the sum of the absolute values of the differences between the outputs of two adjacent pixels, as shown in the following equations. Note that the contrast calculation is performed without extending beyond the block area. Alternatively, the difference between the outputs of every other or every other pixel may be used. C 1 = 9 〓 k=1 |L k −L k+1 | ...(11) C 2 = 9 〓 k=1 |L k+8 −L k+9 | ...(12) C 2 = 9 〓 k=1 |L k+16 −L k+17 | ...(13) The obtained contrasts C 1 , C 2 , C 3 are each stored in the memory 114 at a predetermined address, and are further stored at a predetermined address. Level C 0 and comparison circuit 11
6, the magnitude relationship is determined. For example, "1" is output if the level C 0 is exceeded, and "0" is output if it is not, and the contrasts C 1 , C 2 ,
The respective determination results d 1 , d 2 , d 3 for C 3 are stored in the memory 120 . Next, the image comparison circuit 122 compares the image of each block with the image of the reference portion. In this case, the images of blocks whose contrast has not reached the predetermined level C 0 are not compared, and only the images of the blocks whose contrast exceeds the predetermined level C 0 are compared with the image of the reference portion. The contents of this comparison are as shown in equations (8), (9), and (10). Twenty-one comparison results are obtained for each block, and these are sequentially stored in the memory 124 at predetermined addresses. Next, the minimum value H 1 of the comparison results of each block obtained is
(l 1 ), H 2 (l 2 ), H 3 (l 3 ) and their respective comparison numbers l 1 , l 2 , l 3 are searched by search circuit 126 and the results are stored in memory 128 . Next, the standard circuit 130 determines the above minimum values H 1 (l 1 ), H 2 (l 2 ), H 3 (l 3 ) and the contrast C 1 , for blocks whose contrast exceeds a predetermined level.
The ratio between C 2 and C 3 is determined. Each is shown by the following formula. NH 1 = H 1 (l 1 ) / C 1 ... (14) NH 2 = H 2 (l 2 ) / C 2 ... (15) NH 3 = H 3 (l 3 ) / C 3 ... (16 ) These ratios mean the following: As mentioned above, for example, when the photographic lens is at or near the in-focus position, focus detection may be possible using any of the three blocks.
In such a case, the problem of selecting a block arises as to which block is best to adopt.
Furthermore, in the case of out-of-focus, there arises the problem of determining which block should be adopted to detect the state of front focus or rear focus. When adopting a specific block, the minimum value H 1 of each block determined
It may be possible to designate the block that takes the smallest value among (l 1 ), H 2 (l 2 ), and H 3 (l 3 ), but this is not appropriate. In general, the contrast state of images is not uniform; for example, an image with high contrast may be located in the area of the first block, and an image with not so high contrast may be located in the other blocks. When detecting coincidence between two image patterns, it is generally advantageous to have a larger contrast. Therefore, contrast is also added to the selection of specific blocks. By the way, for example, the minimum value for the first block
Consider the comparison results H 1 (l 1 -1 ) and H 1 (l 1 +1) when H 1 (l 1 ) is shifted forward or backward by one pixel pitch. If this minimum value H 1 (l 1 ) is for the in-focus state, H 1 (l 1 −l) or H 1 (l 1 +1) is the value of the contrast detection circuit 112.
It almost matches the contrast C 1 calculated by . This is because the contrast C 1 and the comparison result H(l 1 −
1) and H 1 (l 1 +1) are related to the difference in output between adjacent pixels. The difference is that the contrast C 1 is for the same image, whereas the comparison results are for different images. Since this is the case, the minimum value H 1 (l 1 )
The value NH 1 divided by the contrast C 1 is the minimum value H 1
(l 1 ) and the comparison result when the pixel is shifted by one bit. Expressing this as a formula, NH i = H i (l i )/C i ≒ H i (l i )/H i (l i ±1)...
...(17) However, i=1, 2, 3. Now, if we call NHi a standardized index,
It is assumed that the standardization index corresponding to a block that is in focus or approximately in focus and has a large contrast will be the smallest among the three values, and this is set as the block selection criterion. In reality, the light distribution patterns of the images of the standard part and the reference part do not match completely due to aberrations in the optical system and positional asymmetry of the first and second images with respect to the optical axis. Therefore, the minimum value H i (l i ) never takes 0. Also, in the case of out-of-focus state,
Regarding blocks where there is no coincidence of images,
The standardized index takes a relatively large value. Therefore, a reference value NH 0 is determined in advance for the standardization index, and if this value is exceeded, it is determined that focus detection is impossible. In this way, when the minimum value among the three standardization indexes determined at most is smaller than the reference value NH 0 , the detected data L k of the block corresponding to this minimum value is used as information indicating the amount of defocus. adopt. That is, the minimum value detection circuit 132 finds the true minimum value over a plurality of blocks. At the same time, the corresponding block is detected and the minimum value H k
A comparison number l k that takes (l k ) is retrieved from the memory 128 by the selection circuit 134 . Then the minimum value H k
The standardized minimum value NH k of the block taking (l k )
is compared with a predetermined value NH 0 in a subtraction circuit 136 and NH k
Proceed to the next step when is smaller than NH 0 ,
If this is not the case, focus cannot be detected. Now, suppose that l 1 is obtained for the image of the first block, for example, l 1 =18. This means that the images on pixels L 1 to L 10 and the images on pixels R 18 to R 27 match best. In this case, find the distance D 1 between the images on the two pixel areas. This interval D 1 is pixel
is the spacing between L 1 and R 18 . As shown in Figure 6, the distance between pixels L 1 and R 1 is 1.50 mm, and the pixel pitch is P.
If it is 30μ, then D 1 =1.50+0.03×18=2.04(mm)...(18) can be obtained. Using the comparison number l 1 for the first block, the image spacing D 1 is given by: D 1 = 1.50 + 0.03l 1 In the same way, the image spacing D 2 for the second block is found to be 8 from the first block.
Since it is shorter by 8 pixels, D 2 = 1.50-0.03×8+0.03l 2 ...(19) Since the third block is 8 pixels shorter than the second block, D 3 = 1.50-0.03× 8×2+0.03l 2 ...(20) Further generalizing the above three equations, D k = 1.50-0.03 {8(k-1)l k }...(21) The critical accuracy of the interval shown by equation (21) is determined by the pixel pitch P. corresponds to FIG. 10 shows an example of the comparison results for the image of block 2. The comparison number l 2 that takes the minimum value H 2 (l 2 ) is 8. As shown in Figure 10, the comparison result H 2
If (l 2 -1) and H 2 (l 2 +1) are not equal, the true matching point is not the point with comparison number l 2 = 8, but the point next to l 2 = 8 and the minimum value H 2 (l 2 ). It exists between the comparison number l 2 +1=9 which takes a smaller comparison result. When the position of such an intermediate point is determined, the focus detection accuracy is improved more than the pixel pitch. Therefore, a method for determining the position of this intermediate point will be explained. Now, in Figure 10, we extend the line connecting H 2 (l 2 -1) and H 2 (l 2 ), and on the other hand, the gradient is opposite to this extended line and we get H 2 (l 2 +1).
When we draw a line through , we consider the point where the two intersect to be the true coincidence of the two images. In this way,
In the case of H k (l k −1)≧H k (l k +1) as shown in Fig. 11, the length β between l k and the true coincidence point q can be calculated as follows from the geometric configuration in the figure. It is shown by the formula. β=1/2・H k (l k −1)−H k (l k +1)/H k (l k −
1) −H k (l k )・P ... (22) If Hk (l k −1) < H k (l k +1) as shown in Fig. 12, β=1/2・H k ( l k −1)−H k (l k −1)/H k (l k +
1) −H k (l k )・P ...(23). In the circuit shown in FIG. 9, the interpolation calculation circuit 138 calculates equation (22) or equation (23). Furthermore, the equation (21) is corrected by the interpolated value β as shown in the following equation. D' k = D k ±β ... (24) Here, the positive sign of the second term β on the right side corresponds to the case where equation (22) is used, and the negative sign corresponds to the case where equation (23) is used. . As described above, the interpolation calculation circuit 138 calculates the distance D' k between the two images in the reference section 62 and the reference section 64. Next, the deviation amount calculation circuit 140 calculates the deviation amount e of the image of the photographing lens from the in-focus position using the interval D' k . If the distance between the two images at the time of focus is D 0 , the amount of movement h of the images in FIG. 5 is given by the following equation. h=1/2(D' k −D 0 ) (25) Here, h<0 indicates a front pin, and h>0 indicates a rear pin. In the case of the imaging system shown in Fig. 5, D 0 =2H, but
In reality, it will differ slightly due to assembly errors, so it is preferable to set an appropriate value as D 0 during assembly adjustment. Now, when the movement amount h is determined, the deviation amount e is determined based on equation (3), but the magnification α is determined in advance according to h.
For example, by experimentally determining the values shown in Table 1,
It is prepared in the ROM 142 and used to calculate the deviation amount e.
【表】
以上のようにして、被写対体に対する撮影レン
ズのずれの方向およびその量が求められる。
第14図は、本発明のピント検出装置の信号処
理回路にマイクロコンピユータを利用した一実施
例を示す回路図である。CCD104は、転送パ
ルス発生回路144から三相のパルスφ1、φ2、
φ3を受け、内部の転送ラインは常時データ転送
状態にある。CCD104は、マイクロコンピユ
ータ146の端子P17から出力されるクリアパル
スにより各画素の電荷がクリアされる。したがつ
て電荷がクリアされた時点が電荷蓄積開始時点と
なる。この電荷蓄積開始に伴つてCCD104の
端子q2から被写体輝度に応じて時間的に降下率の
異なる傾斜電圧が出力される。この電圧は、比較
回路148に予め定めた一定電圧Vsと比較され、
この電圧まで降下すると比較回路148は“高”
電圧を出力する。この“高”電圧に応答して端子
P16からシフトパルスが出力され、これに応答し
てCCD104の各画素の電荷蓄積電荷が転送ラ
インに移される。CCD104にとつては、端子
q7にクリアパルスが与えられて端子q6にシフトパ
ルスが与えられるまでの間が電荷蓄積時間とな
る。CCD104は第6図で示した画素とは別に
ダミーとして用いられる画素及び暗出力を得るた
めの画素をそれぞれ複数個含んでいる。CCD1
04はシフトパルスが与えられると出力端子q1か
らまずダミー信号、暗信号を出力し、続いて所要
の画素信号を出力する。尚、CCDの出力は、電
源電圧Vccが変化するとこの変化分が重畳するの
で、この変化分を相殺除去するための回路150
に入力される。この電圧変動除去回路150は、
入力152に電源電圧Vccを抵抗154,156
で分割した電圧が与えられ、二つの入力の差に応
じた電圧を出力する。画素信号の出力に際し、
CCD104の積分データ出力の当初の暗信号の
一つがサンプルホールド回路158でサンプルホ
ールドされ、以後の画素信号Ri,Liは減算回路1
60によりサンプルホールド回路158の暗信号
分だけ減じられる。こうして画素信号は、電圧変
動成分と暗出力成分が除かれたものとなる。
減算回路160からの画素信号は輝度レベルに
応じた増幅率で増幅回路162により増幅され
る。増幅率は輝度レベルが低い程高くなるように
制御される。輝度レベルは端子q2からの傾斜電圧
を利用し、輝度レベル検出回路164により傾斜
電圧の一定時間あたりの変化分として検出され、
この変化分が輝度レベルを示す信号として用いら
れる。増幅された画素信号はマルチプレクサ16
6を介してデジタル化回路を達成する電圧比較回
路168の入力170に与えられる。デジタル化
回路は、電圧比較回路168と、デジタル−アナ
ログ変換回路172と、8ビツトの二進数をD−
A変換回路172に与え、かつ比較結果を記憶す
るようにプログラムされたマイクロコンピユータ
146とから例えば遂次比較形式のA−D変換回
路として構成される。デジタル化された画素信号
は画素番地Ri,Liに応じて予め定めた番地のメモ
リに記憶される。以後は、前述したデータ処理が
なされて、撮影レンズのずれ量、その方向が検出
され、撮影レンズの自動焦点調節制御およびピン
ト状態の表示に用いられる。
さて、マイクロコンピユータ146への給電が
開始されると、これに応答してマイクロコンピユ
ータ146はCCDのイニシヤライズのプログラ
ムに移る。ピント検出が開始される前の段階で、
CCD104の転送ラインおよび画素には電荷が
通常の画素信号レベル以上に蓄積されているが、
画素信号を取り出す前に、この不要電荷は転送ラ
インおよび画素からクリアされる。このクリア操
作がCCDのイニシヤライズである。このイニシ
ヤライズでは、通常の画素信号の転送時よりも短
い周期(例えば通常の1/16)のクロツクパルスを
CCDに与えて通常より速い転送動作を複数回
(例えば10回)繰返し行わせ、こうして転送ライ
ンを空の状態にする。これと平行して画素のクリ
アも行われる。この場合、画素信号の取込み動作
は行われない。転送パルス発生回路144は、マ
イクロコンピユータ146の端子P15からの一定
周期のクロツクパルスを用いて転送パルスφ1,
φ2,φ3を生成する。通常時より周期の短い転送
パルスは、フリツプフロツプ176がリセツト状
態にあつて、その出力が“高”電圧になつている
場合に、この“高”電圧に応じて転送パルス発生
回路144の内部においてクロツクパルスの分周
比が所定値だけ変えられることよりつくられる。
フリツプフロツプ176はマイクロコンピユータ
146からの画素電荷クリアパルスによりリセツ
トされ、シフトパルスによりセツトされる。ま
た、シフトパルスより、転送パルス発生回路14
4は通常時の転送パルスを生成する状態になる。
尚、CCD104は電荷クリアパルス発生時から
シフトパルス発生までの時間が電荷蓄積時間とし
て規定されるが、この間、転送パルス発生回路1
44からは通常時より周期の短い転送パルスが出
力される。しかし、電荷蓄積期間中にCCD10
4から転送ラインを介して出力される信号は不要
信号として扱われるので、転送パルスが速くなつ
ても支障は生じない。
さてイニシヤライズ操作として所定回数の転送
サイクルが終了すると、マイクロコンピユータ1
46は、前述のピント検出のためのプログラムに
移る。まず、クリアパルスが出力されると、
CCD104は電荷蓄積を開始する。これと同時
にCCD104の端子q2からは所定電圧から被写
体輝度に応じた割合で降下して行く傾斜電圧が出
力され、この電圧が所定レベルVsまで降下する
と、電圧比較回路148の出力レベルが“低”か
ら“高”電圧に反転する。この“高”電圧は割込
み信号として用いられ、マイクロコンピユータ1
46は割込みを受付けると端子P16からシフトパ
ルスを出力する。シフトパルスによりCCD10
4の画素に蓄積された電荷は並列的に転送ライン
に移され、次いで直列的に転送されて出力端子q1
から順次に電圧信号として出力される。この電圧
信号は前述のようにしてデジタル化され、所定の
メモリに取込まれて行く。画素信号の取込みが終
了すると端子p11から、例えば“高”電圧信号が
一時的に出力され、これに応答してマルチプレク
サ166は定電圧回路178からの定電圧を選択
して出力し、この定電圧がデジタル化回路108
によりデジタル化され、所定のメモリに取込まれ
る。このデータは、前述したように合焦時におけ
る基準部と参照部とに結像する似つの像の間隔が
光学系の組立誤差などによつて設計値の通りとは
ならないので、この誤差を補正するデータとして
用いられる。定電圧回路178は定電流回路18
0と半固定抵抗182とで構成され、ピント検出
装置の調整行程において半固定抵抗182を調節
して正確な像間隔データの設定が行われる。
第15図は、以上説明したピント検出装置の動
作の流れを示すフローチヤートである。
効 果
上述のように、本発明によれば、第1の像信号
と第2の像信号とが最良の相関を得た最良相関値
を被写体像のコントラスト値で規格化し、ピント
検出が可能か否かをこの規格化された相関値で判
別するようにしたので、高輝度又は高コントラス
トの被写体に対して得られた高精度の最良相関値
と低輝度又は低コントラストの被写対に対して得
られた低精度の最良相関値とが仮に同一値であつ
ても、焦点検出が可能か否か又は焦点検出結果が
信用できるか否かを適確に判別することができ
る。[Table] As described above, the direction and amount of displacement of the photographic lens with respect to the object to be photographed can be determined. FIG. 14 is a circuit diagram showing an embodiment in which a microcomputer is used in the signal processing circuit of the focus detection device of the present invention. The CCD 104 receives three-phase pulses φ 1 , φ 2 ,
φ 3 , the internal transfer line is always in a data transfer state. In the CCD 104, the charge of each pixel is cleared by a clear pulse output from the terminal P17 of the microcomputer 146. Therefore, the time when the charge is cleared becomes the time when charge accumulation starts. At the start of this charge accumulation, a ramp voltage whose rate of decline changes over time is output from the terminal q 2 of the CCD 104 in accordance with the brightness of the subject. This voltage is compared with a predetermined constant voltage Vs in a comparator circuit 148,
When the voltage drops to this voltage, the comparator circuit 148 goes "high".
Output voltage. In response to this “high” voltage, the terminal
A shift pulse is output from P16 , and in response to this, the charge accumulated in each pixel of the CCD 104 is transferred to the transfer line. For CCD104, the terminal
The period from when a clear pulse is applied to q7 to when a shift pulse is applied to terminal q6 is the charge accumulation time. In addition to the pixels shown in FIG. 6, the CCD 104 includes a plurality of pixels used as dummy pixels and a plurality of pixels for obtaining a dark output. CCD1
04 first outputs a dummy signal and a dark signal from the output terminal q1 when a shift pulse is applied, and then outputs a required pixel signal. Note that when the power supply voltage Vcc changes, this change is superimposed on the output of the CCD, so a circuit 150 is used to cancel and remove this change.
is input. This voltage fluctuation removal circuit 150 is
Connect the power supply voltage Vcc to the input 152 through resistors 154 and 156.
It is given a voltage divided by , and outputs a voltage according to the difference between the two inputs. When outputting pixel signals,
One of the initial dark signals of the integral data output of the CCD 104 is sampled and held in the sample and hold circuit 158, and the subsequent pixel signals R i and Li are obtained by the subtraction circuit 1.
60, the dark signal of the sample and hold circuit 158 is subtracted. In this way, the pixel signal becomes one in which the voltage fluctuation component and the dark output component are removed. The pixel signal from the subtraction circuit 160 is amplified by the amplifier circuit 162 with an amplification factor depending on the brightness level. The amplification factor is controlled so that it becomes higher as the luminance level becomes lower. The brightness level is detected by the brightness level detection circuit 164 as a change in the slope voltage per fixed time using the slope voltage from the terminal q2 ,
This change is used as a signal indicating the brightness level. The amplified pixel signal is sent to the multiplexer 16
6 to an input 170 of a voltage comparator circuit 168 that implements a digitization circuit. The digitization circuit converts the 8-bit binary number into D-
The microcomputer 146 is programmed to supply the data to the A-to-A converter circuit 172 and to store the comparison results, and is configured as, for example, a sequential comparison type A-to-D converter circuit. The digitized pixel signal is stored in a memory at a predetermined address according to the pixel addresses R i and L i . Thereafter, the aforementioned data processing is performed to detect the amount and direction of deviation of the photographic lens, and these are used for automatic focus adjustment control of the photographic lens and display of the focus state. Now, when power supply to the microcomputer 146 is started, in response, the microcomputer 146 moves to a CCD initialization program. Before focus detection starts,
Charges are accumulated in the transfer lines and pixels of the CCD 104 at a level higher than the normal pixel signal level.
Before extracting the pixel signal, this unnecessary charge is cleared from the transfer line and the pixel. This clearing operation is the initialization of the CCD. In this initialization, a clock pulse with a shorter cycle (for example, 1/16 of the normal pixel signal) is used for normal pixel signal transfer.
The signal is applied to the CCD to repeat the faster-than-normal transfer operation multiple times (for example, 10 times), thus emptying the transfer line. In parallel with this, pixel clearing is also performed. In this case, no pixel signal capture operation is performed. The transfer pulse generation circuit 144 generates transfer pulses φ 1 , φ 1 , φ 1 ,
Generate φ 2 and φ 3 . A transfer pulse with a shorter period than normal is generated by generating a clock pulse within the transfer pulse generation circuit 144 in response to this "high" voltage when the flip-flop 176 is in the reset state and its output is at a "high" voltage. It is created by changing the frequency division ratio of by a predetermined value.
Flip-flop 176 is reset by a pixel charge clear pulse from microcomputer 146 and set by a shift pulse. Also, from the shift pulse, the transfer pulse generation circuit 14
4 is in a state where a normal transfer pulse is generated.
Note that in the CCD 104, the time from the generation of the charge clear pulse to the generation of the shift pulse is defined as the charge accumulation time, and during this period, the transfer pulse generation circuit 1
44 outputs a transfer pulse with a shorter cycle than normal. However, during the charge accumulation period, CCD10
Since the signal output from 4 through the transfer line is treated as an unnecessary signal, no problem occurs even if the transfer pulse becomes faster. Now, when a predetermined number of transfer cycles are completed as an initialization operation, the microcomputer 1
46, the program moves to the aforementioned focus detection program. First, when a clear pulse is output,
CCD 104 starts accumulating charge. At the same time, the terminal q 2 of the CCD 104 outputs a ramp voltage that drops from a predetermined voltage at a rate corresponding to the subject brightness, and when this voltage drops to a predetermined level Vs, the output level of the voltage comparison circuit 148 becomes "low". ” to “high” voltage. This “high” voltage is used as an interrupt signal and is
46 outputs a shift pulse from terminal P16 upon receiving an interrupt. CCD10 by shift pulse
The charges accumulated in the 4 pixels are transferred in parallel to the transfer line, and then serially transferred to the output terminal q 1
are sequentially output as voltage signals. This voltage signal is digitized as described above and stored in a predetermined memory. When the capture of the pixel signal is completed, a "high" voltage signal, for example, is temporarily output from the terminal p11 , and in response to this, the multiplexer 166 selects and outputs the constant voltage from the constant voltage circuit 178. Voltage digitization circuit 108
The data is digitized and stored in a predetermined memory. As mentioned above, the interval between similar images formed on the reference part and the reference part during focusing does not match the design value due to assembly errors in the optical system, so this error is corrected. It is used as data for Constant voltage circuit 178 is constant current circuit 18
0 and a semi-fixed resistor 182, and accurate image interval data is set by adjusting the semi-fixed resistor 182 during the adjustment process of the focus detection device. FIG. 15 is a flowchart showing the operation flow of the focus detection device described above. Effects As described above, according to the present invention, the best correlation value obtained by obtaining the best correlation between the first image signal and the second image signal is normalized by the contrast value of the subject image, and focus detection is possible. Since we decided to use this standardized correlation value to determine whether Even if the obtained low-accuracy best correlation value is the same value, it is possible to accurately determine whether focus detection is possible or whether the focus detection result is reliable.
第1図はピント検出装置の光学系の従来例を示
す図、第2図は、本発明のピント検出装置のカメ
ラ内における配置例を示す図、第3図は本発明の
ピント検出装置の光学系の構成を示す図、第4図
は、本発明のピント検出装置の光学系による結像
状態を示す図、第5図は、本発明のピント検出装
置の光学系におけるピントのずれ量とラインセン
サ上の像の移動量との関係を示す図、第6図、第
7図および第8図は、本発明によるピント検出装
置のラインセンサの画素構成例を示す図、第9図
A,Bは、本発明によるピント検出装置の信号処
理回路の構成を示すブロツク回路図、第10図、
11図および12図は信号処理回路の動作を説明
するためのグラフ、第13図は、本発明によるピ
ント検出装置の光学系の倍率を示すグラフ、第1
4図は、本発明によるピント検出装置の信号処理
回路にマイクロコンピユータを用いた場合のブロ
ツク回路図、第15図は、信号処理回路の動作の
流れを示すフローチヤートである。
2,22……撮影レンズ、12,14,62,
64,104……ラインセンサ(CCD)、4,3
6,52……コンデンサレンズ、6,40,5
4,56……結像レンズ、67,69……被写体
輝度モニターホトダイオード。
FIG. 1 is a diagram showing a conventional example of the optical system of a focus detection device, FIG. 2 is a diagram showing an example of the arrangement of the focus detection device of the present invention in a camera, and FIG. 3 is a diagram showing the optical system of the focus detection device of the present invention. FIG. 4 is a diagram showing the configuration of the system, FIG. 4 is a diagram showing the image formation state by the optical system of the focus detection device of the present invention, and FIG. 5 is a diagram showing the amount of focus shift and line in the optical system of the focus detection device of the present invention. 6, 7, and 8 are diagrams showing the relationship between the image on the sensor and the amount of movement, and FIGS. 9A and 9B are diagrams illustrating an example of the pixel configuration of the line sensor of the focus detection device according to the present invention. FIG. 10 is a block circuit diagram showing the configuration of the signal processing circuit of the focus detection device according to the present invention;
11 and 12 are graphs for explaining the operation of the signal processing circuit, and FIG. 13 is a graph showing the magnification of the optical system of the focus detection device according to the present invention.
FIG. 4 is a block circuit diagram when a microcomputer is used in the signal processing circuit of the focus detection device according to the present invention, and FIG. 15 is a flowchart showing the flow of the operation of the signal processing circuit. 2, 22...Photographing lens, 12, 14, 62,
64,104...Line sensor (CCD), 4,3
6,52...Condenser lens, 6,40,5
4, 56...imaging lens, 67, 69...subject brightness monitor photodiode.
Claims (1)
写体光束により形成される第1及び第2の像の相
関を検出することにより対物レンズのピント状態
を検知するピント検出装置において、第1の像を
受けこの像の光分布パターンに応じた第1の像信
号を出力する第1のラインセンサと、第2の像を
受けこの像の光分布パターンに応じた第2の像信
号を出力する第2のラインセンサと、第1の像信
号と第2の像信号との相関を求め、それらのうち
最良の相関が得られた相関値を選択する相関手段
と、被写体像のコントラストを求めるコントラス
ト算出手段と、最良相関値をこのコントラスト値
で規格化する規格化手段と、規格化された最良相
関値の値に基づいて、焦点検出が可能か否かを判
別する判別手段と、焦点検出が可能なときに作動
し、対物レンズの予定焦点位置からのピントのず
れ量を前記相関手段の演算結果に基づいて算出す
る手段とを備えたことを特徴とするピント検出装
置。1. In a focus detection device that detects the focus state of the objective lens by detecting the correlation between the first and second images formed by the subject light beams that have passed through different parts of the objective lens, A first line sensor that outputs a first image signal according to the light distribution pattern of the image, and a second line that receives the second image and outputs a second image signal according to the light distribution pattern of this image. Correlation means for determining the correlation between the sensor, the first image signal and the second image signal, and selecting the correlation value from which the best correlation is obtained, and a contrast calculation means for determining the contrast of the subject image; a normalizing means for normalizing the best correlation value with the contrast value; a determining means for determining whether focus detection is possible based on the standardized best correlation value; A focus detection device comprising: means for calculating a focus deviation amount from a predetermined focus position of an objective lens based on a calculation result of the correlation means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP17693790A JPH0333708A (en) | 1990-07-03 | 1990-07-03 | Focus detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP17693790A JPH0333708A (en) | 1990-07-03 | 1990-07-03 | Focus detector |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP58002622A Division JPH0666007B2 (en) | 1983-01-10 | 1983-01-10 | Camera focus detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0333708A JPH0333708A (en) | 1991-02-14 |
JPH0561610B2 true JPH0561610B2 (en) | 1993-09-06 |
Family
ID=16022349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP17693790A Granted JPH0333708A (en) | 1990-07-03 | 1990-07-03 | Focus detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0333708A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7041950B2 (en) | 2001-02-26 | 2006-05-09 | Canon Kabushiki Kaisha | Image sensing element for sensing an image formed by an image sensing lens |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3414500B2 (en) * | 1994-06-30 | 2003-06-09 | オリンパス光学工業株式会社 | Focus detection device |
JP4910366B2 (en) | 2005-11-09 | 2012-04-04 | 株式会社ニコン | Focus detection apparatus, optical system, and focus detection method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5598709A (en) * | 1979-01-20 | 1980-07-28 | Nippon Kogaku Kk <Nikon> | Focusing detector |
JPS5598710A (en) * | 1979-01-20 | 1980-07-28 | Nippon Kogaku Kk <Nikon> | Focus detector |
-
1990
- 1990-07-03 JP JP17693790A patent/JPH0333708A/en active Granted
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5598709A (en) * | 1979-01-20 | 1980-07-28 | Nippon Kogaku Kk <Nikon> | Focusing detector |
JPS5598710A (en) * | 1979-01-20 | 1980-07-28 | Nippon Kogaku Kk <Nikon> | Focus detector |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7041950B2 (en) | 2001-02-26 | 2006-05-09 | Canon Kabushiki Kaisha | Image sensing element for sensing an image formed by an image sensing lens |
Also Published As
Publication number | Publication date |
---|---|
JPH0333708A (en) | 1991-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4573784A (en) | Focus detecting apparatus | |
US4882601A (en) | Camera with an automatic focusing device | |
JP3118610B2 (en) | Focus state detector | |
US4851657A (en) | Focus condition detecting device using weighted center or contrast evaluation | |
JPH0666007B2 (en) | Camera focus detector | |
JPS58100109A (en) | Focusing detector | |
JPH05181057A (en) | Automatic focusing device | |
JPS6232410A (en) | Focus detector | |
JPH0561610B2 (en) | ||
JPH11205694A (en) | Photoelectric converting device and focus detecting device | |
JP2558377B2 (en) | Focus detection device | |
JPH0588445B2 (en) | ||
JP2560722B2 (en) | Multi-point photometric camera | |
US20020025152A1 (en) | Distance measuring apparatus and distance measuring method | |
JP2000019386A (en) | Camera | |
JPH0693059B2 (en) | Focus detection device | |
JPH11249004A (en) | Image sensor | |
JP4140069B2 (en) | Focus detection device | |
JPH0823624B2 (en) | Focus detection device | |
JP3066538B2 (en) | Focus state detector | |
JPH03163407A (en) | Focus detector | |
JPH0677101B2 (en) | Focus detection device | |
JPH0618778A (en) | Automatic focus detecting device | |
JP3013925B2 (en) | Defocus amount detection device | |
JPH07120668A (en) | Focus detecting device |