JP2671206C - - Google Patents

Info

Publication number
JP2671206C
JP2671206C JP2671206C JP 2671206 C JP2671206 C JP 2671206C JP 2671206 C JP2671206 C JP 2671206C
Authority
JP
Japan
Prior art keywords
focus
focus detection
amount
lens
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
Other languages
Japanese (ja)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Publication date

Links

Description

【発明の詳細な説明】 (発明の利用分野) 本発明は、物体の2像の相対的位置関係より焦点状態を検出する焦点検出装置
を含む光学装置の改良に関するものである。 (発明の背景) 従来、カメラの焦点検出装置の一つのタイプとして、撮影レンズの射出瞳を分
割し、各瞳領域を通過した光束が形成する対の像の相対位置変位を観測すること
で、合焦状態を判別する、いわゆる「像ずれ型」が知られている。 像信号から像ずれ量を検出する信号処理方法としては、特開昭58ー1423
06号公報、米国特許第4333007号公報等が開示されているが、いずれも
センサより出力される総て或いは固定の範囲内の信号を用いて焦点検出処理を行
うものであった。このため、ファインダー内に設けられている焦点検出範囲、即
ち測距枠がセンサの全領域よりも小さく、且つセンサの列方向に組立上ずれてい
る場合には、被写体が測距枠内に位置しても焦点が検出できなかったり、逆に測
距枠外のものの焦点検出を行ってしまうような不都合があった。換言すれば、目
視している視野と実際に焦点検出される視野とが異なっているような場合には、
正確な焦点検出を行えなかった。 前述の様な点に対処するために従来は、機械的な方法によりセンサと測距枠の
位置合わせをいちいち行っていた。このため、非常に手間がかかり、作業能率の
悪いものであった。また、例えば何らかの事情により異なる測距枠に変更したい
という様な事もあり得るが、この様な場合には前記の事が顕著であった。 (発明の目的) 本発明の目的は、上述した問題点を解決し、光電変換手段の機械的調整を行う
ことなく、観察手段の焦点検出領域と光電変換手段の画素上の焦点検出領域を容
易に一致させることができる、焦点検出装置を含む光学装置を提供することであ
る。 (発明の特徴) 上記目的を達成するために、本発明は、複数画素から成る光電変換手段と、結
像光学系を通過した光を前記光電変換手段に結像させる光学系と、前記光電変換
手段よりの光電変換信号に所定の焦点検出処理を行うことにより、前記結像光学
系の焦点状態を検出する演算手段とを備えた焦点検出装置、及び前記結像光学系
を通して対象を観察するためのもので且つ焦点検出領域を備えた観察手段を含む
光学装置において、前記焦点検出領域に対応する、有効な光電変換信号を発生す
る有効画素範囲を調整工程で予め記憶した記憶手段を有し、前記観察手段での前
記焦点検出領域と前記有効画素範囲による画素上での焦点検出領域を一致させる
ようにし、以て、前記記憶手段に記憶された有効画素範囲の光電変換信号により
焦点検出処理を行うようにしたことを特徴とする。 (発明の実施例) まず初めに、この種の装置における焦点検出原理を第15図を用いて説明する
。焦点検出されるべき撮影レンズFLNSと光軸を同じくしてフィールドレンズFLD
が配置される。その後方の、光軸に関して対称な位置に、2個の二次結像レンズ
FCLA,FCLBが配置される。更にその後方にセンサ列SAA,SABが配置される。二次
結像レンズFCLA,FCLBの近傍には絞りDIA,DIBが設けられる。フィールドレンズ
FLDは撮影レンズFLNSの射出瞳を2個の二次結像レンズFCLA,FCLBの瞳面にほぼ
結像する。その結果、二次結像レンズFCLA,FCLBにそれぞれ入射する光線束は、
撮影レンズFLNSの射出瞳面上において各二次結像 レンズFCLA,FCLBに対応する、互いに重なり合うことのない等面積の領域から射
出されたものとなる。フィールドレンズFLDの近傍に形成された空中像が二次結
像レンズFCLA,FCLBによりセンサ列SAA,SABの面上に再結像されると、光軸方向
の空中像位置の変位に基づき、センサ列SAA,SAB上の2像はその位置を変えるこ
とになる。従って、2像の相対的位置の変位(ずれ)を検出すれば、撮影レンズ
FLNSの焦点状態を知ることができる。 前記センサ列SAA,SABより出力される像信号から像ずれ量を検出する信号処理
方法としては、特開昭58ー142306号公報、特開昭59ー107313号
公報、特開昭60ー101513号公報などが本願出願人により開示されている
。具体的には、センサ列SAA又はSABを構成する画素数をNとし、i番目(i=0
,…,Nー1)のセンサ列SAA,SABからの像信号をA(i),B(i)とするときあるいは なる式を、k1≦k≦k2について演算する。尚Mは(M=N−|k|−1)で表さ
れる演算画素数であり、又kは相対変位量と呼ばれ、k1,k2は通常ーN/ 2,N/2にとられることが多い。ここで max{a,b}なる演算子はa,b
の内大なるものを抽出することを表し、min{a,b}なる演算子はa,bの内
小なるものを抽出することを表す。従って、前記(1),(2)式における項X1 (k),
2(k),Y1(k),Y2(k)は広義の相関量と考えることができる。更に、前記(1),
(2)式を詳細に見ると、X1(k),Y1(k)は現実には(kー1)変位における上記
夫々の定義による相関量を、X2(k),Y2(k)は(k+1)の変位における相関量
を、それぞれ表している。それゆえ、X1(k),X2(k)の差である評価量X(k)は
相対変位量kにおける像信号A(i),B(i)の相関量の変化量を意味する。 X1(k),X2(k)なる相関量は上記定義から明らかなように2像の相関が最も高
いときに最小となる。よってその変化量であるX(k)は相関最高のときに「0」
で、且つ傾きは負となるはずである。ところがX(k)は離散データであるから、
実際には X(kp)≧0,X(kp+1)<0 (3) 且つX(kp)ーX(kp+1)が最大なる相対変位の区間[kp,kp+1]に相関量のピークが
存在すると考えて、 の補間演算を行うことにより、画素単位以下の像ずれ量PRを検出することがで
きる。 一方、Y1(k),Y2(k)なる相関量は上記定義より2像の相関が最も高いとき、
1(k),X2(k)とは逆に最大となる。よってその変化量であるY(k)は相関最高
のときに「0」で、且つ傾きは正となるはずである。Y(k)もX(k)と同様に Y(kp)≦0,Y(kp+1)>0 (6) で且つY(kp)ーY(kp+1)が最大のとき の補間演算を行うことにより、画素単位以下の像ずれ量PRを検出することがで きる。 また、X(k),Y(k)のいずれの焦点評価量を用いても像ずれ量の検出は可能で
あるが、特開昭60ー101513号公報からわかる様に、|X(kp)ーX(kp+1)|
>|Y(kp+1)ーY(kp)|の時には焦点評価量X(k)を、|X(kp)ーX(kp+1)>Y(kp+
1)ーY(kp)|の時には焦点評価量Y(k)を用いて像ずれ量PRを求めた方がS/N
的に精度が良い。 第1図は本発明を実施するのに適したカメラの焦点調節装置の一例を示すブロ
ック図である。PRSはカメラの制御回路で、例えば内部にCPU(中央演算処理部)
、RAM、ROM、EEPROM(電気的消去可能プログラマブルROM)、入出力ポート及びA
/D変換機能付アナログ入力ポート等が配置された1チップマイクロコンピュータ
であり、前記ROM内にはカメラのシーケンス、AF(自動焦点)、AE(自動露
出)制御用のソフトウエアが、EEPROM内にはAF、AE制御に必要なパラメータ
が格納されている。SHTは前記制御回路PRSより制御信号CSHTが入力している間デ
ータバス DBUSを介して入力するデータを受け付け、該データに基づいて不図示
のシャッタ先幕及び後幕の走行制御を行うシャッタ制御回路、APRは制御信号CAP
Rが入力している間データバスDBUSを介して入力するデータを受け付け、該デー
タに基づいて不図示の絞り機構を制御する絞り制御回路、DSPは制御信号CDSPが
入力している間データバスDBUSを介して入力するデータを受け付け、該データに
基づいて各種撮影情報を表示する表示回路、SWSは不図示のレリーズスイッチ、
シャッタ、絞り等各種情報設定用のスイッチなどカメラの外部並びに内部に配置
されたスイッチ群である。 SPCは測光回路であり、その出力であるアナログ測光信号SSPCは前記制御回路P
RSのA/D変換機能付アナログ入力ポートへ送られ、A/D変換されて前述のシ
ャッタ制御回路SHT及び絞り制御回路APRを制御するための測光データとして用い
られる。LCOMは制御信号CLCOMが入力している間データバスDBUSを介して入力す
るデータを受け付け、該データに基づいて後述するレンズユニットとシリアル通
信を行うレンズ通信回路で、クロック信号LCKに同期して撮影レンズFLNSの光軸
方向への移動量を示すレンズ駆動用のデータDCLを後述するレンズ内制御回路へ
伝送し、又この時同時に該レンズ内制御回路から撮影レンズFLNSの 非合焦量対レンズ移動量の係数等のレンズ情報DLCがシリアル入力する。BSYは撮
影レンズFLNSが移動中であるか否かをカメラ側に知らせるための信号で、この信
号が“H”(ハイレベル)の時は前記シリアル通信は不可能となる。 LNSUはレンズユニット、LPRSはシリアル入力したデータDCLに基づいてモータM
TRを駆動し、撮影レンズFLNSを光軸方向に移動させるレンズ内制御回路、ENCは
例えば撮影レンズFLNSを保持しているレンズ鏡筒の移動に伴って発生するパルス
信号を検出し、撮影レンズFLNSのその時々の位置情報としてエンコーダパルス信
号EPLをレンズ内制御回路LPRSへ出力するエンコーダ回路。 SDRは前記制御回路PRSより入力する各信号STR,CKに従って2つのセンサ列SAA
,SABを有する、例えばCCDなどのラインセンサSNSを制御するセンサ駆動回路で
ある。 次に、動作について第2〜14図を用いて説明する。なお、前記シャッタ制御
回路SHT、絞り制御回路APR、表示回路DSP及び測光回路SPCの動作は本発明とは直
接関係ないので、ここでは詳細な説明は省略する。又本実施例では、カメラのシ
ーケンス・フローから「AF」フローがサブルーチンとしてコールされる形式をと
っている。 AFの動作が開始されると、先ずフラグRCFLGとフラグNRSDFLGの2つのフラグ
を“N”(NOを意味する)とする(第2図ステップ10)。前記フラグRCFLG
、NRSDFLGの働きについては後述する。次に像信号読み込みのサブルーチン「IMA
GE」をコールする(ステップ11)。ここでは、センサ駆動回路SDRを介してラ
インセンサSNSが駆動され、2像の像信号A(i),B(i)が得られる。この時のセ
ンサ駆動回路SDR及びラインセンサSNS等の動作を第1,3図を用いて簡単に説明
する。制御回路PRSより“H”の蓄積開始信号STRが出力されると(第3図ステッ
プ50)、センサ駆動回路SDRよりクリア信号CLがラインセンサSNSへ出力され、
センサ列SAA,SABの各光電変換部の電荷がクリアされる。するとラインセンサSN
Sにて前段に配置されている二次結像レンズ等(第1図では図示していないが、
第15図の如き状態で配置されている)によってセンサ列SAA,SAB上に形成され
る光像の光電変換及び電荷蓄積動作が開始される。前記の動作が開始されてから
所定の時間が経過すると、センサ駆動回路SDRから転送信号 SHがラインセンサSNSへ出力され、光電変換部に蓄積された電荷がCCD部へ転送さ
れる。同時に前記センサ駆動回路SDRには“H”の蓄積終了信号IENDが発生し、
該信号は制御回路PRSに入力される(ステップ51)。その後制御回路PRSからCC
D駆動クロックCKが出力されると、センサ駆動回路SDRからCCD駆動信号φ1,φ2
が出力される。これにより、ラインセンサSNSからこの信号に従ってアナログ像
信号SSNSが制御回路PRSへ出力され、これを受けて制御回路PRSはCCD駆動クロッ
クCKに同期してアナログ像信号SSNSをA/D変換し、2像の像信号A(i),B(i)
としてRAM内の所定のアドレスに格納する(ステップ52〜55)。ここでセン
サ列SAA,SABの画素数は40と仮定している。 再び第2図に戻って、ステップ12は非合焦状態によって全画素を処理対象範
囲として焦点検出演算を行うか、一部の画素を処理対象範囲として焦点検出演算
かを、つまり焦点検出演算を行う処理対象画素範囲の設定を行うフラグVSNで、
“WD”(大なる非合焦量を意味する)の時は焦点検出用サブルーチン「WPRED」
を、“NR”(合焦近傍を意味する)の時は焦点検出用サブルーチン「NPRED」を
コールする(ステップ12)。例えば、第4図のように像信号が合焦から大きく
ずれている場合にはサブルーチン「WPRED」を採用し、第5図のように合焦近傍
になるとサブルーチン「NPRED」を採用する。なお、電源投入時フラグVSNは“WD
”に設定(最初の時点であり、非合焦状態がわからないため)されており、AF
の動作が開始されると、その時点における焦点状態により“WD”あるいは“NR”
に再設定される。この再設定については後述する。 サブルーチン「WPRED」がコールされた時の焦点検出処理を第6図のフローに
従って述べる。ステップ100〜105では、相対変位量kを「ー20〜20」
の範囲内で変えた時の焦点評価量X(k)を求めている。ここで相対変位量kをー
20から20の範囲としているのは、前述の如くセンサ列SAA,SABの画素数を「
40」と仮定しているからであるが、この処理対象画素範囲は使用される撮影レ
ンズFLNSの焦点距離に応じて可変としても良い。 まずステップ101ではM=39ー|k|という式で演算画素数Mを計算する。
演算画素数Mは相対変位量kに応じて可変であり、kの絶対値が大きい程小さく
なる。これは相対変位量kが大きくなるにつれて対応するセンサの出力が端部か ら欠落していくからである。ステップ102で相対変位量kの符号(正か負か)
を調べ、次いでその符号に応じてA像,B像の演算を開始する先頭の画素位置P
A,PBをステップ103或いは104で計算する。ステップ105では焦点評
価量X(k)の演算を行う。 ここで前記ステップ100〜105での処理過程を第7図を用いて説明する。
第7図(a)は2つの像信号A(i),B(i)を表している。第7図(b)はk=−20に
おける相関演算のセンサ列の対応関係を表しており、この時M=39ー|20|=
19で、PAは「0」,PBは「20」である。即ち相対変位量kは負の値であ
るのでB像がk画素(ー20画素)だけ相対的に左側へ変位している。この対応
関係から更にB像を1画素左側へ変位した対応関係で演算したのがX(-20)を求
める場合の式の第1項に、逆にA像を1画素左側へ変位した対応関係で演算した
のが第2項に、それぞれ相当する。この第1項,第2項でA像,B像を各1画素
ずつ左へ変位して演算するため、前記演算画素数Mを計算する時、M=40−|
k|としないでM=39−|k|としている。第7図(c)はk=0の時の対応関係を
表している。第7図(d)はk=20における相関演算の対応関係を表しており、
前記第7図(b)とは逆にA像が20画素だけ左側に変位している。 前述のようにして演算した焦点評価量X(k)をプロットしたものの一例を第8
図に示す。 第6図のフローに戻って、ステップ110では焦点評価量X(k)から2像A,
Bの画素単位の像ずれ量のピーク値kpを検出する。以下、ステップ120〜1
46で画素単位以下の像ずれ量PRを求めるわけであるが、前記ステップ110
で求めたピーク値kpに基づいて、ステップ120〜135では2つの焦点評価
量X(k),Y(k)を再演算する。この理由は二つある。一つは、kpを求める先の
ステップでは演算画素数Mが相対変位量kに応じて可変であり、この様に可変と
なる演算範囲にて演算した焦点評価量X(k)を補間して画素単位以下の像ずれ量
PRを求めると、演算画素数Mが一致していないことに起因する誤差を含む恐れ
がある。今一つは、焦点評価量X(k)のみで像ずれ量PRを求めるよりも、X(k)
,Y(k)を組み合わせて用いた方が先願(特開昭60ー101513号公報)に
て述べた様に被写体の信号パターンによってはS/N的にすぐれているか らである。以上のことから、ステップ120〜135では、kpを基に演算画素
数Mを一定にし(ステップ120)、焦点評価量X(k),Y(k)を同時に求めてい
る。 まずステップ120ではM=38ー|kp|なる計算をして演算画素数Mの値を
決める。次いでステップ130〜135では先に求めたkpを中心にして、k=
kpー1,kp,kp+1の3点で焦点評価量X(k),Y(k)を先と同様に演算す
る。尚前記演算画素数Mを求める時、M=38ー|kp|としたのは、k=kpー
1,kp,kp+1の3点のうち絶対値が最大の相対変位量における演算画素数
Mに固定するためである。次に、前述のようにして求めた焦点評価量X(k),Y(
k)から再び各々の焦点評価量による画素単位の像ずれ量kpx,kpyを検出す
る(ステップ140,141)。この時各焦点評価量X(k),Y(k)のコントラス
ト評価量を概ね表すXD(XD=X(kpx)ーX(kpx+1))とYD(YD=Y(kpx+1)ーY(kpx
))も求めておく。これは、この実施例では先願にて開示した様な演算方法に従
って相対変位毎に端部の像信号の大小を比較するのではなく(演算処理が複雑に
なるため)、非合焦量が大きい時に、端部の像信号の情報も考慮されたコントラ
スト評価量XD,YDをみることであたかも相対変位毎の端部の像信号をみてい
るかの如き情報が得られることに着目して該情報を用いるためであり、コントラ
スト評価量XD,YDが大きい程S/N的にすぐれていることになる。それ故ス
テップ142で二つのコントラスト評価量XD,YDを比較して、XD≧YDの
時は焦点評価量X(k)を採用し(ステップ143)、XD<YDの時は焦点評価
量Y(k)を採用する(ステップ144)。ステップ145,146では、採用し
たZD(Z1−Z2),kzを用いて PR=kz+|Z1/ZD| の補間演算を行い、画素単位以下の像ずれ量PRを求める。この過程を第9図に
示している。この図の様な例では、XD<YDの関係にあるので焦点評価量Y(k
)が採用され、画素単位以下の像ずれ量PR演算時にはkz=kpy,Z1=Y(kp)
,Z2=Y(kp+1)が用いられる。 ステップ150〜158は焦点状態を判定する処理であり、まずステップ15
0で4つのフラグLCFLG,SDFLG,NJFFLG,JFFLGを“N”にセットする。 夫々のフラグの意味を定性的に述べると、「LCFLG」は被写体像信号が低コント
ラストであることを表すフラグであり、「SDFLG」2像のずれ量が比較的小さい
、すなわち撮影レンズFLNSの非合焦量が比較的小さいことを表すフラグであり、
「NJFFLG」は2像のずれ量がかなり小さい、すなわち撮影レンズFLNSが略合焦で
あることを表すフラグであり、「JFFLG」は2像のずれ量がほとんどない、すな
わち合焦であることを表すフラグである。 次に、採用した焦点評価量のコントラスト評価量ZDと所定値LCTHを比較する
(ステップ151)。この結果ZD<LCTHの場合にはコントラストが低いとみな
し、「LCFLG」“Y”(YESを意味する)とし、サブルーチン「WPRED」を終了
する。ZD≧LCTHの場合には焦点検出を行うのに十分なコントラストであるとみ
なし、次のステップ153へ移行する。ステップ153では、像ずれ量PRの絶
対値PRと所定値「3」を比較し、PR>3の場合、即ち像ずれ量が3画素以上
である時にはサブルーチン「WPRED」を終了する。PR≦3の場合は比較的非合
焦量が小さいので「SDFLG」を“Y”とし(ステップ154)、次いでPRと所
定値「1」を比較する(ステップ155)。この結果PR>1の場合、即ち像ず
れ量が1画素以上である時にはここでサブルーチン「WPRED」を終了する。PR
>1の場合には略合焦であるとして「NJFFLG」を“Y”とし(ステップ156)
、最後にPRと所定値JFTHを比較する(ステップ157)。尚所定値JFTHは像ず
れ量PRが合焦とみなし得る値である。この結果PR>JFTHの場合にはここでサ
ブルーチン 「WPRED」を終了する。PR≦JFTHの場合には合焦であるとみなして
「JFFLG」を“Y”とし(ステップ158)、サブルーチン「WPRED」を終了する
。なお、前記4つのフラグLCFLG,SDFLG,NJFFLG,JFFLGの働きについては後述
する。 続いてサブルーチン「NPRED」について説明する。「NPRED」は合焦近傍になる
と適用される焦点検出処理で、全センサのうち、ファインダー内の測距枠に相当
する範囲内のデータでのみ焦点検出処理を行う。このことをファインダーとセン
サ列SAの位置関係を示している第10図を用いて説明する。該図においてFFRMは
ファインダー上の測距枠である。サブルーチン「NPRED」では測距枠FFRMの範囲
をさらにR1,R2,R3にて示す様に3つの領域に分割し、各部毎に測 距枠FFRM内の領域R1,R2,R3がセンサ列SAのどの画素に位置しているかは各
部の先頭に相当する画素位置NR1,NR2,NR3を調整工程で予め調べておき
、制御回路PRS内のEEPROMに記憶させておく。この時各部に含まれるNNPXは同じ
(R1=R2=R3)であり、この値NNPXも同様にEEPROMに記憶させておく。この
実施例ではNNPX=12で、NR1,NR2,NR3は夫々「8」,「14」,「2
0」であり、(NNPX+k)がこの場合の処理対象範囲となる(第12図の斜線部
分)。これらの値は焦点検出用光学系並びにラインセンサSNSの取り付け状況に
応じて数画素ずれることがあるが、前記の如くEEPROMに記憶させているため、測
距枠FFRMと焦点検出処理を行う演算の範囲を一致させることができる。前記第5
図の像信号に対して示しているR1,R2,R3が上記サブルーチン「NPRED」処理
における分割領域である。 サブルーチン「NPRED」がコールされた時の動作を第11図のフローに従って
述べる。ステップ200で演算画素数MをNNPXとする。前述したサブルーチン「
WPRED」では相対変位量kに応じて演算画素数Mは可変であったが、この焦点検
出処理ではNNPXに固定である。これは、「WPRED」が全画素出力を演算に用いる
のに対して、「NPRED」ではセンサ列SAの一部の出力を用いるために、変位によ
って対応するセンサ出力の端のデータが欠落することがないからである。それ故
「NPRED」では、「WPRED」のステップ120〜141で行った演算画素数Mを一
定にした再演算を行うことはない。また、再演算を行わないと言うことから、最
初から評価量X(k),Y(k)を同時に求めていく。 ステップ210〜221は領域R1の像データに対する焦点検出処理である。
図中「WPRED」と同一の処理部分は同じステップ番号を付してある。サブルーチ
ン「NPRED」では相対変位量kの範囲を(ー4〜4)としている。これは「NPRED
」が合焦近傍で適用されるものであるため、もともと像ずれ量が小さいからであ
る。この場合ステップ212,213に示した様に、領域R1の先頭位置NR1
考慮されている。この処理過程を第13図(a)に示す。図中実線が焦点評価量X(
k)を、又破線がY(k)を表す。「WPRED」にて説明したのと同様の処理(ステップ
140〜146)により領域R1における像ずれ量PR1を求る。ステップ221
で像ずれ量PR1とコントラスト評価量ZD1を制御回路PRS内の RAMに記憶しておく。同様に、ステップ230〜241では領域R2におけるにお
ける像ずれ量PR2,コントラスト評価量ZD2(第13図(b)参照)を求め、ス
テップ250〜261では領域R3における像ずれ量PR3,コントラスト評価量
ZD3(第13図(c)参照)を求め、これらも制御回路PRS内のRAMに記憶しておく
。 ステップ270〜278では前述のようにして求めた3つの領域R1,R2,R
3の像ずれ量PR1,PR2,PR3のうち、いずれの像ずれ量を最終的な像ずれ量
PRとするかといった判断を行っている。即ち、本実施例では3つの領域のうち
、コントラストが十分に高くて、且つ最大の像ずれ量を採用するようにしている
。ここで最大の像ずれ量を採用する意味は、像ずれ量が正の時は後ピントであり
、最も後ピントの被写体とは最も至近側の被写体であり、その被写体にピントを
合わせるということである。最終的な像ずれ量PRとコントラスト評価量ZDを
求めた後、ステップ280で焦点状態の判定を行う。ここでの処理は「WPRED」
にて説明した処理と同様であるので、その説明は省略する。 以上のように、非合焦量が大きい様な状態にあってはサブルーチン「WPRED」
により、合焦近傍状態にあってはサブルーチン「NPRED」により、その時の像ず
れ量、すなわち撮影レンズFLNSの非合焦量の検出を行うことができる。 第2図に戻って、ステップ15よりの説明を続ける。ステップ15はフラグLC
FLGを見て先に行われた「WPRED」或いは 「NPRED」の焦点検出処理時でのコント
ラストをチェックする。LCFLGが“Y”の時はコントラストが低いとして次回の
焦点検出処理は「WPRED」を用いるようにフラグVSNを“WD”とし(ステップ35
)、表示サブルーチン「DISP」、レンズ制御サブルーチン「LENS」を実行する(
ステップ19,20)。前記表示サブルーチン「DISP」は本発明とは直接関係な
いのでここでは割愛するが、レンズ制御サブルーチン「LENS」については後述す
る。 ステップ16では再びフラグVSNをチェックする。VSNが“WD”の時にはステッ
プ17以下の処理を行い、“NR”の時にはステップ28以下の処理を行う。 まずVSN=“WD”の時の処理を説明する。VSN=“WD”とは、先の焦点検出処理
を「WPRED」で行ったことを表す。ステップ17ではフラグRCFLGをチェック する。RCFLGは「AF」のルーチン内で2回焦点検出処理をするときは“Y”とな
っている。本実施例では、「AF」のルーチンを実行する時、最初は前回の「AF」
で設定されたVSNで「WPRED」或いは「NPRED」いずれかを実行する(なおレリー
ズが行われた初期においてはVSNは“WD”となっている)が、その結果である像
ずれ量がそれぞれの条件にふさわしくない時、VSNを設定し直してフラグRCFLGを
“Y”として今度は異なる焦点検出処理「NPRED」或いは「WPRED」を実行するよ
うになる。RCFLGはそのためのフラグである。VSNの再設定については後述する。 フラグRCFLGが“N”、即ち第1回目の焦点検出処理の時、フラグSDFLGをチェ
ックする(ステップ18)。SDFLGは前述した様に「WPRED」或いは「NPRED」中
で設定されるフラグで(このステップでのSDFLGは「WPRED」中に設定されている
)、このフラグが“Y”(3画素以内)の時は現在の焦点状態が比較的合焦に近
いことを意味している。従って、VSNが“WD”でSDFLGが“N”(3画素以上)な
らば、「WPRED」は適切であったとして表示サブルーチン 「DISP」、レンズ制御
サブルーチン「LENS」の実行へと移行する。一方、SDFLGが“Y”であれば「NPR
ED」で再演算した方が適切である、即ち精度の良い像ずれ量PRを得ることがで
きると考えて、VSNを“NR”にし(ステップ21)、像ずれ量PRをバッファBPR
に一時格納し(ステップ22)、RCFLGを“Y”として(ステップ23)、再度
ステップ12よりのルーチン(実際はステップ12→ステップ14→ステップ1
5→ステップ16→ステップ28→ステップ33→)の実行へと移行する。前記
ステップ22において像ずれ量PRをバッファBPRに一時格納する理由は、次の
サブルーチン「NPRED」にて演算した結果が適切でない場合、つまり「NPRED」に
て演算した結果、ステップ33でのSDFLGが“N”(3画素以上)であった場合
、サブルーチン「WPRED」1回目で得た像ずれ量PRを採用するためである(ス
テップ34→ステップ27→)。 ステップ17でRCFLGが“Y”の時、即ち2回目の焦点検出処理の時は、ステ
ップ24へ移行しここでSDFLGをチェックする。その結果SDFLGが“N”の場合は
この時の焦点検出処理が「WPRED」であるからここでの焦点検出処理は適切であ
るとして表示サブルーチン「DISP」、レンズ制御サブルーチン「LENS」の実行 へと移行する。又SDFLGが“Y”の場合は、RCFLGが“Y”でVSNが“WD”である
から、1回目の焦点検出処理は「NPRED」で行われ、且つ結果が「NPRED」では適
切でなかったことになる。後述するが、「NPRED」の1回目では、フラグNJFFLG
が“Y”、すなわち略合焦でなければ適切でないと判断しているが、SDFLGが“
Y”であればフラグNRSDFLGを“Y”(合焦ではないが1画素以内である)とし
ている。つまりNRSDFLGが“Y”であれば、「NPRED」の1回目において、略合焦
ではないが比較的合焦に近かったことを意味している。この時「NPRED」での像
ずれ量PRはバッファBPRに一時格納されている。従ってステップ24でSDFLGが
“Y”ならば、「WPRED」2回目で比較的合焦に近いということであるので、「N
PRED」1回目の結果を参照すべくステップ25でフラグNRSDFLGをチェックする
。ここでNRSDFLGが“N”(1画素以上)ならば、1回目は適切でないことにな
り、「WPRED」2回目の像ずれ量PRを用いて表示サブルーチン「DISP」、レン
ズ制御サブルーチン「LENS」の実行へと移行する。NRSDFLGが“Y”ならば、次
回の「AF」では1回目の焦点検出処理を「NPRED」にすべくVSNを“NR”とし(ス
テップ26)、バッファBPR内に既に格納済みの「NPRED」1回目での像ずれ量P
Rを取り出して(ステップ27)、表示サブルーチン「DISP」、レンズ制御サブ
ルーチン「LENS」の実行へ一時と移行する。 フローを逆上って、ステップ16でVSNが“NR”と判断された場合はステップ
28でフラグRCFLGをチェックする。ここでRCFLGが“N”の時は「NPRED」1回
目を、“Y”の時は「NPRED」2回目を意味している。“N”の場合にはステッ
プ29でSDFLGをチェックする。SDFLGが“N”の時は「NPRED」では適切でない
として、2回目の焦点検出処理を「WPRED」で行わせるべくVSNを“WD”とし(ス
テップ30)、「WPRED」での像ずれ量PRをバッファBPRに一時格納し(ステッ
プ22)、RCFLGを“Y”として(ステップ23)、再びステップ12よりのル
ーチンの実行へと移行する(実際はステップ12→ステップ13→ステップ15
→ステップ17→ステップ24→)の実行へと移行する。ステップ29でSDFLG
が“Y”であった時はステップ31でフラグNJFFLGをチェックする。これは先の
ステップ25でも説明したが、「NPRED」1回目ではNJFFLGによって焦点検出処
理が適切であったか否かを判定している。ステップ31でNJFFLG が“N”(1画素以上、3画素以内)ならば略合焦ではないが比較的合焦に近い
ということで、もしもの場合を考えて再度行う焦点検出処理「WPRED」2回目の
ステップ25において使用するために、フラグNRSDFLGを“Y”としてステップ
30へと移行する。またステップ22でバッファBRPに一時格納される「NPRED」
1回目の像ずれ量PRは必要に応じて、即ち「WPRED」2回目のステップ27に
おいて使用される。 前記ステップ28でRCFLGが“Y”の時は「NPRED」2回目であり、前述からも
わかるように1回目は「WPRED」において結果が不適切と判定されたことを意味
する。又前述した様に、ステップ33でSDFLGをチェックして“Y”ならば「NPR
ED」2回目は適切と判定し、そのままの像ずれ量PRで表示サブルーチン「DISP
」、レンズ制御サブルーチン「LENS」の実行へと移行する。SDFLGが“N”であ
れば「NPRED」2回目は不適切として、次回の「AF」における焦点検出処理を「W
PRED」に設定すべくVSNを“WD”とし(ステップ34)、「WPRED」1回目で一時
記憶バッファBPRに格納されている像ずれ量PRを取り出して(ステップ27)
、表示サブルーチン「DISP」、レンズ制御サブルーチン「LENS」の実行へと移行
する。 以上の「AF」の処理の流れを簡単にまとめると、「AF」がコールされると、セ
ンサ列SAの像信号を読み込み(「IMAGE」)、焦点検出処理「WPRED」或いは「NP
RED」を行うわけであるが、「WPRED」は非合焦量が大きい時に、「NPRED」は合
焦近傍時に適用されるという前提のもとに、検出された像ずれ量がその時の処理
に不適切な場合、適切な処理方式にて同一像信号を再演算し、結局レンズ制御に
採用する像ずれ量PRは、非合焦量が大きい時には「WPRED」により、合焦近傍
時には「NPRED」により演算されたものとなる。つまり、非合焦量が大きい時に
は「WPRED」により焦点検出処理を行った方が非合焦状態が良くわかり、この結
果が合焦近傍時であると判断された場合には「NPRED」により焦点検出処理を行
った方が焦点検出精度を高めることができるからである。 次に、第14図のフローを用いてサブルーチン「LENS」について説明する。ス
テップ60でフラグLCFLGをチェックする。このフラグは前述した様に焦点検出
処理の対象となる像信号のコントラスト評価量が高い時は“N”となっている。 LCFLGが“N”の時は、像信号には焦点検出処理に十分なコントラストがあった
として、処理結果である像ずれ量PRに基づいて撮影レンズFLNSの制御を行う。
まずレンズ通信回路LCOMに入力する信号BSYをチェックする(ステップ61)。
この信号BSYが“H”の間はレンズ内制御回路LPRSとは通信不能であるので、該
信号BSYが“L”(ローレベル)になるまで待つ。前記信号BSYが“L”になると
、レンズ内制御回路LPRSから撮影レンズFLNSのデフォーカス対レンズ移動量の係
数Sを信号DLCより入力する(ステップ62)。次に像ずれ量PRから撮影レン
ズFLNSのデフォーカス量DEFを、DEF=K・PRなる式にて計算する(ステップ6
3)。Kは焦点検出用光学系によって設定される値で、予め設定されている。続
いてデフォーカス量DEFと係数Sから撮影レンズFLNSの移動量FPを、FP=DEF
/Sで計算する(ステップ64)。FPはエンコーダ回路ENCのカウント数に相
当する。そして、ステップ65で再び信号BSYのチェックを行い、信号BSYが“L
”となると、前記レンズ移動量FP(信号DCL)をレンズ内制御回路LPRSへ通信
する(ステップ66)。一方、LCFLGが“Y”の時は、コントラストが十分でな
いでないとして、サーチ動作を行うべく撮影レンズFLNSの移動量FPを、FP=
CDEF/Sで計算する(ステップ67)。CDEFは1回のサーチ動作で移動させるレ
ンズ移動量をデフォーカス量に換算してものであり、予め設定されている。 レンズ内制御回路LPRSは前記レンズ移動量FPが入力すると、該情報に基づい
て撮影レンズFLNSの駆動制御を行う。撮影レンズFLNSが停止することにより、像
信号A(i),B(i)の入力から始まった焦点調節の一連の「AF」処理が終了する。 本実施例によれば、ファインダ測距枠に対応する画素の範囲(有効範囲)を調
整工程で予め調べておき、EEPROM内に記憶させておく様にしているため、機械的
調整が不用となり、作業能率が非常に良いものとなる。また、同一の構成から成
るカメラで、ファインダー測距枠のみを異なるもの(マット面、スプリットイメ
ージ)に変更したい様な場合でも、その変更が容易となる。更に、組立て終了後
、センサに感度ムラがあることがわかった場合、或いはAF光学系に収差がある
ことがわかった場合等、その部分を避けて使用するといったことを容易にでき る。 (発明と実施例の対応) 本実施例において、撮影レンズFLNSが本発明の結像光学系に、フィールドレン
ズFLD,二次結像レンズFCLA,FCLBが光学系に、センサ列SAA,SABが複数画素か
ら成る光電変換手段に、CPUが演算手段に、EEPROMが記憶手段に相当する。 (変形例) 本実施例では、「像ずれ型」の装置について説明したが、これに限定されるも
のではなく、焦点面でコントラスト変化を検出する、いわゆる「鮮鋭度型」の焦
点検出装置にも適用することが可能である。 (発明の効果) 以上説明したように、本発明によれば、観察手段の焦点検出領域に対応する、
有効な光電変換信号を発生する有効画素範囲を調整工程で予め記憶した記憶手段
を有し、前記観察手段での前記焦点検出領域と前記有効画素範囲による画素上で
の焦点検出領域を一致させるようにし、以て、前記記憶手段に記憶された有効画
素範囲の光電変換信号により焦点検出処理を行うようにしたから、光電変換手段
の機械的調整を行うことなく、観察手段の焦点検出領域と光電変換手段の画素上
の焦点検出領域を容易に一致させることができる。
DETAILED DESCRIPTION OF THE INVENTION (Field of application of the invention)   The present invention relates to a focus detection device that detects a focus state from a relative positional relationship between two images of an object.
The present invention relates to an improvement of an optical device including: (Background of the Invention)   Conventionally, as one type of camera focus detection device, the exit pupil of the taking lens is divided.
Observe the relative position displacement of the pair of images formed by the light flux passing through each pupil area
A so-called “image shift type” for determining a focused state is known.   A signal processing method for detecting an image shift amount from an image signal is disclosed in Japanese Patent Application Laid-Open No. 58-1423.
No. 06, U.S. Pat. No. 4,333,007 and the like are disclosed.
Focus detection processing is performed using all or a fixed range of signals output from the sensor.
It was a thing. For this reason, the focus detection range provided in the viewfinder
The distance measurement frame is smaller than the whole area of the sensor, and it is misaligned in the sensor row direction.
The focus cannot be detected even if the subject is within the focusing frame,
There is an inconvenience of detecting the focus of an object outside the frame. In other words, the eyes
If the field of view you are looking at and the field of focus actually detected are different,
Accurate focus detection could not be performed.   Conventionally, in order to deal with the above-mentioned points, the sensor and the distance measurement frame are
The alignment was done one by one. For this reason, it takes a lot of time and work efficiency.
It was bad. Also, for example, you want to change to a different distance measurement frame for some reason
However, in such a case, the above was remarkable. (Object of the invention)   An object of the present invention is to solve the above-mentioned problems and to perform mechanical adjustment of a photoelectric conversion unit.
The focus detection area of the observation means and the focus detection area on the pixels of the photoelectric conversion means
An object of the present invention is to provide an optical device including a focus detection device that can be easily matched.
You. (Features of the invention)   In order to achieve the above object, the present invention relates to a photoelectric conversion means comprising a plurality of pixels,
An optical system for forming an image of the light passing through the image optical system on the photoelectric conversion unit;
Performing a predetermined focus detection process on the photoelectric conversion signal from the means,
A focus detection device including a calculation unit for detecting a focus state of a system, and the imaging optical system
For observing an object through a light source and including an observation means having a focus detection area
The optical device generates an effective photoelectric conversion signal corresponding to the focus detection area.
Storage means for storing an effective pixel range in advance in the adjustment step, and
Match the focus detection area with the focus detection area on the pixel by the effective pixel range
As a result, the photoelectric conversion signal of the effective pixel range stored in the storage means
It is characterized in that focus detection processing is performed. (Example of the invention)   First, the principle of focus detection in this type of apparatus will be described with reference to FIG.
. Field lens FLD with the same optical axis as the imaging lens FLNS to be focused
Is arranged. Two secondary imaging lenses at the rear and symmetrical positions with respect to the optical axis
FCLA and FCLB are arranged. Further, the sensor arrays SAA and SAB are arranged behind it. secondary
Stops DIA and DIB are provided near the imaging lenses FCLA and FCLB. Field lens
FLD has the exit pupil of the photographing lens FLNS almost in the pupil plane of the two secondary imaging lenses FCLA and FCLB.
Form an image. As a result, the light beams incident on the secondary imaging lenses FCLA and FCLB, respectively,
Each secondary image on the exit pupil plane of the shooting lens FLNS Shoot from the non-overlapping areas of equal area corresponding to the lenses FCLA and FCLB.
It will be issued. The aerial image formed near the field lens FLD is secondary
When the image is re-imaged on the sensor rows SAA and SAB by the image lenses FCLA and FCLB,
The two images on the sensor arrays SAA and SAB change their positions based on the displacement of the aerial image position of
And Therefore, if displacement (deviation) of the relative positions of the two images is detected, the photographing lens
You can know the focus state of FLNS.   Signal processing for detecting an image shift amount from image signals output from the sensor arrays SAA and SAB
As the method, JP-A-58-142306 and JP-A-59-107313 are used.
And Japanese Patent Application Laid-Open No. 60-101513 are disclosed by the present applicant.
. Specifically, the number of pixels constituting the sensor array SAA or SAB is N, and the i-th (i = 0)
,..., N-1) when the image signals from the sensor arrays SAA and SAB are A (i) and B (i)Or Is given by k1≤k≤kTwoIs calculated. M is represented by (M = N− | k | −1)
Is the number of operation pixels to be calculated, and k is called a relative displacement amount.1, KTwoIs usually -N / 2, N / 2. Here, the operator max {a, b} is a, b
Represents the extraction of the largest of the two, and the operator min {a, b}
This means extracting small things. Therefore, the term X in the above equations (1) and (2)1(k),
XTwo(k), Y1(k), YTwo(k) can be considered as a correlation amount in a broad sense. Further, the above (1),
Looking at equation (2) in detail, X1(k), Y1(k) is actually the above in (k-1) displacement
The correlation amount according to each definition is expressed as XTwo(k), YTwo(k) is the correlation amount at the displacement of (k + 1)
, Respectively. Therefore, X1(k), XTwoThe evaluation amount X (k) which is the difference between (k) is
It means the amount of change in the correlation amount between the image signals A (i) and B (i) at the relative displacement amount k.   X1(k), XTwoThe correlation amount (k) has the highest correlation between the two images as is clear from the above definition.
When the minimum. Therefore, the change X (k) is “0” when the correlation is the highest.
And the slope should be negative. However, since X (k) is discrete data,
actually     X (kp) ≧ 0, X (kp + 1) <0 (3) In addition, the peak of the correlation amount is found in the relative displacement section [kp, kp + 1] where X (kp) -X (kp + 1) is maximum.
Think it exists, By performing the interpolation calculation of, the image shift amount PR of a pixel unit or less can be detected.
Wear.   On the other hand, Y1(k), YTwoWhen the correlation between the two images is the highest from the above definition,
X1(k), XTwoContrary to (k), it becomes the maximum. Therefore, the amount of change, Y (k), has the highest correlation.
In this case, it should be “0” and the slope should be positive. Y (k) is the same as X (k)     Y (kp) ≦ 0, Y (kp + 1)> 0 (6) And Y (kp) -Y (kp + 1) is maximum By performing the interpolation calculation of, the image shift amount PR of a pixel unit or less can be detected. Wear.   Further, the image shift amount can be detected using any of the focus evaluation amounts X (k) and Y (k).
However, as can be seen from JP-A-60-101513, | X (kp) -X (kp + 1) |
> | Y (kp + 1) -Y (kp) |, the focus evaluation amount X (k) is calculated as |
1) In the case of −Y (kp) |, it is better to obtain the image shift amount PR using the focus evaluation amount Y (k).
The accuracy is good.   FIG. 1 is a block diagram showing an example of a camera focusing device suitable for carrying out the present invention.
FIG. PRS is a camera control circuit, for example, a CPU (central processing unit) inside
, RAM, ROM, EEPROM (electrically erasable programmable ROM), input / output port and A
1-chip microcomputer with analog input port with / D conversion function
The camera sequence, AF (auto focus), and AE (auto exposure) are stored in the ROM.
Source: Control software in the EEPROM, necessary parameters for AF and AE control
Is stored. SHT keeps the data while the control signal CSHT is input from the control circuit PRS.
Data input via the data bus DBUS is received and not shown based on the data.
APR is a control signal for controlling the travel of the front curtain and rear curtain of the shutter.
While R is being input, it accepts data input via the data bus DBUS,
The aperture control circuit controls the aperture mechanism (not shown) based on the data.
While inputting, it accepts data input via the data bus DBUS, and
A display circuit that displays various shooting information based on the information, SWS is a release switch (not shown),
Switches for setting various information such as shutter and aperture, located outside and inside the camera
Switch group.   SPC is a photometric circuit, and an analog photometric signal SSPC, which is an output of the circuit, is provided by the control circuit P.
RS is sent to the analog input port with A / D conversion function, A / D converted and
Used as photometric data to control shutter control circuit SHT and aperture control circuit APR
Can be LCOM is input via the data bus DBUS while the control signal CLCOM is input.
Data and receive serial communication with a lens unit described later based on the data.
A lens communication circuit that communicates with the optical axis of the taking lens FLNS in synchronization with the clock signal LCK.
The lens driving data DCL indicating the amount of movement in the direction is sent to the lens control circuit described later.
At this time, at the same time, the control circuit in the lens Lens information DLC such as a coefficient of the amount of defocus versus the amount of lens movement is serially input. BSY shooting
This signal informs the camera whether the shadow lens FLNS is moving or not.
When the signal is "H" (high level), the serial communication becomes impossible.   LNSU is a lens unit, LPRS is a motor M based on serially input data DCL
ENC is a control circuit in the lens that drives TR and moves the taking lens FLNS in the optical axis direction.
For example, a pulse generated by the movement of the lens barrel holding the taking lens FLNS
Signal is detected and the encoder pulse signal is
Encoder circuit that outputs the signal EPL to the in-lens control circuit LPRS.   SDR has two sensor arrays SAA according to the signals STR and CK input from the control circuit PRS.
Sensor drive circuit that controls line sensor SNS such as CCD with SAB and SAB
is there.   Next, the operation will be described with reference to FIGS. Note that the shutter control
The operations of the circuit SHT, the aperture control circuit APR, the display circuit DSP, and the photometric circuit SPC are not directly related to the present invention.
Since there is no connection, detailed description is omitted here. Also, in this embodiment, the camera
The “AF” flow is called as a subroutine from the sequence flow.
ing.   When the AF operation is started, first, two flags, a flag RCFLG and a flag NRSDFLG,
Is set to "N" (meaning NO) (FIG. 2, step 10). The flag RCFLG
The function of NRSDFLG will be described later. Next, the image signal reading subroutine "IMA
GE "(step 11). Here, the sensor drive circuit SDR
The in-sensor SNS is driven, and image signals A (i) and B (i) of two images are obtained. At this time
Brief description of the operation of the sensor drive circuit SDR and the line sensor SNS with reference to FIGS.
I do. When an "H" accumulation start signal STR is output from the control circuit PRS (see FIG. 3).
50), a clear signal CL is output from the sensor drive circuit SDR to the line sensor SNS,
The charges in the photoelectric conversion units of the sensor arrays SAA and SAB are cleared. Then line sensor SN
A secondary imaging lens or the like arranged at the previous stage at S (not shown in FIG. 1,
15 arranged on the sensor arrays SAA and SAB.
The photoelectric conversion of the light image and the charge storage operation are started. After the above operation started
When a predetermined time has elapsed, a transfer signal is sent from the sensor drive circuit SDR. SH is output to the line sensor SNS, and the charge stored in the photoelectric conversion unit is transferred to the CCD unit.
It is. At the same time, an "H" accumulation end signal IEND is generated in the sensor drive circuit SDR,
The signal is input to the control circuit PRS (step 51). After that, the control circuit PRS switches to CC
When the D drive clock CK is output, the CCD drive signal φ is output from the sensor drive circuit SDR.1, ΦTwo
Is output. As a result, the analog image is obtained from the line sensor SNS according to this signal.
The signal SSNS is output to the control circuit PRS, and in response, the control circuit PRS receives the signal SSNS.
A / D conversion of the analog image signal SSNS in synchronization with the clock CK, and image signals A (i) and B (i) of two images
Is stored at a predetermined address in the RAM (steps 52 to 55). Here Sen
It is assumed that the number of pixels in the sub-arrays SAA and SAB is 40.   Returning to FIG. 2 again, in step 12, all pixels are processed according to the out-of-focus state.
Perform focus detection calculation as a frame or focus detection calculation with some pixels as the processing target range
, That is, the flag VSN for setting the processing target pixel range for performing the focus detection calculation,
When "WD" (meaning a large amount of defocus), focus detection subroutine "WPRED"
When "NR" (meaning near focus), focus detection subroutine "NPRED"
Call (step 12). For example, as shown in FIG.
If it is out of focus, use the subroutine "WPRED" and focus near the focus as shown in Fig. 5.
Then, the subroutine "NPRED" is adopted. The power-on flag VSN is set to “WD
(Because it is the first time and the out-of-focus state is not known), the AF
Is started, “WD” or “NR” depends on the focus state at that time.
Is reset to This resetting will be described later.   Focus detection processing when subroutine "WPRED" is called is shown in the flow of Fig. 6.
Therefore, it will be described. In steps 100 to 105, the relative displacement amount k is set to “−20 to 20”.
The focus evaluation amount X (k) when changed within the range is obtained. Here, the relative displacement k
The reason why the number of pixels of the sensor rows SAA and SAB is "20 to 20" is as described above.
40 ", but this processing target pixel range is
Variable according to the focal length of the lens FLNS.   First, in step 101, the number M of operation pixels is calculated by the equation M = 39− | k |.
The number of calculation pixels M is variable according to the relative displacement amount k, and becomes smaller as the absolute value of k becomes larger.
Become. This is because as the relative displacement k increases, the output of the corresponding sensor Because they are missing. In step 102, the sign of the relative displacement k (positive or negative)
, And then, according to the sign, start the pixel position P at which the calculation of the A and B images is started.
A and PB are calculated in step 103 or 104. In Step 105 focus evaluation
The calculation of the value X (k) is performed.   Here, the processing steps in steps 100 to 105 will be described with reference to FIG.
FIG. 7A shows two image signals A (i) and B (i). FIG. 7 (b) shows that k = −20.
Represents the correspondence between the sensor rows in the correlation operation in this case, and at this time, M = 39− | 20 | =
At 19, PA is "0" and PB is "20". That is, the relative displacement k is a negative value.
Therefore, the B image is relatively displaced to the left by k pixels (−20 pixels). This response
From the relationship, X (-20) is obtained by calculating the corresponding relationship in which the B image is further displaced to the left by one pixel.
Conversely, the first term of the equation was calculated based on the correspondence that the image A was displaced to the left by one pixel.
Correspond to the second term. In the first and second terms, the A image and the B image are each one pixel.
When calculating the number of calculated pixels M, M = 40− |
Instead of k |, M = 39− | k |. FIG. 7 (c) shows the correspondence when k = 0.
Represents. FIG. 7 (d) shows the correspondence of the correlation operation at k = 20.
Contrary to FIG. 7 (b), the image A is displaced to the left by 20 pixels.   An example of a plot of the focus evaluation amount X (k) calculated as described above is shown in FIG.
Shown in the figure.   Returning to the flow of FIG. 6, in step 110, the two images A,
The peak value kp of the image shift amount in the pixel unit of B is detected. Hereinafter, steps 120-1
In step 46, an image shift amount PR of a pixel unit or less is obtained.
In steps 120 to 135, two focus evaluations are performed based on the peak value kp obtained in
Recalculate the quantities X (k) and Y (k). There are two reasons for this. One is where to find kp
In the step, the number of calculation pixels M is variable according to the relative displacement amount k.
Interpolation of the focus evaluation amount X (k) calculated in the calculation range of
When the PR is obtained, there is a possibility that an error due to the mismatch of the number of calculation pixels M may be included.
There is. Another method is to calculate X (k) rather than calculating the image shift amount PR using only the focus evaluation amount X (k).
, Y (k) in the earlier application (Japanese Patent Application Laid-Open No. 60-101513)
As described above, depending on the signal pattern of the subject, is it superior in S / N? It is. From the above, in steps 120 to 135, the calculation pixel is calculated based on kp.
The number M is kept constant (step 120), and the focus evaluation amounts X (k) and Y (k) are simultaneously obtained.
You.   First, in step 120, the calculation of M = 38− | kp |
Decide. Next, in steps 130 to 135, k =
The focus evaluation amounts X (k) and Y (k) are calculated at the three points kp-1, kp and kp + 1 in the same manner as above.
You. Note that when calculating the number of calculation pixels M, M = 38− | kp |
Number of calculated pixels in the relative displacement amount having the largest absolute value among the three points of 1, kp, kp + 1
This is for fixing to M. Next, the focus evaluation amounts X (k), Y (
From k), the image shift amounts kpx and kpy in pixel units due to the respective focus evaluation amounts are detected again.
(Steps 140 and 141). At this time, the contrast of each focus evaluation amount X (k), Y (k)
XD (XD = X (kpx) -X (kpx + 1)) and YD (YD = Y (kpx + 1) -Y (kpx
)) Is also required. This is in accordance with the calculation method disclosed in the prior application in this embodiment.
Therefore, instead of comparing the magnitude of the image signal at the end for each relative displacement (computation processing becomes complicated)
When the amount of out-of-focus is large, the contra
By looking at the strike evaluation amounts XD and YD, it is as if looking at the image signal at the end for each relative displacement.
This is because the information is used while paying attention to the fact that information as if
The larger the strike evaluation amounts XD and YD, the better the S / N ratio. Therefore
In step 142, the two contrast evaluation amounts XD and YD are compared, and XD ≧ YD is satisfied.
At the time, the focus evaluation amount X (k) is adopted (step 143). When XD <YD, the focus evaluation amount X (k) is used.
The quantity Y (k) is adopted (step 144). In steps 145 and 146,
ZD (Z1-ZTwo), Using kz     PR = kz + | Z1/ ZD | To calculate the image shift amount PR of a pixel unit or less. This process is shown in FIG.
Is shown. In the example as shown in this figure, since the relationship of XD <YD is satisfied, the focus evaluation amount Y (k
) Is adopted, and kz = kpy, Z at the time of calculating the image shift amount PR in pixel units or less.1= Y (kp)
, ZTwo= Y (kp + 1) is used.   Steps 150 to 158 are processing for determining the focus state.
When 0, the four flags LCFLG, SDFLG, NJFFLG, JFFLG are set to "N". To qualitatively describe the meaning of each flag, “LCFLG” indicates that the subject image signal is low.
This is a flag indicating that it is the last, and the shift amount of the two images “SDFLG” is relatively small
That is, a flag indicating that the out-of-focus amount of the photographing lens FLNS is relatively small,
"NJFFLG" has a very small displacement between the two images, that is, the photographing lens FLNS is almost in focus.
"JFFLG" indicates that there is almost no shift between the two images.
That is, this is a flag indicating that focus is achieved.   Next, the contrast evaluation amount ZD of the adopted focus evaluation amount is compared with a predetermined value LCTH.
(Step 151). As a result, when ZD <LCTH, the contrast is considered to be low.
Then, set “LCFLG” to “Y” (meaning YES) and end the subroutine “WPRED”
I do. If ZD ≧ LCTH, contrast is considered to be sufficient to perform focus detection
No, proceed to the next step 153. In step 153, the image shift amount PR is
The value PR is compared with the predetermined value “3”, and if PR> 3, that is, the image shift amount is 3 pixels or more.
If so, the subroutine "WPRED" ends. Relatively disqualified if PR ≤ 3
Since the amount of focus is small, “SDFLG” is set to “Y” (step 154), and then PR and
The fixed value "1" is compared (step 155). As a result, if PR> 1, ie, no image
When the shift amount is one pixel or more, the subroutine "WPRED" ends here. PR
If> 1, it is determined that the object is substantially focused and "NJFFLG" is set to "Y" (step 156).
Finally, the PR is compared with a predetermined value JFTH (step 157). The predetermined value JFTH is not imaged
The shift amount PR is a value that can be regarded as being in focus. As a result, if PR> JFTH,
Exit the routine "WPRED". If PR ≤ JFTH
“JFFLG” is set to “Y” (step 158), and the subroutine “WPRED” ends.
. The functions of the four flags LCFLG, SDFLG, NJFFLG, and JFFLG will be described later.
I do.   Next, the subroutine "NPRED" will be described. "NPRED" is near focus
Equivalent to the distance measurement frame in the viewfinder among all sensors
The focus detection process is performed only on the data within the range. This is what the viewfinder and
This will be described with reference to FIG. 10 showing the positional relationship between the sub-rows SA. In the figure, FFRM is
This is the distance measurement frame on the viewfinder. In the subroutine "NPRED", the range of the distance measurement frame FFRM
And R1, RTwo, RThreeIs divided into three areas as shown by Area R in the range frame FFRM1, RTwo, RThreeIs located in each pixel of the sensor row SA.
Pixel position NR corresponding to the beginning of the part1, NRTwo, NRThreeBeforehand in the adjustment process.
Stored in the EEPROM in the control circuit PRS. At this time, the NNPX included in each part is the same
(R1= RTwo= RThree), And this value NNPX is stored in the EEPROM as well. this
In the embodiment, NNPX = 12 and NR1, NRTwo, NRThreeAre "8", "14", "2"
0 ”, and (NNPX + k) is the processing target range in this case (the hatched portion in FIG. 12).
Minutes). These values depend on the installation of the focus detection optical system and the line sensor SNS.
There may be some pixel shift depending on the situation, but since it is stored in the EEPROM as described above,
The range of the calculation for performing the focus detection processing can be matched with the range frame FFRM. The fifth
R shown for the image signal in the figure1, RTwo, RThreeIs the above subroutine "NPRED" processing
Are the divided areas.   The operation when the subroutine "NPRED" is called according to the flow of Fig. 11.
State. In step 200, the number of calculation pixels M is set to NNPX. The subroutine "
In “WPRED”, the number M of calculated pixels was variable according to the relative displacement amount k.
In outgoing processing, it is fixed to NNPX. This is because "WPRED" uses the output of all pixels for calculation
On the other hand, NPRED uses some outputs of the sensor array SA,
This is because data at the end of the corresponding sensor output is not lost. Therefore
In “NPRED”, the number of calculation pixels M performed in steps 120 to 141 of “WPRED” is one.
No recalculation is performed. Also, since recalculation is not performed,
From the beginning, the evaluation amounts X (k) and Y (k) are simultaneously obtained.   Steps 210 to 221 correspond to region R1This is a focus detection process for the image data.
In the figure, the same processing parts as “WPRED” are given the same step numbers. Subroutine
In “NPRED”, the range of the relative displacement amount k is (−4 to 4). This is "NPRED
Is applied near the in-focus state, and the image shift amount is originally small.
You. In this case, as shown in steps 212 and 213, the region R1Start position NR1But
Is considered. This process is shown in FIG. 13 (a). The solid line in the figure indicates the focus evaluation amount X (
k) and the dashed line represents Y (k). Processing similar to that described in “WPRED” (step
140 to 146), the region R1PR at image1Ask for. Step 221
And image shift PR1And contrast evaluation amount ZD1In the control circuit PRS Store it in RAM. Similarly, in steps 230 to 241, the region RTwoIn
Image shift PRTwo, Contrast evaluation amount ZDTwo(See Fig. 13 (b))
In steps 250 to 261, the region RThreePR at imageThree, Contrast evaluation amount
ZDThree(See FIG. 13 (c)), and these are also stored in the RAM in the control circuit PRS.
.   In steps 270 to 278, the three regions R determined as described above are used.1, RTwo, R
ThreeImage shift PR1, PRTwo, PRThreeOf which image shift amount is the final image shift amount
Judgment as to whether to make PR is made. That is, in the present embodiment, of the three regions
, The contrast is sufficiently high, and the maximum image shift amount is adopted.
. The reason for adopting the maximum image shift amount here is that when the image shift amount is positive, the back focus is set.
, The most focused object is the closest object, and the
It is to match. The final image shift amount PR and the contrast evaluation amount ZD
After the determination, the focus state is determined in step 280. The process here is "WPRED"
Since the processing is the same as that described above, the description thereof is omitted.   As described above, if the out-of-focus amount is large, the subroutine "WPRED"
In the near-focus state, the subroutine "NPRED"
The amount of shift, that is, the amount of out-of-focus of the photographing lens FLNS can be detected.   Returning to FIG. 2, the description from step 15 will be continued. Step 15 is the flag LC
The control during the focus detection processing of “WPRED” or “NPRED” performed earlier after looking at the FLG
Check the last. When LCFLG is "Y", the contrast is low and the next time
In the focus detection processing, the flag VSN is set to “WD” so as to use “WPRED” (step 35).
), Execute the display subroutine "DISP" and the lens control subroutine "LENS" (
Steps 19 and 20). The display subroutine "DISP" is not directly related to the present invention.
The lens control subroutine "LENS" will be described later.
You.   In step 16, the flag VSN is checked again. When VSN is “WD”,
The processing after step 17 is performed, and when "NR", the processing after step 28 is performed.   First, processing when VSN = “WD” will be described. VSN = "WD" means the focus detection processing
Represents what was done with "WPRED". In step 17, check flag RCFLG I do. RCFLG is “Y” when performing focus detection processing twice in the “AF” routine.
ing. In this embodiment, when executing the “AF” routine, the first “AF”
Execute either “WPRED” or “NPRED” with the VSN set in (in the release
Initially, the VSN was "WD", but the resulting image
If the amount of deviation is not appropriate for each condition, reset VSN and set flag RCFLG.
As "Y", a different focus detection process "NPRED" or "WPRED" will be executed.
Swell. RCFLG is the flag for that. The resetting of the VSN will be described later.   When the flag RCFLG is “N”, that is, at the time of the first focus detection processing, the flag SDFLG is checked.
(Step 18). SDFLG is "WPRED" or "NPRED" as described above
(The SDFLG in this step is set in "WPRED"
), When this flag is “Y” (within 3 pixels), the current focus state is relatively close to in-focus.
Means that Therefore, VSN is “WD” and SDFLG is “N” (3 pixels or more).
If the "WPRED" is appropriate, display the subroutine "DISP" and control the lens.
Move to execution of subroutine "LENS". On the other hand, if SDFLG is “Y”, “NPR
It is more appropriate to perform recalculation with "ED", that is, it is possible to obtain an accurate image shift amount PR.
In consideration of this, VSN is set to "NR" (step 21), and the image shift amount PR is stored in the buffer BPR.
Is temporarily stored (step 22), RCFLG is set to “Y” (step 23), and
Routine from step 12 (actually step 12 → step 14 → step 1
5 → Step 16 → Step 28 → Step 33 →). Said
The reason for temporarily storing the image shift amount PR in the buffer BPR in step 22 is as follows.
If the result calculated in subroutine "NPRED" is not appropriate, that is, "NPRED"
When SDFLG at step 33 is “N” (3 pixels or more)
This is because the image shift amount PR obtained in the first subroutine “WPRED” is used.
Step 34 → Step 27 →).   When RCFLG is "Y" in step 17, that is, at the time of the second focus detection process,
Go to Step 24 and check SDFLG here. As a result, if SDFLG is "N",
Since the focus detection process at this time is “WPRED”, the focus detection process here is appropriate.
Execute the display subroutine "DISP" and the lens control subroutine "LENS" Move to. When SDFLG is “Y”, RCFLG is “Y” and VSN is “WD”.
Therefore, the first focus detection processing is performed with “NPRED” and the result is
It would have been painless. As described later, the first time of "NPRED", the flag NJFFLG
Is "Y", that is, it is judged that it is not appropriate unless it is approximately in-focus.
If "Y", the flag NRSDFLG is set to "Y" (not in focus but within 1 pixel)
ing. In other words, if NRSDFLG is “Y”, the first focus of “NPRED” is almost in focus
It does not mean that it was relatively close to focusing. At this time, the statue at "NPRED"
The shift amount PR is temporarily stored in the buffer BPR. So in step 24 SDFLG
If “Y”, it means that the focus is relatively close in the second “WPRED”, so “N”
PRED "Checks the flag NRSDFLG in step 25 to refer to the first result
. If NRSDFLG is "N" (one or more pixels), the first time is not appropriate.
And the display subroutine “DISP” using the second image shift amount PR of “WPRED”
Shifts to the execution of the end control subroutine "LENS". If NRSDFLG is “Y”, then
In “AF”, VSN is set to “NR” in order to set the first focus detection process to “NPRED”.
Step 26) The image shift amount P in the first time of “NPRED” already stored in the buffer BPR
Take out R (step 27), display subroutine "DISP", lens control sub
The process temporarily shifts to the execution of the routine “LENS”.   If the VSN is determined to be “NR” in step 16 by going up the flow, step
At 28, the flag RCFLG is checked. Here, when RCFLG is “N”, “NPRED” once
Eyes, "Y" means "NPRED" for the second time. In the case of “N”,
Check SDFLG at step 29. When SDFLG is “N”, “NPRED” is not appropriate
VSN is set to “WD” so that the second focus detection process is performed by “WPRED”.
Step 30), temporarily stores the image shift amount PR in “WPRED” in the buffer BPR (Step 30).
Step 22), set RCFLG to “Y” (step 23), and return to step 12
To the execution of the routine (actually, step 12 → step 13 → step 15
The process shifts to execution of → step 17 → step 24 →). SDFLG at step 29
Is "Y", the flag NJFFLG is checked in step 31. This is the previous
As described in step 25, in the first “NPRED”, focus detection processing is performed by NJFFLG.
To determine if the process was appropriate. NJFFLG in step 31 If "N" (1 pixel or more and 3 pixels or less), it is not nearly in-focus but relatively close to in-focus
So, the second focus detection process "WPRED",
Set the flag NRSDFLG to "Y" for use in step 25.
Move to 30. "NPRED" temporarily stored in the buffer BRP in step 22
The first image shift amount PR may be changed as needed, that is, the “WPRED”
Used in   When RCFLG is "Y" in step 28, it is the second time of "NPRED".
As you can see, the first time means that the result was judged to be inappropriate in "WPRED"
I do. Also, as described above, the SDFLG is checked in step 33, and if "Y", "NPR
ED "is determined to be appropriate for the second time, and the display subroutine" DISP
", And shifts to execution of the lens control subroutine" LENS ". SDFLG is “N”
If the "NPRED" second time is inappropriate, the focus detection process in the next "AF" will be "W
Set VSN to “WD” to set to “PRED” (step 34), and temporarily set the first time to “WPRED”
The image shift amount PR stored in the storage buffer BPR is extracted (step 27).
Move to execution of display subroutine "DISP" and lens control subroutine "LENS"
I do.   To briefly summarize the flow of the above “AF” processing, when “AF” is called,
The image signal of the sensor array SA is read (“IMAGE”), and the focus detection processing “WPRED” or “NP
WPRED is used when the amount of defocus is large, while NPRED
Based on the assumption that it will be applied near the focus, the detected image shift amount is
If it is not appropriate, recalculate the same image signal with an appropriate processing method,
When the defocus amount is large, the image shift amount PR to be adopted is determined by “WPRED”, and the focus is determined to be close to the focus.
Sometimes it is calculated by "NPRED". In other words, when the out-of-focus amount is large,
If the focus detection processing is performed by “WPRED”, the out-of-focus state is better understood.
If it is determined that the result is near the focus, the focus detection processing is performed by “NPRED”.
This is because the focus detection accuracy can be improved.   Next, the subroutine "LENS" will be described using the flow of FIG. S
At step 60, the flag LCFLG is checked. This flag is used for focus detection as described above.
When the contrast evaluation amount of the image signal to be processed is high, “N” is set. When LCFLG is "N", the image signal had sufficient contrast for focus detection processing
The control of the photographing lens FLNS is performed based on the image shift amount PR as the processing result.
First, the signal BSY input to the lens communication circuit LCOM is checked (step 61).
While this signal BSY is "H", communication with the in-lens control circuit LPRS is not possible.
Wait until the signal BSY becomes "L" (low level). When the signal BSY becomes "L"
From the control circuit LPRS in the lens to the relationship between the defocus of the taking lens FLNS and the lens movement amount.
The number S is input from the signal DLC (step 62). Next, based on the image shift amount PR,
Then, the defocus amount DEF of the flash FLNS is calculated by the formula of DEF = K · PR (step 6).
3). K is a value set by the focus detection optical system, and is set in advance. Continued
FP = DEF from the defocus amount DEF and the coefficient S.
/ S (step 64). FP corresponds to the count number of the encoder circuit ENC.
Hit. Then, in step 65, the signal BSY is checked again, and the signal BSY is set to "L".
”, The lens movement amount FP (signal DCL) is communicated to the lens control circuit LPRS.
(Step 66). On the other hand, when LCFLG is “Y”, the contrast is not sufficient.
It is determined that the moving amount FP of the photographing lens FLNS for performing the search operation is
It is calculated by CDEF / S (step 67). CDEF can be moved by one search operation.
The lens movement amount is converted into a defocus amount, which is set in advance.   When the lens movement amount FP is input, the in-lens control circuit LPRS, based on the information,
To control the driving of the photographing lens FLNS. When the shooting lens FLNS stops, the image
A series of "AF" processing of focus adjustment that has been started from the input of the signals A (i) and B (i) ends.   According to this embodiment, the range (effective range) of the pixel corresponding to the finder ranging frame is adjusted.
Because it is checked in advance in the adjustment process and stored in the EEPROM,
No adjustment is required, and the work efficiency is very good. In addition, the same configuration
Cameras that differ only in the viewfinder ranging frame (matte surface, split image
Even if it is desired to change to (e), the change becomes easy. In addition, after assembly
If the sensor is found to have sensitivity unevenness, or if there is aberration in the AF optical system
It is easy to avoid using that part when you know You. (Correspondence between invention and embodiment)   In this embodiment, the photographing lens FLNS is provided with a field lens in the imaging optical system of the present invention.
FLD and secondary imaging lenses FCLA and FCLB in the optical system, and sensor rows SAA and SAB
The CPU corresponds to the arithmetic means, and the EEPROM corresponds to the storage means. (Modification)   In the present embodiment, the “image shift type” apparatus has been described, but the present invention is not limited to this.
Rather than detecting the change in contrast at the focal plane,
It can be applied to a point detection device. (The invention's effect)   As described above, according to the present invention, corresponding to the focus detection area of the observation unit,
Storage means for storing in advance an effective pixel range for generating an effective photoelectric conversion signal in an adjustment step
Having a focus detection area and pixels on the effective pixel range in the observation means.
And the focus detection areas of the effective images stored in the storage means are adjusted.
Since the focus detection processing is performed using the photoelectric conversion signal in the elementary range, the photoelectric conversion means
Without mechanical adjustment of the focus detection area of the observation unit and the pixels of the photoelectric conversion unit
Can be easily matched with each other.

【図面の簡単な説明】 第1図は本発明を実施するのに好適なカメラの焦点調節装置の一例を示すブロ
ック図、第2図はその一部のフローチャート、第3図は同じく一部のフローチャ
ート、第4図及び第5図はセンサ列より出力される像信号の一例を示す図、第6
図は一部のフローチャート、第7図は焦点検出演算時の2像の対応関係を示す図
、第8図は評価量の変化を示す図、第9図は同じく一部の評価量の変化を示す図
、第10図は一部のフローチャート、第11図はファインダー測距枠とセンサ列
の位置関係を示す図、第12図は焦点検出演算時の2像の対応関係を示す図、第
13図は一部の評価量の変化を示す図、第14図は一部のフローチャート、第1
5図は一般的な二次結像方式焦点検出装置の光学系を示す配置図である。 PRS……制御回路、LCOM……レンズ通信回路、LNSU……レンズユニット、SDR…
…センサ駆動回路、SAA,SAB……センサ列、FLNS……撮影レンズ、k……相対 変位量。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing an example of a focus adjusting device for a camera suitable for carrying out the present invention, FIG. 2 is a partial flowchart thereof, and FIG. FIGS. 4 and 5 are flowcharts showing examples of image signals output from the sensor array.
FIG. 7 is a partial flowchart, FIG. 7 is a diagram showing the correspondence between two images at the time of focus detection calculation, FIG. 8 is a diagram showing a change in the evaluation amount, and FIG. 10, FIG. 10 is a partial flowchart, FIG. 11 is a diagram showing a positional relationship between a finder ranging frame and a sensor array, FIG. 12 is a diagram showing a correspondence relationship between two images at the time of focus detection calculation, and FIG. FIG. 14 is a diagram showing a change in a part of the evaluation amount, FIG.
FIG. 5 is an arrangement diagram showing an optical system of a general secondary imaging type focus detection device. PRS: Control circuit, LCOM: Lens communication circuit, LNSU: Lens unit, SDR
… Sensor drive circuit, SAA, SAB… Sensor array, FLNS… Shooting lens, k… Relative displacement.

Claims (1)

【特許請求の範囲】 (1)複数画素から成る光電変換手段と、結像光学系を通過した光を前記光電変
換手段に結像させる光学系と、前記光電変換手段よりの光電変換信号に所定の焦
点検出処理を行うことにより、前記結像光学系の焦点状態を検出する演算手段と
を備えた焦点検出装置、及び前記結像光学系を通して対象を観察するためのもの
で且つ焦点検出領域を備えた観察手段を含む光学装置において、前記焦点検出領
域に対応する、有効な光電変換信号を発生する有効画素範囲を調整工程で予め記
憶した記憶手段を有し、前記観察手段での前記焦点検出領域と前記有効画素範囲
による画素上での焦点検出領域を一致させるようにしたことを特徴とする光学装
置。
Claims: (1) A photoelectric conversion means comprising a plurality of pixels, an optical system for forming an image of light having passed through an imaging optical system on said photoelectric conversion means, and a photoelectric conversion signal from said photoelectric conversion means being predetermined. A focus detection device having a calculation means for detecting a focus state of the imaging optical system, and a focus detection area for observing a target through the imaging optical system. An optical device including an observation unit provided with a storage unit in which an effective pixel range for generating an effective photoelectric conversion signal corresponding to the focus detection area is stored in advance in an adjustment step, and the focus detection in the observation unit is performed. An optical device, wherein an area and a focus detection area on a pixel according to the effective pixel range are matched.

Family

ID=

Similar Documents

Publication Publication Date Title
US4812869A (en) Focus detecting apparatus
JP4963569B2 (en) Imaging system and lens unit
JP4018218B2 (en) Optical apparatus and distance measuring point selection method
JPH05127074A (en) Focus detection device
JPS63246712A (en) Focus detector
US6311019B1 (en) Automatic focus adjusting system capable of adjusting focus of moving subject
JP5056168B2 (en) Focus adjustment device and imaging device
US4800410A (en) Focus detecting apparatus for selecting the operating process in conformity with the contrast of an object
JP6664177B2 (en) Focus detection device, prediction method, program, and storage medium
JP2007264299A (en) Focus adjustment device
JP2016110001A (en) Imaging apparatus and method of controlling the imaging apparatus
US5930532A (en) Automatic focusing device of camera having highly reliable movement prediction feature
US5539493A (en) Autofocus camera
US6081668A (en) Camera
US4833313A (en) Focus detecting apparatus having increased SNR by selectively varying or holding constant the number of signals from sensor arrays
JP4011738B2 (en) Optical device
JP2671206C (en)
JP3096828B2 (en) camera
JP3356229B2 (en) Optical detection device and focus control device
JP4967826B2 (en) Focus detection apparatus and imaging apparatus
JPS62133408A (en) Focus detecting system
JPH05346536A (en) Focal point detecting device
JPS63172207A (en) Focus detector
JP2671206B2 (en) Optical device
JPH085905A (en) Camera with focus detecting device