JP2671206B2 - Optical device - Google Patents

Optical device

Info

Publication number
JP2671206B2
JP2671206B2 JP61160826A JP16082686A JP2671206B2 JP 2671206 B2 JP2671206 B2 JP 2671206B2 JP 61160826 A JP61160826 A JP 61160826A JP 16082686 A JP16082686 A JP 16082686A JP 2671206 B2 JP2671206 B2 JP 2671206B2
Authority
JP
Japan
Prior art keywords
focus
amount
lens
focus detection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP61160826A
Other languages
Japanese (ja)
Other versions
JPS6318315A (en
Inventor
彰 明石
明 石崎
康夫 須田
一朗 大貫
圭史 大高
剛史 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP61160826A priority Critical patent/JP2671206B2/en
Publication of JPS6318315A publication Critical patent/JPS6318315A/en
Application granted granted Critical
Publication of JP2671206B2 publication Critical patent/JP2671206B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、物体の2像の相対的位置関係より焦点状態
を検出する焦点検出装置を含む光学装置の改良に関する
ものである。 (発明の背景) 従来、カメラの焦点検出装置の一つのタイプとして、
撮像レンズの射出瞳を分割し、各瞳領域を通過した光束
が形成する対の像の相対位置変位を観測することで、合
焦状態を判別する、いわゆる「像ずれ型」が知られてい
る。 像信号から像ずれ量を検出する信号処理方法として
は、特開昭58−142306号公報、米国特許第4333007号公
報等が開示されているが、いずれもセンサより出力され
る総て或いは固定の範囲内の信号を用いて焦点検出処理
を行うものであった。このため、ファインダー内に設け
られている焦点検出範囲、即ち測距枠がセンサの全領域
よりも小さく、且つセンサの列方向に組立上ずれている
場合には、被写体が測距枠内に位置しても焦点が検出で
きなかったり、逆に測距枠外のものの焦点検出を行って
しまうような不都合があった。換言すれば、目視してい
る視野と実際に焦点検出される視野とが異なっているよ
うな場合には、正確な焦点検出を行えなかった。 前述の様な点に対処するために従来は、機械的な方法
によりセンサと測距枠の位置合わせをいちいち行ってい
た。このため、非常に手間がかかり、作業能率の悪いも
のであった。また、例えば何らかの事情により異なる測
距枠に変更したいという様な事もあり得るが、この様な
場合には前記の事が顕著であった。 (発明の目的) 本発明の目的は、上述した問題点を解決し、光電変換
手段の機械的調整を行うことなく、観察手段の焦点検出
領域と光電変換手段と画素上の焦点検出領域を容易に一
致させることができる、焦点検出装置を含む光学装置を
提供することである。 (発明の特徴) 上記目的を達成するために、本発明は、複数画素から
成る光電変換手段と、結像光学系を通過した光を前記光
電変換手段に結像させる光学系と、前記光電変換手段よ
りの光電変換信号に所定の焦点検出処理を行うことによ
り、前記結像光学系の焦点状態を検出する演算手段とを
備えた焦点検出装置、及び前記結像光学系を通して対象
を観察するためのもので且つ焦点検出領域を備えた観察
手段を含む光学装置において、前記焦点検出領域に対応
する、有効な光電変換信号を発生する有効画素範囲を記
憶する記憶手段を設け、以て、前記記憶手段に記憶され
た有効画素範囲の光電変換信号により焦点検出処理を行
うようにしたことを特徴とする。 (発明の実施例) まず初めに、この種の装置における焦点検出原理を第
15図を用いて説明する。焦点検出されるべき撮影レンズ
FLNSと光軸を同じくしてフィールドレンズFLDが配置さ
れる。その後方の、光軸に関して対称な位置に、2個の
二次結像レンズFCLA,FCLBが配置される。更にその後方
にセンサ列SAA,SABが配置される。二次結像レンズFCLA,
FCLBの近傍には絞りDIA,DIBが設けられる。フィールド
レンズFLDは撮影レンズFLNSの射出瞳を2個の二次結像
レンズFCLA,FCLBの瞳面にほぼ結像する。その結果、二
次結像レンズFCLA,FCLBにそれぞれ入射する光線束は、
撮影レンズFLNSの射出瞳面上において各二次結像レンズ
FCLA,FCLBに対応する、互いに重なり合うことのない等
面積の領域から射出されたものとなる。フィールドレン
ズFLDの近傍に形成された空中像が二次結像レンズFCLA,
FCLBによりセンサ列SAA,SABの面上に再結像されると、
光軸方向の空中像位置の変位に基づき、センサ列SAA,SA
B上の2像はその位置を変えることになる。従って、2
像の相対的位置の変位(ずれ)を検出すれば、撮影レン
ズFLNSの焦点状態を知ることができる。 前記センサ列SAA,SABより出力される像信号から像ず
れ量を検出する信号処理方法としては、特開昭58−1423
06号公報、特開昭59−107313号公報、特開昭60−101513
号公報などが本願出願人により開示されている。具体的
には、センサ列SAA又はSABを構成する画素数をNとし、
i番目(i=0,…,N−1)のセンサ列SAA,SABからの像
信号をA(i),B(i)とするとき あるいはなる式を、k1≦k≦k2について演算する。尚Mは(M=
N−|k|−1)で表される演算画素数であり、又kは相
対変位量と呼ばれ、k1,k2は通常−N/2,N/2にとられるこ
とが多い。ここでmax{a,b}なる演算子はa,bの内大な
るものを抽出することを表し、min{a,b}なる演算子は
a,bの内小なるものを抽出することを表す。従って、前
記(1),(2)式における項X1(k),X2(k),Y
1(k),Y2(k)は広義の相関量と考えることがきる。
更に、前記(1),(2)式を詳細に見ると、X
1(k),Y1(k)は現実には(k−1)変位における上
記夫々の定義による相関量を、X2(k),Y2(k)は
(k+1)の変位における相関量を、それぞれ表してい
る。それゆえ、X1(k),X2(k)の差である評価量X
(k)は相対変位量kにおける像信号A(i),B(i)
の相関量の変化量を意味する。 X1(k),X2(k)なる相関量は上記定義から明らか
なように2像の相関が最も高いときに最小となる。よっ
てその変化量であるX(k)は相関最高のときに「0」
で、且つ傾きは負となるはずである。ところがX(k)
は離散データであるから、実際には、 X(kp)≧0,X(kp+1)<0 (3) 且つX(kp)−X(kp+1)が最大なる相対変位の区
間[kp,kp+1]に相関量のピークが存在すると考え
て、 の補間演算を行うことにより、画素単位以下の像ずれ量
PRを検出することができる。 一方、Y1(k),Y2(k)なる相関量は上記定義より
2像の相関が最も高いとき、X1(k),X2(k)とは逆
に最大となる。よってその変化量であるY(k)は相関
最高のときに「0」で、且つ傾きは正となるはずであ
る。Y(k)もX(k)と同様に Y(kp)≦0,Y(kp+1)>0 (6) で且つY(kp)−Y(kp+1)が最大のとき の補間演算を行うことにより、画素単位以下の像ずれ量
PRを検出することができる。 また、X(k),Y(k)のいずれの焦点評価量を用い
ても像ずれ量の検出は可能であるが、特開昭60−101513
号公報からわかる様に、|X(kp)−X(kp+1)|>|Y
(kp+1)−Y(kp)|の時には焦点評価量X(k)
を、|X(kp)−X(kp+1)|>|Y(kp+1)−Y(k
p)|の時には焦点評価量Y(k)を用いて像ずれ量PR
を求めた方がS/N的に精度が良い。 第1図は本発明の一実施例を示すブロック図である。
PRSはカメラの制御回路で、例えば内部にCPU(中央演算
処理部)、RAM、ROM、EEPROM(電気的消去可能プログラ
マブル ROM)、入出力ポート及びA/D変換機能付アナロ
グ入力ポート等が配置された1チップマイクロコンピュ
ータであり、前記ROM内にはカメラのシーケンス、AF
(自動焦点)、AE(自動露出)制御用のソフトウエア
が、EEPROM内にはAF、AE制御に必要なパラメータが格納
されている。SHTは前記制御回路PRSより制御信号CCHTが
入力している間データバスDBUSを介して入力するデータ
を受け付け、該データに基づいて不図示のシャッタ先幕
及び後幕の走行制御を行うシャッタ制御回路、APRは制
御信号CAPRが入力している間データバスDBUSを介して入
力するデータを受け付け、該データに基づいて不図示の
絞り機構を制御する絞り制御回路、DSPは制御信号CDSP
が入力している間データバスDBUSを介して入力するデー
タを受け付け、該データに基づいて各種撮影情報を表示
する表示回路、SWSは不図示のレリーズスイッチ、シャ
ッタ、絞り等各種情報設定用のスイッチなどカメラの外
部並びに内部に配置されたスイッチ群である。 SPCは測光回路であり、その出力であるアナログ測光
信号SSPCは前記制御回路PRSのA/D変換機能付アナログ入
力ポートへ送られ、A/D変換されて前述のシャッタ制御
回路SHT及ひ絞り制御回路APRを制御するための測光デー
タとして用いられる。LCOMは制御信号CLCOMが入力して
いる間データバスDBUSを介して入力するデータを受け付
け、該データに基づいて後述するレンズユニットとシリ
アル通信を行うレンズ通信回路で、クロック信号LCKに
同期して撮影レンズFLNSの光軸方向への移動量を示すレ
ンズ駆動用のデータDCLを後述するレンズ内制御回路へ
伝送し、又この時同時に該レンズ内制御回路から撮影レ
ンズFLNSの非合焦量対レンズ移動量の係数等のレンズ情
報DLCがシリアル入力する。BSYは撮影レンズFLNSが移動
中であるか否かをカメラ側に知らせるための信号で、こ
の信号が“H"(ハイレベル)の時は前記シリアル通信は
不可能となる。 LNSUはレンズユニット、LPRSはシリアル入力したデー
タDCLに基づいてモータMTRを駆動し、撮影レンズFLNSを
光軸方向に移動させるレンズ内制御回路、ENCは例えば
撮影レンズFLNSを保持しているレンズ鏡筒の移動に伴っ
て発生するパルス信号を検出し、撮影レンズFLNSのその
時々の位置情報としてエンコーダパルス信号EPLをレン
ズ内制御回路LPRSへ出力するエンコーダ回路。 SDRは前記制御回路PRSより入力する各信号STR,CKに従
って2つのセンサ列SAA,SABを有する、例えばCCDなどの
ラインセンサSNSを制御するセンサ駆動回路である。 次に、動作について第2〜14図を用いて説明する。な
お、前記シャッタ制御回路SHT、絞り制御回路APR、表示
回路DSP及び測光回路SPCの動作は本発明とは直接関係な
いので、ここでは詳細な説明は省略する。又本実施例で
は、カメラのシーケンス・フローから「AF」フローがサ
ブルーチンとしてコールされる形式をとっている。 AFの動作が開始されると、先ずフラグRCFLGとフラグN
RSDFLGの2つのフラグを“N"(NOを意味する)とする
(第2図ステップ10)。前記フラグRCFLG、NRSDFLGの働
きについては後述する。次に像信号読み込みのサブルー
チン「IMAGE」をコールする(ステップ11)。ここで
は、センサ駆動回路SDRを介してラインセンサSNSが駆動
され、2像の像信号A(i),B(i)が得らるれ。この
時のセンサ駆動回路SDR及びラインセンサSNS等の動作を
第1,3図を用いて簡単に説明する。制御回路PRSより“H"
の蓄積開始信号STRが出力されると(第3図ステップ5
0)、センサ駆動回路SDRよりクリア信号CLがラインセン
サSNSへ出力され、センサ列SAA,SABの各光電変換部の電
荷がクリアされる。するとラインセンサSNSにて前段に
配置されている二次結像レンズ等(第1図では図示して
いないが、第15図の如き状態で配置されている)によっ
てセンサ列SAA,SAB上に形成される光像の光電変換及び
電荷蓄積動作が開始される。前記の動作が開始されてか
ら所定の時間が経過すると、センサ駆動回路SDRから転
送信号SHがラインセンサSNSへ出力され、光電変換部に
蓄積された電荷がCCD部へ転送される。同時に前記セン
サ駆動回路SDRには“H"の蓄積終了信号IENDが発生し、
該信号は制御回路PRSに入力される(ステップ51)。そ
の後制御回路PRSからCCD駆動クロックCKが出力される
と、センサ駆動回路SDRから駆動信号φ1が出力さ
れる。これにより、ラインセンサSNSからこの信号に従
ってアナログ像信号SSNSが制御回路PRSへ出力され、こ
れを受けて制御回路PRSはCCD駆動クロックCKに同時して
アナログ像信号SSNSをA/D変換し、2像の像信号A
(i),B(i)としてRAM内の所定のアドレスに格納す
る(ステップ52〜55)。ここでセンサ列SAA,SABの画素
数は40と仮定している。 再び第2図に戻って、ステップ12は非合焦状態によっ
て全画素を処理対象範囲として焦点検出演算を行うか、
一部の画素を処理対象範囲として焦点検出演算かを、つ
まり焦点検出演算を行う処理対象画素範囲の設定を行う
フラグVSNで、“WD"(大なる非合焦量を意味する)の時
は焦点検出用サブルーチン「WPRED」を、“NR"(合焦近
傍を意味する)の時は焦点検出用サブルーチン「NPRE
D」をコールする(ステップ12)。例えば、第4図のよ
うに像信号が合焦から大きくずれている場合にはサブル
ーチン「WPRED」を採用し、第5図のように合焦近傍に
なるとサブルーチン「NPRED」を採用する。なお、電荷
投入時フラグVSNは“WD"に設定(最初の時点であり、非
合焦状態がわからないため)されており、AFの動作が開
始されると、その時点における焦点状態により“WD"あ
るいは“NR"に再設定される。この再設定については後
述する。 サブルーチン「WPRED」がコールされた時の焦点検出
処理を第6図のフローに従って述べる。ステップ100〜1
05では、相対変位量kを「−20〜20」の範囲内で変えた
時の焦点評価量X(k)を求めている。ここで相対変位
量kを−20から20の範囲としているのは、前述の如くセ
ンサ列SAA,SABの画素数を「40」と仮定しているからで
あるが、この処理対象画素範囲は使用される撮影レンズ
FLNSの焦点距離に応じて可変としても良い。 まずステップ101ではM=39−|k|という式で演算画素
数Mを計算する。演算画素数Mは相対変位量kに応じて
可変であり、kの絶対値が大きい程小さくなる。これは
相対変位量kが大きくなるにつれて対応するセンサの出
力が端部から欠落していくからである。ステップ102で
相対変位量kの符号(正か負か)を調べ、次いでその符
号に応じてA像,B像の演算を開始する先頭の画素位置P
A,PBをステップ103或いは104で計算する。ステップ105
では焦点評価量X(k)の演算を行う。 ここで前記ステップ100〜105での処理過程を第7図を
用いて説明する。第7図(a)は2つの像信号A
(i),B(i)を表している。第7図(b)はk=−20
における相関演算のセンサ列の対応関係を表しており、
この時M=39−|20|=19で、PAは「0」,PBは「20」で
ある。即ち相対変位量kの負の値であるのでB像がk画
素(−20画素)だけ相対的に左側へ変位している。この
対応関係から更にB像を1画素左側へ変位した対応関係
で演算したのがX(−20)を求める場合の式の第1項
に、逆にA像を1画素左側へ変位した対応関係で演算し
たのが第2項に、それぞれ相当する。この第1項,第2
項でA像,B像を各1画素ずつ左へ変位して演算するた
め、前記演算画素Mを計算する時、M=40−|k|としな
いでM=39−|k|としている。第7図(c)はk=0の
時の対応関係を表している。第7図(d)はk=20にお
ける相関演算の対応関係を表しており、前記第7図
(b)とは逆にA像が20画素だけ左側に変位している。 前述のようにして演算した焦点評価量X(k)をプロ
ットしたものの一例を第8図に示す。 第6図のフローに戻って、ステップ110では焦点評価
量X(k)から2像A,Bの画素単位の像ずれ量のピーク
値kpを検出する。以下、ステップ120〜146で画素単位以
下の像ずれ量PRを求めるわけであるが、前記ステップ11
0で求めたピーク値kpに基づいて、ステップ120〜135で
は2つの焦点評価量X(k),Y(k)を再演算する。こ
の理由は二つある。一つは、kpを求める先のステップで
は演算画素数Mが相対変位量kに応じて可変であり、こ
の様に可変となる演算範囲にて演算した焦点評価量X
(k)を補間して画素単位以下の像ずれ量PRを求める
と、演算画素数Mが一致していないことに起因する誤差
を含む恐れがある。今一つは、焦点評価量X(k)のみ
で像ずれ量PRを求めるよりも、X(k),Y(k)を組み
合わせて用いた方が先願(特開昭60−101513号公報)に
て述べた様に被写体の信号パターンによってはS/N的に
すぐれているからである。以上のことから、ステップ12
0〜135では、kpを基に演算画素数Mを一定にし(ステッ
プ120)、焦点評価量X(k),Y(k)を同時に求めて
いる。 まずステップ120ではM=38−|kp|なる計算をして演
算画素数Mの値を決める。次いでステップ130〜135では
先に求めたkpを中心にして、k=kp−1,kp,kp+1の3
点で焦点評価量X(k),Y(k)を先と同様に演算す
る。尚、前記演算画素数Mを求める時、M=38−|kp|と
したのは、k=kp−1,kp,kp+1の3点のうち絶対値が
最大の相対変位量における演算画素数Mに固定するため
である。次に、前述のようにして求めた焦点評価量X
(k),Y(k)から再び各々の焦点評価量による画素単
位の像ずれ量kpx,kpyを検出する(ステップ140,141)。
この時各焦点評価量X(k),Y(k)のコントラスト評
価量を概ね表すXD(XD=X(kpx)−X(kpx+1))と
YD(YD=Y(kpx+1)−Y(kpx))も求めておく。こ
れは、この実施例では先願にて開示した様な演算方法に
従って相対変位毎に端部の像信号の大小を比較するので
はなく(演算処理が複雑になるため)、非合焦量が大き
い時に、端部の像信号の情報も考慮されたコントラスト
評価量XD,YDをみることがあたかも相対変位毎の端部の
像信号をみているかの如き情報が得られることに着目し
て該情報を用いるためであり、コントラスト評価量XD,Y
Dが大きい程S/N的にすぐれていることになる。それ故ス
テップ142で二つのコントラスト評価量XD,YDを比較し
て、XD≧YDの時は焦点評価量X(k)を採用し(ステッ
プ143)、XD<YDの時は焦点評価量Y(k)を採用する
(ステップ144)。ステップ145,146では、採用したZD
(Z1−Z2),kzを用いて PR=kz+|Z1/ZD| の補間演算を行い、画素単位以下の像ずれ量PRを求め
る。この過程を第9図に示している。この図の様な例で
は、XD<YDの関係にあるので焦点評価量Y(k)が採用
され、画素単位以下の像ずれ量PR演算時にはkz=kpy,Z1
=Y(kp),Z2=Y(kp+1)が用いられる。 ステップ150〜158は焦点状態を判定する処理であり、
まずステップ150で4つのフラグLCFLG,SDFLG,NJFFLG,JF
FLGを“N"にセットする。夫々のフラグの意味を定性的
に述べると、「LCFLG」は被写体像信号が低コントラス
トであることを表すフラグであり、「SDFLG」は2像の
ずれ量が比較的小さい、すなわち撮影レンズFLNSの非合
焦量が比較的小さいことを表すフラグであり、「NJFFL
G」は2像のずれ量がかなり小さい、すなわち撮影レン
ズFLNSが略合焦であることを表すフラグであり、「LFFL
G」は2像のずれ量がほとんどない、すなわち合焦であ
ることを表すフラグである。 次に、採用した焦点評価量のコントラスト評価量ZDと
所定値LCTHを比較する(ステップ151)。この結果ZD<L
CTHの場合にはコントラストが低いとみなし、「LCFLG」
を“Y"(YESを意味する)とし、サブルーチン「WPRED」
を終了する。ZD≧LCTHの場合には焦点検出を行うのに十
分なコントラストであるとみなし、次のステップ153へ
移行する。ステップ153では、像ずれ量PRの絶対値PRと
所定値「3」を比較し、PR>3の場合、即ち像ずれ量が
3画素以上である時にはサブルーチン「WPRED」を終了
する。PR≦3の場合は比較的非合焦量が小さいので「SD
FLG」を“Y"とし(ステップ154)、次いでPRと所定値
「1」を比較する(ステップ155)。この結果PR>1の
場合、即ち像ずれ量が1画素以上である時にはここでサ
ブルーチン「WPRED」を終了する。PR>1の場合には略
合焦であるとして「NJFFG」を“Y"とし(ステップ15
6)、最後にPRと所定値JFTHを比較する(ステップ15
7)。尚所定値JFTHは像ずれ量PRが合焦とみなし得る値
である。この結果PR>JFTHの場合にはここでサブルーチ
ン「WPRED」を終了する。PR≦JFTHの場合には合焦であ
るとみなして「JFFLG」を“Y"とし(ステップ158)、サ
ブルーチン「WPRED」を終了する。なお、前記4つのフ
ラグLCFLG,SDFLG,NJFFLG,JFFLGの働きについては後述す
る。 続いてサブルーチン「NPRED」について説明する。「N
PRED」は合焦近傍になると適用される焦点検出処理で、
全センサのうち、ファインダー内の測距枠に相当する範
囲内のデータでのみ焦点検出処理を行う。このことをフ
ァインダーとセンサ列SAの位置関係を示している第10図
を用いて説明する。該図においてFFRMはファインダー上
の測距枠である。サブルーチン「NPRED」では測距枠FFR
Mの範囲をさらにR1,R2,R3にて示す様に3つの領域に分
割し、各部毎に測距枠FFRM内の領域R1,R2,R3がセンサ列
SAのどの画素に位置しているかは各部の先頭に相当する
画素位置NR1,NR2,NR3を調整工程で予め調べておき、制
御回路PRS内のEEPROMに記憶させておく。この時各部に
含まれるNNPXは同じ(R1=R2=R3)であり、この値NNPX
も同様にEEPROMに記憶させておく。この実施例ではNNPX
=12で、NR1,NR2,NR3は夫々「8」,「14」,「20」で
あり、(NNPX+k)がこの場合の処理対象範囲となる
(第12図の斜線部分)。これらの値は焦点検出用光学系
並びにラインセンサSNSの取り付け状況に応じて数画素
ずれることがあるが、前記の如くEEPROMに記憶させてい
るため、測距枠FFRMと焦点検出処理を行う演算の範囲を
一致させることができる。前記第5図の像信号に対して
示しているR1,R2,R3が上記サブルーチン「NPRED」処理
における分割領域である。 サブルーチン「NPRED」がコールされた時の動作を第1
1図のフローに従って述べる。ステップ200で演算画素数
MをNNPXとする。前述したサブルーチン「WPRED」では
相対変位量kに応じて演算画素数Mは可変であったが、
この焦点検出処理ではNNPXに固定である。これは、「WP
RED」が全画素出力を演算に用いるのに対して、「WPRE
D」ではセンサ列SAの一部の出力を用いるために、変位
によって対応するセンサ出力の端のデータが欠落するこ
とがないからである。それ故「NPRED」では、「WPRED」
のステップ120〜141で行った演算画素数Mを一定にした
再演算を行うことはない。また、再演算を行わないと言
うことから、最初から評価量X(k),Y(k)を同時に
求めていく。 ステップ210〜221は領域R1の像のデータに対する焦点
検出処理である。図中「WPRED」と同一の処理部分は同
じステップ番号を付してある。サブルーチン「NPRED」
では相対変位量kの範囲を(−4〜4)としている。こ
れは「NPRED」が合焦近傍で適用されるものであるた
め、もともと像ずれ量が小さいからである。この場合ス
テップ212,213に示した様に、領域R1の先頭位置NR1が考
慮されている。この処理過程を第13図(a)に示す。図
中実線が焦点評価量X(k)を、又破線がY(k)を表
す。「WPRED」にて説明したのと同様の処理(ステップ1
40〜146)により領域R1における像ずれ量PR1を求める。
ステップ221で像ずれ量PR1とコントラスト評価量ZD1
制御回路PRS内のRAMに記憶しておく。同様に、ステップ
230〜241では領域R2におけるにおける像ずれ量PR2,コン
トラスト評価量ZD2(第13図(b)参照)を求め、ステ
ップ250〜261では領域R3における像ずれ量PR3,コントラ
スト評価量ZD3(第13図(c)参照)を求め、これらも
制御回路PRS内のRAMに記憶しておく。 ステップ270〜278では前述のようにして求めた3つの
領域R1,R2,R3の像ずれ量PR1,PR2,PR3のうち、いずれの
像ずれ量を最終的な像ずれ量PRとするかといった判断を
行っている。即ち、本実施例では3つの領域のうち、コ
ントラストが十分に高くて、且つ最大の像ずれ量を採用
するようにしている。ここで最大の像ずれ量を採用する
意味は、像ずれ量が正の時は後ピントであり、最も後ピ
ントの被写体とは最も至近側の被写体であり、その被写
体にピントを合わせるということである。最終的な像ず
れ量PRとコントラスト評価量ZDを求めた後、ステップ28
0で焦点状態の判定を行う。ここでの処理は「WPRED」に
て説明した処理と同様であるので、その説明は省略す
る。 以上のように、非合焦量が大きい様な状態にあっては
サブルーチン「WPRED」により、合焦近傍状態にあって
はサブルーチン「NPRED」により、その時の像ずれ量、
すなわち撮影レンズFLNSの非合焦量の検出を行うことが
できる。 第2図に戻って、ステップ15よりの説明を続ける。ス
テップ15はフラグLCFLGを見て先に行われた「WPRED」或
いは「NPRED」の焦点検出処理時でのコントラストをチ
ェックする。LCFLGが“Y"の時はコントラストが低いと
して次回の焦点検出処理は「WPRED」を用いるようにフ
ラグVSNを“WD"とし(ステップ35)、表示サブルーチン
「DISP」、レンズ制御サブルーチン「LENS」を実行する
(ステップ19,20)。前記表示サブルーチン「DISP」は
本発明とは直接関係ないのでここでは割愛するが、レン
ズ制御サブルーチン「LENS」については後述する。 ステップ16では再びフラグVSNをチェックする。VSNが
“WD"の時にはステップ17以下の処理を行い、“NR"の時
にはステップ28以下の処理を行う。 まずVSN=“WD"の時の処理を説明する。VSN=“WD"と
は、先の焦点検出処理を「WPRED」で行ったことを表
す。ステップ17ではフラグRCFLGをチェックする。RCFLG
は「AF」のルーチン内で2回焦点検出処理をするときは
“Y"となっている。本実施例では、「AF」のルーチンを
実行する時、最初は前回の「AF」で設定されたVSNで「W
PRED」或いは「NPRED」いずれかを実行する(なおレリ
ーズが行われた初期においてはVSNは“WD"となってい
る)が、その結果である像ずれ量がそれぞれの条件にふ
さわしくない時、VSNを設定し直してフラグRCFLGを“Y"
として今度は異なる焦点検出処理「NPRED」或いは「WPR
ED」を実行するようになる。RCFLGはそのためのフラグ
である。VSNの再設定については後述する。 フラグRCFLGが“N"、即ち第1回目の焦点検出処理の
時、フラグSDFLGをチェックする(ステップ18)。SDFLG
は前述した様に「WPRED」或いは「NPRED」中で設定され
るフラグで(このステップでのSDFLGは「WPRED」中に設
定されている)、このフラグが“Y"(3画素以内)の時
は現在の焦点状態が比較的合焦に近いことを意味してい
る。従って、VSNが“WD"でSDFLGが“N"(3画素以上)
ならば、「WPRED」は適切であったとして表示サブルー
チン「DISP」、レンズ制御サブルーチン「LENS」の実行
へと移行する。一方、SDFLGが“Y"であれば「NPRED」で
再演算した方が適切である、即ち精度の良い像ずれ量PR
を得ることができると考えて、VSNを“NR"にし(ステッ
プ21)、像ずれ量PRをバッファBPRに一時格納し(ステ
ップ22)、RCFLGを“Y"として(ステップ23)、再度ス
テップ12よりのルーチン(実際はステップ12→ステップ
14→ステップ15→ステップ16→ステップ28→ステップ33
→)の実行へと移行する。前記ステップ22において像ず
れ量PRをバッファBPRに一時格納する理由は、次のサブ
ルーチン「NPRED」にて演算した結果が適切でない場
合、つまり「NPRED」にて演算した結果、ステップ33で
のSDFLGが“N"(3画素以上)であった場合、サブルー
チン「WPRED」1回目で得た像ずれ量PRを採用するため
である(ステップ34→ステップ27→)。 ステップ17でRCFLGが“Y"の時、即ち2回目の焦点検
出処理の時は、ステップ24へ移行しここでSDFLGをチェ
ックする。その結果SDFLGが“N"の場合はこの時の焦点
出距離が「WPRED」であるからここでの焦点検出処理は
適切であるとして表示サブルーチン「DISP」、レンズ制
御サブルーチン「LENS」の実行へと移行する。又、SDFL
Gが“Y"の場合は、RCFLGが“Y"でVSNが“WD"であるか
ら、1回目の焦点検出処理は「NPRED」で行われ、且つ
結果が「NPRED」では適切でなかったことになる。後述
するが、「NPRED」の1回目では、フラグNJFFLGが
“Y"、すなわち略合焦でなければ適切でないと判断して
いるが、SDFLGが“Y"であればフラグNRSDFLGを“Y"(合
焦ではないが1画素以内である)としている。つまりNR
SDFLGが“Y"であれば、「NPRED」の1回目において、略
合焦ではないが比較的合焦に近かったことを意味してい
る。この時「NPRED」での像ずれ量PRはバッファBPRに一
時格納されている。従ってステップ24でSDFLGが“Y"な
らば、「WPRED」2回目で比較的合焦に近いということ
であるので、「NPRED」1回目の結果を参照すべくステ
ップ25でフラグNRSDFLGをチェックする。ここでNRSDFLG
が“N"(1画素以上)ならば、1回目は適切でないこと
になり、「WPRED」2回目の像ずれ量PRを用いて表示サ
ブルーチン「DISP」、レンズ制御サブルーチン「LENS」
の実行へと移行する。NRSDFLGが“Y"ならば、次回の「A
F」では1回目の焦点検出処理を「NPRED」にすべくVSN
を“NR"とし(ステップ26)、バッファBPR内に既に格納
済みの「NPRED」1回目での像ずれ量PRを取り出して
(ステップ27)、表示サブルーチン「DISP」、レンズ制
御サブルーチン「LENS」の実行へ一時と移行する。 フローを逆上って、ステップ16でVSNが“NR"と判断さ
れた場合はステップ28でフラグRCFLGをチェックする。
ここでRCFLGが“N"の時は、「NPRED」1回目を、“Y"の
時は「NPRED」2回目を意味している。“N"の場合には
ステップ29でSDFLGをチェックする。SDFLGが“N"の時は
「NPRED」では適切でないとして、2回目の焦点検出処
理を「WPRED」で行わせるべくVSNを“WD"とし(ステッ
プ30)、「WPRED」での像ずれ量PRをバッファBPRに一時
格納し(ステップ22)、RCFLGを“Y"として(ステップ2
3)、再びステップ12よりのルーチンの実行へと移行す
る(実際はステップ12→ステップ13→ステップ15→ステ
ップ17→ステップ24→)の実行へと移行する。ステップ
29でSDFLGが“Y"であった時はステップ31でフラグNJFFL
Gをチェックする。これは先のステップ25でも説明した
が、「NPRED」1回目ではNJFFLGによって焦点検出処理
が適切であったか否かを判定している。ステップ31でNJ
FFLGが“N"(1画素以上、3画素以内)ならば略合焦で
はないが比較的合焦に近いということで、もしもの場合
を考えて再度行う焦点検出処理「WPRED」2回目のステ
ップ25において使用するために、フラグNRSDFLGを“Y"
としてステップ30へと移行する。またステップ22でバッ
ファBRPに一時格納される「NPRED」1回目の像ずれ量PR
は必要に応じて、即ち「WPRED」2回目のステップ27に
おいて使用される。 前記ステップ28で、RCFLGが“Y"の時は「NPRED」2回
目であり、前述からもわかるように1回目は「WPRED」
において結果が不適切と判定されたことを意味する。又
前述した用に、ステップ33でSDFLGをチェックして“Y"
ならば「NPRED」2回目は適切と判定し、そのままの像
ずれ量PRで表示サブルーチン「DISP」、レンズ制御サブ
ルーチン「LENS」の実行へと移行する。SDFLGが“N"で
あれば「NPRED」2回目は不適切として、次回の「AF」
における焦点検出処理を「WPRED」に設定すべくVSNを
“WD"とし(ステップ34)、「WPRED」1回目で一時記憶
バッファBPRに格納されている像ずれ量PRを取り出して
(ステップ27)、表示サブルーチン「DISP」、レンズ制
御サブルーチン「LENS」の実行へと移行する。 以上の「AF」の処理の流れを簡単にまとめると、「A
F」がコールされると、センサ列SAの像信号を読み込み
(「IMAGE」)、焦点検出処理「WPRED」或いは「NPRE
D」を行うわけであるが、「WPRED」は非合焦量が大きい
時に、「NPRED」は合焦近傍時に適用されるという前提
のもとに、検出された像ずれ量がその時の処理に不適切
な場合、適切な処理方式にて同一像信号を再演算し、結
局レンズ制御に採用する像ずれ量PRは、非合焦量が大き
い時には「WPRED」により、合焦近傍時には「NPRED」に
より演算されたものとなる。つまり、非合焦量が大きい
時には「WPRED」により焦点検出処理を行った方が非合
焦状態が良くわかり、この結果が合焦近傍時であると判
断された場合には「NPRED」により焦点検出処理を行っ
た方が焦点検出精度を高めることができるからである。 逆に、第14図のフローを用いてサブルーチン「LENS」
について説明する。ステップ60でフラグLCFLGをチェッ
クする。このフラグは前述した様に焦点検出処理の対象
となる像信号のコントラスト評価量が高い時は“N"とな
っている。LCFLGが“N"の時は、像信号には焦点検出処
理に十分なコントラストがあったとして、処理結果であ
る像ずれ量PRに基づいて撮影レンズFLNSの制御を行う。
まずレンズ通信回路LCOMに入力する信号BSYをチェック
する(ステップ61)。この信号BSYが“H"の間はレンズ
内制御回路LPRSとは通信不能であるので、該信号BSYが
“L"(ローレベル)になるまで待つ。前記信号BSYが
“L"になると、レンズ内制御回路LPRSから撮影レンズFL
NSのデフォーカス対レンズ移動量の係数Sを信号DLCよ
り入力する(ステップ62)。次に像ずれ量PRから撮影レ
ンズFLNSのデフォーカス量DEFを、DEF=K・PRなる式に
て計算する(ステップ63)。Kは焦点検出用光学系によ
って設定される値で、予め設定されている。続いてデフ
ォーカス量DEFと係数から撮影レンズFLNSの移動量FP
を、FP=DEF/Sで計算する(ステップ64)。FPはエンコ
ーダ回路ENCのカウント数に相当する。そして、ステッ
プ65で再び信号BSYのチェックを行い、信号BSYが“L"と
なると、前記レンズ移動量FP(信号DCL)をレンズ内制
御回路LPRSへ通信する(ステップ66)。一方、LCFLGが
“Y"の時は、コントラストが十分でないでないとして、
サーチ動作を行うべく撮影レンズFLNS移動量FPを、FP=
CDEF/Sで計算する(ステップ67)。CDEFは1回のサーチ
動作で移動させるレンズ移動量をデフォーカス量に換算
してものであり、予め設定されている。 レンズ内制御回路LPRSは前記レンズ移動量FPが入力す
ると、該情報に基づいて撮影レンズFLNSの駆動制御を行
う。撮影レンズFLNSが停止することにより、像信号A
(i),B(i)の入力から始まった焦点調節の一連の
「AF」処理が終了する。 本実施例によれば、ファインダ測距枠に対応する画素
の範囲(有効範囲)を調整工程で予め調べておき、EEPR
OM内に記憶させておく様にしているため、機械的調整が
不用となり、作業能率が非常に良いものとなる。また、
同一の構成から成るカメラで、ファインダー測距枠のみ
を異なるもの(マット面、スプリットイメージ)に変更
したい様な場合でも、その変更が容易となる。更に、組
立て終了後、センサに感度ムラがあることがわかった場
合、或いはAF光学系に収差があることがわかった場合
等、その部分を避けて使用するといったことを容易にで
きる。 (発明と実施例の対応) 本実施例において、撮影レンズFLNSが本発明の結像光
学系に、フィールドレンズFLD,二次結像レンズFCLA,FCL
Bが光学系に、センサ列SAA,SABが複数画素から成る光電
変換手段に、CPUが演算手段に、EEPROMが記憶手段に相
当する。 (変形例) 本実施例では、「像ずれ型」の装置について説明した
が、これに限定されるものではなく、焦点面でコントラ
スト変化を検出する、いわゆる「鮮鋭度型」の焦点検出
装置にも適用することが可能である。 (発明の効果) 以上説明したように、本発明によれば、観察手段の焦
点検出領域に対応する、有効な光電変換手段信号を発生
する有効画素範囲を記憶する記憶手段を設け、以て、前
記記憶手段に記憶された有効画素範囲の光電変換信号に
より焦点検出処理を行うようにしたから、光電変換手段
の機械的調整を行うことなく、観察手段の焦点検出領域
と光電変換手段の画素上の焦点検出領域を容易に一致さ
せることができる。
DETAILED DESCRIPTION OF THE INVENTION (Industrial applications)   The present invention is based on the relative positional relationship between two images of an object
To an optical device including a focus detection device for detecting
Things. (Background of the Invention)   Conventionally, as one type of camera focus detection device,
Light flux that splits the exit pupil of the imaging lens and passes through each pupil area
By observing the relative position displacement of the pair of images formed by
A so-called "image shift type" is known, which determines the focus state.
You.   As a signal processing method to detect the image shift amount from the image signal
Are disclosed in JP-A-58-142306 and U.S. Pat.
Although the information is disclosed, all are output from the sensor.
Focus detection processing using signals within all or fixed range
Was to do. For this reason, install it in the viewfinder.
The focus detection range, that is, the distance measuring frame is the entire area of the sensor
Smaller than the above, and is misaligned in the column direction of the sensor
In this case, the focus can be detected even if the subject is located within the ranging frame.
Cannot be detected, or conversely, focus detection for something outside the rangefinder frame
There was an inconvenience. In other words,
The field of view that differs from the actual field of view for focus detection.
In such a case, accurate focus detection could not be performed.   Conventionally, mechanical methods are used to deal with the above points.
The sensor and distance measuring frame are aligned by
Was. For this reason, it is very time-consuming and inefficient.
It was. Also, for example, different measurements may be
It is possible that you may want to change to a distance frame, but such a
In some cases, the above was remarkable. (Object of the invention)   The object of the present invention is to solve the above-mentioned problems and to perform photoelectric conversion.
Focus detection of observation means without mechanical adjustment of means
The area, the photoelectric conversion means, and the focus detection area on the pixel can be easily integrated.
An optical device that includes a focus detection device
To provide. (Features of the invention)   In order to achieve the above object, the present invention comprises a plurality of pixels.
The photoelectric conversion means and the light passing through the imaging optical system
An optical system for forming an image on a photoelectric conversion means and the photoelectric conversion means.
By performing the predetermined focus detection processing on the
The calculation means for detecting the focus state of the imaging optical system.
Focus detection device provided, and object through the imaging optical system
Observation with a focus detection area
An optical device including means corresponding to the focus detection area
The effective pixel range that produces an effective photoelectric conversion signal.
A memory means for storing is provided, so that it is stored in the memory means.
Focus detection processing is performed using photoelectric conversion signals in the effective pixel range.
It is characterized by doing so. (Example of the invention)   First of all, the focus detection principle of this type of device
It will be described with reference to FIG. Focusing lens to be detected
The field lens FLD is placed with the same optical axis as FLNS.
It is. At the rear position, symmetrically with respect to the optical axis, the two
Secondary imaging lenses FCLA and FCLB are arranged. Further behind
Sensor arrays SAA and SAB are arranged in the. Secondary imaging lens FCLA,
Diaphragms DIA and DIB are installed near the FCLB. field
The lens FLD forms two secondary images of the exit pupil of the taking lens FLNS.
Images are formed on the pupil planes of the lenses FCLA and FCLB. As a result,
The ray bundles incident on the subsequent imaging lenses FCLA and FCLB are
Each secondary imaging lens on the exit pupil plane of the shooting lens FLNS
Corresponding to FCLA, FCLB, do not overlap each other, etc.
It is ejected from the area of the area. Field Ren
The aerial image formed near the FLD is the secondary imaging lens FCLA,
When re-imaged on the surface of the sensor array SAA, SAB by FCLB,
Based on the displacement of the aerial image position in the optical axis direction, the sensor array SAA, SA
The two images on B will change their positions. Therefore, 2
If the displacement (deviation) of the relative position of the image is detected, the shooting lens
You can know the focus state of the FLNS.   No image from the image signal output from the sensor array SAA, SAB
As a signal processing method for detecting the amount of deviation, Japanese Patent Laid-Open No. 58-1423
06, JP-A-59-107313, JP-A-60-101513
The gazette and the like are disclosed by the applicant of the present application. concrete
, N is the number of pixels forming the sensor array SAA or SAB,
Image from the i-th (i = 0, ..., N-1) sensor array SAA, SAB
When signals are A (i) and B (i) OrBecomes k1≤k ≤kTwoIs calculated. Note that M is (M =
N- | k | -1) is the number of pixels calculated, and k is the phase
Called the amount of displacement, k1, kTwoIs usually taken to be −N / 2, N / 2.
And many. Here, the operator max {a, b} is the largest of a and b.
The operator min {a, b} represents that
Indicates that the smaller of a and b is extracted. Therefore, before
The term X in the expressions (1) and (2)1(K), XTwo(K), Y
1(K), YTwo(K) can be considered as a correlation amount in a broad sense.
Further, looking at the equations (1) and (2) in detail, X
1(K), Y1(K) is actually the upper part in (k-1) displacement
X is the correlation amount defined byTwo(K), YTwo(K) is
The correlation amount at the displacement of (k + 1) is shown respectively.
You. Therefore X1(K), XTwoEvaluation amount X which is the difference of (k)
(K) is the image signal A (i), B (i) at the relative displacement amount k.
Means the amount of change in the correlation amount of.   X1(K), XTwoThe correlation amount (k) is clear from the above definition
When the correlation between the two images is highest, it is the smallest. Yo
X (k), which is the amount of change, is “0” when the correlation is highest.
And the slope should be negative. However, X (k)
Is discrete data, so in practice X (kp) ≧ 0, X (kp + 1) <0 (3)   And, the section of the relative displacement where X (kp) -X (kp + 1) is maximum
It is thought that there is a peak of the correlation amount in the interval [kp, kp + 1]
hand, Image interpolation amount less than pixel unit
PR can be detected.   Meanwhile, Y1(K), YTwoFrom the above definition, the correlation amount of (k) is
When the two images have the highest correlation, X1(K), XTwoThe opposite of (k)
Is the largest. Therefore, the change amount Y (k) is a correlation
It should be "0" at the highest and the slope should be positive.
You. Y (k) is the same as X (k) Y (kp) ≦ 0, Y (kp + 1)> 0 (6) And when Y (kp) -Y (kp + 1) is the maximum Image interpolation amount less than pixel unit
PR can be detected.   In addition, the focus evaluation amount of either X (k) or Y (k) is used.
Even if it is possible to detect the amount of image deviation,
As can be seen from the publication, | X (kp) -X (kp + 1) |> | Y
When (kp + 1) -Y (kp) |, the focus evaluation amount X (k)
, | X (kp) -X (kp + 1) |> | Y (kp + 1) -Y (k
When p) |, the focus evaluation amount Y (k) is used and the image shift amount PR
The S / N accuracy is better when the is calculated.   FIG. 1 is a block diagram showing one embodiment of the present invention.
PRS is a camera control circuit, for example, a CPU (central processing unit)
Processing unit), RAM, ROM, EEPROM (electrically erasable program
Mable ROM), input / output port and analog with A / D conversion function
1-chip micro computer with input port etc.
The camera sequence and AF are stored in the ROM.
(Auto focus), AE (auto exposure) control software
However, the parameters required for AF and AE control are stored in the EEPROM.
Have been. SHT is the control signal CCHT from the control circuit PRS
Data input via the data bus DBUS during input
And the shutter front curtain (not shown) based on the data
Also, the shutter control circuit that controls the running of the rear curtain and the APR are controlled.
Input via the data bus DBUS while the control signal CAPR is input.
Accept data to be input, and based on the data, not shown
A diaphragm control circuit that controls the diaphragm mechanism, DSP is a control signal CDSP
Data that is input via the data bus DBUS
Data and displays various shooting information based on the data
Display circuit, SWS is a release switch
Outside the camera, such as switches for setting various information such as
And a group of switches arranged inside the unit.   SPC is a photometric circuit and its output is analog photometry.
Signal SSPC is an analog input with A / D conversion function of the control circuit PRS.
Input to the input port, A / D converted and shutter control described above
Circuit SHT and aperture control circuit Photometric data for controlling APR
It is used as a data. LCOM receives the control signal CLCOM
Receives data input via the data bus DBUS while
On the basis of the data, the lens unit and the
It is a lens communication circuit that performs Al communication,
A record indicating the amount of movement of the shooting lens FLNS in the optical axis direction in synchronization.
Data DCL for lens drive to the control circuit in the lens described later
At the same time, the image is transmitted from the control circuit in the lens.
Lens information such as the coefficient of out-of-focus amount vs. lens movement amount of the lens FLNS.
Report DLC input serially. BSY moves the shooting lens FLNS
It is a signal to inform the camera side whether it is in the middle.
When the signal of is "H" (high level), the serial communication is
It will be impossible.   LNSU is the lens unit and LPRS is the serial input data.
Drive the motor MTR based on the DCL
The lens internal control circuit that moves in the optical axis direction, ENC is
As the lens barrel holding the shooting lens FLNS moves
The pulse signal generated by the
The encoder pulse signal EPL is
In-circuit control circuit Encoder circuit that outputs to LPRS.   SDR follows the signals STR and CK input from the control circuit PRS.
Has two sensor rows SAA, SAB, such as CCD
It is a sensor drive circuit that controls the line sensor SNS.   Next, the operation will be described with reference to FIGS. What
The shutter control circuit SHT, aperture control circuit APR, display
The operations of the circuit DSP and the photometric circuit SPC are not directly related to the present invention.
Therefore, detailed description is omitted here. Also in this embodiment
Shows the "AF" flow from the sequence flow of the camera.
It takes the form called Brutin.   When the AF operation starts, first the flag RCFLG and the flag N
Set the two flags of RSDFLG to "N" (meaning NO)
(Step 10 in Figure 2). The operation of the flags RCFLG and NRSDFLG
The details will be described later. Next, the subroutine for reading the image signal
Call Chin "IMAGE" (step 11). here
Drives the line sensor SNS via the sensor drive circuit SDR
Then, two image signals A (i) and B (i) are obtained. this
Operation of the sensor drive circuit SDR and line sensor SNS etc.
A brief description will be given with reference to FIGS. "H" from control circuit PRS
When the accumulation start signal STR is output (Step 5 in FIG. 3)
0), the clear signal CL from the sensor drive circuit SDR
It is output to the SNS and the voltage of each photoelectric conversion unit of the sensor array SAA, SAB is
The load is cleared. Then on the line sensor SNS
Secondary imaging lens, etc. (shown in FIG. 1)
However, it is arranged as shown in Fig. 15).
Photoelectric conversion of the optical image formed on the sensor array SAA, SAB
The charge storage operation is started. Is the above operation started?
After a predetermined time, the sensor drive circuit SDR
The transmission number SH is output to the line sensor SNS and is sent to the photoelectric conversion unit.
The accumulated charge is transferred to the CCD section. At the same time
The "H" accumulation end signal IEND is generated in the drive circuit SDR,
The signal is input to the control circuit PRS (step 51). So
CCD drive clock CK is output from the post-control circuit PRS
And the drive signal φ from the sensor drive circuit SDR1, φ2Is output
It is. This allows the line sensor SNS to follow this signal.
The analog image signal SSNS is output to the control circuit PRS.
In response to this, the control circuit PRS is synchronized with the CCD drive clock CK.
The analog image signal SSNS is A / D converted and the two image signals A
Store as (i), B (i) at a predetermined address in RAM
(Steps 52-55). Here, the pixels of the sensor array SAA, SAB
The number is assumed to be 40.   Returning to FIG. 2 again, step 12 is
Focus calculation using all pixels as the processing target range, or
Whether to perform focus detection calculation with some pixels as the processing target range
Set the processing target pixel range for round focus detection calculation
When "WD" (meaning a large out-of-focus amount) is set with the flag VSN
Is the focus detection subroutine "WPRED" and "NR"
(Meaning by the side), the focus detection subroutine "NPRE"
Call "D" (step 12). For example, in Figure 4
When the image signal is significantly out of focus,
Adopted "WPRED" to adjust the focus to near the focus as shown in Fig. 5.
Then, the subroutine "NPRED" is adopted. Note that the charge
The power-on flag VSN is set to "WD".
Since the focus state is unknown), the AF operation has started.
When it is started, "WD" is set depending on the focus state at that time.
Rui is reset to "NR". Later on this resetting
Will be described.   Focus detection when the subroutine "WPRED" is called
The processing will be described according to the flow of FIG. Steps 100-1
In 05, the relative displacement k was changed within the range of “-20 to 20”.
The focus evaluation amount X (k) at the time is calculated. Where relative displacement
The amount k is set in the range of −20 to 20 as described above.
It is assumed that the number of pixels in the sensor array SAA, SAB is "40".
However, this processing target pixel range is used for the shooting lens
It may be variable according to the focal length of FLNS.   First, in step 101, the calculation pixel is calculated by the formula M = 39− | k |
Calculate the number M. The number of calculated pixels M depends on the relative displacement amount k.
It is variable and decreases as the absolute value of k increases. this is
As the relative displacement amount k increases, the corresponding sensor output
This is because the force is missing from the end. In step 102
Check the sign (whether positive or negative) of the relative displacement amount k, and then
Pixel position P at the beginning of the calculation of A image and B image according to the number
A and PB are calculated in step 103 or 104. Step 105
Then, the focus evaluation amount X (k) is calculated.   Here, FIG. 7 shows the processing steps in steps 100 to 105.
It demonstrates using. FIG. 7 (a) shows two image signals A
(I) and B (i) are shown. FIG. 7 (b) shows k = −20.
Represents the correspondence of the sensor array for the correlation calculation in
At this time, M = 39− | 20 | = 19, PA is “0”, PB is “20”.
is there. That is, since the relative displacement amount k is a negative value, the B image is
Only the pixel (-20 pixels) is relatively displaced to the left. this
Correspondence in which B image is further displaced to the left by one pixel from the correspondence.
Is the first term of the formula when X (−20) is calculated
On the contrary, the image A is calculated by the correspondence relationship that is displaced to the left by one pixel.
The second item corresponds to the second item, respectively. This first term, second
In the section, the A image and the B image are displaced by 1 pixel each to the left and calculated.
Therefore, when calculating the calculation pixel M, M = 40− | k |
Then, M = 39− | k |. FIG. 7 (c) shows that k = 0.
It represents the correspondence of time. In FIG. 7 (d), k = 20
7 shows the correspondence of the correlation calculation in FIG.
Contrary to (b), the image A is displaced to the left by 20 pixels.   The focus evaluation amount X (k) calculated as described above is calculated by the professional.
FIG. 8 shows an example of the set products.   Returning to the flow of FIG. 6, in step 110, focus evaluation
From the amount X (k), the peak of the amount of image shift in pixel units of 2 images A and B
Find the value kp. Below, in steps 120 to 146
The lower image shift amount PR is obtained by the above step 11
Based on the peak value kp found in 0, in steps 120-135
Recalculates the two focus evaluation quantities X (k) and Y (k). This
There are two reasons. One is the previous step to find kp
Is the number of calculated pixels M is variable according to the relative displacement amount k.
Focus evaluation amount X calculated in the variable calculation range
(K) is interpolated to obtain the image shift amount PR less than the pixel unit
And the error due to the number of calculated pixels M not matching
May be included. Another one is only the focus evaluation amount X (k)
X (k), Y (k) is combined rather than the image shift amount PR is calculated with
It is better to use them together in the earlier application (Japanese Patent Laid-Open No. 60-101513)
As mentioned above, depending on the signal pattern of the subject, S / N
Because it is excellent. From the above, Step 12
From 0 to 135, the number of calculation pixels M is made constant based on kp (step
120) and the focus evaluation values X (k) and Y (k) are obtained at the same time.
I have.   First, in step 120, the calculation is performed such that M = 38− | kp |
The value of the number of calculated pixels M is determined. Then in steps 130-135
Centering on kp obtained earlier, k = kp−1, kp, kp + 1 3
At the point, the focus evaluation values X (k) and Y (k) are calculated in the same manner as above.
You. When calculating the number of calculated pixels M, M = 38− | kp |
What was done is that the absolute value of the three points of k = kp−1, kp, kp + 1
To fix the number of calculation pixels M at the maximum relative displacement
It is. Next, the focus evaluation amount X obtained as described above
From (k) and Y (k) again, the pixel singles according to each focus evaluation amount
The image shift amounts kpx and kpy are detected (steps 140 and 141).
At this time, the contrast evaluation of each focus evaluation amount X (k), Y (k)
XD (XD = X (kpx) -X (kpx + 1)), which represents the valence,
YD (YD = Y (kpx + 1) -Y (kpx)) is also obtained. This
This is based on the calculation method disclosed in the previous application in this embodiment.
Therefore, the magnitude of the image signal at the end is compared for each relative displacement.
Not (because the calculation process becomes complicated), the out-of-focus amount is large.
Contrast when the image signal information at the edges is taken into consideration
Sometimes the evaluation values XD and YD are seen as if the end of each relative displacement
Paying attention to the fact that you can obtain information as if you were looking at an image signal.
This is because the information is used for the contrast evaluation amount XD, Y
The larger D is, the better the S / N is. Therefore
In Step 142, compare the two contrast evaluation values XD and YD.
When XD ≧ YD, the focus evaluation amount X (k) is adopted (step
143), when XD <YD, the focus evaluation amount Y (k) is adopted.
(Step 144). In steps 145 and 146, the adopted ZD
(Z1−ZTwo), Kz PR = kz + | Z1/ ZD | Image interpolation amount PR is calculated by substituting pixel
You. This process is shown in FIG. In an example like this figure
Has a relationship of XD <YD, so the focus evaluation amount Y (k) is adopted.
When the image shift amount PR is calculated in pixel units or less, kz = kpy, Z1
= Y (kp), ZTwo= Y (kp + 1) is used.   Steps 150 to 158 are processes for determining the focus state,
First, in step 150, four flags LCFLG, SDFLG, NJFFLG, JF
Set FLG to “N”. Qualitative meaning of each flag
In other words, "LCFLG" has a low contrast image signal.
It is a flag that indicates that it is a
The amount of displacement is relatively small, that is, the shooting lens FLNS
This is a flag that indicates that the amount of focus is relatively small.
“G” has a fairly small displacement between the two images, that is, the shooting lens
This is a flag that indicates that the FLNS is almost in focus.
"G" has almost no deviation between the two images, that is, in focus
It is a flag that indicates that.   Next, the contrast evaluation amount ZD of the focus evaluation amount adopted
The predetermined value LCTH is compared (step 151). This results in ZD <L
In the case of CTH, the contrast is considered to be low, and "LCFLG"
Is "Y" (meaning YES), and the subroutine "WPRED"
To end. When ZD ≧ LCTH, it is not enough to perform focus detection.
Assuming that the contrast is sufficient, go to the next step 153.
Transition. In step 153, the absolute value PR of the image shift amount PR and
When a predetermined value “3” is compared and PR> 3, that is, the image shift amount is
When it is 3 pixels or more, the subroutine "WPRED" ends.
I do. When PR ≦ 3, the out-of-focus amount is relatively small, so “SD
FLG "is set to" Y "(step 154), then PR and a predetermined value
"1" is compared (step 155). As a result, PR> 1
If the image shift amount is more than 1 pixel,
Brutin "WPRED" is finished. Omitted when PR> 1
"NJFFG" is set to "Y" because it is in focus (step 15).
6) Finally, compare PR with the predetermined value JFTH (step 15).
7). Note that the predetermined value JFTH is a value at which the image shift amount PR can be regarded as being in focus.
It is. If PR> JFTH as a result of this, here is a subroutine
End "WPRED". When PR ≦ JFTH, focus is achieved.
Therefore, set “JFFLG” to “Y” (step 158), and
Brutin "WPRED" is finished. In addition, the above four
The functions of lag LCFLG, SDFLG, NJFFLG, JFFLG will be described later.
You.   Next, the subroutine "NPRED" will be described. "N
"PRED" is a focus detection process that is applied near the in-focus point.
Of all the sensors, the range equivalent to the rangefinder frame in the viewfinder
Focus detection processing is performed only on the data within the circle. This thing
FIG. 10 showing the positional relationship between the finder and the sensor array SA
This will be described with reference to FIG. In the figure, FFRM is on the viewfinder
It is a distance measuring frame. Distance measurement frame FFR in subroutine "NPRED"
M range further R1, RTwo, RThreeDivided into 3 areas as shown in
Area R in the ranging frame FFRM for each part1, RTwo, RThreeIs the sensor row
Which pixel of SA corresponds to the beginning of each part
Pixel position NR1, NRTwo, NRThreeIn advance during the adjustment process
It is stored in the EEPROM in the control circuit PRS. At this time to each part
The included NNPX are the same (R1= RTwo= RThree) And this value NNPX
Similarly, it is also stored in the EEPROM. In this example, NNPX
= 12, NR1, NRTwo, NRThreeAre "8", "14" and "20" respectively
Yes, (NNPX + k) is the processing target range in this case
(The shaded area in Figure 12). These values are the optical system for focus detection
And several pixels depending on the installation status of the line sensor SNS
Although it may shift, it is stored in the EEPROM as described above.
Therefore, the range of calculation for performing focus detection processing with the focus detection frame FFRM
Can be matched. For the image signal of FIG.
Showing R1, RTwo, RThreeIs the above subroutine "NPRED" processing
Is a divided area in.   The first operation when the subroutine "NPRED" is called
It will be described according to the flow of Fig. 1. Number of pixels calculated in step 200
Let M be NNPX. In the above-mentioned subroutine "WPRED"
Although the number of calculation pixels M was variable according to the relative displacement amount k,
This focus detection process is fixed to NNPX. This is WP
"RED" uses all pixel output for calculation, while "WPRE"
In “D”, the displacement of the sensor array SA is used because part of the output is used.
May cause data at the end of the corresponding sensor output to be lost.
Because there is nothing. Therefore, in "NPRED", "WPRED"
The number of calculation pixels M performed in steps 120 to 141 of is fixed.
No recalculation is done. Also, say that the recalculation is not
Therefore, the evaluation quantities X (k) and Y (k) are calculated simultaneously from the beginning.
To seek.   Steps 210-221 are area R1Focus on image data
This is a detection process. The same processing parts as "WPRED" in the figure are the same
The same step number is attached. Subroutine "NPRED"
Then, the range of the relative displacement amount k is set to (-4 to 4). This
This is what "NPRED" is applied near focus.
Therefore, the image shift amount is originally small. In this case
Region R, as shown in steps 212 and 2131Start position NR1Is considered
Is being considered. This process is shown in FIG. 13 (a). Figure
The solid line represents the focus evaluation amount X (k), and the broken line represents Y (k).
You. The same process as described in "WPRED" (Step 1
40 ~ 146) according to area R1Image displacement amount PR1Ask for.
PR in step 2211And contrast evaluation amount ZD1To
It is stored in the RAM in the control circuit PRS. Similarly, step
Area R from 230 to 241TwoImage shift amount PR atTwo, Con
Trust evaluation amount ZDTwo(See Fig. 13 (b))
Up 250-261 area RThreeImage displacement amount PRThreeContra
Strike amount ZDThree(See Fig. 13 (c))
It is stored in the RAM in the control circuit PRS.   In steps 270-278, the three
Area R1, RTwo, RThreeImage shift amount PR1, PRTwo, PRThreeWhich of
Determine whether to use the image shift amount as the final image shift amount PR
Is going. That is, in this embodiment, the
The trust is high enough and the maximum image shift amount is adopted.
I am trying to do it. Adopt the maximum image shift amount here
The meaning is that the rear focus is set when the image shift amount is positive, and the rearmost focus is set.
The subject is the closest subject, and
It means focusing on the body. The final image
After obtaining the amount PR and the contrast evaluation amount ZD, step 28
The focus state is determined at 0. Processing here is "WPRED"
Since the processing is the same as that described above, the description thereof is omitted.
You.   As described above, when the amount of defocus is large
By the subroutine "WPRED",
Is the amount of image shift at that time by the subroutine "NPRED",
That is, it is possible to detect the out-of-focus amount of the shooting lens FLNS.
it can.   Returning to FIG. 2, the explanation from step 15 is continued. S
Step 15 sees the flag LCFLG, "WPRED" or
Check the contrast during focus detection processing of “NPRED”.
Check. When LCFLG is “Y”, the contrast is low
Then, in the next focus detection process, use "WPRED".
Set lag VSN to "WD" (step 35) and display subroutine
Execute "DISP" and lens control subroutine "LENS"
(Steps 19, 20). The display subroutine "DISP" is
Since it is not directly related to the present invention, it is omitted here.
The control subroutine "LENS" will be described later.   In step 16, the flag VSN is checked again. VSN
When it is "WD", the processing from step 17 onwards is performed, and when it is "NR"
To do this, the processing from step 28 onward is performed.   First, the processing when VSN = "WD" will be described. VSN = "WD"
Indicates that the previous focus detection process was performed with "WPRED".
You. In step 17, the flag RCFLG is checked. RCFLG
When performing focus detection processing twice in the "AF" routine
It is "Y". In this embodiment, the "AF" routine is
When executing, first use "W" with the VSN set in the previous "AF".
Execute either "PRED" or "NPRED".
VSN is set to "WD" in the early stage
However, the resulting image shift amount depends on each condition.
When not touching, reset VSN and set flag RCFLG to "Y".
This time, different focus detection processing "NPRED" or "WPR
ED ”will be executed. RCFLG is a flag for that
It is. The VSN resetting will be described later.   Flag RCFLG is "N", that is, the first focus detection process
At this time, the flag SDFLG is checked (step 18). SDFLG
Is set in "WPRED" or "NPRED" as described above.
Flag (SDFLG in this step is set in “WPRED”)
Defined), when this flag is "Y" (within 3 pixels)
Means that the current focus state is relatively close to focus
You. Therefore, VSN is "WD" and SDFLG is "N" (3 pixels or more)
If so, display "WPRED" as appropriate.
Chin "DISP", lens control subroutine "LENS" execution
Move to. On the other hand, if SDFLG is “Y”, then “NPRED”
It is more appropriate to recalculate, that is, the accurate image shift amount PR
And set VSN to “NR” (step
21) and temporarily store the image shift amount PR in the buffer BPR (step
22), set RCFLG to “Y” (step 23), and then restart
Routine from step 12 (actually step 12 → step
14 → step 15 → step 16 → step 28 → step 33
→) is executed. No image in step 22
The reason for temporarily storing the amount PR in the buffer BPR is as follows.
If the result calculated by the routine "NPRED" is not appropriate
In other words, as a result of calculation with “NPRED”, in step 33
If the SDFLG is "N" (3 pixels or more), the subroutine
Chin "WPRED" To adopt the image shift amount PR obtained in the first time
(Step 34 → step 27 →).   When RCFLG is “Y” in step 17, that is, the second focus detection.
For output processing, go to step 24 and check SDFLG here.
To click. As a result, if SDFLG is "N", focus at this time
Since the exit distance is "WPRED", the focus detection process here is
Display as appropriate Subroutine "DISP", lens control
Move to execution of the subroutine "LENS". Also, SDFL
If G is "Y", is RCFLG "Y" and VSN "WD"?
, The first focus detection process is performed by "NPRED", and
The result is "NPRED", which is not appropriate. Later
However, in the first "NPRED", the flag NJFFLG
"Y", that is, it is not appropriate unless it is in focus
However, if SDFLG is “Y”, flag NRSDFLG is set to “Y” (combined).
It is not in focus, but within 1 pixel). That is, NR
If SDFLG is "Y", it is omitted in the first "NPRED"
It is not in focus, but it means that it was relatively close to focus
You. At this time, the image shift amount PR in “NPRED” is equal to the buffer BPR.
When stored. Therefore, in step 24, SDFLG is "Y".
If you say, "WPRED" is relatively close to focusing on the second time
Therefore, it is necessary to refer to the result of "NPRED" for the first time.
Check flag NRSDFLG at p.25. NRSDFLG here
If is "N" (1 pixel or more), the first time is not appropriate
"WPRED" is displayed using the second image shift amount PR.
Brutin "DISP", lens control subroutine "LENS"
Shift to execution. If NRSDFLG is "Y", the next "A
In "F", VSN should be set to "NPRED" for the first focus detection process.
Is set to “NR” (step 26) and already stored in the buffer BPR.
Take out the amount of image shift PR in the first "NPRED"
(Step 27), display subroutine "DISP", lens control
Temporarily shifts to the execution of the subroutine "LENS".   Go up the flow and in step 16 the VSN is judged to be "NR".
If so, the flag RCFLG is checked in step 28.
Here, when RCFLG is "N", the first "NPRED" is changed to "Y".
Time means the second time of "NPRED". In case of “N”
Check SDFLG in step 29. When SDFLG is "N"
The second focus detection process, because "NPRED" is not appropriate
VSN is set to “WD” (step
30), temporarily store the image shift amount PR in "WPRED" in the buffer BPR
Store (step 22) and set RCFLG as “Y” (step 2)
3) Go back to step 12 and execute the routine again.
(Actually, step 12 → step 13 → step 15 → step
Step 17 → Step 24 →). Steps
When SDFLG is “Y” at 29, flag NJFFL at step 31.
Check G. This was explained in step 25 above
However, in the first "NPRED", focus detection processing by NJFFLG
It is determined whether or not was appropriate. NJ in step 31
If FFLG is "N" (1 pixel or more and 3 pixels or less), it is almost in focus
If not, but relatively close to focus,
The second step of the focus detection process "WPRED"
Flag NRSDFLG “Y” for use in
Then, the process proceeds to step 30. Also, in step 22,
"NPRED" temporarily stored in the FA BRP PR of the first image shift
As needed, ie “WPRED” on the second step 27
Used in   When RCFLG is “Y” in step 28, “NPRED” twice
It is the eye, and as you can see from the above, the first time is "WPRED"
It means that the result was judged to be inappropriate. or
As mentioned above, check SDFLG in step 33 and click "Y"
If so, "NPRED" is judged to be appropriate for the second time, and the image as it is
Displacement PR display subroutine "DISP", lens control sub
Move to execution of routine "LENS". SDFLG is "N"
If there is, "NPRED" is not appropriate for the second time, and the next "AF"
VSN to set the focus detection process in "WPRED"
Set to "WD" (step 34) and temporarily store "WPRED" for the first time
Take out the image shift amount PR stored in the buffer BPR
(Step 27), display subroutine "DISP", lens control
Move to execution of the subroutine "LENS".   The flow of the above "AF" processing can be briefly summarized as "A
When "F" is called, the image signal of the sensor array SA is read
(“IMAGE”), focus detection processing “WPRED” or “NPRE”
"D" is performed, but "WPRED" has a large out-of-focus amount
Sometimes the premise that "NPRED" is applied near the focus
The detected image shift amount is unsuitable for the processing at that time.
In such a case, the same image signal is recalculated and combined using an appropriate processing method.
The image shift amount PR used for the local lens control has a large defocus amount.
"WPRED" when there is no light, and "NPRED" when near focus
It will be calculated more. In other words, the out-of-focus amount is large
Sometimes it is not appropriate to perform focus detection processing with "WPRED".
The in-focus state is clearly understood, and this result is determined to be near the in-focus state.
If it is turned off, focus detection processing is performed by "NPRED".
This is because the accuracy of focus detection can be improved by using this method.   On the contrary, the subroutine "LENS" is used by using the flow of FIG.
Will be described. Check the flag LCFLG in step 60.
Click. This flag is the target of focus detection processing as described above.
When the contrast evaluation amount of the image signal is
ing. When LCFLG is "N", the focus detection process is applied to the image signal.
If the contrast is reasonably sufficient,
The taking lens FLNS is controlled on the basis of the image shift amount PR.
First, check the signal BSY input to the lens communication circuit LCOM
Yes (step 61). While this signal BSY is "H", the lens
Since it cannot communicate with the internal control circuit LPRS, the signal BSY
Wait until it becomes "L" (low level). The signal BSY is
When it becomes “L”, the control circuit LPRS in the lens changes the shooting lens FL
The coefficient S of the NS defocus vs. lens movement amount is referred to as the signal DLC.
Input (step 62). Next, from the image shift amount PR
The defocus amount DEF of the lens FLNS is changed to the formula DEF = K · PR.
To calculate (step 63). K is the focus detection optical system
The value is set in advance and is set in advance. Then Def
Moving amount FP of shooting lens FLNS from focus amount DEF and coefficient FP
Is calculated by FP = DEF / S (step 64). FP is Enco
Equivalent to the count number of the feeder circuit ENC. And step
Check the signal BSY again at page 65, and confirm that the signal BSY is “L”.
Then, the lens movement amount FP (signal DCL) is controlled within the lens.
Communicate to the control circuit LPRS (step 66). On the other hand, LCFLG
When it is “Y”, the contrast is not enough,
In order to perform the search operation, the moving amount FP of the shooting lens FLNS is FP =
Calculate with CDEF / S (step 67). CDEF is one search
Converts the lens movement amount that is moved during operation to a defocus amount
However, it is preset.   The lens movement amount FP is input to the control circuit LPRS in the lens.
Then, the drive control of the taking lens FLNS is performed based on the information.
U. Image signal A when the shooting lens FLNS is stopped
(I), a series of focus adjustments starting from the input of B (i)
The "AF" process ends.   According to this embodiment, the pixels corresponding to the viewfinder distance measuring frame
The range (effective range) of EEPR
Since it is stored in the OM, mechanical adjustment
It becomes unnecessary and the work efficiency is very good. Also,
Cameras with the same structure, only viewfinder distance measurement frame
To a different one (matte surface, split image)
Even if you want to, you can easily change it. Furthermore, the group
If it is found that the sensor has uneven sensitivity after the stand is finished.
Or if it is found that the AF optical system has aberrations
It is easy to avoid using that part, etc.
Wear. (Correspondence between invention and embodiment)   In this embodiment, the taking lens FLNS is the imaging light of the present invention.
Field system FLD, secondary imaging lens FCLA, FCL
B is the optical system, and the sensor arrays SAA and SAB are photoelectric cells consisting of multiple pixels.
The conversion means, the CPU functions as the calculation means, and the EEPROM functions as the storage means.
Hit (Modification)   In this embodiment, the "image shift type" device has been described.
However, the focal plane is not limited to this.
So-called "sharpness type" focus detection that detects strike changes
It can also be applied to a device. (The invention's effect)   As described above, according to the present invention, the focus of the observation means is
Generates a valid photoelectric conversion unit signal corresponding to the point detection area
A storage means for storing the effective pixel range is provided.
The photoelectric conversion signal of the effective pixel range stored in the storage means
Since more focus detection processing is performed, photoelectric conversion means
The focus detection area of the observation means without any mechanical adjustment of
And the focus detection area on the pixel of the photoelectric conversion means can be easily matched.
Can be made.

【図面の簡単な説明】 第1図は本発明を実施するのに好適なカメラの焦点調節
装置の一例を示すブロック図、第2図はその一部のフロ
ーチャート、第3図は同じく一部のフローチャート、第
4図及び第5図はセンサ列より出力される像信号の一例
を示す図、第6図は一部のフローチャート、第7図は焦
点検出演算時の2像の対応関係を示す図、第8図は評価
量の変化を示す図、第9図は同じく一部の評価量の変化
を示す図、第11図は一部のフローチャート、第10図はフ
ァインダー測距枠とセンサ列の位置関係を示す図、第12
図は焦点検出演算時の2像の対応関係を示す図、第13図
は一部の評価量の変化を示す図、第14図は一部のフロー
チャート、第15図は一般的な二次結像方式焦点検出装置
の光学系を示す配置図である。 PRS……制御回路、LCOM……レンズ通信回路、LNSU……
レンズユニット、SDR……センサ駆動回路、SAA,SAB……
センサ列、FLNS……撮影レンズ、k……相対変位量。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing an example of a focus adjusting device for a camera suitable for carrying out the present invention, FIG. 2 is a partial flowchart thereof, and FIG. Flow charts, FIGS. 4 and 5 are diagrams showing an example of an image signal output from the sensor array, FIG. 6 is a partial flow chart, and FIG. 7 is a diagram showing a correspondence relationship between two images at the time of focus detection calculation. , FIG. 8 is a diagram showing a change in the evaluation amount, FIG. 9 is a diagram showing a part of the change in the evaluation amount, FIG. 11 is a partial flowchart, and FIG. 10 is a viewfinder distance measuring frame and sensor array. Figure 12 showing the positional relationship
The figure shows the correspondence between the two images during focus detection calculation. Fig. 13 shows a part of the change in the evaluation amount. Fig. 14 shows a part of the flowchart. Fig. 15 shows a general secondary result. It is a layout showing an optical system of the image-based focus detection device. PRS ... Control circuit, LCOM ... Lens communication circuit, LNSU ...
Lens unit, SDR …… Sensor drive circuit, SAA, SAB ……
Sensor array, FLNS …… Shooting lens, k …… Relative displacement.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 須田 康夫 神奈川県川崎市高津区下野毛770番地 キヤノン株式会社玉川事業所内 (72)発明者 大貫 一朗 神奈川県川崎市高津区下野毛770番地 キヤノン株式会社玉川事業所内 (72)発明者 大高 圭史 神奈川県川崎市高津区下野毛770番地 キヤノン株式会社玉川事業所内 (72)発明者 小山 剛史 神奈川県川崎市高津区下野毛770番地 キヤノン株式会社玉川事業所内 (56)参考文献 特開 昭58−150918(JP,A)   ────────────────────────────────────────────────── ─── Continuation of front page    (72) Inventor Yasuo Suda               770 Shimonoge, Takatsu-ku, Kawasaki-shi, Kanagawa               Inside the Tamagawa Office of Canon Inc. (72) Inventor Ichiro Onuki               770 Shimonoge, Takatsu-ku, Kawasaki-shi, Kanagawa               Inside the Tamagawa Office of Canon Inc. (72) Inventor Keishi Otaka               770 Shimonoge, Takatsu-ku, Kawasaki-shi, Kanagawa               Inside the Tamagawa Office of Canon Inc. (72) Inventor Takeshi Koyama               770 Shimonoge, Takatsu-ku, Kawasaki-shi, Kanagawa               Inside the Tamagawa Office of Canon Inc.                (56) Reference JP-A-58-150918 (JP, A)

Claims (1)

(57)【特許請求の範囲】 1.複数画素から成る光電変換手段と、結像光学系を通
過した光を前記光電変換手段に結像させる光学系と、前
記光電変換手段よりの光電変換信号に所定の焦点検出処
理を行うことにより、前記結像光学系の焦点状態を検出
する演算手段とを備えた焦点検出装置、及び前記結像光
学系を通して対象を観察するためのもので且つ焦点検出
領域を備えた観察手段を含む光学装置において、前記焦
点検出領域に対応する、有効な光電変換信号を発生する
有効画素範囲を記憶する記憶手段を設けたことを特徴と
する光学装置。
(57) [Claims] By performing a predetermined focus detection process on a photoelectric conversion signal from the photoelectric conversion unit, a photoelectric conversion unit composed of a plurality of pixels, an optical system that forms an image of the light passing through the imaging optical system on the photoelectric conversion unit, In a focus detection device including a calculation unit that detects a focus state of the imaging optical system, and an optical device including an observation unit for observing an object through the imaging optical system and including a focus detection region. An optical device comprising: storage means for storing an effective pixel range corresponding to the focus detection area for generating an effective photoelectric conversion signal.
JP61160826A 1986-07-10 1986-07-10 Optical device Expired - Lifetime JP2671206B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61160826A JP2671206B2 (en) 1986-07-10 1986-07-10 Optical device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61160826A JP2671206B2 (en) 1986-07-10 1986-07-10 Optical device

Publications (2)

Publication Number Publication Date
JPS6318315A JPS6318315A (en) 1988-01-26
JP2671206B2 true JP2671206B2 (en) 1997-10-29

Family

ID=15723245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61160826A Expired - Lifetime JP2671206B2 (en) 1986-07-10 1986-07-10 Optical device

Country Status (1)

Country Link
JP (1) JP2671206B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6341668B2 (en) * 2014-01-21 2018-06-13 キヤノン株式会社 Imaging device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58150918A (en) * 1982-03-03 1983-09-07 Canon Inc Focus detector

Also Published As

Publication number Publication date
JPS6318315A (en) 1988-01-26

Similar Documents

Publication Publication Date Title
JP2692049B2 (en) Focus detection device
JP2597961B2 (en) Automatic focusing device
JP3240648B2 (en) Focus detection device
JPH10161013A (en) Environment recognition device and camera provided therewith
US20110293255A1 (en) Image pickup apparatus
CN106054350B (en) Optical device and display control method
JP5845023B2 (en) FOCUS DETECTION DEVICE, LENS DEVICE HAVING THE SAME, AND IMAGING DEVICE
US4500778A (en) Image plane deviation amount detecting device
US9900493B2 (en) Focus detecting apparatus, and method of prediction for the same
US4800410A (en) Focus detecting apparatus for selecting the operating process in conformity with the contrast of an object
JPH1125263A (en) Object feature point detector, focus adjusting device, exposure controller and camera
US4833313A (en) Focus detecting apparatus having increased SNR by selectively varying or holding constant the number of signals from sensor arrays
JP3335419B2 (en) Camera ranging device
JP2671206B2 (en) Optical device
JP4011738B2 (en) Optical device
JPH04235512A (en) Focus detecting device having grouping function
US4800261A (en) Apparatus for detecting focusing state of objective lens
JP7362299B2 (en) Lens device, camera, camera system, control method
JPH05127073A (en) Focus detection device
JPH0252204A (en) Measuring instrument for three-dimensional coordinate
JPH01131508A (en) Photographing system
JPS62133412A (en) Focus detecting system
JPS6122316A (en) Focus detecting device
JPH065337B2 (en) Focus detection device
JP7024790B2 (en) Interchangeable lens equipment, imaging equipment, imaging systems, and methods, and programs

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term