JP4610714B2 - Multi-point autofocus camera - Google Patents

Multi-point autofocus camera Download PDF

Info

Publication number
JP4610714B2
JP4610714B2 JP2000325853A JP2000325853A JP4610714B2 JP 4610714 B2 JP4610714 B2 JP 4610714B2 JP 2000325853 A JP2000325853 A JP 2000325853A JP 2000325853 A JP2000325853 A JP 2000325853A JP 4610714 B2 JP4610714 B2 JP 4610714B2
Authority
JP
Japan
Prior art keywords
subject
image
moving
area
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000325853A
Other languages
Japanese (ja)
Other versions
JP2001194578A (en
JP2001194578A5 (en
Inventor
寿之 松本
康一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2000325853A priority Critical patent/JP4610714B2/en
Publication of JP2001194578A publication Critical patent/JP2001194578A/en
Publication of JP2001194578A5 publication Critical patent/JP2001194578A5/ja
Application granted granted Critical
Publication of JP4610714B2 publication Critical patent/JP4610714B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、撮影画面内に複数の焦点検出領域(測距エリア)を配置して測距し、その測距結果に基づき撮影レンズの合焦を行う焦点検出機能を備える多点自動焦点カメラに関する。
【0002】
【従来の技術】
従来の撮影画面の中央近辺に1点の焦点検出領域(以下、測距エリア若しくはエリアと称する)を配置したスポット測距から、撮影画面内に複数の測距エリアを配置して、それぞれ測距を行い最至近距離を測距結果とする多点測距に移行しつつあり、その多点測距を行う測距機能を備え、自動的に合焦を行う多点自動焦点カメラがある。
【0003】
一般的な多点自動焦点カメラには、撮影画面の中央部とその左右に一列に測距エリアを配置した3測距エリア仕様や、これらの3測距エリア中央の測距エリアの上下にさらに1測距エリアづつ配置した5測距エリアの仕様があるが、最近では、それ以上の測距エリアを配置したカメラが製品化されており、測距エリアは増加する傾向にある。
【0004】
将来的には、全撮影画面をカバーする測距エリアが配置される可能性もある。このようなカメラで、撮影画面内を移動する被写体を撮影する場合の従来技術として以下のような技術が知られている。
【0005】
例えば、本出願人は、特開平5−11170号公報において、撮影画面内に存在する被写体が移動被写体であると判定された場合には、その被写体周辺の測距エリアにおける測距を禁止する技術を提案している。この技術によれば、複数回の測距を必要として時間を要する動体検知動作を、レリーズのためのシャッタ釦の押し込み前に行い、移動被写体を特定しておき、その移動被写体を検知した測距エリアだけを測距をすることにより、シャッタのタイムラグを短くすることができる。
【0006】
また、特許番号第2756330号公報においては、サーボモード(コンティニュアスAF、一般的に動体に追従する動体予測AF制御を行うモード)に設定されている時は、撮影画面の中央を測距エリアとして選択する技術が提案されている。この技術は、移動被写体を撮影する場合には、最至近側にある被写体は撮影したい主要被写体とは考えず、主要被写体は撮影画面中央に存在するものとして、測距エリアを固定するものである。
【0007】
これら従来技術における撮影画面の中央を測距エリアとして選択する理由は、カメラを振って移動する被写体が撮影画面内に留まるように追いかけた場合には、その被写体が画面中央に存在する確率が高いことを根拠としており、この技術により、撮影画面の周辺側における測距動作が省略でき、シャッタ釦押下におけるタイムラグを短縮することができる。
【0008】
また、このように撮影画面の中央、即ち、撮影レンズの中央近辺で測距すると、撮影レンズは周辺側にいくに従って、収差が大きくなる特性があるため、レンズ周辺で測距するのに比べて、解像力の点で有利となる。
【0009】
よって、従来技術による移動被写体に対する合焦は、タイムラグの短縮化と高解像力化の面で優れている。
【0010】
【発明が解決しようとする課題】
しかし、前述した撮影画面中央の測距エリアのみを選択して、合焦させる従来技術は、移動被写体が撮影画面の中央から外れた場合には、正確に合焦できないことになる。
【0011】
例えば、撮影するシーンが図17(a)に示すような移動被写体を含む構図であった場合を例として説明する。
【0012】
図17(a)は、走っている電車がカーブに差し掛かったシーンを示しており、同図(b)は、撮影画面に配置された測距エリアP1〜P15の配置例を示している。この配置例においては、測距エリアの対応が両図中でわかりやすいように示しており、例えば、中央の測距エリアP3は、ラインBとラインDの交点に位置し、周辺であれば、測距エリアP15は、ラインCとラインHの交点に位置する。中央横のラインBを例にとって説明する。
【0013】
図17(a)に示されるように、測距エリアP1は、背景を測距しているため、ここで検出される被写体の移動速度は”0”である。
【0014】
一方、測距エリアP2〜P5は、電車を測距しているため、ここで検出される被写体は、幾らかの移動速度が測定される。電車の前面ほどカメラに近いので、各測距エリアで検出される移動速度は以下のようになる。
【0015】
測距エリアP1=0<測距エリアP2<測距エリアP3<測距エリアP4=測距エリアP5
上記特開平5−11170号公報及び、上記特許番号第2756330号公報に記載された技術では、移動被写体を測距する場合には、撮影画面中央の測距エリアのみで測距するため、測距エリアP3に合焦した写真となる。
【0016】
しかし、この測距エリアP3は、電車の側面を測距しているため、電車の先端部に合焦せず、写真の見た目には、後ピンになる。
【0017】
また、動きの速い移動被写体の場合には、静止被写体の場合よりも被写体を常に撮影画面中央でとらえて続けていることが難しく、撮影画面中央から外れてしまうと、移動被写体にまったく合焦しない可能性も多くなる。
【0018】
そこで本発明は、撮影画面内に複数の測距エリア(焦点検出領域)が配置され、移動する被写体に合焦させる場合に、測距精度が高い画面中央における動体判定を優先しつつ、画面全体を測距して動体判定を行い、その判定結果に基づき、撮影レンズの合焦を行う焦点検出機能を備える多点自動焦点カメラを提供することを目的とする。
【0019】
【課題を解決するための手段】
本発明は上記目的を達成するために、複数の焦点検出領域を持つ多点自動焦点カメラにおいて、 各焦点検出領域内における被写体像の移動に関する量を演算する像移動演算手段と、 上記像移動演算手段の出力に基づいて被写体が移動しているか否かを判定する動体判定手段と、 上記像移動演算手段の出力に基づいて被写体の画面内の移動方向を演算する移動方向演算手段と、上記動体判定手段において動体であると判定された焦点検出領域が複数ある場合には、上記移動方向演算手段の演算する移動方向が画面の周辺から中央に向かうことを示す焦点検出領域を優先的に選択する選択手段と、を具備する多点自動焦点カメラを提供する。
【0020】
以上のような構成の多点自動焦点カメラは、移動する被写体に合焦させる場合に、撮影画面全体から求めた被写体の像移動に関する量に基づいて、画面中央にウエイトを置いた動体判定による被写体が動体判定結果から、画面中央に近い測距エリアを優先して選択することにより、画面中央を優先しながらも画面全体で測距し、その測距結果に基づき撮影レンズの合焦を行う。
【0021】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態について詳細に説明する。
図1には、本発明の多点自動焦点カメラにおける焦点検出機能における概念的なブロック構成を示す図である。
この多点自動焦点カメラは、焦点検出信号を出力するAFセンサ例えば、エリアセンサからなる焦点検出部1と、出力された焦点検出信号に基づいて、焦点調節に必要な演算を行う焦点演算部2と、焦点演算部2からの演算結果に基づいて、被写体の像移動に関する量を演算する像移動量演算部3と、像移動量演算部3の出力に基づいて、複数の測距エリア内のどの測距エリアで焦点を合わせるかを選択する測距エリア選択部4と、これらの構成部位の焦点制御を司るCPUからなる焦点制御部5と、この焦点制御部5からの制御信号に基づいて、図示しない撮影レンズを合焦の位置に駆動して合焦状態を達成する焦点調節部6とを備える。
【0022】
図2は、本発明による多点自動焦点カメラとして、一眼レフレックスカメラに適用した構成例の断面図を示す。
このカメラは、カメラボディ10の下部に焦点を検出するための焦点検出部11を備えている。通常時には、撮影レンズ12を通過した光束(被写体像)は、メインミラー13により、一部上方のファインダ14側に反射し、残りの光束は透過して直進する。このメインミラー13で反射した光束は、ペンタプリズムを介してファインダ14に導かれて、撮影画面として観察者の眼に入る。一方、メインミラー13を透過した光束は、メインミラー13に一体的に取り付けられたサブミラー15により下方に反射されて焦点検出部11に導かれる。
【0023】
この焦点検出部11は、撮影レンズ12を通過した光束を絞り込む視野マスク17と、赤外光成分をカットする赤外カットフィルタ18と、光束を集めるためのコンデンサレンズ19と、光束を全反射する全反射ミラー20と、光束の通過量を制限する瞳マスク21と、光束をエリアセンサ23上の光電変換素子群26上に再結像させる再結像レンズ22と、光電変換素子群26とその処理回路からなるエリアセンサ23とから構成される。
【0024】
このようなカメラの撮影時には、メインミラー13及びサブミラー15を点線の位置までミラーアップして退避させて、シャッタ24を所定時間だけ開き、撮影レンズ12を通過した光束(被写体像)はフィルム25に露光される。
【0025】
図3(a)、(b)は、測距を含む光学系を模式的に示している。
図3(a)は、焦点検出部11内のエリアセンサ23の光電変換素子群26上に光束(被写体像)を導く焦点検出光学系(位相差検出光学系)の構成を示し、同図(b)には、その斜視図を示している。
【0026】
この焦点検出光学系は、光路中に、撮影レンズ12と、視野範囲を規定する視野マスク17と、コンデンサレンズ19と、撮影レンズ12の光軸に対して略対称に配置された開口部21a,21bを有する瞳マスク21とが設けられ、更に、これら開口部21a,21bに対応した後方に、再結像レンズ22a,22bがそれぞれ設けられている。なお、この図3(a)では前述した全反射ミラー20は省略している。
【0027】
このような構成において、撮影レンズ12の射出瞳Hの領域Ha,Hbを通過して入射した被写体光束は、順に、視野マスク17、コンデンサレンズ19、瞳マスク21の開口部21a,21b及び再結像レンズ22a,22bをそれぞれ通過していき、エリアセンサ23内の多数の光電変換素子が配列された2つの各領域23a,23bの光電変換素子群26上に再結像される。例えば、撮影レンズ12が「合焦」即ち結像面G上に被写体像1が形成される場合、その被写体像1は、コンデンサレンズ19及び再結像レンズ22a,22bによって光軸Oに対し垂直な二次結像面であるエリアセンサ23の光電変換素子群26上に再結像されて、図示するような、第1の像I1、第2の像I2となる。
【0028】
また、撮影レンズ12が「前ピン」即ち、結像面Gの前方に被写体像Fが形成される場合、その被写体像Fは互いにより光軸Oに近づいた形態で光軸Oに対して垂直に再結像されて第1の像F1、第2の像F2となる。
【0029】
さらに撮影レンズ12が後ピン即ち、結像面Gの後方に被写体像Rが形成された場合、その被写体像Rは、お互いにより光軸Oから離れた形態で光軸Oに対して垂直に再結像されて第1像のR1、第2の像R2となる。
従って、これら第1の像と第2の像の間隔を検出測定することにより、撮影レンズ12の合焦状態を前ピン及び後ピンを含めて検出することができる。具体的には、第1の像と第2の像の光強度分布をエリアセンサ23(開口部23a,23b)に対応する被写体像データの出力により求めて、2像の間隔を測定できるように構成されている。
【0030】
図4には、図2において説明したカメラの電気制御系を含む機能ブロックを示しており、その各部の詳細構成と動作について説明する。
この構成において、制御部30は、カメラ全体の統括的な制御を行い、この内部には、例えばCPUからなる演算・処理部31と、ROM32と、RAM33と、A/Dコンバータ34とを備えている。
【0031】
上記制御部30は、ROM32に格納されたカメラシーケンス・プログラム(詳細後述)に従ってカメラの一連の動作を制御する。またEEPROM35には、AF制御、測光等に関する補正データをそのカメラボディ毎に固有の情報として記憶保持することができる。さらに制御部30には、エリアセンサ23、レンズ駆動部33、エンコーダ37、測光部39、シャッタ駆動部40、絞り駆動部41、及びフィルム駆動部42が、この制御部30と相互通信可能に接続されている。
【0032】
このような構成において、レンズ駆動部36は、制御部30の制御に基づき、撮影レンズ12のフォーカシングレンズ12aをモータML38で駆動する。この時、エンコーダ37は、フォーカシングレンズ12aの移動量に応じたパルスを発生させて制御部30に送り、レンズ駆動が適宜制御される。
【0033】
また測光部39は、撮影領域に対応したSPD(シリコンフォトダイオード)を有しており、被写体の輝度に応じた出力を発生する。制御部30は、測光部39の測光結果をA/Dコンバータ34によりデジタル信号化させて、その測光値をRAM33に格納する。
【0034】
シャッタ駆動部40及び絞り駆動部41は、制御部30からの所定の制御信号により動作し、それぞれ不図示のシャッタ機構及び絞り機構を駆動してフィルム面に露光を行なう。
【0035】
フィルム駆動部42は、制御部30からの所定の制御信号によりフィルムのオートローディング、巻上げ及び巻戻し動作を行なう。ファーストレリーズスイッチ(以下、1RSWと称す)とセカンドレリーズスイッチ(以下、2RSWと称す)は、レリーズボタンに連動したスイッチであり、レリーズボタンの第1段階の押下げ操作により最初に1RSWがオンし、引き続いて第2段階の押下げ操作で2RSWがオンする。制御部30は、1RSWオンで測光およびAF(自動焦点調節)処理を行い、2RSWオンで露出動作とフィルム巻上げ動作を行なうように各部位を適宜制御している。
【0036】
図5には、前述したエリアセンサ23の具体的な回路構成を示す。
【0037】
このエリアセンサ23における画素部(即ち光電変換素子群26)は、マトリックス状に規則正しく配列された多数の画素ユニット51により構成されている。
【0038】
この構成において、蓄積制御部52は制御部30からの制御信号に応じて、画素部の蓄積動作を制御する。各画素ユニット51の出力V0 は垂直シフトレジスタ53と水平シフトレジスタ54とにより選択されて、バッファ55に入力される。そしてこのバッファ55の出力SDATAは、制御部30内のA/Dコンバータ34に入力され、A/D変換される。
【0039】
また各画素ユニット51の出力VM は、所定の複数の画素ユニット51の出力VM を接続して、スイッチMSL1〜MSLnを介して、バッファ55に入力される。
【0040】
そして、エリア56内において、これら複数の画素ユニット51の出力VMnを接続した点Mの電位は、複数の画素ユニット51内の出力VMnのうちのピーク値に相当する電位を発生し、画素ユニット51は、これらを出力するようなピーク検出回路を構成している。従って、スイッチMSL1〜MSLnを順にオンさせていくと、各測距エリア56内のピーク値に相当する電位をバッファ55を介してモニタすることができる。このバッファ55の出力VP は、端子MDATAより制御部30内のA/Dコンバータ34に入力されて、A/D変換される。
【0041】
次に図6には、前述した画素ユニット51の具体的な回路構成を示す。
この画素ユニット51は、光電変換素子として機能するフォトダイオード61、キャパシタ62、アンプ63、スイッチ64,65、およびNMOSトランジスタ66から構成されている。
【0042】
フォトダイオード61の出力側には、アンプ63が接続され、キャパシタ62がアンプ63の入出力端に接続され、フォトダイオード61で発生した電荷を蓄積する。
【0043】
このアンプ63の出力側は、垂直シフトレジスタ53及び水平シフトレジスタ54からの信号Xn、Ynにより、それぞれオン・オフ切り換えを行う直列接続されたスイッチ64,65を介して出力端(出力V0)に接続される。
【0044】
さらにアンプ63の出力側には、ドレインを固定電圧に接続されたNMOSトランジスタ66のゲートに接続され、NMOSトランジスタのソースは、モニタ出力端子(モニタ出力VM )に接続される。
【0045】
このような回路構成において、アンプ63の出力は、キャパシタ62の蓄積量が増加するに従って、電位が上昇する方向に変化するものとしている。このモニタ出力VM は、複数の画素ユニット51の出力が互いに接続されるので、そのうちの蓄積量のピーク値を示す電位が発生することになる。このようにして各画素ユニット51は、光電変換して、その測距エリアに対応する素子としての出力を前述した像移動量演算部3に供給する。
【0046】
次に図7には、撮影画面内の焦点検出領域を構成する各測距エリアP1〜Pnの配置例を示す。
前述したスイッチMSL1〜MSLnは、各測距エリア1〜nにそれぞれ対応して接続されているので、例えばスイッチMSL1〜MSLnのうちの1個のスイッチMSLmをオンすると、これに対応した測距エリアPm内のピーク出力VM が選択されてモニタ端子MDATAに出力する。
【0047】
また例えば、複数のスイッチをオンすると、その複数の測距エリア内のピーク値をモニタすることができる。例えば、全スイッチMSL1〜nをオンさせると、エリアセンサ23の全測距エリア内のピーク値をMDATA端子の出力させてモニタすることができる。
【0048】
図8に示すタイムチャートを参照して、前述したエリアセンサ23の蓄積動作について説明する。ここでは、撮影画面内の測距エリアP5,P6,P7を例にとって説明する。
制御部30は、エリアセンサ23の蓄積動作を蓄積開始信号(INTS)により開始させた後、上記測距エリア毎に順にピーク値を参照していく。この時、最も速く適正な蓄積レベルに達する測距エリアを優先的に参照し、上記測距エリアのピーク値が適切な蓄積レベルに達すると、蓄積終了信号(INTE)により測距エリア毎に蓄積動作を終了させていく。
【0049】
つまり、図9(a),(b)に示すように、エリアセンサを構成する2つのエリアセンサ23a,23bがそれぞれに対応する測距エリア、例えば測距エリアP5に対応するa5,b5について同時に蓄積動作を終了させる。つまり、ある測距エリアに対応したam,bm、(1≦m≦n)の蓄積動作を順次、全測距エリアに対して行う。
【0050】
なお、上記am,bmの1個の測距エリアmに関して、図10(a),(b)には、これに対応するフォトダイオード61の配列を直線的に示している。
【0051】
右側のエリアセンサ23aを構成するフォトダイオード列amは、L(1),L(2),L(3),…,L(64)と表わせ、その被写体像信号は順次、処理される。同様に、左側のエリアセンサ23bを構成するフォトダイオード列bmは、R(1),R(2),R(3),…,R(64)と表わせ、その被写体像信号も順次、処理される。
【0052】
よって、制御部30は、次のように各部を制御して被写体像をデータとして検出する。
すなわち、制御部30は、エリアセンサ23に読み出しクロックCLKを入力させると、そのエリアセンサ23の端子SDATAから被写体像信号であるセンサデータが順次出力される。そこで、制御部30内のA/Dコンバータ34により、このセンサデータをA/D変換して、RAM32に順次格納する。このようにして、制御部30は、例えばある測距エリアを指定してその測距エリアに対応するセンサデータだけを読み出すことができる。
【0053】
次に、前述したようにして得られた被写体像データに基づくAF検出演算について説明するが、例えばこの実施形態例では2種類の相関演算を行なう方法がある。その1つの方法は、焦点検出光学系により分割された第1被写体像と第2被写体像の間で相関演算を行い、二像のずれ量(「像ずれ量」と称す)を求める方法である。もう一方の方法は、時刻t0での被写体像と時刻t1での被写体像の間で相関演算を行い、被写体像の移動量を求めるという方法である。
【0054】
(I) 像ずれ量を求めるための相関演算:
最初に第1被写体像と第2被写体像との間の像ずれ量を求める相関演算について説明すると、被写体像データは一対のエリアセンサ23a,23bに対してそれぞれ一般的にL(i,j)、R(i,j)という形式で表わすことができる。
【0055】
以下の説明ではわかりやすくするためにエリアセンサ23a,23bにそれぞれ対応する一対の測距エリア、すなわち一次元の被写体像データをそれぞれL(I)、R(I)(I=1〜k)として説明する(図10参照)。ここで本実施形態においては、k=64として、図11に示すフローチャートを参照して、「像ずれ量検出」ルーチンに関する処理手順に基づいて説明する。
【0056】
まず、変数SL 、SR 及びFMIN のそれぞれの初期値を設定する(ステップS1)。ここでは、SL ←5、SR ←37、FMIN =FMIN 0を設定している。
【0057】
次に、ループ変数Jの初期値として8を入力し(ステップS2)、相関値F(s)を求めるため式(1)の相関計算を行なう(ステップS3)。
【0058】
F(s)=Σ|L(SL +I)−R(SR +I)| …(1)
(但し、s=SL −SR ,I=0〜26)
但し、変数SL ,SR は、それぞれ被写体像データL(I),R(I)のうちの相関演算を行なうブロックの先頭位置を示す変数、Jは被写体像データR(I)上でのブロックのシフト回数を記憶する変数であり、ブロックの被写体像データ数は27個とする。
【0059】
次に、相関値F(s)とFMIN (最初は初期値FMIN 0、2回目以降は初期値または更新された値)とを比較する(ステップS4)。この比較において、F(s)の方が小さい場合(YES)、FMIN をF(s)に更新し、SLM、SRMをSL SR に更新する(ステップS5)。
【0060】
一方、上記ステップS4の比較で、FMIN の方が相関値F(s)より小さい場合(NO)、SR ,Jからそれぞれ1を減算して次のブロックを設定する(ステップS6)。そして、J=0か否かを判定し(ステップS7)、まだ0でない場合(NO)、上記ステップS3に戻って同様な相関演算を繰り返す。このように被写体像データL(I)でのブロックを固定し被写体像R(I)でのブロックを1素子分ずつシフトして相関演算を行なう。
【0061】
一方、上記ステップS7の判定において、Jが0であった場合は(YES)、変数SL ,SR にそれぞれ4,3を加算して、次のブロックを対象として設定する(ステップS8)。次に、SL =29であるか否かを判定し(ステップS9)、29でなかった場合(NO)、上記ステップS2に戻って前述の相関演算を続ける。しかし、SL =29であった場合は(YES)、その相関演算を終了する。このように被写体像データL(I),R(I)上に相関演算を行なうブロックを設定して繰り返し相関演算を行なう。これによって得られた各ブロックの相関演算の結果は、被写体像データの相関が最も高いシフト量s=xにおいて相関値F(s)が最小になる。そしてこの時、SLM、SRMにはこの最小相関値F(x)の時のSL 、SR が記憶されていることになる。
【0062】
次に、後述する信頼性指数を算出する場合に使用する最小相関値F(x)の前後のシフト位置での下記相関値FM ,FP を求める(ステップS10)。
【0063】
【数1】

Figure 0004610714
【0064】
そして相関演算の信頼性を判定する為の信頼性指数SKを計算する(ステップS11)。この信頼性指数SKは最小相関値F(x)と2番目に小さい相関値FP (またはFM )との和を被写体データのコントラスト相当の値(FM −F(x)又は、FP −F(x))で規格化した数値であり式(4)又は式(5)により求められる。
【0065】
【数2】
Figure 0004610714
【0066】
次に、信頼性指数SKが所定値α以上か否かを判定し(ステップS12)、SKがα以上の場合は(YES)、信頼性が低いと判断して、検出不能フラグをセットする(ステップS13)。一方、SKがαに満たない場合は(NO)、信頼性があるものと判断して、像ずれ量ΔZを計算する(ステップS14)。例えば3点補間の手法を用いて連続的な相関量に対する最小値FMIN =F(x0)を与えるシフト量x0を次式で求める。
【数3】
Figure 0004610714
【0067】
なお、上記シフト量x0を用いて、像ずれ量ΔZを式(8)により求めることができる。
ΔZ=x0−ΔZ0 …(8)
(但し、ΔZ0は合焦時の像ずれ量)。
【0068】
また上式で求めた像ずれ量ΔZから、被写体像面の予定焦点面に対するデフォーカス量ΔDを式(9)で求めることができる。
【数4】
Figure 0004610714
【0069】
このようにして選択された複数の測距エリアについてそれぞれデフォーカス量を算出する。そして、例えば複数の測距エリアのうちから最も近距離を示すデフォーカス量を選択する。
【0070】
さらに、選択されたデフォーカス量ΔDからレンズ駆動量ΔLを式(10)により求める。
【数5】
Figure 0004610714
【0071】
そして上記レンズ駆動量ΔLに基づいてフォーカスレンズの駆動を行なうことにより合焦状態を得ることができる。
【0072】
(II) 被写体像位置を予測するための原理:
図12(a)〜(d)に示された移動する被写体に対する焦点検出の原理を説明する。
【0073】
この図12において、被写体66、カメラ10及びエリアセンサ23の関係をみると、例えば図12(a)に示すように、カメラ10に向かって被写体66が真っ直ぐに近づいてくる(矢印G3方向)場合、前述した焦点検出の原理により、第1(L)及び第2センサ(R)上の第1及び第2の被写体像は、時刻t0から時刻t1の間に互いに外側へ移動する。この場合、被写体像の移動量ΔXL とΔXR は等しい。
【0074】
また、図12(b)に示すように、カメラ10に向かって被写体66が光軸と直交する横方向(矢印G1方向)に平行移動する場合、2つの被写体像は同じ向きに移動する。この場合、被写体像の移動量ΔXL とΔXR は等しい。
【0075】
さらに、図12(c)に示すように、カメラ10に向かって被写体66が左手前に近づく(矢印G4方向)場合、第1の被写体像(L)は近づいてくることによる外側への移動量と、左に平行移動することによる左側への移動量が相殺されて移動量は小さくなる。
【0076】
同様に、図12(d)に示すようにカメラ10に向かって被写体66が左後方に遠ざかる場合は、第1の被写体像(L)は遠ざかることによる内側への移動量と、左に平行移動することによる左側への移動量が相殺されて移動量は小さくなる。一方、第2の被写体像(R)は遠ざかることによる内側への移動量と、左に平行移動することによる左側への移動量が加算されて移動量は大きくなる。
【0077】
ここで、時刻t0から時刻t1の被写体像を基に、後述する相関演算等を行う手段により第1及び第2被写体像の移動量ΔXL 、ΔXR を検出して、右方向への移動を+とする符号をつけると、光軸方向の被写体像の移動量はΔXR −ΔXL 、横方向の被写体像の移動量はΔXR +ΔXL で求めることができる。よって、時刻t0から時刻t1までの被写体像の移動量ΔXR 、ΔXL が求まれば、時刻t2での被写体像の位置を予測することができる。
【0078】
被写体が一定の速度で動いているとすると、横方向の被写体像の移動速度は定速度となる。尚、光軸方向への被写体像の移動速度は、厳密には定速度にはならないが、微小な時間間隔では定速度と考えてよい。
従って、時刻t0での第1被写体像の予測位置は、時刻t1の被写体像位置より式(11)に示されるΔXL′だけ移動している。すなわち、
【数6】
Figure 0004610714
【0079】
同様に、第2被写体像の予測位置は式(12)に示されるΔXR′だけ移動する。
【0080】
【数7】
Figure 0004610714
【0081】
また時刻t1での第1、第2被写体像の像ずれ量をΔZとすると時刻t2での予測像ずれ量ΔZ′は式(13)のように求められる。
【数8】
Figure 0004610714
【0082】
そしてこの予測像ずれ量ΔZ′に基づいて、レンズ駆動量を求める。時刻t2を露光開始までの時間とすることにより、移動する被写体に対してピントの合った写真を得ることができる。この時、ΔXR −ΔXL の符号によって、被写体が接近しているのか、遠ざかっているのかを判断しておく。ΔXR −ΔXL >0であれば、被写体は接近していることになる。
【0083】
次に、被写体像の移動を求めるための相関演算と、その信頼性判定について説明すると、時刻t0での被写体像L′(I),R′(I)と前述した二像間の相関演算により求められた相関ブロックSLM′,SRM′、相関性係数SK′、像ずれ量ΔZ′はそれぞれ、制御部30内のRAM42に記憶される。その後、時刻t1での被写体像信号L(I),R(I)を検出する。
【0084】
次に、図13に示す被写体像の移動と、図14に示すフローチャートを参照して、移動量検出について説明する。
【0085】
まず、第1の被写体像信号について、時刻t0での被写体像信号L′(I)と時刻t1での被写体像信号L(I)について相関演算を行なう。これは、被写体像の移動を検出する「移動量検出」ルーチンにおいては、まず変数SL にSLM′−10を代入する(ステップS21)、また変数Jは相関範囲をカウントする変数であり、初期値として、20を代入する(ステップS22)。
【0086】
次に、式(14)の相関式により相関出力F(s)を計算する(ステップS23)。
【0087】
【数9】
Figure 0004610714
【0088】
続いて、前述した相関演算と同様に、F(s)とFMIN を比較し(ステップS24)、この比較で、F(s)がFMIN より小さければ(YES)、FMIN にF(s)を代入し、且つSL をSLMに記憶する(ステップS25)。この場合、相関をとるブロックの素子数は前述した像ずれ量を求める時のブロックの素子数と同じ27である。しかし、F(s)がFMIN より大きければ(NO)、次のステップS26に移行する。
【0089】
次にSL に1を加算し、Jからは1を減算する(ステップS26)。そしてJ=0か否かを判定し、Jが0でなければ(NO)、J=0となるまで上記ステップS23に戻り、相関式F(s)を繰り返す。このように、±10素子まで相関範囲を変化させて相関をとっていくが、この相関範囲は検出したい移動量範囲により決定される。ここで、J=0となった場合(YES)、信頼性の判定を行なう。
【0090】
すなわち、前述した第1、第2被写体像の像ずれ量を求める時と同様に、最小相関値F(X)の前後のシフト量での相関値FM 、FP を式(15)及び式(16)により求める(ステップS28)。
【0091】
【数10】
Figure 0004610714
【0092】
次に、信頼性指数SKを前述した式(4)と式(5)により求める(ステップS29)。そして、SK>βか否かを判定する(ステップS30)。この判定でSK≦βの時は(NO)、信頼性ありと判断して、移動量を求める(ステップS31)。但し、値βは、第1、第2被写体像の像ずれ量を求める時の判定値αよりも大きな値とする。これは、被写体が移動していると波形が変形する場合が多いので相関性が悪くなる可能性が大きいためである。
【0093】
そして、被写体像の移動量ΔXL を求める。前述した第1、第2被写体像の像ずれ量の計算時と同様に3点補間の手法により、式(17)及び式(18)により求める。
【数11】
Figure 0004610714
【0094】
一方、上記ステップS30の判定において、SK>βの関係であれば(YES)、信頼性がないと判別して、検出不能フラグを設定する(ステップS32)。
【0095】
第2被写体像R(I),R′(I)についても、詳細は省略するが、同様の移動量検出ルーチンを実行し、相関が最も高いブロック位置SRM、移動量ΔXR を求める。
第1、第2の被写体像の移動量ΔXL 、ΔXR が求められると、時刻t1での像ずれ量ΔZ′は、時刻t0の時の像ずれ量ΔZより式(19)のようにして求められる。
【数12】
Figure 0004610714
【0096】
時刻t0の像ずれ量ΔZに基づく、時刻t2での像ずれ量ΔZ″の予測式は式(20)のようになる。
【数13】
Figure 0004610714
【0097】
時刻t2を後述する方法で求めて、ΔZ″に基づいた量だけレンズ駆動することにより、時刻t2において、移動している被写体にピントを合わせることができる。
【0098】
なお、被写体像の移動速度v=(ΔXR −ΔXL )/(t1−t0)が大きすぎる場合は、検出値に信頼性がないものとして像ずれ量の予測はしない。また、被写体像の移動速度が小さく検出誤差と見なされる場合は、移動速度を0にする。
【0099】
(III) 像ずれ量予測時刻t2の予測式:
ここで、像ずれ量を予測する時刻t2を求める方法について述べる。
前述したように、時刻t2の像ずれ量ΔZ″は時刻t1の像ずれ量ΔZ、時刻t0から時刻t1の被写体像の移動量ΔXR 、ΔXL を用いて式(20)により求められる。
【0100】
いま、露出時に合焦状態になるような時刻t2を式(21)で求める。
【数14】
Figure 0004610714
【0101】
この式において、tdは、時刻t1からレンズ駆動を開始するまでの時間であり、この値には前述した相関演算時間等のカメラ内部での処理時間が含まれる。
ここで、keは、像ずれ量ΔZ″に比例したレンズ駆動時間を求める変換係数である。レンズ駆動量ΔLは、像ずれ量ΔZ″に基づいて式(9)及び式(10)により求められるが、像ずれ量ΔZ″が充分に小さい領域においてはデフォーカス量ΔD、レンズ駆動量ΔLは像ずれ量ΔZ″に比例すると近似するので、精度的に問題はない。teは、レンズ駆動終了からシャッタ幕が開放されて露出が開始されるまでの時間であり、カメラの露出演算、絞り制御、ミラーアップ等の時間を含む。
【0102】
上記式(20)と式(21)を解くことで、予測像ずれ量を求める式(22)が次のように導かれる。
【数15】
Figure 0004610714
【0103】
このΔZ″から、式(9)及び式(10)にてレンズ駆動量ΔLを求めてレンズ駆動を行なうことにより、移動している被写体に対して露出時に合焦状態とすることができる。
【0104】
次にレンズ駆動終了時の合焦となるような時刻t2は式(23)で求まる。
t2=t1+td+ke・ΔZ″ …(23)
同様に式(20)及び式(23)を解いて、次のような式(24)が導かれる。
【数16】
Figure 0004610714
【0105】
このΔZ″から、式(9)及び式(10)にてレンズ駆動量ΔLを求めてレンズ駆動を行なうことにより、移動している被写体に対してレンズ駆動終了時に合焦状態とすることができる。
【0106】
次に、図15に示すフローチャートを参照して、この実施形態における具体的な動作プログラムについて説明する。なお、「AF検出」ルーチンは、カメラの電源がオン状態の期間は繰り返し実行されているものとする。
まず、エリアセンサ23の積分動作を実行し、積分が終了するとエリアセンサ23より被写体像データ(以下、センサデータと称する)を読み出す(ステップS41)。
【0107】
次に、被写体像ずれ量(以下像ずれ量)が検出されたか否かを判定する(ステップS42)。この判定で検出されていない場合は(NO)、前述した「像ずれ量検出」ルーチン(図11参照)により像ずれ量を求める(ステップS43)。ここでは、エリアセンサ23a,23b上の予め設定されている所定の測距エリアについて、像ずれ量を検出する。但し、予め設定されている測距エリアは、例えば撮影者により選択された1個の測距エリア若しくは、全測距エリアであってもよい。
【0108】
次に、上記所定の測距エリアに対して、全て像ずれ量検出を終了したか否かを判定し(ステップS44)、まだ終了していない場合は(NO)、上記ステップS43に戻り、次の測距エリアの像ずれ量検出を行なう。
一方、全所定の測距エリアの像ずれ量検出が終了した場合は(YES)、所定のアルゴリズム、例えば最至近選択に基づいて測距エリアの選択を行なう(ステップS45)。以下、選択された測距エリアam,bmとしての説明を行なう。
【0109】
次に、像ずれ量が検出不能、すなわち所定測距エリアについて全て検出不能であるか否かを判定する(ステップS46)。この判定において、検出可能な場合は(YES)、像ずれ量検出可能フラグがセットされ(ステップS47)、更に像ずれ量検出済フラグがセットされる(ステップS48)。
【0110】
一方、上記ステップS46において、全て検出不能であると判定された場合は(NO)、像ずれ量検出不能フラグをセットし(ステップS49)、像ずれ量検出済フラグをクリアする(ステップS50)。そして、上記像ずれ量検出済フラグをセット若しくはクリアした後、像移動量検出済フラグをクリアし(ステップS51)、図18にて後述するメインルーチンにリターンする。
また上記ステップS42の判定において、既に像ずれ量が検出していた場合は(YES)、以下のように第1、第2の被写体像毎に被写体像の時間に対する移動量を検出する。まず、上記ステップS45で選択された測距エリアamを初期測距エリアとして設定する(ステップS52)。
【0111】
次に、測距エリアamの第1被写体像について前回(時刻t0)の像ずれ量検出で記憶しておいたセンサデータと、今回(時刻t1)のセンサデータとの相関演算を行い、移動量を検出する(ステップS53)。これは、図14に示した移動量検出ルーチンによる。
【0112】
そして、第1被写体像の移動量が検出できたか否かを判定する(ステップS54)。この判定で、移動量が検出できなかった場合は(NO)、第1、第2被写体像間の像ずれ量は、0であるとされ、測距エリアam近傍の測距エリアについて、すべての測距エリアが設定されているか否かを判別する(ステップS55)。この判定で、近傍の全測距エリアについてのシフトが終了していない場合は(NO)、今回(時刻t1)における測距エリアを所定の順序に従ってシフトし、次の測距エリアにシフトして設定する(ステップS56)。尚、ここで言う所定の順序とは、図16(a)〜(e)に順に示すように、エリアセンサ23a上の初期測距エリアanを中心にして矢印が示すように、anの近傍の水平方向と垂直方向に測距エリアをシフトしていくことである。このような順序で処理する理由は、被写体の上下動や左右方向の移動の影響でエリアセンサ23上の被写体像が水平方向と垂直方向に移動することに対応させるためである。即ち、an近傍の測距エリアを含めて被写体の像移動を検出する。その後、上記ステップS53に戻り、設定された新しい測距エリアについて、再度第1被写体像移動量を検出する。このようにして第1被写体像の位置を探索していく。
【0113】
しかし、上記ステップS55の判定において、近傍の全ての測距エリアにて設定が終了したならば(YES)、後述するステップ59に移行する。
また上記ステップS54の判定において、第1被写体像の位置が検出でき、さらに時刻t0からt1の移動量が検出できた場合は(YES)、第1被写体移動量が検出できた測距エリアakに対応するエリアセンサ23bの測距エリアbkについて第2被写体像に対する移動量を検出する(ステップS57)。これは、図14の「移動量検出」ルーチンを参照する。尚、このとき、第1被写体像の移動量が検出できた時刻t1における測距エリアをakとする。
【0114】
ここで測距エリアのシフトが発生した場合には、像移動量として測距エリア間のシフト量(例えば、中心間距離の画素数換算値)がΔXL 、ΔXR に加算される。
【0115】
このようにして第1、第2の被写体像の両方の移動量が検出できたときには、被写体像の光軸方向の移動速度vが次式から計算される(ステップS58)。
【数17】
Figure 0004610714
【0116】
そして、検出する所定の測距エリアについて、全ての移動速度演算が終了しているかを判定し(ステップS59)、演算が終了していなければ(NO)、測距エリアanについて、移動速度の検出が終了しているため、次に測距エリアan+1を設定して(ステップS60)、上記ステップS53に戻る。
【0117】
上記ステップS59の判定において、全ての移動速度演算が終了していれば(YES)、計算されたこの移動速度vを所定速度vthと比較して、被写体が光軸方向に移動しているか否かを全測距エリアで判定を行い(ステップS61)、被写体が静体か否かを判定し(ステップS62)、静体ではなく、光軸方向に移動していると判定できる場合は(NO)、被写体移動中フラグをセットする(ステップS63)。しかし、静体であると判定された場合は(YES)、被写体移動中フラグをクリアして(ステップS64)、上記ステップS43に戻り、再び像ずれ量の検出処理からやり直す。
【0118】
そして、上記被写体移動中フラグをセットした後、像移動検出済みフラグをセットして(ステップS65)、移動被写体検出時にどの測距エリアに焦点を合わせるかを選択する(ステップS66)。
【0119】
前述した第1の実施形態においては、動体判定のステップで、すでに中央を重視して、動体判定しているので、ステップS66では、動体と判定され、測距エリアの中で一定の基準を定めて、例えば、動作が速い被写体を選ぶ測距エリアを選択して、メインルーチンにリターンする。
【0120】
次に、図4に示す構成及び図18に示すフローチャートを参照して、本発明の多点自動焦点カメラを適用したカメラのメインルーチンについて説明する。このメイン動作は、制御部30によって起動されるプログラムの制御手順を示すルーチンであり、制御部30の動作開始により実行される。
【0121】
まず、EEPROM35から予め記憶されている測距、測光処理において使用する各種補正データを読み出し、RAM33に展開する(ステップS71)。
そして、1RSWがオンされているか否かを判定し(ステップS72)、オン状態でなければ(NO)、1RSW及び2RSW以外の他のスイッチが操作されているか否かを判定し(ステップS73)、操作されたスイッチがあれば(YES)、そのスイッチに応じた処理を実行し(ステップS74)、その後上記ステップS72に戻る。
【0122】
一方、上記ステップS72において、1RSWがオン状態であれば(YES)、AF動作モードが「シングルAF」か否かを判定する(ステップS75)。この判定で、シングルAFモードであった場合は(YES)、一度合焦すると、フォーカスロックを行いレンズ駆動しないため、次に合焦済みか否かを判定する(ステップS76)。しかし、シングルAFモードではない場合は(NO)、コンティニュアスAFモードであるものとみなし、一度合焦した後も被写体の変化に追従してAF駆動を繰り返すようにするために、後述する上記ステップS77に移行する。
【0123】
上記ステップS76において、合焦済みであれば(YES)、AF駆動が行われず、上記ステップS72に戻る。しかし、合焦していない場合(NO)、或いはコンティニュアスAFモードの場合には、測光済みか否かを判定し(ステップS77)、測光済みでなければ露出量を決定するために測光部39を動作させて被写体輝度を測定する測光動作を行なう(ステップS78)。
【0124】
次に、前述したサブルーチン「AF検出」が実行される(ステップS79)。このAF動作の結果、前述した検出不能フラグを参照して像ずれ検出不能か否かを判別する(ステップS80)。この判別で、像ずれ検出可能の場合は(NO)、被写体像の移動量が検出済みか否かを判定する(ステップS81)。一方、像ずれ検出不能の場合は(YES)、フォーカスレンズ12aを駆動しながらAF検出可能なレンズ位置を探すスキャン動作を行ない(ステップS82)、上記ステップS72に戻る。このスキャンが行なわれた場合は、全てのフラグがクリアされてAF検出が再び最初からやり直される。
【0125】
また、上記ステップS81において、被写体像の移動量が検出済みの場合は(YES)、像ずれ量の予測が行われる。まず、2RSWがオンされているか否かを判定し(ステップS83)、2RSWがオンされていた場合は(YES)、露光開始時の像ずれ量が予測される(ステップS84)。一方、2RSWがオフしていた場合は(NO)、AF動作を行なうだけなので、レンズ駆動終了時の像ずれ量が予測され(ステップS85)、後述するステップS87の合焦判定に移行する。
【0126】
また上記ステップS81において、被写体像の移動量が検出済みでない場合は(NO)、被写体が移動中であるか否かを判定する(ステップS86)。この時点で、像移動検出済みフラグは後述するように、レンズ駆動された後(ステップS87)、クリアされ、コンティニュアスAFモードでレンズ駆動後は像移動検出されていなくても被写体移動中フラグがセットされているので、ステップS72に戻り、被写体像移動を再度検出し直す。
【0127】
一方、移動中ではない場合は(NO)、検出された像ずれ量、または予測された像ずれ量をデフォーカス量に変換して、合焦許容範囲に像が入っているか否かを判定する(ステップS87)。この判定で、合焦していると判定されなかった場合は、必要なレンズ駆動量が求められ、フォーカスレンズが駆動される(ステップS88)。レンズ駆動ルーチン内では、そのレンズ駆動後に像ずれ検出済みフラグ、像ずれ検出不能フラグおよび像移動検出済みフラグをそれぞれクリアする。このクリア処理は、一度フォーカスレンズを駆動した後には、被写体像が大きく変化すると考えられるので、AF検出を最初からやり直すためである。尚、前述したように、被写体像移動中フラグだけは、ここではクリアしない。この理由は、コンティニュアスAFモードでレンズ駆動後に最初のAF検出で合焦判定してしまわないようにして、引き続き被写体の移動を検出するようにするためである。
【0128】
上記ステップS87において、合焦状態である判定の場合は(YES)、2RSWのオン・オフ状態を判別する(ステップS89)。ここで、2RSWがオンされていれば(YES)、上記RAM33に格納されている測光値に基づいて絞りとシャッタを制御して露出動作を行なう(ステップS90)。そして撮影したフィルムを巻き上げて、次のコマの位置に給送し(ステップS91)、一連の撮影動作を終了する。
【0129】
以上説明したように、第1の実施形態では、エリアセンサ上において、像分割方向及び像分割方向に垂直方向の両方について被写体像の位置を検出しているため、上下方向の移動及び左右方向の移動のある移動被写体であっても、その被写体像位置を検出することができ、予測制御が可能となり正確にピントを合わせることができる。
【0130】
次に図19に示すフローチャートを参照して、図15に示したステップS61の動体判定について説明する。
【0131】
まず、初期測距エリアを設定する(ステップS101)。例えば、測距エリアP1を設定する。次に、測距エリア毎に所定速度Vthの値を設定する(ステップS102)。後述する図20において説明するが、周辺の測距エリアほど中央の測距エリアよりもVthを大きく設定する。
【0132】
そして、図15におけるステップS54で像移動が検出可能と判定された測距エリアであるかを判定する(ステップS103)。この判定で、検出可能な測距エリアであれば(YES)、上記ステップS102で設定した測距エリア毎のVthと図15におけるステップS58で演算した像移動速度を比較して、被写体が移動している動体であるか否かを判定する(ステップS104)。
【0133】
この判定で、Vthよりも大きいと判定された場合には(YES)、被写体が動体であると判定して、設定測距エリアの被写体が動体である情報をRAM33に格納する(ステップS105)。しかし、Vthよりも小さいと判定された場合には(NO)、被写体は静体であると判定して、設定測距エリアの被写体が静体である情報をRAM33に格納する(ステップS106)。
【0134】
そして、全測距エリアの動体判定が終了したか否かを判定する(ステップS107)。この判定で、終了していれば(YES)、リターンする。終了していなければ(NO)、次の測距エリアを設定して(ステップS108)、上記ステップS102に戻る。
【0135】
次に図20を参照して、図19のステップS102における、測距エリア毎の所定速度Vth値の設定について説明する。
【0136】
図20の横軸は、図7で説明した測距エリア番号に相当し、縦軸はVthである。
【0137】
測距エリアP13は、撮影画面中央の測距エリア(斜線で示す測距エリアm)であり、測距エリアP7〜P9,P12,P14、P17〜P19は、測距エリアP13に隣接(1エリア周辺)する第1の測距エリア群であり、測距エリアP1〜P5,P6,P10,P16,P20,P21〜P25は中央の測距エリアから2エリア周辺の第2の測距エリア群である。
【0138】
図20は、中央の測距エリアP13に対して第1の測距エリア群は2倍、第2の測距エリア群は3倍のVthとした例を示している。この設定により、第2の測距エリア群に存在する移動被写体は、中央の測距エリアP13よりも3倍動体判定される。
【0139】
以上説明したように、本実施形態によれば、被写体が撮影画面中央に近いほど動体と判定され易くなり、中央の移動被写体に合焦し易くなる。
【0140】
次に、本発明の多点自動焦点カメラに係る第2の実施形態について説明する。
【0141】
図21は、撮影画面に配置された全測距エリアの速度分布と速度分布の変化の例であり、25個の測距エリアを有する図7の測距領域で、図17(a)に示した向かってくる電車を測距した場合に、図15のステップS54の光軸方向の移動速度計算における速度分布の例を示している。 図21(a)では、測距エリアP1〜P5と測距エリアP21〜P25は、背景を測距しているために移動速度は零であり、測距エリアP6,P7,P10,P11,P15,P16,P20は電車の上下エリアを測距しているため、移動速度は零である。その他の測距エリアには電車が存在することとなり、移動速度V1〜V3が観測される。カメラからの距離が近いために、電車の先頭を撮像している測距エリアの速度V3が最大であり、電車側面(後尾)を撮像している測距エリアの移動速度V1が最小である。
【0142】
図21(b)は、図21(a)から時間t1経過した後の速度分布の例である。図21(c)は、図21(a)から、さらに時間t2経過した後の速度分布の例である。但し、t1<t2である。
【0143】
このような速度分布は、電車が紙面中央から右方向に移動しているため、速度が観測される測距エリアも右方向に移動する。また電車がカメラに徐々に接近してくるために徐々に移動速度が速くなっている。
【0144】
また、電車が紙面中庸から左方向に移動していれば、速度分布の動きは、逆方向に移動するようになる。
【0145】
この実施形態では、複数の測距エリアで被写体が動体であると判定された場合には、中央に近い測距エリアの方を優先して選択する。
【0146】
即ち、例えば図21(b)で、移動速度V3の測距エリアと移動速度V4の測距エリアの両方で被写体が動体であると判定された場合には、中央に近いV3の測距エリアを優先的に選択する。
【0147】
図22に示すフローチャートを参照して、第2の実施形態における図15に示したステップS66における被写体が動体であった時の測距エリア選択について説明する。この第2の実施形態のその他のルーチンは、前述した第1の実施形態における他のフローチャートと同じであり、ここでの説明は省略する。
【0148】
尚、本実施形態では、動体時測距エリア選択で中央を優先させるため、前述した第1の実施形態のステップS61における中央を優先させる動体判定のアルゴリズムは、採用しても採用しなくてもよい。採用しない場合には、図20で示したVthの値が全測距エリアで一定になる。
【0149】
まず、初期測距エリアを設定する(ステップS111)。例えば、測距エリアP1を設定する。次に、測距エリア毎に重み付けをする係数を設定する(ステップS112)。具体的には、周辺にある測距エリアよりも中央の測距エリアを重視するように付した係数であり、例えば、図20に示した中央の測距エリアを係数3、第1の測距エリア群(1エリア周辺)を係数2、第2の測距エリア群(2エリア周辺)を係数1に設定する。
【0150】
そして、図15におけるステップS54で像移動が検出可能と判定された測距エリアであるかを判定する(ステップS113)。この判定で、検出可能な測距エリアであれば(YES)、上記ステップS112で設定した測距エリア毎のVthと図15におけるステップS58で演算した像移動速度を比較して、被写体が移動している動体であるか否かを判定する(ステップS114)。
【0151】
この判定で、被写体が動体であれば(YES)、測距エリアの係数と移動速度との掛け算を行って、その結果を”A”とする(ステップS115)。この”A”値は、大きい値である程、中央の測距エリアに近い位置にある被写体であるか、あるいは速い被写体であり、選択する測距エリアを決定するために用いられる値である。
【0152】
次に、得られた上記”A”値が撮影画面内の測距エリア内で最大か否かを判定し(ステップS116)、”A”値が最大になる測距エリアを選択測距エリアとして設定する(ステップS117)。
【0153】
また、上記ステップS113の判定で像移動が検出不能と判定された測距エリアであった場合(NO)、上記ステップS114の判定で被写体が動体でなかった場合(NO)、及び上記ステップS116の判定で、上記”A”値が撮影画面内の測距エリア内で最大でなかった場合(NO)は、後述するステップS118に移行する。
【0154】
そして、全測距エリアの動体判定が終了したか否かを判定する(ステップS118)。この判定で、終了していれば(YES)、リターンする。終了していなければ(NO)、次の測距エリアを設定して(ステップS119)、上記ステップS102に戻る。
【0155】
次に、この第2の実施形態の変形例について説明する。
【0156】
単に撮影画面中央に近い位置に存在する移動被写体の測距エリアを選択するようにできる。このような場合には、図22のステップS115において、移動速度を考慮しないようにして、動体と判定された測距エリアのうち、最も撮影画面中央に近い測距エリアを選択する。即ち、図21(a)と(b)では、中央の測距エリアP13を選択し、図21(c)では、測距エリアP18を選択する。ただし、この場合には、速度の速い被写体に合焦しにくいという欠点もある。
【0157】
以上説明したように、第2の実施形態によれば、撮影画面中央に近い位置に存在する被写体、若しくは移動速度の速い被写体を優先して選択し、合焦することができる。
【0158】
次に本発明による多点自動焦点カメラに係る第3の実施形態について説明する。
この第3の実施形態は、前述した第1、第2の実施形態において説明した動体判定が、被写体の移動速度を所定値と比較して判定する方法であったが、これとは別の方法による動体判定によるものである。つまり、動体であると判定された測距点が複数存在する場合に、画面内の移動方向も判定し、周辺から中央に向かう被写体を中央から周囲に向かう被写体よりも優先させるものである。
【0159】
図23には、運動会のリレーシーンを例として示し説明する。この図の参照符号や測距エリア等は、前述した図17と同等の部位を示しているものとする。この構図においては、被写体70が測距枠P7,P2,P12で検出され、画面左から画面中央に向かって走っている。併走する被写体71は、被写体70の後方で測距枠P6,P1で検出され、画面左から画面中央に向かって走っている。また被写体72は、被写体70の前方で測距枠P9,P4で検出され、画面中央から画面右に向かって走っている。
【0160】
このようなシーンの場合、画面中央に向かっており、且つ、より中央に位置している被写体70が撮影者の意図している主要被写体である確率が高い。また、被写体が露光時に画面から外れてしまう確率も低く、より中央に位置しているので解像力の点でも有利になる。
【0161】
この第3の実施形態では、このように被写体の画面内の移動方向(光軸に垂直な方向の移動方向)を判定し、被写体71や被写体72よりも中央に近い被写体70を優先的に選択する。従って、この選択方法を用いれば、図23に示す例において、3人の被写体が逆方向(紙面右から左)に走っていた場合には、被写体72が優先的に選択されることとなる。
【0162】
次に図24に示すフローチャートを参照して、第3の実施形態におけるAF検出ルーチンについて説明する。
このAF検出ルーチンは、前述した図15に示したフローチャートにおけるステップS57(第2被写体像の移動量検出)とステップS58(光軸方向の移動量検出)との間に、被写体の画面内の移動方向を計算するルーチン(ステップS67)を挿入したルーチンである。
【0163】
このステップS67は、被写体の画面内の移動方向を計算するルーチンであり、これは、図12で説明した左右のそれぞれの像移動量ΔXL とΔXR から求める。図12(a)と図12(b)を比較するとわかるように、同図(b)は被写体66が横に移動しているので像ずれ量△Zは変化しないが、ΔXL 及びΔXR は(a)よりも大きい。また図12(a)では、被写体66が光軸方向に移動しているため、ΔXL とΔXR はベクトルの方向が異なるのみで絶対値はほぼ等しい。つまり、時刻t1とt2の像ずれ量変化量の半分の値と、ΔXL 及びΔXR の値の差を演算すれば、それが横方向への被写体の移動を示す量となる。
【0164】
次に、図25に示すフローチャートを参照して、第3の実施形態における被写体が動体であった時の測距エリア選択について説明する。
【0165】
この測距エリア選択は、前述した図22に示したフローチャートのステップS115の代わりにステップS120(方向係数の設定)とステップS121(方向係数を加味した”A”値)を挿入するものである。この図25に示すフローチャートの工程において、図22の工程と同等のステップには、同じステップ番号を付して、説明を簡略化する。
【0166】
まず、初期測距エリアを設定し(ステップS111)、測距エリア毎に重み付けのための係数を設定する(ステップS112)。そして像移動が検出可能と判定された測距エリアであるかを判定し(ステップS113)、検出可能な測距エリアであれば(YES)、被写体が移動している動体であるか否かを判定する(ステップS114)。この判定で、設定エリアの被写体が動体であれば(YES)、移動方向によって方向係数を設定する(ステップS120)。例えば、被写体が周辺から中央へ向かって移動している場合には係数3、中央から周辺に向かって移動している場合には係数1を設定する。即ち、図23(a)に当て嵌めれば、被写体70と被写体71は係数3となり、被写体72は係数1となる。
【0167】
その後、ステップS112で設定したエリア係数とステップS120で設定した方向係数と演算済の移動速度との掛け算を行って、その結果を”A”とする(ステップS121)。この”A”値は、前述した様に大きい値である程、中央の測距エリアに近い位置にある被写体であるか、あるいは速い被写体であり、選択する測距エリアを決定するために用いられる値である。
【0168】
次に、この”A”値が撮影画面内の測距エリア内で最大であれば設定エリアを選択する(ステップS116,S117)。また、ステップS113で像移動が検出不能の測距エリア、ステップS114で被写体が動体でなかった、若しくはステップS116で”A”値が最大でなかった場合は、全測距エリアの動体判定が終了したか否かを判定する(ステップS118)。この判定で、終了していれば(YES)、リターンする。終了していなければ(NO)、次の測距エリアを設定して(ステップS119)、上記ステップS112に戻る。
【0169】
このような測距エリア選択のルーチンによって、画面の中央を重視しつつ、周辺から中央に移動している被写体も重視する測距エリア選択ができる。
【0170】
以上説明したように、この第3の実施形態によれば、被写体の画面内の移動方向(光軸に垂直な方向の移動方向)を判定し、周辺から中央に向かう被写体を中央から周辺に向かう被写体よりも優先的に選択するため、効果として、露光時により中央に位置する確率が高く(測距精度よい)、被写体が露光時に画面から外れてしまう確率も低くなり、さらに、より主要被写体である確率も高くなる。
【0171】
次に、図26に示すフローチャートを参照して、第3の実施形態における被写体が動体であった時の測距エリア選択の変形例について説明する。この変形例は、中央に向かって移動している被写体が最も中央に近い測距点に存在する被写体を選択するエリアに設定するものである。
【0172】
まず、初期測距エリアを設定し(ステップS111)、像移動が検出可能と判定された測距エリアであるかを判定し(ステップS113)、検出可能な測距エリアであれば(YES)、被写体が移動している動体であるか否かを判定する(ステップS114)。この判定で、設定エリアの被写体が動体であれば(YES)、この被写体が画面の中央に向かって移動しているか否かを定し(ステップS122)、被写体が中央に向かって移動している場合には(YES)、その被写体が最も中央に近い測距点に存在しているか否かを判定する(ステップS123)。一方、被写体が中央に向かわず、それ以外の周辺に向かって移動しているならば(NO)、選択されるエリアが存在しないものと見なし、第2候補として設定する(ステップS124)。
【0173】
また上記ステップS123の判定において、被写体が最も中央に近い測距点に存在していれば(YES)、この設定エリアを選択する(ステップS117)。しかし、被写体が最も中央に近い測距点に存在していなけば(NO)、ステップS124に移行して、第2候補として設定する。その後、全測距エリアの動体判定が終了したか否かを判定する(ステップS118)。この判定で、終了していれば(YES)、リターンする。終了していなければ(NO)、次の測距エリアを設定して(ステップS119)、上記ステップS112に戻る。
【0174】
この変形例によれば、図23(a)の構図で、被写体70と被写体71が存在しなかった場合に、被写体72が選択され、被写体70のみ存在しなかった場合には被写体71が中央に向かっているのでこれを選択する。従って、図25の測距エリア選択とは異なって、移動速度ではウエイト付けしておらず、単に移動方向と存在するエリアによって最終的な選択エリアを設定している。
【0175】
尚、本出願人出願の特開平11−44837号公報には、図13のt=t0のセンサデータとt=t1のセンサデータの間の相関演算の信頼性から動体判定する方法が開示されている。
エリアセンサを使用した例で説明したが、複数のラインセンサを用いてもよい。撮影画面内15に測距エリアすべての焦点検出領域を使用する例で説明したが、タイムラグを短縮する観点から領域を間引いたり(例、周辺の領域を省く)してもよい。
【0176】
あるいは、複数の測距エリアを1つのグループとして、分割してもよい。その場合には、図7に示した測距エリアの分割の仕方のみが異なっている。
移動速度検出方法は、本実施の形態で説明した以外の方法でもよい。
例えば、S43で検出される像ずれ量の時間変化を演算してもよい。また、移動速度を演算して動体判定しなくとも、像移動量の大小から直接動体判定してもよい。
【0177】
以上の実施形態について説明したが、本明細書には以下のような発明も含まれている。
【0178】
(1)撮影画面に複数の焦点検出領域を持つ多点自動焦点カメラにおいて、
各焦点検出領域内における被写体像の速度分布の変化量を検出する像速度変化量検出手段と、
上記像速度変化量検出手段の出力に基づいて、被写体が移動しているか否かを判定する動体判定手段と、
上記動体判定手段により、複数の測距エリアで被写体が動体であると判定された場合には、中央に近い測距エリアの方を優先して合焦測距エリアとして選択する選択手段とを具備し、
上記動体と判定された被写体のうち、撮影画面中央に近い被写体が存在する焦点検出領域に合焦することを特徴とする多点自動焦点カメラ。
【0179】
(2)上記撮影画面に配置された焦点検出領域のそれぞれに対して、動体判定を行うための係数を、撮影画面中央に近い焦点検出領域ほど小さい値を設定することにより、測距エリア選択時に撮影画面中央に近い焦点検出領域を優先させる事を特徴とする上記(1)に記載の多点自動焦点カメラ。
【0180】
(3)上記動体判定手段により撮影画面内で判定された複数の被写体が共に動体であると判定された場合には、撮影画面中央に近い被写体が存在する焦点検出領域を選択することを特徴とする上記(1)に記載の多点自動焦点カメラ。
【0181】
【発明の効果】
以上詳述したように本発明によれば、撮影画面内に複数の測距エリア(焦点検出領域)が配置され、移動する被写体に合焦させる場合に、測距精度が高い画面中央における動体判定を優先しつつ、画面全体を測距して動体判定を行い、その判定結果に基づき、撮影レンズの合焦を行う焦点検出機能を備える多点自動焦点カメラを提供することができる。また、画面の周辺から中央に向かって移動する被写体を検出したならば、この被写体を優先して測距エリアとして選択することにより、露光時により中央に近い位置に被写体が存在する確率が高くなる上、露光時に被写体が画面から外れてしまう確率を低くすることができる。
【図面の簡単な説明】
【図1】本発明の多点自動焦点カメラの焦点検出機能における概念的なブロック構成を示す図である。
【図2】本発明による多点自動焦点カメラとして、一眼レフレックスカメラに適用した構成例の断面を示す図である。
【図3】測距を含む光学系を模式的に示す図である。
【図4】図2において説明したカメラの電気制御系を含む機能ブロックを示す図である。
【図5】図4に示したエリアセンサの具体的な回路構成を示す図である。
【図6】エリアセンサの画素ユニットの具体的な回路構成を示す図である。
【図7】撮影画面内の検出領域を構成する各測距エリアの配置例を示す図である。
【図8】エリアセンサの蓄積動作について説明するためのタイムチャートである。
【図9】2つのエリアセンサを構成する測距エリアの配置例を示す図である。
【図10】エリア対応するフォトダイオードの配列を直線的に示す図である。
【図11】像ずれ量検出ルーチンに関する処理手順に基づいて説明するためのフローチャートである。
【図12】移動する被写体に対する焦点検出の原理を説明するための図である。
【図13】被写体像の移動について説明するための図である。
【図14】移動量検出ルーチンについて説明するためのフローチャートである。
【図15】AF検出ルーチンについて説明するためのフローチャートである。
【図16】第1の実施形態において被写体像移動量を検出のためのシフトについて説明するための図である。
【図17】撮影画像の構図として、電車がカーブに差し掛かったシーンを例として示す図である。
【図18】本発明の多点自動焦点カメラを適用したカメラのメインルーチンについて説明するためのフローチャートである。
【図19】動体判定について説明するためのフローチャートである。
【図20】本発明の多点自動焦点カメラに係る第2の実施形態における測距エリア毎の所定速度Vth値の設定について説明するためのフローチャートである。
【図21】第2の実施形態における撮影画面に配置された全測距エリアの速度分布と速度分布の変化を示す図である。
【図22】被写体が動体であった時の測距エリア選択について説明するためのフローチャートである。
【図23】次に本発明による多点自動焦点カメラに係る第3の実施形態について説明するための図である。
【図24】第3の実施形態におけるAF検出ルーチンについて説明するためのフローチャートである。
【図25】第3の実施形態における被写体が動体であった時の測距エリア選択について説明するためのフローチャートである。
【図26】第3の実施形態の変形例について説明するためのフローチャートである。
【符号の説明】
1…焦点検出部(エリアセンサ)
2…焦点演算部
3…像移動量演算部
4…測距エリア選択部
5…焦点制御部
6…焦点調節部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a multipoint autofocus camera having a focus detection function for arranging a plurality of focus detection areas (ranging areas) in a shooting screen and measuring a distance, and focusing a shooting lens based on the distance measurement result. .
[0002]
[Prior art]
From a spot distance measurement in which a single focus detection area (hereinafter referred to as a distance measurement area or area) is arranged in the vicinity of the center of the conventional image capture screen, a plurality of distance measurement areas are arranged in the image capture screen. There is a multipoint autofocus camera that has a ranging function for performing multipoint distance measurement and performs focusing automatically.
[0003]
A general multi-point autofocus camera has a three-range area specification in which a distance measurement area is arranged in the center of the shooting screen and on the left and right sides thereof, and above and below the distance measurement area at the center of these three distance measurement areas. There is a specification of five ranging areas arranged one by one, but recently, cameras with more ranging areas are commercialized, and the ranging areas tend to increase.
[0004]
In the future, there may be a range finding area that covers the entire shooting screen. The following techniques are known as conventional techniques for photographing a subject moving within a photographing screen with such a camera.
[0005]
For example, in the case where the subject existing in the shooting screen is determined to be a moving subject in Japanese Patent Application Laid-Open No. 5-11170, the present applicant prohibits distance measurement in a distance measurement area around the subject. Has proposed. According to this technique, a moving object detection operation that requires multiple times of distance measurement and takes time is performed before pressing the shutter button for release, a moving subject is specified, and the distance measurement is performed by detecting the moving subject. By measuring the distance only in the area, the time lag of the shutter can be shortened.
[0006]
In Japanese Patent No. 2756330, when the servo mode (continuous AF, a mode in which a moving object predictive AF control that generally follows a moving object is set) is set, the center of the shooting screen is set as a distance measuring area. The technology to select as is proposed. In this technique, when shooting a moving subject, the subject on the closest side is not considered as the main subject to be photographed, and the distance measurement area is fixed assuming that the main subject exists in the center of the shooting screen. .
[0007]
The reason for selecting the center of the shooting screen in these conventional techniques as the distance measurement area is that if the subject moving by shaking the camera is chased to remain in the shooting screen, the probability that the subject exists in the center of the screen is high. Based on this fact, the distance measuring operation on the peripheral side of the shooting screen can be omitted by this technique, and the time lag in pressing the shutter button can be shortened.
[0008]
In addition, when the distance is measured at the center of the shooting screen, that is, near the center of the shooting lens, the aberration increases as the shooting lens moves toward the periphery. This is advantageous in terms of resolving power.
[0009]
Therefore, focusing on a moving subject according to the prior art is excellent in terms of shortening the time lag and increasing the resolution.
[0010]
[Problems to be solved by the invention]
However, the conventional technique for selecting and focusing only the distance measuring area at the center of the shooting screen described above cannot accurately focus when the moving subject is out of the center of the shooting screen.
[0011]
For example, a case where the scene to be photographed has a composition including a moving subject as shown in FIG. 17A will be described as an example.
[0012]
FIG. 17A shows a scene in which a running train approaches a curve, and FIG. 17B shows an arrangement example of ranging areas P1 to P15 arranged on the shooting screen. In this arrangement example, the correspondence between the distance measurement areas is shown in both figures so that it can be easily understood. For example, the center distance measurement area P3 is located at the intersection of line B and line D. The distance area P15 is located at the intersection of the line C and the line H. A description will be given by taking the center horizontal line B as an example.
[0013]
As shown in FIG. 17A, since the distance measurement area P1 measures the background, the moving speed of the subject detected here is “0”.
[0014]
On the other hand, since the distance measurement areas P2 to P5 are distance-measuring the train, the moving speed of the subject detected here is measured. Since the front of the train is closer to the camera, the moving speed detected in each ranging area is as follows.
[0015]
Ranging area P1 = 0 <Ranging area P2 <Ranging area P3 <Ranging area P4 = Ranging area P5
In the techniques described in Japanese Patent Laid-Open No. 5-11170 and Japanese Patent No. 2756330, when a moving subject is measured, the distance is measured only in the distance measuring area at the center of the shooting screen. The photograph is focused on the area P3.
[0016]
However, since the distance measurement area P3 measures the side of the train, it does not focus on the front end of the train and becomes a rear pin in the appearance of the photograph.
[0017]
Also, it is more difficult for a fast-moving moving subject to keep the subject at the center of the shooting screen than when it is a stationary subject, and if it moves away from the center of the shooting screen, it will not focus on the moving subject at all. There are many possibilities.
[0018]
Therefore, the present invention provides a plurality of ranging areas (focus detection areas) in the shooting screen, and when focusing on a moving subject, the whole screen is given priority to moving object determination at the center of the screen with high ranging accuracy. An object of the present invention is to provide a multi-point autofocus camera having a focus detection function for measuring a moving object and determining a moving object and focusing a photographing lens based on the determination result.
[0019]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a multipoint autofocus camera having a plurality of focus detection areas, an image movement calculation means for calculating an amount related to movement of a subject image within each focus detection area, and the image movement calculation described above. Moving object determining means for determining whether or not the subject is moving based on the output of the means; If there are a plurality of movement direction calculation means for calculating the movement direction of the subject in the screen based on the output of the image movement calculation means, and a plurality of focus detection areas determined by the moving object determination means as moving objects, the movement Selecting means for preferentially selecting a focus detection area indicating that the moving direction calculated by the direction calculating means is directed from the periphery to the center of the screen. Provide multi-point autofocus camera.
[0020]
The multi-point autofocus camera configured as described above is a subject by moving object determination with a weight placed at the center of the screen based on the amount of subject image movement obtained from the entire shooting screen when focusing on the moving subject. However, by selecting a distance measurement area close to the center of the screen with priority from the moving object determination result, distance measurement is performed on the entire screen while giving priority to the center of the screen, and the photographing lens is focused based on the distance measurement result.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing a conceptual block configuration of the focus detection function in the multipoint autofocus camera of the present invention.
This multipoint autofocus camera includes an AF sensor that outputs a focus detection signal, for example, a focus detection unit 1 including an area sensor, and a focus calculation unit 2 that performs calculations necessary for focus adjustment based on the output focus detection signal. And, based on the calculation result from the focus calculation unit 2, an image movement amount calculation unit 3 that calculates an amount related to the image movement of the subject, and an output of the image movement amount calculation unit 3 in a plurality of distance measurement areas. Based on a distance measurement area selection unit 4 for selecting a focus detection area, a focus control unit 5 including a CPU that controls focus of these components, and a control signal from the focus control unit 5 And a focus adjusting unit 6 that drives a photographing lens (not shown) to a focus position to achieve a focus state.
[0022]
FIG. 2 is a sectional view of a configuration example applied to a single-lens reflex camera as a multipoint autofocus camera according to the present invention.
This camera includes a focus detection unit 11 for detecting the focus at the lower part of the camera body 10. At normal times, the light beam (subject image) that has passed through the photographic lens 12 is reflected by the main mirror 13 toward the upper part of the finder 14 and the remaining light beam is transmitted and travels straight. The light beam reflected by the main mirror 13 is guided to the finder 14 via the pentaprism, and enters the observer's eyes as a photographing screen. On the other hand, the light beam transmitted through the main mirror 13 is reflected downward by the sub-mirror 15 integrally attached to the main mirror 13 and guided to the focus detection unit 11.
[0023]
The focus detection unit 11 totally reflects the luminous flux, a field mask 17 that narrows the luminous flux that has passed through the photographing lens 12, an infrared cut filter 18 that cuts infrared light components, a condenser lens 19 that collects the luminous flux, and the like. Total reflection mirror 20, pupil mask 21 for limiting the amount of light beam passing through, re-imaging lens 22 for re-imaging the light beam on photoelectric conversion element group 26 on area sensor 23, photoelectric conversion element group 26 and its The area sensor 23 is composed of a processing circuit.
[0024]
At the time of photographing with such a camera, the main mirror 13 and the sub mirror 15 are mirrored up and retracted to the position of the dotted line, the shutter 24 is opened for a predetermined time, and the light beam (subject image) that has passed through the photographing lens 12 is applied to the film 25. Exposed.
[0025]
3A and 3B schematically show an optical system including distance measurement.
FIG. 3A shows the configuration of a focus detection optical system (phase difference detection optical system) that guides a light beam (subject image) onto the photoelectric conversion element group 26 of the area sensor 23 in the focus detection unit 11. b) shows a perspective view thereof.
[0026]
This focus detection optical system includes a photographing lens 12, a field mask 17 that defines a field range, a condenser lens 19, and an opening 21a disposed substantially symmetrically with respect to the optical axis of the photographing lens 12 in the optical path. A pupil mask 21 having 21b is provided, and further, re-imaging lenses 22a and 22b are provided behind the openings 21a and 21b, respectively. In FIG. 3A, the above-described total reflection mirror 20 is omitted.
[0027]
In such a configuration, the subject luminous flux that has entered through the areas Ha and Hb of the exit pupil H of the photographing lens 12 is sequentially connected to the field mask 17, the condenser lens 19, the openings 21a and 21b of the pupil mask 21, and the reconnection. The images pass through the image lenses 22a and 22b, respectively, and are re-imaged on the photoelectric conversion element groups 26 in the two regions 23a and 23b in which a large number of photoelectric conversion elements in the area sensor 23 are arranged. For example, when the photographing lens 12 is “in focus”, that is, when the subject image 1 is formed on the imaging plane G, the subject image 1 is perpendicular to the optical axis O by the condenser lens 19 and the re-imaging lenses 22a and 22b. The image is re-imaged on the photoelectric conversion element group 26 of the area sensor 23, which is a secondary image formation surface, to become a first image I1 and a second image I2 as illustrated.
[0028]
When the photographing lens 12 is a “front pin”, that is, when a subject image F is formed in front of the imaging plane G, the subject images F are perpendicular to the optical axis O in a form closer to each other. Are re-imaged into a first image F1 and a second image F2.
[0029]
Further, when the subject lens R is formed on the rear pin, that is, behind the imaging plane G, the subject image R is re-perpendicular to the optical axis O in a form separated from the optical axis O by each other. An image is formed to become a first image R1 and a second image R2.
Therefore, by detecting and measuring the distance between the first image and the second image, the in-focus state of the photographic lens 12 can be detected including the front pin and the rear pin. Specifically, the light intensity distribution of the first image and the second image is obtained from the output of subject image data corresponding to the area sensor 23 (openings 23a and 23b) so that the interval between the two images can be measured. It is configured.
[0030]
FIG. 4 shows functional blocks including the electric control system of the camera described in FIG. 2, and the detailed configuration and operation of each part will be described.
In this configuration, the control unit 30 performs overall control of the entire camera, and includes an arithmetic / processing unit 31 including a CPU, a ROM 32, a RAM 33, and an A / D converter 34, for example. Yes.
[0031]
The control unit 30 controls a series of operations of the camera according to a camera sequence program (detailed later) stored in the ROM 32. Further, the EEPROM 35 can store and hold correction data relating to AF control, photometry, etc. as information unique to each camera body. Further, the area sensor 23, the lens driving unit 33, the encoder 37, the photometry unit 39, the shutter driving unit 40, the aperture driving unit 41, and the film driving unit 42 are connected to the control unit 30 so as to be able to communicate with the control unit 30. Has been.
[0032]
In such a configuration, the lens driving unit 36 drives the focusing lens 12a of the photographing lens 12 with the motor ML38 based on the control of the control unit 30. At this time, the encoder 37 generates a pulse corresponding to the amount of movement of the focusing lens 12a and sends the pulse to the control unit 30, so that lens driving is appropriately controlled.
[0033]
The photometry unit 39 has an SPD (silicon photodiode) corresponding to the photographing area, and generates an output corresponding to the luminance of the subject. The control unit 30 converts the photometric result of the photometric unit 39 into a digital signal by the A / D converter 34 and stores the photometric value in the RAM 33.
[0034]
The shutter drive unit 40 and the aperture drive unit 41 operate in accordance with a predetermined control signal from the control unit 30 to drive a shutter mechanism and an aperture mechanism (not shown) to expose the film surface.
[0035]
The film drive unit 42 performs film auto-loading, winding and rewinding operations according to a predetermined control signal from the control unit 30. The first release switch (hereinafter referred to as 1RSW) and the second release switch (hereinafter referred to as 2RSW) are interlocked with the release button. Subsequently, 2RSW is turned on by the pressing operation in the second stage. The control unit 30 appropriately controls each part so that photometry and AF (automatic focus adjustment) processing is performed when 1RSW is on, and exposure operation and film winding operation are performed when 2RSW is on.
[0036]
FIG. 5 shows a specific circuit configuration of the area sensor 23 described above.
[0037]
The pixel portion (that is, the photoelectric conversion element group 26) in the area sensor 23 is composed of a large number of pixel units 51 that are regularly arranged in a matrix.
[0038]
In this configuration, the accumulation control unit 52 controls the accumulation operation of the pixel unit in accordance with a control signal from the control unit 30. The output V0 of each pixel unit 51 is selected by the vertical shift register 53 and the horizontal shift register 54 and input to the buffer 55. The output SDATA from the buffer 55 is input to the A / D converter 34 in the control unit 30 and A / D converted.
[0039]
The output VM of each pixel unit 51 is connected to the output VM of a predetermined plurality of pixel units 51 and is input to the buffer 55 via the switches MSL1 to MSLn.
[0040]
In the area 56, the potential at the point M connecting the outputs VMn of the plurality of pixel units 51 generates a potential corresponding to the peak value of the outputs VMn in the plurality of pixel units 51. Constitutes a peak detection circuit that outputs them. Accordingly, when the switches MSL1 to MSLn are sequentially turned on, the potential corresponding to the peak value in each distance measuring area 56 can be monitored via the buffer 55. The output VP of the buffer 55 is input from the terminal MDATA to the A / D converter 34 in the control unit 30 and A / D converted.
[0041]
Next, FIG. 6 shows a specific circuit configuration of the pixel unit 51 described above.
The pixel unit 51 includes a photodiode 61 that functions as a photoelectric conversion element, a capacitor 62, an amplifier 63, switches 64 and 65, and an NMOS transistor 66.
[0042]
An amplifier 63 is connected to the output side of the photodiode 61, and a capacitor 62 is connected to the input / output terminal of the amplifier 63, and charges generated by the photodiode 61 are accumulated.
[0043]
The output side of the amplifier 63 is connected to an output terminal (output V0) via serially connected switches 64 and 65 which are switched on and off by signals Xn and Yn from the vertical shift register 53 and the horizontal shift register 54, respectively. Connected.
[0044]
Further, the output side of the amplifier 63 is connected to the gate of the NMOS transistor 66 whose drain is connected to a fixed voltage, and the source of the NMOS transistor is connected to the monitor output terminal (monitor output VM).
[0045]
In such a circuit configuration, the output of the amplifier 63 is assumed to change in a direction in which the potential increases as the accumulation amount of the capacitor 62 increases. Since the monitor output VM is connected to the outputs of the plurality of pixel units 51, a potential indicating the peak value of the accumulated amount is generated. In this way, each pixel unit 51 performs photoelectric conversion and supplies an output as an element corresponding to the distance measurement area to the image movement amount calculation unit 3 described above.
[0046]
Next, FIG. 7 shows an arrangement example of the distance measuring areas P1 to Pn constituting the focus detection area in the photographing screen.
The switches MSL1 to MSLn described above are connected corresponding to the respective ranging areas 1 to n. Therefore, for example, when one of the switches MSL1 to MSLn is turned on, the corresponding ranging area The peak output VM in Pm is selected and output to the monitor terminal MDATA.
[0047]
Further, for example, when a plurality of switches are turned on, peak values in the plurality of ranging areas can be monitored. For example, when all the switches MSL1 to MSLn are turned on, the peak values in all the distance measurement areas of the area sensor 23 can be output and monitored at the MDATA terminal.
[0048]
The accumulation operation of the area sensor 23 described above will be described with reference to the time chart shown in FIG. Here, a description will be given taking distance measuring areas P5, P6, and P7 in the shooting screen as an example.
After starting the accumulation operation of the area sensor 23 by the accumulation start signal (INTS), the control unit 30 refers to the peak value in order for each distance measurement area. At this time, the distance measurement area that reaches the appropriate accumulation level the fastest is preferentially referred to. When the peak value of the distance measurement area reaches the appropriate accumulation level, accumulation is performed for each distance measurement area by the accumulation end signal (INTE). End the operation.
[0049]
That is, as shown in FIGS. 9A and 9B, the two area sensors 23a and 23b constituting the area sensor simultaneously correspond to the distance measuring areas corresponding to each, for example, a5 and b5 corresponding to the distance measuring area P5. The accumulation operation is terminated. That is, the accumulation operation of am, bm, (1 ≦ m ≦ n) corresponding to a certain distance measurement area is sequentially performed on all the distance measurement areas.
[0050]
10A and 10B linearly show the arrangement of the photodiodes 61 corresponding to one distance measuring area m of am and bm.
[0051]
The photodiode array am constituting the right area sensor 23a can be expressed as L (1), L (2), L (3),..., L (64), and the subject image signal is sequentially processed. Similarly, the photodiode array bm constituting the left area sensor 23b is represented as R (1), R (2), R (3),..., R (64), and the subject image signal is also processed sequentially. The
[0052]
Therefore, the control unit 30 detects each subject image as data by controlling each unit as follows.
That is, when the control unit 30 inputs the read clock CLK to the area sensor 23, sensor data that is a subject image signal is sequentially output from the terminal SDATA of the area sensor 23. Therefore, the sensor data is A / D converted by the A / D converter 34 in the control unit 30 and sequentially stored in the RAM 32. In this way, the control unit 30 can, for example, designate a certain distance measurement area and read only the sensor data corresponding to the distance measurement area.
[0053]
Next, the AF detection calculation based on the subject image data obtained as described above will be described. For example, in this embodiment, there are two types of correlation calculations. One of the methods is a method of calculating a shift amount between two images (referred to as “image shift amount”) by performing a correlation calculation between the first subject image and the second subject image divided by the focus detection optical system. . The other method is a method in which a correlation calculation is performed between the subject image at time t0 and the subject image at time t1 to obtain a movement amount of the subject image.
[0054]
(I) Correlation calculation for obtaining image shift amount:
First, the correlation calculation for obtaining the image shift amount between the first subject image and the second subject image will be described. The subject image data is generally L (i, j) for each of the pair of area sensors 23a and 23b. , R (i, j).
[0055]
In the following description, for the sake of simplicity, a pair of distance measuring areas corresponding to the area sensors 23a and 23b, that is, one-dimensional subject image data, are respectively represented as L (I) and R (I) (I = 1 to k). This will be described (see FIG. 10). Here, in the present embodiment, k = 64 will be described with reference to the flowchart shown in FIG. 11 based on the processing procedure related to the “image shift amount detection” routine.
[0056]
First, initial values of variables SL, SR and FMIN are set (step S1). Here, SL ← 5, SR ← 37, and FMIN = FMIN 0 are set.
[0057]
Next, 8 is input as the initial value of the loop variable J (step S2), and the correlation calculation of equation (1) is performed to obtain the correlation value F (s) (step S3).
[0058]
F (s) = Σ | L (SL + I) −R (SR + I) | (1)
(However, s = SL-SR, I = 0 to 26)
However, variables SL and SR are variables indicating the head position of a block on which correlation calculation is performed among the subject image data L (I) and R (I), respectively, and J is a block of the block on the subject image data R (I). It is a variable for storing the number of shifts, and the number of subject image data in a block is 27.
[0059]
Next, the correlation value F (s) is compared with FMIN (initial value FMIN 0 at first, and initial value or updated value after the second time) (step S4). In this comparison, if F (s) is smaller (YES), FMIN is updated to F (s), and SLM and SRM are updated to SL SR (step S5).
[0060]
On the other hand, if FMIN is smaller than the correlation value F (s) in the comparison in step S4 (NO), 1 is subtracted from SR and J to set the next block (step S6). Then, it is determined whether or not J = 0 (step S7). If it is not yet 0 (NO), the process returns to step S3 and the same correlation calculation is repeated. In this way, the block in the subject image data L (I) is fixed, and the block in the subject image R (I) is shifted one element at a time to perform correlation calculation.
[0061]
On the other hand, if J is 0 in the determination in step S7 (YES), 4 and 3 are added to the variables SL and SR, respectively, and the next block is set as a target (step S8). Next, it is determined whether or not SL = 29 (step S9). If not 29 (NO), the process returns to step S2 to continue the correlation calculation. However, if SL = 29 (YES), the correlation calculation is terminated. In this way, the block for performing the correlation calculation is set on the subject image data L (I) and R (I), and the correlation calculation is repeatedly performed. As a result of the correlation calculation of each block obtained in this way, the correlation value F (s) becomes the minimum at the shift amount s = x where the correlation of the subject image data is the highest. At this time, SL and SR at the time of the minimum correlation value F (x) are stored in SLM and SRM.
[0062]
Next, the following correlation values FM and FP at the shift positions before and after the minimum correlation value F (x) used when calculating the reliability index described later are obtained (step S10).
[0063]
[Expression 1]
Figure 0004610714
[0064]
Then, a reliability index SK for determining the reliability of the correlation calculation is calculated (step S11). This reliability index SK is obtained by calculating the sum of the minimum correlation value F (x) and the second smallest correlation value FP (or FM) as a value corresponding to the contrast of the object data (FM -F (x) or FP -F (x )) Is a numerical value standardized by (4) or (5).
[0065]
[Expression 2]
Figure 0004610714
[0066]
Next, it is determined whether or not the reliability index SK is greater than or equal to a predetermined value α (step S12). If SK is greater than or equal to α (YES), it is determined that the reliability is low and an undetectable flag is set ( Step S13). On the other hand, when SK is less than α (NO), it is determined that there is reliability, and the image shift amount ΔZ is calculated (step S14). For example, the shift amount x0 that gives the minimum value FMIN = F (x0) with respect to the continuous correlation amount is obtained by the following equation using a three-point interpolation method.
[Equation 3]
Figure 0004610714
[0067]
It should be noted that the image shift amount ΔZ can be obtained by Expression (8) using the shift amount x0.
ΔZ = x0−ΔZ0 (8)
(However, ΔZ0 is an image shift amount at the time of focusing).
[0068]
Further, the defocus amount ΔD of the subject image plane with respect to the planned focal plane can be obtained from equation (9) from the image shift amount ΔZ obtained by the above equation.
[Expression 4]
Figure 0004610714
[0069]
The defocus amount is calculated for each of the plurality of distance measuring areas selected in this way. Then, for example, a defocus amount indicating the shortest distance is selected from a plurality of ranging areas.
[0070]
Further, the lens driving amount ΔL is obtained from the selected defocus amount ΔD by Expression (10).
[Equation 5]
Figure 0004610714
[0071]
A focus state can be obtained by driving the focus lens based on the lens driving amount ΔL.
[0072]
(II) Principle for predicting subject image position:
The principle of focus detection for the moving subject shown in FIGS. 12 (a) to 12 (d) will be described.
[0073]
In FIG. 12, when the relationship between the subject 66, the camera 10, and the area sensor 23 is seen, for example, as shown in FIG. 12 (a), the subject 66 approaches straight toward the camera 10 (in the direction of arrow G3). The first and second subject images on the first (L) and the second sensor (R) move outward from each other between time t0 and time t1 in accordance with the focus detection principle described above. In this case, the movement amounts ΔXL and ΔXR of the subject image are equal.
[0074]
Also, as shown in FIG. 12B, when the subject 66 moves parallel to the horizontal direction (arrow G1 direction) orthogonal to the optical axis toward the camera 10, the two subject images move in the same direction. In this case, the movement amounts ΔXL and ΔXR of the subject image are equal.
[0075]
Further, as shown in FIG. 12C, when the subject 66 approaches the left front (in the direction of arrow G4) toward the camera 10, the first subject image (L) moves outward due to the approach. Then, the amount of movement to the left due to the parallel movement to the left is canceled and the amount of movement becomes small.
[0076]
Similarly, as shown in FIG. 12 (d), when the subject 66 moves backward leftward toward the camera 10, the first subject image (L) moves inward by moving away and translates leftward. The amount of movement to the left due to this is offset and the amount of movement becomes smaller. On the other hand, the amount of movement of the second subject image (R) is increased by adding the amount of inward movement due to moving away and the amount of leftward movement due to parallel movement to the left.
[0077]
Here, based on the subject image from time t0 to time t1, the movement amounts ΔXL and ΔXR of the first and second subject images are detected by means for performing correlation calculation described later, and the rightward movement is + and The movement amount of the subject image in the optical axis direction can be obtained by ΔXR−ΔXL, and the movement amount of the subject image in the horizontal direction can be obtained by ΔXR + ΔXL. Therefore, if the movement amounts ΔXR and ΔXL of the subject image from time t0 to time t1 are obtained, the position of the subject image at time t2 can be predicted.
[0078]
If the subject is moving at a constant speed, the moving speed of the subject image in the horizontal direction is a constant speed. Although the moving speed of the subject image in the optical axis direction is not strictly constant, it may be considered constant at a minute time interval.
Accordingly, the predicted position of the first subject image at time t0 has moved by ΔXL ′ shown in Expression (11) from the subject image position at time t1. That is,
[Formula 6]
Figure 0004610714
[0079]
Similarly, the predicted position of the second subject image moves by ΔXR ′ shown in Expression (12).
[0080]
[Expression 7]
Figure 0004610714
[0081]
Also, assuming that the image shift amount of the first and second subject images at time t1 is ΔZ, the predicted image shift amount ΔZ ′ at time t2 is obtained as shown in Expression (13).
[Equation 8]
Figure 0004610714
[0082]
Then, based on the predicted image shift amount ΔZ ′, the lens drive amount is obtained. By setting the time t2 as the time until the start of exposure, it is possible to obtain a photograph focused on the moving subject. At this time, whether the subject is approaching or moving away is determined based on the sign of ΔXR−ΔXL. If ΔXR−ΔXL> 0, the subject is approaching.
[0083]
Next, the correlation calculation for determining the movement of the subject image and its reliability determination will be described. By the correlation calculation between the subject images L ′ (I), R ′ (I) and the two images described above at time t0. The obtained correlation blocks SLM ′, SRM ′, correlation coefficient SK ′, and image shift amount ΔZ ′ are respectively stored in the RAM 42 in the control unit 30. Thereafter, the subject image signals L (I) and R (I) at time t1 are detected.
[0084]
Next, movement amount detection will be described with reference to the movement of the subject image shown in FIG. 13 and the flowchart shown in FIG.
[0085]
First, for the first subject image signal, correlation calculation is performed on the subject image signal L ′ (I) at time t0 and the subject image signal L (I) at time t1. In the “movement amount detection” routine for detecting the movement of the subject image, first, SLM′-10 is substituted for the variable SL (step S21), and the variable J is a variable for counting the correlation range. 20 is substituted (step S22).
[0086]
Next, the correlation output F (s) is calculated from the correlation equation of equation (14) (step S23).
[0087]
[Equation 9]
Figure 0004610714
[0088]
Subsequently, similarly to the correlation calculation described above, F (s) and FMIN are compared (step S24). If F (s) is smaller than FMIN in this comparison (YES), F (s) is substituted for FMIN. And SL is stored in SLM (step S25). In this case, the number of elements in the block to be correlated is 27, which is the same as the number of elements in the block when obtaining the above-described image shift amount. However, if F (s) is larger than FMIN (NO), the process proceeds to the next step S26.
[0089]
Next, 1 is added to SL, and 1 is subtracted from J (step S26). Then, it is determined whether or not J = 0. If J is not 0 (NO), the process returns to step S23 until J = 0, and the correlation equation F (s) is repeated. As described above, the correlation range is changed up to ± 10 elements to obtain the correlation, and this correlation range is determined by the movement amount range to be detected. Here, when J = 0 (YES), the reliability is determined.
[0090]
That is, the correlation values FM and FP at the shift amounts before and after the minimum correlation value F (X) are obtained by the equations (15) and (16), as in the case of obtaining the image shift amounts of the first and second subject images. ) (Step S28).
[0091]
[Expression 10]
Figure 0004610714
[0092]
Next, the reliability index SK is obtained by the above-described equations (4) and (5) (step S29). Then, it is determined whether SK> β (step S30). When SK ≦ β in this determination (NO), it is determined that there is reliability, and the movement amount is obtained (step S31). However, the value β is set to a value larger than the determination value α when the image shift amounts of the first and second subject images are obtained. This is because the waveform is likely to be deformed when the subject is moving, and therefore there is a high possibility that the correlation will deteriorate.
[0093]
Then, a movement amount ΔXL of the subject image is obtained. Similar to the calculation of the image displacement amounts of the first and second subject images described above, the three-point interpolation method is used to obtain the equations using the equations (17) and (18).
## EQU11 ##
Figure 0004610714
[0094]
On the other hand, if it is determined in step S30 that the relationship SK> β is satisfied (YES), it is determined that there is no reliability, and an undetectable flag is set (step S32).
[0095]
Although details are omitted for the second subject images R (I) and R ′ (I), a similar movement amount detection routine is executed to obtain the block position SRM and movement amount ΔXR having the highest correlation.
When the movement amounts ΔXL and ΔXR of the first and second subject images are obtained, the image deviation amount ΔZ ′ at time t1 is obtained from the image deviation amount ΔZ at time t0 as shown in Expression (19). .
[Expression 12]
Figure 0004610714
[0096]
Based on the image shift amount ΔZ at time t0, the prediction formula of the image shift amount ΔZ ″ at time t2 is as shown in Equation (20).
[Formula 13]
Figure 0004610714
[0097]
By obtaining the time t2 by a method described later and driving the lens by an amount based on ΔZ ″, it is possible to focus on the moving subject at the time t2.
[0098]
If the moving speed of the subject image v = (ΔXR−ΔXL) / (t1−t0) is too large, the detected value is not reliable and the image shift amount is not predicted. Further, when the moving speed of the subject image is small and is regarded as a detection error, the moving speed is set to zero.
[0099]
(III) Prediction formula of image shift amount prediction time t2:
Here, a method for obtaining the time t2 for predicting the image shift amount will be described.
As described above, the image shift amount ΔZ ″ at time t2 is obtained by the equation (20) using the image shift amount ΔZ at time t1 and the subject image shift amounts ΔXR and ΔXL from time t0 to time t1.
[0100]
Now, a time t2 at which an in-focus state is obtained during exposure is obtained by Expression (21).
[Expression 14]
Figure 0004610714
[0101]
In this equation, td is the time from the time t1 to the start of lens driving, and this value includes the processing time inside the camera such as the correlation calculation time described above.
Here, ke is a conversion coefficient for obtaining a lens driving time proportional to the image deviation amount ΔZ ″. The lens driving amount ΔL is obtained by Expressions (9) and (10) based on the image deviation amount ΔZ ″. However, in a region where the image shift amount ΔZ ″ is sufficiently small, the defocus amount ΔD and the lens drive amount ΔL are approximated to be proportional to the image shift amount ΔZ ″, so there is no problem in accuracy. te is the time from the end of lens driving to the start of exposure after the shutter curtain is opened, and includes the time for camera exposure calculation, aperture control, mirror up, and the like.
[0102]
By solving Equation (20) and Equation (21), Equation (22) for obtaining the predicted image shift amount is derived as follows.
[Expression 15]
Figure 0004610714
[0103]
From this ΔZ ″, the lens driving amount ΔL is obtained by the equations (9) and (10), and the lens is driven, so that the moving subject can be brought into focus when exposed.
[0104]
Next, the time t2 at which the lens is brought into focus at the end of driving the lens is obtained by Expression (23).
t2 = t1 + td + ke · ΔZ ″ (23)
Similarly, the following equation (24) is derived by solving the equations (20) and (23).
[Expression 16]
Figure 0004610714
[0105]
From this ΔZ ″, the lens driving amount ΔL is obtained by the equations (9) and (10), and the lens is driven, so that the moving subject can be brought into a focused state at the end of the lens driving. .
[0106]
Next, a specific operation program in this embodiment will be described with reference to the flowchart shown in FIG. It is assumed that the “AF detection” routine is repeatedly executed while the camera is powered on.
First, the integration operation of the area sensor 23 is executed, and when the integration is completed, subject image data (hereinafter referred to as sensor data) is read from the area sensor 23 (step S41).
[0107]
Next, it is determined whether or not a subject image shift amount (hereinafter referred to as an image shift amount) has been detected (step S42). If not detected in this determination (NO), the image shift amount is obtained by the above-described “image shift amount detection” routine (see FIG. 11) (step S43). Here, the image shift amount is detected for a predetermined distance measuring area set in advance on the area sensors 23a and 23b. However, the preset distance measurement area may be, for example, one distance measurement area selected by the photographer or the entire distance measurement area.
[0108]
Next, it is determined whether or not the image shift amount detection has been completed for all the predetermined distance measurement areas (step S44). If not completed yet (NO), the process returns to step S43, and the next The image shift amount in the distance measuring area is detected.
On the other hand, when the detection of the image shift amount in all the predetermined distance measurement areas is completed (YES), the distance measurement area is selected based on a predetermined algorithm, for example, the closest selection (step S45). Hereinafter, the selected distance measurement areas am and bm will be described.
[0109]
Next, it is determined whether or not the image shift amount is undetectable, that is, whether or not all the predetermined distance measurement areas are undetectable (step S46). In this determination, if detection is possible (YES), an image deviation amount detectable flag is set (step S47), and an image deviation amount detected flag is further set (step S48).
[0110]
On the other hand, if it is determined in step S46 that all cannot be detected (NO), the image displacement amount detection impossible flag is set (step S49), and the image displacement amount detection flag is cleared (step S50). Then, after setting or clearing the image deviation amount detected flag, the image movement amount detected flag is cleared (step S51), and the process returns to the main routine described later with reference to FIG.
If it is determined in step S42 that the image shift amount has already been detected (YES), the movement amount of the subject image with respect to time is detected for each of the first and second subject images as follows. First, the distance measuring area am selected in step S45 is set as an initial distance measuring area (step S52).
[0111]
Next, a correlation calculation is performed between the sensor data stored in the previous (time t0) image shift amount detection for the first subject image in the distance measurement area am and the current (time t1) sensor data, and the amount of movement is calculated. Is detected (step S53). This is based on the movement amount detection routine shown in FIG.
[0112]
Then, it is determined whether or not the movement amount of the first subject image has been detected (step S54). If the amount of movement cannot be detected in this determination (NO), the image shift amount between the first and second subject images is assumed to be 0, and all the distance measurement areas in the vicinity of the distance measurement area am It is determined whether or not a ranging area is set (step S55). If it is determined in this determination that shifting has not been completed for all nearby ranging areas (NO), the ranging area at this time (time t1) is shifted in a predetermined order and then shifted to the next ranging area. Set (step S56). Note that the predetermined order referred to here is, as shown in order in FIGS. 16A to 16E, in the vicinity of an as indicated by an arrow centered on the initial distance measurement area an on the area sensor 23a. This is to shift the ranging area in the horizontal and vertical directions. The reason why the processing is performed in this order is to cope with the movement of the subject image on the area sensor 23 in the horizontal direction and the vertical direction due to the vertical movement of the subject and the movement in the left-right direction. That is, the image movement of the subject is detected including the distance measuring area near an. Thereafter, the process returns to step S53, and the first subject image movement amount is detected again for the set new distance measuring area. In this way, the position of the first subject image is searched.
[0113]
However, if it is determined in the above step S55 that the setting has been completed in all the nearby ranging areas (YES), the process proceeds to step 59 described later.
In the determination of step S54, if the position of the first subject image can be detected and the movement amount from time t0 to t1 can be detected (YES), the first subject movement amount can be detected in the distance measurement area ak. A movement amount with respect to the second subject image is detected for the distance measuring area bk of the corresponding area sensor 23b (step S57). This refers to the “movement amount detection” routine of FIG. At this time, the distance measurement area at time t1 when the movement amount of the first subject image can be detected is set to ak.
[0114]
Here, when a shift of the distance measurement area occurs, a shift amount between distance measurement areas (for example, a pixel number converted value of the distance between the centers) is added to ΔXL and ΔXR as an image movement amount.
[0115]
When the movement amounts of both the first and second subject images can be detected in this way, the movement speed v in the optical axis direction of the subject image is calculated from the following equation (step S58).
[Expression 17]
Figure 0004610714
[0116]
Then, it is determined whether or not all the movement speed calculations have been completed for the predetermined distance measurement area to be detected (step S59). If the calculation has not been completed (NO), the movement speed is detected for the distance measurement area an. Therefore, the distance measurement area an + 1 is set (step S60), and the process returns to step S53.
[0117]
In the determination of step S59, if all the movement speed calculations have been completed (YES), the calculated movement speed v is compared with a predetermined speed vth to determine whether or not the subject is moving in the optical axis direction. Is determined in all ranging areas (step S61), it is determined whether or not the subject is a still body (step S62), and if it can be determined that the subject is not a stationary body but is moving in the optical axis direction (NO) The subject moving flag is set (step S63). However, if it is determined that the object is a still body (YES), the subject moving flag is cleared (step S64), the process returns to step S43, and the image shift amount detection process is performed again.
[0118]
Then, after the subject moving flag is set, the image movement detected flag is set (step S65), and the distance measurement area to be focused upon when the moving subject is detected is selected (step S66).
[0119]
In the first embodiment described above, in the moving object determination step, since the moving object is already determined with an emphasis on the center, in step S66 it is determined that the object is a moving object, and a certain standard is set in the ranging area. Thus, for example, a distance measuring area for selecting a fast-moving subject is selected, and the process returns to the main routine.
[0120]
Next, a main routine of a camera to which the multipoint autofocus camera of the present invention is applied will be described with reference to the configuration shown in FIG. 4 and the flowchart shown in FIG. This main operation is a routine indicating a control procedure of a program activated by the control unit 30 and is executed when the operation of the control unit 30 is started.
[0121]
First, various correction data used in distance measurement and photometry processing stored in advance from the EEPROM 35 are read out and expanded in the RAM 33 (step S71).
Then, it is determined whether or not 1RSW is turned on (step S72). If it is not on (NO), it is determined whether or not a switch other than 1RSW and 2RSW is operated (step S73). If there is an operated switch (YES), processing corresponding to the switch is executed (step S74), and then the process returns to step S72.
[0122]
On the other hand, if 1RSW is on in step S72 (YES), it is determined whether or not the AF operation mode is “single AF” (step S75). If it is determined in this determination that the mode is the single AF mode (YES), once in-focus, the focus is locked and the lens is not driven, so it is next determined whether or not in-focus has been achieved (step S76). However, if it is not the single AF mode (NO), it is regarded as the continuous AF mode, and in order to repeat AF driving following the change of the subject even after focusing once, the above-mentioned will be described later. Control goes to step S77.
[0123]
If in-focus has been achieved in step S76 (YES), AF driving is not performed, and the process returns to step S72. However, when the subject is not in focus (NO) or in the continuous AF mode, it is determined whether or not metering has been completed (step S77). If not metered, the metering unit determines the exposure amount. 39 is operated to perform a photometric operation for measuring subject luminance (step S78).
[0124]
Next, the subroutine “AF detection” described above is executed (step S79). As a result of this AF operation, it is determined whether or not image shift detection is possible with reference to the detection impossible flag described above (step S80). If it is determined that the image shift can be detected (NO), it is determined whether the movement amount of the subject image has been detected (step S81). On the other hand, if the image shift cannot be detected (YES), a scan operation for searching for a lens position where AF detection is possible is performed while driving the focus lens 12a (step S82), and the process returns to step S72. When this scan is performed, all the flags are cleared and AF detection is performed again from the beginning.
[0125]
In step S81, when the movement amount of the subject image has been detected (YES), the image shift amount is predicted. First, it is determined whether or not 2RSW is turned on (step S83). If 2RSW is turned on (YES), an image shift amount at the start of exposure is predicted (step S84). On the other hand, if 2RSW is off (NO), since only the AF operation is performed, the amount of image shift at the end of lens driving is predicted (step S85), and the process proceeds to focus determination in step S87 described later.
[0126]
If the movement amount of the subject image has not been detected in step S81 (NO), it is determined whether or not the subject is moving (step S86). At this point, as described later, the image movement detection flag is cleared after the lens is driven (step S87), and the subject movement flag is cleared even if the image movement is not detected after the lens is driven in the continuous AF mode. Is set, the process returns to step S72 to detect again the movement of the subject image.
[0127]
On the other hand, if it is not moving (NO), the detected image shift amount or the predicted image shift amount is converted into a defocus amount, and it is determined whether or not the image is in the in-focus allowable range. (Step S87). If it is not determined that the subject is in focus in this determination, a necessary lens driving amount is obtained and the focus lens is driven (step S88). In the lens driving routine, after the lens driving, the image deviation detection flag, the image deviation detection impossible flag, and the image movement detection flag are cleared. This clearing process is to restart AF detection from the beginning because the subject image is considered to change greatly once the focus lens is driven. As described above, only the subject image moving flag is not cleared here. This is because the movement of the subject is continuously detected so that the focus is not determined by the first AF detection after the lens is driven in the continuous AF mode.
[0128]
In step S87, if it is determined that the subject is in focus (YES), the ON / OFF state of 2RSW is determined (step S89). If 2RSW is turned on (YES), the aperture and shutter are controlled based on the photometric value stored in the RAM 33 to perform the exposure operation (step S90). Then, the photographed film is wound up and fed to the position of the next frame (step S91), and a series of photographing operations is completed.
[0129]
As described above, in the first embodiment, since the position of the subject image is detected in both the image division direction and the direction perpendicular to the image division direction on the area sensor, the vertical movement and the horizontal direction are detected. Even for a moving subject with movement, the subject image position can be detected, predictive control can be performed, and accurate focusing can be achieved.
[0130]
Next, the moving body determination in step S61 shown in FIG. 15 will be described with reference to the flowchart shown in FIG.
[0131]
First, an initial ranging area is set (step S101). For example, the ranging area P1 is set. Next, a predetermined speed Vth is set for each distance measurement area (step S102). As will be described later with reference to FIG. 20, Vth is set larger in the peripheral distance measurement area than in the central distance measurement area.
[0132]
Then, it is determined whether or not the area is a distance measuring area in which it is determined in step S54 in FIG. In this determination, if the distance measurement area is detectable (YES), the subject moves by comparing Vth for each distance measurement area set in step S102 with the image moving speed calculated in step S58 in FIG. It is determined whether or not it is a moving object (step S104).
[0133]
If it is determined in this determination that it is greater than Vth (YES), it is determined that the subject is a moving object, and information indicating that the subject in the set ranging area is a moving object is stored in the RAM 33 (step S105). However, if it is determined that it is smaller than Vth (NO), it is determined that the subject is a still body, and information indicating that the subject in the set ranging area is a still body is stored in the RAM 33 (step S106).
[0134]
Then, it is determined whether or not the moving object determination for all the ranging areas has been completed (step S107). If this determination is completed (YES), the process returns. If not completed (NO), the next ranging area is set (step S108), and the process returns to step S102.
[0135]
Next, with reference to FIG. 20, the setting of the predetermined speed Vth value for each distance measurement area in step S102 of FIG. 19 will be described.
[0136]
The horizontal axis in FIG. 20 corresponds to the distance measurement area number described in FIG. 7, and the vertical axis is Vth.
[0137]
The distance measuring area P13 is a distance measuring area at the center of the shooting screen (a distance measuring area m indicated by oblique lines), and the distance measuring areas P7 to P9, P12, P14, and P17 to P19 are adjacent to the distance measuring area P13 (one area). The first distance measuring area group is a first distance measuring area group, and the distance measuring areas P1 to P5, P6, P10, P16, P20, and P21 to P25 are the second distance measuring area group around the two areas from the central distance measuring area. is there.
[0138]
FIG. 20 shows an example in which the first ranging area group is doubled and the second ranging area group is tripled Vth with respect to the central ranging area P13. With this setting, the moving subject existing in the second ranging area group is determined to be three times as moving as the central ranging area P13.
[0139]
As described above, according to the present embodiment, the closer the subject is to the center of the shooting screen, the easier it is to determine that the subject is a moving body, and the easier it is to focus on the moving subject at the center.
[0140]
Next, a second embodiment according to the multipoint autofocus camera of the present invention will be described.
[0141]
FIG. 21 is an example of the velocity distribution of all the ranging areas arranged on the photographing screen and the change of the velocity distribution. The ranging area of FIG. 7 having 25 ranging areas is shown in FIG. An example of speed distribution in the calculation of the moving speed in the optical axis direction in step S54 in FIG. In FIG. 21 (a), the distance measurement areas P1 to P5 and the distance measurement areas P21 to P25 measure the background, so the moving speed is zero, and the distance measurement areas P6, P7, P10, P11, P15. , P16 and P20 measure distances in the upper and lower areas of the train, so the moving speed is zero. There are trains in other distance measuring areas, and the moving speeds V1 to V3 are observed. Since the distance from the camera is short, the speed V3 of the distance measuring area capturing the top of the train is the maximum, and the moving speed V1 of the distance measuring area capturing the side of the train (tail) is the minimum.
[0142]
FIG. 21B is an example of the velocity distribution after the time t1 has elapsed from FIG. FIG. 21C is an example of the velocity distribution after the time t2 has further elapsed from FIG. However, t1 <t2.
[0143]
In such a speed distribution, since the train moves to the right from the center of the page, the distance measurement area where the speed is observed also moves to the right. In addition, since the train gradually approaches the camera, the moving speed gradually increases.
[0144]
Also, if the train is moving leftward from the center of the page, the speed distribution moves in the opposite direction.
[0145]
In this embodiment, when it is determined that the subject is a moving object in a plurality of distance measuring areas, the distance measuring area close to the center is selected with priority.
[0146]
That is, for example, in FIG. 21B, when it is determined that the subject is a moving object in both the distance measurement area at the movement speed V3 and the distance measurement area at the movement speed V4, the distance measurement area V3 near the center is selected. Select with priority.
[0147]
With reference to the flowchart shown in FIG. 22, the ranging area selection when the subject in step S66 shown in FIG. 15 in the second embodiment is a moving object will be described. Other routines of the second embodiment are the same as the other flowcharts of the first embodiment described above, and a description thereof is omitted here.
[0148]
In this embodiment, since the center is prioritized in the moving object ranging area selection, the moving object determination algorithm that prioritizes the center in step S61 of the first embodiment described above may or may not be adopted. Good. When not employed, the value of Vth shown in FIG. 20 is constant in all ranging areas.
[0149]
First, an initial ranging area is set (step S111). For example, the ranging area P1 is set. Next, a coefficient for weighting is set for each distance measurement area (step S112). Specifically, it is a coefficient assigned such that the central ranging area is more important than the surrounding ranging areas. For example, the central ranging area shown in FIG. The area group (around one area) is set to coefficient 2, and the second ranging area group (around two areas) is set to coefficient 1.
[0150]
Then, it is determined whether or not the area is a distance measurement area in which it is determined in step S54 in FIG. 15 that image movement can be detected (step S113). In this determination, if the distance measurement area is detectable (YES), the subject moves by comparing Vth for each distance measurement area set in step S112 and the image moving speed calculated in step S58 in FIG. It is determined whether or not it is a moving object (step S114).
[0151]
If the subject is a moving object in this determination (YES), the coefficient of the distance measurement area is multiplied by the moving speed, and the result is set to “A” (step S115). This “A” value is a value that is used to determine a distance measurement area to be selected because the larger the value is, the closer the object is to the center distance measurement area or the faster the object.
[0152]
Next, it is determined whether or not the obtained “A” value is the maximum within the distance measurement area in the shooting screen (step S116), and the distance measurement area with the maximum “A” value is selected as the distance measurement area. Set (step S117).
[0153]
Further, when the distance measurement area is determined to be undetectable in the determination in step S113 (NO), in the determination in step S114, the subject is not a moving object (NO), and in step S116. If it is determined that the “A” value is not the maximum within the distance measurement area in the shooting screen (NO), the process proceeds to step S118 described later.
[0154]
Then, it is determined whether or not the moving object determination for all ranging areas has been completed (step S118). If this determination is completed (YES), the process returns. If not completed (NO), the next distance measurement area is set (step S119), and the process returns to step S102.
[0155]
Next, a modification of the second embodiment will be described.
[0156]
It is possible to simply select the distance measuring area of the moving subject that exists near the center of the shooting screen. In such a case, in step S115 of FIG. 22, the distance measuring area closest to the center of the shooting screen is selected from the distance measuring areas determined as moving objects without considering the moving speed. That is, the center ranging area P13 is selected in FIGS. 21A and 21B, and the ranging area P18 is selected in FIG. However, in this case, there is a drawback that it is difficult to focus on a fast subject.
[0157]
As described above, according to the second embodiment, it is possible to preferentially select and focus on a subject that exists near the center of the shooting screen or a subject that has a fast moving speed.
[0158]
Next, a third embodiment of the multipoint autofocus camera according to the present invention will be described.
In the third embodiment, the moving object determination described in the first and second embodiments described above is a method of determining the moving speed of the subject by comparing it with a predetermined value. This is based on the moving object determination. That is, when there are a plurality of distance measuring points determined to be moving objects, the moving direction in the screen is also determined, and a subject moving from the periphery to the center is given priority over a subject moving from the center to the periphery.
[0159]
FIG. 23 shows an example of an athletic meet relay scene. It is assumed that reference numerals, ranging areas, and the like in this figure indicate the same parts as those in FIG. In this composition, the subject 70 is detected by the distance measurement frames P7, P2, P12, and runs from the left side of the screen toward the center of the screen. The parallel subject 71 is detected in the distance measurement frames P6 and P1 behind the subject 70 and runs from the left side of the screen toward the center of the screen. The subject 72 is detected in the distance measurement frames P9 and P4 in front of the subject 70, and runs from the center of the screen toward the right side of the screen.
[0160]
In the case of such a scene, there is a high probability that the subject 70 that is directed to the center of the screen and is located at the center is the main subject intended by the photographer. In addition, the probability that the subject will be off the screen during exposure is low, and the subject is more central, which is advantageous in terms of resolution.
[0161]
In the third embodiment, the moving direction of the subject within the screen (moving direction perpendicular to the optical axis) is determined in this way, and the subject 70 closer to the center than the subject 71 and the subject 72 is preferentially selected. To do. Therefore, using this selection method, in the example shown in FIG. 23, when three subjects are running in the reverse direction (from right to left on the page), the subject 72 is preferentially selected.
[0162]
Next, an AF detection routine in the third embodiment will be described with reference to a flowchart shown in FIG.
In this AF detection routine, the movement of the subject within the screen between step S57 (detection of the movement amount of the second subject image) and step S58 (detection of the movement amount in the optical axis direction) in the flowchart shown in FIG. This is a routine in which a routine for calculating a direction (step S67) is inserted.
[0163]
This step S67 is a routine for calculating the moving direction of the subject within the screen, which is obtained from the left and right image movement amounts ΔXL and ΔXR described in FIG. As can be seen from a comparison between FIG. 12A and FIG. 12B, in FIG. 12B, since the subject 66 has moved sideways, the image shift amount ΔZ does not change, but ΔXL and ΔXR are (a Bigger than). In FIG. 12A, since the object 66 is moving in the optical axis direction, ΔXL and ΔXR are substantially the same in absolute value except for the vector directions. That is, if the difference between the half value of the image shift amount change at the times t1 and t2 and the values of ΔXL and ΔXR are calculated, this is an amount indicating the movement of the subject in the horizontal direction.
[0164]
Next, with reference to a flowchart shown in FIG. 25, description will be given of distance measurement area selection when the subject is a moving object in the third embodiment.
[0165]
In this distance measurement area selection, step S120 (direction coefficient setting) and step S121 ("A" value taking the direction coefficient into account) are inserted in place of step S115 in the flowchart shown in FIG. In the process of the flowchart shown in FIG. 25, steps that are the same as those in FIG. 22 are assigned the same step numbers to simplify the description.
[0166]
First, an initial distance measurement area is set (step S111), and a coefficient for weighting is set for each distance measurement area (step S112). Then, it is determined whether or not the range of movement is determined to be detectable (step S113). If the range of detection is a detectable range (YES), it is determined whether or not the subject is a moving object. Determination is made (step S114). In this determination, if the subject in the setting area is a moving object (YES), the direction coefficient is set according to the moving direction (step S120). For example, a coefficient of 3 is set when the subject is moving from the periphery to the center, and a coefficient of 1 is set when the subject is moving from the center to the periphery. 23A, the subject 70 and the subject 71 have a coefficient of 3, and the subject 72 has a coefficient of 1.
[0167]
Thereafter, the area coefficient set in step S112, the direction coefficient set in step S120, and the calculated movement speed are multiplied, and the result is set to “A” (step S121). As the “A” value is larger as described above, the subject is closer to the center distance measurement area or is a faster subject, and is used to determine the distance measurement area to be selected. Value.
[0168]
Next, if this “A” value is the maximum within the distance measurement area in the shooting screen, the setting area is selected (steps S116 and S117). If the distance measurement area in which image movement cannot be detected in step S113, the subject is not a moving object in step S114, or the "A" value is not maximum in step S116, the moving object determination for all the distance measurement areas is completed. It is determined whether or not (step S118). If this determination is completed (YES), the process returns. If not completed (NO), the next distance measurement area is set (step S119), and the process returns to step S112.
[0169]
By such a ranging area selection routine, it is possible to select a ranging area that places importance on the subject moving from the periphery to the center while placing importance on the center of the screen.
[0170]
As described above, according to the third embodiment, the moving direction of the subject in the screen (the moving direction in the direction perpendicular to the optical axis) is determined, and the subject moving from the periphery to the center is directed from the center to the periphery. Since the selection is prioritized over the subject, the effect is that the probability of being located in the center during exposure is high (ranging accuracy is good), the probability that the subject will be off the screen during exposure is low, and the main subject Certain probabilities also increase.
[0171]
Next, with reference to the flowchart shown in FIG. 26, a modified example of the distance measurement area selection when the subject is a moving object in the third embodiment will be described. In this modification, the subject moving toward the center is set as an area for selecting a subject existing at a distance measuring point closest to the center.
[0172]
First, an initial distance measurement area is set (step S111), it is determined whether it is a distance measurement area in which image movement is determined to be detectable (step S113), and if it is a detectable distance measurement area (YES), It is determined whether or not the subject is a moving object (step S114). In this determination, if the subject in the setting area is a moving object (YES), it is determined whether or not the subject is moving toward the center of the screen (step S122), and the subject is moving toward the center. In the case (YES), it is determined whether or not the subject exists at a distance measuring point closest to the center (step S123). On the other hand, if the subject does not move toward the center but moves toward the other periphery (NO), it is considered that the selected area does not exist and is set as the second candidate (step S124).
[0173]
If it is determined in step S123 that the subject is present at the closest distance measuring point (YES), this setting area is selected (step S117). However, if the subject does not exist at the closest distance measuring point (NO), the process proceeds to step S124 and is set as the second candidate. Thereafter, it is determined whether or not the moving object determination for all ranging areas has been completed (step S118). If this determination is completed (YES), the process returns. If not completed (NO), the next distance measurement area is set (step S119), and the process returns to step S112.
[0174]
According to this modification, in the composition of FIG. 23A, when the subject 70 and the subject 71 do not exist, the subject 72 is selected, and when only the subject 70 does not exist, the subject 71 is centered. Select this because you are heading. Therefore, unlike the distance measurement area selection in FIG. 25, the weight is not weighted at the moving speed, and the final selection area is simply set according to the moving direction and the existing area.
[0175]
Incidentally, Japanese Patent Application Laid-Open No. 11-44837 filed by the present applicant discloses a method for determining a moving object from the reliability of correlation calculation between sensor data at t = t0 and sensor data at t = t1 in FIG. Yes.
Although an example using an area sensor has been described, a plurality of line sensors may be used. Although the example in which the focus detection areas of all the distance measurement areas are used in the shooting screen 15 has been described, the areas may be thinned out (for example, the peripheral areas are omitted) from the viewpoint of reducing the time lag.
[0176]
Alternatively, a plurality of ranging areas may be divided into one group. In that case, only the method of dividing the ranging area shown in FIG. 7 is different.
The moving speed detection method may be a method other than that described in the present embodiment.
For example, the temporal change of the image shift amount detected in S43 may be calculated. Further, the moving object may be directly determined from the magnitude of the image moving amount without calculating the moving object by calculating the moving speed.
[0177]
Although the above embodiments have been described, the present invention includes the following inventions.
[0178]
(1) In a multipoint autofocus camera having a plurality of focus detection areas on a shooting screen,
An image speed change amount detecting means for detecting a change amount of the speed distribution of the subject image in each focus detection area;
A moving object determining unit that determines whether or not the subject is moving based on the output of the image speed change amount detecting unit;
When the moving object determining means determines that the subject is a moving object in a plurality of distance measuring areas, the moving object determining means includes selecting means for preferentially selecting the distance measuring area close to the center as the in-focus distance measuring area. And
A multi-point autofocus camera characterized by focusing on a focus detection area where a subject close to the center of the shooting screen is present among subjects determined to be moving objects.
[0179]
(2) For each of the focus detection areas arranged on the shooting screen, a coefficient for performing moving object determination is set to a smaller value for the focus detection area closer to the center of the shooting screen, so that the distance measurement area is selected. The multipoint autofocus camera described in (1) above, wherein priority is given to a focus detection area close to the center of the photographing screen.
[0180]
(3) When a plurality of subjects determined in the shooting screen by the moving object determining means are determined to be moving objects, a focus detection area where a subject close to the center of the shooting screen exists is selected. The multipoint autofocus camera according to (1) above.
[0181]
【The invention's effect】
As described above in detail, according to the present invention, when a plurality of distance measurement areas (focus detection areas) are arranged in a shooting screen and focused on a moving subject, moving object determination at the center of the screen with high distance measurement accuracy is performed. It is possible to provide a multi-point autofocus camera having a focus detection function for performing moving object determination by measuring the entire screen while focusing on the image, and focusing the photographing lens based on the determination result. If a subject moving from the periphery of the screen toward the center is detected, the subject is selected as a distance measuring area with priority, so that the probability of the subject being nearer to the center at the time of exposure increases. In addition, it is possible to reduce the probability that the subject will be off the screen during exposure.
[Brief description of the drawings]
FIG. 1 is a diagram showing a conceptual block configuration of a focus detection function of a multipoint autofocus camera of the present invention.
FIG. 2 is a diagram showing a cross section of a configuration example applied to a single-lens reflex camera as a multipoint autofocus camera according to the present invention.
FIG. 3 is a diagram schematically showing an optical system including distance measurement.
FIG. 4 is a diagram illustrating functional blocks including an electric control system of the camera described in FIG.
5 is a diagram showing a specific circuit configuration of the area sensor shown in FIG. 4. FIG.
FIG. 6 is a diagram illustrating a specific circuit configuration of a pixel unit of an area sensor.
FIG. 7 is a diagram showing an example of the arrangement of distance measurement areas that constitute a detection area in a shooting screen.
FIG. 8 is a time chart for explaining the accumulation operation of the area sensor.
FIG. 9 is a diagram illustrating an example of arrangement of distance measurement areas constituting two area sensors.
FIG. 10 is a diagram showing a linear arrangement of photodiodes corresponding to areas.
FIG. 11 is a flowchart for explaining based on a processing procedure related to an image shift amount detection routine;
FIG. 12 is a diagram for explaining the principle of focus detection for a moving subject.
FIG. 13 is a diagram for explaining movement of a subject image.
FIG. 14 is a flowchart for explaining a movement amount detection routine;
FIG. 15 is a flowchart for explaining an AF detection routine;
FIG. 16 is a diagram for explaining a shift for detecting a subject image movement amount in the first embodiment;
FIG. 17 is a diagram illustrating, as an example, a scene in which a train approaches a curve as a composition of a captured image.
FIG. 18 is a flowchart for explaining a main routine of a camera to which the multipoint autofocus camera of the present invention is applied.
FIG. 19 is a flowchart for explaining moving object determination;
FIG. 20 is a flowchart for explaining setting of a predetermined speed Vth value for each distance measurement area in the second embodiment of the multipoint autofocus camera of the present invention.
FIG. 21 is a diagram showing a speed distribution of all the ranging areas arranged on the shooting screen and a change in the speed distribution in the second embodiment.
FIG. 22 is a flowchart for explaining distance measurement area selection when the subject is a moving object;
FIG. 23 is a diagram for explaining a third embodiment of the multipoint autofocus camera according to the present invention.
FIG. 24 is a flowchart for explaining an AF detection routine in the third embodiment;
FIG. 25 is a flowchart for explaining ranging area selection when a subject is a moving object in the third embodiment;
FIG. 26 is a flowchart for explaining a modification of the third embodiment;
[Explanation of symbols]
1 Focus detection unit (area sensor)
2. Focus calculation unit
3. Image movement amount calculation unit
4 ... Ranging area selection section
5. Focus control unit
6. Focus adjustment unit

Claims (3)

複数の焦点検出領域を持つ多点自動焦点カメラにおいて、
各焦点検出領域内における被写体像の移動に関する量を演算する像移動演算手段と、
上記像移動演算手段の出力に基づいて被写体が移動しているか否かを判定する動体判定手段と、
上記像移動演算手段の出力に基づいて被写体の画面内の移動方向を演算する移動方向演算手段と、
上記動体判定手段において動体であると判定された焦点検出領域が複数ある場合には、上記移動方向演算手段の演算する移動方向が画面の周辺から中央に向かうことを示す焦点検出領域を優先的に選択する選択手段と、
を具備することを特徴とする多点自動焦点カメラ。
In a multi-point autofocus camera with multiple focus detection areas,
Image movement calculation means for calculating an amount related to movement of the subject image within each focus detection area;
Moving object determination means for determining whether or not the subject is moving based on the output of the image movement calculation means;
A moving direction calculating means for calculating a moving direction of the subject in the screen based on the output of the image movement calculating means;
When there are a plurality of focus detection areas determined to be moving objects by the moving object determination means, the focus detection area indicating that the movement direction calculated by the movement direction calculation means is from the periphery to the center of the screen is given priority. A selection means to select;
A multipoint autofocus camera characterized by comprising:
上記選択手段は、上記移動方向演算手段の出力する移動方向が画面の周辺から中央に向かって移動していることを示す場合には、焦点検出領域を選択するための評価値を算出するための係数について重み付けを大きくし、中央から周辺に向かって移動していることを示す場合には上記係数について重み付けを小さくして上記係数を乗算する評価値を算出し、動体であると判定された複数の焦点検出領域のうちで上記評価値の最も大きい焦点検出領域を選択することを特徴とする請求項1に記載の多点自動焦点カメラ。The selection means calculates an evaluation value for selecting a focus detection area when the movement direction output from the movement direction calculation means indicates that the movement direction is moving from the periphery of the screen toward the center. When the weighting is increased for the coefficient, and when it indicates that the coefficient is moving from the center toward the periphery, the weighting is decreased for the coefficient, and an evaluation value that is multiplied by the coefficient is calculated. The multipoint autofocus camera according to claim 1, wherein a focus detection area having the largest evaluation value is selected from among the focus detection areas. 上記選択手段は、上記移動方向演算手段の出力する移動方向が画面の周辺から中央に向かって移動していることを示す焦点検出領域のうちで画面の中央に最も近い焦点検出領域を選択することを特徴とする請求項1に記載の多点自動焦点カメラ。The selection means selects a focus detection area closest to the center of the screen among focus detection areas indicating that the movement direction output by the movement direction calculation means is moving from the periphery of the screen toward the center. The multipoint autofocus camera according to claim 1.
JP2000325853A 1999-11-02 2000-10-25 Multi-point autofocus camera Expired - Fee Related JP4610714B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000325853A JP4610714B2 (en) 1999-11-02 2000-10-25 Multi-point autofocus camera

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11-312440 1999-11-02
JP31244099 1999-11-02
JP2000325853A JP4610714B2 (en) 1999-11-02 2000-10-25 Multi-point autofocus camera

Publications (3)

Publication Number Publication Date
JP2001194578A JP2001194578A (en) 2001-07-19
JP2001194578A5 JP2001194578A5 (en) 2007-12-06
JP4610714B2 true JP4610714B2 (en) 2011-01-12

Family

ID=26567174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000325853A Expired - Fee Related JP4610714B2 (en) 1999-11-02 2000-10-25 Multi-point autofocus camera

Country Status (1)

Country Link
JP (1) JP4610714B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4967826B2 (en) * 2007-05-31 2012-07-04 株式会社ニコン Focus detection apparatus and imaging apparatus
JP5400396B2 (en) * 2009-01-07 2014-01-29 キヤノン株式会社 Imaging device
JP5800498B2 (en) * 2010-12-17 2015-10-28 キヤノン株式会社 Automatic focus adjustment device and lens device having the same
JP5966273B2 (en) * 2011-08-04 2016-08-10 株式会社ニコン Imaging device
JP7377063B2 (en) * 2019-10-25 2023-11-09 キヤノン株式会社 Imaging device, its control method, program, storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH055931A (en) * 1991-06-27 1993-01-14 Nikon Corp Automatic focusing camera
JPH0511170A (en) * 1991-06-28 1993-01-19 Olympus Optical Co Ltd Automatic focusing device
JPH0843721A (en) * 1995-05-12 1996-02-16 Minolta Co Ltd Automatic focus detector
JPH09318865A (en) * 1996-05-24 1997-12-12 Nikon Corp Focusing device for camera
JPH1068874A (en) * 1997-07-08 1998-03-10 Nikon Corp Focus detection camera

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0293419A (en) * 1988-09-29 1990-04-04 Nikon Corp Automatic focus detecting device
JP3002293B2 (en) * 1991-04-05 2000-01-24 コニカ株式会社 Auto focus camera
JP3012025B2 (en) * 1991-04-16 2000-02-21 コニカ株式会社 Auto focus camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH055931A (en) * 1991-06-27 1993-01-14 Nikon Corp Automatic focusing camera
JPH0511170A (en) * 1991-06-28 1993-01-19 Olympus Optical Co Ltd Automatic focusing device
JPH0843721A (en) * 1995-05-12 1996-02-16 Minolta Co Ltd Automatic focus detector
JPH09318865A (en) * 1996-05-24 1997-12-12 Nikon Corp Focusing device for camera
JPH1068874A (en) * 1997-07-08 1998-03-10 Nikon Corp Focus detection camera

Also Published As

Publication number Publication date
JP2001194578A (en) 2001-07-19

Similar Documents

Publication Publication Date Title
US6768867B2 (en) Auto focusing system
US5517274A (en) Automatic focusing apparatus of a camera
JP2597961B2 (en) Automatic focusing device
US6311019B1 (en) Automatic focus adjusting system capable of adjusting focus of moving subject
JPS6318314A (en) Focus detecting device
US4952963A (en) Focus detection apparatus for camera
US4994841A (en) Automatic focus detecting means
US5539493A (en) Autofocus camera
JP4610714B2 (en) Multi-point autofocus camera
US5144357A (en) Automatic focus detecting means
JP2002131624A (en) Multipoint automatic focusing camera
JP4398020B2 (en) Multi-point autofocus camera
JPH04226409A (en) Focus state detector
JPH04235512A (en) Focus detecting device having grouping function
JP3979881B2 (en) Multi-point autofocus camera
JPH06186473A (en) Automatic focusing camera
JP2974637B2 (en) Automatic focusing device
JP2832006B2 (en) Automatic focusing device
JPH03225332A (en) Camera provided with autofocusing device
JPH01185506A (en) Focus detecting device for camera
JPH11295587A (en) Focusing device
JPH06138378A (en) Camera provided with focus detecting means and line-of-sight detecting means
JPH0876002A (en) Automatic focusing device
JP4773769B2 (en) Focus detection device
JPS62133412A (en) Focus detecting system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071023

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101013

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees