JP3630965B2 - Focus detection apparatus, camera, and focus detection method - Google Patents

Focus detection apparatus, camera, and focus detection method Download PDF

Info

Publication number
JP3630965B2
JP3630965B2 JP36595997A JP36595997A JP3630965B2 JP 3630965 B2 JP3630965 B2 JP 3630965B2 JP 36595997 A JP36595997 A JP 36595997A JP 36595997 A JP36595997 A JP 36595997A JP 3630965 B2 JP3630965 B2 JP 3630965B2
Authority
JP
Japan
Prior art keywords
focus detection
defocus amount
grouping
area
detection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP36595997A
Other languages
Japanese (ja)
Other versions
JPH11183787A (en
Inventor
圭介 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP36595997A priority Critical patent/JP3630965B2/en
Priority to US09/217,552 priority patent/US6088539A/en
Priority to EP98310618A priority patent/EP0926528B1/en
Priority to EP04075225A priority patent/EP1437614B1/en
Priority to DE69838114T priority patent/DE69838114T2/en
Priority to DE69829035T priority patent/DE69829035T2/en
Publication of JPH11183787A publication Critical patent/JPH11183787A/en
Priority to US09/494,922 priority patent/US6157782A/en
Application granted granted Critical
Publication of JP3630965B2 publication Critical patent/JP3630965B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、複数の焦点検出領域のそれぞれに対して焦点検出動作を実行する機能を有する焦点検出装置カメラ及び焦点検出方法に関するものである。
【0002】
【従来の技術】
従来の多点測距が可能なカメラにおいて、複数の測距結果の中から最も“近い”測距領域を必ず選択して測距を行ったのでは誤測距することが多々ある事から、例えば3点測距の結果が、遠,中,近といった特定のパターンを持っている場合には、“中”の測距点を選択(“近”は地面等の可能性がある為)するといったアルゴリズムを持つものが提案(特開平2−282234号)されている。
【0003】
また、撮影画面内に多数の測距点を備え、これら測距点について測距を行い、撮影空間中の任意の方向の距離(デフォーカス量)を測定可能とする装置が本願出願人より提案(特公平4−67607号)されている。
【0004】
この提案装置について、例えば図6の様なシーンを撮影する場合を例にとって説明する。
【0005】
まず、撮影画面内を細かくブロック分割して(エリアセンサ上の複数の画素を組として)測距し、次に図7の様な距離分布情報(距離マップ)を得る。そして、被写界空間の物体配置を判断するために、空間を構成する各物体のグルーピングを行う。
【0006】
図8は、図7の距離マップデータに基づいてグルーピングを行った結果の例であり、グルーピングにより各物体毎に領域が切り分けられる。実際的なグルーピングの手法は、いくつかの方法が一般的に知られている。最も簡単な例は、隣接する2つのブロックの距離(あるいはデフォーカス)の差が所定値以下であれば、2つのブロックは同一物体を形成しているという判断を、すべての隣接ブロックに対して適用するという方法である。
【0007】
以上のような方法で、図8のように撮影空間を構成する物体毎に、画面を領域分け(グルーピング)する。
【0008】
そして、例えば距離情報や、物体の大きさ情報、画面上での位置情報など、さらには物体の傾きの度合を用いて、これら撮影空間を構成する物体の中から主被写体の領域を決定するというものである。
【0009】
また、グルーピングを行う方法として、距離マップからヒストグラムを作成し、ヒストグラムの分布に基づいてグルーピングする方法がある。さらに、焦点合わせを行う方法では、最至近と最頻度距離にのみ着目し、両者の距離差が微少な時には中間に、そうでないときなら前の被写体に焦点を合わせる(特開昭62−255911号)などの方法がある。
【0010】
【発明が解決しようとする課題】
しかしながら、実際の焦点調節では、常に全ての測距点(焦点検出点)で焦点検出が正しくできるとは限らないし、測距誤差や焦点調節中の撮影者や被写体の微妙な動きで距離マップが変わってしまう。さらに、撮影レンズを通る光束を使って焦点検出を行う方式の焦点検出系では、焦点検出を行う時の撮影レンズの停止位置の影響も大きい。特に、ピント調整を行いながら繰り返し距離マップを作成すると、距離マップは作成し直す度に微妙に異なってしまう。図6の様に被写体どうしが離れている場合には問題にならないが、被写体どうし近接したり、背景と主被写体の距離が近い場合などは,問題が顕著になる。
【0011】
図9(a)はこの様なシーンの1例であり、2人の人物が並んで壁の直前に立っているシーンである。同図(b)はこのシーンを焦点調節する焦点検出手段の焦点検出領域又は測距領域を表したものである。このような焦点検出系でデフォーカスマップを作成した様々な例を、図10(a)〜(d)に示している。
【0012】
図10(a)では、4つの領域に分割された例である。領域a1,a2がほぼ側の人物の領域になり、領域a3,a4が側の人物の部分に相当する。この場合、背景の壁の部分はほとんど焦点検出できなかったため領域として認識されていない(図では、空白になっている)。
【0013】
図10(b)においては、人物が正しく領域b1とb2に領域分けされた例である。また、図10(c)では、2人の人物が一つの領域(領域c3)に認識され、壁の部分や人物の一部が別の領域に区分されている(領域c1,c2参照)。又図10(d)では、人物2人と壁の一部が同じ領域(領域d2)に分類されてしまい、さらに人物の一部のみが別の領域(領域d1)として認識されている。
【0014】
このように、同じシーンを撮影する場合でも,撮影レンズの位置や、焦点検出の可否により距離マップは随分異なるものになってしまう。
【0015】
このように異なる距離マップに従って、繰り返し測距点を決定して焦点調節を行った場合、ピントを合わせる測距点が定まらず、ハンチング等を起こしてしまったり、ピント合わせをする度に別な測距点にピントが合ってしまったりして、撮影者の信頼を著しく損なうことになる。
【0016】
(発明の目的) 本発明の目的は、レンズを合焦させる際にハンチングを生じたり、使用者の意志と合致しない物体に焦点合わせを行ってしまうことを防ぐことのできる焦点検出装置、カメラ及び焦点検出方法を提供しようとするものである。
【0020】
上記目的を達成するため、請求項1記載の本発明は、複数の焦点検出領域のそれぞれに対して焦点検出動作を実行する焦点検出手段と、前記焦点検出手段による複数の焦点検出領域の焦点検出結果から画面内のデフォーカス量の分布に基づいて前記複数の焦点検出領域をグループ分けするグループ分け手段と、前記グループ分け手段によるグループ分け結果に基づいて、複数の焦点検出領域の中から少なくとも1つの焦点検出領域を選出する選出手段と、前記選出手段により選出された焦点検出領域のデフォーカス量と所定のデフォーカス量とを比較する比較手段と、前記選出された焦点検出領域のデフォーカス量が所定のデフォーカス量よりも大きい場合、当該デフォーカス量に基づいてレンズを駆動させ、当該レンズ駆動に伴ってデフォーカス量が変化した後に、再度の前記複数の焦点検出領域での焦点検出、グループ分け、焦点検出領域の選出及び所定のデフォーカス量との比較を繰り返させるとともに、当該比較の際、所定のデフォーカス量よりも小さい場合、再度のグループ分け及び焦点検出領域の選出を行わせることなく当該選出された焦点検出領域が合焦するよう制御する制御手段とを有する焦点検出装置とするものである。
【0021】
同じく上記目的を達成するため、請求項2記載の本発明は、複数の焦点検出領域のそれぞれに対して焦点検出動作を実行する焦点検出手段と、前記焦点検出手段による複数の焦点検出領域の焦点検出結果から画面内のデフォーカス量の分布に基づいて前記複数の焦点検出領域をグループ分けするグループ分け手段と、前記グループ分け手段によるグループ分け結果に基づいて、複数の焦点検出領域の中から少なくとも1つの焦点検出領域を選出する選出手段と、前記選出手段により選出された焦点検出領域のデフォーカス量と所定のデフォーカス量とを比較する比較手段と、前記選出された焦点検出領域のデフォーカス量が所定のデフォーカス量よりも大きい場合、当該デフォーカス量に基づいてレンズを駆動させ、当該レンズ駆動に伴ってデフォーカス量が変化した後に、再度の前記複数の焦点検出領域での焦点検出、最初のグループ分け結果に基づく焦点検出領域の選出及び所定のデフォーカス量との比較を繰り返させるとともに、当該比較の際、所定のデフォーカス量よりも小さい場合、再度の焦点検出領域の選出を行わせることなく当該選出された焦点検出領域が合焦するよう制御する制御手段とを有する焦点検出装置とするものである。
【0022】
同じく上記目的を達成するため、請求項3記載の本発明は、エリアセンサと、前記エリアセンサから出力される信号に基づいて、複数の焦点検出領域のそれぞれに対して焦点検出動作を実行する焦点検出手段と、前記焦点検出手段による複数の焦点検出領域の焦点検出結果から画面内のデフォーカス量の分布に基づいて前記複数の焦点検出領域をグループ分けするグループ分け手段と、前記グループ分け手段によるグループ分け結果に基づいて、複数の焦点検出領域の中から少なくとも1つの焦点検出領域を選出する選出手段と、前記選出手段により選出された焦点検出領域のデフォーカス量と所定のデフォーカス量とを比較する比較手段と、前記選出された焦点検出領域のデフォーカス量が所定のデフォーカス量よりも大きい場合、当該デフォーカス量に基づいてレンズを駆動させ、当該レンズ駆動に伴ってデフォーカス量が変化した後に、再度の前記複数の焦点検出領域での焦点検出、グループ分け、焦点検出領域の選出及び所定のデフォーカス量との比較を繰り返させるとともに、当該比較の際、所定のデフォーカス量よりも小さい場合、再度のグループ分け及び焦点検出領域の選出を行わせることなく当該選出された焦点検出領域が合焦するよう制御する制御手段とを有するカメラとするものである。
【0023】
同じく上記目的を達成するため、請求項4記載の本発明は、エリアセンサと、前記エリアセンサから出力される信号に基づいて、複数の焦点検出領域のそれぞれに対して焦点検出動作を実行する焦点検出手段と、前記焦点検出手段による複数の焦点検出領域の焦点検出結果から画面内のデフォーカス量の分布に基づいて前記複数の焦点検出領域をグループ分けするグループ分け手段と、前記グループ分け手段によるグループ分け結果に基づいて、複数の焦点検出領域の中から少なくとも1つの焦点検出領域を選出する選出手段と、前記選出手段により選出された焦点検出領域のデフォーカス量と所定のデフォーカス量とを比較する比較手段と、前記選出された焦点検出領域のデフォーカス量が所定のデフォーカス量よりも大きい場合、当該デフォーカス量に基づいてレンズを駆動させ、当該レンズ駆動に伴ってデフォーカス量が変化した後に、再度の前記複数の焦点検出領域での焦点検出、最初のグループ分け結果に基づく焦点検出領域の選出及び所定のデフォーカス量との比較を繰り返させるとともに、当該比較の際、所定のデフォーカス量よりも小さい場合、再度の焦点検出領域の選出を行わせることなく当該選出された焦点検出領域が合焦するよう制御する制御手段とを有するカメラとするものである。
【0024】
同じく上記目的を達成するため、請求項5記載の本発明は、複数の焦点検出領域のそれぞれに対して焦点検出動作を実行する焦点検出ステップと、前記焦点検出ステップにおける複数の焦点検出領域の焦点検出結果から前記複数の焦点検出領域をグループ分けするグループ分けステップと、前記グループ分けステップでのグループ分け結果に基づいて、複数の焦点検出領域の中から少なくとも1つの焦点検出領域を選出する選出ステップと、前記選出ステップにおいて選出された焦点検出領域のデフォーカス量と所定のデフォーカス量とを比較する比較ステップと、前記選出された焦点検出領域のデフォーカス量が所定のデフォーカス量よりも大きい場合、当該デフォーカス量に基づいてレンズを駆動させ、当該レンズ駆動に伴ってデフォーカス量が変化した後に、再度の前記複数の焦点検出領域での焦点検出、グループ分け、焦点検出領域の選出及び所定のデフォーカス量との比較を繰り返させるとともに、当該比較の際、所定のデフォーカス量よりも小さい場合、再度のグループ分け及び焦点検出領域の選出を行わせることなく当該選出された焦点検出領域が合焦するよう制御する制御ステップとを有する焦点検出方法とするものである。
【0025】
同じく上記目的を達成するため、請求項6記載の本発明は、複数の焦点検出領域のそれぞれに対して焦点検出動作を実行する焦点検出ステップと、前記焦点検出ステップにおける複数の焦点検出領域の焦点検出結果から前記複数の焦点検出領域をグループ分けするグループ分けステップと、前記グループ分けステップでのグループ分け結果に基づいて、複数の焦点検出領域の中から少なくとも1つの焦点検出領域を選出する選出ステップと、前記選出ステップにおいて選出された焦点検出領域のデフォーカス量と所定のデフォーカス量とを比較する比較ステップと、前記選出された焦点検出領域のデフォーカス量が所定のデフォーカス量よりも大きい場合、当該デフォーカス量に基づいてレンズを駆動させ、当該レンズ駆動に伴ってデフォーカス量が変化した後に、再度の前記複数の焦点検出領域での焦点検出、最初のグループ分け結果に基づく焦点検出領域の選出及び所定のデフォーカス量との比較を繰り返させるとともに、当該比較の際、所定のデフォーカス量よりも小さい場合、再度の焦点検出領域の選出を行わせることなく当該選出された焦点検出領域が合焦するよう制御する制御ステップとを有する焦点検出方法とするものである。
【0026】
【発明の実施の形態】
以下、本発明を図示の実施の形態に基づいて詳細に説明する。
【0027】
図3は本発明の実施の第1の形態に係るカメラの概略構成を示すブロック図である。
【0028】
図3において、203はマイクロコンピュータであり、後述する領域センサからの出力をディジタル信号に変換するA/Dコンバータや該A/DコンバータでA/D変換された画像信号を格納するメモリ(RAM)や後述の距離マップ作成やグルーピング等を行うCPUを具備している。
【0029】
201は微小受光画素を二次元配列したCCD等の領域センサ、202は前記領域センサ201を駆動するセンサ駆動回路である。前記センサ駆動回路202は、AFCOM信号を受けている間、データバスDBUSを介してシリアル通信を行う。そして、シリアル通信にてマイクロコンピュータ203よりセンサ駆動情報を受け取とると、その情報によりセンサを駆動制御する。
【0030】
206は前記マイクロコンピュータ203によって選択される測距情報に基づいて撮影レンズの駆動を行うレンズ駆動回路で、撮影レンズ213のピント調節用モータと絞り羽根制御用モータを駆動制御するものであり、前記マイクロコンピュータ203からLCOM信号を受けている間、データバスDBUSを介してシリアル通信を行う。そして、シリアル通信にてマイクロコンピュータ203よりレンズ駆動情報を受け取とると、その情報によりレンズを駆動制御する。また、同時にレンズの各種の情報(焦点距離情報等)をシリアル通信によりマイクロコンピュータ203に送る。
【0031】
207は不図示のレリーズ釦の第1ストロークによりONするスイッチ(SW1)、208は不図示のレリーズ釦の第2ストロークによりONするスイッチ(SW2)である。
【0032】
214はスイッチセンス回路であり、撮影者が各撮影条件を設定する為のスイッチやカメラの状態を示すスイッチの状態を読み取り、マイクロコンピュータ203に送る回路であり、SWCOM信号を受けている間、データバスDBUSを介しシリアル通信によりマイクロコンピュータ203にスイッチデータを送る。また、電子ダイアル210の入力値により、ダイアル値のカウントアップやカウントダウンも行い、SWCOM信号を受けている間、データバスDBUSを介しシリアル通信によりマイクロコンピュータ203にカウント値を送る。
【0033】
204はシャッタの開閉を制御するシャッタ制御回路、205はフィルムの給送を制御するフィルム制御回路である。
【0034】
次に、上記マイクロコンピュータ203において実行される一連の動作について、図4のフローチャートに従って説明する。
【0035】
ステップ#300においては、カメラのメインスイッチが押された等の要因によりカメラの電源が入った状態であり、ステップ#301へ進む。そして、ステップ#301において、スイッチセンス回路214の情報を基に、モードの切換えや設定値の切換えを行い、変化があった場合には不図示の液晶表示回路に通信して表示データや表示の色を修正する。続くステップ#302においては、スイッチSW1がONしているか否かを判別し、ONしていれば測光動作を行う為にステップ#306へ進み、OFFのままである場合にはステップ#303へ進む。
【0036】
ここではスイッチSW1がOFFのままであるとして、ステップ#303へ進むものとする。
【0037】
ステップ#303においては、電源をOFFするかどうかの判別を行い、電源をOFFしない場合はステップ#301を介してステップ#302のスイッチSW1のチェックに戻る。つまり、何らかの要因でカメラの電源が立上がった場合には、一定時間、電源を起しておくことにより、スイッチ状態のチェックや表示の切換えを行う。また、上記ステップ#303にて電源をOFFする場合はステップ#304へ進み、カメラのファインダ内や外部の不必要な部分の表示を液晶表示回路により消灯し、電源をOFFする。そして、次のステップ#305において、一連の動作を終了する。
【0038】
上記ステップ#302にてスイッチSW1がONしたことを判別した場合は前述した様にステップ#306へ進み、ここでは不図示の測光回路を動作させて被写体での反射光を取り込み、A/D変換して測光情報を得る。そして、露出条件(絞り,シャッタスピード)の演算を行う。次のステップ#307においては、サブルーチン自動選択AFを行う。なお、このサブルーチン自動選択AFの詳しい動作については、後述する。続くステップ#308においては、上記ステップ#306にて得られたAV値やTV値を不図示の液晶表示回路によりファインダ内液晶表示装置と外部液晶表示装置に表示する。
【0039】
ステップ#309においては、カメラの状態がレリーズを許可して良い状態か否かの判別を行う。例えば、AFモードが「ワンショットモード」である場合は、上記ステップ#307の焦点検出結果が「合焦状態」ならばレリーズは許可され、スイッチSW2のチェックを行う為に後述するステップ#310へ進み、一方、「合焦状態」でない場合は、ステップ#301へ戻る。そして、このステップ#301に戻った後は上記と同様必要に応じてモード等の表示し、スイッチSW1のチェックの為にステップ#302へと進む。そして、スイッチSW1がONの場合は、再び測光,測距,表示を行い(ステップ#302→#306→#307→#308)、再度ステップ#309にてカメラの状態がレリーズを許可して良い状態か否かの判別を行う。
【0040】
上記ステップ#309にてレリーズが許容されると、ステップ#310へ進み、ここではスイッチSW2がONしているか否かを判別し、ONであれば撮影動作を行う為にステップ#311へ進み、スイッチSW2がOFFの場合は、スイッチSW1のチェックの為にステップ#301及びステップ#302に戻り、このステップ#302にてスイッチSW1がONの場合は、再び測光,測距,表示を行う(ステップ#302→#306→#307→#308)ことになる。
【0041】
上記ステップ#310にてスイッチSW2がONしていれば、前述した様に撮影動作を行う為にステップ#311へ進み、ここでは不図示のチャージモータ制御回路によりクリックリターンミラーをアップすると共に、上記ステップ#306で決められた絞り量をレンズ駆動回路206により撮影レンズ213に通信し、設定露光量が得られるように絞り込み動作を行う。次のステップ#312においては、シャッタ制御回路204を用いて上記ステップ#306で決められたTV量が得られる様に不図示のシャッタ先幕及び後幕の走行制御を行う。続くステップ#313においては、不図示のチャージモータ制御回路によりクイックリターンミラーをダウンすると同時に、シャッタのチャージを行い、上記ステップ#306にて絞り込まれていた絞りを開放に戻す。そして、ステップ#314において、上記フィルム制御回路205を用いて不図示の給送モータを制御し、フィルムの巻上げを行う。
【0042】
以上で、カメラの一連の動作が終了する。
【0043】
尚、このシーケンスの中では、カメラの動作が通常と違う場合の処理(例えばフィルムが突っ張った場合など)は、本発明と無関係なために省略している。
【0044】
次に、図4のステップ#307にてコールされるサブルーチン「自動選択AF」について、図1のフローチャートを用いて詳しく説明する。
【0045】
ステップa101においては、図4のステップ#306からプログラムシーケンスが移行して、サブルーチン自動選択AFの実行を開始する。そして、まずステップa102において、センサ駆動回路202を用いて領域センサ201を駆動し、複数領域の焦点検出を行う為に光電変換センサの蓄積を行わせると共にそのセンサ出力を取り込み、そのA/D値から各焦点検出領域毎の焦点情報を算出する。そして、これらの焦点検出結果を基に、既存のアルゴリズムでデフォーカス量の算出を行い、多点焦点検出を行う。
【0046】
次のステップa103においては、検出されたデフォーカス量に基づきグルーピングを行う(デフォーカスマップを作成する)。グルーピングの手法は、前述した様に、隣接する2つのブロックのデフォーカスの差が所定値以下であれば、2つのブロックは同一物体を形成しているという判断を、すべての隣接ブロックに対して適用するという方法等が既に知られているので、これ以上の説明は省略する。このような判断を行うことにより、撮影画面を物体毎に領域分けしたデータを得ることができる。(このデフォーカスによりグループ分けした領域分けデータを、デフォーカスマップという。)
例えば、レンズが至近位置にある時に、図9(a)の様な撮影シーンで、同図(b)のように配置された焦点検出点で焦点検出を行うと、各々の焦点検出点において、図5(a1)に示す様な、デフォーカス量が検出される(検出不能の領域は空白になっている)。このときに作成されるデフォーカスマップは、同図(b1)のようになる。レンズが至近端にあり、全体的にデフォーカス量が大きいので、コントラストのある人物の顔の部分は焦点検出する事ができたが、それ以外は焦点検出不能の部分が多い。デフォーカスマップの領域は、それぞれの人物の顔の部分が2つの領域として(領域b1.1 ,b1.2 )認識され、人物の服装の部分が一つの領域(領域b1.3 )を形成している。壁の部分はほとんど焦点検出不能になっているため、領域として認識されていない。
【0047】
次のステップa104においては、画面を構成するすべての物体(グループ)の中から主被写体を判定する。主被写体を判断するための要素としては、物体の大きさや傾き、距離の遠近、画面上の位置などを考慮して行う。主被写体を決定するとそのグループを代表する焦点検出点を決定し,その焦点検出点の中からデフォーカス量をそのグループの、すなわち主被写体のデフォーカス量とする。
【0048】
図5(a1),(b1)の例では、領域b1.1 ,b1.2,b1.3 の中から、領域b1.1 を主被写体として選択し、領域b1.1 の中から、同図(b1)の焦点検出点1のデフォーカス量「−14.7」(絶対値では「14.7」)を主被写体のデフォーカス量として選択する。
【0049】
次のステップa105においては、主被写体のデフォーカス量とデフォーカス判定閾値を比較して、主被写体のデフォーカス量の(絶対値の大きさ)が閾値より大きければステップa106へ分岐し、小さければステップa107へ分岐する。デフォーカス量の判定閾値は、例えば「 0.1」とすれば、今回の主被写体は「−14.7」(絶対値では「14.7」)で、閾値より大きい。ここでは、主被写体のデフォーカス量が閾値より大きい場合について、まず説明する。このときはステップa106へ進む。
【0050】
ステップa106においては、主被写体のデフォーカス量に基づきレンズ駆動量を演算した後に、レンズ制御回路206へレンズ駆動量を通信し、レンズを駆動する。レンズ駆動後はステップa102へ戻り、再び焦点検出を行う。そして、ステップa103〜a104で再びデフォーカスマップを作成し、主被写体を判定し、デフォーカス量を求める。
【0051】
前記の例において、レンズが前回決定した主被写体のデフォーカス量に基づいて駆動を行った後、再度焦点検出を行うと、各々の焦点検出点において、図5(a2)に示す様なデフォーカス量が検出される。このときに作成されるデフォーカスマップは、同図(b2)のようになる。レンズが至近端から駆動されたため、前回の主被写体のデフォーカス量は小さくなっている。今回検出したデフォーカス量で再度デフォーカスマップを作成すると、同図(b2)のようになる。デフォーカスマップの領域は、それぞれの人物の顔の部分が2つの領域として(領域b2.1 ,b2.2 )認識され、人物の1部分が一つの領域(領域b2.3 )を形成している。
【0052】
今回は、右側の人物の上の壁が焦点検出できたので、新しい領域b2.4 を形成している。領域b2.1 及び領域b2.2 は、1回目の測距で作成したデフォーカスマップの領域b1.1 及びb1.2 に対応する領域であるが、焦点検出可能領域が増えたために少し領域が大きくなっている。所定のアルゴリズムに従って、これら4つの領域の中から領域選択行うと、領域b2.2が主被写体領域として選択される。領域b2.2 の中からグループを代表する焦点検出点を同図(b2)の焦点検出点2に決定し、そのデフォーカス量を主被写体のデフォーカス量とする。
【0053】
再びステップa105にてデフォーカス量を比較し、デフォーカス量が大きければステップa106へ進み、レンズ駆動を行う。
【0054】
このように、ステップa105において、デフォーカス量が少なくなるまで、ステップa102〜a106を繰り返し実行し、その都度デフォーカスマップを作り直し、主被写体を判定する。
【0055】
上記ステップa105で主被写体のデフォーカス量が閾値より小さくなったらステップa107へ進む。前記の例において、決定した焦点検出点2のデフォーカス量は「−0.97」(絶対値では「0.97」)であり、デフォーカス量の判定閾値「0.1 」より小さい(比較は絶対値で行う)ので、ステップa107へ分岐する。そして、このステップa107において、焦点検出点を上記ステップa104で最後に計算した位置に決定する。以後、デフォーカスマップの作成や主被写体の再判定は行わない。
【0056】
前記の例では、焦点検出点2を最終的な焦点検出点の位置として決定し、以後この焦点検出点のみで焦点検出を行う。
【0057】
次のステップa108においては、上記ステップa107で決定した焦点検出点、すなわち主被写体のデフォーカス量が合焦範囲内であるか判定する。合焦ならステップa111へ進み、そうでないならステップa109へ進む。ステップa109においては、上記ステップa107で決定した主被写体のデフォーカス量に基づきレンズ駆動量を演算した後に、レンズ制御回路206へレンズ駆動量を通信し、レンズを駆動する。次のステップa110においては、レンズ駆動後、上記ステップa107で決定した焦点検出点の焦点検出を行う。その後はステップa108へ戻り、合焦判定を行う。
【0058】
上記ステップa107で焦点検出点(主被写体)が決定した後は、その焦点検出点だけで焦点検出を行い、合焦になるまでステップa108〜a110を繰り返す。ここで判るように、一度主被写体を決定すると、デフォーカスマップの作成や主被写体の判定は行わない。
【0059】
上記ステップa108で合焦になったことを判別するとステップa111へ進み、「合焦状態」の設定を行う。そして、ステップa112へ進み、このサブルーチンをリターンする。
【0060】
なお、このサブルーチンの中では、合焦になるまで焦点検出を行う場合を説明しているが(合焦にならない場合のシーケンスは省略している)、実際は、焦点検出が不能な場合や、所定回数レンズ駆動を行っても合焦にならない場合の処理などを行うので、必ずしも「合焦状態」でサブルーチンをリターンする訳ではない。
【0061】
以上説明したように、複数の焦点検出点で焦点検出を行い,その結果で領域分割を行って、分割された領域から主被写体領域を決定して焦点調節を行う場合、決定した主被写体の焦点検出結果が所定以内になるまでは、領域分割及び主被写体領域の決定を繰り返し行いながらレンズ駆動を行い、主被写体の焦点検出結果が所定以内になったら決定した主被写体で焦点調節を行うようにしたため、ハンチングや誤選択(撮影者の意志と不一致の被写体を選択する)を行わず意志に一致した焦点検出点選択を行うことができる。
【0062】
(実施の第2の形態)
図2は本発明の実施の第2の形態に係るカメラの、サブルーチン「自動選択AF」を示すフローチャートである。なお、カメラの概略構成やその他の動作は、上記実施の第1の形態で説明した、図3及び図4と同様であるので、ここではその説明は割愛する。
【0063】
図4のステップ#307において、サブルーチン「自動選択AF」がコールされると、ステップz101より動作を開始し、まずステップz102において、センサ駆動回路202を用いて領域センサ201を駆動し、既存のアルゴリズムでデフォーカス量の算出を行い、多点焦点検出を行う。次のステップz103においては、検出されたデフォーカス量に基づきグルーピングを行う。そして、ステップz104において、画面を構成するすべての物体(グループ)の中から主被写体を判定し、そのグループを代表する焦点検出点を決定する。その焦点検出点のデフォーカス量をそのグループの、すなわち主被写体のデフォーカス量とする。
【0064】
次のステップz105においては、主被写体のデフォーカス量とデフォーカス判定閾値を比較して、主被写体のデフォーカス量が閾値より大きければステップz106へ分岐し、小さければステップz108へ分岐する。
【0065】
まず、主被写体のデフォーカス量が閾値より大きく、ステップz106へ進んだ場合を説明する。
【0066】
ステップz106においては、主被写体のデフォーカス量に基づきレンズ制御回路206へレンズ駆動量を通信し、レンズを駆動する。そして、次のステップz107において、レンズ駆動後、再び多点焦点検出を行い、ステップz104)へ戻り、ここで再度主被写体を判定し、デフォーカス量を求める。
【0067】
この実施の第2の形態では、デフォーカスマップを作り直さないので、最初に決まった領域分割で主被写体を決定する。デフォーカスマップを作り直さないため、演算時間が大幅に短縮され、かつ、領域の大きさや数が演算の度に変化しないという特徴がある。また、最初に領域分割を決めてしまう場合は、上記実施の第1の形態のように、個々の焦点検出点を厳密に区分するような分割ではなく、大まかな分割のみを決定しても良い。領域の分割を決定するのは必ずしも最初の測距結果によって行う必要はなく、何度か焦点調節動作を行った後に決定するようにしても良い。
【0068】
上記ステップz104〜z107を、ステップz105にてデフォーカス量が少なくなることが判別されるまで繰り返し実行し、最初に決定した領域分割で主被写体を判定する。
【0069】
上記ステップz105で主被写体のデフォーカス量が閾値より小さくなったらステップz108へ進む。そして、このステップz108においては、焦点検出点を、上記ステップz104で最後に計算した位置に決定する。以後、主被写体の再判定は行わない。続くステップz109においては、上記ステップz108で決定した焦点検出点、すなわち主被写体のデフォーカス量が合焦範囲内であるか判定する。合焦ならステップz112へ進み、そうでないならステップz110へ進む。
【0070】
ステップz110においては、上記ステップz108で決定した主被写体のデフォーカス量に基づきレンズ駆動量を演算し、レンズ制御回路206へレンズ駆動量を通信し、レンズを駆動する。次のステップz111においては、レンズ駆動後、上記ステップz107で決定した焦点検出点の焦点検出を行う。その後、ステップz109へ戻り、合焦判定を行う。
【0071】
上記ステップz108で焦点検出点(主被写体)が決定した後は、その焦点検出点だけで焦点検出を行い、合焦になるまでステップz109〜z111を繰り返す。ここで判るように、一度主被写体を決定すると主被写体の判定は行わない。
【0072】
上記ステップz109にて合焦になったことを判別するとステップz112へ進み、「合焦状態」の設定を行う。そして、次のステップz113にて、このサブルーチンをリターンする。
【0073】
なお、このサブルーチンの中では、合焦になるまで焦点検出を行う場合を説明しているが(合焦にならない場合のシーケンスは省略している)、実際は、焦点検出が不能な場合や、所定回数レンズ駆動を行っても合焦にならない場合の処理などを行うので、必ずしも「合焦状態」でサブルーチンをリターンする訳ではない。
【0074】
以上説明したように、複数の焦点検出点で測距を行い、その結果で領域分割を行って、分割された領域から主被写体領域を決定して焦点調節を行う場合、決定した主被写体の焦点検出結果が所定以内になるまでは、決められた領域分割で主被写体領域の決定を繰り返し行いながらレンズ駆動を行い、主被写体の焦点検出結果が所定以内になったら決定した主被写体で焦点調節を行うようにしたため、ハンチングや誤選択(撮影者の意志と不一致の被写体を選択する)を行わず意志に一致した焦点検出点選択を行うことができる。また、領域分割を繰り返し行わないので計算量が少なくなり、演算時間が短くなる。
【0075】
第1の参考技術例)上記実施の第1の形態においては、デフォーカスを検出するタイプの装置を例にして説明したが、距離検出する測距装置においても同様に領域分割を行って、焦点調節を行うことができる。この場合は、図1のステップa103に相当する部分で、距離マップを作成し、ステップa105では、主被写体の距離と、その時点で撮影レンズが合焦している距離とを比較して、その差が所定以内であるかを判定することになる。
【0076】
第2の参考技術例)上記実施の第2の形態では、デフォーカスを検出するタイプの装置を例にして説明したが、距離検出する測距装置においても同様に領域分割を行って、焦点調節を行うことができる。この場合は、図2のステップz103に相当する部分で、距離マップを作成し、ステップz105では,主被写体の距離と、その時点で撮影レンズが合焦している距離とを比較して,その差が所定以内であるかを判定することになる。
【0077】
(発明と実施の形態の対応)上記実施の第1及び第2の形態において、マイクロコンピュータ203内の、図1,図2におけるステップa102,z102の動作を実行する部分が請求項1〜4記載の焦点検出手段又は請求項5,6記載の焦点検出ステップに、ステップa103,z103の動作を実行する部分が請求項1〜4記載のグループ分け手段又は請求項5,6記載のグループ分けステップに、ステップa104,z104の動作を実行する部分が請求項1〜4記載の選出手段又は請求項5,6記載の選出ステップに、ステップa105,z105の動作を実行する部分が請求項1〜4記載の比較手段又は請求項5,6記載の比較ステップに、ステップa105→a106→a102→a103→a104及びステップa105→a107→a108の動作を実行する部分が請求項1,3記載の制御手段又は請求項5記載の制御ステップに、それぞれ相当する。
【0078】
また、ステップz105z106z107z104及びステップz105z108→z109の動作を実行する部分が請求項2,4記載の制御手段又は請求項6記載の制御ステップに、それぞれ相当する。
【0079】
以上が実施の形態の各構成と本発明の各構成の対応関係であるが、本発明は、これら実施の形態の構成に限定されるものではなく、請求項で示した機能、又は実施の形態がもつ機能が達成できる構成であればどのようなものであってもよいことは言うまでもない。
【0080】
(変形例)
本発明は、一眼レフカメラやビデオカメラ等のカメラに適用した場合を例にしているが、該カメラに搭載される焦点検出装置、測距装置、自動焦点調節装置であっても良いし、更には環境認識装置、例えばエアコン(例えば人物を認識してその方向に風向きを設定する装置として利用)や車(人物認識装置として利用)等の装置にも適用可能である。
【0081】
その他、本発明が適用される測距装置や焦点検出装置を具備した光学装置、例えば双眼鏡やゲーム機にも適用可能である。
【0082】
【発明の効果】
以上説明したように、本発明によれば、レンズを合焦させる際にハンチングを生じたり、使用者の意志と合致しない物体に焦点合わせを行ってしまうようなことを防ぐことができる焦点検出装置、カメラ又は焦点検出方法を提供できるものである。
【図面の簡単な説明】
【図1】本発明の実施の第1の形態に係るカメラの自動選択AF時の動作を示すフローチャートである。
【図2】本発明の実施の第1の形態に係るカメラの自動選択AF時の動作を示すフローチャートである。
【図3】本発明の実施の各形態に係るカメラの概略構成を示すブロック図である。
【図4】本発明の実施の各形態に係るカメラのメイン動作を説明するためのフローチャート図である。
【図5】本発明の実施の第1の形態における自動選択AFで検出されるデフォーカス量とそれに基づいて作成されたデフォーカスマップの図である。
【図6】従来例を説明するための撮影シーン例を示す図である。
【図7】図6の距離マップの例を示す図である。
【図8】図7をグルーピングした際の一例を示す図である。
【図9】従来例及び本発明を説明するための撮影シーンの一例と焦点検出点の分布図である。
【図10】従来例のデフォーカスマップ(領域分割)の例を示す図である。
【符号の説明】
201 エリアセンサ
202 センサ駆動回路
203 マイクロコンピュータ
206 レンズ駆動回路
207 レリーズ釦の第1ストロークによりONするスイッチ(SW1)
208 レリーズ釦の第2ストロークによりONするスイッチ(SW2)
213 撮影レンズ
214 スイッチセンス回路
[0001]
BACKGROUND OF THE INVENTION
The present invention Has a function of executing a focus detection operation for each of a plurality of focus detection areas Focus detection device , camera And focus detection method It is about.
[0002]
[Prior art]
With conventional cameras that can perform multi-point distance measurement, it is often the case that the closest "nearest" distance measurement area is selected from among multiple distance measurement results, so there are many cases of erroneous distance measurement. For example, if the result of three-point distance measurement has a specific pattern such as far, middle, and near, select a middle distance metering point (since “near” may be the ground, etc.) An algorithm having such an algorithm has been proposed (Japanese Patent Laid-Open No. 2-282234).
[0003]
In addition, the applicant of the present application proposes a device that has a number of distance measuring points in the shooting screen, can measure the distances of these distance measuring points, and can measure the distance (defocus amount) in any direction in the shooting space. (Japanese Patent Publication No. 4-67607).
[0004]
This proposed apparatus will be described by taking as an example the case of shooting a scene as shown in FIG.
[0005]
First, the shooting screen is finely divided into blocks (with a plurality of pixels on the area sensor as a set), and distance distribution information (distance map) as shown in FIG. 7 is obtained. Then, in order to determine the object arrangement in the object space, grouping of each object constituting the space is performed.
[0006]
FIG. 8 is an example of a result of grouping based on the distance map data in FIG. 7, and the area is divided for each object by grouping. As a practical grouping technique, several methods are generally known. The simplest example is that if the difference in distance (or defocus) between two adjacent blocks is less than or equal to a predetermined value, the determination that the two blocks form the same object is made for all adjacent blocks. It is a method of applying.
[0007]
By the above method, the screen is divided into areas (grouping) for each object constituting the imaging space as shown in FIG.
[0008]
Then, for example, the area of the main subject is determined from the objects constituting the shooting space using distance information, object size information, position information on the screen, and the degree of inclination of the object. Is.
[0009]
As a method of grouping, there is a method of creating a histogram from a distance map and grouping based on the histogram distribution. Further, in the method of focusing, attention is paid only to the closest distance and the most frequent distance, and when the difference between the two is small, the focus is adjusted to the middle, and otherwise, the previous subject is focused (Japanese Patent Laid-Open No. 62-255911). ) Etc.
[0010]
[Problems to be solved by the invention]
However, in actual focus adjustment, focus detection cannot always be performed correctly at all distance measuring points (focus detection points), and a distance map is created by distance measurement errors and subtle movements of the photographer and subject during focus adjustment. It will change. Further, in a focus detection system that performs focus detection using a light beam that passes through the photographic lens, the influence of the stop position of the photographic lens when performing focus detection is large. In particular, if a distance map is repeatedly created while performing focus adjustment, the distance map is slightly different each time it is re-created. As shown in FIG. 6, there is no problem when the subjects are separated from each other. However, when the subjects are close to each other or the distance between the background and the main subject is short, the problem becomes significant.
[0011]
FIG. 9A shows an example of such a scene, in which two people are standing in front of a wall side by side. FIG. 4B shows a focus detection area or a distance measurement area of focus detection means for adjusting the focus of this scene. Various examples of creating a defocus map using such a focus detection system are shown in FIGS.
[0012]
FIG. 10A shows an example of division into four regions. Areas a1 and a2 are almost left It becomes the area of the person on the side, area a3, a4 right It corresponds to the part of the person on the side. In this case, the background wall portion is hardly recognized as a region because the focus was hardly detected (in the figure, it is blank).
[0013]
FIG. 10B shows an example in which a person is correctly divided into areas b1 and b2. Further, in FIG. 10C, two persons are included in one area (area c3 ) And part of the wall and part of the person are divided into different areas (see areas c1 and c2). In FIG. 10D, two persons and a part of the wall are classified into the same area (area d2), and only a part of the person is recognized as another area (area d1).
[0014]
In this way, even when shooting the same scene, the distance map is considerably different depending on the position of the shooting lens and the possibility of focus detection.
[0015]
When focus adjustment is performed by repeatedly determining focus points according to different distance maps in this way, the focus point to be focused is not determined, causing hunting, etc., or performing another measurement each time focus is performed. The distance point will be in focus and the photographer's trust will be greatly impaired.
[0016]
(Object of the Invention) Purpose of Is an object that causes hunting when the lens is focused or does not match the user's will Will focus on Focus detection device that can prevent , Camera and focus detection method Is to provide.
[0020]
In order to achieve the above object, the present invention according to claim 1 is directed to focus detection means for executing a focus detection operation for each of a plurality of focus detection areas, and focus detection of the plurality of focus detection areas by the focus detection means. From the result in the screen Defocus amount A grouping means for grouping the plurality of focus detection areas based on a distribution of the at least one focus detection area, and selecting at least one focus detection area from the plurality of focus detection areas based on a grouping result by the grouping means And a focus detection area selected by the selection means Defocus amount And given Defocus amount Comparing means for comparing the selected focus detection area Defocus amount Is given Defocus amount If greater than Defocus amount The lens is driven based on the Defocus amount After the change, the focus detection again in the plurality of focus detection areas, grouping, selection of the focus detection area and a predetermined Defocus amount And repeat the comparison with Defocus amount If it is smaller, the focus detection apparatus has a control unit that controls the selected focus detection area to be focused without performing grouping and selection of the focus detection area again.
[0021]
In order to achieve the above object as well, the present invention as claimed in claim 2 is directed to focus detection means for executing a focus detection operation for each of a plurality of focus detection areas, and the focus of the focus detection areas by the focus detection means. From the detection result Defocus amount A grouping means for grouping the plurality of focus detection areas based on a distribution of the at least one focus detection area, and selecting at least one focus detection area from the plurality of focus detection areas based on a grouping result by the grouping means And a focus detection area selected by the selection means Defocus amount And given Defocus amount Comparing means for comparing the selected focus detection area Defocus amount Is given Defocus amount If greater than Defocus amount The lens is driven based on the Defocus amount After the change, the focus detection in the plurality of focus detection areas again, the selection of the focus detection area based on the first grouping result, and the predetermined Defocus amount And repeat the comparison with Defocus amount If it is smaller, the focus detection apparatus has a control means for controlling the selected focus detection area so that the selected focus detection area is not focused again.
[0022]
Similarly, in order to achieve the above object, according to a third aspect of the present invention, there is provided a focus for executing a focus detection operation on each of a plurality of focus detection areas based on an area sensor and a signal output from the area sensor. From the focus detection results of the plurality of focus detection areas by the detection means and the focus detection means, Defocus amount A grouping means for grouping the plurality of focus detection areas based on the distribution of the at least one focus detection area, and selecting at least one focus detection area from the plurality of focus detection areas based on the grouping result by the grouping means And a focus detection area selected by the selection means Defocus amount And given Defocus amount Comparing means for comparing the selected focus detection area Defocus amount Is given Defocus amount If greater than Defocus amount The lens is driven based on the Defocus amount After the change, the focus detection in the plurality of focus detection areas again, grouping, selection of the focus detection area and a predetermined Defocus amount And repeat the comparison with Defocus amount If smaller, the camera has a control means for controlling the selected focus detection area to be in focus without re-grouping and selecting the focus detection area.
[0023]
In order to achieve the above object as well, the present invention according to claim 4 is a focus for executing a focus detection operation for each of a plurality of focus detection areas based on an area sensor and a signal output from the area sensor. From the focus detection results of the plurality of focus detection areas by the detection means and the focus detection means, Defocus amount A grouping means for grouping the plurality of focus detection areas based on the distribution of the at least one focus detection area, and selecting at least one focus detection area from the plurality of focus detection areas based on the grouping result by the grouping means And a focus detection area selected by the selection means Defocus amount And given Defocus amount Comparing means for comparing the selected focus detection area Defocus amount Is given Defocus amount If greater than Defocus amount The lens is driven based on the Defocus amount After the change, the focus detection in the plurality of focus detection areas again, the selection of the focus detection area based on the first grouping result, and the predetermined Defocus amount And repeat the comparison with Defocus amount If smaller, the camera has a control means for controlling the selected focus detection area to be focused without causing the focus detection area to be selected again.
[0024]
In order to achieve the above object, the present invention according to claim 5 is a focus detection step for executing a focus detection operation for each of a plurality of focus detection regions, and the focus of the plurality of focus detection regions in the focus detection step. A grouping step for grouping the plurality of focus detection areas from the detection result, and a selection step for selecting at least one focus detection area from the plurality of focus detection areas based on the grouping result in the grouping step And the focus detection area selected in the selection step. Defocus amount And given Defocus amount A comparison step for comparing the selected focus detection area Defocus amount Is given Defocus amount If greater than Defocus amount The lens is driven based on the Defocus amount After the change, the focus detection in the plurality of focus detection areas again, grouping, selection of the focus detection area and a predetermined Defocus amount And repeat the comparison with Defocus amount If it is smaller, the focus detection method has a control step for controlling the selected focus detection area to be in focus without re-grouping and selecting the focus detection area.
[0025]
In order to achieve the above object, the present invention according to claim 6 is a focus detection step for executing a focus detection operation for each of a plurality of focus detection regions, and a focus of the plurality of focus detection regions in the focus detection step. A grouping step for grouping the plurality of focus detection areas from the detection result, and a selection step for selecting at least one focus detection area from the plurality of focus detection areas based on the grouping result in the grouping step And the focus detection area selected in the selection step. Defocus amount And given Defocus amount A comparison step for comparing the selected focus detection area Defocus amount Is given Defocus amount If greater than Defocus amount The lens is driven based on the Defocus amount After the change, the focus detection in the plurality of focus detection areas again, the selection of the focus detection area based on the first grouping result, and the predetermined Defocus amount And repeat the comparison with Defocus amount If it is smaller, the focus detection method includes a control step for controlling the selected focus detection area to be focused without causing the focus detection area to be selected again.
[0026]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail based on illustrated embodiments.
[0027]
FIG. 3 is a block diagram showing a schematic configuration of the camera according to the first embodiment of the present invention.
[0028]
In FIG. 3, reference numeral 203 denotes a microcomputer, which is an A / D converter that converts an output from an area sensor, which will be described later, into a digital signal, and a memory (RAM) that stores an image signal A / D converted by the A / D converter. And a CPU for performing distance map creation and grouping, which will be described later.
[0029]
Reference numeral 201 denotes an area sensor such as a CCD in which minute light receiving pixels are two-dimensionally arranged, and 202 denotes a sensor driving circuit that drives the area sensor 201. The sensor drive circuit 202 performs serial communication via the data bus DBUS while receiving the AFCOM signal. When sensor drive information is received from the microcomputer 203 by serial communication, the sensor is driven and controlled based on the information.
[0030]
Reference numeral 206 denotes a lens driving circuit that drives the photographing lens based on the distance measurement information selected by the microcomputer 203, and controls the focus adjustment motor and the diaphragm blade control motor of the photographing lens 213. While receiving the LCOM signal from the microcomputer 203, serial communication is performed via the data bus DBUS. When lens drive information is received from the microcomputer 203 by serial communication, the lens is driven and controlled by the information. At the same time, various kinds of lens information (focal length information, etc.) are sent to the microcomputer 203 by serial communication.
[0031]
207 is a switch (SW1) that is turned on by a first stroke of a release button (not shown), and 208 is a switch (SW2) that is turned on by a second stroke of a release button (not shown).
[0032]
Reference numeral 214 denotes a switch sense circuit, which is a circuit for reading a switch state indicating a camera state and a switch for setting a shooting condition by a photographer and sending it to the microcomputer 203. While receiving a SWCOM signal, Switch data is sent to the microcomputer 203 by serial communication via the bus DBUS. Also, the dial value is counted up or down by the input value of the electronic dial 210, and the count value is sent to the microcomputer 203 by serial communication via the data bus DBUS while receiving the SWCOM signal.
[0033]
A shutter control circuit 204 controls opening / closing of the shutter, and a film control circuit 205 controls film feeding.
[0034]
Next, a series of operations executed in the microcomputer 203 will be described with reference to the flowchart of FIG.
[0035]
In step # 300, the camera is turned on due to factors such as the camera main switch being pressed, and the process proceeds to step # 301. In step # 301, the mode is switched and the set value is switched based on the information of the switch sense circuit 214. If there is a change, the display data and the display data are displayed by communicating with a liquid crystal display circuit (not shown). Correct the color. In the subsequent step # 302, it is determined whether or not the switch SW1 is ON. If it is ON, the process proceeds to step # 306 to perform the photometric operation, and if it remains OFF, the process proceeds to step # 303. .
[0036]
Here, it is assumed that the switch SW1 remains OFF, and the process proceeds to step # 303.
[0037]
In step # 303, it is determined whether or not the power is to be turned off. Via step # 301 The process returns to the check of the switch SW1 in step # 302. That is, when the power of the camera rises for some reason, the switch state is checked and the display is switched by turning on the power for a certain period of time. If the power is turned off in step # 303, the process proceeds to step # 304, and the display of unnecessary parts in the camera finder or outside is displayed on the liquid crystal display. In circuit Turn off the light and turn off the power. Then, in the next step # 305, a series of operations is terminated.
[0038]
If it is determined in step # 302 that the switch SW1 is turned on, the process proceeds to step # 306 as described above. Here, the photometry circuit (not shown) is operated to capture the reflected light from the subject and perform A / D conversion. To obtain photometric information. Then, an exposure condition (aperture, shutter speed) is calculated. In the next step # 307, subroutine automatic selection AF is performed. The detailed operation of this subroutine automatic selection AF will be described later. In the subsequent step # 308, the AV value and TV value obtained in step # 306 are displayed on the in-finder liquid crystal display device and the external liquid crystal display device by a liquid crystal display circuit (not shown).
[0039]
In step # 309, it is determined whether or not the camera is in a state that permits release. For example, when the AF mode is “one-shot mode”, release is permitted if the focus detection result of step # 307 is “in-focus state”, and the process proceeds to step # 310, which will be described later, to check the switch SW2. On the other hand, if it is not “in-focus state”, the process returns to step # 301. After returning to step # 301, the mode and the like are displayed as necessary as in the case described above, and the process proceeds to step # 302 for checking the switch SW1. If the switch SW1 is ON, photometry, distance measurement, and display are performed again (steps # 302 → # 306 → # 307 → # 308), and the camera state may permit release again in step # 309. It is determined whether or not it is in a state.
[0040]
If the release is permitted in step # 309, the process proceeds to step # 310, where it is determined whether or not the switch SW2 is ON. If it is ON, the process proceeds to step # 311 in order to perform the photographing operation. When the switch SW2 is OFF, the process returns to Step # 301 and Step # 302 for checking the switch SW1, and when the switch SW1 is ON at Step # 302, photometry, distance measurement, and display are performed again (Step S302). # 302 → # 306 → # 307 → # 308).
[0041]
If the switch SW2 is ON in step # 310, the process proceeds to step # 311 to perform the photographing operation as described above. Here, the click return mirror is raised by a charge motor control circuit (not shown), and The aperture amount determined in step # 306 is communicated to the taking lens 213 by the lens driving circuit 206, and the aperture operation is performed so that the set exposure amount can be obtained. In the next step # 312, travel control of a shutter front curtain and a rear curtain (not shown) is performed using the shutter control circuit 204 so that the TV amount determined in step # 306 can be obtained. In the subsequent step # 313, the quick return mirror is lowered by a charge motor control circuit (not shown), and at the same time, the shutter is charged, and the diaphragm that has been throttled in step # 306 is returned to the open position. In step # 314, the film control circuit 205 is used to control a feed motor (not shown) to wind the film.
[0042]
This completes the series of camera operations.
[0043]
In this sequence, processing when the operation of the camera is different from normal (for example, when the film is stretched) is omitted because it is irrelevant to the present invention.
[0044]
Next, the subroutine “automatic selection AF” called in step # 307 of FIG. 4 will be described in detail with reference to the flowchart of FIG.
[0045]
In step a101, the program sequence is shifted from step # 306 in FIG. 4, and execution of subroutine automatic selection AF is started. First, in step a102, the area sensor 201 is driven using the sensor drive circuit 202, the photoelectric conversion sensor is accumulated and the sensor output is taken in to detect the focus of a plurality of areas, and the A / D value is obtained. To calculate focus information for each focus detection area. Based on these focus detection results, the defocus amount is calculated by an existing algorithm, and multipoint focus detection is performed.
[0046]
In the next step a103, grouping is performed based on the detected defocus amount (defocus map is created). As described above, in the grouping method, if the difference in defocus between two adjacent blocks is equal to or less than a predetermined value, the determination that the two blocks form the same object is performed on all adjacent blocks. Since the method of applying is already known, further explanation is omitted. By making such a determination, it is possible to obtain data obtained by dividing the shooting screen into regions for each object. (The area division data grouped by this defocus is called a defocus map.)
For example, when focus detection is performed at the focus detection points arranged as shown in FIG. 9B in the shooting scene as shown in FIG. 9A when the lens is in the closest position, at each focus detection point, As shown in FIG. 5A1, the defocus amount is detected (the undetectable area is blank). The defocus map created at this time is as shown in FIG. Since the lens is at the closest end and the defocus amount is large as a whole, the focus of the face portion of a person with contrast can be detected, but there are many other portions where focus detection is impossible. In the defocus map area, each person's face part is recognized as two areas (areas b1.1 and b1.2), and the person's clothes part forms one area (area b1.3). ing. The wall portion is hardly recognized as a region because focus detection is almost impossible.
[0047]
In the next step a104, the main subject is determined from all objects (groups) constituting the screen. Factors for determining the main subject are determined in consideration of the size and inclination of the object, the distance, the position on the screen, and the like. When the main subject is determined, a focus detection point representing the group is determined, and the defocus amount of the focus detection point is set as the defocus amount of the group, that is, the main subject.
[0048]
In the example of FIGS. 5A1 and 5B1, the region b1.1 is selected as the main subject from the regions b1.1, b1.2, and b1.3, and the region b1.1 is selected from the region b1.1. (B1) Focus detection point A defocus amount of “−14.7” (absolute value “14.7”) is selected as the defocus amount of the main subject.
[0049]
In the next step a105, the defocus amount of the main subject is compared with the defocus determination threshold value. Branch to step a107. For example, if the defocus amount determination threshold is “0.1”, the current main subject is “−14.7” (absolute value “14.7”), which is larger than the threshold. Here, the case where the defocus amount of the main subject is larger than the threshold will be described first. At this time, the process proceeds to step a106.
[0050]
In step a106, after calculating the lens drive amount based on the defocus amount of the main subject, the lens drive amount is communicated to the lens control circuit 206 to drive the lens. After driving the lens, the process returns to step a102 and the focus detection is performed again. In steps a103 to a104, a defocus map is created again, the main subject is determined, and the defocus amount is obtained.
[0051]
In the above example, when the focus is detected again after the lens is driven based on the previously determined defocus amount of the main subject, the defocus as shown in FIG. 5 (a2) is obtained at each focus detection point. The amount is detected. The defocus map created at this time is as shown in FIG. Since the lens is driven from the closest end, the previous defocus amount of the main subject is small. When a defocus map is created again with the defocus amount detected this time, the result is as shown in FIG. In the defocus map area, each person's face part is recognized as two areas (areas b2.1 and b2.2), and one part of the person forms one area (area b2.3). Yes.
[0052]
This time, since the focus on the wall on the right person was detected, a new region b2.4 is formed. Areas b2.1 and b2.2 are areas corresponding to the areas b1.1 and b1.2 of the defocus map created by the first distance measurement, but the areas that can be detected slightly increase due to the increase in focus detectable areas. It is getting bigger. Select a region from these four regions according to a predetermined algorithm The Then, the area b2.2 is selected as the main subject area. Focus detection points representing the group from the area b2.2 are shown in FIG. Focus detection point 2 and the defocus amount is set as the defocus amount of the main subject.
[0053]
In step a105, the defocus amount is compared again. If the defocus amount is large, the process proceeds to step a106 to drive the lens.
[0054]
As described above, in step a105, steps a102 to a106 are repeatedly executed until the defocus amount decreases, and the defocus map is recreated each time to determine the main subject.
[0055]
If the defocus amount of the main subject becomes smaller than the threshold value in step a105, the process proceeds to step a107. In the above example, decided Focus detection point The defocus amount of 2 is “−0.97” (the absolute value is “0.97”), which is smaller than the defocus amount determination threshold “0.1” (comparison is performed with the absolute value), and the process branches to step a107. In step a107, the focus detection point is determined at the position calculated last in step a104. Thereafter, the defocus map is not created and the main subject is not determined again.
[0056]
In the above example, Focus detection point 2 is determined as the position of the final focus detection point, and thereafter focus detection is performed only at this focus detection point.
[0057]
In the next step a108, it is determined whether the focus detection point determined in step a107, that is, the defocus amount of the main subject is within the in-focus range. If it is in focus, the process proceeds to step a111, and if not, the process proceeds to step a109. In step a109, after calculating the lens driving amount based on the defocus amount of the main subject determined in step a107, the lens driving amount is communicated to the lens control circuit 206 to drive the lens. In the next step a110, focus detection of the focus detection point determined in step a107 is performed after driving the lens. Thereafter, the process returns to step a108 to perform in-focus determination.
[0058]
After the focus detection point (main subject) is determined in step a107, focus detection is performed only at the focus detection point, and steps a108 to a110 are repeated until focusing is achieved. As can be seen here, once the main subject is determined, the defocus map is not created and the main subject is not determined.
[0059]
If it is determined in step a108 that the in-focus state is obtained, the process proceeds to step a111 to set the “in-focus state”. Then, the process proceeds to step a112, and this subroutine is returned.
[0060]
In this subroutine, the case where focus detection is performed until focus is achieved (the sequence when focus is not achieved is omitted). However, in actuality, when focus detection is impossible or predetermined Since processing is performed when the lens is not in focus even if the lens is driven a number of times, the subroutine is not necessarily returned in the “in-focus state”.
[0061]
As described above, when focus detection is performed at a plurality of focus detection points, and area division is performed based on the result, the main subject area is determined from the divided areas and focus adjustment is performed, the focus of the determined main subject is determined. Until the detection result is within the predetermined range, the lens is driven while repeatedly dividing the area and determining the main subject region, and when the focus detection result of the main subject is within the predetermined range, the focus adjustment is performed on the determined main subject. Therefore, it is possible to perform focus detection point selection that matches the will without performing hunting or erroneous selection (selecting a subject that does not match the will of the photographer).
[0062]
(Second Embodiment)
FIG. 2 is a flowchart showing a subroutine “automatic selection AF” of the camera according to the second embodiment of the present invention. Note that the schematic configuration of the camera and other operations are the same as those in FIGS. 3 and 4 described in the first embodiment, and therefore description thereof is omitted here.
[0063]
When the subroutine “automatic selection AF” is called in step # 307 of FIG. 4, the operation starts from step z101. z102 , The area sensor 201 is driven using the sensor driving circuit 202, the defocus amount is calculated by an existing algorithm, and multipoint focus detection is performed. In the next step z103, grouping is performed based on the detected defocus amount. In step z104, the main subject is determined from all objects (groups) constituting the screen, and a focus detection point representing the group is determined. The defocus amount of the focus detection point is set as the defocus amount of the group, that is, the main subject.
[0064]
In the next step z105, the defocus amount of the main subject is compared with the defocus determination threshold value.
[0065]
First, a case where the defocus amount of the main subject is larger than the threshold value and the process proceeds to step z106 will be described.
[0066]
In step z106, the lens drive amount is communicated to the lens control circuit 206 based on the defocus amount of the main subject to drive the lens. Then, in the next step z107, after the lens is driven, multipoint focus detection is performed again, and the process returns to step z104), where the main subject is determined again and the defocus amount is obtained.
[0067]
In the second embodiment, since the defocus map is not recreated, the main subject is determined by the region division determined first. Since the defocus map is not recreated, the calculation time is greatly shortened, and the size and number of areas do not change every calculation. Further, when the area division is decided first, it is possible to decide only the rough division, not the division that strictly separates the individual focus detection points as in the first embodiment. . The division of the area is not necessarily determined based on the first distance measurement result, but may be determined after performing the focus adjustment operation several times.
[0068]
Steps z104 to z107 are repeatedly executed until it is determined in step z105 that the defocus amount is small, and the main subject is determined by the region division determined first.
[0069]
If the defocus amount of the main subject becomes smaller than the threshold value in step z105, the process proceeds to step z108. In step z108, the focus detection point is determined at the position calculated last in step z104. Thereafter, the main subject is not re-determined. In the subsequent step z109, it is determined whether the focus detection point determined in step z108, that is, the defocus amount of the main subject is within the in-focus range. If in focus, go to step z112, otherwise go to step z112 z110 Proceed to
[0070]
In step z110, the lens drive amount is calculated based on the defocus amount of the main subject determined in step z108, the lens drive amount is communicated to the lens control circuit 206, and the lens is driven. In the next step z111, the lens is driven and then determined in step z107. Focus detection point Focus detection is performed. Thereafter, the process returns to step z109 to perform in-focus determination.
[0071]
After the focus detection point (main subject) is determined in step z108, focus detection is performed only at the focus detection point, and steps z109 to z111 are repeated until focusing is achieved. As can be seen, once the main subject is determined, the main subject is not determined.
[0072]
When it is determined that the in-focus state is obtained in step z109, the process proceeds to step z112, and the “in-focus state” is set. In the next step z113, this subroutine is returned.
[0073]
In this subroutine, the case where focus detection is performed until focus is achieved (the sequence when focus is not achieved is omitted). However, in actuality, when focus detection is impossible or predetermined Since processing is performed when the lens is not in focus even if the lens is driven a number of times, the subroutine is not necessarily returned in the “in-focus state”.
[0074]
As described above, when ranging is performed at a plurality of focus detection points, the region is divided based on the result, and the main subject region is determined from the divided regions to perform focus adjustment, the focus of the determined main subject is determined. Until the detection result is within the predetermined range, the lens is driven while repeatedly determining the main subject area in the determined area division, and when the focus detection result of the main subject is within the predetermined range, focus adjustment is performed on the determined main subject. Thus, focus detection point selection that matches the will can be performed without performing hunting or erroneous selection (selecting a subject that does not match the will of the photographer). In addition, since the area division is not repeated, the amount of calculation is reduced and the calculation time is shortened.
[0075]
( First reference technology example ) In the first embodiment, the defocus detection type device has been described as an example. However, the distance measurement device that detects the distance can similarly perform region division and focus adjustment. . In this case, a distance map is created at a portion corresponding to step a103 in FIG. 1. In step a105, the distance of the main subject is compared with the distance at which the photographic lens is focused, It is determined whether the difference is within a predetermined range.
[0076]
( Second reference technology example In the second embodiment, the apparatus for detecting the defocus has been described as an example. However, the distance measuring apparatus for detecting the distance can similarly perform the region division to adjust the focus. In this case, a distance map is created at a portion corresponding to step z103 in FIG. 2, and in step z105, the distance of the main subject is compared with the distance at which the photographic lens is focused, It is determined whether the difference is within a predetermined range.
[0077]
(Correspondence between Invention and Embodiment) First Embodiment And second In the embodiment, the part of the microcomputer 203 that executes the operations of steps a102 and z102 in FIGS. 1 and 2 is the focus detection means according to claims 1-4 or the focus detection step according to claims 5 and 6, The part that executes the operations of steps a103 and z103 is the grouping means according to claims 1-4 or the grouping step of claims 5 and 6, and the part that executes the operations of steps a104 and z104 is claims 1-4. The portion for executing the operations of steps a105 and z105 in the selecting means described in claim 5 or the selecting step described in claims 5 and 6 is the same as the comparing means described in claims 1-4 or the comparing step described in claims 5 and 6. The part for executing the operations of a106 → a102 → a103 → a104 and steps a105 → a107 → a108 The control means or claim 5 control step described according correspond respectively.
[0078]
Also step z105z106z107z104 and step z105z108 → z109 The portions for executing the operations correspond to the control means according to claims 2 and 4 or the control step according to claim 6, respectively.
[0079]
The above is the correspondence between each configuration of the embodiment and each configuration of the present invention. However, the present invention is not limited to the configuration of the embodiment, and the functions shown in the claims or the embodiment It goes without saying that any configuration may be used as long as the function of the can be achieved.
[0080]
(Modification)
Although the present invention is applied to a camera such as a single-lens reflex camera or a video camera as an example, it may be a focus detection device, a distance measuring device, an automatic focus adjustment device mounted on the camera, Can be applied to an environment recognition device such as an air conditioner (for example, used as a device for recognizing a person and setting a wind direction in the direction) or a car (used as a person recognition device).
[0081]
In addition, the present invention can also be applied to an optical device including a distance measuring device and a focus detection device to which the present invention is applied, such as binoculars and a game machine.
[0082]
【The invention's effect】
As described above, according to the present invention, an object that causes hunting when the lens is focused or does not match the user's will Focus detection device, camera, or focus detection method capable of preventing focusing on the camera Can be provided.
[Brief description of the drawings]
FIG. 1 is a flowchart showing an operation during automatic selection AF of a camera according to a first embodiment of the present invention.
FIG. 2 is a flowchart showing an operation during automatic selection AF of the camera according to the first embodiment of the present invention.
FIG. 3 is a block diagram showing a schematic configuration of a camera according to each embodiment of the present invention.
FIG. 4 is a flowchart for explaining the main operation of the camera according to each embodiment of the present invention.
FIG. 5 is a diagram of a defocus amount detected by automatic selection AF and a defocus map created based on the defocus amount according to the first embodiment of the present invention.
FIG. 6 is a diagram illustrating an example of a shooting scene for explaining a conventional example.
7 is a diagram showing an example of a distance map in FIG. 6. FIG.
FIG. 8 is a diagram illustrating an example when FIG. 7 is grouped.
FIG. 9 is a distribution diagram of focus detection points and an example of a photographing scene for explaining a conventional example and the present invention.
FIG. 10 is a diagram illustrating an example of a conventional defocus map (region division).
[Explanation of symbols]
201 Area sensor
202 Sensor drive circuit
203 Microcomputer
206 Lens drive circuit
207 Switch (SW1) that is turned on by the first stroke of the release button
208 Switch (SW2) that is turned on by the second stroke of the release button
213 Photo lens
214 Switch sense circuit

Claims (6)

複数の焦点検出領域のそれぞれに対して焦点検出動作を実行する焦点検出手段と、
前記焦点検出手段による複数の焦点検出領域の焦点検出結果から画面内のデフォーカス量の分布に基づいて前記複数の焦点検出領域をグループ分けするグループ分け手段と、
前記グループ分け手段によるグループ分け結果に基づいて、複数の焦点検出領域の中から少なくとも1つの焦点検出領域を選出する選出手段と、
前記選出手段により選出された焦点検出領域のデフォーカス量と所定のデフォーカス量とを比較する比較手段と、
前記選出された焦点検出領域のデフォーカス量が所定のデフォーカス量よりも大きい場合、当該デフォーカス量に基づいてレンズを駆動させ、当該レンズ駆動に伴ってデフォーカス量が変化した後に、再度の前記複数の焦点検出領域での焦点検出、グループ分け、焦点検出領域の選出及び所定のデフォーカス量との比較を繰り返させるとともに、当該比較の際、所定のデフォーカス量よりも小さい場合、再度のグループ分け及び焦点検出領域の選出を行わせることなく当該選出された焦点検出領域が合焦するよう制御する制御手段と
を有することを特徴とする焦点検出装置。
Focus detection means for executing a focus detection operation for each of a plurality of focus detection areas;
Grouping means for grouping the plurality of focus detection areas based on the distribution of defocus amounts in the screen from the focus detection results of the plurality of focus detection areas by the focus detection means;
Selection means for selecting at least one focus detection area from a plurality of focus detection areas based on the grouping result by the grouping means;
Comparing means for comparing the defocus amount and the predetermined defocus amount of the focus detection area selected by said selecting means,
If the defocus amount of the elected focus detection area is larger than the predetermined defocus amount to drive the lens based on the defocus amount, after the defocus amount in accordance with the said lens drive is changed, again The focus detection in the plurality of focus detection areas, grouping, selection of the focus detection area and comparison with a predetermined defocus amount are repeated, and if the comparison is smaller than the predetermined defocus amount , A focus detection apparatus comprising: control means for controlling the selected focus detection area to be focused without performing grouping and selection of the focus detection area.
複数の焦点検出領域のそれぞれに対して焦点検出動作を実行する焦点検出手段と、
前記焦点検出手段による複数の焦点検出領域の焦点検出結果から画面内のデフォーカス量の分布に基づいて前記複数の焦点検出領域をグループ分けするグループ分け手段と、
前記グループ分け手段によるグループ分け結果に基づいて、複数の焦点検出領域の中から少なくとも1つの焦点検出領域を選出する選出手段と、
前記選出手段により選出された焦点検出領域のデフォーカス量と所定のデフォーカス量とを比較する比較手段と、
前記選出された焦点検出領域のデフォーカス量が所定のデフォーカス量よりも大きい場合、当該デフォーカス量に基づいてレンズを駆動させ、当該レンズ駆動に伴ってデフォーカス量が変化した後に、再度の前記複数の焦点検出領域での焦点検出、最初のグループ分け結果に基づく焦点検出領域の選出及び所定のデフォーカス量との比較を繰り返させるとともに、当該比較の際、所定のデフォーカス量よりも小さい場合、再度の焦点検出領域の選出を行わせることなく当該選出された焦点検出領域が合焦するよう制御する制御手段と
を有することを特徴とする焦点検出装置。
Focus detection means for executing a focus detection operation for each of a plurality of focus detection areas;
Grouping means for grouping the plurality of focus detection areas based on the distribution of defocus amounts in the screen from the focus detection results of the plurality of focus detection areas by the focus detection means;
Selection means for selecting at least one focus detection area from a plurality of focus detection areas based on the grouping result by the grouping means;
Comparing means for comparing the defocus amount and the predetermined defocus amount of the focus detection area selected by said selecting means,
If the defocus amount of the elected focus detection area is larger than the predetermined defocus amount to drive the lens based on the defocus amount, after the defocus amount in accordance with the said lens drive is changed, again The focus detection in the plurality of focus detection areas, the selection of the focus detection area based on the first grouping result, and the comparison with the predetermined defocus amount are repeated, and at the time of the comparison, it is smaller than the predetermined defocus amount. And a control means for controlling the selected focus detection area to be focused without causing the focus detection area to be selected again.
エリアセンサと、
前記エリアセンサから出力される信号に基づいて、複数の焦点検出領域のそれぞれに対して焦点検出動作を実行する焦点検出手段と、
前記焦点検出手段による複数の焦点検出領域の焦点検出結果から画面内のデフォーカス量の分布に基づいて前記複数の焦点検出領域をグループ分けするグループ分け手段と、
前記グループ分け手段によるグループ分け結果に基づいて、複数の焦点検出領域の中から少なくとも1つの焦点検出領域を選出する選出手段と、
前記選出手段により選出された焦点検出領域のデフォーカス量と所定のデフォーカス量とを比較する比較手段と、
前記選出された焦点検出領域のデフォーカス量が所定のデフォーカス量よりも大きい場合、当該デフォーカス量に基づいてレンズを駆動させ、当該レンズ駆動に伴ってデフォーカス量が変化した後に、再度の前記複数の焦点検出領域での焦点検出、グループ分け、焦点検出領域の選出及び所定のデフォーカス量との比較を繰り返させるとともに、当該比較の際、所定のデフォーカス量よりも小さい場合、再度のグループ分け及び焦点検出領域の選出を行わせることなく当該選出された焦点検出領域が合焦するよう制御する制御手段と
を有することを特徴とするカメラ。
An area sensor,
A focus detection unit that performs a focus detection operation on each of a plurality of focus detection areas based on a signal output from the area sensor;
Grouping means for grouping the plurality of focus detection areas based on the distribution of defocus amounts in the screen from the focus detection results of the plurality of focus detection areas by the focus detection means;
Selection means for selecting at least one focus detection area from a plurality of focus detection areas based on the grouping result by the grouping means;
Comparing means for comparing the defocus amount and the predetermined defocus amount of the focus detection area selected by said selecting means,
If the defocus amount of the elected focus detection area is larger than the predetermined defocus amount to drive the lens based on the defocus amount, after the defocus amount in accordance with the said lens drive is changed, again The focus detection in the plurality of focus detection areas, grouping, selection of the focus detection area and comparison with a predetermined defocus amount are repeated, and if the comparison is smaller than the predetermined defocus amount , A camera comprising: control means for controlling the selected focus detection area to be focused without causing grouping and selection of the focus detection area.
エリアセンサと、
前記エリアセンサから出力される信号に基づいて、複数の焦点検出領域のそれぞれに対して焦点検出動作を実行する焦点検出手段と、
前記焦点検出手段による複数の焦点検出領域の焦点検出結果から画面内のデフォーカス量の分布に基づいて前記複数の焦点検出領域をグループ分けするグループ分け手段と、
前記グループ分け手段によるグループ分け結果に基づいて、複数の焦点検出領域の中から少なくとも1つの焦点検出領域を選出する選出手段と、
前記選出手段により選出された焦点検出領域のデフォーカス量と所定のデフォーカス量とを比較する比較手段と、
前記選出された焦点検出領域のデフォーカス量が所定のデフォーカス量よりも大きい場合、当該デフォーカス量に基づいてレンズを駆動させ、当該レンズ駆動に伴ってデフォーカス量が変化した後に、再度の前記複数の焦点検出領域での焦点検出、最初のグループ分け結果に基づく焦点検出領域の選出及び所定のデフォーカス量との比較を繰り返させるとともに、当該比較の際、所定のデフォーカス量よりも小さい場合、再度の焦点検出領域の選出を行わせることなく当該選出された焦点検出領域が合焦するよう制御する制御手段と
を有することを特徴とするカメラ。
An area sensor,
A focus detection unit that performs a focus detection operation on each of a plurality of focus detection areas based on a signal output from the area sensor;
Grouping means for grouping the plurality of focus detection areas based on the distribution of defocus amounts in the screen from the focus detection results of the plurality of focus detection areas by the focus detection means;
Selection means for selecting at least one focus detection area from a plurality of focus detection areas based on the grouping result by the grouping means;
Comparing means for comparing the defocus amount and the predetermined defocus amount of the focus detection area selected by said selecting means,
If the defocus amount of the elected focus detection area is larger than the predetermined defocus amount to drive the lens based on the defocus amount, after the defocus amount in accordance with the said lens drive is changed, again The focus detection in the plurality of focus detection areas, the selection of the focus detection area based on the first grouping result, and the comparison with the predetermined defocus amount are repeated, and at the time of the comparison, the smaller than the predetermined defocus amount And a control means for controlling the selected focus detection area to be focused without causing the focus detection area to be selected again.
複数の焦点検出領域のそれぞれに対して焦点検出動作を実行する焦点検出ステップと、
前記焦点検出ステップにおける複数の焦点検出領域の焦点検出結果から前記複数の焦点検出領域をグループ分けするグループ分けステップと、
前記グループ分けステップでのグループ分け結果に基づいて、複数の焦点検出領域の中から少なくとも1つの焦点検出領域を選出する選出ステップと、
前記選出ステップにおいて選出された焦点検出領域のデフォーカス量と所定のデフォーカス量とを比較する比較ステップと、
前記選出された焦点検出領域のデフォーカス量が所定のデフォーカス量よりも大きい場合、当該デフォーカス量に基づいてレンズを駆動させ、当該レンズ駆動に伴ってデフォーカス量が変化した後に、再度の前記複数の焦点検出領域での焦点検出、グループ分け、焦点検出領域の選出及び所定のデフォーカス量との比較を繰り返させるとともに、当該比較の際、所定のデフォーカス量よりも小さい場合、再度のグループ分け及び焦点検出領域の選出を行わせることなく当該選出された焦点検出領域が合焦するよう制御する制御ステップとを有することを特徴とする焦点検出方法。
A focus detection step for performing a focus detection operation on each of the plurality of focus detection regions;
A grouping step of grouping the plurality of focus detection areas from the focus detection results of the plurality of focus detection areas in the focus detection step;
A selection step of selecting at least one focus detection region from a plurality of focus detection regions based on the grouping result in the grouping step;
A comparing step of comparing a defocus amount and a predetermined defocus amount of the elected focus detection area in the selection step,
If the defocus amount of the elected focus detection area is larger than the predetermined defocus amount to drive the lens based on the defocus amount, after the defocus amount in accordance with the said lens drive is changed, again The focus detection in the plurality of focus detection areas, grouping, selection of the focus detection area and comparison with a predetermined defocus amount are repeated, and if the comparison is smaller than the predetermined defocus amount , And a control step of controlling the selected focus detection area to be focused without causing grouping and selection of the focus detection area.
複数の焦点検出領域のそれぞれに対して焦点検出動作を実行する焦点検出ステップと、
前記焦点検出ステップにおける複数の焦点検出領域の焦点検出結果から前記複数の焦点検出領域をグループ分けするグループ分けステップと、
前記グループ分けステップでのグループ分け結果に基づいて、複数の焦点検出領域の中から少なくとも1つの焦点検出領域を選出する選出ステップと、
前記選出ステップにおいて選出された焦点検出領域のデフォーカス量と所定のデフォーカス量とを比較する比較ステップと、
前記選出された焦点検出領域のデフォーカス量が所定のデフォーカス量よりも大きい場合、当該デフォーカス量に基づいてレンズを駆動させ、当該レンズ駆動に伴ってデフォーカス量が変化した後に、再度の前記複数の焦点検出領域での焦点検出、最初のグループ分け結果に基づく焦点検出領域の選出及び所定のデフォーカス量との比較を繰り返させるとともに、当該比較の際、所定のデフォーカス量よりも小さい場合、再度の焦点検出領域の選出を行わせることなく当該選出された焦点検出領域が合焦するよう制御する制御ステップとを有することを特徴とする焦点検出方法。
A focus detection step for performing a focus detection operation on each of the plurality of focus detection regions;
A grouping step of grouping the plurality of focus detection areas from the focus detection results of the plurality of focus detection areas in the focus detection step;
A selection step of selecting at least one focus detection region from a plurality of focus detection regions based on the grouping result in the grouping step;
A comparing step of comparing a defocus amount and a predetermined defocus amount of the elected focus detection area in the selection step,
If the defocus amount of the elected focus detection area is larger than the predetermined defocus amount to drive the lens based on the defocus amount, after the defocus amount in accordance with the said lens drive is changed, again The focus detection in the plurality of focus detection areas, the selection of the focus detection area based on the first grouping result, and the comparison with the predetermined defocus amount are repeated, and at the time of the comparison, the smaller than the predetermined defocus amount And a control step for controlling the selected focus detection area to be focused without causing the focus detection area to be selected again.
JP36595997A 1997-12-24 1997-12-24 Focus detection apparatus, camera, and focus detection method Expired - Fee Related JP3630965B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP36595997A JP3630965B2 (en) 1997-12-24 1997-12-24 Focus detection apparatus, camera, and focus detection method
US09/217,552 US6088539A (en) 1997-12-24 1998-12-21 Optical apparatus with focus adjusting function and focus adjustment control circuit
EP04075225A EP1437614B1 (en) 1997-12-24 1998-12-22 Optical apparatus with focus adjusting function and focus adjustment control circuit
DE69838114T DE69838114T2 (en) 1997-12-24 1998-12-22 Optical device with focus adjustment device and focus control circuit
EP98310618A EP0926528B1 (en) 1997-12-24 1998-12-22 Optical apparatus with focus adjusting function and focus adjustment control circuit
DE69829035T DE69829035T2 (en) 1997-12-24 1998-12-22 Optical device with focus adjustment device and focus control circuit
US09/494,922 US6157782A (en) 1997-12-24 2000-02-01 Optical apparatus with focus adjusting function and focus adjustment control circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36595997A JP3630965B2 (en) 1997-12-24 1997-12-24 Focus detection apparatus, camera, and focus detection method

Publications (2)

Publication Number Publication Date
JPH11183787A JPH11183787A (en) 1999-07-09
JP3630965B2 true JP3630965B2 (en) 2005-03-23

Family

ID=18485559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36595997A Expired - Fee Related JP3630965B2 (en) 1997-12-24 1997-12-24 Focus detection apparatus, camera, and focus detection method

Country Status (1)

Country Link
JP (1) JP3630965B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8160378B2 (en) 2008-02-04 2012-04-17 Ricoh Company, Ltd. Apparatus, method and system for image processing

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002040321A (en) * 2000-07-24 2002-02-06 Olympus Optical Co Ltd Electronic camera
JP4873729B2 (en) * 2007-04-06 2012-02-08 キヤノン株式会社 Optical equipment
CN102027412B (en) 2008-05-19 2013-09-04 佳能株式会社 Image pickup system and lens apparatus
JP5100621B2 (en) * 2008-11-12 2012-12-19 キヤノン株式会社 Imaging device
JP5757099B2 (en) 2010-02-15 2015-07-29 株式会社ニコン Focus adjustment device and focus adjustment program
JP6299519B2 (en) * 2014-08-12 2018-03-28 リコーイメージング株式会社 Imaging device
JP6613065B2 (en) * 2015-07-10 2019-11-27 キヤノン株式会社 FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8160378B2 (en) 2008-02-04 2012-04-17 Ricoh Company, Ltd. Apparatus, method and system for image processing

Also Published As

Publication number Publication date
JPH11183787A (en) 1999-07-09

Similar Documents

Publication Publication Date Title
JP4018218B2 (en) Optical apparatus and distance measuring point selection method
JPH10161013A (en) Environment recognition device and camera provided therewith
EP0926528B1 (en) Optical apparatus with focus adjusting function and focus adjustment control circuit
JP2605282B2 (en) Automatic focusing device
US6463214B1 (en) Multi-point autofocus system
JPH1125263A (en) Object feature point detector, focus adjusting device, exposure controller and camera
JPH10142490A (en) Environment recognition device and camera
JP3630965B2 (en) Focus detection apparatus, camera, and focus detection method
JPH1138313A (en) Optical device and camera
US6636699B2 (en) Focus detection device and distance measurement device
EP0895117B1 (en) Camera with automatic focus and TTL flash control
JP3806489B2 (en) Ranging device
JP2958997B2 (en) Focus detection photometer
JP4011738B2 (en) Optical device
US5870637A (en) Auxiliary light emitting device and focusing condition detecting device
US5623706A (en) Camera having auto focusing and auto exposure functions
JP4512173B2 (en) Ranging device
JP4539276B2 (en) Camera photometric device and camera
JP3955201B2 (en) Auto focus camera
JP3963535B2 (en) Multi-point distance measuring device
JPS6155620A (en) Automatic focusing device
JP3150961B2 (en) Camera automatic exposure control device
JP2000009430A (en) Optical device
JP5417032B2 (en) Camera photometric device
US6470149B1 (en) Distance measuring apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040216

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20040216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040406

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040629

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040819

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20041013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041215

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081224

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081224

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091224

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091224

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101224

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111224

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121224

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees