JP4011738B2 - Optical device - Google Patents

Optical device Download PDF

Info

Publication number
JP4011738B2
JP4011738B2 JP15998198A JP15998198A JP4011738B2 JP 4011738 B2 JP4011738 B2 JP 4011738B2 JP 15998198 A JP15998198 A JP 15998198A JP 15998198 A JP15998198 A JP 15998198A JP 4011738 B2 JP4011738 B2 JP 4011738B2
Authority
JP
Japan
Prior art keywords
area
measurement
camera
focusing
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15998198A
Other languages
Japanese (ja)
Other versions
JPH11337814A (en
Inventor
仁 大野田
輝岳 門原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP15998198A priority Critical patent/JP4011738B2/en
Priority to EP09152460.3A priority patent/EP2053438B1/en
Priority to US09/317,944 priority patent/US6175692B1/en
Priority to DE69942599T priority patent/DE69942599D1/en
Priority to EP99110135A priority patent/EP0961148B1/en
Publication of JPH11337814A publication Critical patent/JPH11337814A/en
Application granted granted Critical
Publication of JP4011738B2 publication Critical patent/JP4011738B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、オートフォーカスカメラや監視カメラなどの自動焦点調節機能を有した光学装置に関するものである。
【0002】
【従来の技術】
カメラ等に代表される焦点検出機能は中央1点の検出領域から3点,5点へと進歩し、撮影領域に対してその検出範囲が確実に拡がっている。これには検出光学系の進歩のみならず、それに見合ったセンサ、更に制御を司るマイクロコンピュータなどの進歩が不可欠となっている。
【0003】
検出領域の多点化は、通常の撮影においては、被写体ではなく背景にピントが合ってしまう状態、いわゆる「中抜け」の防止に大いに効果がある。更に動いている被写体を撮影する場合は、被写体から焦点検出領域を外してしまうのを少なくできる。
【0004】
図14(a)は、撮影画面Aに対し、Bの様に狭い一次元的な1点の範囲を焦点検出領域とした図である。一方、図14(b)は焦点検出領域の拡大を行った例で、撮影画面Aに対して検出領域Bが3つの領域になっている。これは図14(a)での検出領域に対して直交方向に3箇所検出領域を増したものである。
【0005】
焦点検出領域が中央1点から3点へ増加したことにより、被写体に対して常に中央でピントを合わせる必要がなくなり、撮影上の自由度が向上している。
【0006】
これをもっと発展させると、図14(c)の様に、撮影画面Aに対して検出領域Bもある2次元の領域を持った(実際には多数の焦点検出領域がある程度密に集まった)、エリアAFへとなる。
【0007】
【発明が解決しようとする課題】
カメラの焦点検出領域が多数集まったエリアAFは、従来のような中抜け、外れが無く、撮影者が本来の撮影に集中できるメリットがある反面、エリア全部の焦点検出点に対し焦点検出演算を行っていては時間的にかかり過ぎ、いわゆるシャッタチャンスを逃してしまう事が十分に考えられる。
【0008】
特に被写体が動いている場合には影響が大きく、いかにして演算時間を短くするかが大きな課題となる。
【0009】
(発明の目的)
本発明の目的は、焦点合わせに用いる対象領域を必要十分な領域に効率よく限定し、焦点合わせに使用する情報を得る為の時間の短縮を図ることのできる光学装置を提供しようとするものである。
【0010】
【課題を解決するための手段】
上記目的を達成するために、本発明は、観察画面内の複数の測定領域で測距又はデフォーカス量の測定を行う測定手段前記測定手段により得られる情報に基づいて焦点合わせを行う焦点調節手段とを有し、前記測定手段が、移動中の対象物に対して焦点を合わせるためのモードの場合には、前記観察画面内の複数の測定領域から選択した、前記移動中の対象物に対して焦点を合わせるためのモードでない場合に比べて前記測定領域の少ない、前回の焦点合わせに用いられた合焦領域を含む測定領域群を対象として測距又はデフォーカス量の測定を行う光学装置とするものである。
【0012】
【発明の実施の形態】
以下、本発明を図示の実施の形態に基づいて詳細に説明する。
【0013】
二次元的な領域での焦点検出が可能な自動焦点調節カメラを例に、動体撮影での焦点検出領域の限定、選択方法について説明を行う。
【0014】
図1は本発明の実施の一形態に係るカメラの基本構成要素のブロック図であり、同図において、51は被写界中の任意の場所の距離を測定する距離分布測定回路、52は撮影画面内から主被写体が存在する領域を検出する主被写体領域検出回路、53は前記主被写体領域検出回路52で自動に決定された前回の主被写体領域に従って今回の焦点検出領域範囲を設定する選択領域設定回路、54は決定された主被写体領域の情報に従って撮影光学系に対する焦点調節距離決定回路、55は撮影光学系、56はレンズを駆動して焦点を調節するレンズ駆動装置である。57の制御装置であり、実際にはマイクロコンピュータのCPU及びRAMとROM等で具現化される。この中で、距離分布測定回路51はマイクロコンピュータと測定用光学系で具現化されることから、点線を跨いだ表現となっている。
【0015】
図2〜図5は、上記図1のカメラの具体的な構成例を示す図である。
【0016】
図2は、被写界の距離を検出する為のカメラの光学構成要素の配置図であり、図中、1は撮影レンズ、8はフィールドレンズ、9は二次結像レンズ、10はエリアセンサである。
【0017】
前記エリアセンサ10の二つの撮影画面10a,10b上には各々撮影レンズ1のお互いに異なる瞳位置からの光束が導かれ、フィールドレンズ8、二次結像レンズ9により定まる結像倍率で再結像される。このエリアセンサ10は撮影レンズ1に対して撮影フィルム面と光学的に等価な位置にあり、撮影画面10a,10bは各々撮影画面の一部または撮影画面に等しい視野を有している。
【0018】
図3は、図2に示した検出光学系をカメラに適した場合のレイアウトを示したもので、図中、6はクイックリターンミラー、18はペンタプリズム、19は分割プリズム、20は反射ミラーであり、他は図3と同様である。又図4は、図3のレイアウトをカメラ上部方向より見た図である。
【0019】
以上の様な構成により、所定の視差を持った撮影画像10a,10bが得られる。
【0020】
尚、前述の構成を有するカメラについては、特願平5−278433等で詳細に開示されている。
【0021】
図5は、上記図2の如き各部品を備えたカメラの構成を示すブロック図であり、先ずその構成について説明する。
【0022】
図5において、PRSは図1の制御装置57に相当するカメラの制御装置で、例えば、内部にCPU(中央処理装置),ROM,RAM,A/D変換機能を有する1チップのマイクロコンピュータである。このカメラの制御装置(以下、マイコンと記す)PRSはROMに格納されたカメラのシーケンス・プログラムに従って、自動露出制御機能,自動焦点調節機能,フィルムの巻上げ・巻戻し等のカメラの一連の動作を行っている。その為にマイコンPRSは、通信用信号SO,SI,SCLK、通信選択信号CLCM,CDDR,CICCを用いて、カメラ本体内の周辺回路及びレンズ内制御装置と通信を行って、各々の回路やレンズを制御する。
【0023】
SOはマイコンPRSから出力されるデータ信号、SIはマイコンPRSに入力されるデータ信号、SCLKは信号SO,SIの同期クロックである。
【0024】
LCMはレンズ通信バッファ回路であり、カメラが動作中のときにはレンズ用電源端子VLに電力を供給するとともに、マイコンPRSからの選択信号CLCMが高電位レベル(以下、‘H’と記し、低電位レベルは‘L’と記す)のときには、カメラとレンズ間の通信バッファなる。
【0025】
マイコンPRSがCLCMを‘H’にして、SCLKに同期して所定のデータをSOから送出すると、レンズ通信バッファ回路LCMはカメラ・レンズ間通信接点を介して、SCLK,SOの各々のバッファ信号LCK,DCLをレンズへ出力する。それと同時にレンズからの信号DLCのバッファ信号をSIに出力し、マイコンPRSは同期してSIからレンズのデータを入力する。
【0026】
DDRは各種のスイッチSWSの検知及び表示回路であり、信号CDDRが‘H’のとき選択され、SO,SI,SCLKを用いてマイコンPRSから制御される。即ち、マイコンPRSから送られてくるデータに基づいてカメラの表示部材DSPの表示を切り換えたり、カメラの各種操作部材のオン・オフ状態を通信によってマイコンPRSに報知する。OLCはカメラ上部に位置する外部液晶表示装置であり、ILCはファインダ内部液晶表示装置である。
【0027】
SW1,SW2は不図示のレリーズボタンに連動したスイッチで、レリーズボタンの第1階段の押下によりスイッチSW1がオンし、引き続いて第2段階の押下でスイッチSW2がオンする。マイコンPRSはスイッチSW1のオンで測光,自動焦点調節を行い、スイッチSW2のオンをトリガとして露出制御とその後のフィルムの巻上げを行う。
【0028】
尚、スイッチSW2はマイコンPRSの「割り込み入力端子」に接続され、スイッチSW1のオン時のプログラム実行中でも、該スイッチSW2のオンによって割り込みがかかり、直ちに所定の割り込みプログラムへ制御を移すことができる。
【0029】
MTR1はフィルム給送用の、MTR2はミラーアップ・ダウン及びシャッタばねチャージ用の、それぞれモータであり、各々の駆動回路MDR1,MDR2により正転、逆転の制御が行われる。マイコンPRSから駆動回路MDR1,MDR2に入力されている信号M1F,M1R、M2F,M2Rはモータ制御用の信号である。
【0030】
MG1,MG2は各々シャッタ先幕・後幕走行開始用マグネットで、信号SMG1,SMG2、増幅トランジスタTR1,TR2で通電され、マイコンPRSによりシャッタ制御が行われる。
【0031】
尚、モータ駆動回路MDR1,MDR2、シャッタ制御は、本発明と直接関りがないので、詳しい説明は省略する。
【0032】
レンズ内制御回路LPRSにLCKと同期して入力される信号DCLは、カメラからレンズLNSに対する命令のデータであり、命令に対するレンズの動作は予め決められている。このレンズ内制御回路LPRSは、所定の手続きに従ってその命令を解析し、焦点調節や絞り制御の動作や、出力DLCからレンズの各部動作状況(焦点調節光学系の駆動状況や、絞りの駆動状態等)や、各種パラメータ(開放Fナンバー,焦点距離,デフォーカス量対焦点調節光学系の移動量の係数,各種ピント補正量等、距離情報)の出力を行う。
【0033】
この実施の形態では、ズームレンズを例を示しており、カメラから焦点調節の命令が送られた場合には、同時に送られてくる駆動量・方向に従って焦点調節用モータLMTRを信号LMF,LMRによって駆動して、光学系を光軸方向に移動させて焦点調節を行う。光学系の移動量は光学系に連動して回動するパルス板のパターンをフォトカプラにて検出し、移動量に応じた数のパルスを出力するエンコーダ回路ENCFのパルス信号SENCFでモニタし、レンズ内制御回路LPRS内のカウンタで計数しており、所定の移動が完了した時点でLPRS自身が信号LMF、LMRを‘L’にしてモータLMTRを制動する。
【0034】
このため、一旦カメラ焦点調節の命令が送られた後は、マイコンPRSはレンズの駆動が終了するまで、レンズ駆動に関して全く関与する必要がない。また、カメラから要求があった場合には、上記カウンタの内容をカメラに送出することも可能な構成になっている。
【0035】
カメラから絞り制御の命令が送られた場合には、同時に送られてくる絞り段数に従って、絞り駆動用としては公知のステッピング・モータDMTRを駆動する。尚、ステッピング・モータはオープン制御が可能なため、動作をモニタするためのエンコーダを必要としない。
【0036】
ENCZはズーム光学系に付随したエンコーダ回路であり、レンズ内制御回路LPRSはこのエンコーダ回路ENCZからの信号SENCZを入力してズーム位置を検出する。レンズ内制御回路LPRS内には各ズーム位置におけるレンズ・パラメータが格納されており、カメラ側のマイコンPRSから要求が合った場合には、現在のズーム位置に対応したパラメータをカメラに送出する。
【0037】
ICCは、CCD等から構成される焦点検出と露出制御用測光エリアセンサ及びその駆動回路であり、信号CICCが‘H’のとき選択されて、SO,SI,SCLKを用いてマイコンPRSから制御される。
【0038】
φV,φH,φRはエリアセンサ出力の読み出し、リセット信号であり、マイコンPRSから信号に基づいてICC内の駆動回路によりセンサ制御信号が生成される。センサ出力はセンサ部からの読み出し後増幅され、出力信号IMAGEとしてマイコンPRSのアナログ入力端子に入力され、マイコンPRSは同信号をA/D変換後、そのデジタル値をRAM上の所定アドレスへ順次格納して行く。これらデジタル変換された信号を用いて被写界の距離分布測定と焦点調節あるいは測光を行う。
【0039】
尚、上記図5ではカメラとレンズが別体(レンズ交換が可能)となるもので表現されているが、本発明はカメラ・レンズ一体なるものでも何等問題なく、これ等に限定されるものではない。
【0040】
次に、上記マイコンPRSによる一連の動作について説明する。
【0041】
図6は全体の処理の流れを示すフローチャートであり、以下これにしたがって説明する。
【0042】
撮影者が不図示のシャッタボタンなどを押すことにより、ステップ(100)を経由して撮影処理が開始される。
【0043】
ステップ(101)において、まず現在の自動焦点調節モードとして、動体撮影モードに設定されているかを判定する。動体撮影モードが設定されていなければそのままステップ(102)に移り、今回の焦点検出演算対象領域を焦点検出領域の全領域に設定する。一方、動体撮影モードが設定されているならばステップ(103)へ移り、今回の焦点検出動作が動体撮影モードでの最初であるかの判定を行う。これは、最初であるならば、どこに主被写体が存在するかが未だ明確に検知されていないので、まずは焦点検出領域全域での検出が必要になるためである。従って、該ステップ(103)にて今回の焦点検出動作が最初であると判定したならば、非動体撮影モードと同じようにステップ(102)へ進み、今回の焦点検出演算対象領域を焦点検出領域の全領域に設定する。
【0044】
また、今回の焦点検出動作が最初でないならば、ステップ(103)からステップ(104)へ進み、検出対象とする領域を設定する選択領域設定サブルーチンを呼び出す。この選択領域設定サブルーチンにおける概要について、図7を用いて説明する。なお、この選択領域設定は、マイコンPRS内の図1に示す選択領域設定回路53に相当する部分が行うことになる。
【0045】
図7(a)において、Aは、縦5分割,横7分割で構成された全35点の焦点検出領域全域を表わしている。又Bは、前回の焦点検出動作にて主被写体領域であると決定された領域である。つまり、前回は領域Bの焦点検出結果に基づいて焦点調節動作が行われた事になる。
【0046】
図7(b)は、今回の焦点検出演算対象領域の設定状態を示したもので、縦方向に領域C、横方向に領域Dが設定される。これは、前回の主被写体領域である図7(a)における領域Bを中心として十字とみなせる領域を選択したもので、領域数としては「11」、つまり、全領域の1/3以下の数に絞り込んでいる事になる。これは、同一の被写体に対して撮影者がフレーミングを追従させているので、次の主被写体領域として考慮すべき領域は前回の主被写体領域を中心とした十字領域で必要十分との考えからである。
【0047】
例えば、今回の主被写体領域が図7(c)に示した領域Eとなった場合は、同様に次回の焦点検出演算対象領域の設定は、図7(d)に示した領域F,Gとなる。
【0048】
以上がステップ(104)にて行われる、検出対象とする領域を設定する選択領域設定サブルーチンの内容である。
【0049】
続くステップ(105)においては、上記のように設定された焦点検出領域に対して、被写界の距離分布を測定するサブルーチンを呼び出す。この距離分布測定について、図8のフローチャートにしたがって説明する。なお、この距離分布の測定は、マイコンPRS内の図1に示した距離分布測定回路51に相当する部分が行うことになる。
【0050】
ステップ(201)においては、センサ画像の取り込みを行う。センサ画像の取り込みは次のように実施される。
【0051】
まず、センサのリセットを行う。具体的には、制御信号φV,φH,φRをマイコンPRSにて同時に一定時間“H”にすることで、ICC内部でリセット動作が行われる。次にマイコンPRSから蓄積開始命令を送り蓄積を開始し、後に蓄積終了を検知する。そして、制御信号φV,φHを駆動してセンサ出力IMAGEを順次読み出し、マイコンPRSにてA/D変換してRAMに格納し、ステップ(201)のセンサの出力信号の取り込みが完了する。
【0052】
二つのセンサの出力信号データは、RAM上の所定領域IMG1,IMG2に格納される。
【0053】
次にステップ(202)以降では、「m×n」ブロック(m,nは1以上の正数)で構成される距離分布情報(距離マップ)の作成を行う。
【0054】
ステップ(202)においては、ブロックの座標を指示する変数х,уの初期化を行い、次のステップ(203)において、ブロック(х,у)の距離演算に必要な信号をRAM上の画像データIMG1の中より抽出して、RAM上の所定アドレスAにコピーする。続くステップ(204)においては、ブロック(х,у)の距離演算に必要なもう一方の信号を画像データIMG2の中より抽出して、RAM上の所定アドレスBにコピーする。
【0055】
次のステップ(205)においては、アドレスAとアドレスBに記憶された輝度分布信号に対して公知の相関演算COR(A,B)を実施し、二つの像信号のずれ量δを算出する。続くステップ(206)においては、像ずれ量δから距離値の算出を公知の関数f(δ)により実施し、RAM上の距離分布記録用に確保された所定のアドレスD(х,у)に距離値を格納する。そして、ステップ(207)において、хの値を一つ増加して、処理対象を隣接ブロックに移す。
【0056】
次のステップ(208)においては、xと距離マップのx方向の解像度mとの比較を行い、ここで「x<m」が真と判定した場合はステップ(203)へ戻り、x方向の隣のブロックに対して前述と同様に距離値の演算と格納を行う。また、「x<m」が偽と判定した場合はステップ(209)へ移り、xを初期化し、yを1増加する。
【0057】
続くステップ(210)においては、yの値を評価し、「y<n」が真と判定したときは再びステップ(203)へ戻り、次のブロック列に対す演算を開始する。また、「y<n」が偽と判定したときは、すべてのブロックに対する距離算出を完了し、この距離分布作成サブルーチン(図6のステップ(101)での動作)を終了する。
【0058】
なお、検出対象領域が十字領域に設定されている場合は、上記x,yの初期値及び解像度m,nがそれぞれ位置毎に変化する事となる。これらは前回の主被写体領域の場所に関する関数として、あるいは数値テーブルとして記憶し個々に参照する事となる。
【0059】
次に、図6のステップ(106)において、主被写体領域の検出サブルーチンを呼び出す。ここでも、まず検出対象領域が全域の場合についての主被写体領域検出サブルーチンの内容について、図9のフローチャートにしたがって説明する。なお、この主被写体領域検出は、マイコンPRS内の図1に示す主被写体領域検出回路52に相当する部分が行うことになる。
【0060】
再び図6に戻って、ステップ(106)においては、主被写体領域の検出サブルーチンを呼び出す。この主被写体領域検出サブルーチンの内容を、図9のフローチャートにしたがって説明する。なお、この主被写体領域の検出は、マイコンPRS内の図1の主被写体領域検出回路52に相当する部分が行うことになる。
【0061】
図9のステップ(301)において、被写界を構成する各物体(グループ)毎に番号付けを行う。例えば図10の様に、画面の左上のブロックから図中の矢印のようにラスタ・スキャンしながら分割処理を行う場合、注目ブロックG(x,y)の上のブロックG(x,y−1)と、左ブロックG(x−1,y)との間で、同じグループかどうかの判定を行えば、結果的にすべての隣接ブロック間で同一ブロックかどうかの判定を行うことができる。このとき、画面の上辺(y=0)と左辺(x=0)のブロックは、それぞれ上のブロックと左のブロックが存在しないので、それらに対する処理は行わない。また、判定の結果はRAM上のメモリG(0,0)〜G(m−1,n−1)に記録する。
【0062】
まず、(x,y)=(0,0)のブロックはグループ番号「g=1」として登録して、領域が異なるグループが検出されればgの数を一つ増やしてそのブロックのグループ番号とする。この処理により、例えば図11(a)のような撮影シーンは、図11(b)のように各グループ毎に番号が与えられる。こうした、番号付けの処理自体は「ラベリング法」と呼ばれる公知技術であるので、領域分け全体のフローチャートは省略する。
【0063】
また、各ブロック間で同一ブロックかどうかの判定方法に関しては、本出願人から開示されている特願平8−325327号に詳述されているので、ここでは省略する。
【0064】
次に、ステップ(302)において、上記ステップ(301)にて検出された被写体の数を変数Gnum に設定する。ステップ(303)以降においては、撮影空間を構成する各グループの特性を評価して、この特性からすべてのグループの中から主被写体を表わすグループを決定する。
【0065】
ステップ(303)においては、演算対象のグループを表わす変数Gcur に1を設定する。次のステップ(304)においては、現在の自動焦点調節モードとして、動体撮影モードに設定されているかを判定し、動体撮影モードが設定されているならばステップ(305)へ進み、被写体像面速度の変化量と変化率といった動体追従での評価に必要な特性を演算する。これら被写体像面速度の変化量と変化率に関しては、特願昭62−32823号又は特願平1−27206号にて公開されているので詳細な説明は省略する。そして、ステップ(306)へ進む。
【0066】
また、動体撮影モードが設定されていなければそのままステップ(306)へ移り、ここではグループ番号Gcur の被写体領域の主被写体度S(Gcur )を演算する。この主被写体度は平均的な距離や、領域の幅、高さ、画面上の位置などの特性をそれぞれ演算して、それらを総合評価して主被写体と考えられる領域を判定する。例えば、主被写体度評価関数S(Gcur )としては、以下の式が考えられる。
【0067】

Figure 0004011738
上記式において、W1 ,W2 ,W3 は重み付けの定数、画面中心からの距離は画面中心と領域の重心位置との距離であり、また、平均距離は領域内の全ブロックの平均距離を表わしている。この主被写体度をすべての領域に対して演算して、この主被写体度が最も大きい被写体を主要被写体として判定する。
【0068】
一方、動体撮影の場合には、上記関数に先述の被写体像面速度の変化量と変化率をも考慮した評価関数を用いることとなる。
【0069】
次のステップ(307)においては、Gcur の値を一つ増やし、演算対象を次のグループに移す。続くステップ(308)においては、Gcur とGnum の値を比較し、全てのグループに対して演算が終了したかどうかチェックする。この結果、「Gcur ≦Gnum 」であれば、全てのグループに対する演算が終了していないのでステップ(304)に戻り、同様の動作を行う。
【0070】
一方、「Gcur >Gnum 」であればステップ(309)へ移り、ここでは演算した全ての主被写体度S(1)〜S(Gnum )の中で最も大きい値となるグループ番号を求める関数MAXにより、最も主被写体度が高いグループの番号を変数Gmainに代入する。Gmainの表わす番号と一致する領域が主被写体領域を表わす。そして、次のステップ(310)において、主被写体領域検出のサブルーチン(図6のステップ (106)の動作)を終了する。
【0071】
続く図6のステップ(107)においては、焦点調節すべき距離を決定するサブルーチンを呼び出す。ここでは、現在の主被写体領域から焦点調節すべき距離を決定するサブルーチンを実行する。これについて、図12のフローチャートにしたがって説明する。なお、この焦点調節距離の検出は、マイコンPRS内の図1に示す焦点調節距離検出回路54に相当する部分が行うことになる。
【0072】
ステップ(401)においては、現在主被写体領域と設定されているグループ番号に従って、被写界内での対象領域を設定する。まず最初は、先の主被写体領域検出サブルーチンの結果に従った領域設定が行われる事になる。次のステップ(402)においては、現在の自動焦点調節モードが動体撮影モードに設定されているかを判定する。動体撮影モードが設定されていなければステップ(403)へ進み、先に設定した領域内での情報から、焦点調節のための距離情報を算出する。ここでは、同一被写体領域内では至近優先とするアルゴリズムを採用したため、領域内の最至近距離を求めている。
【0073】
一方、動体撮影モードが設定されていればステップ(404)へ進み、動体撮影モードに必要な動体追従演算を行う。これは、主被写体領域に対しての焦点調節量にレリーズタイムラグ等の撮影動作による遅れ分を補正する駆動量を付加した調節量を求めるものである。これも特願昭62−32823号又は特願平1−27206号にて公開されているので詳細な説明は省略する。
【0074】
次のステップ(405)においては、上記最至近距離あるいは動体追従調節距離を最終的な焦点調節距離として設定し、焦点調節距離決定サブルーチンを終了する。
【0075】
そして、図6のステップ(108)において、マイコンPRSから図1のレンズ駆動装置56を具備したレンズLNSに対して焦点調節の命令を送り、これによりレンズ内制御回路LPRSがモータLMTRを制御して現時点での焦点調節(図6のステップ(107)の動作)を終了する。
【0076】
以後は、上記を繰り返して静止あるいは動体の被写体に対しての焦点調節動作が行われる事となる。
【0077】
上記の例においては、図7で説明した様に、前回の主被写体領域を中心として十字とみなせる領域を今回の選択対象領域に設定した。この設定領域に対してはいくつか他の形状が考えられる。これらを図13を用いて説明する。
【0078】
図13(a)は、通常のカメラを横位置にした場合に、より領域を限定して設定する場合、つまり前回の追従動作での合焦領域(前回の焦点検出動作にて主被写体領域と決定された黒塗りの領域B)を中心とした予め決められた一方向の領域(横位置での撮影と言う事で横方向のみに限定した、灰色の領域H)の一例である。図中、図3と同様に、Aは、縦5分割,横7分割で構成された全35点の焦点検出領域全域を表わしている。流し撮りなどの時にはこれで十分となる。
【0079】
図13(b)は縦位置撮影での図13(a)と同様な考えによる領域設定である。また、図13(c)は、十字の領域ながら、対象領域をやや少な目に、小さな十字の領域としたものである。被写体を十分に追えるならばこれでも十分と考えられる。逆に図13(d)は、十字の領域に対し中心部分をより充実させた領域設定にしている。つまり、図7(b)に対し、更に前回の焦点検出動作にて主被写体領域と決定された黒塗りの領域に隣接する全ての領域を加えた設定している。追従するのがやや困難な被写体に対しては有効なものとなる。
【0080】
他には、図13(e),(f)といった様に、例えば領域を1つ置きに減らしつつも全体として対象領域範囲が十分取れるような領域設定などでも有効である。
【0081】
以上の実施の各形態によれば、動体被写体に対して焦点を合わせ続ける動体追従動作を行う際、焦点検出対象領域を複数の被写体領域から前回の追従動作での合焦領域を中心とした十字とみなせる領域等に限定し、これらの領域に対してのみ焦点検出演算を行い、被写体追従動作を行う。これにより、被写体追従に必要な演算等が十分削減可能となり、焦点検出領域の拡大の有効性を引き出す事が可能になる。
【0082】
また、単純な十字のみならず、撮影者、被写体あるいは撮影条件等により十字の形状を基本にした様々な領域設定も有効となる。
【0083】
(変形例)
上記実施の形態では、光学装置として一眼レフカメラに適用した例を述べているが、これに限定されるものではなく、多数の測距領域を有するレンズシャッタカメラ等や、その他、測距又は焦点検出領域を有し、これら領域にて得られる情報によって焦点合わせを行う機能を有した光学装置にも適用可能である。
【0084】
【発明の効果】
以上説明したように、本発明によれば、焦点合わせに用いる対象領域を必要十分な領域に効率よく限定し、焦点合わせに使用する情報を得る為の時間の短縮を図ることができる光学装置を提供できるものである。
【図面の簡単な説明】
【図1】本発明の実施の第1の形態に係るカメラの基本構成を示すブロック図である。
【図2】本発明の実施の第1の形態に係るカメラの光学系の配置図である。
【図3】本発明の実施の第1の形態に係るカメラの光学系の配置を示す斜視図である。
【図4】図3の光学系を上面より見た図である。
【図5】本発明の実施の第1の形態に係るカメラの内部構成を示すブロック図である。
【図6】本発明の実施の第1の形態に係るカメラの一連の動作を示すフローチャートである。
【図7】本発明の実施の第1の形態に係る焦点検出対象領域について説明する図である。
【図8】本発明の実施の第1の形態に係る距離分布測定動作を示すフローチャートである。
【図9】本発明の実施の第1の形態に係る主被写体領域検出動作を示すフローチャートである。
【図10】本発明の実施の第1の形態に係る領域分割方法についての説明図である。
【図11】本発明の実施の第1の形態においてラベリングの結果例である。
【図12】本発明の実施の第1の形態に係る焦点調節距離決定動作を示すフローチャートである。
【図13】本発明の実施の第2の形態に係る焦点検出対象領域について説明する図である。
【図14】従来の焦点検出対象領域について説明する図である。
【符号の説明】
51 距離分布測定回路
52 主被写体領域検出回路
53 選択領域設定回路
54 焦点検出距離決定回路
56 レンズ駆動回路
57 制御回路
PRS マイコン
LPRS レンズ内制御回路
LNS レンズ
ICC 焦点検出及び測光用センサ及び駆動回路[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an optical apparatus having an automatic focus adjustment function such as an autofocus camera or a surveillance camera.
[0002]
[Prior art]
The focus detection function typified by a camera or the like has progressed from a detection point at the center to three points and five points, and the detection range is surely expanded with respect to the photographing region. For this purpose, not only the progress of the detection optical system but also the progress of a sensor corresponding to the detection optical system and a microcomputer for controlling the same are indispensable.
[0003]
The increase in the number of detection areas is greatly effective in preventing a so-called “slow-out” state where the background is not the subject but the background in normal shooting. Further, when shooting a moving subject, the focus detection area can be reduced from being removed from the subject.
[0004]
FIG. 14A is a diagram in which a narrow one-dimensional range of one point, such as B, is set as a focus detection area on the shooting screen A. FIG. On the other hand, FIG. 14B is an example in which the focus detection area is enlarged, and the detection area B is three areas with respect to the shooting screen A. This is obtained by adding three detection areas in a direction orthogonal to the detection areas in FIG.
[0005]
Since the focus detection area is increased from one point at the center to three points, it is not necessary to always focus on the subject at the center, and the degree of freedom in shooting is improved.
[0006]
When this is further developed, as shown in FIG. 14 (c), the imaging screen A has a two-dimensional area having a detection area B (in fact, a large number of focus detection areas are gathered to some extent). To the area AF.
[0007]
[Problems to be solved by the invention]
The area AF where many focus detection areas of the camera are gathered has the merit that the photographer can concentrate on the original shooting without the hollow and out of the conventional area, but the focus detection calculation is performed on the focus detection points of the entire area. It is considered that it takes too much time to go and miss a so-called photo opportunity.
[0008]
In particular, when the subject is moving, the influence is large, and how to shorten the calculation time is a big problem.
[0009]
(Object of invention)
An object of the present invention is to provide an optical apparatus that can efficiently limit the target area used for focusing to a necessary and sufficient area and reduce the time for obtaining information used for focusing. is there.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides: In multiple measurement areas in the observation screen Ranging or defocus amount Measure Measuring means When , By the measuring means Based on the information obtained Focus Focus adjustment means And when the measuring means is in a mode for focusing on the moving object, the moving object is selected from a plurality of measurement areas in the observation screen. The distance measurement or defocus amount measurement is performed on a measurement area group including the focus area used for the previous focus adjustment, which has a smaller measurement area than the case where the focus adjustment mode is not used. An optical device is provided.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail based on illustrated embodiments.
[0013]
A focus detection area limitation and selection method in moving body imaging will be described by taking an automatic focus adjustment camera capable of focus detection in a two-dimensional area as an example.
[0014]
FIG. 1 is a block diagram of basic components of a camera according to an embodiment of the present invention. In FIG. 1, 51 is a distance distribution measuring circuit for measuring the distance of an arbitrary place in the object field, and 52 is a photographing. A main subject area detection circuit for detecting an area where the main subject exists from within the screen, 53 is a selection area for setting the current focus detection area range according to the previous main subject area automatically determined by the main subject area detection circuit 52 A setting circuit 54 is a focus adjustment distance determination circuit for the photographing optical system in accordance with the determined main subject area information, 55 is a photographing optical system, and 56 is a lens driving device that drives the lens to adjust the focus. The control device 57 is actually embodied by a CPU, RAM, ROM, and the like of a microcomputer. Among these, the distance distribution measuring circuit 51 is embodied by a microcomputer and a measuring optical system, and thus is expressed across a dotted line.
[0015]
2 to 5 are diagrams showing specific configuration examples of the camera shown in FIG.
[0016]
FIG. 2 is an arrangement diagram of optical components of the camera for detecting the distance of the object field. In the figure, 1 is a photographing lens, 8 is a field lens, 9 is a secondary imaging lens, and 10 is an area sensor. It is.
[0017]
On the two photographing screens 10a and 10b of the area sensor 10, light beams from different pupil positions of the photographing lens 1 are guided and recombined at an imaging magnification determined by the field lens 8 and the secondary imaging lens 9, respectively. Imaged. The area sensor 10 is optically equivalent to the photographing film surface with respect to the photographing lens 1, and the photographing screens 10a and 10b each have a part of the photographing screen or a field of view equal to the photographing screen.
[0018]
FIG. 3 shows a layout when the detection optical system shown in FIG. 2 is suitable for a camera. In the figure, 6 is a quick return mirror, 18 is a pentaprism, 19 is a splitting prism, and 20 is a reflecting mirror. Others are the same as in FIG. FIG. 4 is a view of the layout of FIG. 3 as viewed from above the camera.
[0019]
With the above configuration, the captured images 10a and 10b having a predetermined parallax are obtained.
[0020]
The camera having the above-described configuration is disclosed in detail in Japanese Patent Application No. 5-278433.
[0021]
FIG. 5 is a block diagram showing a configuration of a camera provided with each component as shown in FIG. 2. First, the configuration will be described.
[0022]
In FIG. 5, PRS is a camera control device corresponding to the control device 57 of FIG. 1, and is, for example, a one-chip microcomputer having a CPU (central processing unit), ROM, RAM, and A / D conversion function. . This camera control device (hereinafter referred to as microcomputer) PRS performs a series of camera operations such as automatic exposure control function, automatic focus adjustment function, film winding and rewinding according to the camera sequence program stored in ROM. Is going. For this purpose, the microcomputer PRS uses communication signals SO, SI, SCLK, and a communication selection signal. CLCM , CDDR, and CICC are used to communicate with peripheral circuits in the camera body and the in-lens control device to control each circuit and lens.
[0023]
SO is a data signal output from the microcomputer PRS, SI is a data signal input to the microcomputer PRS, and SCLK is a synchronous clock of the signals SO and SI.
[0024]
An LCM is a lens communication buffer circuit that supplies power to the lens power supply terminal VL when the camera is in operation, and a selection signal CLCM from the microcomputer PRS is at a high potential level (hereinafter referred to as “H”, a low potential level). Is denoted as “L”), the communication buffer between the camera and the lens When Become.
[0025]
When the microcomputer PRS sets CLCM to “H” and sends predetermined data from the SO in synchronization with SCLK, the lens communication buffer circuit LCM receives the buffer signals LCK of SCLK and SO via the camera-lens communication contact. , DCL is output to the lens. At the same time, the buffer signal of the signal DLC from the lens is output to SI, and the microcomputer PRS inputs lens data from SI synchronously.
[0026]
DDR is a detection and display circuit for various switches SWS, and is selected when the signal CDDR is 'H', and is controlled from the microcomputer PRS using SO, SI, and SCLK. That is, the display of the display member DSP of the camera is switched based on data sent from the microcomputer PRS, and the on / off state of various operation members of the camera is notified to the microcomputer PRS by communication. The OLC is an external liquid crystal display device located above the camera, and the ILC is a finder internal liquid crystal display device.
[0027]
SW1 and SW2 are interlocked with a release button (not shown), and the switch SW1 is turned on when the first step of the release button is pressed, and subsequently the switch SW2 is turned on when the second step is pressed. The microcomputer PRS performs photometry and automatic focus adjustment when the switch SW1 is turned on, and performs exposure control and subsequent film winding with the switch SW2 turned on as a trigger.
[0028]
Note that the switch SW2 is connected to the “interrupt input terminal” of the microcomputer PRS. Even when the program is executed when the switch SW1 is turned on, an interrupt is generated when the switch SW2 is turned on. interrupt Control can be transferred to the program.
[0029]
MTR1 is a film feed motor, MTR2 is a mirror up / down motor and a shutter spring charge motor, and forward drive and reverse drive are controlled by respective drive circuits MDR1 and MDR2. Signals M1F, M1R, M2F, and M2R input from the microcomputer PRS to the drive circuits MDR1 and MDR2 are motor control signals.
[0030]
MG1 and MG2 are shutter front curtain and rear curtain travel start magnets, which are energized by signals SMG1 and SMG2 and amplification transistors TR1 and TR2, respectively, and shutter control is performed by the microcomputer PRS.
[0031]
Since the motor drive circuits MDR1 and MDR2 and the shutter control are not directly related to the present invention, detailed description thereof is omitted.
[0032]
The signal DCL input in synchronization with LCK to the in-lens control circuit LPRS is command data from the camera to the lens LNS, and the lens operation for the command is determined in advance. This in-lens control circuit LPRS analyzes the command in accordance with a predetermined procedure, and performs the focus adjustment and aperture control operations, the operation status of each part of the lens from the output DLC (the drive status of the focus adjustment optical system, the drive status of the aperture, etc.) ) And various parameters (opening F number, focal length, defocus amount vs. moving amount coefficient of the focusing optical system, distance information such as various focus correction amounts, etc.) are output.
[0033]
In this embodiment, a zoom lens is shown as an example, and when a focus adjustment command is sent from the camera, a focus adjustment motor according to the drive amount and direction sent simultaneously. LMTR The signal LMF , LMR to adjust the focus by moving the optical system in the optical axis direction. The amount of movement of the optical system is monitored by a pulse signal SENCF of an encoder circuit ENCF that detects the pattern of a pulse plate that rotates in conjunction with the optical system with a photocoupler, and outputs a number of pulses corresponding to the amount of movement. With the counter in the internal control circuit LPRS Counting When the predetermined movement is completed, the LPRS itself sets the signals LMF and LMR to 'L' to brake the motor LMTR.
[0034]
For this reason, once the camera focus adjustment command is sent, the microcomputer PRS need not be involved in lens driving at all until the lens driving is completed. Also, there is a request from the camera there were In this case, the contents of the counter can be sent to the camera.
[0035]
When an aperture control command is sent from the camera, a known stepping motor DMTR for driving the aperture is driven according to the number of aperture stages sent simultaneously. Since the stepping motor can be controlled open, an encoder for monitoring the operation is not required.
[0036]
ENCZ is an encoder circuit associated with the zoom optical system, and the in-lens control circuit LPRS receives the signal SENCZ from the encoder circuit ENCZ and detects the zoom position. Lens parameters at each zoom position are stored in the in-lens control circuit LPRS, and when a request is met from the microcomputer PRS on the camera side, a parameter corresponding to the current zoom position is sent to the camera.
[0037]
The ICC is a focus detection and exposure control photometric area sensor composed of a CCD or the like and its drive circuit. The ICC is selected when the signal CICC is 'H' and is controlled from the microcomputer PRS using SO, SI, and SCLK. The
[0038]
φV, φH, and φR are area sensor output readout and reset signals, and a sensor control signal is generated by a drive circuit in the ICC based on the signal from the microcomputer PRS. The sensor output is amplified after being read from the sensor unit, and is input to the analog input terminal of the microcomputer PRS as an output signal IMAGE. The microcomputer PRS sequentially stores the digital value at a predetermined address on the RAM after A / D conversion of the signal. Go. Using these digitally converted signals, distance distribution measurement and focus adjustment or photometry are performed.
[0039]
In FIG. 5, the camera and the lens are represented as separate bodies (lens exchangeable). However, the present invention is not limited to these, even if the camera and the lens are integrated. Absent.
[0040]
Next, a series of operations by the microcomputer PRS will be described.
[0041]
FIG. 6 is a flow chart showing the overall processing flow, which will be described below.
[0042]
When the photographer presses a shutter button (not shown) or the like, the photographing process is started via step (100).
[0043]
In step (101), it is first determined whether or not the moving object shooting mode is set as the current automatic focus adjustment mode. If the moving body shooting mode is not set, the process proceeds to step (102) as it is, and the current focus detection calculation target area is set to the entire focus detection area. On the other hand, if the moving body shooting mode is set, the process proceeds to step (103), and it is determined whether or not the current focus detection operation is the first in the moving body shooting mode. This is because, if it is the first time, it has not yet been clearly detected where the main subject exists, and therefore, it is first necessary to detect the entire focus detection area. Accordingly, if it is determined in step (103) that the current focus detection operation is the first, the process proceeds to step (102) in the same manner as in the non-moving object shooting mode, and the current focus detection calculation target area is set as the focus detection area. Set to all areas.
[0044]
If the current focus detection operation is not the first, the process proceeds from step (103) to step (104) to call a selection area setting subroutine for setting an area to be detected. An outline of this selection area setting subroutine will be described with reference to FIG. This selection area setting is performed by a portion corresponding to the selection area setting circuit 53 shown in FIG. 1 in the microcomputer PRS.
[0045]
In FIG. 7 (a), A represents the entire focus detection area of all 35 points constituted by 5 vertical divisions and 7 horizontal divisions. B is an area determined to be the main subject area in the previous focus detection operation. That is, the focus adjustment operation was performed based on the focus detection result of the region B last time.
[0046]
FIG. 7B shows the current setting state of the focus detection calculation target area, in which the area C is set in the vertical direction and the area D is set in the horizontal direction. This is a selection of an area that can be regarded as a cross centered on the area B in FIG. 7A, which is the previous main subject area, and the number of areas is “11”, that is, a number equal to or less than 1/3 of the total area. It will be narrowed down to. This is because the photographer follows framing for the same subject, so the area to be considered as the next main subject area is a cross area centered on the previous main subject area. is there.
[0047]
For example, if the current main subject region is the region E shown in FIG. 7C, similarly, the next focus detection calculation target region is set to the regions F and G shown in FIG. Become.
[0048]
The above is the content of the selection area setting subroutine for setting the area to be detected, which is performed in step (104).
[0049]
In the following step (105), a subroutine for measuring the distance distribution of the object scene is called for the focus detection area set as described above. This distance distribution measurement will be described with reference to the flowchart of FIG. The distance distribution is measured by a portion corresponding to the distance distribution measuring circuit 51 shown in FIG. 1 in the microcomputer PRS.
[0050]
In step (201), a sensor image is captured. The capturing of the sensor image is performed as follows.
[0051]
First, the sensor is reset. Specifically, the reset operation is performed inside the ICC by simultaneously setting the control signals φV, φH, and φR to “H” for a predetermined time by the microcomputer PRS. Next, an accumulation start command is sent from the microcomputer PRS to start accumulation, and later the end of accumulation is detected. Then, the sensor signals IMAGE are sequentially read out by driving the control signals φV and φH, A / D converted by the microcomputer PRS and stored in the RAM, and the capture of the sensor output signal in step (201) is completed.
[0052]
The output signal data of the two sensors are stored in predetermined areas IMG1 and IMG2 on the RAM.
[0053]
Next, in step (202) and subsequent steps, distance distribution information (distance map) composed of “m × n” blocks (m and n are positive numbers of 1 or more) is created.
[0054]
In step (202), variables х and у indicating the coordinates of the block are initialized, and in the next step (203), signals necessary for the distance calculation of the block (х, у) are transferred to the image data on the RAM. Extracted from IMG1 and copied to a predetermined address A on the RAM. In the following step (204), the other signal necessary for the distance calculation of the block (х, у) is extracted from the image data IMG2 and copied to a predetermined address B on the RAM.
[0055]
In the next step (205), a known correlation calculation COR (A, B) is performed on the luminance distribution signals stored in the addresses A and B, and a shift amount δ between the two image signals is calculated. In the following step (206), the distance value is calculated from the image shift amount δ by a known function f (δ), and the predetermined address D (х, у) reserved for recording the distance distribution on the RAM is used. Stores the distance value. In step (207), the value of х is incremented by 1, and the processing target is moved to the adjacent block.
[0056]
In the next step (208), the x is compared with the resolution m in the x direction of the distance map. If “x <m” is determined to be true, the process returns to the step (203) and the next in the x direction. The distance value is calculated and stored in the same block as described above. If “x <m” is determined to be false, the process proceeds to step (209), where x is initialized and y is incremented by one.
[0057]
In the following step (210), the value of y is evaluated, and when “y <n” is determined to be true, the process returns to step (203) again, and the operation for the next block sequence is started. If it is determined that “y <n” is false, distance calculation for all blocks is completed, and this distance distribution creation subroutine (operation in step (101) in FIG. 6) is terminated.
[0058]
When the detection target area is set to a cross area, the initial values of x and y and the resolutions m and n change for each position. These are stored as a function related to the location of the previous main subject area or as a numerical table and individually referenced.
[0059]
Next, in step (106) of FIG. 6, a main subject area detection subroutine is called. Also here, the contents of the main subject area detection subroutine when the detection target area is the entire area will be described with reference to the flowchart of FIG. This main subject area detection is performed by a portion corresponding to the main subject area detection circuit 52 shown in FIG. 1 in the microcomputer PRS.
[0060]
Returning to FIG. 6 again, in step (106), the main subject area detection subroutine is called. The contents of this main subject area detection subroutine will be described with reference to the flowchart of FIG. The main subject area is detected by a portion corresponding to the main subject area detection circuit 52 in FIG. 1 in the microcomputer PRS.
[0061]
In step (301) in FIG. 9, numbering is performed for each object (group) constituting the object scene. For example, as shown in FIG. 10, when division processing is performed from the upper left block of the screen while performing raster scanning as indicated by an arrow in the figure, the block G (x, y−1) above the target block G (x, y). ) And the left block G (x-1, y), it is possible to determine whether or not they are the same group among all adjacent blocks. At this time, the blocks on the upper side (y = 0) and the left side (x = 0) of the screen do not have an upper block and a left block, respectively, and therefore no processing is performed on them. The determination result is recorded in the memories G (0, 0) to G (m−1, n−1) on the RAM.
[0062]
First, a block of (x, y) = (0, 0) is registered as a group number “g = 1”. If a group having a different area is detected, the number of g is increased by one and the group number of the block is increased. And By this processing, for example, a shooting scene as shown in FIG. 11A is given a number for each group as shown in FIG. 11B. Since the numbering process itself is a known technique called “labeling method”, the flowchart of the entire area division is omitted.
[0063]
The method for determining whether or not the blocks are the same block is described in detail in Japanese Patent Application No. 8-325327 disclosed by the present applicant, and is omitted here.
[0064]
Next, in step (302), the number of subjects detected in step (301) is set as a variable Gnum. In step (303) and subsequent steps, the characteristics of each group constituting the photographing space are evaluated, and a group representing the main subject is determined from all the groups based on the characteristics.
[0065]
In step (303), 1 is set to the variable Gcur representing the group to be calculated. In the next step (304), it is determined whether the moving body shooting mode is set as the current automatic focus adjustment mode. If the moving body shooting mode is set, the process proceeds to step (305), where the subject image plane speed is set. The characteristics necessary for evaluation by moving object tracking, such as the amount of change and rate of change, are calculated. Since the change amount and change rate of the subject image plane speed are disclosed in Japanese Patent Application No. 62-32823 or Japanese Patent Application No. 1-227206, detailed description thereof will be omitted. Then, the process proceeds to Step (306).
[0066]
If the moving body shooting mode is not set, the process proceeds to step (306), where the main subject degree S (Gcur) of the subject area of the group number Gcur is calculated. The main subject degree is calculated by calculating characteristics such as average distance, area width, height, position on the screen, etc., and comprehensively evaluating them to determine an area considered as the main object. For example, the following expression can be considered as the main subject degree evaluation function S (Gcur).
[0067]
Figure 0004011738
In the above formula, W 1 , W 2 , W Three Is a weighting constant, the distance from the center of the screen is the distance between the center of the screen and the center of gravity of the area, and the average distance represents the average distance of all blocks in the area. The main subject degree is calculated for all regions, and the subject having the largest main subject degree is determined as the main subject.
[0068]
On the other hand, in the case of moving body photography, the above-described evaluation function is used in consideration of the change amount and change rate of the subject image plane speed.
[0069]
In the next step (307), the value of Gcur is incremented by 1, and the operation target is moved to the next group. In the following step (308), the values of Gcur and Gnum are compared, and it is checked whether the operation has been completed for all groups. As a result, if “Gcur ≦ Gnum”, since the calculation for all the groups has not been completed, the process returns to step (304) and the same operation is performed.
[0070]
On the other hand, if “Gcur> Gnum”, the process proceeds to step (309), where the function MAX is used to obtain the largest group number among the calculated main subject degrees S (1) to S (Gnum). The number of the group having the highest main subject degree is assigned to the variable Gmain. A region corresponding to a number represented by Gmain represents a main subject region. In the next step (310), the main subject area detection subroutine (the operation in step (106) in FIG. 6) is terminated.
[0071]
In the following step (107) in FIG. 6, a subroutine for determining the distance to be adjusted is called. Here, a subroutine for determining the distance to be adjusted from the current main subject area is executed. This will be described with reference to the flowchart of FIG. The focus adjustment distance is detected by a portion corresponding to the focus adjustment distance detection circuit 54 shown in FIG. 1 in the microcomputer PRS.
[0072]
In step (401), a target area in the object scene is set according to the group number set as the current main subject area. First, the area setting is performed in accordance with the result of the previous main subject area detection subroutine. In the next step (402), it is determined whether or not the current automatic focus adjustment mode is set to the moving object photographing mode. If the moving body shooting mode is not set, the process proceeds to step (403), and distance information for focus adjustment is calculated from the information in the previously set area. Here, since an algorithm that gives priority to closeness is adopted in the same subject area, the closest distance in the area is obtained.
[0073]
On the other hand, if the moving body shooting mode is set, the process proceeds to step (404), and the moving body tracking calculation necessary for the moving body shooting mode is performed. This is to obtain an adjustment amount obtained by adding a drive amount for correcting a delay due to a photographing operation such as a release time lag to the focus adjustment amount for the main subject region. Since this is also disclosed in Japanese Patent Application No. 62-32823 or Japanese Patent Application No. 1-227206, detailed description thereof will be omitted.
[0074]
In the next step (405), the closest distance or moving object tracking adjustment distance is set as the final focus adjustment distance, and the focus adjustment distance determination subroutine is terminated.
[0075]
Then, in step (108) of FIG. 6, a command for adjusting the focus is sent from the microcomputer PRS to the lens LNS having the lens driving device 56 of FIG. 1, whereby the in-lens control circuit LPRS controls the motor LMTR. The current focus adjustment (operation in step (107) in FIG. 6) is terminated.
[0076]
Thereafter, the above operation is repeated to perform a focus adjustment operation on a stationary or moving object.
[0077]
In the above example, as described with reference to FIG. 7, an area that can be regarded as a cross centered on the previous main subject area is set as the current selection target area. Several other shapes are conceivable for this set area. These will be described with reference to FIG.
[0078]
FIG. 13A shows a case where the normal camera is set to the horizontal position and the area is set more limited, that is, the focus area in the previous follow-up operation (the main subject area in the previous focus detection operation). This is an example of a predetermined one-direction area (a gray area H limited to only the horizontal direction by shooting in the horizontal position) centering on the determined black-painted area B). In the figure, as in FIG. 3, A represents the entire focus detection region of all 35 points configured by 5 vertical divisions and 7 horizontal divisions. This is sufficient for panning.
[0079]
FIG. 13B shows the region setting based on the same idea as in FIG. Further, FIG. 13C shows a small cross area in which the target area is slightly smaller, although it is a cross area. This can be considered sufficient if the subject can be sufficiently tracked. On the other hand, FIG. 13D shows an area setting in which the central portion is more substantial than the cross area. That is, the setting is made by adding all the areas adjacent to the black area determined as the main subject area in the previous focus detection operation to FIG. 7B. This is effective for subjects that are somewhat difficult to follow.
[0080]
In addition, as shown in FIGS. 13E and 13F, for example, it is also effective to set an area in which a target area range can be sufficiently obtained as a whole while reducing every other area.
[0081]
According to each of the embodiments described above, when performing a moving body tracking operation that keeps focusing on a moving subject, the focus detection target region is changed from a plurality of subject regions to the focus region in the previous tracking operation. The focus detection calculation is performed only on these areas, and the subject tracking operation is performed. This makes it possible to sufficiently reduce computations necessary for subject tracking and to extract the effectiveness of expanding the focus detection area.
[0082]
In addition to simple crosses, various region settings based on the cross shape are also effective depending on the photographer, subject, or shooting conditions.
[0083]
(Modification)
In the above embodiment, an example in which the present invention is applied to a single-lens reflex camera as an optical device has been described. However, the present invention is not limited to this, and a lens shutter camera having a large number of distance measurement areas, etc. The present invention can also be applied to an optical apparatus that has detection areas and has a function of performing focusing using information obtained in these areas.
[0084]
【The invention's effect】
As described above, according to the present invention, it is possible to efficiently limit the target area used for focusing to a necessary and sufficient area, and to shorten the time for obtaining information used for focusing. It can be provided.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a basic configuration of a camera according to a first embodiment of the present invention.
FIG. 2 is a layout diagram of an optical system of the camera according to the first embodiment of the present invention.
FIG. 3 is a perspective view showing the arrangement of the optical system of the camera according to the first embodiment of the present invention.
4 is a view of the optical system of FIG. 3 as viewed from above. FIG.
FIG. 5 is a block diagram showing an internal configuration of the camera according to the first embodiment of the present invention.
FIG. 6 is a flowchart showing a series of operations of the camera according to the first embodiment of the present invention.
FIG. 7 is a diagram illustrating a focus detection target area according to the first embodiment of the present invention.
FIG. 8 is a flowchart showing a distance distribution measurement operation according to the first embodiment of the present invention.
FIG. 9 is a flowchart showing a main subject area detection operation according to the first embodiment of the present invention.
FIG. 10 is an explanatory diagram of an area dividing method according to the first embodiment of the present invention.
FIG. 11 is an example of the result of labeling in the first exemplary embodiment of the present invention.
FIG. 12 is a flowchart showing a focus adjustment distance determining operation according to the first embodiment of the present invention.
FIG. 13 is a diagram illustrating a focus detection target area according to a second embodiment of the present invention.
FIG. 14 is a diagram illustrating a conventional focus detection target region.
[Explanation of symbols]
51 Distance distribution measurement circuit
52 Main subject area detection circuit
53 Selection area setting circuit
54 Focus Detection Distance Determination Circuit
56 Lens drive circuit
57 Control circuit
PRS microcomputer
LPRS In-lens control circuit
LNS lens
ICC focus detection and photometric sensor and drive circuit

Claims (3)

観察画面内の複数の測定領域で測距又はデフォーカス量の測定を行う測定手段
前記測定手段により得られる情報に基づいて焦点合わせを行う焦点調節手段とを有し、
前記測定手段は、移動中の対象物に対して焦点を合わせるためのモードの場合には、前記観察画面内の複数の測定領域から選択した、前記移動中の対象物に対して焦点を合わせるためのモードでない場合に比べて前記測定領域の少ない、前回の焦点合わせに用いられた合焦領域を含む測定領域群を対象として測距又はデフォーカス量の測定を行うことを特徴とする光学装置。
A measuring unit for measuring the distance measurement or the defocus amount in a plurality of measurement regions in the observation window,
Focusing means for performing focusing based on information obtained by the measuring means ,
In the case of the mode for focusing on the moving object, the measuring means focuses on the moving object selected from a plurality of measurement areas in the observation screen. An optical apparatus for measuring a distance or a defocus amount with respect to a measurement area group including a focus area used for previous focusing, which has a smaller measurement area than in the case of the non-mode .
前記移動中の対象物に対して焦点を合わせるためのモードで前記焦点合わせに用いる測定領域を選択するのが最初である場合には、前記測定手段により得られる全測定領域からの情報に基づいて前記焦点合わせに用いる測定領域を決定することを特徴とする請求項1記載の光学装置。 When it is the first time to select a measurement area to be used for focusing in the mode for focusing on the moving object, based on information from all measurement areas obtained by the measurement means The optical apparatus according to claim 1 , wherein a measurement region used for the focusing is determined . 前記測定領域群は、当該光学装置が横位置か縦位置かに応じて異なる測定領域群とすることを特徴とする請求項1又は請求項2に記載の光学装置。 The measurement region group, the optical device according to claim 1 or claim 2, characterized in that the optical device is different from the measurement area group depending on whether the lateral position or the vertical position.
JP15998198A 1998-05-26 1998-05-26 Optical device Expired - Fee Related JP4011738B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP15998198A JP4011738B2 (en) 1998-05-26 1998-05-26 Optical device
EP09152460.3A EP2053438B1 (en) 1998-05-26 1999-05-25 Focus detecting device, distance measuring device, and optical apparatus for adjusting focus
US09/317,944 US6175692B1 (en) 1998-05-26 1999-05-25 Focus detecting device, distance measuring device, and optical apparatus for adjusting focus
DE69942599T DE69942599D1 (en) 1998-05-26 1999-05-25 Camera with focusing detector
EP99110135A EP0961148B1 (en) 1998-05-26 1999-05-25 Camera with focus detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15998198A JP4011738B2 (en) 1998-05-26 1998-05-26 Optical device

Publications (2)

Publication Number Publication Date
JPH11337814A JPH11337814A (en) 1999-12-10
JP4011738B2 true JP4011738B2 (en) 2007-11-21

Family

ID=15705403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15998198A Expired - Fee Related JP4011738B2 (en) 1998-05-26 1998-05-26 Optical device

Country Status (1)

Country Link
JP (1) JP4011738B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5318321B2 (en) * 2004-08-05 2013-10-16 パナソニック株式会社 Imaging device
JP5056168B2 (en) * 2007-05-30 2012-10-24 株式会社ニコン Focus adjustment device and imaging device
JP5653080B2 (en) * 2010-06-17 2015-01-14 キヤノン株式会社 Focus detection apparatus and focus detection method
JP6288968B2 (en) * 2013-07-19 2018-03-07 キヤノン株式会社 Automatic focus adjustment control device, lens device having the same, and imaging device
JP6577738B2 (en) * 2015-04-09 2019-09-18 キヤノン株式会社 FOCUS DETECTION DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
WO2017057071A1 (en) 2015-09-30 2017-04-06 富士フイルム株式会社 Focus control device, focus control method, focus control program, lens device, imaging device
JP6236580B2 (en) 2015-09-30 2017-11-22 富士フイルム株式会社 Focus control device, focus control method, focus control program, lens device, imaging device
JP7175635B2 (en) * 2018-05-31 2022-11-21 キヤノン株式会社 Imaging device and its control method

Also Published As

Publication number Publication date
JPH11337814A (en) 1999-12-10

Similar Documents

Publication Publication Date Title
JP4018218B2 (en) Optical apparatus and distance measuring point selection method
JPH10161013A (en) Environment recognition device and camera provided therewith
JP2004109690A (en) Camera system and camera
JPH02135311A (en) Focus detecting device
JPH1125263A (en) Object feature point detector, focus adjusting device, exposure controller and camera
US6308014B1 (en) Ranging apparatus installed in camera
JPH10142490A (en) Environment recognition device and camera
JPH0629895B2 (en) Focus state determination device
JP4011738B2 (en) Optical device
US6175692B1 (en) Focus detecting device, distance measuring device, and optical apparatus for adjusting focus
JPH1138313A (en) Optical device and camera
JP3789012B2 (en) Photoelectric conversion device, imaging device, and focus detection device using the same
JP4175582B2 (en) Photoelectric conversion device and focus detection device
JPH07270674A (en) Focusing detecting device
JP2004012493A (en) Focus detector
JP3382321B2 (en) Optical equipment
JP2000009430A (en) Optical device
JP2000075201A (en) Focus detector, focusing device and camera
JP5789937B2 (en) Image tracking device and imaging device
JP2004037732A (en) Digital camera
JP4262034B2 (en) Optical device and camera
JP3089312B2 (en) Focus adjustment device
JP2000284170A (en) Range finder
JP4282404B2 (en) camera
JP3544052B2 (en) Optical device and camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061017

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070906

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100914

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100914

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110914

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110914

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120914

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120914

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130914

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees