JP3544052B2 - Optical device and camera - Google Patents

Optical device and camera Download PDF

Info

Publication number
JP3544052B2
JP3544052B2 JP1931396A JP1931396A JP3544052B2 JP 3544052 B2 JP3544052 B2 JP 3544052B2 JP 1931396 A JP1931396 A JP 1931396A JP 1931396 A JP1931396 A JP 1931396A JP 3544052 B2 JP3544052 B2 JP 3544052B2
Authority
JP
Japan
Prior art keywords
lens
signal
photometric
focus detection
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1931396A
Other languages
Japanese (ja)
Other versions
JPH09197254A (en
Inventor
輝岳 門原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP1931396A priority Critical patent/JP3544052B2/en
Publication of JPH09197254A publication Critical patent/JPH09197254A/en
Application granted granted Critical
Publication of JP3544052B2 publication Critical patent/JP3544052B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Lens Barrels (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、カメラ等に用いられる、焦点調節及び測光動作あるいは測距及び測光動作を行う、蓄積型の光電変換手段を具備した光学装置や該光学装置を備えたカメラの改良に関するものである。
【0002】
【従来の技術】
カメラ等における自動露出,焦点調節の進歩は近年目を見張るものがあり、露出調節は殆どの撮影状況において適正な制御が為され、焦点調節も検出領域が撮影画面の中央部分あるいは複数領域であるものの十分実用出来る段階となっている。
【0003】
これは制御を行う頭脳としてのマイクロコンピュータの発達や情報入力を担うセンサの進歩に大きく依存している事は言うまでもない。
【0004】
露出制御のための測光用センサは撮影画面を複数に分割して光分布を的確に検出しており、各々の検出結果を有機的に結び付けるなどして、様々な状況での最適制御が判断、選択されている。
【0005】
一方、焦点調節のための焦点検出用センサも撮影画面中央部のみならず、3点,5点といった複数点での検出が可能なものとなっており、初期の頃と比べ格段に使い勝手の良いものとなっている。
【0006】
しかし、撮影画面上の複数の点ではなく、面(エリア)としてどこにでもピントが合わせられる焦点調節装置が究極の形として望まれている。
【0007】
この場合、焦点検出ポイントに対応した露出制御の重要性が現在より高まる事は容易に想像され、その実現方法として焦点検出と測光でセンサを兼用する事は大変有効なものとなる。
【0008】
即ち、焦点検出領域に対応した点を中心にした様々な測光が可能となり、あらゆる場面での最適な対応が実現出来る事となる。
【0009】
【発明が解決しようとする課題】
しかしながら、一般的に焦点検出用センサは蓄積型の光電変換素子を用いるため、状況によっては蓄積時間が無視できないものとなり、焦点検出及び測光のための蓄積動作の長時間化がシャッタチャンスを逃すなど撮影に影響を与えてしまう事態も十分予想出来る。
【0010】
(発明の目的)
本発明目的は、精密な焦点検出動作もしくは測距動作と適切で迅速な分割測光を行うことのできる光学装置及びカメラを提供することにある。
【0014】
【課題を解決するための手段】
記目的を達成するために、請求項1,2又は3記載の本発明は、光電変換手段からの第1の領域の信号を焦点検出手段もしくは検出手段へ供給するとともに測光手段に対しては前記第1の領域の周囲の第2の領域が複数に分割された分割領域の信号をも供給し、前記焦点検出手段もしくは検出手段が前記第1の領域内の細分化された各画素データに基づいてデフォーカス量もしくは測距情報を検出し、前記測光手段が前記各領域毎の平均値に基づいて測光情報を検出するようにしている。
【0019】
具体的には、焦点検出と測光では使い方が基本的に異なり、焦点検出時は焦点検出精度を高めるため細かくし、測光では過剰な演算やノイズの影響を回避する必要がある事に着目し、光電変換手段の出力を焦点検出手段に供給する場合には、その出力の領域分割を細かくし、測光手段に供給する場合は、その出力の領域分割を粗くするようにしている。
【0022】
【発明の実施の形態】
以下、本発明を図示の実施の形態に基づいて詳細に説明する。
【0023】
図1は本発明の実施の第1の形態に係る図であり、撮影画面内の焦点検出及び露出演算の為の測光値を求めるための各構成要素の光学的配置図である。
【0024】
図1において、1は撮影レンズ、8はフィールドレンズ、9は二次結像レンズ、10はエリアセンサである。
【0025】
前記エリアセンサ10の2つの撮像画面10a,10b上には各々撮影レンズ1のお互いに異なる瞳位置からの光束が導かれ、フィールドレンズ8,二次結像レンズ9により定まる結像倍率で再結像される。また、このエリアセンサ10は撮影レンズ1に対して撮影フィルム面と光学的に等価な位置にあり、撮像画面10a,10bは各々撮影画面に等しい視野を有している。
【0026】
図2は、上記図1に示した検出光学系をカメラに適用した場合のレイアウトを示したものである。
【0027】
図2において、6はクイックリターンミラー、18はペンタプリズム、19は分割プリズム、20は反射ミラーであり、他は図1と同様である。
【0028】
また、図3は、上記図2のレイアウトをカメラ上部方向より見た図である。
【0029】
以上の様な構成により、所定の視差を持った撮像画面10a,10bから撮影画面の各領域毎の焦点状態(デフォーカス情報)や測光値が得られる。尚、本方式については特願平5−278433号等で詳細に開示されているので、ここでは詳細な説明は省略する。
【0030】
図4は上記の如き構成要素を備えたカメラの具体的な回路構成の一例を示すブロック図であり、先ず各部の構成について説明する。
【0031】
図4において、PRSは、例えば、内部にCPU(中央処理装置),ROM,RAM,A/D変換機能を有する1チップのマイクロコンピュータであり、該マイクロコンピュータPRSはROMに格納されたカメラのシーケンス・プログラムに従って、自動露出制御機能,自動焦点調節機能,フィルムの巻上げ及び巻戻し等のカメラの一連の動作を行っている。そのために、マイクロコンピュータPRSは通信用信号SO,SI,SCLK、通信選択信号CLCM,CDDR,CICCを用いて、カメラ本体内の周辺回路及びレンズ内制御装置と通信を行って、各々の回路やレンズの動作を制御する。
【0032】
SOはマイクロコンピュータPRSから出力されるデータ信号、SIはマイクロコンピュータPRSに入力されるデータ信号、SCLKは信号SO,SIの同期クロックである。
【0033】
LCMはレンズ通信バッファ回路であり、カメラが動作中のときにはレンズ用電源端子VLに電力を供給するとともに、マイクロコンピュータPRSからの選択信号CLCMが高電位レベル(以下、“H”と略記し、低電位レベルは“L”と略記する)のときには、カメラとレンズ間の通信バッファとなる。
【0034】
マイクロコンピュータPRSが選択信号CLCMを“H”にして、SCLKに同期して所定のデータをSOから送出すると、バッファ回路LCMはカメラ・レンズ間通信接点を介して、SCLK,SOの各々のバッファ信号LCK,DCLをレンズへ出力する。それと同時にレンズからの信号DLCのバッファ信号をSIに出力し、マイクロコンピュータPRSはSCLKに同期してSIからレンズのデータを入力する。
【0035】
DDRは各種のスイッチSWSの検知及び表示用回路であり、信号CDDRが“H”のとき選択され、SO,SI,SCLKを用いてマイクロコンピュータPRSから制御される。即ち、マイクロコンピュータPRSから送られてくるデータに基づいてカメラの表示部材DSPの表示を切り替えたり、カメラの各種操作部材のオン,オフ状態を通信によってマイクロコンピュータPRSに報知する。OLCはカメラ上部に位置する外部液晶表示装置であり、ILCはファインダ内部液晶表示装置である。
【0036】
SW1,SW2は不図示のレリーズボタンに連動したスイッチで、レリーズボタンの第1段階の押下によりスイッチSW1がオンし、引き続いて第2段階の押下でスイッチSW2がオンする。マイクロコンピュータPRSはスイッチSW1のオンで測光,自動焦点調節を行い、スイッチSW2のオンをトリガとして露出制御とその後のフィルムの巻上げを行う。
【0037】
なお、スイッチSW2はマイクロコンピュータPRSの「割り込み入力端子」に接続され、スイッチSW1のオン時のプログラム実行中でも該スイッチSW2のオンによって割り込みがかかり、直ちに所定の割り込みプログラムへ制御を移すことができる。
【0038】
MTR1はフィルム給送用のモータであり、MTR2はミラーアップ・ダウン及びシャッタばねチャージ用のモータであり、各々の駆動回路MDR1,MDR2により正転、逆転の制御が行われる。マイクロコンピュータPRSから前記各駆動回路MDR1,MDR2に入力されている信号M1F,M1R,M2F,M2Rはモータ制御用の信号である。
【0039】
MG1,MG2は各々シャッタ先幕・後幕走行開始用マグネットで、信号SMG1,SMG2、増幅トランジスタTR1,TR2で通電され、マイクロコンピュータPRSによりシャッタ制御が行われる。
【0040】
なお、前記モータ駆動回路MDR1,MDR2によるフィルム給送やシャッタ制御は、本発明と直接関わりがないので、詳しい説明は省略する。
【0041】
レンズ内制御装置であるマイクロコンピュータLPRSにLCKと同期して入力される信号DCLは、カメラからレンズLNSに対する命令のデータであり、命令に対するレンズの動作は予め決められている。マイクロコンピュータLPRSは所定の手続きに従ってその命令を解析し、焦点調節や絞り制御の動作や、出力DLCからレンズの各部動作状況(焦点調節光学系の駆動状況や、絞りの駆動状態等)や各種パラメータ(開放Fナンバー,焦点距離,デフォーカス量対焦点調節光学系の移動量の係数,各種ピント補正量等)の出力を行う。
【0042】
この実施の形態では、ズームレンズの例を示しており、カメラから焦点調節の命令が送られた場合には、同時に送られてくる駆動量・方向に従って焦点調節用モータLTMRを信号LMF,LMRによって駆動して、光学系を光軸方向に移動させて焦点調節を行う。光学系の移動量は光学系に連動して回動するパルス板のパターンをフォトカプラーにて検出し、移動量に応じた数のパルスを出力するエンコーダ回路ENCのパルス信号SENCFでモニタし、マイクロコンピュータLPRS内のカウンタで計数しており、所定の移動が完了した時点で該マイクロコンピュータLPRS自身が信号LMF,LMRを“L”にしてモータLMTRを制動する。
【0043】
このため、一旦カメラから焦点調節の命令が送られた後は、カメラの制御装置であるマイクロコンピュータPRSはレンズの駆動が終了するまで、レンズ駆動に関して全く関与する必要がない。また、カメラから要求があった場合には、上記カウンタの内容をカメラに送出することも可能な構成になっている。
【0044】
カメラから絞り制御の命令が送られた場合には、同時に送られてくる絞り段数に従って、絞り駆動用としては公知のステッピング・モータDMTRを駆動する。なお、ステッピング・モータはオープン制御が可能なため、動作をモニタするためのエンコーダを必要としない。
【0045】
ENCZはズーム光学系に付随したエンコーダ回路であり、マイクロコンピュータLPRSはENCZからの信号SENCZを入力してズーム位置を検出する。マイクロコンピュータLPRS内には各ズーム位置におけるレンズ・パラメータが格納されており、カメラ側のマイクロコンピュータPRSから要求があった場合には、現在のズーム位置に対応したパラメータをカメラに送出する。
【0046】
ICCはCCD等から構成される焦点検出と測光用のエリアセンサ(図1のエリアセンサ10に相当する)及びその駆動回路であり、信号CICCが“H”のとき選択されて、SO,SI,SCLKを用いてマイクロコンピュータPRSにて制御される。
【0047】
φV,φH,φRはエリアセンサ出力の読出し、リセット信号であり、マイクロコンピュータPRSから信号に基づいてICC内の駆動回路によりセンサ制御信号が生成される。センサ出力はセンサ部からの読み出し後増幅され、出力信号IMAGEとしてマイクロコンピュータPRSのアナログ入力端子に入力され、該マイクロコンピュータPRSは同信号をA/D変換後、そのデジタル値をRAM上の所定のアドレスへ順次格納してゆく。これらデジタル変換された信号を用いて焦点検出並びに測光演算を行っていく。
【0048】
尚、上記図4ではカメラとレンズが別体(レンズ交換が可能)となるもので表現されているが、本発明はカメラ・レンズ一体なるものでも何等問題なく、これ等に限定されるものではない。
【0049】
次に、上記構成によるカメラの自動焦点調節及び露出演算について、以下のフローチャートに従って説明を行う。
【0050】
図5はごく大まかなカメラ全体のシーケンスのフローチャートであり、以下これに従って説明する。
【0051】
図4に示した回路に給電が開始されると、マイクロコンピュータPRSは図5のステップ(001)から実行を開始していく。
【0052】
ステップ(001)においては、レリーズボタンの第1段階押下によりオンするスイッチSW1の状態検知を行い、オフならばステップ(002)へ移行し、全てのフラグと変数を初期化する。そしてスイッチSW1が再びオンされるのをステップ(001)にて検知する。
【0053】
一方、ステップ(001)でスイッチSW1がオンであれば、カメラの動作を開始する為、ステップ(003)へ移行する。そして、このステップ(003)において、「AF制御」サブルーチンを実行する。ここでは焦点検出のための像信号の蓄積,読出し、焦点検出演算、焦点検出領域選択、レンズ駆動の開始等を行う。
【0054】
上記サブルーチン「AF制御」が終了すると、次いでステップ(004)へ移行し、ここでは測光のための像信号の蓄積,読出しや各種スイッチ類の状態検知,表示等の「AE制御」サブルーチンを実行する。
【0055】
上記サブルーチン「AE制御」が終了すると再びステップ(001)へ戻り、スイッチSW1がオフするまで上記ステップ(003),(004)を繰り返し実行していく。
【0056】
図6は、図5のステップ(003)において実行される「AF制御」サブルーチンのフローチャートである。
【0057】
このサブルーチンがコールされると、まずステップ(031)において、「センサ駆動」サブルーチンを実行する。ここでは焦点検出動作のためのセンサのリセットから像信号の蓄積,読出し(A/D変換)を行う。続くステップ(032)においては、実際の焦点検出演算を行う「焦点検出」サブルーチンを行う。そして、次のステップ(033)において、焦点調節を行なう対象領域を決定する「領域選択」サブルーチンを行う。基本的にはエリアセンサ内での近点優先による自動選択を行っている。
【0058】
そして、次のステップ(034)において、「レンズ駆動」サブルーチンを実行、つまり上記ステップ(032)で決定された領域のデフォーカス量に基づいてレンズ駆動を行い、続くステップ(035)にてこの「AF制御」サブルーチンを終了する。
【0059】
図7は、図6のステップ(031)において実行される「センサ駆動」サブルーチンのフローチャートである。
【0060】
このサブルーチンがコールされると、まずステップ(311)において、センサのリセットを行う。具体的には、制御信号φV,φH,φRをマイクロコンピュータPRSにて同時に一定時間“H”にすることで、ICC内部でリセット動作が行われる。
【0061】
続くステップ(312)においては、マイクロコンピュータPRSから蓄積開始命令を送り、蓄積を開始し、次のステップ(313)において、蓄積が終了するまで待機する。そして、蓄積が終了すると次のステップ(314)において、制御信号φV,φHを駆動してセンサ出力を順次読出し、マイクロコンピュータPRSにてA/D変換してRAMに格納の後、次のステップ(315)にこの「センサ駆動」サブルーチンを終了する。
【0062】
図8は、図6のステップ(032)において実行される「焦点検出」サブルーチンのフローチャートである。
【0063】
このサブルーチンがコールされると、まずステップ(321)において、現在レンズが停止しているかどうかの判断を行い、停止していなければ、測光動作の準備の必要がないため、そのままステップ(322)に移行し、図6のステップ(031)にて得られた像信号を用いて焦点検出演算を行う「焦点検出演算」サブルーチンを実行する。ここでは、レンズを駆動しながらデフォーカス量DEFを求める動作となる。
【0064】
そして、デフォーカス量DFFが得られたら、ステップ(323)よりそのまま図6のステップ(034)の「レンズ駆動」サブルーチンへと移行する。
【0065】
一方、ステップ(321)において、レンズが停止しているならば、換言すれば目標位置(合焦位置)までレンズ駆動が為されているならば、ステップ(324)へ移行し、ここで次の蓄積動作を開始させる。これが合焦時なら測光動作の準備動作となる。つまり、後述する様に、次のステップ(326)で合焦と判断されると、ステップ(327)を介して「AE制御」サブルーチン内の蓄積終了検知のフロー〔図10のステップ(043)〕へ直ちに移行する為である。
【0066】
次のステップ(325)においては、上記ステップ(322)と同様に図6のステップ(031)にて得られた像信号を用いて焦点検出演算を行う「焦点検出演算」サブルーチンを実行する。この焦点検出演算は、現在レンズ停止中であっても、前回のレンズ駆動量が大であった場合等、必ずしもレンズが合焦位置まで達しているとは限らない為、合焦確率を高めるために行う動作であり、この焦点検出結果は、次のステップ(326)以降にて説明する様に、焦点検出時に用いたエリアセンサを兼用した測光動作へ移行するか、再度合焦動作を行う動作へ移行するかの判断に供される。
【0067】
次のステップ(326)においては、上記の焦点検出演算の結果が合焦であるか否かを判断し、合焦ならばステップ(327)よりそのまま図5のステップ(004)の「AE制御」サブルーチンに移行(詳しくは、後述の図10のステップ(043)へ移行)する。
【0068】
また、上記ステップ(326)において非合焦であったならば、そのままステップ(328)を介してこの「焦点検出」サブルーチンを終了し、この場合は次のレンズ駆動〔図6のステップ(034)〕にて前記ステップ(325)にて得られた焦点検出結果に基づいたレンズ駆動が為されることになる。尚、この様なフローを経た場合も、前記ステップ(324)を通過している為に蓄積動作(測光動作の為の)は開始されているが、次の「AF制御」サブルーチン〔図7のステップ(311)〕でこの蓄積動作はリセットされるため、何ら問題になるものではない。
【0069】
図9は、図6のステップ(034)において実行される「レンズ駆動」サブルーチンのフローチャートである。
【0070】
このサブルーチンがコールされると、まずステップ(341)においてレンズと通信して、2つのデータ「S」,「PTH」を入力する。
【0071】
レンズ係数「S」は、撮影レンズの「焦点調節光学系の移動量対像面移動量の係数」である。即ち、撮影レンズの焦点調節光学系を光軸方向に単位長さ移動させたときの撮影レンズの像面移動量を表す。例えば、全体繰り出しタイプの単レンズの場合には、撮影レンズ全体が焦点調節光学系に相当するから焦点調節光学系の移動はそのまま撮影レンズの像面移動となる訳であるから「S=1」であり、ズームレンズの場合にはズーム光学系の位置によって「S」は変化する。
【0072】
一方、「PTH」は焦点調節光学系LNSの光軸方向の移動に連動したエンコーダENCFの出力1パルス当りの同光学系の移動量である。続くステップ(342)においては、選択された焦点検出領域での検出デフォーカス量DEF、上記S,PTHにより焦点調節すべき撮影光学系の移動量をエンコーダの出力パルス数に換算した値、いわゆるレンズ駆動量FPを次式で求めている。
【0073】
FP=DEF・S/PTH
続くステップ(343)においては、上記ステップ(342)にて求めたFPをレンズに送出して焦点調節光学系の駆動を命令し、次のステップ(344)にてこの「レンズ駆動」サブルーチンを終了する。
【0074】
図10は、図5のステップ(004)において実行される「AE制御」サブルーチンのフローチャートである。
【0075】
このサブルーチンがコールされると、まずステップ(041)において、レンズが停止しているかを判断する。停止していれば、次のステップ(042)に移行し、測光動作のため蓄積を開始し、続くステップ(043)において、蓄積終了を待つ。
【0076】
ここで、図8のステップ(326)で合焦の判断がされている場合は、同じく図8のステップ(324)にて蓄積を開始しているので、このステップ(043)で蓄積終了検知へ「焦点検出」サブルーチンから直接移行している。
【0077】
蓄積が終了したならば、ステップ(044)において、センサ出力を読出していく。そして、次のステップ(045)において、測光結果より露出制御値を求める「測光演算」サブルーチンを行う。演算値としては、蓄積電荷量,蓄積時間,読出しゲイン等を用いている。
【0078】
続くステップ(046)において、各種スイッチの状態検知を行い、次のステップ(047)において、焦点検出,測光や各スイッチの状態に応じた表示を行い、続くステップ(048)において、この「AE制御」サブルーチンを終了する。
【0079】
なお、ステップ(041)でレンズが停止していない場合〔図8のステップ(326)で非合焦と判断され、次のレンズ駆動で合焦位置へのレンズ駆動が為されている場合等)は、そのままステップ(048)に移行している。
【0080】
次に、上記ステップ(045)において実行される「測光演算」サブルーチンについて説明を行う。
【0081】
蓄積型光電変換素子で測光を行う場合、演算に用いる要素は蓄積時間,読出しゲイン及びセンサ出力値である。また、基準輝度でのそれぞれの値も絶対輝度値への換算において必要となる。
【0082】
基準輝度Ev値(E )における蓄積時間,読出しゲイン,センサ出力値をそれぞれT ,G ,V とし、Eにおける各々をT,G,Vとすると、以下の関係式が成り立つ。
【0083】
E=E +log(T /T×G /G×V/V )/log2
ここで、いわゆるフリッカー対策としては、Tが10ms以上であればほぼ問題なく、実用十分な測光が可能となる。
【0084】
設定読み出しゲインは、20,40,80,160倍であり、センサ出力値は8bit A/D変換の0〜255となっている。
【0085】
図10のステップ(045)では、上記の式を実行し、被写体輝度Ev値Eを求めている。
【0086】
次に、センサ出力の領域分割の切り換えについて説明する。
【0087】
図11は、エリアセンサ10の2つの撮像画面の一方の画素構成を説明する図である。
【0088】
焦点検出に用いる場合は画素の領域分割と出力の領域分割を同じとしている。つまり、1画素の出力を1単位の出力として扱い、高精細な像信号による焦点調節動作を行い、精度良くピントを合わせる。
【0089】
一方、測光に用いる場合は、例えば図12の様に、数画素(図では10画素)毎に出力をまとめて(平均して)1単位の出力として扱う。これは、測光に関しては焦点検出の様に細分化されたデータをそのまま扱う必要もなく、却ってノイズによる影響を受けたり、演算量が増えてしまうからである。
【0090】
また、図13に示した領域が焦点検出動作での領域選択で選ばれた場合、図14の様に、その領域を中心領域(0)とし、その周囲を6分割した分割測光も有効である。この場合、それぞれの領域内の画素出力の平均値を測光出力値とするものであり、分割領域もこの形に限らず自由に設定可能である。
【0091】
(実施の第2の形態)
以上説明してきた実施の第1の形態では、測光演算には蓄積し直したセンサ出力を用いていた。しかし、より積極的に時間の短縮を図るため、合焦しているセンサ出力を測光演算にも用いることも可能である。
【0092】
以下この実施の第1の形態に対する変更部分を説明していく。
【0093】
図15は、実施の第1の形態の図8に対応する、「焦点検出」サブルーチンのフローチャートである。
【0094】
変更点は、図8のステップ(324)で行っている蓄積開始動作が無い点のみである。つまり、図15ではステップ(524)ですぐに「焦点検出演算」サブルーチンを行い、次のステップ(525)で合焦判断を行っている。そして、ここで合焦ならば直ちに「AE制御」サブルーチンに、図8と同様に移行する。
【0095】
図16は、上記実施の第1の形態の図10に対応する、「AE制御」サブルーチンのフローチャートである。
【0096】
ここでの変更点は、図15のステップ(526)から「AE制御」サブルーチンへの移行が、ステップ(063)での「測光演算」サブルーチンの直前となっている点、そして、図10のステップ(042)〜(044)での一連の蓄積開始からセンサ信号読み出しまでの動作がステップ(062)での「センサ駆動」サブルーチンの実行になっている点である。
【0097】
つまり、図15で合焦と判断された場合はそのまま合焦判断に用いたセンサ信号で測光も行うので、直ちに測光演算へ移行することができ、図10のステップ(042)〜(044)に対応する一連の動作も「センサ駆動」サブルーチンをそのまま実行すれば良くなり、フローチャート上も非常にすっきりしたものとなっている。
【0098】
以上の実施の各形態によれば、撮影(露光)動作直前となるレンズ停止時での測光の動作時間をなるべく短くするため、現在のレンズの位置が合焦位置とみなせるか否かの判断の為に行う焦点検出演算の開始前に、測光の為の蓄積動作を開始しておいたり(実施の第1の形態)、レンズ停止後の焦点検出演算の結果が合焦であった場合には、焦点検出時に得られたセンサ出力を測光情報算出にそのまま用いたり(実施の第2の形態)している為、焦点検出及び測光の高機能化に伴う撮影準備動作の遅延が回避され、快適な操作性が保たれる事となる。
【0099】
一方、センサ出力の領域分割は、焦点検出時に最も細分化して用い、測光時は数画素程度毎にまとめたりして用いる。これにより、精密な測距動作と適切で迅速な分割測光が可能となる。換言すれば、センサ出力が有効に活用でき、エリア化された検出領域が十分活かされる事となる。
【0100】
(変形例)
本発明は、TTL方式の一眼レフカメラに適用した例を述べているが、外測式の測距を行うカメラにも適用可能である。さらには、その他の装置にも適用可能である。
【0101】
また、上記の実施の各形態では、焦点検出時に用いるセンサ出力の使用領域と測光時に用いる使用領域とは一部重複しているが、それぞれにおいてセンサ出力の実質使用領域を異ならせるようにしてもよい。
【0102】
【発明の効果】
以上説明した様に、本発明によれば、光電変換手段からの第1の領域の信号を焦点検出手段もしくは検出手段へ供給するとともに測光手段に対しては前記第1の領域の周囲の第2の領域が複数に分割された分割領域の信号をも供給し、前記焦点検出手段もしくは検出手段が前記第1の領域内の細分化された各画素データに基づいてデフォーカス量もしくは測距情報を検出し、前記測光手段が前記各領域毎の平均値に基づいて測光情報を検出するようにしている。
【0106】
よって、焦点検出動作もしくは測距動作と適切で迅速な分割測光を行うことができる。
【図面の簡単な説明】
【図1】本発明の実施の第1の形態に係る検出光学系の概略構成を示す斜視図である。
【図2】図1の検出光学系をカメラに適用した場合の構成を示す斜視図である。
【図3】図2の光学系をカメラ上面から見た様子を示す平面図である。
【図4】図2のカメラの各部の構成を示すブロック図である。
【図5】図4の構成のカメラの大まかな動作を示すフローチャートである。
【図6】図5のステップ(004)において実行される動作を示すフローチャートである。
【図7】図6のステップ(031)において実行される動作を示すフローチャートである。
【図8】図6のステップ(032)において実行される動作を示すフローチャートである。
【図9】図6のステップ(034)において実行される動作を示すフローチャートである。
【図10】図5のステップ(004)において実行される動作を示すフローチャートである。
【図11】図1のエリアセンサの2つの撮像画面の一方の画素構成を説明する図である。
【図12】図11の焦点検出用の領域が選択された際の測光用の分割領域を示す図である。
【図13】本発明の実施の第1の形態において焦点検出動作時に選ばれた領域の例を示す図である。
【図14】図13の焦点検出用の領域が選択された際の測光用の分割領域を示す図である。
【図15】本発明の実施の第2の形態における焦点検出時の動作を示すフローチャートである。
【図16】本発明の実施の第2の形態におけるAE制御時の動作を示すフローチャートである。
【符号の説明】
PRS カメラ内に具備されるマイクロコンピュータ
ICC 焦点検出及び測光用センサ及び駆動回路
LCM レンズ通信バッファ回路
LNS レンズ
LPRS レンズ内に具備されるマイクロコンピュータ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an optical device having a storage-type photoelectric conversion means for performing a focus adjustment and a photometric operation or a distance measuring and a photometric operation, which is used in a camera or the like, and to an improvement of a camera provided with the optical device.
[0002]
[Prior art]
Advances in automatic exposure and focus adjustment in cameras and the like have been remarkable in recent years. Exposure adjustment is appropriately controlled in most shooting situations, and the focus adjustment is also performed in the detection area at the center or multiple areas of the shooting screen. Although it is at a stage where it can be practically used.
[0003]
Needless to say, this largely depends on the development of microcomputers as brains for controlling and the progress of sensors for inputting information.
[0004]
The photometric sensor for exposure control divides the shooting screen into multiple parts to accurately detect the light distribution, and organically tie each detection result to judge optimal control in various situations, Selected.
[0005]
On the other hand, a focus detection sensor for focus adjustment can be detected not only at the center of the photographing screen but also at a plurality of points such as three points and five points, which is much easier to use than in the early days. It has become something.
[0006]
However, there is a demand for an ultimate form of a focus adjusting device that can focus on a plane (area) instead of a plurality of points on a shooting screen.
[0007]
In this case, it is easy to imagine that the importance of the exposure control corresponding to the focus detection point becomes higher than at present, and it is very effective to use a sensor for both focus detection and photometry as a method for realizing the exposure control.
[0008]
That is, various types of photometry can be performed centering on a point corresponding to the focus detection area, and optimal correspondence in any scene can be realized.
[0009]
[Problems to be solved by the invention]
However, since the focus detection sensor generally uses a storage-type photoelectric conversion element, the storage time cannot be ignored depending on the situation, and a prolonged storage operation for focus detection and photometry misses a photo opportunity. The situation that affects the shooting can be expected.
[0010]
(Object of the invention)
The present inventionofMy goal is,Precise focus detection operation or distance measurement operation and appropriate and quick split metering can be performed.An optical device and a camera are provided.
[0014]
[Means for Solving the Problems]
UpItemClaims 1 and 2 to achieve the goalOr 3The invention describedA signal of the first area from the photoelectric conversion means is supplied to the focus detection means or the detection means, and a signal of a divided area in which the second area around the first area is divided into a plurality of parts is supplied to the photometric means. The focus detection means or the detection means detects the defocus amount or the distance measurement information based on each of the subdivided pixel data in the first area, and the photometry means detects the defocus amount or the distance measurement information for each of the areas. Photometric information is detected based on the average value.
[0019]
Specifically, the focus detection and photometry use fundamentally different methods, focusing on the fact that during focus detection it is necessary to refine the focus detection in order to increase the accuracy, and in photometry it is necessary to avoid the effects of excessive computation and noise, When the output of the photoelectric conversion means is supplied to the focus detection means, the output area division is made finer, and when the output is supplied to the photometry means, the output area division is made coarse.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, the present invention will be described in detail based on illustrated embodiments.
[0023]
FIG. 1 is a diagram related to a first embodiment of the present invention, and is an optical arrangement diagram of each component for obtaining a photometric value for focus detection and exposure calculation in a shooting screen.
[0024]
In FIG. 1, 1 is a photographing lens, 8 is a field lens, 9 is a secondary imaging lens, and 10 is an area sensor.
[0025]
Light beams from different pupil positions of the photographing lens 1 are guided onto the two imaging screens 10a and 10b of the area sensor 10, respectively, and re-formed at an imaging magnification determined by the field lens 8 and the secondary imaging lens 9. Imaged. The area sensor 10 is located at a position optically equivalent to the photographic film surface with respect to the photographic lens 1, and the imaging screens 10a and 10b each have a visual field equal to the photographic screen.
[0026]
FIG. 2 shows a layout when the detection optical system shown in FIG. 1 is applied to a camera.
[0027]
In FIG. 2, 6 is a quick return mirror, 18 is a pentaprism, 19 is a split prism, 20 is a reflection mirror, and the others are the same as those in FIG.
[0028]
FIG. 3 is a view of the layout of FIG. 2 as viewed from above the camera.
[0029]
With the above configuration, a focus state (defocus information) and a photometric value for each region of the photographing screen can be obtained from the imaging screens 10a and 10b having a predetermined parallax. Since this method is disclosed in detail in Japanese Patent Application No. 5-278433, a detailed description is omitted here.
[0030]
FIG. 4 is a block diagram showing an example of a specific circuit configuration of a camera including the above-described components. First, the configuration of each unit will be described.
[0031]
In FIG. 4, a PRS is, for example, a one-chip microcomputer having a CPU (central processing unit), a ROM, a RAM, and an A / D conversion function therein. The microcomputer PRS is a camera sequence stored in the ROM. A series of camera operations such as an automatic exposure control function, an automatic focus adjustment function, and film winding and rewinding are performed according to a program. For this purpose, the microcomputer PRS communicates with the peripheral circuit in the camera body and the control device in the lens using the communication signals SO, SI, SCLK and the communication selection signals CLCM, CDDDR, CICC, and each circuit and lens. Control the operation of.
[0032]
SO is a data signal output from the microcomputer PRS, SI is a data signal input to the microcomputer PRS, and SCLK is a synchronous clock of the signals SO and SI.
[0033]
LCM is a lens communication buffer circuit that supplies power to the lens power supply terminal VL when the camera is operating, and that the selection signal CLCM from the microcomputer PRS is at a high potential level (hereinafter abbreviated as “H”, When the potential level is abbreviated as "L"), it serves as a communication buffer between the camera and the lens.
[0034]
When the microcomputer PRS sets the selection signal CLCM to "H" and sends out predetermined data from the SO in synchronization with SCLK, the buffer circuit LCM outputs the respective buffer signals of SCLK and SO via the camera-lens communication contact.LCK, DCL to the lens. At the same time, a buffer signal of the signal DLC from the lens is output to SI, and the microcomputer PRS inputs lens data from SI in synchronization with SCLK.
[0035]
DDR is a circuit for detecting and displaying various switches SWS, is selected when the signal CDDR is "H", and is controlled by the microcomputer PRS using SO, SI and SCLK. That is, based on the data sent from the microcomputer PRS, the display of the display member DSP of the camera is switched, and the on / off state of various operation members of the camera is notified to the microcomputer PRS by communication. OLC is an external liquid crystal display device located above the camera, and ILC is a finder internal liquid crystal display device.
[0036]
SW1 and SW2 are switches that are linked to a release button (not shown). The switch SW1 is turned on when the release button is pressed in the first stage, and the switch SW2 is turned on when it is pressed in the second stage. The microcomputer PRS performs photometry and automatic focus adjustment when the switch SW1 is turned on, and performs exposure control and subsequent film winding with the switch SW2 turned on as a trigger.
[0037]
The switch SW2 is connected to the "interrupt input terminal" of the microcomputer PRS. Even when the switch SW1 is turned on, an interrupt is generated by turning on the switch SW2 even during execution of the program, and the control can be immediately transferred to a predetermined interrupt program.
[0038]
MTR1 is a motor for feeding a film, and MTR2 is a motor for mirror up / down and charging a shutter spring. Forward and reverse rotations are controlled by respective drive circuits MDR1 and MDR2. The signals M1F, M1R, M2F and M2R input from the microcomputer PRS to the respective drive circuits MDR1 and MDR2 are motor control signals.
[0039]
MG1 and MG2 are shutter start curtain / rear curtain running start magnets, respectively, which are energized by signals SMG1 and SMG2 and amplification transistors TR1 and TR2, and the microcomputer PRS controls the shutter.
[0040]
Note that the film feeding and shutter control by the motor drive circuits MDR1 and MDR2 are not directly related to the present invention, and a detailed description thereof will be omitted.
[0041]
The signal DCL input to the microcomputer LPRS, which is an in-lens control device, in synchronization with LCK is command data from the camera to the lens LNS, and the operation of the lens in response to the command is predetermined. The microcomputer LPRS analyzes the instructions in accordance with a predetermined procedure, and performs operations of focus adjustment and aperture control, the operation status of each part of the lens (driving status of the focusing optical system, driving status of the aperture, etc.) and various parameters from the output DLC. (An open F number, a focal length, a defocus amount versus a coefficient of a movement amount of a focus adjustment optical system, various focus correction amounts, and the like) are output.
[0042]
This embodiment shows an example of a zoom lens. When a focus adjustment command is sent from a camera, the focus adjustment motor LTMR is controlled by signals LMF and LMR in accordance with the drive amount and direction sent at the same time. When driven, the optical system is moved in the optical axis direction to perform focus adjustment. The amount of movement of the optical system is monitored by a pulse signal SENCF of an encoder circuit ENC that detects a pattern of a pulse plate that rotates in conjunction with the optical system with a photocoupler and outputs a number of pulses corresponding to the amount of movement. At the counter in the computer LPRSCountingWhen the predetermined movement is completed, the microcomputer LPRS sets the signals LMF and LMR to "L" to brake the motor LMTR.
[0043]
For this reason, once the focus adjustment command is sent from the camera, the microcomputer PRS, which is the control device of the camera, does not need to be involved in driving the lens at all until the driving of the lens is completed. Further, when a request is made from the camera, the contents of the counter can be transmitted to the camera.
[0044]
When an aperture control command is sent from the camera, a well-known stepping motor DMTR for driving an aperture is driven in accordance with the number of aperture stages sent simultaneously. Since the stepping motor can perform open control, it does not require an encoder for monitoring the operation.
[0045]
ENCZ is an encoder circuit associated with the zoom optical system, and the microcomputer LPRS receives the signal SENCZ from the ENCZ and detects the zoom position. The microcomputer LPRS stores lens parameters at each zoom position, and when requested by the microcomputer PRS on the camera side, sends parameters corresponding to the current zoom position to the camera.
[0046]
The ICC is an area sensor (corresponding to the area sensor 10 in FIG. 1) for focus detection and photometry composed of a CCD or the like, and its driving circuit. The ICC is selected when the signal CICC is "H", and outputs signals SO, SI, It is controlled by the microcomputer PRS using SCLK.
[0047]
φV, φH, and φR are read signals of the area sensor output and reset signals, and a sensor control signal is generated by a drive circuit in the ICC based on the signal from the microcomputer PRS. The sensor output is amplified after reading from the sensor unit, and is input as an output signal IMAGE to an analog input terminal of the microcomputer PRS. The microcomputer PRS converts the signal into an analog signal and converts the digital value into a predetermined value on the RAM. Store sequentially to the address. Focus detection and photometric calculation are performed using these digitally converted signals.
[0048]
Although FIG. 4 shows that the camera and the lens are separate bodies (lens replacement is possible), the present invention does not have any problem even if the camera and the lens are integrated, and the present invention is not limited to these. Absent.
[0049]
Next, automatic focus adjustment and exposure calculation of the camera with the above configuration will be described according to the following flowchart.
[0050]
FIG. 5 is a rough flowchart of the overall sequence of the camera, which will be described below.
[0051]
When the power supply to the circuit shown in FIG. 4 is started, the microcomputer PRS starts executing from step (001) in FIG.
[0052]
In step (001), the state of the switch SW1, which is turned on when the release button is pressed in the first stage, is detected. If the switch SW1 is off, the process proceeds to step (002), and all flags and variables are initialized. Then, it is detected in step (001) that the switch SW1 is turned on again.
[0053]
On the other hand, if the switch SW1 is turned on in step (001), the process proceeds to step (003) to start the operation of the camera. Then, in this step (003), the "AF control" subroutine is executed. Here, accumulation and readout of image signals for focus detection, focus detection calculation, focus detection area selection, start of lens driving, and the like are performed.
[0054]
When the subroutine "AF control" is completed, the process proceeds to step (004), where an "AE control" subroutine for storing and reading an image signal for photometry, detecting the state of various switches, and displaying is executed. .
[0055]
When the subroutine "AE control" ends, the process returns to step (001) again, and repeats steps (003) and (004) until the switch SW1 is turned off.
[0056]
FIG. 6 is a flowchart of the "AF control" subroutine executed in step (003) of FIG.
[0057]
When this subroutine is called, first, in step (031), a "sensor drive" subroutine is executed. Here, accumulation and readout (A / D conversion) of an image signal are performed after resetting the sensor for the focus detection operation. In the following step (032), a "focus detection" subroutine for performing an actual focus detection calculation is performed. Then, in the next step (033), an "area selection" subroutine for determining a target area for focus adjustment is performed. Basically, automatic selection is performed by giving priority to near points in the area sensor.
[0058]
Then, in the next step (034), the "lens drive" subroutine is executed, that is, the lens is driven based on the defocus amount of the area determined in the above step (032). The “AF control” subroutine ends.
[0059]
FIG. 7 is a flowchart of the "sensor drive" subroutine executed in step (031) of FIG.
[0060]
When this subroutine is called, first, in step (311), the sensor is reset. Specifically, the reset operation is performed inside the ICC by simultaneously setting the control signals φV, φH, and φR to “H” for a certain period of time by the microcomputer PRS.
[0061]
In the following step (312), an accumulation start command is sent from the microcomputer PRS to start accumulation, and in the next step (313), the process waits until the accumulation is completed. When the accumulation is completed, in the next step (314), the control signals φV and φH are driven to sequentially read out the sensor outputs, A / D-converted by the microcomputer PRS, and stored in the RAM. At 315), the "sensor drive" subroutine is terminated.
[0062]
FIG. 8 is a flowchart of the “focus detection” subroutine executed in step (032) of FIG.
[0063]
When this subroutine is called, first, in step (321), it is determined whether or not the lens is currently stopped. If the lens is not stopped, it is not necessary to prepare for the photometric operation. The processing shifts to execute a "focus detection calculation" subroutine for performing a focus detection calculation using the image signal obtained in step (031) of FIG. Here, the operation is to obtain the defocus amount DEF while driving the lens.
[0064]
When the defocus amount DFF is obtained, the process directly proceeds from step (323) to the "lens drive" subroutine of step (034) in FIG.
[0065]
On the other hand, in step (321), if the lens is stopped, in other words, if the lens has been driven to the target position (focusing position), the process proceeds to step (324), where the next Start the accumulation operation. If this is a time of focusing, it is a preparation operation for the photometry operation. That is, as described later, when it is determined that the focus is achieved in the next step (326), the flow of the storage end detection in the "AE control" subroutine via step (327) [step (043) in FIG. 10]. This is to move to immediately.
[0066]
In the next step (325), a "focus detection calculation" subroutine for performing a focus detection calculation using the image signal obtained in step (031) in FIG. 6 is executed in the same manner as in step (322). In this focus detection calculation, even if the lens is currently stopped, the lens does not always reach the in-focus position, for example, when the previous lens drive amount was large. This focus detection result is used as an explanation of the next step (326) and subsequent steps, as described in the subsequent steps (326) and thereafter, the operation is shifted to the photometric operation also using the area sensor used at the time of focus detection, or the operation of performing the focusing operation again. Is used to determine whether to shift to.
[0067]
In the next step (326), it is determined whether or not the result of the focus detection calculation is in-focus. If the result is in-focus, the "AE control" of step (004) in FIG. The process proceeds to a subroutine (specifically, the process proceeds to step (043) in FIG. 10 described later).
[0068]
If the focus is out of focus in the step (326), the "focus detection" subroutine is terminated through the step (328), and in this case, the next lens drive [step (034) in FIG. In step [325], the lens is driven based on the focus detection result obtained in step (325). Note that, even after such a flow, the accumulation operation (for the photometric operation) has been started since the step (324) has been passed, but the following “AF control” subroutine [FIG. This accumulation operation is reset at step (311)], so that there is no problem.
[0069]
FIG. 9 is a flowchart of the "lens drive" subroutine executed in step (034) of FIG.
[0070]
When this subroutine is called, first, in step (341), communication with the lens is performed, and two data "S" and "PTH" are input.
[0071]
The lens coefficient “S” is “the coefficient of the moving amount of the focusing optical system versus the moving amount of the image plane” of the taking lens. That is, it represents the amount of image plane movement of the taking lens when the focus adjusting optical system of the taking lens is moved by a unit length in the optical axis direction. For example, in the case of a single lens of the whole extension type, since the entire photographing lens corresponds to the focus adjusting optical system, the movement of the focus adjusting optical system is equivalent to the image plane movement of the photographing lens, so "S = 1" In the case of a zoom lens, “S” changes depending on the position of the zoom optical system.
[0072]
On the other hand, “PTH” is a movement amount of the focus adjusting optical system LNS per one output pulse of the encoder ENCF interlocked with the movement of the optical system in the optical axis direction. In the following step (342), the detected defocus amount DEF in the selected focus detection area, the value obtained by converting the moving amount of the imaging optical system to be focused by S and PTH into the number of output pulses of the encoder, that is, a so-called lens The driving amount FP is obtained by the following equation.
[0073]
FP = DEF ・ S / PTH
In the following step (343), the FP obtained in the above step (342) is sent to the lens to instruct the drive of the focusing optical system, and in the next step (344), this "lens drive" subroutine ends. I do.
[0074]
FIG. 10 is a flowchart of the "AE control" subroutine executed in step (004) of FIG.
[0075]
When this subroutine is called, first, in step (041), it is determined whether the lens is stopped. If stopped, the process proceeds to the next step (042) to start accumulation for photometric operation, and in the subsequent step (043), waits for the end of accumulation.
[0076]
If it is determined in step (326) of FIG. 8 that the in-focus state has been reached, the accumulation has been started in step (324) of FIG. 8 as well, and the accumulation end is detected in this step (043). The process directly shifts from the "focus detection" subroutine.
[0077]
When the accumulation is completed, the sensor output is read in step (044). Then, in the next step (045), a “photometric calculation” subroutine for obtaining an exposure control value from the photometric result is performed. As the calculated value, an accumulated charge amount, an accumulation time, a read gain, and the like are used.
[0078]
In the following step (046), the state of various switches is detected. In the next step (047), focus detection, photometry and display according to the state of each switch are performed. In the following step (048), the "AE control" is performed. The subroutine ends.
[0079]
Note that when the lens is not stopped in step (041) (for example, when the lens is determined to be out of focus in step (326) in FIG. 8 and the lens is driven to the in-focus position in the next lens drive). Directly proceeds to step (048).
[0080]
Next, the “photometric calculation” subroutine executed in step (045) will be described.
[0081]
When photometry is performed by a storage-type photoelectric conversion element, the elements used for the calculation are the storage time, the read gain, and the sensor output value. Further, each value at the reference luminance is also required for conversion to the absolute luminance value.
[0082]
Reference luminance Ev value (E0  ), The accumulation time, readout gain, and sensor output0  , G0  , V0  And T, G, and V in E, the following relational expression holds.
[0083]
E = E0  + Log (T0  / T × G0  / G × V / V0  ) / Log2
Here, as a measure against so-called flicker, if T is 10 ms or more, there is almost no problem, and practically sufficient photometry can be performed.
[0084]
The setting read gain is 20, 40, 80, and 160 times, and the sensor output value is 0 to 255 in 8-bit A / D conversion.
[0085]
In step (045) of FIG. 10, the above equation is executed to determine the subject luminance Ev value E.
[0086]
Next, switching of the area division of the sensor output will be described.
[0087]
FIG. 11 is a diagram illustrating a pixel configuration of one of the two imaging screens of the area sensor 10.
[0088]
When used for focus detection, pixel area division and output area division are the same. In other words, the output of one pixel is treated as one unit of output, the focus adjustment operation is performed using a high-definition image signal, and the focus is adjusted accurately.
[0089]
On the other hand, when used for photometry, for example, as shown in FIG. 12, outputs are grouped (averaged) every several pixels (10 pixels in the figure) and handled as one unit output. This is because it is not necessary to directly handle the subdivided data as in the focus detection for the photometry, but rather it is affected by noise or the amount of calculation increases.
[0090]
When the area shown in FIG. 13 is selected by the area selection in the focus detection operation, as shown in FIG. 14, the center area (0) and its surroundings divided by six are also effective. . In this case, the average value of the pixel outputs in each area is used as the photometric output value, and the divided area is not limited to this shape and can be set freely.
[0091]
(Second embodiment)
In the first embodiment described above, the sensor output re-stored is used for the photometric calculation. However, in order to more actively reduce the time, it is also possible to use the output of the focused sensor for the photometric calculation.
[0092]
Hereinafter, changed portions of the first embodiment will be described.
[0093]
FIG. 15 is a flowchart of the “focus detection” subroutine corresponding to FIG. 8 of the first embodiment.
[0094]
The only change is that there is no accumulation start operation performed in step (324) of FIG. That is, in FIG. 15, the "focus detection calculation" subroutine is immediately performed in step (524), and the in-focus determination is performed in the next step (525). If the in-focus state is reached, the process immediately proceeds to the "AE control" subroutine in the same manner as in FIG.
[0095]
FIG. 16 is a flowchart of the “AE control” subroutine corresponding to FIG. 10 of the first embodiment.
[0096]
The change here is that the transition from step (526) in FIG. 15 to the “AE control” subroutine is immediately before the “photometry calculation” subroutine in step (063), and the step in FIG. The point that the operation from (042) to (044) from the start of the series of accumulation to reading of the sensor signal is the execution of the “sensor drive” subroutine in step (062).
[0097]
That is, when it is determined in FIG. 15 that focusing is performed, photometry is also performed using the sensor signal used for focus determination as it is, so that it is possible to immediately proceed to photometric calculation, and to perform steps (042) to (044) in FIG. The corresponding series of operations can be performed by executing the "sensor drive" subroutine as it is, and the flowchart is also very simple.
[0098]
According to the above embodiments, in order to minimize the photometric operation time when the lens is stopped immediately before the photographing (exposure) operation, it is determined whether or not the current lens position can be regarded as the in-focus position. If the accumulation operation for photometry is started before the start of the focus detection calculation to be performed (first embodiment), or if the result of the focus detection calculation after stopping the lens is in focus, Since the sensor output obtained at the time of focus detection is used as it is in the photometric information calculation (second embodiment), the delay of the photographing preparation operation due to the enhancement of the focus detection and photometric functions can be avoided, so that it is comfortable. Operability is maintained.
[0099]
On the other hand, the area division of the sensor output is used in the most subdivided manner at the time of focus detection, and is collectively used every several pixels at the time of photometry. As a result, a precise distance measurement operation and appropriate and rapid split photometry can be performed. In other words, the sensor output can be effectively used, and the detection area in the area can be fully utilized.
[0100]
(Modification)
Although the present invention has been described with reference to an example in which the present invention is applied to a TTL single-lens reflex camera, the present invention can also be applied to a camera that performs external distance measurement. Furthermore, the present invention is applicable to other devices.
[0101]
In each of the above embodiments, the use area of the sensor output used at the time of focus detection and the use area used at the time of photometry partially overlap, but the effective use area of the sensor output may be different in each. Good.
[0102]
【The invention's effect】
As described above, according to the present invention,A signal of the first area from the photoelectric conversion means is supplied to the focus detection means or the detection means, and a signal of a divided area in which the second area around the first area is divided into a plurality of parts is supplied to the photometric means. The focus detection means or the detection means detects the defocus amount or the distance measurement information based on each of the subdivided pixel data in the first area, and the photometry means detects the defocus amount or the distance measurement information for each of the areas. Photometric information is detected based on the average value.
[0106]
Therefore, focus detection operationOr ranging operationAnd appropriate and quick split photometry can be performed.
[Brief description of the drawings]
FIG. 1 is a perspective view showing a schematic configuration of a detection optical system according to a first embodiment of the present invention.
FIG. 2 is a perspective view showing a configuration when the detection optical system of FIG. 1 is applied to a camera.
FIG. 3 is a plan view showing the optical system of FIG. 2 as viewed from above the camera.
FIG. 4 is a block diagram illustrating a configuration of each unit of the camera in FIG. 2;
FIG. 5 is a flowchart showing a rough operation of the camera having the configuration shown in FIG. 4;
FIG. 6 is a flowchart showing an operation executed in step (004) of FIG. 5;
FIG. 7 is a flowchart showing an operation executed in step (031) of FIG.
FIG. 8 is a flowchart showing an operation executed in step (032) of FIG. 6;
FIG. 9 is a flowchart showing an operation executed in step (034) of FIG. 6;
FIG. 10 is a flowchart showing an operation performed in step (004) of FIG. 5;
11 is a diagram illustrating one pixel configuration of two imaging screens of the area sensor in FIG. 1;
12 is a diagram illustrating a photometric divided area when a focus detection area in FIG. 11 is selected.
FIG. 13 is a diagram illustrating an example of an area selected during a focus detection operation in the first embodiment of the present invention.
14 is a diagram illustrating a photometric divided area when a focus detection area in FIG. 13 is selected.
FIG. 15 is a flowchart showing an operation at the time of focus detection according to the second embodiment of the present invention.
FIG. 16 is a flowchart illustrating an operation during AE control according to the second embodiment of the present invention.
[Explanation of symbols]
Microcomputer provided in PRS camera
ICC focus detection and photometry sensor and drive circuit
LCM lens communication buffer circuit
LNS lens
Microcomputer provided in LPRS lens

Claims (3)

レンズを通過した対象物からの光束を受光し信号を出力する光電変換手段と、該光電変換手段の信号の出力から前記レンズのデフォーカス量を検出する焦点検出手段と、前記デフォーカス量に基づいて前記レンズの焦点調節光学系を駆動するレンズ駆動手段と、前記光電変換手段の信号の出力から測光情報を検出する測光手段とを備えた光学装置において、
前記光電変換手段からの第1の領域の信号を前記焦点検出手段へ供給するとともに前記測光手段に対しては前記第1の領域の周囲の第2の領域が複数に分割された分割領域の信号をも供給し、前記焦点検出手段は前記第1の領域内の細分化された各画素データに基づいて前記デフォーカス量を検出し、前記測光手段は前記各分割領域毎の平均値に基づいて前記測光情報を検出することを特徴とする光学装置。
Photoelectric conversion means for receiving a light beam from the object passing through the lens and outputting a signal; a focus detection means for detecting a defocus amount of the lens from an output of a signal of the photoelectric conversion means; An optical apparatus comprising: a lens driving unit that drives a focus adjustment optical system of the lens based on the light; and a photometric unit that detects photometric information from a signal output of the photoelectric conversion unit.
A signal of a first region from the photoelectric conversion unit is supplied to the focus detection unit, and a signal of a divided region in which a second region around the first region is divided into a plurality of portions for the photometric unit. The focus detection means detects the defocus amount based on each of the subdivided pixel data in the first area, and the photometric means based on an average value for each of the divided areas. An optical device for detecting the photometric information .
対象物からの視差を有する光束を受光し信号を出力する光電変換手段と、上記視差を電気的に演算し、レンズの焦点調節を行う為の測距情報を検出する検出手段と、該検出手段にて得られる測距情報に基づいて前記レンズの駆動を行うレンズ駆動手段と、前記光電変換手段の出力から測光情報を検出する測光手段とを備えた光学装置において、
前記光電変換手段からの第1の領域の信号を前記検出手段へ供給するとともに前記測光手段に対しては前記第1の領域の周囲の第2の領域が複数に分割された分割領域の信号も供給し、前記検出手段は前記第1の領域内の細分化された各画素データに基づいて前記測距情報を検出し、前記測光手段は前記各分割領域毎の平均値に基づいて前記測光情報を検出することを特徴とする光学装置。
Photoelectric conversion means for receiving a light beam having parallax from an object and outputting a signal, detecting means for electrically calculating the parallax and detecting distance measurement information for performing focus adjustment of a lens, and the detecting means An optical apparatus comprising: a lens driving unit that drives the lens based on the distance measurement information obtained in the step; and a photometry unit that detects photometry information from an output of the photoelectric conversion unit.
A signal of the first region from the photoelectric conversion unit is supplied to the detection unit, and a signal of a divided region obtained by dividing the second region around the first region into a plurality of regions is also supplied to the photometric unit. The detecting means detects the distance measurement information based on each of the subdivided pixel data in the first area, and the light measurement means detects the distance measurement information based on an average value for each of the divided areas. An optical device characterized by detecting
請求項1又は2記載の光学装置を具備したことを特徴とするカメラ。A camera comprising the optical device according to claim 1.
JP1931396A 1996-01-11 1996-01-11 Optical device and camera Expired - Fee Related JP3544052B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1931396A JP3544052B2 (en) 1996-01-11 1996-01-11 Optical device and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1931396A JP3544052B2 (en) 1996-01-11 1996-01-11 Optical device and camera

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003307119A Division JP4262034B2 (en) 2003-08-29 2003-08-29 Optical device and camera

Publications (2)

Publication Number Publication Date
JPH09197254A JPH09197254A (en) 1997-07-31
JP3544052B2 true JP3544052B2 (en) 2004-07-21

Family

ID=11995932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1931396A Expired - Fee Related JP3544052B2 (en) 1996-01-11 1996-01-11 Optical device and camera

Country Status (1)

Country Link
JP (1) JP3544052B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4882184B2 (en) * 2001-08-21 2012-02-22 株式会社ニコン Focus detection device

Also Published As

Publication number Publication date
JPH09197254A (en) 1997-07-31

Similar Documents

Publication Publication Date Title
JPS63246712A (en) Focus detector
JPH02254432A (en) Automatic focusing camera
US5485239A (en) Camera incorporating an auto-zoom function
US5604562A (en) Auto-zoom camera
US4845521A (en) Camera with automatic focusing apparatus
JPH1138313A (en) Optical device and camera
JP4560173B2 (en) Focus detection device
JP2000111791A (en) Auxiliary light controller for automatic focusing and automatic focusing camera
JPH05210039A (en) Zoom lens camera
JPH11337814A (en) Optical device
EP0438140B1 (en) Focus detecting device in a camera
JP3544052B2 (en) Optical device and camera
JP4208304B2 (en) Focus detection device, focus adjustment device, and camera
JP2004012493A (en) Focus detector
JP4262034B2 (en) Optical device and camera
JP3294636B2 (en) Auto focus camera
JP2000032323A (en) Electronic camera
JPH06313842A (en) Automatic focusing camera
JP3089312B2 (en) Focus adjustment device
JPH06138378A (en) Camera provided with focus detecting means and line-of-sight detecting means
JP2757396B2 (en) camera
JPH086184A (en) Photographing device
JPS63100429A (en) Autofocusing device
JP3248586B2 (en) Camera system and camera
JPH11211973A (en) Focusing device and camera

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040331

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090416

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090416

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100416

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110416

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140416

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees