JP4018217B2 - Focus adjustment device and signal processing device for focus adjustment - Google Patents

Focus adjustment device and signal processing device for focus adjustment Download PDF

Info

Publication number
JP4018217B2
JP4018217B2 JP35729897A JP35729897A JP4018217B2 JP 4018217 B2 JP4018217 B2 JP 4018217B2 JP 35729897 A JP35729897 A JP 35729897A JP 35729897 A JP35729897 A JP 35729897A JP 4018217 B2 JP4018217 B2 JP 4018217B2
Authority
JP
Japan
Prior art keywords
distance
distance measurement
point
screen
focus adjustment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP35729897A
Other languages
Japanese (ja)
Other versions
JPH11183783A (en
Inventor
敏治 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP35729897A priority Critical patent/JP4018217B2/en
Publication of JPH11183783A publication Critical patent/JPH11183783A/en
Application granted granted Critical
Publication of JP4018217B2 publication Critical patent/JP4018217B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、カメラ等の焦点調節装置及び焦点調節用信号処理装置に関するものである。
【0002】
【従来の技術】
近年、カメラ等に用いられる焦点調節装置は、撮影画面上の主被写体の位置に拘わらず常にその主被写体にピントを合わせることができるように、画面の複数個所に測距ポイントを備える、いわゆる、多点測距方式が主流となっている。
【0003】
この多点測距方式は、主に、画面の中央の測距ポイントの距離およびその周辺の複数の測距ポイントの距離(例えば左右2点)を測定し、各々の距離データを基に、どの測距ポイントに主被写体が位置するを予測判定し、それによって主被写体に対してピント合わせが行えるようにするものである。
【0004】
その予測基準のひとつとして、主被写体は一般に、背景より近距離にあるということから、最も近距離のデータが得られた測距ポイントを選択するものが、特公平5−43964等により提案されている。
【0005】
ところで、この多点測距方式は、複数の測距ポイントを全て測距するために、従来の画面の中央だけを測距ポイントとして測距するものに比べ測距時間が長くなる、すなわち、レリーズタイムラグ(レリーズスイッチを押してフィルム露光動作が始まるまでの遅れ)が大きくなるということがあげられ、その対策案として、一般に主被写体は、画面の中央に位置して撮影される場合が多いので、最初に画面中央を測距し、その測距データが背景の可能性の低い所定近距離範囲内にある場合には、他の測距ポイントの測距を行わず、優先的に画面中央の測距データを選択して焦点調節を行う、いわゆる、中央重点による時間短縮の方法も提案されている。
【0006】
【発明が解決しようとする課題】
しかし乍ら、上記中央重点での測距方式は、例えば、カメラで、人物が二人並んで画面中央付近に中距離背景等を入れて撮影しようとするような場合、中央付近の中距離背景にピントが合ってしまう可能性が高く、いわゆる、中抜けという問題が発生してしまう。
【0007】
つまり、カメラの被写体としては、人物が二人並んで撮影される機会が多く、画面中央の背景が風景等の遠距離ならば背景の可能性の高い距離ということで中央以外(例えば、左右)の測距ポイントを選び、主被写体である人物にピントが合う可能性が高いが、画面中央の背景が壁等の中距離である場合、背景と判断されずに中央の測距ポイントを選択し、その背景にピントが合ってしまうので、主被写体である人物がボケてしまうといった問題があった。
【0008】
本発明の目的は、目的とする対象物に対する合焦率を下げることなく、焦点調節に要する時間を短縮することのできる焦点調節装置及び焦点調節用信号処理装置を提供しようとするものである。
【0009】
【課題を解決するための手段】
上記目的を達成するために本発明は、視野の中で第1のポイントと当該第1のポイントよりも視野端にある複数のポイントで被測距物までの距離に対応する情報を検出する検出手段と、前記検出手段の検出結果に基づいて焦点調節を行う焦点調節手段と、前記視野端の複数のポイントのうち第2のポイントでの被測距物までの距離が前記第1のポイントでの被測距物までの距離よりも遠いことを検出した場合には、前記視野端の複数のポイントのうち前記第2のポイント以外のポイントでの検出を行わず、前記第1のポイントでの検出結果に基づいて焦点調節を行うよう制御する制御手段とを有する焦点調節装置とするものである。
【0011】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
【0012】
本発明の実施の形態では、IRED(赤外発光素子)を測定ポイントへ投射し、その反射光をPSD(半導体位置検出素子)により受光して測距する、いわゆる、アクティブ測距を用いるが、本発明はこの種のアクティブ測距に限定されるものではなく、パッシブ測距等、対象物に対する距離に関する情報が測定できるものであれば、どのようなものであっても良いことを予め明記しておく。
【0013】
(第1の実施の形態)
図1は、本発明の実施の形態に係るカメラの構成を示すブロック図である。図1において、114は、信号処理及び図1の各構成の制御を行うマイクロコンピュータ(以下マイコンと略する)、119〜121は、視野としての撮影画面の右寄り、中央、左寄りの各測距ポイントに向けて信号光を投射する投光手段であるところの右IRED、中央IRED、左IRED、122〜124は、IRED119〜121の各々を発光させるためのドライバ、115〜117は、IRED119〜121から投射された信号光の上記各測距ポイントに位置する対象物としての被写体からの反射光をそれぞれ受光すると共に受光位置に応じた信号を出力する受光手段であるところのPSDで構成される左受光センサ、中央受光センサ、右受光センサ、118は、受光センサ115〜117より出力されるそれぞれの受光信号を処理するための公知の処理回路、125は、カメラの撮影情報の取り込み(測光・測距等)を開始するためのレリーズ部材であるところのレリーズ釦の第1ストロークによりオンするSW1スイッチ、126は、SW1スイッチ125がオンされることによって取り込んだ撮影情報を基に、画像記録動作(シャッタ開閉等)を行うためのレリーズ釦の第2ストロークによりオンするSW2スイッチ、127は、マイコン114からの制御信号により不図示の撮影レンズを駆動し、焦点調節を行うためのレンズ駆動モータを含むレンズ駆動回路、128は、マイコン114からの制御信号に従ってシャッタ駆動アクチュエータ(不図示)等を制御するシャッタ駆動回路、129は、マイコン114からの制御信号に従ってフィルム給送を行うフィルム給送用モータを含む巻上げ駆動回路である。
【0014】
図4は図1に示した処理回路118の具体的構成を示した回路図の一例である。
【0015】
図4に示すように、本実施の形態の処理回路118内には、受光センサ115〜117の微少電流出力a(例えば遠距離側出力)およびb(例えば近距離側出力)を電圧に変換するための電流−電圧変換器A1およびA2、電流−電圧変換器A1およびA2の出力を増幅する反転増幅器A3およびA4、増幅器A3およびA4の出力を加算した出力を発生する加算増幅器A5、加算増幅器A5に対する入力を切り替えるためのアナログスイッチ32および33が含まれている。
【0016】
電流−電圧変換器A1およびA2は、それぞれ演算増幅器16および17(以下オペアンプと略する)と、帰還抵抗18および19とで構成され、オペアンプ16および17のそれぞれの出力端子には直流遮断用のコンデンサ20および21が接続されている。
【0017】
反転増幅器A3およびA4は、オペアンプ24および25と、帰還抵抗26および27と、倍率抵抗22および23とで構成され、オペアンプ24および25のそれぞれの出力端子には直流遮断用のコンデンサ28および29が接続されている。
【0018】
加算増幅器A5は、オペアンプ34と、帰還抵抗35と、倍率抵抗30および31とから成るとともに抵抗30および31とオペアンプ34の反転入力端子との間にはアナログスイッチ32および33が設けられており、アナログスイッチのオン/オフに応じて反転増幅器A3の出力のみをオペアンプ34に導入させるか或いは両増幅器A3およびA4の両出力をオペアンプに導入するかを自動的に選択する。
【0019】
すなわち、アナログスイッチ33がオフの時には増幅器A3の出力のみが増幅器A5に導入されて増幅器A5の出力39としてaが生じ、また、アナログスイッチ33がオンである時には増幅器A5には増幅器A3およびA4の両出力が導入されるので増幅器A5の出力39は(a+b)となる。
【0020】
オペアンプ40は、抵抗41、42と共に増幅度『−1』の反転増幅器を構成する。
【0021】
オペアンプ47は、積分用コンデンサ48と共に積分器を構成している。また、該積分用コンデンサ48にはリセット用のアナログスイッチ49を並列に接続している。
【0022】
また、オペアンプ47の出力を正の入力端子、基準電圧Vcを負の入力端子に接続されたコンパレータ50は測距動作終了信号(測距情報信号を兼ねる)をマイコン114に出力する。
【0023】
なお、抵抗43、44を介してオペアンプ47に接続されているアナログスイッチ45、46は、IRED119〜121の点滅周期と同期してオン/オフし、信号光を同期検波するためのものである。
【0024】
図5は、図4の処理回路118の測距動作時の出力波形を示したものである。
【0025】
マイコン114により、ドライバ122〜124のうちのいずれかを制御し、IPED119〜121のいずれかの駆動(IRED点滅動作)を開始すると同時に、アナログスイッチ32がオン・アナログスイッチ33がオフになるように制御することにより、増幅器A5は a〔例えば遠距離側出力〕を出力する。
【0026】
この出力とオペアンプ40による反転出力に対するアナログスイッチ45、46の周波数検波作用により、積分用コンデンサ48は図5に示すようにマイコン114によって制御されるT1期間(マイコン114によって制御される所定時間)下降積分されることになる。
【0027】
T1期間が終了すると、アナログスイッチ32・33を共にオンになるように制御して、増幅器A5は(a+b)〔例えば遠距離側出力+近距離側出力〕を出力する。
【0028】
この出力とオペアンプ40による反転出力に対するアナログスイッチ45、46の周波数検波作用により、積分用コンデンサ48は図5に示すように、上昇積分されていくことになる。
【0029】
この積分出力が初期値(基準)であるVcレベルに達すると、コンパレータ50が“Low”レベルから“Hi”レベルに反転した信号をマイコン114へ向けて出力する。
【0030】
マイコン114は、下降積分時間 T1と上昇積分時間tに基づいて、測距情報を演算する。
【0031】
図2は、マイコン114の制御フローチャートであり、SW1スイッチ125がオンされることにより、以下の動作を開始する。
【0032】
ステップ1は、SW1スイッチ125オン後に不図示の測光回路により測光動作を行わせ、ステップ2で測距動作を行う。測距動作の詳細は図3の説明として後述する。ステップ3は、SW2スイッチ 126がオンされたか否かを検知し、オンされていればステップ5へ、オンされてなければステップ4へ移行する。ステップ4は、SW1スイッチ125がオンされているか否かを検知し、オンされていれば再びステップ3へ、オンされていなければ待機状態に進む。ステップ5は、ステップ2の測距結果に対応してレンズ駆動回路127にレンズ駆動を行わせ、ステップ6では、ステップ1での測光結果に基づいてシャッター駆動回路128によるシャッター駆動アクチュエータの開閉(露光動作)を行わせ、ステップ7では、次回のレンズ駆動に備えるため、レンズ駆動回路127にレンズ初期位置決め駆動を行わせる。ステップ8では、写真撮影後のフィルムのコマ送りであるところの巻上げ動作を巻上げ回路129に行わせ、待機状態にはいる。
【0033】
図3は図2のステップ2の測距動作の詳細を示すフローチャートである。
【0034】
ステップ11は、中央IRED120をドライバ123によって点灯させ、中央IRED120の信号光が画面中央の被測距物により反射した反射光を中央受光センサ116で受光して、中央受光センサ116の出力を処理回路118に取り込み、第一の測距ポイントである画面中央の被測距物までの距離Dcを求める。(本ステップに要する時間は数十mSである。)
【0035】
ステップ12は、ステップ11で測定した画面中央の測距結果が主被写体の可能性の高い所定距離範囲内であるか否か(例えば、2m<Dc<4m)を判定し、所定距離範囲内であればステップ13へ、所定距離範囲外であればステップ19へ移行する。
【0036】
ステップ13は、右IRED119をドライバ122によって点灯させ、IRED119の信号光が画面右寄りの被測距物により反射した反射光を右受光センサ117で受光して、右受光センサ117の出力を処理回路118に取り込み、第二の測距ポイントである画面右寄り測距ポイントの被測距物までの距離Drを求める。(本ステップに要する時間は数十mSである。)
【0037】
ステップ14は、画面中央測距ポイントの測距結果Dcと画面右寄り測距ポイントの測距結果Drを比較し、Drの方が近い場合にはステップ16へ、DrがDc以遠の場合はステップ15に移行する。
【0038】
ステップ15は、最終測距データとして画面中央測距ポイントの測距結果Dcを選択して、測距シーケンスを終了する。これは、ステップ12で画面中央の測距結果が主被写体の可能性の高い所定距離範囲内であると判定され、且つ、画面右寄りの測距結果がそれよりも遠いことから前述した中抜けの場合でもないと予測できるので、この画面中央測距ポイントの測距結果Dcを主被写体の測距結果として選択する。
【0039】
ステップ16は、左IRED121をドライバ124によって点灯させ、IRED121の信号光が画面左寄りの被測距物により反射した反射光を左受光センサ115で受光して、左受光センサ115の出力を処理回路118に取り込み、第三の測距ポイントである画面左寄り測距ポイントの被測距物までの距離Dlを求める。(本ステップに要する時間は数十mSである。)
【0040】
ステップ17は、画面右寄り測距ポイントの測距結果Drと画面左寄り測距ポイントの測距結果Dlを比較し、Dr=Dlならばステップ18へ、Dr=Dlでない場合はステップ15に移行する。
【0041】
ステップ18は、最終測距データとして、画面右寄り測距ポイントの測距結果Drまたは画面左寄り測距ポイントの測距結果Dlを選択して(どちらを選択しても測距結果は同じであるので)、測距シーケンスを終了する。これは、前述した人物が二人並んで画面中央付近に中距離背景が入っている場合と考えられるので、並んでいる人物をとらえている画面右寄り測距ポイントの測距結果Drまたは画面左寄り測距ポイントの測距結果Dlを主被写体の測距結果として選択する。
【0042】
また、ステップ17でDr=Dlでない場合にステップ15に移行するのは、人物が二人並んで画面中央付近に中距離背景が入っている場合ではないと考えられるので、ステップ12で画面中央の測距結果が主被写体の可能性の高い所定距離範囲内であると判定されていることから、ステップ15に移行してこの画面中央測距ポイントの測距結果Dcを主被写体の測距結果として選択する。
【0043】
ステップ19は、ステップ13と同様に、右IRED119をドライバ122によって点灯させ、IRED119の信号光が画面右寄りの被測距物により反射した反射光を右受光センサ117で受光して、右受光センサ117の出力を処理回路118に取り込み、画面右寄り測距ポイントの被測距物までの距離Drを求める。(本ステップに要する時間は数十mSである。)
【0044】
ステップ20はステップ16と同様に、左IRED121をドライバ124によって点灯させ、IRED121の信号光が画面左寄りの被測距物に反射した反射光を左受光センサ115で受光して、左受光センサ115の出力を処理回路118に取り込み、画面左寄り測距ポイントの被測距物までの距離Dlを求める。(本ステップに要する時間は数十mSである。)
【0045】
ステップ21は最終測距データとして、画面中央測距ポイントの測距結果Dc、画面右寄り測距ポイントの測距結果Dr、画面左寄り測距ポイントの測距結果Dlの中から最も近いと判定されたものを選択して、測距シーケンスを終了する。これは、これまでの判断基準に該当しないので、主被写体は相対的に近距離側であるということから、最も近いと判定された測距ポイントの測距結果を主被写体の測距結果として選択する。
【0046】
上述のように一般のステップ(数百μS)と比較してかなりの時間(数十mS)を要する測距シーケンスを、条件に応じて(ステップ14で画面右寄り測距ポイントの測距結果が画面中央測距ポイントの測距結果より遠いと判定された場合)行わなくすることで、測距性能をおとすことなく、測距動作の時間短縮ができる。
【0047】
(第2の実施の形態)
前記第1の実施の形態で説明したとおり、測距処理回路として、図4に示すような積分回路が用いられることが一般的であるが、受光手段からの入力にはノイズ等も含まれるため、受光量が低くなる遠距離の測距物に対しても充分なS/N比を確保出来るよう、下降積分時間は充分に長い所定時間を固定値として設定している。
【0048】
本実施の形態は、第1の実施の形態をふまえて、さらに測距時間を短縮するためのものである。
【0049】
本実施の形態の構成および基本の制御フローチャート(図2)は第1の実施の形態と同様であるため、説明を省略する。また、第1の実施の形態と同様の重複した説明についても省略する。
【0050】
図6は、図2のステップ2の測距動作の詳細を示すフローチャートである。
【0051】
ステップ31は、第一の測距ポイントでの下降積分時間を T1 (例えば20mS)に設定し、演算用データ群を積分時間 T1に対応したデータ群 Data1として設定する。
【0052】
ステップ32は、中央IRED120をドライバ123によって点灯させ、IRED120の信号光が画面中央の被測距物により反射した反射光を中央受光センサ116で受光して、中央受光センサ116の出力を処理回路118に(下降積分時間 T1にて)取り込み、第一の測距ポイントである画面中央測距ポイントの被測距物までの距離Dcを(データ群Data1から)求める。(例えば、本ステップに要する時間は T1+上昇積分時間=30mS程度である。)
【0053】
ステップ32は、ステップ32で測定した画面中央測距ポイントの測距結果が所定距離範囲内であるか否か(例えば、Dc<4m)を判定し、所定距離範囲内であればステップ34へ、所定距離範囲外であればステップ41へ移行する。
【0054】
ステップ34は、第二の測距ポイント以降の積分時間をT2(例えば10mS)に設定し、演算用データ群を積分時間 T2に対応したデータ群 Data2として設定する。なお、下降積分時間 T1、T2の関係は 『 T1 > T2 』 である。
【0055】
ステップ35は右IRED119をドライバ122によって点灯させ、IRED119の信号光が画面右寄りの被測距物により反射した反射光を右受光センサ117で受光して、右受光センサ117の出力を処理回路118に(下降積分時間 T2にて)取り込み、第二の測距ポイントである画面右寄り測距ポイントの被測距物までの距離Drを(データ群Data2から)求める。(例えば、本ステップに要する時間は T2+上昇積分時間=20mS程度である。)
【0056】
ステップ36は、画面中央測距ポイントの測距結果Dcと画面右寄り測距ポイントの測距結果Drを比較し、Drの方が近い場合にはステップ38へ、DrがDc以遠の場合はステップ37に移行する。
【0057】
ステップ37は、最終測距データとして画面中央測距ポイントの測距結果Dcを選択して、測距シーケンスを終了する。
【0058】
ステップ38は、左IRED121をドライバ124によって点灯させ、IRED121の信号光が画面左寄りの被測距物により反射した反射光を左受光センサ115で受光して、左受光センサ115の出力を処理回路118に(下降積分時間 T2にて)取り込み、第三の測距ポイントである画面左寄り測距ポイントの被測距物までの距離Dlを(データ群Data2から)求める。(例えば、本ステップに要する時間は T2+上昇積分時間=20mS程度である。)
【0059】
ステップ39は、画面右寄り測距ポイントの測距結果Drと画面左寄り測距ポイントの測距結果Dlを比較し、Dr=Dlならばステップ40へ、Dr=Dlでない場合はステップ37に移行する。
【0060】
ステップ40は、最終測距データとして、画面右寄り測距ポイントの測距結果Drまたは画面左寄り測距ポイントの測距結果Dlを選択して、測距シーケンスを終了する。
【0061】
ステップ41は、右IRED119をドライバ122によって点灯させ、IRED119の信号光が画面右寄りの被測距物により反射した反射光を右受光センサ117で受光して、右受光センサ117の出力を処理回路118に(下降積分時間 T1にて)取り込み、画面右寄りの測距ポイントの被測距物までの距離Drを(データ群Data1から)求める。(例えば、本ステップに要する時間はT1+上昇積分時間=30mS程度である。)
【0062】
ステップ42は左IRED121をドライバ124によって点灯させ、IRED121の信号光が画面左寄りの被測距物により反射した反射光を左受光センサ115で受光して、左受光センサ115の出力を処理回路118に(下降積分時間 T1にて)取り込み、画面左寄り測距ポイントの被測距物までの距離Dl(データ群Data1から)を求める。(例えば、本ステップに要する時間は T1+上昇積分時間=30mS程度である。)
【0063】
ステップ43は、最終測距データとして、画面中央測距ポイントの測距結果Dc、画面右寄り測距ポイントの測距結果Dr、画面左寄り測距ポイントの測距結果Dlの中から最も近いと判定されたものを選択して、測距シーケンスを終了する。
【0064】
以上のように、第一の測距ポイントが所定距離範囲内の場合、第二の測距ポイント以降は、第一の測距ポイントよりも近距離でないと使用しないので、使用する場合を考えたとしても、近距離であるから上述のように積分時間を短く(積分量を少なく)しても第二の測距ポイント以降の信号光の反射光は充分に大きく、受光信号がノイズに埋もれることはなく(信頼性が高く)、測距性能をおとすことなく、さらなる測距動作の時間短縮ができる。
【0065】
なお、本実施の形態では変更する時間は下降積分時間で、且つ、積分時間の違いをデータ群を切り替えて距離演算の対応(補正)を行うように記載しているが、本発明はそれに限定されるものではなく、回路構成により、例えば上昇積分時間を変更したり、データ群を備えず制御時間等の情報を演算のみで求める方法でも何ら問題とするところではない。
【0066】
(発明と実施の形態の対応)
以上の実施の形態において、左受光センサ・中央受光センサ・右受光センサ115〜117、処理回路118、右IRED・中央IRED・左IRED119〜121、ドライバ122〜124が本発明の検出手段に、レンズ駆動回路127が本発明の焦点調節手段に、マイコン114が本発明の制御手段、又は、信号処理手段に、オペアンプ47、積分用コンデンサ48が本発明の積分手段に、それぞれ相当する。
【0067】
以上が実施の形態の各構成と本発明の各構成の対応関係であるが、本発明は、これら実施の形態の構成に限られるものではなく、請求項で示した機能、または、実施の形態の構成が持つ機能が達成できる構成であればどのようなものであっても適用できるものである。
【0068】
例えば、以上の実施の形態では、画面の中央の測距ポイントを測距してから、画面の周辺の一方の測距ポイントを測距して、これらを比較するようにしているが、これらの測距順序は逆にしても本発明は適用できるものである。
【0069】
また、以上の実施の形態では、画面の右寄り測距ポイントを左寄り測距ポイントより先に測距するようなシーケンスになっているが、これは逆であっても、更には、画面の測距ポイントは、2個所以上であれば何個所であっても本発明は適用できるものである。
【0070】
また、本発明は、測距ポイント間を比較する距離に関する情報は、絶対距離でなくとも、デフォーカス情報等、遠近が比較できれば、どのような距離に関する情報であっても適用できるものである。
【0071】
また、本発明は、測距ポイント間を比較する距離に関する情報とは異なる情報、更には、測距ポイント間を比較する距離に関する情報とは異なる検出系で検出された情報等によって焦点調節を行うようにしてもよい。尚、本発明でいう距離に関する情報とは、デフォーカス情報を含むものである。
【0072】
本発明における視野とは、カメラにおいては、撮影画面であるが、他の光学機器であれば、その光学機器が持つ視野のことであり、また、視野の中央個所及び周辺個所とは、視野に対する相対位置であり、厳密なものではない。従って、実施の形態では、周辺測距ポイントを撮影画面の右寄りと左寄りとしているが、これは、右斜め上或いは下と左斜め上或いは下といったように、中央個所に対し種種の異なる方向の周辺個所を必要に応じて決められるものである。
【0073】
また、本発明における焦点調節とは、自動的に行われるものに限られるものではなく、使用者が表示を見てマニュアルによって行われるようなものも含むものである。
【0074】
また、以上の実施の形態においては、複数の測距ポイントから一つの測距ポイントを選択してそれに対して焦点調節を行うようにしているが、本発明は、単純に一つの測距ポイントを選択するのではなく、他の測距ポイントも含め、重み付けにより焦点調節を行う等、要するに選択される測距ポイントを優先するものであれば適用できるものである。
【0075】
また、本発明において、比較値の基準は、必要に応じて決められる幅を持ったものである。
【0076】
また、以上の実施の形態のソフト構成とハード構成は、適宜置き換えることができるものである。
【0077】
また、本発明は、以上の各実施の形態または、それら技術要素を必要に応じて組み合わせるようにしてもよい。
【0078】
また、本発明は、クレームまたは実施の形態の構成の全体若しくは一部が、一つの装置を形成するようなものであっても、他の装置と結合するようなものであっても、装置を構成する要素となるようなものであってもよい。
【0079】
また、本発明は、一眼レフカメラ、レンズシャッタカメラ、ビデオカメラ等種々の形態のカメラ、更にはカメラ以外の光学機器やその他の装置、更にはそれらカメラや光学機器やその他の装置に適用される装置又は、これらを構成する要素に対しても適用できるものである。
【0080】
【発明の効果】
以上説明したように、本発明によれば、目的とする対象物に対する合焦率を下げることなく、焦点調節に要する時間を短縮することのできる焦点調節装置及び焦点調節用信号処理装置を提供できるものである。
【図面の簡単な説明】
【図1】本発明の実施の形態に係るカメラの構成を示すブロック図
【図2】図1のマイコンのメインフローチャート
【図3】図1のマイコンの測距動作のフローチャート
【図4】図1の処理回路の具体的構成図
【図5】図1の焦点調節装置の積分出力波形図
【図6】本発明の第2の実施の形態に係る図1のマイコンの測距動作の制御フローチャート
【符号の説明】
114 マイコン
115〜117 センサ
118 処理回路
119〜121 IRED
122〜124 IREDドライバ
A1、A2 電流−電圧変換器
A3、A4 反転増幅器
A5 加算増幅器
40、47 オペアンプ
48 積分用コンデンサ
45、46 アナログスイッチ
50 コンパレータ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a focus adjustment device such as a camera and a signal processing device for focus adjustment.
[0002]
[Prior art]
In recent years, a focus adjustment device used for a camera or the like is provided with distance measuring points at a plurality of locations on a screen so that the main subject can always be focused regardless of the position of the main subject on the shooting screen. A multipoint ranging method has become mainstream.
[0003]
This multi-point distance measurement method mainly measures the distance of the distance measurement point in the center of the screen and the distance of a plurality of distance measurement points around it (for example, two points on the left and right), and based on each distance data, It predicts and determines whether the main subject is located at the distance measuring point, thereby enabling focusing on the main subject.
[0004]
As one of the prediction criteria, since the main subject is generally closer than the background, a method for selecting a distance measuring point at which the closest distance data is obtained is proposed by Japanese Patent Publication No. 5-43964. Yes.
[0005]
By the way, this multi-point distance measurement method requires a long distance measurement time compared to a conventional method of measuring only a plurality of distance measurement points using only the center of the screen as a distance measurement point. The time lag (the delay until the film exposure operation starts after the release switch is pressed) is increased, and as a countermeasure, the main subject is usually located at the center of the screen. If you measure the center of the screen and the distance measurement data is within the specified short distance range with low possibility of background, the distance measurement of the center of the screen is preferentially performed without measuring the distance of other distance measuring points. A so-called center-weighted method for reducing time by selecting data and performing focus adjustment has also been proposed.
[0006]
[Problems to be solved by the invention]
However, the above center-weighted distance measuring method is, for example, when a camera is trying to shoot with a middle distance background etc. near the center of the screen with two people lined up side by side. There is a high possibility that the camera will be in focus, and a so-called hollow problem will occur.
[0007]
In other words, as a camera subject, there are many occasions where two people are photographed side by side, and if the background in the center of the screen is a long distance such as a landscape, it is a distance that is likely to be a background. It is highly likely that the person who is the main subject will be in focus, but if the background at the center of the screen is a medium distance such as a wall, the center distance measurement point is selected without being judged as the background. Because the background is in focus, the person who is the main subject is out of focus.
[0008]
An object of the present invention is to provide a focus adjustment device and a focus adjustment signal processing device capable of shortening the time required for focus adjustment without lowering the focusing rate with respect to the target object.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides: Corresponds to the distance to the object to be measured at the first point in the field of view and at a plurality of points closer to the field of view than the first point. Detection means for detecting information, focus adjustment means for performing focus adjustment based on a detection result of the detection means, When it is detected that the distance to the object to be measured at the second point among the plurality of points at the edge of the field of view is longer than the distance to the object to be measured at the first point, Control is performed so that focus adjustment is performed based on the detection result at the first point without performing detection at a point other than the second point among the plurality of end points. And a focusing device having a control means.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0012]
In the embodiment of the present invention, IRD (infrared light-emitting element) is projected onto a measurement point, and the reflected light is received by a PSD (semiconductor position detection element) to measure the distance, so-called active distance measurement is used. The present invention is not limited to this type of active distance measurement, but may be any object as long as it can measure information about the distance to the object such as passive distance measurement. Keep it.
[0013]
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a camera according to an embodiment of the present invention. In FIG. 1, reference numeral 114 denotes a microcomputer (hereinafter abbreviated as a microcomputer) that performs signal processing and control of each component in FIG. 1, and reference numerals 119 to 121 denote distance measurement points on the right side, center, and left side of the shooting screen as a field of view. Right IRED, central IRED, left IRED, 122 to 124 are light projecting means for projecting signal light toward the IRED 119 to 121, and drivers for causing each of the IREDs 119 to 121 to emit light, and 115 to 117 are IREDs 119 to 121. Left light reception composed of PSD as light receiving means for receiving reflected light from a subject as an object located at each distance measuring point of the projected signal light and outputting a signal corresponding to the light receiving position. The sensor, the center light receiving sensor, and the right light receiving sensor 118 are light receiving signals output from the light receiving sensors 115 to 117, respectively. A known processing circuit 125 for processing is a SW1 switch 126 that is turned on by a first stroke of a release button, which is a release member for starting capturing of camera photographing information (photometry, distance measurement, etc.), 126 The SW2 switch 127, which is turned on by the second stroke of the release button for performing an image recording operation (shutter opening / closing, etc.) based on the photographing information captured when the SW1 switch 125 is turned on, is controlled by the microcomputer 114. A lens driving circuit including a lens driving motor for driving a photographing lens (not shown) by a signal and performing focus adjustment, and 128 is a shutter driving circuit for controlling a shutter driving actuator (not shown) and the like according to a control signal from the microcomputer 114 129 performs film feeding in accordance with a control signal from the microcomputer 114. A winding driving circuit including Irumu transport motor.
[0014]
FIG. 4 is an example of a circuit diagram showing a specific configuration of the processing circuit 118 shown in FIG.
[0015]
As shown in FIG. 4, in the processing circuit 118 of the present embodiment, the minute current outputs a (for example, the long distance side output) and b (for example, the short distance side output) of the light receiving sensors 115 to 117 are converted into voltages. Current-voltage converters A1 and A2, inverting amplifiers A3 and A4 for amplifying the outputs of current-voltage converters A1 and A2, a summing amplifier A5 for adding outputs of amplifiers A3 and A4, and a summing amplifier A5 Analog switches 32 and 33 for switching the input to are included.
[0016]
The current-voltage converters A1 and A2 are composed of operational amplifiers 16 and 17 (hereinafter abbreviated as operational amplifiers) and feedback resistors 18 and 19, respectively. The output terminals of the operational amplifiers 16 and 17 are for DC blocking. Capacitors 20 and 21 are connected.
[0017]
The inverting amplifiers A3 and A4 are composed of operational amplifiers 24 and 25, feedback resistors 26 and 27, and magnification resistors 22 and 23. DC operational capacitors 28 and 29 are connected to output terminals of the operational amplifiers 24 and 25, respectively. It is connected.
[0018]
The summing amplifier A5 includes an operational amplifier 34, a feedback resistor 35, and magnification resistors 30 and 31, and analog switches 32 and 33 are provided between the resistors 30 and 31 and the inverting input terminal of the operational amplifier 34. It is automatically selected whether only the output of the inverting amplifier A3 is introduced into the operational amplifier 34 or both outputs of the amplifiers A3 and A4 are introduced into the operational amplifier according to the on / off state of the analog switch.
[0019]
That is, when the analog switch 33 is off, only the output of the amplifier A3 is introduced into the amplifier A5 to generate a as an output 39 of the amplifier A5. When the analog switch 33 is on, the amplifier A5 has the amplifiers A3 and A4. Since both outputs are introduced, the output 39 of the amplifier A5 becomes (a + b).
[0020]
The operational amplifier 40 constitutes an inverting amplifier having an amplification factor “−1” together with the resistors 41 and 42.
[0021]
The operational amplifier 47 constitutes an integrator together with the integrating capacitor 48. Further, a reset analog switch 49 is connected in parallel to the integrating capacitor 48.
[0022]
Further, the comparator 50 connected to the output of the operational amplifier 47 at the positive input terminal and the reference voltage Vc to the negative input terminal outputs a ranging operation end signal (also serving as a ranging information signal) to the microcomputer 114.
[0023]
The analog switches 45 and 46 connected to the operational amplifier 47 via the resistors 43 and 44 are for turning on / off in synchronization with the blinking cycle of the IREDs 119 to 121 and for synchronously detecting the signal light.
[0024]
FIG. 5 shows an output waveform during the distance measuring operation of the processing circuit 118 of FIG.
[0025]
The microcomputer 114 controls any one of the drivers 122 to 124 and starts driving any one of the IPEDs 119 to 121 (IRED blinking operation). At the same time, the analog switch 32 is turned on and the analog switch 33 is turned off. By controlling, the amplifier A5 outputs a [for example, long-distance side output].
[0026]
Due to the frequency detection action of the analog switches 45 and 46 with respect to this output and the inverted output of the operational amplifier 40, the integrating capacitor 48 is lowered for a T1 period (a predetermined time controlled by the microcomputer 114) controlled by the microcomputer 114 as shown in FIG. Will be integrated.
[0027]
When the T1 period ends, the analog switches 32 and 33 are controlled to be turned on, and the amplifier A5 outputs (a + b) [for example, long-distance side output + short-distance side output].
[0028]
Due to the frequency detection action of the analog switches 45 and 46 on this output and the inverted output of the operational amplifier 40, the integrating capacitor 48 is integrated up as shown in FIG.
[0029]
When the integrated output reaches the initial value (reference) Vc level, the comparator 50 outputs a signal inverted from the “Low” level to the “Hi” level to the microcomputer 114.
[0030]
The microcomputer 114 calculates distance measurement information based on the descending integration time T1 and the ascending integration time t.
[0031]
FIG. 2 is a control flowchart of the microcomputer 114. When the SW1 switch 125 is turned on, the following operation is started.
[0032]
In step 1, after the SW1 switch 125 is turned on, the photometry operation is performed by a photometry circuit (not shown), and in step 2, the distance measurement operation is performed. Details of the distance measuring operation will be described later with reference to FIG. In step 3, it is detected whether or not the SW2 switch 126 is turned on. If it is turned on, the process proceeds to step 5, and if not, the process proceeds to step 4. In step 4, it is detected whether or not the SW1 switch 125 is turned on. If it is turned on, the process proceeds to step 3 again. If not, the process proceeds to a standby state. In step 5, the lens driving circuit 127 performs lens driving corresponding to the distance measurement result in step 2, and in step 6, the shutter driving actuator 128 opens and closes (exposure) the shutter driving circuit 128 based on the photometry result in step 1. In step 7, in order to prepare for the next lens driving, the lens driving circuit 127 performs the lens initial positioning driving. In step 8, the winding circuit 129 performs the winding operation, which is frame advance of the film after taking a picture, and enters a standby state.
[0033]
FIG. 3 is a flowchart showing details of the distance measuring operation in step 2 of FIG.
[0034]
In step 11, the central IRED 120 is turned on by the driver 123, and the central light receiving sensor 116 receives the reflected light reflected from the object to be measured at the center of the screen by the central light receiving sensor 116. The distance Dc to the object to be measured at the center of the screen, which is the first distance measuring point, is obtained. (The time required for this step is several tens of ms.)
[0035]
In step 12, it is determined whether or not the distance measurement result at the center of the screen measured in step 11 is within a predetermined distance range where the possibility of the main subject is high (for example, 2m <Dc <4m). If there is, the process proceeds to Step 13, and if it is outside the predetermined distance range, the process proceeds to Step 19.
[0036]
In step 13, the right IRED 119 is turned on by the driver 122, and the right light sensor 117 receives the reflected light reflected from the distance measuring object on the right side of the screen, and the output of the right light sensor 117 is processed by the processing circuit 118. The distance Dr to the object to be measured of the distance measuring point on the right side of the screen, which is the second distance measuring point, is obtained. (The time required for this step is several tens of ms.)
[0037]
Step 14 compares the distance measurement result Dc of the screen center distance measurement point with the distance measurement result Dr of the distance measurement point on the right side of the screen. If Dr is closer, the process proceeds to step 16; Migrate to
[0038]
Step 15 selects the distance measurement result Dc at the center distance measurement point as the final distance measurement data, and the distance measurement sequence is completed. This is because, in step 12, the distance measurement result at the center of the screen is determined to be within a predetermined distance range where the possibility of the main subject is high, and the distance measurement result on the right side of the screen is farther than that. Since it can be predicted that this is not the case, the distance measurement result Dc at the center distance measurement point on the screen is selected as the distance measurement result of the main subject.
[0039]
In step 16, the left IRED 121 is turned on by the driver 124, the reflected light reflected by the distance measuring object on the left side of the screen is received by the left light receiving sensor 115, and the output of the left light receiving sensor 115 is processed by the processing circuit 118. The distance Dl to the object to be measured of the distance measuring point on the left side of the screen, which is the third distance measuring point, is obtained. (The time required for this step is several tens of ms.)
[0040]
In step 17, the distance measurement result Dr at the right-side distance measuring point is compared with the distance measurement result D1 at the distance-left distance measuring point. If Dr = Dl, the process proceeds to step 18, and if Dr = Dl, the process proceeds to step 15.
[0041]
Step 18 selects the distance measurement result Dr at the right-side distance measurement point or the distance measurement result D1 at the distance-left distance measurement point as the final distance measurement data (the distance measurement result is the same regardless of which one is selected). ), And the distance measuring sequence ends. This is considered to be the case where two persons are lined up and the middle distance background is in the vicinity of the center of the screen. Therefore, the distance measurement result Dr at the right-side distance measurement point or the left-side measurement of the screen capturing the persons lined up. The distance measurement result Dl of the distance point is selected as the distance measurement result of the main subject.
[0042]
Further, if Dr = Dl is not satisfied in Step 17, it is considered that the reason why the process moves to Step 15 is not a case where two people are lined up and a middle distance background is present near the center of the screen. Since it is determined that the distance measurement result is within the predetermined distance range where the main subject is highly likely, the process proceeds to step 15 and the distance measurement result Dc of the center distance measurement point on the screen is used as the distance measurement result of the main subject. select.
[0043]
In step 19, as in step 13, the right IRED 119 is turned on by the driver 122, and the right light receiving sensor 117 receives the reflected light reflected by the distance measuring object on the right side of the screen from the signal light of the IRED 119. Is obtained in the processing circuit 118, and the distance Dr to the object to be measured at the right distance measuring point on the screen is obtained. (The time required for this step is several tens of ms.)
[0044]
In step 20, similarly to step 16, the left IRED 121 is turned on by the driver 124, and the reflected light reflected from the distance measuring object on the left side of the screen is received by the left light receiving sensor 115. The output is taken into the processing circuit 118, and the distance Dl to the object to be measured at the distance measuring point on the left side of the screen is obtained. (The time required for this step is several tens of ms.)
[0045]
Step 21 is determined as the final distance measurement data that is closest to the distance measurement result Dc of the center distance measurement point on the screen, the distance measurement result Dr of the distance measurement point on the right side of the screen, and the distance measurement result D1 of the distance measurement point on the left side of the screen. Select one and end the ranging sequence. Since this does not correspond to the judgment criteria so far, the main subject is relatively close, so the distance measurement result determined to be the closest is selected as the distance measurement result of the main subject. To do.
[0046]
As described above, a distance measurement sequence that requires a considerable amount of time (several tens of milliseconds) compared to a general step (several hundreds μs) is displayed on the screen according to the conditions (in step 14, the distance measurement result of the distance measurement point on the right side of the screen If it is determined that it is farther than the distance measurement result of the center distance measurement point), the distance measurement operation time can be shortened without reducing the distance measurement performance.
[0047]
(Second Embodiment)
As described in the first embodiment, an integration circuit as shown in FIG. 4 is generally used as the distance measurement processing circuit, but the input from the light receiving means includes noise and the like. The descent integration time is set as a fixed value with a sufficiently long descending integration time so that a sufficient S / N ratio can be secured even for a long-distance ranging object in which the amount of received light is low.
[0048]
The present embodiment is for further shortening the distance measurement time based on the first embodiment.
[0049]
Since the configuration of this embodiment and the basic control flowchart (FIG. 2) are the same as those of the first embodiment, description thereof is omitted. In addition, a duplicate description similar to that of the first embodiment is also omitted.
[0050]
FIG. 6 is a flowchart showing details of the distance measuring operation in step 2 of FIG.
[0051]
Step 31 sets the descending integration time at the first distance measuring point to T1 (for example, 20 mS), and sets the calculation data group as a data group Data1 corresponding to the integration time T1.
[0052]
In step 32, the central IRED 120 is turned on by the driver 123, the reflected light reflected by the object to be measured at the center of the screen is received by the central light receiving sensor 116, and the output of the central light receiving sensor 116 is processed by the processing circuit 118. (At the descent integration time T1), the distance Dc to the object to be measured at the screen center distance measuring point, which is the first distance measuring point, is obtained (from the data group Data1). (For example, the time required for this step is about T1 + rise integration time = 30 mS.)
[0053]
In step 32, it is determined whether or not the distance measurement result of the screen center distance measurement point measured in step 32 is within a predetermined distance range (for example, Dc <4 m). If it is outside the predetermined distance range, the process proceeds to step 41.
[0054]
In step 34, the integration time after the second distance measuring point is set to T2 (for example, 10 mS), and the calculation data group is set as the data group Data2 corresponding to the integration time T2. The relationship between the descending integration times T1 and T2 is “T1> T2”.
[0055]
In step 35, the right IRED 119 is turned on by the driver 122, the reflected light reflected by the distance measuring object on the right side of the screen is received by the right light receiving sensor 117, and the output of the right light receiving sensor 117 is sent to the processing circuit 118. (At descending integration time T2), and the distance Dr to the object to be measured of the distance measurement point on the right side of the screen, which is the second distance measurement point, is obtained (from the data group Data2). (For example, the time required for this step is about T2 + rise integration time = 20 mS.)
[0056]
In step 36, the distance measurement result Dc at the center distance measurement point on the screen is compared with the distance measurement result Dr on the right distance distance measurement point. If Dr is closer, the process proceeds to step 38. If Dr is greater than Dc, step 37 is performed. Migrate to
[0057]
A step 37 selects the distance measurement result Dc of the screen center distance measurement point as the final distance measurement data, and the distance measurement sequence is completed.
[0058]
In step 38, the left IRED 121 is turned on by the driver 124, the reflected light reflected by the distance measuring object on the left side of the screen is received by the left light receiving sensor 115, and the output of the left light receiving sensor 115 is processed by the processing circuit 118. (At the descent integration time T2), and the distance Dl to the object to be measured of the left distance measuring point on the screen, which is the third distance measuring point, is obtained (from the data group Data2). (For example, the time required for this step is about T2 + rise integration time = 20 mS.)
[0059]
In step 39, the distance measurement result Dr at the right distance measuring point on the screen is compared with the distance measurement result D1 at the distance measurement point on the left side of the screen. If Dr = Dl, the process proceeds to step 40, and if Dr = Dl, the process proceeds to step 37.
[0060]
Step 40 selects the distance measurement result Dr at the right-side distance measuring point or the distance measurement result D1 at the right-side distance measuring point as the final distance measurement data, and ends the distance measurement sequence.
[0061]
In step 41, the right IRED 119 is turned on by the driver 122, the reflected light reflected by the distance measuring object on the right side of the screen is received by the right light receiving sensor 117, and the output of the right light receiving sensor 117 is processed by the processing circuit 118. (At descent integration time T1), and the distance Dr from the distance measuring point on the right side of the screen to the object to be measured is obtained (from the data group Data1). (For example, the time required for this step is about T1 + increase integration time = 30 mS.)
[0062]
In step 42, the left IRED 121 is turned on by the driver 124, the reflected light reflected by the distance measuring object on the left side of the screen is received by the left light receiving sensor 115, and the output of the left light receiving sensor 115 is sent to the processing circuit 118. (At descending integration time T1), and the distance Dl (from the data group Data1) to the object to be measured at the distance measuring point on the left side of the screen is obtained. (For example, the time required for this step is about T1 + rise integration time = 30 mS.)
[0063]
In step 43, the final distance measurement data is determined to be closest to the distance measurement result Dc at the center distance measurement point on the screen, the distance measurement result Dr at the distance measurement point on the right side of the screen, and the distance measurement result D1 at the distance measurement point on the left side of the screen. Select the desired one and finish the ranging sequence.
[0064]
As described above, when the first distance measurement point is within the predetermined distance range, the second distance measurement point and the subsequent distance measurement points are not used unless they are closer than the first distance measurement point. However, since the distance is short, the reflected light of the signal light after the second distance measurement point is sufficiently large even if the integration time is shortened (the integration amount is small) as described above, and the received light signal is buried in noise. No (high reliability), and the time required for the distance measurement operation can be further shortened without reducing the distance measurement performance.
[0065]
In this embodiment, the time to be changed is the descending integration time, and the difference in the integration time is described so as to correspond (correct) the distance calculation by switching the data group, but the present invention is not limited thereto. However, there is no problem even if the circuit configuration is changed, for example, the ascending integration time is changed, or the information such as the control time without the data group is obtained only by calculation.
[0066]
(Correspondence between Invention and Embodiment)
In the above embodiment, the left light receiving sensor / center light receiving sensor / right light receiving sensor 115 to 117, the processing circuit 118, the right IRED / center IRED / left IRED 119 to 121, and the drivers 122 to 124 are used as the detection means of the present invention. The drive circuit 127 corresponds to the focus adjusting means of the present invention, the microcomputer 114 corresponds to the control means or signal processing means of the present invention, and the operational amplifier 47 and the integrating capacitor 48 correspond to the integrating means of the present invention.
[0067]
The above is the correspondence between each configuration of the embodiment and each configuration of the present invention. However, the present invention is not limited to the configuration of the embodiment, and the functions or the embodiments described in the claims are described. Any configuration can be applied as long as the functions of the configuration can be achieved.
[0068]
For example, in the above embodiment, the distance measurement point at the center of the screen is measured, and then one distance measurement point around the screen is measured and compared. The present invention can be applied even if the ranging order is reversed.
[0069]
Further, in the above embodiment, the sequence is such that the right distance measuring point on the screen is measured before the left distance measuring point. The present invention can be applied to any number of points as long as the number is two or more.
[0070]
Further, the present invention can be applied to any distance-related information as long as the distance between distance measurement points is not an absolute distance as long as the distance can be compared, such as defocus information.
[0071]
In the present invention, focus adjustment is performed based on information that is different from information related to the distance to be compared between distance measuring points, and information detected by a detection system that is different from information related to distance to be compared between distance measuring points. You may do it. Note that the distance-related information in the present invention includes defocus information.
[0072]
The field of view in the present invention is a shooting screen in the camera, but if it is another optical device, it is the field of view of the optical device, and the central part and the peripheral part of the field of view are relative to the field of view. Relative position, not exact. Therefore, in the embodiment, the peripheral distance measuring points are set to the right and left sides of the shooting screen. This is because the peripheral points in various directions with respect to the central location, such as right upper or lower and left upper or lower. The location can be determined as needed.
[0073]
In addition, the focus adjustment in the present invention is not limited to the automatic adjustment, but includes the case where the user performs the manual operation by looking at the display.
[0074]
In the above embodiment, one distance measurement point is selected from a plurality of distance measurement points and focus adjustment is performed on the distance measurement point. However, the present invention simply selects one distance measurement point. The present invention can be applied if priority is given to a selected distance measuring point, such as performing focus adjustment by weighting, including other distance measuring points, instead of selecting.
[0075]
In the present invention, the reference of the comparison value has a width that is determined as necessary.
[0076]
In addition, the software configuration and the hardware configuration in the above embodiment can be appropriately replaced.
[0077]
Moreover, you may make it this invention combine the above-mentioned each embodiment or those technical elements as needed.
[0078]
Further, the present invention provides a device that can be used regardless of whether the whole or a part of the structure of the claims or the embodiments forms one device or is combined with another device. It may be a constituent element.
[0079]
In addition, the present invention is applied to various types of cameras such as a single-lens reflex camera, a lens shutter camera, and a video camera, optical devices other than the cameras, and other devices, and further those cameras, optical devices, and other devices. The present invention can also be applied to devices or elements constituting them.
[0080]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a focus adjustment device and a focus adjustment signal processing device that can reduce the time required for focus adjustment without lowering the focusing rate with respect to a target object. Is.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a camera according to an embodiment of the present invention.
FIG. 2 is a main flowchart of the microcomputer of FIG.
FIG. 3 is a flowchart of ranging operation of the microcomputer of FIG.
FIG. 4 is a specific configuration diagram of the processing circuit of FIG. 1;
5 is an integrated output waveform diagram of the focus adjustment device of FIG.
FIG. 6 is a control flowchart of the ranging operation of the microcomputer of FIG. 1 according to the second embodiment of the present invention.
[Explanation of symbols]
114 Microcomputer
115-117 sensor
118 Processing circuit
119-121 IRED
122-124 IRED driver
A1, A2 Current-voltage converter
A3, A4 inverting amplifier
A5 Summing amplifier
40, 47 operational amplifier
48 Capacitor for integration
45, 46 Analog switch
50 Comparator

Claims (2)

視野の中で第1のポイントと当該第1のポイントよりも視野端にある複数のポイントで被測距物までの距離に対応する情報を検出する検出手段と、
前記検出手段の検出結果に基づいて焦点調節を行う焦点調節手段と、
前記視野端の複数のポイントのうち第2のポイントでの被測距物までの距離が前記第1のポイントでの被測距物までの距離よりも遠いことを検出した場合には、前記視野端の複数のポイントのうち前記第2のポイント以外のポイントでの検出を行わず、前記第1のポイントでの検出結果に基づいて焦点調節を行うよう制御する制御手段とを有することを特徴とする焦点調節装置。
Detecting means for detecting information corresponding to the distance to the object to be measured at a first point in the field of view and a plurality of points closer to the field of view than the first point ;
Focus adjusting means for performing focus adjustment based on the detection result of the detecting means;
When it is detected that the distance to the object to be measured at the second point among the plurality of points at the edge of the field of view is longer than the distance to the object to be measured at the first point, Control means for controlling to perform focus adjustment based on a detection result at the first point without performing detection at a point other than the second point among a plurality of end points. Focusing device.
前記制御手段は、前記第1のポイントと前記第2のポイントでの被測距物までの距離が同距離とみなされる場合には、前記第2のポイントでの検出結果に基づいて合焦させるべく前記焦点調節手段を作用させることを特徴とする請求項1に記載の焦点調節装置。When the distance to the object to be measured at the first point and the second point is regarded as the same distance, the control means focuses based on the detection result at the second point . 2. The focus adjusting apparatus according to claim 1, wherein the focus adjusting means is operated.
JP35729897A 1997-12-25 1997-12-25 Focus adjustment device and signal processing device for focus adjustment Expired - Fee Related JP4018217B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35729897A JP4018217B2 (en) 1997-12-25 1997-12-25 Focus adjustment device and signal processing device for focus adjustment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35729897A JP4018217B2 (en) 1997-12-25 1997-12-25 Focus adjustment device and signal processing device for focus adjustment

Publications (2)

Publication Number Publication Date
JPH11183783A JPH11183783A (en) 1999-07-09
JP4018217B2 true JP4018217B2 (en) 2007-12-05

Family

ID=18453410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35729897A Expired - Fee Related JP4018217B2 (en) 1997-12-25 1997-12-25 Focus adjustment device and signal processing device for focus adjustment

Country Status (1)

Country Link
JP (1) JP4018217B2 (en)

Also Published As

Publication number Publication date
JPH11183783A (en) 1999-07-09

Similar Documents

Publication Publication Date Title
US8928761B2 (en) Digital camera
US7469098B2 (en) Optical apparatus
CN101493568B (en) Imaging apparatus and lens apparatus
JP4024404B2 (en) camera
US5534991A (en) Active distance measuring apparatus
JP2010130231A (en) Imaging apparatus
US20090167931A1 (en) Imaging device
US20050083428A1 (en) Image pickup apparatus
US8554067B2 (en) Focus detection apparatus and focus detection method
JP2015111226A (en) Subject tracking device and control method of the same, imaging device, program, and storage medium
JP4018217B2 (en) Focus adjustment device and signal processing device for focus adjustment
JP5791254B2 (en) Imaging apparatus and camera system
JP3348799B2 (en) Electronic still camera capable of flash photography
JP5509622B2 (en) Electronic camera
JP3896015B2 (en) Image pickup device with shake correction function
JP2990809B2 (en) Automatic focusing device
JPS6139009A (en) Camera
JP2004069953A (en) Camera
JP2004120582A (en) Camera
JP4445612B2 (en) camera
JPH01144865A (en) Automatic focusing device
JPH10232339A (en) Focusing detector provided with power zoom function
JPH05336427A (en) Focus adjusting device
JP2002372664A (en) Moving body region discriminating system, method of discriminating moving body region and focusing device
JP3382290B2 (en) Strobe processor for camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061024

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070920

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110928

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110928

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130928

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees