JP4328491B2 - Optical device and camera - Google Patents

Optical device and camera Download PDF

Info

Publication number
JP4328491B2
JP4328491B2 JP2002063157A JP2002063157A JP4328491B2 JP 4328491 B2 JP4328491 B2 JP 4328491B2 JP 2002063157 A JP2002063157 A JP 2002063157A JP 2002063157 A JP2002063157 A JP 2002063157A JP 4328491 B2 JP4328491 B2 JP 4328491B2
Authority
JP
Japan
Prior art keywords
area
distance
distance measurement
photometric
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002063157A
Other languages
Japanese (ja)
Other versions
JP2003262784A5 (en
JP2003262784A (en
Inventor
孝治 大嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002063157A priority Critical patent/JP4328491B2/en
Publication of JP2003262784A publication Critical patent/JP2003262784A/en
Publication of JP2003262784A5 publication Critical patent/JP2003262784A5/ja
Application granted granted Critical
Publication of JP4328491B2 publication Critical patent/JP4328491B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画面の複数の測距エリアに対応する範囲の輝度の検出が可能な複数の測光エリアを持つ測光手段を有する光学装置光学装置を具備したカメラ、及び静止画撮影機能付きのビデオカメラの改良に関するものである。
【0002】
【従来の技術】
従来、複数の測距点をもつ測距装置を備えるカメラにおいては、測距情報が得られた測距点のうち、最も近距離を示す測距情報が得られた測距点に主被写体が位置しているとみなし、この測距情報に基づいて合焦動作をさせるものが公知である。
【0003】
さらに上記測距装置に加え、各測距点に対応する測光エリアをもつ測光装置を備えるカメラにおいては、主被写体に関する輝度情報を、合焦に用いる測距点に対応する測光エリアから得るようにする事で、主被写体に重きを置いた評価測光を行えるようにしたものも知られている。
【0004】
また、特開2000−171846号公報においては、合焦に用いられる情報の得られた測距点のセンサを用いて輝度情報を得るような構成とし、そのセンサからの輝度情報と複数の測光エリアをもつ測光センサからの輝度情報に基づいて、主被写体に対する逆光判定を行うようしたものが提案されている。
【0005】
【発明が解決しようとする課題】
しかしながら、測距装置が一対のイメージセンサからの画像情報をもとに位相差を検出して距離情報を得るパッシブ方式(位相差検出方式)である場合、一般的に主被写体にコントラストがないと測距ができない。たとえば主被写体が人物等である場合、画面内における測距点の位置するところに、額等顔の一部分のみや、衣服等の単一色となるコントラストの無い箇所が存在すると、そこにあたる測距点においては測距ができない事になる。
【0006】
また、複数の測距点に主被写体がかかるような場合では、その主被写体の中心にあたる測距点からは距離情報が得られず、その隣に位置する測距点によって、その主被写体の脇や輪郭(エッジ)によるコントラストで位相差を検出して測距がなされる場合がある。このような場合、距離情報が得られたエリアとしては主被写体の中心から外れたエリアとなり、その測距エリアに対応する測光エリアの輝度情報を主被写体の輝度情報としてしまうと、誤った輝度情報を用いて制御を行ってしまう事になる。
【0007】
図6はその一例を示した図であるが、あるカメラによる撮影画面内の複数の測距エリアおよび測光エリアと、主被写体である人物Iを同時に表した図である。
【0008】
図中、F10〜F14はこのカメラが有する撮影画面内における5点の測距エリアを表したものであり、図中、E1〜E14はこのカメラが有する撮影画面内における14分割された測光センサの各エリアを表している。なお、E10〜E14は各測距エリアF10〜F14に対応した画面内の測光を行っているものである。
【0009】
また、図3は撮影画面における測距エリアのみを、図4は撮影画面における測光エリアをそれぞれ表したものである。
【0010】
図6に示すように、主被写体である人物Iが画面中央に位置し、画面中央の測距エリアF12に対しては主被写体の中心部全てが、測距エリアF11,F13に対しては主被写体の一部がかかるような場合、測距エリアF12はコントラストのない額等の顔の一部分を測距している為に測距ができず、測距エリアF11,F13については主被写体のエッジによって測距ができることになる。
【0011】
また、この各測距エリアF11,F12,F13に対応する測光エリアE11,E12,E13からは、ともに輝度情報が得られている。しかし、画面中央の測光エリアE12については、人物Iが測光エリアF12の全てにあたっているため、人物Iについての正確な輝度情報は得られているが、測光エリアE11およびE13については人物Iの半分しかかかっておらず、そのため人物Iの正確な輝度情報についてはこのエリアからは得られていない。
【0012】
撮影画面上での測距エリアと測光エリアの関係が上記のようになる場合、特開2000−171846号公報のように、距離情報が得られた測距エリアに対応する測光エリアからの情報を基に逆光検出してしまうと、主被写体の中心から外れた測光エリアをもとに逆光検出してしまう事になり、しかもその一つの測光エリアの一部分にしか主被写体がかかっていないため、主被写体に対する正確な逆光検出は行えずにいた。
【0013】
(発明の目的)
本発明の目的は、測距結果が得られていない測距エリアに主被写体が存在するような場合でも、主被写体を含むシーンに対して好適な逆光検出を行うことのできる光学装置、カメラ及び静止画撮影機能付きビデオカメラを提供しようとするものである。
【0014】
【課題を解決するための手段】
上記目的を達成するために、本発明は、撮影画面中央部、撮影画面中央部に隣接する周辺部、隣接する周辺部の外側の周辺部にそれぞれ設定された測距エリアの距離情報を得る測距手段と、撮影画面を、前記撮影画面中央部、前記隣接する周辺部、前記外側の周辺部にそれぞれ設定された前記測距エリアに対応する測光エリアを含む複数の測光エリアに分割し、それぞれの測光エリアの測光値を得る測光手段と、前記測光エリアの測光値をもとに逆光検出を行う逆光検出手段とを有する光学装置において、前記測距手段により、前記撮影画面中央部の測距エリアにて距離情報を得ることができない場合に、前記隣接する周辺部の測距エリアにて距離情報を得ることができるか否かの判定を行う判定手段を有し、前記判定手段により、前記撮影画面中央部の測距エリアにて距離情報を得ることができない場合に、前記隣接する周辺部の測距エリアにて距離情報を得ることができると判定されたときには、前記逆光検出手段が、前記撮影画面中央部の測距エリアに対応する測光エリアの測光値に基づいて逆光検出を行う光学装置とするものである。
【0017】
同じく上記目的を達成するために、本発明は、本発明の上記光学装置を具備したカメラとするものである。
【0018】
【発明の実施の形態】
以下、本発明を図示の実施の形態に基づいて詳細に説明する。
【0019】
図1は本発明の実施の一形態に係るカメラの主要部分の回路構成を示すブロック図である。
【0020】
図1において、1はカメラの各種動作を制御する制御手段であるところのマイコンであり、不図示のCPU(中央処理装置),ROM,RAM,A/D回路等を内蔵し、後述する測距部2や測光部3等からの出力をA/D変換し、測距、測光情報を得るための各演算や他の周辺回路の各制御も行っている。
【0021】
2は一対の受光レンズ13,14および複数のエリアを有する一対のセンサアレイ15,16等からなる測距部(焦点検出部であっても良いが、測距部を代表例としている)であり、受光レンズ13によりセンサアレイ15上に、また受光レンズ14によりセンサアレイ16上にそれぞれ被写体からの光束が導かれ、被写体像の光強度分布に応じて光電変換が行われた後、信号蓄積および信号増幅回路17により増幅された信号が被写体像信号として出力される。3は不図示の複数のエリアを有するセンサを用いて輝度情報を得る測光部であり、測距エリアに対応する測光エリアを有するものである。
【0022】
4はシャッター開閉の制御を行うシャッター制御部、5は撮影準備動作及び撮影動作を開始させるための不図示のレリーズスイッチの第1ストロークでONするスイッチSW1及び第2ストロークでONするレリーズスイッチSW2や各撮影モード等を設定するためのスイッチを含むSW入力部である。6は電源電圧を所定電圧に変換し、各回路に電源供給するDC/DC部である。7はストロボ部であり、不図示のメインコンデンサへと充電を行い、発光を行う公知の回路からなる。8はマイコン1 へクロックを供給するための発振部である。9は電池残量表示や各種の撮影情報の表示、警告等を行う液晶等からなる表示部である。10は不図示のフィルムの巻き上げ、巻き戻し等を行うための給送モータおよび鏡筒駆動用モータの制御を行うモータ制御部である。
【0023】
次に、上記構成のカメラにおける撮影動作中のマイコン1の動作について、図2のフローチャートにより説明を行う。
【0024】
まず、ステップS101にて、マイコン1はSW入力部5に含まれるスイッチSW1の状態の検出を行う。この結果、該スイッチSW1がONしていれば撮影準備動作を開始させるためにステップS102へ進み、測距部2と測光部3に測距および測光動作を行わせる。また、上記ステップS101にてスイッチSW1がOFFの場合はステップS101を繰り返す。なお、上記測距および測光動作については後述にて説明を行うので、ここでは詳細な説明は省略する。次のステップS103では、ストロボ発光させるためのエネルギーを蓄えるメインコンデンサへの充電をストロボ部7に開始させる。
【0025】
次のステップS104,S105では、上記スイッチSW1とレリーズスイッチSW2の状態を検出し、共にONしていればステップS106へと進み、撮影動作を開始する。また、上記スイッチSW1,SW2の少なくとも一方がOFFの場合はステップS101へ戻る。
【0026】
ステップS106へ進むと、上記ステップS102にて得られた距離情報をもとに不図示の撮影レンズのフォーカシングをモータ制御部10にて不図示の鏡筒モータを制御することで行い、焦点を被写体に合わせる。次のステップS107では、フィルムへ露光を行うため、シャッター通電制御を行うシャッター制御部4を動作させてシャッター開放を行う。またこの時、シャッター開放時間の計時をさせるために不図示のタイマ回路にて所定時間の計時を開始させる。この際のシャッター開放時間の設定は、上記ステップS102にて得られた逆光情報を含む露出情報やストロボ発光情報等をもとに行われている。
【0027】
続くステップS108では、上記ステップS102で得られた測光情報および逆光情報等に基づいたストロボ発光情報を参照して、発光条件となっていたならばストロボ部7にストロボ発光をさせる。そして、次のステップS109にて、不図示のタイマ回路にて所定時間の計時が行われた後にシャッター閉じ動作をシャッター制御部4に行わせる。最後にステップS110にて、フィルムの巻上げを行うため、不図示の給送モータへモータ制御部9を介して通電を開始させて給送動作を行う。給送動作後はステップS101へ戻り、スイッチSW1がONされるまで待機する。
【0028】
次に、上記構成のカメラにおける測距および測光動作について、図3,図4,図5を用いて、図7に示すフローチャートにより説明する。
【0029】
なお、図3は、図1における測距部2で測距可能なカメラの撮影画面内の測距エリアを表したものであり、図中、F10〜F14は5点の測距エリアを表している。また、図4は、図1における測光部3で測光可能なカメラの撮影画面内の測光エリアを表したものであり、図中、E1〜E14はそれぞれ測光センサで14分割されている。前記E10〜E14の測光エリアについては、図3の測距エリアF10〜F14にそれぞれ対応したエリア内の測光を行っている。
【0030】
図5は、上記図3と図4を重ね合わせて、カメラの撮影画面内の測距エリアと測光エリアを同時に表したものである。
【0031】
本実施の形態における測距方式としては、周知の外光パッシブ方式をとっており、図1におけるマイコン1により、図1の測距部2において出力された一対の画像情報から位相差検出をすることで距離情報を得、ピント合わせの為の合焦用データを得る。またこの位相差検出を、各測距エリアF10〜F14毎に行うことで、各エリア毎の距離情報を得ることになる。
【0032】
図7は、図1,図3,図4,図5で説明した構成におけるカメラの、測距および測光動作を示すフローチャートである。
【0033】
なお、本実施の形態における測距エリアは5点(F10〜F14)であり、F12は撮影画面中央部、F11,F13は中央部に隣接する周辺部、F10、F14は更にその外側の周辺部をそれぞれ測距できるように配置されている。
【0034】
また、それぞれの測距エリアの役割としては、F12は撮影画面の中央部を測距するためもので、F10,F14が撮影画面の周辺部を測距するためのものである。F11,F13については、中央部F12が何かしらの理由で測距が不可能である場合に、画面中央部のエリアとして用いるものであって、ここで得られた測距結果は撮影画面中央部の結果と同等に取り扱われるものである。
【0035】
図7において、まずステップS201にて、F10〜F14のすべてのエリアについて信号蓄積および信号増幅回路17にて蓄積制御を行う。そして、その蓄積が終了するとステップS202へ進み、中央部のF12と最周辺部(端部)に位置するF10およびF14からの信号を順次信号蓄積および信号増幅回路17にて増幅させると共にその出力を取り込み、マイコン1内にてA/D変換する。
【0036】
次のステップS203では、上記ステップS202にてA/D変換された信号をもとに各測距エリア毎に公知の位相差検出をするための演算を行い、F10,F12,F14に対応する測距エリアでの距離情報を得る。ここで、位相差検出ができず測距できなかった場合としては、エリアからの像信号が低コントラストである場合や、一対の像信号に差異があるために信頼性が無いと判定された場合等が考えられる。なお、位相差を検出できず、距離情報が得られないエリアについては、そのエリアの距離情報として、予め決められた所定の距離として無限遠が設定される。
【0037】
次のステップS204では、各測距エリアF10,F12,F14の何れかもしくは全てで測距ができているか否かの判定を行う。この結果、測距エリアF10,F12,F14の何れにおいても測距ができなかった(NG)場合はステップS211へ進み、後述のように中央部のエリアとして、F11,F13による測距動作を開始させる。そうでなければ、何れかのエリアで測距ができているのでステップS204からステップS205へ進む。
【0038】
ステップS205へ進むと、中央部に位置する測距エリアF12で測距ができているか否かの判定を行う。この結果、測距エリアF12で測距ができていることを判定すると、撮影画面中央部に対する測距はできているのでそのまま中央部の測距情報として測距エリアF12の情報を用いる事としてステップS206へ進む。また、測距エリアF12で測距ができていない場合は後述のステップS218へ進む。
【0039】
ステップS206へ進むと、撮影画面周辺部(端部)の測距エリアであるF10,F14および中央部の測距エリアF12の測距情報のうち、最も近距離を示す測距エリアを選択し、該測距エリアからの距離情報を主被写体の距離情報として、つまり合焦用データとして選択する。そして、次のステップS207にて、上記ステップS206で選択された測距エリアに対応する測光エリアの選択を行い、主被写体に対する逆光検出用のエリアとして輝度情報を得られるように設定を行い、ステップS208へ進む。ここでは選択された測距エリアがF12である時は測光エリアとしてE12を、F10である時は測光エリアとしてE10を、F14である時は測光エリアとしてE14を、それぞれ逆光検出用のエリアとして選択することになる。
【0040】
次のステップS208では、測光動作を行う。14分割された複数の測光エリア(E1〜E14)毎に測光値の算出を行うとともに、上記ステップS207や、後述するステップS215,S217,S222,S224の何れかで逆光検出用として選択された測光エリアの測光値(輝度情報)をSPOTとして求め、またその逆光検出用の測光エリアを除いた測光エリアの平均測光値をAEaveとして算出する。
【0041】
続くステップS209では、上記ステップS208で算出された平均測光値AEaveと逆光検出用測光エリアとして選択された主被写体が位置すると思われるエリアの測光値SPOTとの比較を行い、その差が所定値(本実施の形態においては2EVを所定輝度値としている)を超えているなら逆光状態であるとみなし、ステップS210へ進む。また、所定値以下であれば逆光状態ではないと判定して、そのまま測距及び測光動作を終了する。
【0042】
また、逆光状態であるとしてステップS209からステップS210へ進むと、ここでは逆光時に露出補正を行わせるためのフラグ等の設定を行い、各撮影モードや被写体距離に応じて、ストロボ発光や露出のプラス補正等を行わせるように設定し、測距及び測光動作を終了する。
【0043】
また、上記ステップS204にて、中央部の測距エリアF12、周辺部(端部)の測距エリアF10,F14の測距結果が全て測距NGであったことを判定すると前述したようにステップS211へ進み、ここでは画面中央部の測距エリアとして、通常用いられるF12の代わりに該F12を挟んで両側に隣接して配置されるF11,F13を用い、中央部の測距を開始させる。ここでは上記ステップS201にて蓄積した測距エリアのうち、F11およびF13からの信号を順次信号蓄積および信号増幅回路7にて増幅させると共にその出力を取り込み、マイコン1内にてA/D変換し、ステップS212へ進む。
【0044】
ステップS212へ進むと、A/D変換された信号を、測距エリア毎に公知の位相差検出をすることでF11,F13に対応する測距エリアの距離情報を得る。そして、次のステップS213にて、測距エリアF11,F13の何れかにおいても位相差検出を行うことができなかった(NG)か否かの判定を行い、双方とも検出できていなければ全く測距できなかったものとしてステップS216へ進み、一方、測距エリアF11,F13の一方または両方にて位相差検出を行うことができた場合はステップS214へ進む。
【0045】
ステップS216へ進むと、全測距エリアがNGであるので、合焦用データとして無限遠を設定し、次のステップS217にて、測距エリアに対応する測光エリアの中から最も低い値を示すエリアを逆光検出用として選択して、前述のステップS208以降の処理へと進む。なお、本実施の形態においては、最も低い値を示すエリアを逆光検出用のエリアとして選択を行っているが、これに限られるものではなく、測距エリアのうちで信頼性のデータが最も高い値を示す測距エリアに対応する測光エリアを選択してもよいし、所定アルゴリズムによって選択するようにしてもよい。
【0046】
また、上記ステップS213からステップS214へ進むと、ここではF11とF13のうち、近距離を示す方の測距エリアを選択し、該測距エリアからの測距情報を合焦用データとして選択し、次のステップS215にて、逆光検出用の測光エリアとして、この場合は画面中央部に位置する測光エリアE12を設定して、前述のステップS208以降の処理へと進む。
【0047】
なお、上記ステップS215にて、画面中央部に位置する測光エリアE12を設定したのは、このステップS215へ進むのは中央部の測距が測距エリアF11,F13の双方または一方によって出来ている場合であり、中央部に位置する測距エリアとしてF11,F13が測距可能であることからも、図6のような被写体が想定され、中央部には被写体が存在する可能性があることから測光エリアとして、これらF11,F13の間の中央部のE12の選択を行うようにしたものである。
【0048】
また、上記ステップS205にて中央部の測距エリアF12が測距NGであった場合は前述したようにステップS218へ進み、ここでは上記ステップS211と同様に、測距エリアF11,F13の信号増幅とその出力の取り込みおよびA/D変換を行う。次のステップS219では、上記ステップS212と同様に位相差検出を行い、各測距エリアでの距離情報を得る。そして、次のステップS220にて、F11,F13の各測距エリアで位相差を検出できなかったか否かの判定を行う。ここで、何れからも位相差が検出されていなければ中央部の測距エリアは全て測距NGとなることから、合焦用データを周辺部(端部)の測距エリアF10またはF14から選択するステップS223へ進んで、近距離を示す測距エリアを選択し、該測距エリアからの距離情報を合焦データとして選択し、次のステップS224にて、その選択されたエリアに対応する測光エリアを、逆光検出用測光エリアとし、前述のステップS208以降への処理へと進む。
【0049】
一方、上記ステップS220にて測距エリアF11またはF13の一方または両方で位相差検出ができていればステップS221へ進み、ここでは合焦データの選択を行うが、F12は既に測距NGであることが判っている事から、該F12以外で測距可能となっている測距エリアのうち、近距離を示す測距エリアを選択し、該測距エリアからの距離情報を合焦データとして選択する。ここで選択される可能性がある測距エリアとしては、F10,F11,F13,F14となる。そして、次のステップS222にて、上記ステップS221にて選択された測距エリアから、逆光検出に用いる測光エリアの選択を行うが、その選択された測距エリアがF10であれば測光エリアとしてはE10を、F14であれば測光エリアとしてはE14を、又選択された測距エリアがF11またはF13である場合は、図6のような被写体が想定されることから、測光エリアとしてE12を、それぞれ逆光検出用の測光エリアとして選択する。
【0050】
なお、本実施の形態においては、逆光検出について、逆光検出用測光エリアとして選択されたエリアの測光値と平均測光値を用いることで行っているが、平均測光値を用いることに限ることでは無論無く、周辺に位置する所定の測光エリアと比較しても良いし、測距エリアには対応していない測光エリアでの平均測光値と比較し、所定輝度差である場合に逆光状態であると判定させようにしてもよいことは言うまでもない。
【0051】
以上の実施の形態によれば、中央部の測距エリアF12で測距結果が得られない場合には、隣接する測距エリアF11,F13(測距エリアF12が測距NGの場合に中央部の測距エリアとして用いるべく配置された測距エリア)の測距を行って少なくとも一方より中央部としての測距結果が得れるか否かを判定し、隣接する測距エリアの少なくとも一方で測距ができていたならば、逆光検出に用いる測光エリアを、測距結果が得られなかったが、主被写体が位置することが想定される撮影画面の中央の測距エリアF12に対応する測光エリアE12とする事(図7のステップS204→S205→S218→S219→S220→S221→S222、又は、ステップS204→S211→S212→S213→S214→S215)で、主被写体に対する逆光検出の検出精度を上げることが可能となる。
【0052】
よって、例えば図6に示す撮影画面時であっても、正確な逆光検出が可能となる。
【0053】
また、合焦用データを得る為の測距エリアとしては、複数の測距エリアのうちの測距情報を得ることができた測距エリアからの該測距情報をもとに選択(上記実施の形態では、最も近距離の情報を出力する測距エリア)し、該測距エリアからの測距情報を合焦用データとして用いて焦点調節を行うようにしているので、主被写体に適した焦点調節を行うことが可能となる。
【0054】
なお、上記実施の形態では、カメラに適用した例を述べているが、これに限定されるものではなく、測距及び測光機能を有する光学装置であれば、同様に適用できるものである。更に、正確な逆光検出を行うことのみを目的にすれば、測光機能のみを有する装置にも適用可能である。
【0055】
【発明の効果】
以上説明したように、本発明によれば、測距結果が得られていない測距エリアに主被写体が存在するような場合でも、主被写体を含むシーンに対して好適な逆光検出を行うことができる。
【図面の簡単な説明】
【図1】本発明の実施の一形態に係るカメラの主要部分の回路構成を示したブロック図である。
【図2】本発明の実施の一形態に係るカメラの撮影動作を示すフローチャートである。
【図3】本発明の実施の一形態に係るカメラ及び従来のカメラの撮影画面内の測距エリアを示す図である。
【図4】本発明の実施の一形態に係るカメラ及び従来のカメラの撮影画面内の測光エリアを示す図である。
【図5】図3と図4に示す撮影画面内における測距および測光エリアを示す図である。
【図6】本発明の実施の一形態に係るカメラ及び従来のカメラの撮影画面内における被写体と測距および測光エリアの関連の一例を示す図である。
【図7】本発明の実施の一形態に係るカメラの測距及び測光動作を示すフローチャートである。
【符号の説明】
1 マイコン
2 測距部
3 測光部
4 シャッター制御部
5 SW部
6 DC/DC部
7 ストロボ部
8 発振部
9 表示部
10 モータ制御部
13,14 受光レンズ
15,16 センサアレイ
17 信号蓄積および信号増幅回路
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an optical apparatus having a metering means having a range photometric area detection are several possible luminance corresponding to a plurality of distance measurement areas of the screen, a camera equipped with a optical device, and a still image capturing function of the video It relates to the improvement of the camera .
[0002]
[Prior art]
Conventionally, in a camera equipped with a distance measuring device having a plurality of distance measuring points, the main subject is located at the distance measuring point from which the distance measuring information indicating the shortest distance is obtained among the distance measuring points from which the distance measuring information is obtained. It is known that it is considered to be positioned and a focusing operation is performed based on this distance measurement information.
[0003]
Further, in a camera including a photometry device having a photometry area corresponding to each distance measurement point in addition to the distance measurement device, luminance information relating to the main subject is obtained from the photometry area corresponding to the distance measurement point used for focusing. By doing so, it is also known to be able to perform evaluation photometry with a focus on the main subject.
[0004]
In Japanese Patent Laid-Open No. 2000-171446, luminance information is obtained using a sensor at a distance measuring point from which information used for focusing is obtained, and luminance information from the sensor and a plurality of photometric areas are obtained. There has been proposed a method in which backlight determination for a main subject is performed based on luminance information from a photometric sensor having a light source.
[0005]
[Problems to be solved by the invention]
However, when the distance measuring device is a passive method (phase difference detection method) that detects a phase difference based on image information from a pair of image sensors and obtains distance information, there is generally no contrast in the main subject. Cannot measure distance. For example, if the main subject is a person, etc., if there is only a part of the face such as the forehead or a non-contrast part such as clothing that has a single color at the position of the distance measuring point in the screen, the corresponding distance measuring point It will not be possible to measure the distance.
[0006]
In addition, when the main subject covers a plurality of distance measuring points, distance information cannot be obtained from the distance measuring point that is the center of the main subject, and the distance measuring point that is located next to the distance measuring point does not support the main subject. In some cases, distance measurement is performed by detecting a phase difference based on contrast due to a contour or an edge. In such a case, the area from which the distance information is obtained is an area that is off the center of the main subject. If the luminance information of the photometry area corresponding to the distance measurement area is used as the luminance information of the main subject, incorrect luminance information is obtained. It will be controlled using.
[0007]
FIG. 6 is a diagram showing an example of this, and is a diagram simultaneously showing a plurality of distance measuring areas and photometric areas in a shooting screen of a certain camera and a person I as a main subject.
[0008]
In the figure, F10 to F14 represent five distance measuring areas in the photographing screen of this camera. In the figure, E1 to E14 denote 14 divided photometric sensors in the photographing screen of the camera. Each area is shown. E10 to E14 are used for photometry in the screen corresponding to the distance measurement areas F10 to F14.
[0009]
FIG. 3 shows only the distance measuring area on the shooting screen, and FIG. 4 shows the metering area on the shooting screen.
[0010]
As shown in FIG. 6, the person I who is the main subject is located at the center of the screen, and the central portion of the main subject is all around the distance measuring area F12 at the center of the screen, and the main subject is at the distance measuring areas F11 and F13. When a part of the subject is covered, the distance measurement area F12 cannot measure the distance because a part of the face such as a forehead with no contrast is measured, and the distance measurement areas F11 and F13 are the edges of the main subject. The distance can be measured.
[0011]
Also, luminance information is obtained from the photometric areas E11, E12, E13 corresponding to the distance measuring areas F11, F12, F13. However, in the photometric area E12 at the center of the screen, since the person I is in contact with all the photometric areas F12, accurate luminance information about the person I is obtained, but only half of the person I is obtained for the photometric areas E11 and E13. Therefore, the accurate luminance information of the person I is not obtained from this area.
[0012]
When the relationship between the distance measurement area and the photometry area on the shooting screen is as described above, information from the photometry area corresponding to the distance measurement area from which the distance information is obtained is disclosed in Japanese Patent Laid-Open No. 2000-17184. If the backlight is detected, the backlight is detected based on the metering area that is off the center of the main subject, and the main subject is only on a part of the one metering area. Accurate backlight detection for the subject could not be performed.
[0013]
(Object of invention)
An object of the present invention is to provide an optical device, a camera, and a camera capable of performing suitable backlight detection for a scene including a main subject even when the main subject exists in a distance measurement area where a distance measurement result is not obtained. It intends to provide a video camera with a still image shooting function.
[0014]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a distance measurement area distance information set in the center portion of the photographing screen, the peripheral portion adjacent to the central portion of the photographing screen, and the peripheral portion outside the adjacent peripheral portion. The distance means and the photographing screen are divided into a plurality of photometric areas including a photometric area corresponding to the distance measuring area set in the central portion of the photographing screen, the adjacent peripheral portion, and the outer peripheral portion, respectively. In an optical device having a photometric means for obtaining a photometric value of the photometric area and a backlight detecting means for performing backlight detection based on the photometric value of the photometric area , the distance measuring means at the center of the photographing screen is measured by the distance measuring means. When it is not possible to obtain distance information in the area, it has determination means for determining whether distance information can be obtained in the distance measuring area of the adjacent peripheral part, and the determination means Shooting When it is determined that distance information cannot be obtained in the distance measuring area in the center of the surface and it is determined that distance information can be obtained in the distance measuring area in the adjacent peripheral part, the backlight detection means The optical device performs backlight detection based on a photometric value of a photometric area corresponding to the distance measuring area at the center of the photographing screen .
[0017]
Similarly, in order to achieve the above object, the present invention provides a camera equipped with the above optical device of the present invention .
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail based on illustrated embodiments.
[0019]
FIG. 1 is a block diagram showing a circuit configuration of main parts of a camera according to an embodiment of the present invention.
[0020]
In Figure 1, 1 is a microcomputer where a control means for controlling various operations of the camera, not shown CPU (central processing unit), ROM, RAM, distance measurement and built-in A / D circuit, described later The A / D conversion is performed on the outputs from the unit 2, the photometry unit 3 and the like, and each calculation for obtaining distance measurement and photometry information and each control of other peripheral circuits are also performed.
[0021]
Reference numeral 2 denotes a distance measuring unit (which may be a focus detecting unit, but a distance measuring unit is a representative example) including a pair of light receiving lenses 13 and 14 and a pair of sensor arrays 15 and 16 having a plurality of areas. The light beam from the subject is guided onto the sensor array 15 by the light receiving lens 13 and onto the sensor array 16 by the light receiving lens 14, and after photoelectric conversion is performed according to the light intensity distribution of the subject image, the signal accumulation and The signal amplified by the signal amplification circuit 17 is output as a subject image signal. A photometric unit 3 obtains luminance information using a sensor having a plurality of areas (not shown), and has a photometric area corresponding to the distance measuring area.
[0022]
4 is a shutter control unit that controls opening and closing of the shutter, 5 is a switch SW1 that is turned on by a first stroke of a release switch (not shown) for starting a shooting preparation operation and a shooting operation, and a release switch SW2 that is turned on by a second stroke. The SW input unit includes a switch for setting each shooting mode and the like. Reference numeral 6 denotes a DC / DC unit that converts a power supply voltage into a predetermined voltage and supplies power to each circuit. A strobe unit 7 is a known circuit that charges a main capacitor (not shown) and emits light. Reference numeral 8 denotes an oscillation unit for supplying a clock to the microcomputer 1. Reference numeral 9 denotes a display unit composed of a liquid crystal display for displaying a battery remaining amount display, various types of shooting information, a warning, and the like. A motor control unit 10 controls a feeding motor and a lens barrel driving motor for winding and rewinding a film (not shown).
[0023]
Next, the operation of the microcomputer 1 during the photographing operation in the camera having the above configuration will be described with reference to the flowchart of FIG.
[0024]
First, in step S101, the microcomputer 1 detects the state of the switch SW1 included in the SW input unit 5. As a result, if the switch SW1 is turned on, the process proceeds to step S102 to start the photographing preparation operation, and the distance measuring unit 2 and the photometric unit 3 perform the distance measuring and the photometric operation. If the switch SW1 is OFF in step S101, step S101 is repeated. The distance measurement and photometry operations will be described later, and detailed description thereof will be omitted here. In the next step S103, the flash unit 7 is started to charge the main capacitor that stores energy for causing the flash to emit light.
[0025]
In the next steps S104 and S105, the states of the switch SW1 and the release switch SW2 are detected. If both the switches SW1 and SW2 are turned on, the process proceeds to step S106 to start the photographing operation. If at least one of the switches SW1 and SW2 is OFF, the process returns to step S101.
[0026]
In step S106, focusing of the photographic lens (not shown) is performed by controlling the lens barrel motor (not shown) by the motor control unit 10 based on the distance information obtained in step S102, and the focus is set on the subject. To match. In the next step S107, in order to expose the film, the shutter controller 4 that performs shutter energization control is operated to open the shutter. At this time, in order to measure the shutter opening time, the timer circuit (not shown) starts measuring a predetermined time. The shutter opening time at this time is set based on exposure information including backlight information obtained in step S102, strobe light emission information, and the like.
[0027]
In the subsequent step S108, the flash unit 7 is caused to emit flash light if the light emission conditions are satisfied with reference to the flash light emission information based on the photometric information and backlight information obtained in step S102. In the next step S109, after a predetermined time is measured by a timer circuit (not shown), the shutter control unit 4 is caused to perform the shutter closing operation. Finally, in step S110, in order to wind the film, the feeding operation is performed by starting energization to a feeding motor (not shown) via the motor control unit 9. After the feeding operation, the process returns to step S101 and waits until the switch SW1 is turned on.
[0028]
Next, distance measurement and photometry operation in the camera having the above-described configuration will be described with reference to the flowchart shown in FIG.
[0029]
FIG. 3 shows a distance measuring area in the shooting screen of the camera that can be measured by the distance measuring unit 2 in FIG. 1. In FIG. 3, F10 to F14 indicate five distance measuring areas. Yes. FIG. 4 shows a photometric area in the photographing screen of the camera that can be measured by the photometric unit 3 in FIG. 1, and E1 to E14 are each divided into 14 by the photometric sensor. For the photometry areas E10 to E14, photometry is performed in the areas corresponding to the distance measurement areas F10 to F14 in FIG.
[0030]
FIG. 5 shows the distance measurement area and the photometry area in the camera photographing screen by superimposing FIGS. 3 and 4 described above.
[0031]
As a distance measuring method in the present embodiment, a known external light passive method is used, and the microcomputer 1 in FIG. 1 detects a phase difference from a pair of image information output from the distance measuring unit 2 in FIG. Thus, the distance information is obtained, and the focusing data for focusing is obtained. Further, by performing this phase difference detection for each distance measuring area F10 to F14, distance information for each area is obtained.
[0032]
FIG. 7 is a flowchart showing the distance measurement and photometry operation of the camera in the configuration described with reference to FIGS.
[0033]
In this embodiment, the distance measurement area is 5 points (F10 to F14), F12 is the central portion of the photographing screen, F11 and F13 are peripheral portions adjacent to the central portion, and F10 and F14 are further peripheral portions on the outside thereof. Are arranged so that each can be measured.
[0034]
Further, as a role of each distance measuring area, F12 is for distance measurement in the central portion of the photographing screen, and F10 and F14 are for distance measurement in the peripheral portion of the photographing screen. F11 and F13 are used as an area at the center of the screen when distance measurement is impossible for some reason at the center F12, and the distance measurement results obtained here are those at the center of the shooting screen. It is handled in the same way as the result.
[0035]
In FIG. 7, first, in step S201, the signal accumulation and signal amplification circuit 17 performs accumulation control for all areas F10 to F14. Then, when the accumulation is completed, the process proceeds to step S202, and the signals from F12 in the central part and F10 and F14 located at the most peripheral part (end part) are sequentially amplified by the signal accumulation and signal amplification circuit 17 and the output is outputted. Capture and A / D conversion in the microcomputer 1.
[0036]
In the next step S203, calculation for detecting a known phase difference is performed for each distance measurement area based on the signal A / D converted in step S202, and measurement corresponding to F10, F12, and F14 is performed. Get distance information in the distance area. Here, when the phase difference cannot be detected and the distance cannot be measured, the image signal from the area has a low contrast, or the pair of image signals are determined to be unreliable due to a difference. Etc. are considered. For an area where phase difference cannot be detected and distance information cannot be obtained, infinity is set as a predetermined distance as distance information of the area.
[0037]
In the next step S204, it is determined whether or not distance measurement is possible in any or all of the distance measurement areas F10, F12, and F14. As a result, if distance measurement cannot be performed in any of the distance measurement areas F10, F12, and F14 (NG), the process proceeds to step S211 and the distance measurement operation by F11 and F13 is started as a central area as described later. Let Otherwise, since the distance is measured in any area, the process proceeds from step S204 to step S205.
[0038]
In step S205, it is determined whether or not distance measurement is possible in the distance measurement area F12 located in the center. As a result, when it is determined that distance measurement is possible in the distance measurement area F12, since distance measurement is performed with respect to the central portion of the shooting screen, information in the distance measurement area F12 is used as distance measurement information in the central portion. The process proceeds to S206. On the other hand, if ranging is not possible in the ranging area F12, the process proceeds to step S218 described later.
[0039]
In step S206, the distance measurement area indicating the shortest distance is selected from the distance measurement information of the distance measurement areas F10, F14 and the distance measurement area F12 in the center of the shooting screen. The distance information from the distance measuring area is selected as the distance information of the main subject, that is, the focusing data. In the next step S207, a photometry area corresponding to the distance measurement area selected in step S206 is selected, and setting is made so that luminance information can be obtained as an area for detecting backlight against the main subject. Proceed to S208. Here, when the selected distance measuring area is F12, E12 is selected as the photometric area, when it is F10, E10 is selected as the photometric area, and when it is F14, E14 is selected as the photometric area. Will do.
[0040]
In the next step S208, a photometric operation is performed. The photometric value is calculated for each of the 14 photometric areas (E1 to E14), and the photometric value selected for backlight detection in any of the above step S207 and steps S215, S217, S222, and S224 described later. The photometric value (luminance information) of the area is obtained as SPOT, and the average photometric value of the photometric area excluding the photometric area for detecting the backlight is calculated as AEave.
[0041]
In the subsequent step S209, the average photometric value AEave calculated in step S208 is compared with the photometric value SPOT of the area where the main subject selected as the backlight detection photometric area is located, and the difference is a predetermined value ( In this embodiment, if 2EV is set as a predetermined luminance value), it is considered that the backlight is in the backlight state, and the process proceeds to step S210. If it is equal to or smaller than the predetermined value, it is determined that the backlight is not in the backlit state, and the distance measurement and photometry operations are finished as they are.
[0042]
Further, when the process proceeds from step S209 to step S210 assuming that the backlight is in the backlit state, here, a flag for performing exposure correction at the time of backlighting, etc. is set, and depending on each shooting mode and the subject distance, strobe light emission and exposure plus Setting is made to perform correction and the like, and the distance measurement and photometry operations are finished.
[0043]
If it is determined in step S204 that the distance measurement results in the distance measurement area F12 in the central portion and the distance measurement areas F10 and F14 in the peripheral portions (edge portions) are all distance measurement NG, the steps are performed as described above. The process proceeds to S211, where F11 and F13 arranged adjacent to both sides of the F12 are used instead of the normally used F12 as the distance measuring area in the center of the screen, and the distance measurement in the center is started. Here, among the ranging areas accumulated in step S201, the signals from F11 and F13 are sequentially amplified by the signal accumulation and signal amplification circuit 7, and the output is taken in, and A / D converted in the microcomputer 1. The process proceeds to step S212.
[0044]
In step S212, the A / D converted signal is subjected to known phase difference detection for each distance measurement area, thereby obtaining distance information of the distance measurement area corresponding to F11 and F13. Then, in the next step S213, it is determined whether or not the phase difference detection could not be performed (NG) in any of the ranging areas F11 and F13. If the distance cannot be detected, the process proceeds to step S216. On the other hand, if the phase difference can be detected in one or both of the distance measurement areas F11, F13, the process proceeds to step S214.
[0045]
In step S216, since all the ranging areas are NG, infinity is set as the focusing data, and in the next step S217, the lowest value among the photometric areas corresponding to the ranging area is shown. The area is selected for backlight detection, and the process proceeds to the processing after step S208 described above. In the present embodiment, the area showing the lowest value is selected as the backlight detection area. However, the present invention is not limited to this, and the reliability data is the highest among the ranging areas. A photometry area corresponding to the distance measurement area indicating the value may be selected, or may be selected by a predetermined algorithm.
[0046]
Further, when proceeding from step S213 to step S214, here, the distance measurement area indicating the short distance is selected from F11 and F13, and the distance measurement information from the distance measurement area is selected as the focusing data. In the next step S215, the photometric area E12 located in the center of the screen is set as the photometric area for detecting the backlight in this case, and the process proceeds to the processing after step S208 described above.
[0047]
In step S215, the photometry area E12 located in the center of the screen is set. The reason for proceeding to step S215 is that the distance measurement in the center is performed by both or one of the distance measurement areas F11 and F13. This is also the case, and since the distance measurement areas F11 and F13 can be measured as the distance measurement area located in the center, a subject as shown in FIG. 6 is assumed, and there is a possibility that the subject exists in the center. As the photometric area, E12 at the center between F11 and F13 is selected.
[0048]
If the central distance measuring area F12 is the distance measuring NG in step S205, the process proceeds to step S218 as described above. Here, as in step S211, the signal amplification of the distance measuring areas F11 and F13 is performed. And capturing the output and A / D conversion. In the next step S219, phase difference detection is performed in the same manner as in step S212, and distance information in each distance measurement area is obtained. Then, in the next step S220, it is determined whether or not the phase difference could not be detected in each of the distance measurement areas F11 and F13. Here, if no phase difference is detected from any of the distance measurement areas at the center, all the distance measurement areas are NG, and therefore the focusing data is selected from the distance measurement area F10 or F14 at the peripheral part (edge). In step S223, a distance measurement area indicating a short distance is selected, distance information from the distance measurement area is selected as focusing data, and in step S224, photometry corresponding to the selected area is selected. The area is set as a photometric area for backlight detection, and the process proceeds to the above-described steps after step S208.
[0049]
On the other hand, if the phase difference is detected in one or both of the distance measurement areas F11 and F13 in step S220, the process proceeds to step S221, where focus data is selected, but F12 is already the distance measurement NG. Since it is known, a distance measuring area indicating a short distance is selected from distance measuring areas other than F12 and distance information from the distance measuring area is selected as focus data. To do. The range-finding areas that may be selected here are F10, F11, F13, and F14. Then, in the next step S222, a photometry area used for backlight detection is selected from the distance measurement area selected in step S221. If the selected distance measurement area is F10, the photometry area is selected. If E10 is F14, E14 is used as the photometry area, and if the selected distance measurement area is F11 or F13, an object as shown in FIG. 6 is assumed. Select as photometry area for backlight detection.
[0050]
In the present embodiment, the backlight detection is performed by using the photometric value and the average photometric value of the area selected as the photometric area for detecting the backlight, but it goes without saying that the average photometric value is not limited. It may be compared with a predetermined photometric area located in the vicinity, or it is compared with an average photometric value in a photometric area that does not correspond to a distance measuring area, and it is in a backlight state when there is a predetermined luminance difference. Needless to say, it may be determined.
[0051]
According to the above embodiment, when a distance measurement result cannot be obtained in the central distance measurement area F12, the adjacent distance measurement areas F11 and F13 (when the distance measurement area F12 is distance measurement NG, A distance measurement area arranged to be used as a distance measurement area) to determine whether or not a distance measurement result as a central portion can be obtained from at least one, and measure at least one of the adjacent distance measurement areas. If the distance was sufficient, the photometry area used for backlight detection could not be obtained. However, the photometry area corresponding to the photometry area F12 at the center of the shooting screen where the main subject is assumed to be located E12 (Steps S204 → S205 → S218 → S219 → S220 → S221 → S222 in FIG. 7 or Steps S204 → S211 → S212 → S213 → S214 → S215) It is possible to improve the detection accuracy of the backlight detection with respect to the subject.
[0052]
Therefore, for example, accurate backlight detection is possible even during the shooting screen shown in FIG.
[0053]
Further, the distance measurement area for obtaining the focusing data is selected based on the distance measurement information from the distance measurement area from which the distance measurement information can be obtained from the plurality of distance measurement areas (the above-described implementation). In this mode, the focus adjustment is performed using the distance measurement information from the distance measurement area as focusing data, so that the focus adjustment is suitable for the main subject. Focus adjustment can be performed.
[0054]
In the above embodiment, the example applied to the camera is described. However, the present invention is not limited to this, and any optical device having distance measuring and photometric functions can be applied in the same manner. Furthermore, if it is only intended to perform accurate backlight detection, it can be applied to an apparatus having only a photometric function.
[0055]
【The invention's effect】
As described above, according to the present invention, it is possible to perform suitable backlight detection for a scene including a main subject even when the main subject exists in a distance measurement area where a distance measurement result is not obtained. it can.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a circuit configuration of main parts of a camera according to an embodiment of the present invention.
FIG. 2 is a flowchart showing a photographing operation of a camera according to an embodiment of the present invention.
FIG. 3 is a diagram showing a distance measuring area in a shooting screen of a camera according to an embodiment of the present invention and a conventional camera.
FIG. 4 is a diagram showing a photometric area in a shooting screen of a camera according to an embodiment of the present invention and a conventional camera.
5 is a diagram showing distance measurement and photometry areas in the photographing screen shown in FIGS. 3 and 4. FIG.
FIG. 6 is a diagram illustrating an example of a relationship between a subject, a distance measurement, and a photometry area in a shooting screen of a camera according to an embodiment of the present invention and a conventional camera.
FIG. 7 is a flowchart showing ranging and photometry operations of the camera according to the embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Microcomputer 2 Distance measurement part 3 Photometry part 4 Shutter control part 5 SW part 6 DC / DC part 7 Strobe part 8 Oscillation part 9 Display part 10 Motor control part 13, 14 Photosensitive lens 15, 16 Sensor array 17 Signal accumulation and signal amplification circuit

Claims (5)

撮影画面中央部、撮影画面中央部に隣接する周辺部、隣接する周辺部の外側の周辺部にそれぞれ設定された測距エリアの距離情報を得る測距手段と、
撮影画面を、前記撮影画面中央部、前記隣接する周辺部、前記外側の周辺部にそれぞれ設定された前記測距エリアに対応する測光エリアを含む複数の測光エリアに分割し、それぞれの測光エリアの測光値を得る測光手段と、
前記測光エリアの測光値をもとに逆光検出を行う逆光検出手段とを有する光学装置において、
前記測距手段により、前記撮影画面中央部の測距エリアにて距離情報を得ることができない場合に、前記隣接する周辺部の測距エリアにて距離情報を得ることができるか否かの判定を行う判定手段を有し、
前記判定手段により、前記撮影画面中央部の測距エリアにて距離情報を得ることができない場合に、前記隣接する周辺部の測距エリアにて距離情報を得ることができると判定されたときには、前記逆光検出手段は、前記撮影画面中央部の測距エリアに対応する測光エリアの測光値に基づいて逆光検出を行うことを特徴とする光学装置。
Ranging means for obtaining distance information of a ranging area set in each of a peripheral portion adjacent to the central portion of the photographing screen, a peripheral portion adjacent to the central portion of the photographing screen, and a peripheral portion outside the adjacent peripheral portion;
The shooting screen is divided into a plurality of metering areas each including a metering area corresponding to the distance measuring area set in the central part of the shooting screen, the adjacent peripheral part, and the outer peripheral part. A photometric means for obtaining a photometric value;
In an optical device having a backlight detection means for performing backlight detection based on a photometric value of the photometric area,
Determination of whether distance information can be obtained in the distance measuring area in the adjacent peripheral portion when distance information cannot be obtained in the distance measuring area in the center of the photographing screen by the distance measuring means. A determination means for performing
When it is determined by the determination means that distance information cannot be obtained in the distance measuring area in the central portion of the shooting screen, distance information can be obtained in the distance measuring area in the adjacent peripheral portion, The optical apparatus according to claim 1, wherein the backlight detection unit performs backlight detection based on a photometric value of a photometric area corresponding to a distance measuring area at a central portion of the photographing screen.
前記逆光検出手段は、前記撮影画面中央部の測距エリアに対応する測光エリアの測光値とそれ以外の測光エリアの平均測光値との差分が所定値を越えている場合に、逆光状態であるとすることを特徴とする請求項1に記載の光学装置。  The backlight detection means is in a backlight state when the difference between the photometric value of the photometric area corresponding to the distance measuring area at the center of the shooting screen and the average photometric value of the other photometric areas exceeds a predetermined value. The optical device according to claim 1, wherein: 前記判定手段により、前記隣接する周辺部の測距エリアにて距離情報を得ることができたと判定された場合、該隣接する周辺部の測距エリアにて得られた距離情報のうち最も近距離を示す距離情報を合焦用データとして選択することを特徴とする請求項1に記載の光学装置When it is determined by the determination means that distance information can be obtained in the distance measurement area of the adjacent peripheral part, the shortest distance among the distance information obtained in the distance measurement area of the adjacent peripheral part The optical apparatus according to claim 1, wherein distance information indicating ??? is selected as focusing data. 前記測距手段により、前記撮影画面中央部の測距エリアにて距離情報を得ることができない場合であって、前記判定手段により、前記隣接する周辺部の測距エリアにて距離情報を得ることができないと判定された場合で、且つ、前記外側の周辺部の測距エリアにて距離情報を得ることができると判定された場合、前記外側の周辺部の測距エリアの距離情報を合焦用データとして選択することを特徴とする請求項1に記載の光学装置 When the distance measurement means cannot obtain distance information in the distance measurement area at the center of the shooting screen, the determination means obtains distance information in the distance measurement area of the adjacent peripheral part. If it is determined that the distance information can be obtained in the outer peripheral distance measurement area, the distance information of the outer peripheral distance measurement area is focused. The optical device according to claim 1, wherein the optical device is selected as data for use. 請求項1乃至4の何れかに記載の光学装置を具備したことを特徴とするカメラ。  A camera comprising the optical device according to claim 1.
JP2002063157A 2002-03-08 2002-03-08 Optical device and camera Expired - Fee Related JP4328491B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002063157A JP4328491B2 (en) 2002-03-08 2002-03-08 Optical device and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002063157A JP4328491B2 (en) 2002-03-08 2002-03-08 Optical device and camera

Publications (3)

Publication Number Publication Date
JP2003262784A JP2003262784A (en) 2003-09-19
JP2003262784A5 JP2003262784A5 (en) 2005-09-02
JP4328491B2 true JP4328491B2 (en) 2009-09-09

Family

ID=29196570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002063157A Expired - Fee Related JP4328491B2 (en) 2002-03-08 2002-03-08 Optical device and camera

Country Status (1)

Country Link
JP (1) JP4328491B2 (en)

Also Published As

Publication number Publication date
JP2003262784A (en) 2003-09-19

Similar Documents

Publication Publication Date Title
US5357297A (en) Camera capable of sensing deficiency in light quantity of flash and control method therefor
JP4325158B2 (en) Flash control device, electronic flash device, and photographing system
JP2002244027A (en) Range-finding device
US6714734B2 (en) Camera
JP4328491B2 (en) Optical device and camera
US5534965A (en) Camera
US5418596A (en) Photometry apparatus in a camera
JP4897153B2 (en) Automatic exposure control device for camera
US6195509B1 (en) Exposure control apparatus for a camera
JP4512173B2 (en) Ranging device
JP2006119454A (en) Imaging apparatus and photometry method for imaging apparatus
JP2001249269A (en) Focus detector, and focus detector for camera
JP2004012497A (en) Camera
US6327435B1 (en) Focus adjusting apparatus
JPH02251941A (en) Electronic camera
JP4754745B2 (en) Camera with strobe device
JP3645800B2 (en) Ranging device
JP4169524B2 (en) camera
JP3098047B2 (en) Camera system for flash photography
JPH06175190A (en) Photometry device for camera
JP3098048B2 (en) Camera system for flash photography
JP2615224B2 (en) Camera self-photographing method and device
JP2003344894A (en) Photometry device for camera
JP2001264624A (en) Camera
JP2004109476A (en) Photometric device and camera with photometric function

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070724

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090609

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090615

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120619

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120619

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130619

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees