JP2011039293A - Photometric device and imaging apparatus - Google Patents
Photometric device and imaging apparatus Download PDFInfo
- Publication number
- JP2011039293A JP2011039293A JP2009186601A JP2009186601A JP2011039293A JP 2011039293 A JP2011039293 A JP 2011039293A JP 2009186601 A JP2009186601 A JP 2009186601A JP 2009186601 A JP2009186601 A JP 2009186601A JP 2011039293 A JP2011039293 A JP 2011039293A
- Authority
- JP
- Japan
- Prior art keywords
- correction
- correction value
- photometric
- value
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims description 38
- 238000012937 correction Methods 0.000 claims abstract description 180
- 230000003287 optical effect Effects 0.000 claims abstract description 33
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 238000003860 storage Methods 0.000 claims abstract description 3
- 238000005375 photometry Methods 0.000 abstract description 22
- 238000009826 distribution Methods 0.000 abstract description 5
- 238000007796 conventional method Methods 0.000 abstract 1
- 230000004907 flux Effects 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 28
- 238000000034 method Methods 0.000 description 20
- 230000014509 gene expression Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 210000001747 pupil Anatomy 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 229910052751 metal Inorganic materials 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、測光装置および撮像装置に関する。 The present invention relates to a photometric device and an imaging device.
従来、光学系から入射する光を複数の領域に分割して測光する分割測光装置において、分割された測光素子の中央にある所定の分割測光素子の測光値を基準として、所定の分割測光素子から各分割測光素子までの距離に応じて測光誤差補正量を求める技術が知られている(例えば、特許文献1参照)。 Conventionally, in a split photometry device that divides light incident from an optical system into a plurality of areas and performs photometry, from a predetermined split photometry element based on a photometric value of a predetermined split photometry element at the center of the divided photometry element A technique for obtaining a photometric error correction amount according to the distance to each divided photometric element is known (for example, see Patent Document 1).
ところが、光学系によっては複雑な光学分布となり、補正の精度が悪くなるという問題があった。 However, depending on the optical system, there is a problem that the optical distribution becomes complicated and the accuracy of correction deteriorates.
本発明の目的は、精度の高い測光装置および撮像装置を提供することである。 An object of the present invention is to provide a photometric device and an imaging device with high accuracy.
本発明は、以下のような解決手段により前記課題を解決する。尚、理解を容易にするために、本発明の一実施例を示す図面に対応する符号を付して説明するが、これに限定されるものではない。 The present invention solves the above problems by the following means. For ease of understanding, reference numerals corresponding to the drawings showing an embodiment of the present invention are given and described, but the present invention is not limited to this.
請求項1に記載の発明は、光学系(ズームレンズ102)を介して入射する光束を複数の領域に分割して受光し、受光信号を出力する受光手段(測光センサ113)と、前記受光手段(測光センサ113)に応じて決められた前記受光信号に対する第1補正値を前記複数の領域のうちの第1領域に対して記憶する記憶手段(メモリ108)と、前記光学系(ズームレンズ102)の情報を検出する検出手段(レンズ情報取得部151)と、前記光学系(ズームレンズ102)の情報に基づいて前記受光信号に対する第2補正値を前記複数の領域のうちの前記第1領域と異なる第2領域に対して求める演算手段(第2補正部153)と、前記第1補正値と前記第2補正値とに基づいて前記受光信号を補正する補正手段(測光補正部154)とを有することを特徴とする。
According to the first aspect of the present invention, a light receiving means (photometric sensor 113) that receives a light beam incident through an optical system (zoom lens 102) by dividing it into a plurality of regions and outputs a light reception signal, and the light receiving means. Storage means (memory 108) that stores a first correction value for the received light signal determined according to (photometric sensor 113) in the first area of the plurality of areas, and the optical system (
請求項2に記載の発明は、請求項1に記載の測光装置(測光装置121)において、前記補正手段(測光補正部154)は、前記複数の第2補正値から前記第1領域に対する第2補正値を求め、求めた第2補正値と前記第1領域の第1補正値とに基づいて前記受光信号を補正することを特徴とする。 According to a second aspect of the present invention, in the photometric device (photometric device 121) according to the first aspect, the correction unit (photometric correction unit 154) is configured to perform a second operation on the first region from the plurality of second correction values. A correction value is obtained, and the received light signal is corrected based on the obtained second correction value and the first correction value of the first region.
請求項3に記載の発明は、請求項1または2に記載の測光装置(測光装置121)において、前記第1領域と前記第2領域は、前記複数の領域に離散的に配置された複数の領域であって、前記第1領域と前記第2領域の少なくとも一方は、前記複数の領域の中央部よりも周辺部に高密度に配置されることを特徴とする。 According to a third aspect of the present invention, in the photometric device (photometric device 121) according to the first or second aspect, the first region and the second region are a plurality of discretely arranged in the plurality of regions. It is an area | region, Comprising: At least one of the said 1st area | region and the said 2nd area | region is arrange | positioned more densely in a peripheral part rather than the center part of these area | regions, It is characterized by the above-mentioned.
請求項4に記載の発明は、請求項1から3のいずれか一項に記載の測光装置(測光装置121)と、前記光学系を介して入射する像を撮像する撮像部(撮像素子104)と、前記補正手段が補正した前記受光信号に基づいて前記撮像部(撮像素子104)の露出制御を行う露出制御部(露出制御部155)とを有することを特徴とする。 According to a fourth aspect of the present invention, there is provided a photometric device (photometric device 121) according to any one of the first to third aspects and an imaging unit (imaging element 104) that captures an image incident via the optical system. And an exposure control unit (exposure control unit 155) that performs exposure control of the imaging unit (imaging element 104) based on the light reception signal corrected by the correction unit.
請求項5に記載の発明は、請求項4に記載の撮像装置(撮像装置100)において、前記受光手段(測光センサ113)は、前記光学系(ズームレンズ102)による像を結像する焦点板からの散乱光を受光することを特徴とする。 According to a fifth aspect of the present invention, in the imaging apparatus (imaging apparatus 100) according to the fourth aspect, the light receiving means (photometric sensor 113) forms a focusing plate for forming an image by the optical system (zoom lens 102). It is characterized by receiving the scattered light from.
請求項6に記載の発明は、請求項4または5に記載の撮像装置(撮像装置100)において、前記補正手段(測光補正部154)が補正した前記受光信号に基づいて、前記光学系(ズームレンズ102)による像のうちの特定の対象の像を検出する像検出手段(追尾部122)を備えることを特徴とする。 According to a sixth aspect of the present invention, in the imaging apparatus (imaging apparatus 100) according to the fourth or fifth aspect, the optical system (zoom) is based on the received light signal corrected by the correction unit (photometric correction unit 154). It is characterized by comprising image detecting means (tracking unit 122) for detecting a specific target image among the images of the lens 102).
尚、符号を付して説明した構成は適宜改良してもよく、また、少なくとも一部を他の構成物に代替してもよい。 Note that the configuration described with reference numerals may be improved as appropriate, or at least a part thereof may be replaced with another component.
本発明に係る測光装置および撮像装置は、所定の分割測光素子から各分割測光素子までの距離が長い場合でも精度の高い測光を行うことができる。 The photometric device and the imaging device according to the present invention can perform highly accurate photometry even when the distance from a predetermined divided photometric element to each divided photometric element is long.
以下、図面を参照して本発明に係る測光装置および撮像装置について説明する。尚、本実施形態では、測光装置を含む撮像装置として説明するが、専用の測光装置として利用しても構わない。 Hereinafter, a photometric device and an imaging device according to the present invention will be described with reference to the drawings. In the present embodiment, the imaging device including the photometric device is described. However, the imaging device may be used as a dedicated photometric device.
図1は、本実施形態に係る撮像装置100の構成を示すブロック図である。撮像装置100は、カメラ本体101と、カメラ本体101に脱着可能なズームレンズ102とで構成される一眼レフ型のカメラである。
FIG. 1 is a block diagram illustrating a configuration of an
[カメラ本体101の構成]
図1において、カメラ本体101は、メカニカルシャッタ103と、撮像素子104と、AFE(アナログフロントエンド)105と、画像バッファ106と、制御部107と、メモリ108と、表示部109と、メモリカードI/F110と、操作部111と、シャッタ駆動部112と、測光センサ113と、AFセンサ114と、ミラー駆動部115と、絞り駆動部116と、モータ117と、タイミング発生部(TG)118とで構成される。
[Configuration of Camera Body 101]
In FIG. 1, a
図1において、撮影時、ズームレンズ102に入射された被写体光は、ミラーボックス201およびメカニカルシャッタ103を介して撮像素子104の受光面に入射される。尚、測光時の動作については後で説明する。
In FIG. 1, the subject light incident on the
撮像素子104の受光面には二次元状に光電変換部が配置されており、各光電変換部に入射された光量に応じた電気信号をAFE105に出力する。
A photoelectric conversion unit is two-dimensionally arranged on the light receiving surface of the
AFE105は、撮像素子104から出力される電気信号のノイズ除去や増幅などを行い、A/D変換部でデジタル信号に変換する。そして、1画面分のデジタル信号を画像データとして画像バッファ106に一時的に記憶する。
The AFE 105 performs noise removal and amplification of the electrical signal output from the
制御部107は、内部に予め記憶されているプログラムに従って動作し、撮像装置100の各部を制御する。例えば、測光センサ113で受光した被写体の明るさを示す測光値に応じて、ズームレンズ102の絞り値やメカニカルシャッタ103を開閉するシャッタ速度を決定する露出制御を行う。そして、制御部107は、絞り駆動部116に算出した絞り値に設定するよう指令し、またシャッタ駆動部112には算出したシャッタ速度で開閉するよう指令する。
The
特に本実施形態では、測光センサ113は複数の領域に分割して受光する分割測光センサで構成され、制御部107はズームレンズ102の射出瞳位置や光学系の個体差などによる測光値のずれを補正し、補正後の測光値を用いて露出制御を行う。このような補正を行うために、制御部107は、レンズ情報取得部151と、第1補正部152と、第2補正部153と、測光補正部154と、露出制御部155とを有している。ここで、測光装置121は、図1の点線で囲んだ部分で構成され、レンズ情報取得部151と、第1補正部152と、第2補正部153と、測光補正部154とを少なくとも有する制御部107と、測光センサ113およびメモリ108とで構成される。
In particular, in the present embodiment, the
また、制御部107は、画像バッファ106に一時的に取り込まれた撮影画像に対して、ホワイトバランス処理や色補正処理およびガンマ補正処理などを行った後、JPEG圧縮処理などの画像処理を実行する。そして、制御部107は、JPEG圧縮後の画像データをメモリカードI/F110を介してメモリカード110aに保存する。
The
メモリ108は、撮像装置100に予め設定されている撮影モード毎のパラメータなどを記憶する。また、メモリ108は、画像バッファ106に一時的に記憶されている画像やメモリカード110aに保存されている画像を表示部109に表示する際の表示用バッファとしても使用される。特に本実施形態では、測光センサ113の測光値を補正するための第1補正値がメモリ108に記憶されている。第1補正値は、出荷前検査やユーザによるキャリブレーションによって測定された基準レンズとの差を示す補正値で、撮像装置100の個体差による測光センサ113の測光値のずれを補正するためのものである。尚、第1補正値ついては、後で詳しく説明する。
The
表示部109は、制御部107が出力するライブビュー画像や撮影画像、或いは撮像装置100の操作情報やメニュー画面などを表示する。
The
メモリカードI/F110は、メモリカード110aを装着するためのインターフェースで、制御部107が出力する画像データをメモリカード110aに書き込んだり、逆にメモリカード110aに保存されている画像データを制御部107に読み出す。尚、メモリカード110aは、フラッシュメモリなどの不揮発性メモリで構成され、撮像装置100で撮影した画像データが保存される。
The memory card I / F 110 is an interface for mounting the
操作部111は、電源ボタン,レリーズボタン,撮影モード選択ダイヤルやカーソルキーなどの操作部材で構成される。ユーザーはこれらの操作部材を用いて撮像装置100を操作し、操作情報は制御部107に出力される。そして、制御部107は、操作部111から入力する操作情報に応じて、撮像装置100全体の動作を制御する。
The
シャッタ駆動部112は、制御部107の指令に応じて、所定のシャッタ速度でメカニカルシャッタ103を開閉する。尚、所定のシャッタ速度は、測光センサ113の測光値に基づいて制御部107の露出制御部155が決定する。
The
測光センサ113は、ズームレンズ102を介して入力する被写体光の明るさを測光し制御部107に出力する。制御部107は、先に説明したように、測光センサ113の測光値を補正して露出制御を行い、適正露出になるようにズームレンズ102の絞り値やメカニカルシャッタ103のシャッタ速度などを算出する。
The
ここで、測光センサ113について詳しく説明する。測光センサ113は、CCDやCMOSなどで構成されるセンサで、図2に示すようなマトリクス状に配置された複数の画素(複数の領域)で構成される分割測光センサである。そして、各画素には光電変換部が配置され、画素毎に受光する光量に応じた電気信号に変換し、制御部107に出力する。図2の例では、縦100画素、横150画素程度の分解能を有する分割測光センサである。尚、本実施形態では、1画素を1つの分割領域として説明するが、複数の画素を1つの分割領域として扱っても構わない。例えば、縦2画素と横2画素の4画素を1つの分割領域とし、4画素の測光値の平均値をその分割領域の測光値としても構わないし、4画素置の中に1つの画素の測光値を用いるようにしても構わない。
Here, the
AFセンサ114は、ズームレンズ102を介して入力する被写体光のデフォーカス量を瞳分割方式などによって計測し、制御部107に出力する。制御部107は、AFセンサ114から入力するデフォーカス量に応じてズームレンズ102のフォーカスレンズの位置を求め、フォーカスレンズ位置を調整するようズームレンズ102側に指令する。尚、ズームレンズ102側の構成については後で説明する。
The
ミラー駆動部115は、制御部107の指令に応じて、ミラーボックス201内の跳ね上げ式のミラー206を上下する。尚、撮影時や測光時のミラーボックス201の状態については後で詳しく説明する。
The
絞り駆動部116は、制御部107の指令に応じて、モータ(M)117を動作させ、ズームレンズ102側の絞りの開閉と連動する連動ピン301を介してズームレンズ側の絞り302を開閉し、所定の絞り値に調節する。尚、所定の絞り値は、測光センサ113の測光値に基づいて制御部107が決定する。
The
タイミング発生部(TG)118は、制御部107の指令に応じて、撮像素子104やAFE105および画像バッファ106にタイミング信号を出力する。そして、このタイミング信号に応じて撮像素子104から画像信号を読み出し、画像バッファ106に取り込む。
A timing generator (TG) 118 outputs a timing signal to the
[カメラ本体101の光学系の構造]
次に、カメラ本体101の光学系の構造について説明する。図1において、カメラ本体101の中心部には、光軸に沿ってミラーボックス201がメカニカルシャッタ103とズームレンズ102との間に配置されている。また、カメラ本体101の上部領域には、光学ファインダ系を構成する焦点板202と、コンデンサレンズ203と、ペンタプリズム204と、接眼レンズ205とが配置されている。焦点板202は、ミラーボックス201の上方に位置し、ミラー206で反射された光束を一旦結像させる。焦点板202上で結像した光束はコンデンサレンズ203およびペンタプリズム204を通過し、ペンタプリズム204の入射面に対して所定角度だけ偏向した射出面からカメラ本体101の後方に導かれ、接眼レンズ205を介してファインダを覗く撮影者の眼に投影される。尚、ミラー206の中央部は光を透過するハーフミラーになっており、ミラー206を透過した光束はサブミラー207によって下方に反射され、AFセンサ114に導かれる。
[Structure of optical system of camera body 101]
Next, the structure of the optical system of the
測光時は、ミラー206で反射され焦点板202上で結像した光の散乱光がコンデンサレンズ203およびペンタプリズム204を通過して、ペンタプリズム204の近傍に設けられた測光センサ113に導かれ、測光センサ113で複数の領域に分割して領域毎の測光値を制御部107に出力する。
At the time of photometry, the scattered light of the light reflected by the
撮影時は、制御部107の指令に応じてミラー駆動部115を介してミラー206およびサブミラー207を跳ね上げ、ズームレンズ102から入射する被写体光はメカニカルシャッタ103を介して撮像素子104に結像される。撮影後は、メカニカルシャッタ103が閉じられると同時にミラー206は跳ね上げ前の位置に戻る。
At the time of shooting, the
ここで、表示部109にライブビュー画像を表示して撮影する場合は、ミラー206は跳ね上げたままの状態で、メカニカルシャッタ103も開いた状態にしておき、電子シャッタによってライブビュー画像を撮影して表示部109にライブビュー画像を表示する。そして、操作部111のレリーズボタンが押下されると、一旦、メカニカルシャッタ103を閉じると共に、ミラー206を元の位置に戻して測光センサ113で測光後、再びミラー206を跳ね上げて、メカニカルシャッタ103を設定されたシャッタ速度で開閉し、撮像素子104で本撮影を行う。
Here, when a live view image is displayed and photographed on the
[ズームレンズ102の構成]
次に、ズームレンズ102の構造について説明する。図1において、ズームレンズ102は、先に説明した絞り駆動用の連動ピン301と、絞り302と、フォーカスレンズおよびズームレンズなどを構成する複数枚のレンズ303と、レンズ制御部304と、フォーカス駆動部305と、モータ(M)306と、フォーカス位置検出部307と、ズームリング308と、ズーム位置検出部309と、接点コネクタ310と、メモリ311とで構成される。
[Configuration of Zoom Lens 102]
Next, the structure of the
レンズ制御部304は、接点コネクタ310を介してカメラ本体101側に接続され、カメラ本体101側から電源の供給を受けると共に、制御部107から受ける指令に応じてズームレンズ102の各部の動作を制御する。或いは、レンズ制御部304は、製造時にメモリ311に記憶されているズームレンズ102の製造番号や型番およびズーム範囲や焦点距離範囲などの静的なレンズ情報を読み出して制御部107に出力する。特に本実施形態では、ズーム操作やフォーカス操作に応じて逐次変化するフォーカスレンズ位置やズームレンズ位置、射出瞳位置などの動的なレンズ情報を制御部107に出力する。尚、本実施形態の説明では、これらの静的なレンズ情報と動的なレンズ情報を総称してレンズ情報と称する。
The
フォーカス駆動部305は、レンズ制御部304の指令に応じて、レンズ303内のフォーカスレンズが所定位置になるようモータ306を駆動する。尚、フォーカスレンズの所定位置は、先に説明したように、カメラ本体101の制御部107が求めたフォーカスレンズ位置である。
The
フォーカス位置検出部307は、フォーカス駆動部305がモータ306を駆動して調整するフォーカスレンズの位置を読み取って、レンズ制御部304に出力する。これによって、レンズ制御部304はフォーカスレンズの位置を取得し、フォーカス駆動部305に指令した所定位置にフォーカスレンズが移動されたか否かを確認する。
The focus
ズームリング308は、ズームレンズ102の鏡筒の周囲に設けられたリング状の操作部材で、撮影者が手動で回転してレンズ303内のズームレンズの位置を可変する。
The
ズーム位置検出部309は、ズームリング308の操作によって可変されたズームレンズの位置を読み取って、レンズ制御部304に出力する。これによって、レンズ制御部304はズーム位置を取得する。
The zoom
接点コネクタ310は、ズームレンズ102側の金属接点とカメラ本体101側の金属接点とで構成され、ズームレンズ102の鏡筒をカメラ本体101に装着した時に両側の金属接点が接続され、カメラ本体101側からズームレンズ102側への電源の供給や、制御部107とレンズ制御部304との間で制御信号の通信を行うことができる。
The
メモリ311は、先に説明したように、ズームレンズ102の静的なレンズ情報が製造時に記憶されている。
As described above, the
[測光センサ113の測光値の補正について]
次に、図1の測光センサ113が出力する測光値を補正する処理について詳しく説明する。測光センサ113は、図2で説明したように、マトリクス状に配置された複数の画素(複数の領域)で構成される分割測光センサである。そして、測光センサ113が受光する光は、図1のズームレンズ102の光学系と、カメラ本体101のミラー206,焦点板202,コンデンサレンズ203およびペンタプリズム204などの光学系を介して入射されるので、仮に一様な輝度の光を入射させた場合でも、これらの光学系の特性に応じて複数の領域で受光される光の測光値にずれや偏りが生じ、例えば図3に示すような輝度分布になる。尚、図3は測光センサ113の測光値をメッシュの濃さで表現した図で、同じ輝度範囲のエリアを同じ濃さのメッシュで塗り潰してある。例えばエリア113aの楕円内は測光値が同じ輝度範囲であることを示し、エリア113bの楕円内でエリア113aを覗く部分は測光値が同じ輝度範囲であることを示している。図3の例のように、一様な輝度の光を入射させた場合でも、測光センサ113が出力する測光値は一様ではなく、中心のずれや偏りのある分布になる。そこで、適正な露出制御を行うためには、測光センサ113が出力する測光値を適切な補正値で補正する必要がある。
[Correction of photometric value of photometric sensor 113]
Next, the process of correcting the photometric value output from the
本実施形態では、測光センサ113の測光値を2段階に分けて補正する。1段目の補正に用いる補正値は、基準レンズ(例えば焦点距離が50mmの標準レンズなど)をカメラ本体101に装着した時の測光センサ113の測光値を基準として、カメラ本体101の測光センサ113までの光学系の個体差による偏りを補正して一様な測光値が得られるようにするための第1補正値である。これは、工場出荷時などにキャリブレーションした基準レンズとの差分データを第1補正値としてメモリ108に予め記憶しておく。2段目の補正に用いる補正値は、カメラ本体101に装着されているズームレンズ102からレンズ情報(開放絞り値や射出瞳位置などの情報)を取得して、これらのレンズ情報から測光センサ113の測光値を補正する第2補正値である。特に第2補正値は、カメラ本体101に装着されるズームレンズ102が交換された時や、ズームレンズ102のズーム位置やフォーカス位置が変わった時などに更新される。このように、第2補正値はズームレンズ102のレンズ303の状態によって変化するので、露出制御を行う毎にレンズ情報を取得し、取得したレンズ情報を入力パラメータとしてファジイ処理やニューラルネットワーク処理などを用いて第2補正値を求める。或いは、レンズ情報毎に測光センサ113が出力する測光値に対する補正値を予め実験やシミュレーションなどによって求めておき、レンズ情報と第2補正値とを対応させたテーブルをメモリ108に記憶しておいても構わない。但し、レンズ情報の組合せが多い場合はメモリ容量が多くなるだけでなく、新しいレンズが開発される度に、メモリ108のテーブルを更新する必要がある。
In the present embodiment, the photometric value of the
[測光値の補正処理]
次に、第1補正値と第2補正値とを用いて測光センサ113が出力する測光値を補正する処理について詳しく説明する。図4は、測光値の補正処理を示すフローチャートである。尚、図4のフローチャートの処理は、制御部107のレンズ情報取得部151と、第1補正部152と、第2補正部153と、測光補正部154と、露出制御部155とで行われる。以下、フローチャートに従って順に説明する。
[Photometric value correction]
Next, the process of correcting the photometric value output from the
(ステップS101)第1補正部152は、基準レンズとの差分データである第1補正値をメモリ108から読み出す。尚、メモリ108に記憶されている第1補正値は、図2で説明した全画素に対する補正値であっても構わないが、ここでは全画素の中の所定の画素(以下、第1所定画素と称する)に対する第1補正値だけがメモリ108に記憶されているものとする。図5に第1所定画素の一例を示す。図5は、図2で説明した測光センサ113の左上の画素部分を拡大した図である。図5において、画素の座標を座標(y軸方向の画素位置,x軸方向の画素位置)で表記すると、例えば測光センサ113の紙面左上の画素の座標はp(1,1)となる。ここで、例えば図5の画素の中で黒色で示したp(1,1),p(1,5),p(1,10),p(4,1),p(4,5),p(4,10),(8,1),p(8,5),p(8,10)の各画素が第1所定画素となる。そして、これらの画素の第1補正値のみがメモリ108に記憶されている。従って、例えばp(1,2)やp(6,7)などの白色で示した画素に対する第1補正値はメモリ108に記憶されていない。
(Step S <b> 101) The
ここで、第1所定画素の第1補正値をZm1(x,y)と表記する。例えば第1所定画素の画素p(4,5)の第1補正値はZm1(4,5)と表記される。尚、第1補正値は、先に説明したように、基準レンズを用いて得られる測光センサ113の測光値の偏りを補正する補正値で、出荷前検査やユーザによるキャリブレーションによってメモリ108に予め書き込まれた値である。
Here, the first correction value of the first predetermined pixel is expressed as Zm1 (x, y). For example, the first correction value of the pixel p (4, 5) of the first predetermined pixel is denoted as Zm1 (4, 5). As described above, the first correction value is a correction value for correcting the deviation of the photometric value of the
(ステップS102)第1補正部152は、測光センサ113から出力された複数の画素の測光値を画素単位で補正するために、補正しようとしている画素が第1所定画素であるか否かを判別する。そして、第1所定画素である場合はステップS103に進み、第1所定画素ではない場合はステップS104に進む。例えば、先に説明した図5の例では、補正しようとする画素がp(1,1)の場合はステップS103に進み、p(1,2)の場合はステップS104に進む。
(Step S102) The
(ステップS103)補正しようとしている画素が第1所定画素の場合、第1補正部152は、メモリ108から読み出した当該画素の第1補正値をそのまま当該画素の第1補正値とする。
(Step S103) When the pixel to be corrected is the first predetermined pixel, the
この様子を図6(a)に示す。図6(a)は図5を拡大した図で、画素p(X,Y)を基準とする黒く塗り潰された4つの第1所定画素(p(X,Y),p(X+n,Y),p(X,Y+k),p(X+n,Y+k))に対する第1補正値はメモリ108に記憶されているが、白色の画素に対する第1補正値はメモリ108に記憶されていない。本処理ステップでは、図6(a)において、p(X,Y),p(X+n,Y),p(X,Y+k)およびp(X+n,Y+k)の4つの第1所定画素に対する第1補正値は、それぞれメモリ108から読み出した第1補正値Zm1(X,Y),Zm1(X+n,Y),Zm1(X,Y+k)およびZm1(X+n,Y+k)がそのまま適用される。尚、図6(a)において、nはx軸方向の画素p(X,Y+k)とp(X+n,Y+k)の画素間隔を示す自然数で、kはy軸方向の画素p(X,Y)とp(X+n,Y)の画素間隔を示す自然数である。図6(a)の例では、n=6,k=4となっている。
This is shown in FIG. FIG. 6A is an enlarged view of FIG. 5, and four first predetermined pixels (p (X, Y), p (X + n, Y), black) with reference to the pixel p (X, Y), The first correction values for p (X, Y + k) and p (X + n, Y + k)) are stored in the
(ステップS104)補正しようとしている画素が第1所定画素ではない場合、当該画素の第1補正値がメモリ108に記憶されていないので、第1補正部152は、周辺の第1所定画素の第1補正値を用いて補間した近似値を当該画素の第1補正値とする。
(Step S104) When the pixel to be corrected is not the first predetermined pixel, the first correction value of the pixel is not stored in the
この様子を図6(a)を用いて説明する。図6(a)において、メモリ108に第1補正値が記憶されていない第1所定画素以外の画素p(X+n’,Y+k’)の第1補正値の近似値Z’m1(X+n’,Y+k’)を、当該画素p(X+n’,Y+k’)の周辺の4つの第1所定画素(p(X,Y),p(X+n,Y),p(X,Y+k)およびp(X+n,Y+k))から補間して求める。尚、図6(a)において、n’はx軸方向の画素p(X,Y)およびp(X,Y+k)から画素p(X+n’,Y+k’)までの画素間隔を示す自然数で、k’はy軸方向の画素p(X,Y)およびp(X+n,Y)から画素p(X+n’,Y+k’)までの画素間隔を示す自然数である。従って、図6(a)の例では、n=6,k=4,n’=4,k’=1となっている。
This state will be described with reference to FIG. In FIG. 6A, the approximate value Z′m1 (X + n ′, Y + k) of the first correction value of the pixel p (X + n ′, Y + k ′) other than the first predetermined pixel for which the first correction value is not stored in the
本処理ステップでは、第1補正値がメモリ108に記憶されていない第1所定画素以外の画素の第1補正値の近似値を(式1)を用いて算出する。尚、(式1)は、画素p(X+n’,Y+k’)の第1補正値の近似値Z’m1(X+n’,Y+k’)を求める場合の近似式である。そして、求めた近似値Z’m1(X+n’,Y+k’)を当該画素p(X+n’,Y+k’)の第1補正値Zm1(X+n’,Y+k’)とする。このようにして、第1所定画素以外の画素の第1補正値を求めることができる。
In this processing step, an approximate value of the first correction value of a pixel other than the first predetermined pixel whose first correction value is not stored in the
尚、(式1)では、周辺の第1所定画素からの画素間隔に応じて比例配分する直線補間を行うようにしたが、二次式や高次式あるいは三角関数など他の方法によって補間するようにしても構わない。また、図6(a)では、周辺の4つの第1所定画素の第1補正値から補間するようにしたが、周辺の3つの第1所定画素の第1補正値から求めるようにしても構わない。 In (Expression 1), linear interpolation is performed that is proportionally distributed according to the pixel interval from the surrounding first predetermined pixel. However, interpolation is performed by other methods such as a quadratic expression, a high-order expression, or a trigonometric function. It doesn't matter if you do. In FIG. 6A, interpolation is performed from the first correction values of the four surrounding first predetermined pixels. However, the interpolation may be performed from the first correction values of the three surrounding first predetermined pixels. Absent.
このようにして、ステップS103またはステップS104が終了した時点で、測光センサ113の全画素に対する第1補正値Zm1(x,y)が求まる。ここで、変数x,yは、例えば図2の場合、xは1から150の自然数、yは1から100の自然数である。尚、ステップS101からステップS104までの第1補正値を求める処理は測光センサ113の全画素について行われる。この時、1画素ずつ順番に処理しても構わないし、複数画素毎に並列処理で求めても構わない。
In this way, when step S103 or step S104 is completed, the first correction value Zm1 (x, y) for all the pixels of the
引き続き説明する以下のステップは、第2補正値を求める処理である。 The following steps to be described subsequently are processes for obtaining the second correction value.
(ステップS105)レンズ情報取得部151は、ズームレンズ102からレンズ情報を読み出す。レンズ情報は、先に説明したように、ズーム位置,フォーカス位置,射出瞳位置,開放絞り値など測光センサ113の測光値の分布に影響する光学情報である。これらの値はズームレンズ102が交換された時やズーム位置やフォーカス位置が変更される毎に更新されている。
(Step S <b> 105) The lens
(ステップS106)第2補正部153は、ステップS105で取得したレンズ情報に応じて、第2所定画素毎に第2補正値Zm2(x,y)を算出する。
(Step S106) The
ここで、第2所定画素について図7を用いて説明する。図7は、先に説明した図5に第2所定画素を追加した図である。従って、図7の中で黒で塗り潰した画素は第1所定画素を示している。図7において、第2所定画素は、横縞模様で示した画素p(1,3),p(1,8),p(4,3),p(4,8),p(7,3),(7,8)の6つの画素である。そして、ステップS106では、これらの画素の第2補正値を算出する。第2補正値は、ステップS105で取得したレンズ情報を入力パラメータとしてファジイ処理やニューラルネットワーク処理などによって求める。例えば、フォーカス位置,射出瞳位置,開放絞り値,レンズ構成などの光学情報をパラメータとして入力し、測光センサ113の第2所定画素の位置での補正値(第2補正値)を求める。尚、ファジイ処理やニューラルネットワーク処理については周知なので詳しい説明は省略する。尚、第2所定画素についてのみ第2補正値を求める理由は、全画素について第2補正値を求める場合、ファジイ処理やニューラルネットワーク処理などの複雑な処理を全画素について行わなければならず、測光時の制御部107の処理負荷が増えるからである。
Here, the second predetermined pixel will be described with reference to FIG. FIG. 7 is a diagram in which a second predetermined pixel is added to FIG. 5 described above. Accordingly, the pixels filled in black in FIG. 7 indicate the first predetermined pixels. In FIG. 7, the second predetermined pixels are pixels p (1,3), p (1,8), p (4,3), p (4,8), p (7,3) shown in a horizontal stripe pattern. , (7, 8). In step S106, the second correction values of these pixels are calculated. The second correction value is obtained by fuzzy processing or neural network processing using the lens information acquired in step S105 as an input parameter. For example, optical information such as a focus position, an exit pupil position, an open aperture value, and a lens configuration is input as parameters, and a correction value (second correction value) at the position of the second predetermined pixel of the
或いは、レンズ情報毎に測光センサ113が出力する第2所定画素の測光値に対する第2補正値を予め実験やシミュレーションなどによって求めておき、レンズ情報のパラメータの組み合わせと第2補正値とを対応させたテーブルを第1補正値と同様に予めメモリ108に記憶しておいても構わない。但し、この場合は、レンズ情報の組合せ数分の第2補正値を予めメモリ108に記憶しておかなければならず、メモリ容量が多くなるだけでなく、新しいレンズが開発される度に、メモリ108のテーブルを更新する必要がある。
Alternatively, a second correction value for the photometric value of the second predetermined pixel output from the
このようにして、第2補正部153は、ステップS105で取得したレンズ情報に応じて、第2所定画素毎に第2補正値Zm2(x,y)を算出する。
In this way, the
(ステップS107)第2補正部153は、測光センサ113から出力された複数の画素の測光値を画素単位で補正するために、補正しようとしている画素が第2所定画素であるか否かを判別する。そして、第2所定画素である場合はステップS108に進み、第2所定画素ではない場合はステップS109に進む。例えば、先に説明した図7の例では、補正しようとする画素がp(1,3)の場合はステップS108に進み、p(2,4)の場合はステップS109に進む。
(Step S107) The
(ステップS108)補正しようとしている画素が第2所定画素の場合、第2補正部153は、ステップS106で算出した当該画素の第2補正値をそのまま当該画素の第2補正値とする。
(Step S108) When the pixel to be corrected is the second predetermined pixel, the
この様子は先に第1補正値の説明で用いた図6(a)と同様に求める。例えば図6(b)の例では、画素p(X,Y)を基準とする横縞模様に塗り潰された4つの画素(p(X,Y),p(X+n,Y),p(X,Y+k),p(X+n,Y+k))に対する第2補正値Zm2(X,Y),Zm2(X+n,Y),Zm2(X,Y+k),Zm2(X+n,Y+k))はステップS106で既に算出されている。これに対して、白色の画素は第2補正値Zm2が算出されていない画素である。尚、図6(b)は第2所定画素の第2補正値を求める以外は、図6(a)の例と同じであり、符号X,Y,n,kについても同様である。 This state is obtained in the same manner as in FIG. 6A used in the description of the first correction value. For example, in the example of FIG. 6B, four pixels (p (X, Y), p (X + n, Y), p (X, Y + k) filled in a horizontal stripe pattern with the pixel p (X, Y) as a reference. ), P (X + n, Y + k)) for the second correction values Zm2 (X, Y), Zm2 (X + n, Y), Zm2 (X, Y + k), Zm2 (X + n, Y + k)) are already calculated in step S106. Yes. On the other hand, white pixels are pixels for which the second correction value Zm2 has not been calculated. FIG. 6B is the same as the example of FIG. 6A except that the second correction value of the second predetermined pixel is obtained, and the same applies to the symbols X, Y, n, and k.
(ステップS109)補正しようとしている画素が第2所定画素ではない場合、当該画素の第2補正値が算出されていないので、第2補正部153は、周辺の第2所定画素の第2補正値を用いて補間した値を当該画素の第2補正値とする。
(Step S109) When the pixel to be corrected is not the second predetermined pixel, the second correction value of the pixel is not calculated, so the
この様子は先に説明した第1補正値の場合と同様に近似式によって補間する。例えば、図6(b)において、第2補正値が算出されていない画素p(X+n’,Y+k’)の第2補正値の近似値Z’m2(X+n’,Y+k’)を、当該画素p(X+n’,Y+k’)の周辺の第2補正値が算出されている4つの第2所定画素(p(X,Y),p(X+n,Y),p(X,Y+k)およびp(X+n,Y+k))から補間して求める。補間の方法は、第1所定画素を補間する場合の(式1)と同様の(式2)を用いて算出することができる。そして、求めた近似値Z’m2(X+n’,Y+k’)を画素p(X+n’,Y+k’)の第2補正値Zm2(X+n’,Y+k’)とする。このようにして、第2所定画素以外の画素の第2補正値を求めることができる。 This state is interpolated by an approximate expression as in the case of the first correction value described above. For example, in FIG. 6B, the approximate value Z′m2 (X + n ′, Y + k ′) of the second correction value of the pixel p (X + n ′, Y + k ′) for which the second correction value has not been calculated is used as the pixel p. Four second predetermined pixels (p (X, Y), p (X + n, Y), p (X, Y + k), and p (X + n) whose second correction values around (X + n ′, Y + k ′) are calculated. , Y + k)). The interpolation method can be calculated using (Expression 2) similar to (Expression 1) in the case of interpolating the first predetermined pixel. Then, the obtained approximate value Z′m2 (X + n ′, Y + k ′) is set as the second correction value Zm2 (X + n ′, Y + k ′) of the pixel p (X + n ′, Y + k ′). In this way, the second correction value of pixels other than the second predetermined pixel can be obtained.
尚、(式2)では、周辺の第2所定画素からの画素間隔に応じて比例配分する直線補間を行うようにしたが、(式1)と同様に、二次式や高次式あるいは三角関数など他の方法によって補間するようにしても構わない。また、図6(b)では、周辺の4つの第2所定画素の第2補正値から補間するようにしたが、周辺の3つの第2所定画素の第2補正値から求めるようにしても構わない。 In (Expression 2), linear interpolation is performed that is proportionally distributed according to the pixel interval from the surrounding second predetermined pixel. However, as in (Expression 1), a quadratic expression, a higher order expression, or a triangular expression is used. You may make it interpolate by other methods, such as a function. In FIG. 6B, the interpolation is performed from the second correction values of the four neighboring second predetermined pixels, but may be obtained from the second correction values of the three neighboring second predetermined pixels. Absent.
このようにして、ステップS106またはステップS109の処理が終了した時点で、測光センサ113の全画素に対する第2補正値Zm2(x,y)が求まる。ここで、変数x,yは、例えば図2の場合、xは1から150の自然数、yは1から100の自然数である。尚、ステップS106からステップS109までの第2補正値を求める処理は測光センサ113の全画素について行われる。この時、1画素ずつ順番に処理しても構わないし、複数画素毎に並列処理で求めても構わない。
In this way, the second correction value Zm2 (x, y) for all the pixels of the
(ステップS110)測光補正部154は、第1補正値Zm1(x,y)と、第2補正値Zm2(x,y)とを用いて、測光センサ113が出力する測光値を補正する最終的な測光補正値Zm(x,y)を(式3)によって求める。
(Step S110) The
Zm(x,y)=Zm1(x,y)×Zm2(x,y) …(式3)
(ステップS111)測光補正部154は、(式3)で求めた測光補正値Zm(x,y)を用いて、測光センサ113が出力する複数の画素毎の測光値(B(x,y))を補正し、撮影時に用いる補正済みの測光値(Bm(x,y))を求める(式4)。
Zm (x, y) = Zm1 (x, y) × Zm2 (x, y) (Formula 3)
(Step S111) The
Bm(x,y)=B(x,y)×Zm(x,y) …(式4)
(ステップS112)露出制御部155は、(式4)で求めた補正済の測光値(Bm(x,y))によって適正な露出を得るための絞り値やシャッタ速度を求めて露出制御を行う。
Bm (x, y) = B (x, y) × Zm (x, y) (Formula 4)
(Step S112) The
このようにして、本実施形態に係る撮像装置100および測光センサ113と、メモリ108と、レンズ情報取得部151と、第1補正部152と、第2補正部153と、測光補正部154とで構成される測光装置121は、光学系の個体差やズーム位置や射出瞳位置などレンズ情報の変化による測光センサ113の測光値のずれを補正することができる。
In this way, the
特に、本実施形態では、図7に示すように、第1所定画素と第2所定画素の位置が異なるように配置しているので、第1所定画素の第1補正値と第2所定画素の第2補正値とを用いて算出される測光補正値の精度を高くすることができる。 In particular, in the present embodiment, as shown in FIG. 7, the first predetermined pixel and the second predetermined pixel are arranged so that the positions thereof are different from each other. Therefore, the first correction value of the first predetermined pixel and the second predetermined pixel The accuracy of the photometric correction value calculated using the second correction value can be increased.
ここで、この理由について説明する。図4のフローチャートにおいて、ステップS104で行う第1補正値の補間処理と、ステップS109で行う第2補正値の補間処理は近似式を用いるので、第1所定画素または第2所定画素から離れた位置の画素の補間値は誤差が大きくなる可能性が高い。一方、第1所定画素と第2所定画素の位置が同じである場合は、第1所定画素から離れた位置の画素は第2所定画素からも離れた位置にあるので、ステップS110で第1補正値と第2補正値とを用いて最終的な測光補正値を算出する際に、補間値の誤差が大きいもの同士を用いることになるので測光補正値の誤差が更に大きくなってしまう。従って、図7で説明したように第1所定画素と第2所定画素の位置をずらすことによって補間誤差の影響を低減することができる。但し、第1所定画素と第2所定画素の位置が全て異なっている必要はなく、特に測光センサ113の周辺部分の画素においては、第1所定画素と第2所定画素の位置が同じ位置であっても構わない。例えば、図7において、画素p(1,1),p(1,4)およびp(4,1)などを第1所定画素および第2所定画素としても構わない。
Here, the reason will be described. In the flowchart of FIG. 4, since the interpolation process of the first correction value performed in step S104 and the interpolation process of the second correction value performed in step S109 use approximate expressions, the position is away from the first predetermined pixel or the second predetermined pixel. There is a high possibility that the interpolation value of this pixel will have a large error. On the other hand, if the positions of the first predetermined pixel and the second predetermined pixel are the same, the pixel at a position away from the first predetermined pixel is also at a position away from the second predetermined pixel. When the final photometric correction value is calculated using the value and the second correction value, those having a large error in the interpolated value are used, so that the error in the photometric correction value is further increased. Therefore, as described with reference to FIG. 7, the influence of the interpolation error can be reduced by shifting the positions of the first predetermined pixel and the second predetermined pixel. However, it is not necessary that the positions of the first predetermined pixel and the second predetermined pixel are all different. In particular, in the peripheral pixels of the
また、第1所定画素または第2所定画素の配置は、測光センサ113の受光面に均等配置(同じ密度で配置)する必要はない。例えば、図8に示すように、第1所定画素または第2所定画素を配置する際の密度を測光センサ113の中央部分より周辺部分を相対的に高くするようにしても構わない。特に、一般的な測光センサは周辺部分の誤差が中央部分よりも大きくなる傾向にあるので、図8のように第1所定画素または第2所定画素を配置するのが好ましい。
Further, it is not necessary to arrange the first predetermined pixels or the second predetermined pixels equally on the light receiving surface of the photometric sensor 113 (with the same density). For example, as shown in FIG. 8, the density at the time of arranging the first predetermined pixel or the second predetermined pixel may be set so that the peripheral portion is relatively higher than the central portion of the
さらに、図4のフローチャートでは、第1補正値を全部決定してから第2補正値を求めるように処理しているが、画素毎に第1補正値と第2補正値とを求めるようにしても構わない。或いは、第1補正値と第2補正値とが求まり次第、順次、当該画素の測光補正値までを求めるようにしても構わない。また、第1補正値と第2補正値とを求める順番を逆にしても構わない。 Further, in the flowchart of FIG. 4, processing is performed so as to obtain the second correction value after determining all the first correction values. However, the first correction value and the second correction value are obtained for each pixel. It doesn't matter. Alternatively, as soon as the first correction value and the second correction value are obtained, the photometric correction value of the pixel may be obtained sequentially. Further, the order of obtaining the first correction value and the second correction value may be reversed.
このように、本実施形態に係る撮像装置100および測光装置121は、少なくとも一部の画素の位置が異なる第1所定画素の第1補正値と第2所定画素の第2補正値とを別々に求めて測光センサ113の測光値を補正することにより、精度の高い測光補正を行うことができる。
As described above, the
[被写体追尾機能への応用例]
次に、上記で説明した撮像装置100および測光装置121の応用例について説明する。本応用例は、予め登録した特定の被写体を追尾する被写体追尾機能を有する撮像装置への適用例である。尚、被写体追尾に関する処理は制御部107で行うものとし、図9に示したように制御部107に追尾部122を設ける。尚、追尾部122以外は図1と同じである。
[Example of application to subject tracking function]
Next, application examples of the
ここでは、測光センサ113の測光値を補正した図9の測光補正部154が出力する測光値(図4のステップS111が求めた測光値)を利用した簡単な被写体追尾機能の例を挙げて説明する。先ず、撮影者は、追尾したい特定の被写体(追尾被写体)を登録する操作を行う。例えば、図1において、撮影者は、接眼レンズ205を介してファインダを覗きながら追尾したい被写体を画面中央に配置し、操作部111のレリーズボタンを半押しする。これにより、画面中央部の被写体が追尾被写体として登録される。この時、追尾部122は、測光センサ113の補正後の受光面中央部分の分割測光値をメモリ108に記憶する。例えば中央部分の15画素×15画素の測光値がメモリ108に記憶される。尚、この時、追尾部122は、メモリ108に記憶される測光値に対してエッジ抽出処理などの画像処理を行って、追尾被写体の特徴が明確になるようにしても構わない。
Here, an example of a simple subject tracking function using the photometric value output by the
そして、追尾部122が被写体追尾処理を開始すると、測光センサ113で分割測光される補正後の測光値を解析して、メモリ108に登録されている追尾被写体の測光値に類似している部分を検索する。類似部分の検索は、例えば、図2の測光センサ113の受光面において、15画素×15画素のブロックを左端から順番に1画素ずつスライドしながらブロック内の相関値を求め、相関値が最も高い部分を追尾被写体の位置とする。或いは、エッジ抽出した形状と類似した形状をパターン認識して、追尾被写体の位置を判定するようにしても構わない。
Then, when the tracking unit 122 starts the subject tracking process, the photometric value after correction that is divided by the
このようにして、追尾部122は、測光センサ113の測光値を用いて被写体追尾を行うことができる。特に、被写体追尾を行う際の測光値は、先の実施形態で説明したように、測光装置121で補正後の測光値を用いるので、追尾被写体が測光センサ113の中央部分から測光値誤差の大きい周辺部分に移動した場合でも、精度良く追尾被写体を検出することができる。
In this way, the tracking unit 122 can perform subject tracking using the photometric value of the
以上、本発明に係る測光装置および撮像装置について、各実施例を挙げて説明してきたが、その精神またはその主要な特徴から逸脱することなく他の多様な形で実施することができる。そのため、上述した実施例はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。 The photometric device and the imaging device according to the present invention have been described with reference to the embodiments. However, the present invention can be implemented in various other forms without departing from the spirit or main features thereof. For this reason, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The present invention is defined by the claims, and the present invention is not limited to the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.
100・・・撮像装置;101・・・カメラ本体;101・・・カメラ本体;102・・・ズームレンズ;103・・・メカニカルシャッタ;104・・・撮像素子;105・・・AFE(アナログフロントエンド);106・・・画像バッファ;107・・・制御部;108・・・メモリ;109・・・表示部;110・・・メモリカードI/F;111・・・操作部;112・・・シャッタ駆動部;113・・・測光センサ;114・・・AFセンサ;115・・・ミラー駆動部;116・・・絞り駆動部;117・・・モータ;118・・・タイミング発生部(TG);151・・・レンズ情報取得部;152・・・第1補正部;153・・・第2補正部;154・・・測光補正部;155・・・露出制御部;121・・・測光装置;201・・・ミラーボックス;202・・・焦点板;203・・・コンデンサレンズ;204・・・ペンタプリズム;205・・・接眼レンズ;206・・・ミラー;207・・・サブミラー;301・・・連動ピン;302・・・絞り;303・・・レンズ;304・・・レンズ制御部;305・・・フォーカス駆動部;306・・・モータ(M);307・・・フォーカス位置検出部;308・・・ズームリング;309・・・ズーム位置検出部;310・・・接点コネクタ;311・・・メモリ
DESCRIPTION OF
Claims (6)
前記受光手段に応じて決められた前記受光信号に対する第1補正値を前記複数の領域のうちの第1領域に対して記憶する記憶手段と、
前記光学系の情報を検出する検出手段と、
前記光学系の情報に基づいて前記受光信号に対する第2補正値を前記複数の領域のうちの前記第1領域と異なる第2領域に対して求める演算手段と、
前記第1補正値と前記第2補正値とに基づいて前記受光信号を補正する補正手段と
を有することを特徴とする測光装置。 A light receiving means for dividing a light beam incident via an optical system into a plurality of regions, receiving the light, and outputting a light reception signal;
Storage means for storing a first correction value for the received light signal determined according to the light receiving means in a first area of the plurality of areas;
Detecting means for detecting information of the optical system;
An arithmetic means for obtaining a second correction value for the light reception signal for a second region different from the first region of the plurality of regions based on information of the optical system;
A photometric device comprising: correction means for correcting the light reception signal based on the first correction value and the second correction value.
前記補正手段は、前記複数の第2補正値から前記第1領域に対する第2補正値を求め、求めた第2補正値と前記第1領域の第1補正値とに基づいて前記受光信号を補正する
ことを特徴とする測光装置。 The photometric device according to claim 1,
The correction means calculates a second correction value for the first region from the plurality of second correction values, and corrects the light reception signal based on the calculated second correction value and the first correction value of the first region. A photometric device characterized by that.
前記第1領域と前記第2領域は、前記複数の領域に離散的に配置された複数の領域であって、前記第1領域と前記第2領域の少なくとも一方は、前記複数の領域の中央部よりも周辺部に高密度に配置される
ことを特徴とする測光装置。 In the photometric device according to claim 1 or 2,
The first region and the second region are a plurality of regions discretely arranged in the plurality of regions, and at least one of the first region and the second region is a central portion of the plurality of regions. A photometric device characterized by being arranged at a higher density in the periphery.
前記光学系を介して入射する像を撮像する撮像手段と、
前記補正手段が補正した前記受光信号に基づいて前記撮像手段の露出制御を行う露出制御手段と
を有することを特徴とする撮像装置。 A photometric device according to any one of claims 1 to 3;
Imaging means for imaging an image incident through the optical system;
An image pickup apparatus comprising: an exposure control unit that performs exposure control of the image pickup unit based on the light reception signal corrected by the correction unit.
前記受光手段は、前記光学系による像を結像する焦点板からの散乱光を受光することを特徴とする撮像装置。 The imaging apparatus according to claim 4,
The imaging device, wherein the light receiving means receives scattered light from a focusing screen that forms an image by the optical system.
前記補正手段が補正した前記受光信号に基づいて、前記光学系による像のうちの特定の対象の像を検出する像検出手段を備えることを特徴とする撮像装置。 In the imaging device according to claim 4 or 5,
An image pickup apparatus, comprising: an image detection unit configured to detect an image of a specific target among images by the optical system based on the light reception signal corrected by the correction unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009186601A JP5444928B2 (en) | 2009-08-11 | 2009-08-11 | Photometric device and imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009186601A JP5444928B2 (en) | 2009-08-11 | 2009-08-11 | Photometric device and imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011039293A true JP2011039293A (en) | 2011-02-24 |
JP5444928B2 JP5444928B2 (en) | 2014-03-19 |
Family
ID=43767126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009186601A Active JP5444928B2 (en) | 2009-08-11 | 2009-08-11 | Photometric device and imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5444928B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012233952A (en) * | 2011-04-28 | 2012-11-29 | Canon Inc | Imaging device, control method of the same and program |
JP2012242731A (en) * | 2011-05-23 | 2012-12-10 | Sigma Corp | Photometric device for lens-interchangeable camera |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01267620A (en) * | 1988-04-20 | 1989-10-25 | Minolta Camera Co Ltd | Exposure control device of camera |
JPH01308925A (en) * | 1989-03-29 | 1989-12-13 | Minolta Camera Co Ltd | Photometric apparatus of camera |
JP2001318399A (en) * | 2000-05-09 | 2001-11-16 | Nikon Corp | Photometric device for camera |
JP2006084863A (en) * | 2004-09-16 | 2006-03-30 | Nikon Corp | Electronic camera and image processing program |
JP2006314038A (en) * | 2005-05-09 | 2006-11-16 | Nikon Corp | Electronic camera |
-
2009
- 2009-08-11 JP JP2009186601A patent/JP5444928B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01267620A (en) * | 1988-04-20 | 1989-10-25 | Minolta Camera Co Ltd | Exposure control device of camera |
JPH01308925A (en) * | 1989-03-29 | 1989-12-13 | Minolta Camera Co Ltd | Photometric apparatus of camera |
JP2001318399A (en) * | 2000-05-09 | 2001-11-16 | Nikon Corp | Photometric device for camera |
JP2006084863A (en) * | 2004-09-16 | 2006-03-30 | Nikon Corp | Electronic camera and image processing program |
JP2006314038A (en) * | 2005-05-09 | 2006-11-16 | Nikon Corp | Electronic camera |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012233952A (en) * | 2011-04-28 | 2012-11-29 | Canon Inc | Imaging device, control method of the same and program |
JP2012242731A (en) * | 2011-05-23 | 2012-12-10 | Sigma Corp | Photometric device for lens-interchangeable camera |
Also Published As
Publication number | Publication date |
---|---|
JP5444928B2 (en) | 2014-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8730374B2 (en) | Focus detection apparatus | |
JP5901246B2 (en) | Imaging device | |
JP6405243B2 (en) | Focus detection apparatus and control method thereof | |
JP5361535B2 (en) | Imaging device | |
JP5966426B2 (en) | Focus detection device | |
JP2007189312A (en) | Imaging apparatus, imaging method, and camera | |
JP2008209761A (en) | Focus detecting device and imaging apparatus | |
JP2015079193A (en) | Image capturing device, image capturing system, method of controlling image capturing device, program, and recording medium | |
JP2012234152A (en) | Imaging apparatus and control method thereof | |
US9602716B2 (en) | Focus-detection device, method for controlling the same, and image capture apparatus | |
US7805068B2 (en) | Imaging apparatus | |
US11115581B2 (en) | Focus adjustment method and device using a determined reliability of a detected phase difference | |
JP5444928B2 (en) | Photometric device and imaging device | |
JP6615258B2 (en) | Control device, imaging device, control method, program, and storage medium | |
JP6346484B2 (en) | Image processing apparatus and control method thereof | |
JP2012256964A (en) | Imaging apparatus | |
JP2010272957A (en) | Image correction apparatus and program thereof | |
JP6576114B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2014194502A (en) | Imaging apparatus and imaging system | |
JP6234094B2 (en) | Focus detection apparatus and imaging apparatus | |
JP5973784B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP2018018032A (en) | Focus detection device, focus detection method, imaging device, program, and storage medium | |
JP6395790B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND FOCUS CONTROL PROGRAM | |
JP2016099432A (en) | Focus detection device, and method, program and storage medium | |
JP2008040084A (en) | Optical device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130903 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5444928 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |