JP2004309701A - Range-finding/photometric sensor and camera - Google Patents

Range-finding/photometric sensor and camera Download PDF

Info

Publication number
JP2004309701A
JP2004309701A JP2003101647A JP2003101647A JP2004309701A JP 2004309701 A JP2004309701 A JP 2004309701A JP 2003101647 A JP2003101647 A JP 2003101647A JP 2003101647 A JP2003101647 A JP 2003101647A JP 2004309701 A JP2004309701 A JP 2004309701A
Authority
JP
Japan
Prior art keywords
sensor
subject
semiconductor substrate
infrared light
sensitivity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003101647A
Other languages
Japanese (ja)
Inventor
Yasuhiro Fukunaga
康弘 福永
Osamu Nonaka
修 野中
Koichi Nakada
康一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2003101647A priority Critical patent/JP2004309701A/en
Publication of JP2004309701A publication Critical patent/JP2004309701A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately measure luminance in an area where a main subject exists in a photographic screen without being affected by infrared light, and to photograph the main subject with correct exposure without being affected by infrared light components. <P>SOLUTION: A 1st sensor array 5a constituted of photodiode having spectral sensitivity characteristics including the infrared light and a 2nd sensor array 5b constituted of photodiode having spectral sensitivity characteristics not including the infrared light are adjacently formed on an N type semiconductor substrate 40. And, the subject distance is detected with the 1st sensor array 5a, and the brightness of the subject is detected by the 2nd sensor array 5b based on the detection result of the subject distance. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、撮影する被写体の測光を行う際に、主要被写体の距離や明るさを考慮して正しい露出制御を行うカメラ及び該カメラに使用することが可能な測距測光用センサに関する。
【0002】
【従来の技術】
一般に、カメラで撮影する際に、主要被写体の背後に太陽等の光源がある逆光の撮影シーンに於いては、主要被写体の影となる部分を撮影することになるため、主要被写体が黒く潰れてしまうという現象が発生する。これを防止するために、レフ板による反射光や照明光を用いて、主要被写体の影の部分を明るくしたり、撮影の際にストロボを発光させる、いわゆる、日中シンクロ撮影が行われている。
【0003】
この逆光判定に際して、撮影画面に対して主要被写体の占める領域が大きければ、容易に判定を行うことができる。しかしながら、主要被写体の領域が小さい撮影シーンでは、輝度差が小さくなるため、逆光とは判定されない場合も発生する。
【0004】
これに対して、例えば、撮影画面の中央及び周辺の測光を行う測光手段に焦点検出手段(測距手段)を併用した露出制御方法が知られている(例えば、特許文献1参照)。
【0005】
【特許文献1】
特許番号第2934712号公報
【0006】
【発明が解決しようとする課題】
上述した特許文献1によると、測距手段となる測距用センサを用いて、主要被写体の逆光状態を検出しようとしているが、測距用センサのS/N比を上昇させ、測距精度を向上させるには、赤外光成分に感度を有したセンサであることが好ましい。しかしながら、測光センサとして利用する場合には、赤外光が測光値の誤差となる。
【0007】
したがってこの発明は、撮影画面に於ける主要被写体が存在する領域の輝度を、赤外光の影響を受けずに正しく測光し、これと撮影画面の平均輝度の比較により逆光判定を行い、赤外光成分に影響されずに主要被写体を正しい露出で撮影できる測距測光用センサ及びカメラを提供することを目的とする。
【0008】
【課題を解決するための手段】
すなわち請求項1に記載の発明は、半導体基板に形成されるもので、赤外光を含む分光感度特性を有する第1のセンサと、上記第1のセンサと同一の半導体基板に形成されるもので、上記赤外光を含まない分光感度特性を有する第2のセンサと、を具備し、上記第1のセンサは被写体距離検出を行い、上記第2のセンサは、上記第1のセンサによる検出結果に基づいて被写体の明るさを検出することを特徴とする。
【0009】
このように構成することにより、撮影画面に於ける主要被写体が存在する領域の輝度を、赤外光成分に影響されずに正しく検出することができる。
【0010】
請求項2に記載の発明によれば、請求項1に記載の測距測光用センサに於いて、上記第1及び第2のセンサは、上記半導体基板に隣接して形成されていることを特徴とする。
【0011】
このように構成することにより、撮影画面に於ける主要被写体が存在する領域の略同じ部分についての輝度を、赤外光成分に影響されずに正しく検出することができる。
【0012】
請求項3に記載の発明によれば、請求項1に記載の測距測光用センサに於いて、上記第1及び第2のセンサは、上記半導体基板の深さ方向に並べて形成されていることを特徴とする。
【0013】
このように構成することにより、撮影画面に於ける主要被写体が存在する全く同じ部分の領域の輝度を、赤外光成分に影響されずに正しく検出することができ、更にチップ面積を小さくすることができる。
【0014】
請求項4に記載の発明によれば、半導体基板に形成されるもので、赤外感度を有する第1のセンサと、上記第1のセンサと同一の半導体基板に形成されるもので、上記第1のセンサに比べて赤外感度の低い第2のセンサと、を具備し、 上記第1のセンサは被写体距離検出を行い、上記第2のセンサは上記第1のセンサの検出結果に基づいて判定された特定被写体について被写体の明るさを検出するようにしたことを特徴とする。
【0015】
このように構成することにより、撮影画面に於ける主要被写体が存在する領域の輝度を、赤外光成分に影響されずに正しく検出することができる。
【0016】
また、請求項5に記載の発明によれば、撮影画面内の所定位置に存在する被写体の像信号を検出するセンサと、上記撮影画面内の平均的な明るさを表す平均測光値を検出する平均測光手段と、上記センサの出力値と上記平均測光値とを比較して、撮影時の露出制御量を決定する決定手段と、を具備し、上記センサは、可視光領域に感度を有する光電変換出力を行う第1のモードと、赤外光を含む領域に感度を有する光電変換出力を行う第2のモードを設定可能であることを特徴とする。
【0017】
このように構成することにより、撮影画面に於ける主要被写体が存在する領域の輝度を赤外光の影響を受けずに正しく測光し、赤外光成分に影響されずに主要被写体を正しい露出で撮影することができる。
【0018】
請求項6に記載の発明によれば、請求項5に記載のカメラに於いて、上記センサは、上記第2のモードで上記被写体のピント合わせ信号を形成することを特徴とする。
【0019】
このように構成することにより、撮影画面に於ける主要被写体が存在する領域の輝度を赤外光の影響を受けずに正しく測光し、赤外光成分に影響されずに主要被写体を正しい露出で撮影することができる。
【0020】
【発明の実施の形態】
以下、図面を参照してこの発明の実施の形態について詳細に説明する。
【0021】
先ず、図6を参照して、この発明が適用されるカメラの露出制御システムによる逆光判定の基本的な考え方について説明する。
【0022】
図6は、カメラの露出制御システムの構成を示したものである。図6に於いて、このカメラの露出制御システムは、測光センサ1と、平均輝度算出部2と、測光逆光判定部3と、測距センサ5と、測距演算部6と、被写体選択部7と、輝度算出部8と、逆光判定部9と、ストロボ発光部10と、制御部11とを備えている。
【0023】
上記測光センサ1は、撮影画面全体の輝度(測光値)を求めるもので、その受光面は、例えば、周辺測光部1aと中央測光部1bとに分割されている。上記平均輝度算出部2では、得られた測光値から画面全体の平均輝度が求められる。上記測光センサ1と平均輝度算出部2とにより、平均測光手段が構成される。
【0024】
また、上記測光逆校判定部3では、分割された測光センサ1の周辺測光部1aと中央測光部1bの各々の出力が比較されることにより、逆光判定が行われる。この逆光状態の判定は、主要被写体が撮影シーンの中央に存在している場合には有効である。
【0025】
上記測距センサ5は、撮影画面内の複数の測距ポイントに対して測距動作を行うものである。この測距センサ5は、概念的に、赤外を含む分光感度特性を有する第1のセンサアレイ5aと、赤外を含まない分光感度特性を有する第2のセンサアレイ5bとから構成されている。
【0026】
上記測距演算部6は、測距動作により得られた測距データから被写体までの距離を求めるものである。また、被写体選択部7は、それら複数の距離結果より例えば、最至近距離に存在するものを主要被写体とし、撮影画面内に於いてその存在位置を測距ポイント(以下、ポイントと称する)として選択するものである。
【0027】
上記輝度算出部8は、上記被写体選択部7で選択されたポイントに入射する光の量(輝度)を算出する。更に、上記逆光判定部9は、上記選択されたポイントの輝度と上記平均輝度とから、後述する判定方法により逆光状態か否かを判定する。
【0028】
また、上記ストロボ発光部10は逆光時に補助光を発光するものであり、上記制御部11は決定手段としての機能を含みストロボ発光制御を含むカメラ露出制御システム全体の制御を行うものである。
【0029】
尚、上述した平均輝度算出部2、測光逆光判定部3、測距演算部6、被写体選択部7、輝度算出部8、逆光判定部9、ストロボ発光部10及び制御部11は、実際にシステムとして構築した場合に、その演算処理及び制御が1つのマイクロコンピュータ(CPU)により実現される。
【0030】
このような構成の露出制御システムに於いては、図示されないカメラのリレーズスイッチ等のオンにより露出動作が開始され、先ず、測光センサ1により測光が行われる。そして、得られた測光値から平均輝度算出部2により画面全体の平均輝度が求められる。
【0031】
次に、測距センサ5が赤外にも感度を有するモード(第1のセンサアレイ5aとして概念的に図示)にて、撮影画面内の複数のポイントに対して順次測距が行われる。これにより、得られた測距データが用いられて測距演算部6にて各ポイントの被写体までの距離が求められる。
【0032】
被写体選択部7では、各ポイントの被写体距離の中から、例えば、最至近距離のものを主要被写体が存在するポイントとして判定され、ピント合わせするべきポイントとして選択される。更に、輝度算出部8では、選択されたポイントの輝度がモニタされて求められる。このときには、測距センサ5では、モード切換機能により、可視光検出モード(第2のセンサアレイ5bとして概念的に図示)にて、赤外光に依存されない測光が行われる。
【0033】
次に、逆光判定部9では、画面全体の平均輝度と選択されたポイントの輝度とが比較されて、撮影シーンが逆光状態であるか否かが判定される。ここでは、画面全体の平均輝度が選択されたポイントの輝度よりも大きければ、主要被写体よりも周囲が明るい、すなわち、逆光状態であるものと判定される。この逆光状態の撮影シーンが撮影される際には、フィルムのISO感度、絞り値及び被写体距離に応じて、ストロボ光がストロボ発光部10より発光される。
【0034】
このように、逆光判定部9では、選択されたポイント(主被写体位置)の明るさと画面全体の明るさによって逆光判断が行われ、適切な露出制御が可能となる。一方、平均輝度がポイントの輝度よりも小さければ、主要被写体は逆光状態ではないと判定されて、適宜、露出制御される。
【0035】
図7は、上述した露出制御システムが適用された、この発明の第1の実施の形態として、カメラの電子回路システムの具体的な構成例を示した図である。
【0036】
この実施の形態に於けるカメラは、被写体像が光電変換素子により画像データに変換されて、種々の画像処理が行われて記録される、いわゆるデジタルカメラに適用された例である。
【0037】
このカメラは、被写体15から、主として、基線長Bだけ離れて配置された一対の受光レンズ16a、16b及び一対のセンサアレイ17a、17bと、で構成される測距部18と、A/D変換部19と、AEレンズ20と、このAEレンズ20で集光された光を受光する分割型のAEセンサ21a、21bと、AE回路22と、被写体像を結像する撮影レンズ(ズームレンズ)24と、CCD等で構成される撮像素子25と、画像処理部26と、記録部27と、レンズ駆動部(LD)28と、ズーム駆動機構29と、ストロボ駆動部30と、ストロボ投光部31と、演算制御部(CPU)33及びスイッチ入力部34とから構成されている。
【0038】
上記測距部18は、被写体15までの距離Lを測距するためのものである。この測距部18に於いて、被写体15の像が、一対の受光レンズ16a、16bを介して一対のセンサアレイ17a、17bにて受光される。そして、センサアレイ17a、17bで光電変換による被写体像信号が生成される。
【0039】
上記A/D変換部19では、上記測距部18からの被写体像信号がA/D変換されて、デジタル像信号がCPU33に出力される。
【0040】
また、露出用のAEレンズ20で集光された光は、画面内の中央部及び周辺部を測光する分割型のAEセンサ21a及び21bに導かれる。これらAEセンサ21a、21bに導かれた光は、対数圧縮回路等から成るAE回路22にて撮影画面内の明るさが測定される。
【0041】
上記被写体15の像は、また、撮影レンズ24によって撮像素子25に結像される。この撮像素子25では、上記結像された被写体像による画像データが生成される。そして、この撮像素子25により得られた画像データは、画像処理部26に出力されてγ変換や画像圧縮等の画像処理が施される。更に、画像処理が施された画像データは、記録部27に記録される。
【0042】
尚、撮影レンズ24は、レンズ駆動部28の駆動によってピント合わせが行われる。更に、ズーム駆動機構29によって、撮影レンズ24内の図示されない鏡枠が移動されて撮影画角が変更される。
【0043】
上記CPU33は、このカメラ全体を制御するもので、ワンチップマイクロコンピュータ等から成る。上記スイッチ入力部34は、撮影者の操作によりCPU33に於ける所定のシーケンスを開始させるためのスイッチを有して構成される。
【0044】
更に、上記ストロボ投光部31は、被写体15に補助照明光を投光するためのものであり、ストロボ駆動部30の駆動制御によって発光が制御される。
【0045】
尚、このカメラの構成部位に於いては、同実施の形態の要旨に係る部材についてのみ記載しており、その他通常のカメラが有している構成部材は有しているものとして、ここでの説明は省略している。
【0046】
上記CPU33では、測距部18の基線長Bだけ離れて配置された一対の受光レンズ16a、16bで集光され、一対のセンサアレイ17a、17bによって光電変換され、更にA/D変換部19でA/D変換された一対のデジタル像信号が比較される。これにより、像入力位置の相対位置差xが求められる。このときは、センサアレイ17a、17bでは、S/N比の良好な赤外域にも感度を有するモードで像検出が行われる。このモードでは、赤外発光ダイオード等の人物の目に眩しくない補助光も有効に使うことができるので、暗い場所でも眩しくない撮影をすることができる。
【0047】
これは、図7に示されるような被写体距離Lと、受光レンズ16a、16bの焦点距離f、及び基線長Bによって、x=B・f/Lの関係で変化するため、xの検出によってピント合わせ距離Lを算出することができる。この場合、センサアレイ17a、17bは、水平方向に延出されているので、図8に示されるような撮影シーンを狙った場合には、領域37aをモニタする。この領域37aは、図9(a)に示されるように、7つのブロックに分割され、その各々のブロックの像信号が用いられて上述した検出が行われることによって、画面内の7ポイントの測距が可能となる。得られた7つの測距結果のうち、例えば、一番近い距離を示すものが主被写体距離とされる。
【0048】
また、撮影レンズ24がズームレンズであった場合には、画角を望遠側に振ると、図8に示す撮影シーンのうち、画面内の撮影領域38Tのみを撮影することができる。このとき、測距領域が領域37aのままであると、画面外のものまで測距してしまう。そのため、望遠時には領域37bに狭めるようにして、図9(b)に示されるように、それぞれが狭められた7つの領域で7点の多点AF(マルチAF)が行われる。
【0049】
また、AE回路22及びAEセンサ21a、21bにより画面全体の明るさが測光され、その測光結果に基づいて、CPU33により露出制御が行われる。これらのAEセンサ21a、21bに於いては、撮影レンズ24のズーミングによる画角変化に合わせて、望遠時は、AEセンサ21aの出力、すなわち、図8に示す領域(望遠時)36が選択されて測光が行われる。一方、広角時はAEセンサ21aとAEセンサ21bの出力の和、すなわち領域(広角時)35が選択されて測光が行われる。
【0050】
加えて、図9(a)、(b)に7分割で示された測距用の各ポイントは、図9(c)に示されるように、それぞれが複数列に配列された短冊形状の画素から成っている。これは、像の陰影に合わせて、各画素がデータを出力するため、図9(d)に示されるような像データが得られる。これらを平均化すると、各ポイントの平均的な輝度が求められる。
【0051】
このように、マルチAFによって主要主被写体の位置を検出し、更にその位置の輝度が求められるので、図10に示されるフローチャートによって、主要被写体を重視した露出制御による撮影が可能となる。但し、輝度を求める場合には、赤外光成分が誤差となるので、特徴たる可視光検出モードで像検出が行われる。
【0052】
先ず、ステップS1では、撮影レンズ24のズーム位置が求められる。次いで、ステップS2に於いて、求められたズーム位置から撮影レンズ24が広角側であるか否かが判定される。
【0053】
この判定に於いて、広角側であったならば、図8に示される画角38Wとなり、ステップS3に移行して、測光範囲35及び測距範囲37aが選択される。一方、広角側ではない、すなわち、望遠側であったならば、図8に示される画角38Tとなり、ステップS4に移行して、測光範囲36及び測距範囲37bが選択される。
【0054】
次に、ステップS5にて、このようにして選択された測距範囲に於ける測距が行われる。この測距ステップでは、CPU33によって、測距部18は赤外光を含む感度による像検出のモードに切り換えられているものとする。この測距結果から、ステップS6にて、主要被写体が存在する最も近い距離を示すポイント(測距ポイント)が選択ポイントとして決定される。
【0055】
ステップS7では、この選択ポイントに於ける像出力の明るさを検出するために、測距のセンサの分光感度が切り換えられて可視光モードとされ、光電流が積分された像信号が再検出される(図4(d)参照)。こうして得られた主要被写体の明るさより、ステップS8にて、測光平均値SPAve が算出される。
【0056】
続いて、ステップS9にて、上記ステップS4により選択されたAEセンサによる測光範囲(撮影画面)に於ける測光が行われる。更に、ステップS10にて、この測光によって得られた出力の平均となる測光平均値BVAve が算出される。
【0057】
ここで、ステップS11に於いて、上記ステップS6で得られた主要被写体距離、フィルムのISO感度、及び上記ステップS1で求められたズーム位置情報に基づいて、ストロボのガイドナンバが算出され、ストロボ発光が主要被写体まで届くか否かが判定される。
【0058】
この判定により、ストロボ光が主要被写体まで届くと判定されたならば、ステップS12へ移行して、平均測光値BVAve が所定位置BV以上であるか否かが判定される。すなわち、得られた主要被写体の測光平均値SPAve の信頼性が、平均測光値を用いて判定される。これは、測距センサの出力が対数圧縮回路を経ていないため、測光のリニアリティ(ダイナミックレンジ)が制限されている。ここでは、平均測光値BVAve が所定位置BV以上になっているか否かが判定される。
【0059】
上記ステップS12の判定にて、測光平均値BVAve の方が大きければ、主要被写体測光平均値SPAve が信頼できるものとされる。この場合は、ステップS13へ移行して、主要被写体測光平均値SPAve と測光平均値BVAve とが比較される。そして、測光平均値BVAve の方が大きいか否か、すなわち、逆光か否かが判定される。
【0060】
一方、上記ステップS11の判定でストロボ発光が主要被写体まで届かない場合、上記ステップS12の判定で平均測光値BVAve が所定値BV未満である場合、若しくは上記ステップS13の判定で測光平均値BVAve が主要被写体測光平均値SPAve よりも小さい場合は、ステップS14へ移行する。
【0061】
このステップS14では、主要被写体測光平均値SPAve を考慮せずに平均測光値BVAve による露出制御が行われる。こうして、一連のシーケンスが終了する。
【0062】
また、上記ステップS13にて、主要被写体測光平均値SPAve よりも測光平均値BVAve の方が大きい場合と判定された場合、すなわち、主要被写体よりも周囲の方が明るい逆光状態の撮影シーンである場合、若しくは、ストロボ発光が必要な撮影シーンである場合は、ストロボ発光による補助光で補いながら露出が行われる。こうして、一連のシーケンスが終了する。
【0063】
以上説明したように、本実施の形態によれば、撮影画面内のピント合わせのためのポイントと露出合わせのポイントを一致させて、測光値(輝度)を比較して逆光の判定を行うため、撮影者にとっては、レリーズ釦を押すだけの簡単な操作で逆光判定が行われ、その撮影シーンにあった露出が行われるため、美しいピントと露出の写真を撮影することができる。このとき、主被写体の距離を検出し、それを特定する場合には、S/N比の良好な赤外を含む分光感度による像検出を行い、測光時には、同じセンサを利用しながら、可視光成分のみを利用した像検出を行うので、高精度のスポット測光が可能となる。
【0064】
また、ストロボ発光が主要被写体まで適正に届くか否かを考慮しているので、無駄なストロボ発光による電池消費を防ぐことができる。
【0065】
次に、以上の実施例で利用した分光感度を切り換えられる機能を有する測距用センサの構成について、より詳しく説明する。
【0066】
図1は、この発明の第1の実施の形態を示すもので、測距用センサアレイに測光用センサアレイを隣接したセンサで、分光感度の切り換えセンサの半導体チップの断面図である。
【0067】
この実施の形態は、厳密には同一の受光面ではないが、特徴の異なる2つの受光部を隣接させ、同一半導体基板に構成して、略同じ被写体部分を検出可能としたものである。
【0068】
図中、第1のセンサアレイ(第1のセンサ)5aは、可視光の他、赤外光にも感度を有した画素部であり、第2のセンサアレイ(第2のセンサ)5bは、可視光に感度を有した画素部である。
【0069】
上記第1のセンサアレイ5aは、N型半導体基板(N−sub )40の表面部にP型拡散層(P)42が形成されている。また、第2のセンサアレイ5bは、N型半導体基板40の上部にP型半導体層(Pwell)41が形成され、更にこのP型半導体層41内の基板表面部にN型拡散層(N)43が形成されている。
【0070】
上記第1のセンサアレイ5aは、N型半導体基板40そのものをPN接合のN側に利用しているので、N型半導体基板40の深度で発生した光電変換信号までを取り出すことができる。光のうち長波長のもの(赤外成分)は、基板の深度まで到達するので、この第1のセンサアレイ5aの出力は可視から赤外に渡る分光感度を有することになる。
【0071】
一方、上記第2のセンサアレイ5bは、N型半導体基板40の中にP型半導体層41を形成し、更にその中にN型拡散層43を形成して、そのPN接合をフォトダイオードとして利用している。そのため、比較的浅い部分(可視光のみ)の出力信号を取り出すことができ、赤外光成分に依存しにくい構成となっている深い部分で発生した成分は、上記P型半導体層41部を接地することにより、グランドラインに除去するようにして、可視光信号に影響を及ぼさないようにしている。尚、図中44は、電圧値VDDの電源である。
【0072】
次に、上述した波長と出力の関係について、図2を参照して、更に詳細に説明する。
【0073】
図2は、入射する光の波長とシリコン(半導体基板)内の吸収深さの関係を示した特性図である。
【0074】
入射光が長波長であれば基板の深いところまで浸透し、短波長であれば基板の浅いところまでしか浸透しない。そして、第2のセンサアレイ5bに形成されるP型半導体層(Pwell)41とN型拡散層(N)との間のフォトダイオードでは、基板の深い部分で発生したキャリアが、Pwell41とN型半導体基板(N−sub )40で形成されたPN接合で吸収されてしまうため、基板の浅い領域で発生されたキャリアのみが検出される。つまり、短波長の光に、より大きな感度を有したフォトダイオードが構成される。
【0075】
一方、第1のセンサアレイ5aに形成されるP型拡散層(P)42とN型半導体基板(N−sub )40のフォトダイオードでは、基板の深いところで発生されたキャリアもまとめて検出されるため、長波長まで感度を有したフォトダイオードが構成される。
【0076】
また、図3は、異なる分光感度を有したフォトダイオードの特性図である。2つのタイプのフォトダイオードで光を検出する深さが違うので、分光感度に違いが生じる。
【0077】
次に、このような構成のセンサを有した測距用像センサの光電変換信号読み出し回路について、図4の回路構成図を参照して説明する。
【0078】
図1に示されたように、ここでは、光検出深さが異なるフォトダイオードが用いられる。そして、フォトダイオード51及び67に、それぞれ読み出し回路が形成されて信号が取り出されるようになっている。つまり、可視光のみのフォトダイオード51には、NMOSトランジスタ54を基本にしたN型の読み出し回路81aが設けられている。一方、可視光と赤外光を含むフォトダイオード67には、PMOSトランジスタ69を基本にしたP型の読み出し回路81bが設けられている。
【0079】
先ず、N型の読み出し回路について説明する。
【0080】
図4に於いて、N型MOSトランジスタ54は、そのソースが接地され、ドレインに負荷トランジスタ53及びコンデンサ55が接続されることにより、ソース接地型の増幅回路を構成している。そして、このソース接地型増幅回路の入力端子、すなわちN型MOSトランジスタ54のゲートにフォトダイオード51が接続され、ソース接地型増幅回路の出力端子、すなわちN型MOSトランジスタ54のドレインから入力端子(N型MOSトランジスタ54のゲート)にコンデンサ55を接続して帰還をかけると共に、N型MOSトランジスタ54のゲートの初期電位を設定するためのリセット用N型MOSトランジスタ53がコンデンサ55と並列に接続される。
【0081】
この構成のものを基本セル(画素)とし、この基本セルを1次元または2次元的に配列したときに、読み出し画素を選択するための、シフトレジスタパルスで駆動される選択用トランジスタ63が、N型MOSトランジスタ54のドレインに接続されている(節点56)。選択用トランジスタ63がオンされたときに、CDS回路64にN型MOSトランジスタ54のドレイン電圧が現れるように構成される。CDS回路64にて光に付随した信号成分のみを得ることができる。
【0082】
ソース接地型増幅回路の負荷は、P型MOSトランジスタ59による能動負荷として構成したものである。負荷用P型MOSトランジスタ59のゲート58及びソース57には、それぞれバイアス電圧及び電源電圧が印加されている。尚、52及び62は、それぞれリセット端子及び選択端子である。
【0083】
次に、P型の読み出し回路について説明する。
【0084】
P型の読み出し回路の構成については、基本的に上述したN型の読み出し回路のN型MOSトランジスタを、P型MOSトランジスタで構成して極性を反転させた構成である。すなわち、P型MOSトランジスタ69は、そのソースが接地され、ドレインに負荷トランジスタ72及びコンデンサ70が接続されることにより、ソース接地型の増幅回路を構成している。そして、このソース接地型増幅回路の入力端子、すなわちP型MOSトランジスタ69のゲートにフォトダイオード67が接続され、ソース接地型増幅回路の出力端子、すなわちP型MOSトランジスタ69のドレインから入力端子(P型MOSトランジスタ69のゲート)にコンデンサ70を接続して帰還をかけると共に、P型MOSトランジスタ69のゲートの初期電位を設定するためのリセット用P型MOSトランジスタ72がコンデンサ70と並列に接続される。
【0085】
この構成のものを基本セル(画素)とし、この基本セルを1次元または2次元的に配列したときに、読み出し画素を選択するための、シフトレジスタパルスで駆動される選択用トランジスタ78が、P型MOSトランジスタ69のドレインに接続されている(節点73)。選択用トランジスタ78がオンされたときに、CDS回路79にP型MOSトランジスタ69のドレイン電圧が現れるように構成される。CDS回路79にて光に付随した信号成分のみを得ることができる。
【0086】
ソース接地型増幅回路の負荷は、N型MOSトランジスタ75による能動負荷として構成したものである。負荷用N型MOSトランジスタ75のゲート74には、バイアス電圧が印加されている。尚、66、71及び77は、それぞれ電源電圧端子、リセット端子及び選択端子である。
【0087】
そして、N型、P型の何れのセンサを使用するかは、CPUがモード切り換え用のアナログスイッチ80を切り換えて選択することにより、出力端子より分光感度、特性の異った出力を検出することができる。
【0088】
ここで、ソース接地読み出し方式について説明する。
【0089】
N型の読み出し回路を例として、出力信号を式で表すと次式のようになる。
OUT =VGS+I・t/{(1+1/G)Ct+1/G・Cd} …(1)
ここで、VGSはリセット時のN型MOSトランジスタ54のゲート・ソース間電圧であり、これはリセット時のドレイン電圧でもある。また、Gはソース接地型増幅回路のゲイン、Ctは帰還コンデンサ55の容量値、Cdはフォトダイオード51の接合容量値、I、tは光電流と積分時間である。
【0090】
上記(1)式からわかるように、光電変換による出力信号の増加分は、ソース接地型増幅回路のゲインGを上げることにより、フォトダイオード51の接合容量Cdによる影響を抑えることができる。これにより、帰還コンデンサ55の容量値Ctを下げることによって、出力電圧VOUT を大きく、すなわち感度を高くすることができる。
【0091】
次に、図5を参照して、読み出し回路のパルスタイミングについて説明する。
【0092】
図5(a)はN型読み出し回路の駆動方法を説明するタイミングチャートである。
【0093】
期間T1は、リセット期間である。ここでは、選択トランジスタ63とリセットトランジスタ53がオンされて、フォトダイオード51の電位が初期電位にされる。そして、期間T2のリセットレベル読み出し期間にて、選択トランジスタ63はオンされたままで、リセットトランジスタ53がオフにされてリセットレベルが読み出される。
【0094】
次いで、期間T3にて、リセットトランジスタ52、選択トランジスタ63共にオフにされて蓄積状態にされる。更に、期間T4に於いて、信号レベルが読み出される。
【0095】
こうして、CDS動作により、リセットレベルからの電圧変化として信号を読み出すことができる。
【0096】
実際には、1次元にライン上に構成してシフトレジスタ等で選択動作を繰り返しながら信号を読み出すものである。
【0097】
また、図5(b)はP型読み出し回路の駆動方法を説明するタイミングチャートである。このP型読み出し回路の動作については、上述したN型読み出し回路の例と同様であるので説明は省略する。
【0098】
(第2の実施の形態)
次に、この発明の第2の実施の形態として、赤外及び可視と、可視の感度切り換えセンサの別の構成例について、図11を参照して説明する。
【0099】
尚、この第2の実施の形態に於いて、上述した第1の実施の形態と同一の部分には同一の参照番号を付してその説明は省略する。
【0100】
図11(a)は、第2の実施の形態を示すもので、フォトダイオードを半導体基板内に縦に形成したタイプのフォトダイオードで異なる分光感度を実現する例を示した構成図である。
【0101】
図11(a)に示されるように、このセンサは、上述した第1の実施の形態のセンサとは異なり、N型半導体基板の深さ方向にPN接合を2つ形成し、2段重ねのフォトダイオードとして構成している。すなわち、全く同じ受光面の下で、浅い位置に可視光用のフォトダイオード(第2のセンサアレイ)5bが形成され、深い位置に赤外光用のフォトダイオード(第1のセンサアレイ)5aが形成されている。
【0102】
そして、これらのフォトダイオード5a及び5bの出力は、それぞれN型の読み出し回路81a及びP型の読み出し回路81bから、アナログスイッチ80を介して出力される。このように、それぞれのフォトダイオード51及び67に、上述した読み出し回路を用いて信号が読み出される。
【0103】
図11(b)は、図11(a)に示された構成のセンサの回路構成を示した図である。N型の読み出し回路81a側で短波長出力が、P型の読み出し回路81bで長波長出力が得られるようになっている。
【0104】
この縦構造のフォトダイオードでは、上述した横構造タイプの第1の実施の形態と同様の画素構成を実現することができる。この場合、駆動方法は、上述した第1の実施の形態の読み出し回路と同様であるため、説明は省略する。
【0105】
この第2の実施の形態は、上述した第1の実施の形態の隣接タイプと異なり、被写体の全く同じ部分を測光することができ、チップ面積を小さくすることができるというメリットがある。
【0106】
(第3の実施の形態)
次に、この発明の第3の実施の形態について説明する。
【0107】
尚、この第2の実施の形態に於いて、上述した第1の実施の形態と同一の部分には同一の参照番号を付してその説明は省略する。
【0108】
この第3の実施の形態は、上述した第2の実施の形態と同様、基板の深さ方向にフォトダイオードを重ねることで、分光感度切換可能なセンサを構成している。
【0109】
図12(a)は、第3の実施の形態を示すもので、フォトダイオードを半導体基板内に縦に形成したタイプのフォトダイオードで異なる分光感度を実現する例を示した構成図である。
【0110】
図12(a)に示されるように、このセンサは、上述した第2の実施の形態のセンサとは、N型半導体基板をP型半導体基板に代えて、且つN型拡散層の下方に形成されていたP型拡散層を除いた部分の構成が異なっている。加えて、短波長出力はN型の読み出し回路81a側で得られ、長波長出力はN型の読み出し回路82側で得られるようになっている。
【0111】
また、図12(b)に示されるように、N型の読み出し回路82の構成は、基本的にN型の読み出し回路81aと同じであり、フォトダイオード51が67a、67bとなっている以外は、その構成要素は53、54、55、56、59、63の参照番号を、それぞれ83、84、85、86、87、88に代えるだけである。その他の構成及び動作は、上述した第1、第2の実施の形態と同様であるので、図示及び説明は省略する。
【0112】
この第3の実施の形態によれば、一層除いた分だけ、製造工程をより簡便化することができる。
【0113】
【発明の効果】
以上のようにこの発明によれば、撮影画面に於ける主要被写体が存在する領域の輝度を赤外光の影響を受けずに正しく測光し、これと撮影画面の平均輝度の比較により逆光判定を行い、赤外光成分に影響されずに主要被写体を正しい露出で撮影できる測距測光用センサ及びカメラを提供することができる。
【0114】
そして、請求項1に記載の発明によれば、撮影画面に於ける主要被写体が存在する領域の輝度を、赤外光成分に影響されずに正しく検出することができる。
【0115】
請求項2に記載の発明によれば、撮影画面に於ける主要被写体が存在する領域の略同じ部分についての輝度を、赤外光成分に影響されずに正しく検出することができる。
【0116】
請求項3に記載の発明によれば、撮影画面に於ける主要被写体が存在する全く同じ部分の領域の輝度を、赤外光成分に影響されずに正しく検出することができ、更にチップ面積を小さくすることができる。
【0117】
請求項4に記載の発明によれば、撮影画面に於ける主要被写体が存在する領域の輝度を、赤外光成分に影響されずに正しく検出することができる。
【0118】
また、請求項5に記載の発明によれば、撮影画面に於ける主要被写体が存在する領域の輝度を赤外光の影響を受けずに正しく測光し、赤外光成分に影響されずに主要被写体を正しい露出で撮影することができる。
【0119】
請求項6に記載の発明によれば、撮影画面に於ける主要被写体が存在する領域の輝度を赤外光の影響を受けずに正しく測光し、赤外光成分に影響されずに主要被写体を正しい露出で撮影することができる。
【図面の簡単な説明】
【図1】この発明の第1の実施の形態を示すもので、測距用センサアレイに測光用センサアレイを隣接したセンサで、分光感度の切り換えセンサの半導体チップの断面図である。
【図2】入射する光の波長とシリコン(半導体基板)内の吸収深さの関係を示した特性図である。
【図3】異なる分光感度を有したフォトダイオードの特性図である。
【図4】図1の構成の測距用像センサの光電変換信号読み出し回路の構成を示した図である。
【図5】読み出し回路のパルスタイミングについて説明するもので、(a)はN型読み出し回路の駆動方法を説明するタイミングチャート、(b)はP型読み出し回路の駆動方法を説明するタイミングチャートである。
【図6】カメラの露出制御システムの構成を示した図である。
【図7】図6の露出制御システムが適用された、この発明の第1の実施の形態として、カメラの電子回路システムの具体的な構成例を示した図である。
【図8】撮影シーンと撮影領域、測光領域との関係を示した図である。
【図9】(a)は図8の領域37aの分割されたブロックの例を示した図、(b)は望遠時のマルチAFの例を示した図、(c)は(a)の分割されたブロックの測距用のポイントを示した図、(d)は(c)の画素から得られた像データを示した図である。
【図10】この発明の第1の実施の形態に於ける測距及び測光の動作を説明するフローチャートである。
【図11】(a)は第2の実施の形態を示すもので、フォトダイオードを半導体基板内に縦に形成したタイプのフォトダイオードで異なる分光感度を実現する例を示した構成図、(b)は(a)に示された構成のセンサの回路構成を示した図である。
【図12】(a)は、第3の実施の形態を示すもので、フォトダイオードを半導体基板内に縦に形成したタイプのフォトダイオードで異なる分光感度を実現する例を示した構成図、(b)は(a)に示された構成のセンサの回路構成を示した図である。
【符号の説明】
1…測光センサ、1a…周辺測光部、1b…中央測光部、2…平均輝度算出部、3…測光逆光判定部、5…測距センサ、5a…第1のセンサアレイ(フォトダイオード)、5b…第2のセンサアレイ(フォトダイオード)、6…測距演算部、7…被写体選択部、8…輝度算出部、9…逆光判定部、10…ストロボ発光部、11…制御部、15…被写体、16a、16b…受光レンズ、17a、17b…センサアレイ、18…測距部、20…AEレンズ、21a、21b…AEセンサ、40…N型半導体基板(N−sub )、41…P型半導体層(Pwell)、42…P型拡散層(P)、43…N型拡散層(N)。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a camera that performs correct exposure control in consideration of the distance and brightness of a main subject when performing photometry of a subject to be photographed, and a ranging photometry sensor that can be used in the camera.
[0002]
[Prior art]
In general, when shooting with a camera, in a backlight shooting scene in which a light source such as the sun is behind the main subject, a portion that becomes a shadow of the main subject is shot, so the main subject is crushed black. A phenomenon occurs. In order to prevent this, so-called daytime synchro photography has been performed, in which a shadow portion of a main subject is brightened by using reflected light or illumination light from a reflex board, or a strobe light is emitted during photography. .
[0003]
In this backlight determination, if the area occupied by the main subject with respect to the shooting screen is large, the determination can be made easily. However, in a shooting scene in which the area of the main subject is small, the luminance difference is small, so that it may not be determined that the subject is backlit.
[0004]
On the other hand, for example, an exposure control method using a focus detection unit (distance measurement unit) in combination with a photometry unit that performs photometry at the center and the periphery of a shooting screen is known (for example, see Patent Document 1).
[0005]
[Patent Document 1]
Patent No. 2934712
[0006]
[Problems to be solved by the invention]
According to Patent Literature 1 described above, an attempt is made to detect a backlight state of a main subject using a distance measuring sensor serving as a distance measuring unit. However, the S / N ratio of the distance measuring sensor is increased to improve the distance measuring accuracy. For improvement, it is preferable that the sensor has sensitivity to the infrared light component. However, when used as a photometric sensor, infrared light causes an error in the photometric value.
[0007]
Therefore, according to the present invention, the brightness of the area where the main subject is present on the photographing screen is correctly measured without being affected by the infrared light, and the backlight is determined by comparing this with the average luminance of the photographing screen. An object of the present invention is to provide a ranging photometry sensor and a camera capable of photographing a main subject with correct exposure without being affected by light components.
[0008]
[Means for Solving the Problems]
That is, the invention according to claim 1 is formed on a semiconductor substrate, and is formed on a first sensor having a spectral sensitivity characteristic including infrared light and on the same semiconductor substrate as the first sensor. A second sensor having a spectral sensitivity characteristic not including the infrared light, wherein the first sensor detects a subject distance, and the second sensor detects the subject distance. It is characterized in that the brightness of the subject is detected based on the result.
[0009]
With this configuration, it is possible to correctly detect the luminance of the area where the main subject exists on the photographing screen without being affected by the infrared light component.
[0010]
According to a second aspect of the present invention, in the distance measuring and photometric sensor according to the first aspect, the first and second sensors are formed adjacent to the semiconductor substrate. And
[0011]
With this configuration, it is possible to correctly detect the luminance of substantially the same portion of the photographing screen where the main subject exists without being affected by the infrared light component.
[0012]
According to the third aspect of the present invention, in the distance measuring and photometric sensor according to the first aspect, the first and second sensors are formed side by side in a depth direction of the semiconductor substrate. It is characterized by.
[0013]
With this configuration, it is possible to correctly detect the luminance of the region of the same portion where the main subject exists on the photographing screen without being affected by the infrared light component, and to further reduce the chip area. Can be.
[0014]
According to the invention described in claim 4, the first sensor having infrared sensitivity formed on the semiconductor substrate and the first sensor having infrared sensitivity are formed on the same semiconductor substrate as the first sensor. A second sensor having a lower infrared sensitivity than the first sensor, wherein the first sensor detects a subject distance, and the second sensor is configured to detect a subject distance based on a detection result of the first sensor. For the determined specific subject, the brightness of the subject is detected.
[0015]
With this configuration, it is possible to correctly detect the luminance of the area where the main subject exists on the photographing screen without being affected by the infrared light component.
[0016]
According to the fifth aspect of the present invention, a sensor for detecting an image signal of a subject present at a predetermined position in a photographing screen and an average photometric value representing an average brightness in the photographing screen are detected. Average photometric means, and determining means for comparing an output value of the sensor with the average photometric value to determine an exposure control amount at the time of photographing, wherein the sensor has a sensitivity in a visible light region. A first mode for performing conversion output and a second mode for performing photoelectric conversion output having sensitivity in a region including infrared light can be set.
[0017]
With this configuration, the brightness of the area where the main subject exists on the shooting screen is correctly measured without being affected by the infrared light, and the main subject is correctly exposed without being affected by the infrared light component. You can shoot.
[0018]
According to a sixth aspect of the present invention, in the camera according to the fifth aspect, the sensor forms the focus signal of the subject in the second mode.
[0019]
With this configuration, the brightness of the area where the main subject exists on the shooting screen is correctly measured without being affected by the infrared light, and the main subject is correctly exposed without being affected by the infrared light component. You can shoot.
[0020]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0021]
First, with reference to FIG. 6, the basic concept of backlight determination by the camera exposure control system to which the present invention is applied will be described.
[0022]
FIG. 6 shows the configuration of a camera exposure control system. 6, an exposure control system of the camera includes a photometric sensor 1, an average luminance calculating unit 2, a photometric backlight determining unit 3, a distance measuring sensor 5, a distance measuring unit 6, a subject selecting unit 7, A luminance calculating unit 8; a backlight determining unit 9; a strobe light emitting unit 10;
[0023]
The photometric sensor 1 calculates the luminance (photometric value) of the entire photographing screen, and its light receiving surface is divided into, for example, a peripheral photometric unit 1a and a central photometric unit 1b. The average luminance calculator 2 calculates the average luminance of the entire screen from the obtained photometric values. The photometric sensor 1 and the average luminance calculator 2 constitute an average photometric unit.
[0024]
In the photometric backlash determining section 3, the output of the peripheral photometric section 1a and the output of the central photometric section 1b of the divided photometric sensor 1 are compared to determine the backlight. The determination of the backlight state is effective when the main subject is located at the center of the shooting scene.
[0025]
The distance measuring sensor 5 performs a distance measuring operation on a plurality of distance measuring points in a shooting screen. This distance measuring sensor 5 is conceptually composed of a first sensor array 5a having a spectral sensitivity characteristic including infrared rays and a second sensor array 5b having a spectral sensitivity characteristic not including infrared rays. .
[0026]
The distance measurement calculation section 6 calculates the distance to the subject from the distance measurement data obtained by the distance measurement operation. Further, the subject selecting unit 7 selects, for example, a subject existing at the closest distance as a main subject from the plurality of distance results, and selects the location of the subject as a ranging point (hereinafter, referred to as a point) in the shooting screen. Is what you do.
[0027]
The luminance calculator 8 calculates the amount of light (luminance) incident on the point selected by the subject selector 7. Further, the backlight determining unit 9 determines whether or not the backlight is in a backlight state from the luminance of the selected point and the average luminance by a determination method described later.
[0028]
Further, the strobe light emitting section 10 emits auxiliary light at the time of backlighting, and the control section 11 controls the entire camera exposure control system including a function as a determining means and a strobe light emission control.
[0029]
Note that the above-described average luminance calculation section 2, photometric backlight determination section 3, distance measurement calculation section 6, subject selection section 7, luminance calculation section 8, backlight determination section 9, strobe light emission section 10, and control section 11 are actually implemented by the system. When constructed as, the arithmetic processing and control are realized by one microcomputer (CPU).
[0030]
In the exposure control system having such a configuration, an exposure operation is started by turning on a relay switch (not shown) of a camera, and first, the photometry sensor 1 performs photometry. Then, the average luminance of the entire screen is calculated by the average luminance calculation unit 2 from the obtained photometric values.
[0031]
Next, in a mode in which the distance measuring sensor 5 also has sensitivity to infrared rays (conceptually illustrated as the first sensor array 5a), distance measurement is sequentially performed on a plurality of points in the shooting screen. As a result, the distance measurement calculation unit 6 calculates the distance of each point to the subject using the obtained distance measurement data.
[0032]
The subject selecting unit 7 determines, for example, the closest one from the subject distances at each point as the point where the main subject exists, and selects the point to be focused. Further, the luminance calculator 8 monitors and obtains the luminance of the selected point. At this time, the distance measurement sensor 5 performs photometry independent of infrared light in the visible light detection mode (conceptually illustrated as the second sensor array 5b) by the mode switching function.
[0033]
Next, the backlight determination section 9 compares the average luminance of the entire screen with the luminance of the selected point to determine whether or not the shooting scene is in a backlight state. Here, if the average luminance of the entire screen is higher than the luminance of the selected point, it is determined that the surroundings are brighter than the main subject, that is, the backlight is in a backlight state. When the backlit shooting scene is shot, the strobe light is emitted from the strobe light emitting unit 10 in accordance with the ISO sensitivity of the film, the aperture value, and the subject distance.
[0034]
As described above, the backlight determination unit 9 makes a backlight determination based on the brightness of the selected point (main subject position) and the brightness of the entire screen, and enables appropriate exposure control. On the other hand, if the average luminance is smaller than the luminance at the point, it is determined that the main subject is not in a backlight state, and exposure control is appropriately performed.
[0035]
FIG. 7 is a diagram showing a specific configuration example of an electronic circuit system of a camera as a first embodiment of the present invention to which the above-described exposure control system is applied.
[0036]
The camera in this embodiment is an example applied to a so-called digital camera in which a subject image is converted into image data by a photoelectric conversion element, and various image processes are performed and recorded.
[0037]
This camera has a distance measuring unit 18 mainly composed of a pair of light receiving lenses 16a and 16b and a pair of sensor arrays 17a and 17b arranged apart from a subject 15 by a base line length B, and an A / D converter. Unit 19, an AE lens 20, a split type AE sensor 21a, 21b for receiving light condensed by the AE lens 20, an AE circuit 22, and a photographing lens (zoom lens) 24 for forming a subject image. , An image sensor 25 composed of a CCD or the like, an image processing unit 26, a recording unit 27, a lens driving unit (LD) 28, a zoom driving mechanism 29, a strobe driving unit 30, a strobe light projecting unit 31 And an operation control unit (CPU) 33 and a switch input unit 34.
[0038]
The distance measuring section 18 measures the distance L to the subject 15. In the distance measuring section 18, an image of the subject 15 is received by a pair of sensor arrays 17a and 17b via a pair of light receiving lenses 16a and 16b. Then, subject image signals are generated by photoelectric conversion in the sensor arrays 17a and 17b.
[0039]
In the A / D converter 19, the subject image signal from the distance measuring unit 18 is A / D converted, and a digital image signal is output to the CPU 33.
[0040]
The light condensed by the AE lens 20 for exposure is guided to divided AE sensors 21a and 21b for measuring the center and the periphery of the screen. With respect to the light guided to the AE sensors 21a and 21b, the brightness in the photographing screen is measured by an AE circuit 22 including a logarithmic compression circuit and the like.
[0041]
The image of the subject 15 is formed on the image sensor 25 by the photographing lens 24. In the image pickup device 25, image data based on the formed subject image is generated. Then, the image data obtained by the image pickup device 25 is output to the image processing unit 26 and subjected to image processing such as γ conversion and image compression. Further, the image data subjected to the image processing is recorded in the recording unit 27.
[0042]
The photographing lens 24 is focused by driving the lens driving unit 28. Further, a mirror frame (not shown) in the photographing lens 24 is moved by the zoom driving mechanism 29 to change the photographing angle of view.
[0043]
The CPU 33 controls the entire camera, and comprises a one-chip microcomputer or the like. The switch input unit 34 includes a switch for starting a predetermined sequence in the CPU 33 by an operation of the photographer.
[0044]
Further, the strobe light projecting section 31 is for projecting auxiliary illumination light to the subject 15, and light emission is controlled by driving control of the strobe driving section 30.
[0045]
In the components of this camera, only the members relating to the gist of the embodiment are described, and other components that the ordinary camera has are assumed to have the same The description is omitted.
[0046]
In the CPU 33, the light is condensed by a pair of light receiving lenses 16 a and 16 b disposed apart from each other by a base line length B of the distance measuring unit 18, photoelectrically converted by a pair of sensor arrays 17 a and 17 b, and further converted by an A / D converter 19. The pair of A / D converted digital image signals are compared. Thus, a relative position difference x between the image input positions is obtained. At this time, in the sensor arrays 17a and 17b, image detection is performed in a mode having sensitivity in the infrared region where the S / N ratio is good. In this mode, an auxiliary light such as an infrared light emitting diode, which is not dazzling to the eyes of a person, can be used effectively, so that a dazzling image can be shot even in a dark place.
[0047]
This varies according to the relationship x = B · f / L depending on the subject distance L as shown in FIG. 7, the focal length f of the light receiving lenses 16a and 16b, and the base line length B. The alignment distance L can be calculated. In this case, since the sensor arrays 17a and 17b extend in the horizontal direction, the area 37a is monitored when a shooting scene as shown in FIG. 8 is aimed. As shown in FIG. 9A, this area 37a is divided into seven blocks, and the above-described detection is performed using the image signal of each block, thereby measuring seven points in the screen. Distance becomes possible. Of the seven distance measurement results obtained, for example, the one that indicates the closest distance is the main subject distance.
[0048]
When the photographing lens 24 is a zoom lens, if the angle of view is shifted to the telephoto side, only the photographing area 38T in the screen can be photographed in the photographing scene shown in FIG. At this time, if the distance measurement area remains in the area 37a, the distance is measured to an object outside the screen. Therefore, at the time of telephoto, the multi-point AF (multi-AF) of seven points is performed in the narrowed seven regions as shown in FIG.
[0049]
The brightness of the entire screen is measured by the AE circuit 22 and the AE sensors 21a and 21b, and exposure control is performed by the CPU 33 based on the photometric result. In the AE sensors 21a and 21b, the output of the AE sensor 21a, that is, the area (telephoto) 36 shown in FIG. 8 is selected in telephoto according to a change in the angle of view due to zooming of the photographing lens 24. Photometry is performed. On the other hand, at the time of wide angle, the sum of the outputs of the AE sensor 21a and the AE sensor 21b, that is, the area (at the time of wide angle) 35 is selected and photometry is performed.
[0050]
In addition, as shown in FIG. 9C, each of the points for distance measurement shown in FIG. 9A and FIG. 9B is divided into strip-shaped pixels arranged in a plurality of rows. Consists of This is because each pixel outputs data according to the shadow of the image, so that image data as shown in FIG. 9D is obtained. When these are averaged, an average luminance of each point is obtained.
[0051]
As described above, the position of the main main subject is detected by the multi-AF, and the luminance at that position is further obtained. Therefore, according to the flowchart shown in FIG. 10, it is possible to perform shooting by exposure control with emphasis on the main subject. However, when calculating the luminance, the infrared light component causes an error, so that the image detection is performed in the characteristic visible light detection mode.
[0052]
First, in step S1, the zoom position of the taking lens 24 is determined. Next, in step S2, it is determined from the obtained zoom position whether or not the photographing lens 24 is on the wide angle side.
[0053]
In this determination, if the angle is on the wide angle side, the angle of view becomes 38W shown in FIG. 8, and the flow shifts to step S3 to select the photometry range 35 and the distance measurement range 37a. On the other hand, if it is not on the wide-angle side, that is, if it is on the telephoto side, the angle of view becomes 38T shown in FIG. 8, and the process proceeds to step S4, where the photometry range 36 and the distance measurement range 37b are selected.
[0054]
Next, in step S5, ranging is performed in the ranging range selected in this manner. In this distance measuring step, it is assumed that the distance measuring section 18 has been switched to the mode of image detection by sensitivity including infrared light by the CPU 33. From this distance measurement result, in step S6, a point (distance measurement point) indicating the closest distance where the main subject exists is determined as the selected point.
[0055]
In step S7, in order to detect the brightness of the image output at the selected point, the spectral sensitivity of the distance measuring sensor is switched to the visible light mode, and the image signal obtained by integrating the photocurrent is detected again. (See FIG. 4D). From the brightness of the main subject obtained in this way, in step S8, the photometric average value SP Ave Is calculated.
[0056]
Subsequently, in step S9, photometry in the photometry range (photographing screen) by the AE sensor selected in step S4 is performed. Further, in step S10, the photometric average value BV, which is the average of the outputs obtained by this photometry, Ave Is calculated.
[0057]
In step S11, the guide number of the strobe is calculated based on the main subject distance obtained in step S6, the ISO sensitivity of the film, and the zoom position information obtained in step S1, and the strobe light is emitted. Is determined to reach the main subject.
[0058]
If it is determined that the strobe light reaches the main subject, the process proceeds to step S12, and the average photometric value BV Ave Is the predetermined position BV O It is determined whether or not this is the case. That is, the obtained photometric average value SP of the main subject is obtained. Ave Is determined using the average photometric value. This is because the linearity (dynamic range) of photometry is limited because the output of the distance measurement sensor does not pass through a logarithmic compression circuit. Here, the average photometric value BV Ave Is the predetermined position BV O It is determined whether or not this is the case.
[0059]
In the determination in step S12, the photometric average value BV Ave Is larger, the main subject photometry average value SP Ave Is trusted. In this case, the process proceeds to step S13, and the main subject photometric average value SP Ave And photometric average value BV Ave Is compared with And the photometric average value BV Ave Is larger, that is, whether it is backlight or not.
[0060]
On the other hand, if the strobe light does not reach the main subject in the determination in step S11, the average photometric value BV is determined in step S12. Ave Is the predetermined value BV O If the value is less than or less than the photometric average value BV Ave Is the main subject photometry average value SP Ave If it is smaller, the process proceeds to step S14.
[0061]
In this step S14, the main subject photometric average value SP Ave Average photometric value BV without considering Ave Exposure control is performed. Thus, a series of sequences is completed.
[0062]
In step S13, the main subject photometry average value SP Ave Than the photometric average BV Ave Is determined to be larger, that is, when the shooting scene is in a backlight state where the surroundings are brighter than the main subject, or when the shooting scene requires strobe light, the auxiliary light by strobe light emission is used. Exposure is performed while supplementing with. Thus, a series of sequences is completed.
[0063]
As described above, according to the present embodiment, a point for focusing in the shooting screen and a point for exposure matching are matched, and a photometric value (luminance) is compared to determine backlight. For the photographer, the backlight is determined by a simple operation of only pressing the release button, and the exposure suitable for the shooting scene is performed, so that a photograph with beautiful focus and exposure can be taken. At this time, the distance to the main subject is detected, and when the distance is specified, image detection is performed using spectral sensitivity including infrared light having a good S / N ratio. Since image detection using only components is performed, highly accurate spot photometry can be performed.
[0064]
Also, since consideration is given to whether or not the strobe light reaches the main subject properly, it is possible to prevent unnecessary battery consumption due to strobe light emission.
[0065]
Next, the configuration of the distance measuring sensor having the function of switching the spectral sensitivity used in the above embodiment will be described in more detail.
[0066]
FIG. 1 shows a first embodiment of the present invention, and is a cross-sectional view of a semiconductor chip of a sensor for switching spectral sensitivity, which is a sensor in which a photometric sensor array is adjacent to a distance measuring sensor array.
[0067]
In this embodiment, two light receiving sections having different characteristics are not adjacent to each other, but are formed on the same semiconductor substrate so that substantially the same subject portion can be detected.
[0068]
In the figure, a first sensor array (first sensor) 5a is a pixel unit having sensitivity to infrared light as well as visible light, and a second sensor array (second sensor) 5b is This is a pixel portion having sensitivity to visible light.
[0069]
The first sensor array 5a includes a P-type diffusion layer (P-type) on the surface of an N-type semiconductor substrate (N-sub) 40. + ) 42 are formed. In the second sensor array 5b, a P-type semiconductor layer (Pwell) 41 is formed on an N-type semiconductor substrate 40, and an N-type diffusion layer (N-well) is formed on the surface of the substrate in the P-type semiconductor layer 41. + ) 43 are formed.
[0070]
Since the first sensor array 5a uses the N-type semiconductor substrate 40 itself on the N-side of the PN junction, it is possible to extract even the photoelectric conversion signal generated at the depth of the N-type semiconductor substrate 40. Since light having a long wavelength (infrared component) of the light reaches the depth of the substrate, the output of the first sensor array 5a has a spectral sensitivity ranging from visible light to infrared light.
[0071]
On the other hand, in the second sensor array 5b, a P-type semiconductor layer 41 is formed in an N-type semiconductor substrate 40, an N-type diffusion layer 43 is further formed therein, and the PN junction is used as a photodiode. are doing. Therefore, an output signal of a relatively shallow portion (only visible light) can be taken out, and a component generated in a deep portion which is hardly dependent on an infrared light component is connected to the P-type semiconductor layer 41 by grounding. By doing so, it is removed from the ground line so that the visible light signal is not affected. In the drawing, reference numeral 44 denotes a voltage value V DD Power supply.
[0072]
Next, the relationship between the wavelength and the output will be described in more detail with reference to FIG.
[0073]
FIG. 2 is a characteristic diagram showing the relationship between the wavelength of incident light and the absorption depth in silicon (semiconductor substrate).
[0074]
If the incident light has a long wavelength, it penetrates deep into the substrate, and if it has a short wavelength, it penetrates only deep into the substrate. Then, the P-type semiconductor layer (Pwell) 41 and the N-type diffusion layer (N + In the photodiode between (1) and (2), carriers generated in a deep portion of the substrate are absorbed by a PN junction formed by the Pwell 41 and the N-type semiconductor substrate (N-sub) 40, and thus are generated in a shallow region of the substrate. Only the performed carriers are detected. That is, a photodiode having greater sensitivity to light of a short wavelength is configured.
[0075]
On the other hand, the P-type diffusion layer (P) formed in the first sensor array 5a + ) 42 and the photodiode of the N-type semiconductor substrate (N-sub) 40, the carriers generated deep in the substrate are also detected at the same time, so that a photodiode having sensitivity up to a long wavelength is formed.
[0076]
FIG. 3 is a characteristic diagram of photodiodes having different spectral sensitivities. The difference in the depth at which light is detected by the two types of photodiodes causes a difference in spectral sensitivity.
[0077]
Next, a photoelectric conversion signal readout circuit of a distance measuring image sensor having a sensor having such a configuration will be described with reference to the circuit configuration diagram of FIG.
[0078]
As shown in FIG. 1, here, photodiodes having different light detection depths are used. A readout circuit is formed in each of the photodiodes 51 and 67 so that a signal is extracted. That is, the photodiode 51 using only visible light is provided with an N-type read circuit 81a based on the NMOS transistor 54. On the other hand, a photodiode 67 including visible light and infrared light is provided with a P-type read circuit 81b based on a PMOS transistor 69.
[0079]
First, an N-type read circuit will be described.
[0080]
In FIG. 4, the source of the N-type MOS transistor 54 is grounded, and the load transistor 53 and the capacitor 55 are connected to the drain, thereby forming a grounded-source amplifier circuit. The photodiode 51 is connected to the input terminal of the common-source amplifier circuit, that is, the gate of the N-type MOS transistor 54, and the output terminal of the common-source amplifier circuit, that is, the drain of the N-type MOS transistor 54 is connected to the input terminal (N A capacitor 55 is connected to the gate of the N-type MOS transistor 54 for feedback, and an N-type resetting MOS transistor 53 for setting the initial potential of the gate of the N-type MOS transistor 54 is connected in parallel with the capacitor 55. .
[0081]
This configuration is used as a basic cell (pixel), and when the basic cells are arranged one-dimensionally or two-dimensionally, a selection transistor 63 driven by a shift register pulse for selecting a pixel to be read out has an N. It is connected to the drain of the type MOS transistor 54 (node 56). The configuration is such that the drain voltage of the N-type MOS transistor 54 appears in the CDS circuit 64 when the selection transistor 63 is turned on. The CDS circuit 64 can obtain only a signal component accompanying light.
[0082]
The load of the common-source amplifier circuit is configured as an active load by a P-type MOS transistor 59. A bias voltage and a power supply voltage are applied to the gate 58 and the source 57 of the load P-type MOS transistor 59, respectively. Incidentally, 52 and 62 are a reset terminal and a selection terminal, respectively.
[0083]
Next, a P-type read circuit will be described.
[0084]
The configuration of the P-type read circuit is basically a configuration in which the N-type MOS transistor of the above-described N-type read circuit is configured by a P-type MOS transistor and the polarity is inverted. That is, the source of the P-type MOS transistor 69 is grounded, and the load transistor 72 and the capacitor 70 are connected to the drain, thereby forming a grounded-source amplifier circuit. The photodiode 67 is connected to the input terminal of the common-source amplifier circuit, that is, the gate of the P-type MOS transistor 69, and the output terminal of the common-source amplifier circuit, that is, the drain of the P-type MOS transistor 69 is connected to the input terminal (P A capacitor 70 is connected to the gate of the P-type MOS transistor 69 to apply feedback, and a reset P-type MOS transistor 72 for setting the initial potential of the gate of the P-type MOS transistor 69 is connected in parallel with the capacitor 70. .
[0085]
With this configuration as a basic cell (pixel), when the basic cells are arranged one-dimensionally or two-dimensionally, a selection transistor 78 driven by a shift register pulse for selecting a pixel to be read is provided with a P transistor. It is connected to the drain of the type MOS transistor 69 (node 73). The configuration is such that the drain voltage of the P-type MOS transistor 69 appears in the CDS circuit 79 when the selection transistor 78 is turned on. The CDS circuit 79 can obtain only a signal component accompanying light.
[0086]
The load of the common-source amplifier circuit is configured as an active load by an N-type MOS transistor 75. A bias voltage is applied to the gate 74 of the load N-type MOS transistor 75. 66, 71 and 77 are a power supply voltage terminal, a reset terminal and a selection terminal, respectively.
[0087]
Whether the N-type sensor or the P-type sensor is used is determined by the CPU switching and selecting the analog switch 80 for mode switching, and detecting an output having different spectral sensitivity and characteristics from the output terminal. Can be.
[0088]
Here, the source ground readout method will be described.
[0089]
Taking the N-type read circuit as an example, the output signal is expressed by the following equation.
V OUT = V GS + I P T / {(1 + 1 / G) Ct + 1 / G · Cd} (1)
Where V GS Is a gate-source voltage of the N-type MOS transistor 54 at the time of reset, and this is also a drain voltage at the time of reset. G is the gain of the common-source amplifier circuit, Ct is the capacitance value of the feedback capacitor 55, Cd is the junction capacitance value of the photodiode 51, and I is P , T are the photocurrent and the integration time.
[0090]
As can be seen from the above equation (1), the effect of the junction capacitance Cd of the photodiode 51 can be suppressed by increasing the gain G of the common-source amplifier circuit by increasing the output signal due to the photoelectric conversion. As a result, the capacitance value Ct of the feedback capacitor 55 is reduced, so that the output voltage V OUT , Ie, the sensitivity can be increased.
[0091]
Next, the pulse timing of the read circuit will be described with reference to FIG.
[0092]
FIG. 5A is a timing chart illustrating a method for driving the N-type read circuit.
[0093]
The period T1 is a reset period. Here, the selection transistor 63 and the reset transistor 53 are turned on, and the potential of the photodiode 51 is set to the initial potential. Then, in the reset level reading period of the period T2, the reset transistor 53 is turned off and the reset level is read while the selection transistor 63 is kept on.
[0094]
Next, in a period T3, both the reset transistor 52 and the selection transistor 63 are turned off to be in an accumulation state. Further, in a period T4, the signal level is read.
[0095]
Thus, a signal can be read as a voltage change from the reset level by the CDS operation.
[0096]
Actually, a signal is read out one-dimensionally on a line while repeating a selection operation by a shift register or the like.
[0097]
FIG. 5B is a timing chart illustrating a driving method of the P-type read circuit. The operation of the P-type readout circuit is the same as that of the above-described example of the N-type readout circuit, and a description thereof will not be repeated.
[0098]
(Second embodiment)
Next, as a second embodiment of the present invention, another configuration example of the infrared, visible, and visible sensitivity switching sensor will be described with reference to FIG.
[0099]
Note that, in the second embodiment, the same parts as those in the above-described first embodiment are denoted by the same reference numerals, and description thereof will be omitted.
[0100]
FIG. 11A shows the second embodiment, and is a configuration diagram showing an example in which photodiodes of a type in which photodiodes are formed vertically in a semiconductor substrate realize different spectral sensitivities.
[0101]
As shown in FIG. 11A, this sensor differs from the sensor of the first embodiment described above in that two PN junctions are formed in the depth direction of the N-type semiconductor substrate, and It is configured as a photodiode. That is, a photodiode (second sensor array) 5b for visible light is formed at a shallow position under the same light receiving surface, and a photodiode (first sensor array) 5a for infrared light is formed at a deep position. Is formed.
[0102]
The outputs of the photodiodes 5a and 5b are output from the N-type read circuit 81a and the P-type read circuit 81b via the analog switch 80, respectively. As described above, a signal is read out to each of the photodiodes 51 and 67 using the above-described reading circuit.
[0103]
FIG. 11B is a diagram illustrating a circuit configuration of the sensor having the configuration illustrated in FIG. A short-wavelength output is obtained on the N-type readout circuit 81a side, and a long-wavelength output is obtained on the P-type readout circuit 81b.
[0104]
With the photodiode having the vertical structure, it is possible to realize the same pixel configuration as in the first embodiment of the horizontal structure described above. In this case, the driving method is the same as that of the above-described readout circuit of the first embodiment, and thus the description is omitted.
[0105]
The second embodiment is different from the adjacent type of the first embodiment described above, and has the merit that the same portion of the object can be measured and the chip area can be reduced.
[0106]
(Third embodiment)
Next, a third embodiment of the present invention will be described.
[0107]
Note that, in the second embodiment, the same parts as those in the above-described first embodiment are denoted by the same reference numerals, and description thereof will be omitted.
[0108]
In the third embodiment, similarly to the above-described second embodiment, a sensor capable of switching spectral sensitivity is formed by stacking photodiodes in the depth direction of the substrate.
[0109]
FIG. 12A shows the third embodiment, and is a configuration diagram showing an example in which photodiodes of a type in which photodiodes are formed vertically in a semiconductor substrate realize different spectral sensitivities.
[0110]
As shown in FIG. 12A, this sensor is different from the sensor of the above-described second embodiment in that an N-type semiconductor substrate is replaced with a P-type semiconductor substrate and below an N-type diffusion layer. The structure of the portion excluding the P-type diffusion layer is different. In addition, the short wavelength output is obtained on the N-type readout circuit 81a side, and the long wavelength output is obtained on the N-type readout circuit 82 side.
[0111]
As shown in FIG. 12B, the configuration of the N-type readout circuit 82 is basically the same as that of the N-type readout circuit 81a, except that the photodiodes 51 are 67a and 67b. The components are simply replaced by the reference numerals 53, 54, 55, 56, 59, 63 with 83, 84, 85, 86, 87, 88 respectively. Other configurations and operations are the same as those of the above-described first and second embodiments, and thus illustration and description are omitted.
[0112]
According to the third embodiment, the manufacturing process can be further simplified by a portion that is further removed.
[0113]
【The invention's effect】
As described above, according to the present invention, the brightness of the area where the main subject is present on the shooting screen is correctly measured without being affected by the infrared light, and the backlight determination is performed by comparing this with the average brightness of the shooting screen. Accordingly, it is possible to provide a ranging photometry sensor and a camera capable of photographing a main subject with a correct exposure without being affected by an infrared light component.
[0114]
According to the first aspect of the present invention, it is possible to correctly detect the luminance of the region where the main subject exists on the photographing screen without being affected by the infrared light component.
[0115]
According to the second aspect of the present invention, it is possible to correctly detect the luminance of substantially the same part of the area where the main subject exists on the photographing screen without being affected by the infrared light component.
[0116]
According to the third aspect of the present invention, it is possible to correctly detect the luminance of the region of the same portion where the main subject exists on the photographing screen without being affected by the infrared light component, and to further reduce the chip area. Can be smaller.
[0117]
According to the fourth aspect of the present invention, it is possible to correctly detect the luminance of the area where the main subject exists on the photographing screen without being affected by the infrared light component.
[0118]
According to the fifth aspect of the present invention, the luminance of the area where the main subject is present on the photographing screen is correctly measured without being affected by the infrared light, and the luminance of the main area is not affected by the infrared light component. The subject can be photographed with the correct exposure.
[0119]
According to the invention described in claim 6, the brightness of the area where the main subject exists on the photographing screen is correctly measured without being affected by the infrared light, and the brightness of the main subject is determined without being affected by the infrared light component. You can shoot with the correct exposure.
[Brief description of the drawings]
FIG. 1 shows a first embodiment of the present invention, and is a cross-sectional view of a semiconductor chip of a sensor for switching spectral sensitivity, which is a sensor in which a photometric sensor array is adjacent to a distance measuring sensor array.
FIG. 2 is a characteristic diagram showing a relationship between a wavelength of incident light and an absorption depth in silicon (semiconductor substrate).
FIG. 3 is a characteristic diagram of photodiodes having different spectral sensitivities.
FIG. 4 is a diagram showing a configuration of a photoelectric conversion signal readout circuit of the distance measuring image sensor having the configuration of FIG. 1;
FIGS. 5A and 5B are timing charts for explaining a pulse timing of a reading circuit, in which FIG. 5A is a timing chart for explaining a driving method of an N-type reading circuit, and FIG. .
FIG. 6 is a diagram showing a configuration of a camera exposure control system.
FIG. 7 is a diagram showing a specific configuration example of an electronic circuit system of a camera as a first embodiment of the present invention to which the exposure control system of FIG. 6 is applied.
FIG. 8 is a diagram illustrating a relationship between a shooting scene, a shooting area, and a photometry area.
9A is a diagram showing an example of divided blocks of an area 37a in FIG. 8, FIG. 9B is a diagram showing an example of multi-AF at telephoto, and FIG. 9C is a diagram of FIG. FIG. 9D is a diagram showing points for distance measurement of the block, and FIG. 9D is a diagram showing image data obtained from the pixel of FIG.
FIG. 10 is a flowchart illustrating an operation of distance measurement and photometry in the first embodiment of the present invention.
FIG. 11A shows a second embodiment, and is a configuration diagram showing an example of realizing different spectral sensitivities with photodiodes of a type in which photodiodes are formed vertically in a semiconductor substrate, and FIG. 2) is a diagram showing a circuit configuration of the sensor having the configuration shown in FIG.
FIG. 12A shows a third embodiment, and is a configuration diagram showing an example in which photodiodes of a type in which photodiodes are vertically formed in a semiconductor substrate realize different spectral sensitivities; FIG. 2B is a diagram illustrating a circuit configuration of the sensor having the configuration illustrated in FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Photometric sensor, 1a ... Perimeter photometric section, 1b ... Central photometric section, 2 ... Average brightness calculation section, 3 ... Photometric backlight determination section, 5 ... Distance measuring sensor, 5a ... First sensor array (photodiode), 5b ... A second sensor array (photodiode), 6) a distance measuring calculator, 7) a subject selector, 8) a luminance calculator, 9) a backlight determining unit, 10) a strobe light emitting unit, 11) a controller, 15 ... a subject , 16a, 16b: light receiving lens, 17a, 17b: sensor array, 18: distance measuring unit, 20: AE lens, 21a, 21b: AE sensor, 40: N-type semiconductor substrate (N-sub), 41: P-type semiconductor Layer (Pwell), 42 ... P-type diffusion layer (P + ), 43... N-type diffusion layer (N + ).

Claims (6)

半導体基板に形成されるもので、赤外光を含む分光感度特性を有する第1のセンサと、
上記第1のセンサと同一の半導体基板に形成されるもので、上記赤外光を含まない分光感度特性を有する第2のセンサと、
を具備し、
上記第1のセンサは被写体距離検出を行い、上記第2のセンサは、上記第1のセンサによる検出結果に基づいて被写体の明るさを検出することを特徴とする測距測光用センサ。
A first sensor formed on a semiconductor substrate and having a spectral sensitivity characteristic including infrared light;
A second sensor formed on the same semiconductor substrate as the first sensor and having a spectral sensitivity characteristic not including the infrared light;
With
The first sensor detects a subject distance, and the second sensor detects the brightness of the subject based on a result of detection by the first sensor.
上記第1及び第2のセンサは、上記半導体基板に隣接して形成されていることを特徴とする請求項1に記載の測距測光用センサ。The sensor according to claim 1, wherein the first and second sensors are formed adjacent to the semiconductor substrate. 上記第1及び第2のセンサは、上記半導体基板の深さ方向に並べて形成されていることを特徴とする請求項1に記載の測距測光用センサ。2. The sensor according to claim 1, wherein the first and second sensors are formed side by side in a depth direction of the semiconductor substrate. 3. 半導体基板に形成されるもので、赤外感度を有する第1のセンサと、
上記第1のセンサと同一の半導体基板に形成されるもので、上記第1のセンサに比べて赤外感度の低い第2のセンサと、
を具備し、
上記第1のセンサは被写体距離検出を行い、上記第2のセンサは上記第1のセンサの検出結果に基づいて判定された特定被写体について被写体の明るさを検出するようにしたことを特徴とする測距測光用センサ。
A first sensor formed on a semiconductor substrate and having infrared sensitivity;
A second sensor which is formed on the same semiconductor substrate as the first sensor and has a lower infrared sensitivity than the first sensor;
With
The first sensor detects a subject distance, and the second sensor detects the brightness of the subject for the specific subject determined based on the detection result of the first sensor. Sensor for distance measurement and photometry.
撮影画面内の所定位置に存在する被写体の像信号を検出するセンサと、
上記撮影画面内の平均的な明るさを表す平均測光値を検出する平均測光手段と、
上記センサの出力値と上記平均測光値とを比較して、撮影時の露出制御量を決定する決定手段と、
を具備し、
上記センサは、可視光領域に感度を有する光電変換出力を行う第1のモードと、赤外光を含む領域に感度を有する光電変換出力を行う第2のモードを設定可能であることを特徴とするカメラ。
A sensor for detecting an image signal of a subject present at a predetermined position in the shooting screen,
Average photometric means for detecting an average photometric value representing an average brightness in the shooting screen,
Determining means for comparing the output value of the sensor and the average photometric value to determine an exposure control amount at the time of shooting;
With
The sensor is capable of setting a first mode for performing a photoelectric conversion output having sensitivity in a visible light region and a second mode for performing a photoelectric conversion output having sensitivity in a region including infrared light. Camera.
上記センサは、上記第2のモードで上記被写体のピント合わせ信号を形成することを特徴とする請求項5に記載のカメラ。6. The camera according to claim 5, wherein the sensor forms a focus signal of the subject in the second mode.
JP2003101647A 2003-04-04 2003-04-04 Range-finding/photometric sensor and camera Withdrawn JP2004309701A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003101647A JP2004309701A (en) 2003-04-04 2003-04-04 Range-finding/photometric sensor and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003101647A JP2004309701A (en) 2003-04-04 2003-04-04 Range-finding/photometric sensor and camera

Publications (1)

Publication Number Publication Date
JP2004309701A true JP2004309701A (en) 2004-11-04

Family

ID=33465373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003101647A Withdrawn JP2004309701A (en) 2003-04-04 2003-04-04 Range-finding/photometric sensor and camera

Country Status (1)

Country Link
JP (1) JP2004309701A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008028105A (en) * 2006-07-20 2008-02-07 Nikon Corp Solid-state imaging element and imaging apparatus using same
JP2009037139A (en) * 2007-08-03 2009-02-19 Canon Inc Imaging apparatus
JP2011158834A (en) * 2010-02-03 2011-08-18 Ricoh Co Ltd Distance measurement and photometry device and imaging apparatus
US8203846B2 (en) 2009-08-24 2012-06-19 Sharp Kabushiki Kaisha Semiconductor photodetector element and semiconductor device
JP2014048329A (en) * 2012-08-29 2014-03-17 Nikon Corp Imaging device
JP2016004133A (en) * 2014-06-16 2016-01-12 キヤノン株式会社 Imaging device and control method of the same, program, and memory medium
US9357122B2 (en) 2013-08-12 2016-05-31 Canon Kabushiki Kaisha Photoelectric conversion apparatus, focus detecting apparatus, imaging system, and driving method of photoelectric conversion apparatus
WO2017035447A1 (en) * 2015-08-27 2017-03-02 Artilux Corporation Wide spectrum optical sensor
US9786715B2 (en) 2015-07-23 2017-10-10 Artilux Corporation High efficiency wide spectrum sensor
JP2017216711A (en) * 2017-07-13 2017-12-07 株式会社ニコン Imaging apparatus
US9954016B2 (en) 2015-08-04 2018-04-24 Artilux Corporation Germanium-silicon light sensing apparatus
US10254389B2 (en) 2015-11-06 2019-04-09 Artilux Corporation High-speed light sensing apparatus
US10418407B2 (en) 2015-11-06 2019-09-17 Artilux, Inc. High-speed light sensing apparatus III
US10564718B2 (en) 2015-08-04 2020-02-18 Artilux, Inc. Eye gesture tracking
US10707260B2 (en) 2015-08-04 2020-07-07 Artilux, Inc. Circuit for operating a multi-gate VIS/IR photodiode
US10739443B2 (en) 2015-11-06 2020-08-11 Artilux, Inc. High-speed light sensing apparatus II
US10741598B2 (en) 2015-11-06 2020-08-11 Atrilux, Inc. High-speed light sensing apparatus II
US10777692B2 (en) 2018-02-23 2020-09-15 Artilux, Inc. Photo-detecting apparatus and photo-detecting method thereof
US10854770B2 (en) 2018-05-07 2020-12-01 Artilux, Inc. Avalanche photo-transistor
US10861888B2 (en) 2015-08-04 2020-12-08 Artilux, Inc. Silicon germanium imager with photodiode in trench
US10886311B2 (en) 2018-04-08 2021-01-05 Artilux, Inc. Photo-detecting apparatus
US10886312B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10969877B2 (en) 2018-05-08 2021-04-06 Artilux, Inc. Display apparatus
US11630212B2 (en) 2018-02-23 2023-04-18 Artilux, Inc. Light-sensing apparatus and light-sensing method thereof

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008028105A (en) * 2006-07-20 2008-02-07 Nikon Corp Solid-state imaging element and imaging apparatus using same
JP2009037139A (en) * 2007-08-03 2009-02-19 Canon Inc Imaging apparatus
US8203846B2 (en) 2009-08-24 2012-06-19 Sharp Kabushiki Kaisha Semiconductor photodetector element and semiconductor device
JP2011158834A (en) * 2010-02-03 2011-08-18 Ricoh Co Ltd Distance measurement and photometry device and imaging apparatus
JP2014048329A (en) * 2012-08-29 2014-03-17 Nikon Corp Imaging device
US9357122B2 (en) 2013-08-12 2016-05-31 Canon Kabushiki Kaisha Photoelectric conversion apparatus, focus detecting apparatus, imaging system, and driving method of photoelectric conversion apparatus
JP2016004133A (en) * 2014-06-16 2016-01-12 キヤノン株式会社 Imaging device and control method of the same, program, and memory medium
US10269862B2 (en) 2015-07-23 2019-04-23 Artilux Corporation High efficiency wide spectrum sensor
US11335725B2 (en) 2015-07-23 2022-05-17 Artilux, Inc. High efficiency wide spectrum sensor
US9786715B2 (en) 2015-07-23 2017-10-10 Artilux Corporation High efficiency wide spectrum sensor
US10615219B2 (en) 2015-07-23 2020-04-07 Artilux, Inc. High efficiency wide spectrum sensor
US10707260B2 (en) 2015-08-04 2020-07-07 Artilux, Inc. Circuit for operating a multi-gate VIS/IR photodiode
US10056415B2 (en) 2015-08-04 2018-08-21 Artilux Corporation Germanium-silicon light sensing apparatus
US10761599B2 (en) 2015-08-04 2020-09-01 Artilux, Inc. Eye gesture tracking
US10256264B2 (en) 2015-08-04 2019-04-09 Artilux Corporation Germanium-silicon light sensing apparatus
US11755104B2 (en) 2015-08-04 2023-09-12 Artilux, Inc. Eye gesture tracking
US9954016B2 (en) 2015-08-04 2018-04-24 Artilux Corporation Germanium-silicon light sensing apparatus
US10269838B2 (en) 2015-08-04 2019-04-23 Artilux Corporation Germanium-silicon light sensing apparatus
US11756969B2 (en) 2015-08-04 2023-09-12 Artilux, Inc. Germanium-silicon light sensing apparatus
US10756127B2 (en) 2015-08-04 2020-08-25 Artilux, Inc. Germanium-silicon light sensing apparatus
US10861888B2 (en) 2015-08-04 2020-12-08 Artilux, Inc. Silicon germanium imager with photodiode in trench
US10564718B2 (en) 2015-08-04 2020-02-18 Artilux, Inc. Eye gesture tracking
US10964742B2 (en) 2015-08-04 2021-03-30 Artilux, Inc. Germanium-silicon light sensing apparatus II
US10685994B2 (en) 2015-08-04 2020-06-16 Artilux, Inc. Germanium-silicon light sensing apparatus
CN114754864A (en) * 2015-08-27 2022-07-15 光程研创股份有限公司 Wide-frequency spectrum optical sensor
WO2017035447A1 (en) * 2015-08-27 2017-03-02 Artilux Corporation Wide spectrum optical sensor
US9893112B2 (en) 2015-08-27 2018-02-13 Artilux Corporation Wide spectrum optical sensor
CN114754864B (en) * 2015-08-27 2023-03-24 光程研创股份有限公司 Wide-frequency spectrum optical sensor
US10157954B2 (en) 2015-08-27 2018-12-18 Artilux Corporation Wide spectrum optical sensor
US10770504B2 (en) 2015-08-27 2020-09-08 Artilux, Inc. Wide spectrum optical sensor
US11131757B2 (en) 2015-11-06 2021-09-28 Artilux, Inc. High-speed light sensing apparatus
US11637142B2 (en) 2015-11-06 2023-04-25 Artilux, Inc. High-speed light sensing apparatus III
US10254389B2 (en) 2015-11-06 2019-04-09 Artilux Corporation High-speed light sensing apparatus
US10310060B2 (en) 2015-11-06 2019-06-04 Artilux Corporation High-speed light sensing apparatus
US11747450B2 (en) 2015-11-06 2023-09-05 Artilux, Inc. High-speed light sensing apparatus
US10886312B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10886309B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10741598B2 (en) 2015-11-06 2020-08-11 Atrilux, Inc. High-speed light sensing apparatus II
US11749696B2 (en) 2015-11-06 2023-09-05 Artilux, Inc. High-speed light sensing apparatus II
US10739443B2 (en) 2015-11-06 2020-08-11 Artilux, Inc. High-speed light sensing apparatus II
US10795003B2 (en) 2015-11-06 2020-10-06 Artilux, Inc. High-speed light sensing apparatus
US10353056B2 (en) 2015-11-06 2019-07-16 Artilux Corporation High-speed light sensing apparatus
US10418407B2 (en) 2015-11-06 2019-09-17 Artilux, Inc. High-speed light sensing apparatus III
US11579267B2 (en) 2015-11-06 2023-02-14 Artilux, Inc. High-speed light sensing apparatus
JP2017216711A (en) * 2017-07-13 2017-12-07 株式会社ニコン Imaging apparatus
US11630212B2 (en) 2018-02-23 2023-04-18 Artilux, Inc. Light-sensing apparatus and light-sensing method thereof
US10777692B2 (en) 2018-02-23 2020-09-15 Artilux, Inc. Photo-detecting apparatus and photo-detecting method thereof
US11329081B2 (en) 2018-04-08 2022-05-10 Artilux, Inc. Photo-detecting apparatus
US10886311B2 (en) 2018-04-08 2021-01-05 Artilux, Inc. Photo-detecting apparatus
US10854770B2 (en) 2018-05-07 2020-12-01 Artilux, Inc. Avalanche photo-transistor
US10969877B2 (en) 2018-05-08 2021-04-06 Artilux, Inc. Display apparatus

Similar Documents

Publication Publication Date Title
JP2004309701A (en) Range-finding/photometric sensor and camera
US8576329B2 (en) Focus detection apparatus and control method therefor
US8704933B2 (en) Focus detection apparatus
US8159599B2 (en) Focus detection apparatus, focus detection method, and image sensing apparatus
US10128284B2 (en) Multi diode aperture simulation
US7515819B2 (en) Solid-state image pickup device for auto-focus and auto-focus camera using the same
JP5076416B2 (en) Imaging device and imaging apparatus
JP2003318381A (en) Solid-state imaging device and camera
JP2010032646A (en) Focus detection apparatus
US20140253787A1 (en) Focus detection apparatus, focus detection method, and image capturing apparatus
US20070047939A1 (en) Focus detecting device and camera system using the same device
JP2009063952A (en) Imaging device, focus detecting device and imaging apparatus
JP6627656B2 (en) Focus detection device
KR20160141572A (en) Electronic device and method for capturing an image
JP2012220790A (en) Imaging apparatus
JP2014165778A (en) Solid state image sensor, imaging device and focus detector
US6445883B1 (en) Detecting device and camera with the detecting device
JP2003107340A (en) Solid-state image pickup device for photometry and auto- focusing and image pickup device using the same
JP2011107614A (en) Focus detecting device and image signal processing device
JP4072450B2 (en) Solid-state imaging device for AEAF
JP4500849B2 (en) Solid-state imaging device for AEAF
JP2015154153A (en) Camera with imaging apparatus
JP7094767B2 (en) Imaging device and its control method and program
JP4006363B2 (en) AEAF sensor and camera using the same
JP3058184B2 (en) Photoelectric sensor device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060606