JP4281199B2 - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP4281199B2
JP4281199B2 JP2000046705A JP2000046705A JP4281199B2 JP 4281199 B2 JP4281199 B2 JP 4281199B2 JP 2000046705 A JP2000046705 A JP 2000046705A JP 2000046705 A JP2000046705 A JP 2000046705A JP 4281199 B2 JP4281199 B2 JP 4281199B2
Authority
JP
Japan
Prior art keywords
light receiving
electronic camera
range
signal
camera according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000046705A
Other languages
Japanese (ja)
Other versions
JP2001230966A (en
Inventor
雅 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2000046705A priority Critical patent/JP4281199B2/en
Priority to US09/650,764 priority patent/US7158183B1/en
Publication of JP2001230966A publication Critical patent/JP2001230966A/en
Application granted granted Critical
Publication of JP4281199B2 publication Critical patent/JP4281199B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、撮像素子を使用す子カメラに関する。
【0002】
【従来の技術】
従来から被写体を撮影するに当たっては、被写体までの距離、被写体の輝度、被写体の色温度等を知る必要があった。そのためこれまでは通常、撮影用の撮像素子以外にAF(被写体までの測距を行いそれに基づいて撮影レンズを自動駆動する)、AE(被写体輝度を求めそれに基づいて露出条件(シャッタースピードと絞り値)を決定する)、WB(被写体又は光源の色温度を検出し、被写体の最適な色再現を行うことを言い、これを自動的に制御する場合はAWBという)等を行うためにそれぞれ専用の素子を使用し、更に、場合によっては専用の光学系を必要としていた。
【0003】
例えば、AFにおいてはフィルム面と等価の位置にAF用センサが配置されるように専用光学系を備え、更にこの専用AF素子以外にも最適光量で演算するために、撮像素子とは別体の入射光量モニタ用の素子を備える必要があった。AEにおいても同様で、専用光学系と、測光精度を高めるために複数の測光領域からなる専用センサが必要であった。
【0004】
また、通常のビデオカメラとは異なり電子スチルカメラにおいては、狙ったシャッターチャンスを逃さないためにもシャッターレリーズ後は可能な限り速く最適条件での被写体情報を取り込む必要がある。この様にシャッタータイムラグを出来るだけ短くするために通常は、撮影前に撮影時の色温度を検出し、最適のホワイトバランスで撮影できるように、別途ホワイトバランス(WB)用専用センサを必要としていた。
【0005】
一方、撮像用センサを利用してAF、AE、AWB全てあるいはその一部を行うという考えは以前から各種形態が考案され発表されている。撮像用センサで上記の全ての機能を行わせるという考案の一例が特開平2−210974号公報に開示されている。
そこでは、CCD撮像素子を使用して、AWB、AF、AEの順に行い最後に撮影するというものである。概略の内容を以下に説明する。まず、CCDのダイナッミクレンジの範囲内で各種演算を精度良く行うために、被写体輝度でのCCDのオーバーフロー時間を始めに測定する。その後の色温度の測定に当たっては、光学系に拡散板を挿入し、撮像面の光量を均一にしてから露光し、この撮像素子からの出力信号を色分離回路、積分器を通し、A/D変換しCPUに取り込んでAWB演算を行う。
【0006】
その後のAF用演算に際しては、まず光学系にピントずらし用レンズ及び位相差検出用光学系を挿入し、CCDをリセット後、前記オーバーフロー時間露光する。このCCDからの出力の内、AF用領域のみを外部のスイッチで選択して、A/D変換してCPUに取り込みAF演算する。この位相差方式を用いたAF方式については、例えば特開平9−184973号公報に原理とそれを実現する方法として、時系列の瞳分割を利用した方法が開示されている。
【0007】
次に、その後のAE演算においては、前述したAF測光で使用した光学系を退避させ、CCDで露光した後、スポット測光、平均測光に応じた領域のみを外部スイッチで抜き出し積分し、A/D変換し、CPUでAE演算するというものである。
一方撮像素子の製造工程にCMOSプロセスを用いて、低コスト化、低消費電力化を図るとともに、更にはセンサチップ内部に信号処理あるいは演算機能を持たせた種々の形態のCMOSイメージセンサが発表され、近年では実際に安価な電子カメラにこれらを応用した製品も発表されている。
【0008】
CMOSセンサは、フォトダイオードで光電変換した微少信号を画素毎に形成されているセルアンプで増幅した後読み出すことを特徴としていて、これまでにもSIT(Static Induction Transistor)、CMD(Charge Modulation Device)、BASIS(BAse Stored Image Sensor)、FGA(Floating Gate Array)、BCMD(Bulk Charge Modulated Device)、AMI(Amplified MOS intelligent Imager)、BCAST(Buried Charge Accumulator and Sensing Transistor Array)等、各種タイプが発表されている。これらセンサの詳細については各種文献が発表されているのでそちらを参考にされたい。
【0009】
また最近ではこれらに加えて、ビジョンチップといわれる、イメージセンサに演算機能を集積化して三次元画像並列処理を行うセンサや、簡単な網膜機能を行うことも可能な人工網膜センサも発表されていて、この人工網膜チップについてはゲーム、携帯電話、セキュリティシステム等への応用も発表されている。
人工網膜チップについては特開平6−139361や特開平8−292998等にその原理や機能についての詳細な内容が記述されているのでそれらを参照していただきたい。
【0010】
ここではそこに述べられている、人工網膜チップで実現される主な機能について次に述べることとする。まず、各受光素子(センサ)の列毎の読み出しを制御する複数のスキャナに信号を送ることにより、任意行から任意行まで出力させることが出来る。この複数のスキャナに供給する電圧と、入力画像強度との積和演算した結果がセンサの出力として得られる。これにより容易に画素間演算(輪郭強調等)した画像出力を得ることが出来る。
【0011】
また、スキャナの制御信号を所望のパターンとしてこれを順次印可していくことによりパターンマッチングが可能となる。更にセンサの列方向を制御するランダムスキャナを搭載することにより、列方向の任意の範囲を読み出すことが出来、その結果、前述の任意行の読み出し機能と併せて、任意領域の画像のみを読み出すことが可能となる。複数の注視パターンがある場合についても、読み出し領域を複数設定し、順にその領域を読み出せば良い。
【0012】
センサセルをリセットしてから部分画像を読み出すまでの時間をその部分の明るさに応じて設定する回路を付加することにより、セル毎あるいは複数領域の領域毎に蓄積時間を変えることが出来る。読み出し時に2行以上を転送してから読み出すようにすることにより、分解能を低下させることが可能となり、パターンマッチングを高速に行うことが出来る。
【0013】
その他、画像の空間直行変換、文字認識機能を持たせることが可能である等様々な機能をこの素子に持たせることが可能である。
また、一般に、CCD型撮像素子は光電変換部に受光量に応じて蓄積された電荷そのものを転送して出力するために、一度信号を読み出してしまうと受光用セルには信号電荷が残っていない(破壊型素子)のに対して、前述した大部分のCMOSセンサは、光電変換部に蓄積された電荷をMOS型FET等を使用して前述したセルアンプで増幅するとともに電圧に変換して出力していることから、読み出し時に信号電荷の消費がなく、受光途中であっても繰り返して信号を読み出すことが出来る(非破壊型素子)という大きな特徴がある。
【0014】
【発明が解決しようとする課題】
しかしながら、上述した、撮像素子単独でAE、AF、AWBを行うという方式に置いては、それぞれの測定の前にそれぞれの測定目的に合った光学系を設定する必要がある。そのため、撮影者が被写体を撮影したいと考えてシャッターを押したとしても実際に撮像開始されるまでに非常に時間がかかってしまい大切なシャッターチャンスを逃してしまうこととなる。
【0015】
本発明は、タイムラグの少ない電子カメラを提供することを目的とする。
【0016】
【問題点を解決する為の手段】
請求項1に記載の電子カメラは、被写体光を受光して電荷を蓄積する複数の受光素子からなる撮像面を備え、それぞれの受光素子から信号を出力する順番とタイミングとを任意に設定可能であり、前記複数の受光素子のうちの少なくとも2つの受光素子信号を加算して出力する撮像素子と、前記撮像素子の前記撮像面のうち第1範囲および第2範囲を指定する指定手段と、前記複数の受光素子それぞれの電荷蓄積をリセットした後に電荷の蓄積を開始し、電荷の蓄積開始後は電荷蓄積をリセットすることなく、前記指定手段で指定された第1範囲内にある所定数ごとの受光素子信号を加算した加算信号を所定時間ごとに読み出す読み出し手段と、前記読み出し手段が前記加算信号を読み出すごとに、前記加算信号のレベルが所定のレベル範囲内にあるかどうかを判定する判定手段と、前記受光素子の電荷蓄積をリセットし電荷の蓄積を開始してから前記加算信号のレベルが所定のレベル範囲内になるまでの蓄積時間を測定する測定手段と、前記判定手段が所定のレベル範囲内にあると判定した場合、前記蓄積時間に基づいて撮影条件を演算する測光演算を開始するとともに、前記指定手段により指定された第2範囲内の複数の受光素子の信号に基づいて被写体までの距離を演算する測距演算を開始し、前記測距演算の結果で撮影レンズを駆動するとともに被写体の色温度を演算する測色演算を行なう制御手段とを備えることを特徴とする。
【0022】
請求項の発明によれば、測距演算の結果に基づいて撮影レンズを駆動させている最中に撮像素子から信号を出力し、これを基に被写体の色温度を計算する事によって、無駄な時間を最小限に押さえる構成としている。その結果、1回の撮影シーケンスを短縮することが出来る。
【0050】
7に撮像素子のフィルタとして、色再現が良い等の理由からもっとも一般的に採用されている、ベイヤー配列を示す。この図7と先の図6を用いて具体的に開口部のフィルターについて説明する。
【0051】
この場合、一方の開口(図6の606a及び607a)にはGフィルタを、もう一方の開口(図6の606b及び607b)にはRとBの補色であるマゼンタフィルタを設けることによりマゼンタフィルタを透過した光束は撮像素子上のRとBの受光素子上に結像し、一方Gフィルタを透過した光束はGの受光素子上に結像する。これにより分離されたG画面とマゼンタ画面とは等しい解像度を有しているので、この2種類の画面を基に周知の相関演算を用いて容易に測距演算を行うことが出来る。
【0063】
【発明の実施の形態】
次に、本発明による好適な一実施形態を示す。図1に本発明による電子カメラの実施例を示す。
図1において、101は被写体像を取り込むための撮影用レンズ、102は図6に示す各種開口を備え、撮像素子に入射する光束を制限するための絞り、103はランダム読み出し及び加算機能を有した撮像素子で、0011〜0013段落にその主な機能を示した人工網膜チップ等を使用している。さらにこの撮像素子103は図7に示すようなフィルタ配列を有していて、この撮像素子103に絞り102を通った被写体からの光束が結像し、電気信号に変換され出力される。この絞り102の一実施形態を図6を用いて説明する。
【0064】
図6において、光束を遮蔽する絞り601上には入射光量に応じて大きさの異なる複数の選択可能な開口(602〜605)と、光軸に対して上下あるいは左右の対称の位置に開口を持った、入射光束を分割(瞳分割)しAF制御するための開口(606a、606b及び607a、607b)が配置されている。そしてこの瞳分割AF用開口606a、606b、607a、607bには撮像素子103のフィルタと同じかあるいは補色のフィルタがそれぞれ設置されている。図7のフィルタ配列の撮像素子の場合には、開口606a、607aにG(グリーン)フィルタを、そして606b、607bにはGの補色であるM(マゼンタ)フィルタをそれぞれ設置するのが好ましい。
【0065】
さて、撮像素子103で電気信号に変換された被写体信号は、次の信号処理回路104でCDS処理、ガンマ処理等を施されてからデジタル信号に変換され、更にゲイン調整、補間、圧縮等の公知の処理を施され、メモリカード等着脱自在の記録媒体105に記録される。
この信号処理回路104ではこれら公知の信号処理以外に、測光用露光に基づいた信号から、シャッタータイム、絞り値を計算する回路、測色用露光に基づいた信号から撮影画像に対してホワイトバランスを施すための回路、瞳分割AF時のコントラストが十分であるか否かを判定する回路、二つの瞳を通ってきた光束を、サンプリングにより二つの画像信号に分離する回路、この分離した二つの画像間の相関演算を行いピントのズレ量を計算する回路等が含まれる。そして、これらの回路は一つのASICで構成する事も可能で、その結果カメラのより一層の小型化が可能となる。
【0066】
表示装置106は、カメラがビデオ動作しているときに被写体の動画を表示するために使用する。これにより、撮影するに際し前もって露出条件、合焦精度、画角等を確認することが出来る。もちろん、記録媒体105に記録されている画像信号を再生し、信号処理回路104にて表示に適した信号形態に変換し表示装置106で表示することもできる。
【0067】
コントロール回路107は、カメラ全体のシーケンスを司る回路で、ユーザが操作する不図示のシャッタ釦、スポット測光、中央重点測光等を選択するAEモード選択釦、AE/AFエリア選択用釦等で構成される操作部材108からの入力を受けて一連の撮影及び記録動作等を開始させる。またこのコントロール回路107では、前述した信号処理回路104での各種信号処理結果に基づいてドライバ109へ、信号を出力し、最適絞り開口に設定すべく絞り102を回転させる。
【0068】
この絞りの回転に際しては、もし撮影時であったなら、絞り用開口(602〜605)を選択し、AE及びAF動作中であったならば、瞳分割AF用開口(606、607)の何れかを選択する。更にコントロール回路107は、上述した相関演算結果に基づいてドライバ110へ信号を出力し、合焦位置へレンズを移動させる。このレンズ移動の結果合焦しなかった場合や、コントラスト不足によりAF不可能と判断した場合にはレンズをマニュアル駆動可能にする切り換え手段をこのコントロール回路107に含ませても良い。
【0069】
図2(a)は本発明の電子カメラの撮影に関連した動作の説明のためのフローチャートである。図2(a)において、電源オン後、前述した各種操作部材(108)によってステップS201で中央重点、スポット測光等の測光モード及び測光用エリアの位置、測距用エリアの位置等が選択されると直ちに、ステップS202で測光動作が開始される。この測光位置や測距位置に関しては、特に選択されなかった場合には、重要な被写体がくることの多い中央部に初期設定されている。
【0070】
この測光動作によって撮像素子上に設定されている測光用エリアから所定信号レベルが得られたならば直ちに撮影用のシャッタースピードと絞り値とを演算する測光演算を開始する。それと同時に次のステップS203で、すでにステップS201で選択されている、前述した測光用エリアと同一の測距用エリアからの信号を使用して被写体までの測距を開始する。この測距の内容の詳細についても後述する。
【0071】
このステップS203の結果、合焦したならば直ちに次のステップS204で被写体の撮影を行う。ただし、シャッターレリーズは前述した測距及び測光演算の両ステップが終了して始めて可能となる。このステップS204で受光素子の信号が出力されたならば直ちに次のステップS205で測色の為の動作を開始する。この測色演算の結果を用いて、色差信号をゼロにする等公知の方法で被写体のホワイトバランスを取り、その後ガンマ調整、圧縮等の処理をしてから記録媒体105に記録する。なお、シャッターが半押しの間は前述したステップS202の測光、S203の測距を繰り返す。
【0072】
この様に本方式においては、測光、測距、測色の各動作を連続して行っている。即ち、ある一つの動作の結果の受光出力が得られたならば直ちにその出力に基づいて所定の演算を開始すると同時に次の動作を開始している。更に、測色動作については本来の撮影用露光終了後に行っているので、撮影までのタイムラグを最短とすることが出来る。
【0073】
撮像素子として前述した非破壊型の素子を使用した場合には、図2(b)及び図2(c)のフローチャートに示すような撮影シーケンスも可能となる。即ち図2(c)の場合は、測光動作の結果撮像素子から最適出力が得られたならば測光演算を開始するとともにほぼ同一露光状態で直ちに測色用の出力信号を撮像素子から取り出して測色演算を開始するとともに選択エリアから測距用信号を取り出して測距を開始しているので、次の撮影までのタイムラグを極めて短くすることが出来る。
図2(b)の場合は、測光及び測距用動作終了後に測距動作で受光した信号をそのまま用いて測色演算しているので、この場合も撮影までのタイムラグを極めて短くすることが出来る。ここまで述べた測色動作及び演算については、もちろんマニュアルで設定することもでき、その場合にはここまで述べてきたシーケンスのうちから測色のためのステップを省くことが出来るので、記録までのサイクルを更に短縮することが出来る。
【0074】
こまで述べた測色動作及び演算については、もちろんマニュアルで設定することもでき、その場合にはここまで述べてきたシーケンスのうちから測色のためのステップを省くことが出来るので、記録までのサイクルを更に短縮することが出来る。
【0075】
次に図3を用いて測光用エリア及び測距用エリアについて説明する。図3(a)はファインダ301の表示の一例で、5個の小さい四角302はスポット測光及び測距のためのエリアで、前述した図1におけるAE/AFエリア選択用釦108を操作することにより、これら5個のエリアの内、1個のエリアを選択するが、通常はスポット測光用のエリアと測距用エリアとは一致するように動作している。
【0076】
前述の図1におけるAE/AFエリア選択用釦108を操作することにより、このスポット測光用エリアと測距用エリアとで互いに異なったエリアを測定させることも可能である。次に図3(a)の5個のエリアの内の1個のエリア302及び図3(a)の中央重点用エリア303の構造を説明する。ここで本電子カメラに使用する撮像素子の種類によってこれらのエリアの構造は異なっている。
【0077】
ここで図4の測光用のフローチャートも使用して説明する。まず図4において、ステップS401で測光のための絞り(図6の602〜607の何れか)と撮像素子からの信号読み出しの時間間隔(図3(d)のt1、t2、t3、・・・)を設定する。シャッターレリーズから撮影までのタイムラグを極力小さくするために、この絞りとしては後述の測距時に使用するための二つの開口606あるいは607の何れかをこの測光用露光の際に使用することが望ましい。
【0078】
次のステップS402において撮像素子をリセットして露光を開始し、ステップS403で先程設定した時間間隔(t1、t2,t3、・・・)で撮像素子上の測光用エリア(図3の302や303)から信号を読み出す。この時、前述したように撮像素子がもし、非破壊型の素子でかつ受光素子の信号を加算して出力するタイプの撮像素子であったならば、図3(a)302の5カ所のエリアの内の1つのエリアあるいは中央重点エリア303から先程の時間間隔毎に加算した信号を連続して読み出してその出力レベルが予め設定されたレベルの範囲内にあるか否かを判別する。
【0079】
このレベルの範囲内とは例えば、低輝度の場合には、測光演算する際の誤差が生じない程度のSNが得られるレベルで、高輝度の場合には撮像素子出力が飽和していないレベルの範囲に設定される。そして図3(d)に示すごとく、t1、t2、t3、・・・と時間の短い順に読み出していってステップS404で所定範囲に入ったタイミングでもって直ちにステップS405で撮影用シャッタータイムと絞りとを決定するための演算を開始する。
【0080】
それと同時に予め選択されている図3(a)302の1カ所の測距用エリアから信号を読み出す測距用演算(後述)のためのステップS406へと進む。ステップS404で先程の所定範囲外であった場合について次に説明する。まず読み出し時間間隔がt1、t2、・・・、t10の10通りで各時間は前述のごとく1/2048、1/1024、・・・、1/4秒という2の冪乗に設定してあるとして、被写体輝度が明るすぎて、t1時間後の出力レベルがすでに撮像素子の飽和出力となった場合には絞り値を図6の最小絞り(605)に設定するか又はシャッタータイムを撮像素子の可能な限り高速のシャッタースピードに設定するか又はこれらを併用することにより高輝度側に対応することが出来る。
【0081】
ここでシャッタータイムは上述のt1から2の冪乗分の1ずつの時間間隔となるように設定する。逆に被写体輝度が暗すぎて、t10時間経過しても適正範囲内に出力レベルが達しなかった場合には、前述と逆の設定を行えばよい。この様にしてまずステップS407ですでに絞りやシャッターが変更されているか否かを確認した後、まだ変更前であったならばステップS408で所定の変更をした後ステップS402でリセットして新たに露光を開始する。
【0082】
ステップS407で既に絞り、シャッタが変更されていたならば、つぎのステップS409でオーバーあるいはアンダー警告をするとともにステップS410において、最適設定ではないにしろ、可能な限りの撮影のための値を設定し、次の撮影ステップS406へと進む。また、夜間撮影や屋外のスキー場での撮影等で最初から通常よりも明るい又は暗いということが分かっている場合には前述した時間間隔を予めずらしておくことにより測光に要する時間を短縮することが出来る。
【0083】
一方、撮像素子が破壊型素子の場合について次に説明する。図3(b)に図3(a)302の5つのエリアの1つを拡大して示す。ここでは簡単のためにエリア内を縦横それぞれ5等分して計25のエリアに分けてあり、エリア内の番号は、図3(d)に示される4種類の読み出し時間間隔t1、t2、t3、t4に対応させた場合を示す。また分割された各ブロックは更に例えば2×2、又はそれ以上の画素のブロックから構成されている。そして同一のブロック内の画素及び同一時間間隔に設定されているブロックは同時に加算されて出力される。
【0084】
この様にすることにより読み出し時間の短い順に、エリア内の複数画素の平均信号レベルが得られることになり、破壊型の素子であってもリアルタイムに信号の蓄積状態をモニタすることが出来る。また、ここで述べた一つのブロックは単一画素で構成されていてもかまわない。
図3(c)は、選択エリアを三つの領域に分け、上下の二つのエリアを測光用に、真ん中のエリアを測距用にしたものである。この様に構成することにより、上下の測光用ブロックからの平均信号出力が適正範囲にはいったならば直ちに測光演算を開始すると同時に、真ん中の測距用エリアから個々の受光画素からの信号を読み出して測距演算を開始することが出来、測光用の露光の後に測距用露光のために撮像素子をリセットする必要もなく、時間のロスを生ずることがない。
【0085】
次に測距用のフローチャートを図5を基に説明する。まずステップS501の露光に関しては、もし撮像素子として、非破壊型撮像素子を使用した場合には、前述した測光時の露光により蓄積した電荷状態をそのまま引き続き利用し、もしも破壊型素子を使用した場合であっても、図3(c)に述べた選択エリア構造の場合であったなら新規にリセットし露光をする必要はない。次のステップS502で選択されたAF用エリアから信号を個別に読み出す訳であるがこの時もし被写体輝度が低かった場合には、電気的にゲインを上げ信号レベルを大きくすることによってコントラスト上げてから次のステップに進めればよい。
【0086】
このゲインを上げる方法以外にも、隣り合った2画素を加算してから出力するようにすれば出力信号レベルを大きくすることが出来る。この加算に際しても、単純に第1番目と2番目の画素を加算して出力し、次に第3番目と第4番目の画素とを加算して出力するという方法以外に、第1番目と2番目とを加算して出力し、次は第2番目と第3番目の画素とを加算し、以降順に1画素ずつずらして加算して出力するという方法があり、この後者の加算方法によると解像力の低下を抑えることが出来る。もちろん2画素の加算だけでなくそれ以上の画素を加算しても良い。
【0087】
この様にして被写体輝度応じて最適の読み出し方法で読み出した信号レベルがAF演算のために適したレベルであるか否かをステップS503で判定する。測光したすぐ後にAF用信号を取り出す場合には、このステップは通常不要であるが、後述する否合焦時でレンズを移動したりしている間に被写体輝度が変わったりすることもあり、その様な場合には測光し直しをする必要があるためステップS504へと進む。
【0088】
ステップS503で適正レベルであることが確認されたならば、ステップS505で前述した様な方法で、AF用の演算を行う。この結果、次のステップS506で合焦と判断されたならば次のステップS507へと進み、前述した撮影手順のうちの本来の撮影あるいは測色の為のステップへと進む。もしステップS506で合焦していないと判断されたならばこのステップS506で演算されたズレ量に基づいてレンズ移動量を算出し、この量が次のステップS508でレンズの無限あるいは至近を超えているか否かを確認する。
【0089】
ここでもしレンズの可動範囲内であったならば、次のステップ509でレンズを移動したのちステップS510で撮像素子をリセットし、ステップS501に戻り再度AF演算を行う過程を繰り返す。最終的にステップS506で合焦と判断されたら次のステップS507へと進むが、もし何回かレンズを移動しても合焦しない、あるいはレンズの無限あるいは至近に当たったならばステップS511でAF不可表示をするとともに、次の動作に取りかかるステップS507へと進む。
【0090】
但し、ここの説明ではこの様に合焦していないにも関わらず次の手順に進み、撮影可能としているが、これはもちろん撮影者の好みであって、合焦していない場合には撮影できないように設定されていてもよい。
以上の手順で測距の為のステップが終了したならば、直ちに撮像素子をリセットし、前述の測光演算の結果から得られたシャッタースピードと絞り値を使用して被写体の撮影を行う。この撮影に当たって撮像素子から読み出す画像信号は、通常は全画面ぶん読み出すが、記録媒体への記録画像数を多くしたい場合や記録までのサイクル時間を短くしたい場合などには撮像素子から間引いた信号を読み出すことも可能となっている。
【0091】
この読み出された信号は取り敢えずディジタル信号に変換された1画面分のバッファメモリに記録されてからガンマ処理、ホワイトバランス処理、圧縮等の処理をされて最後に静止画像として記録媒体105に記録される。ここで、バッファメモリに記録されたならば直ちに撮像素子からそれぞれのカラーフィルタ毎の受光信号を加算した信号を読み出して、これらの各色信号の大きさを基に色差信号をゼロにすべく前述したホワイトバランス処理を行う。
【0092】
以上述べた撮影手順によって、これまでは例えば垂直同期信号を基準として各種処理や動作がされていたのに対して、本発明では一つの動作が終了すると同時に次の動作に移るので無駄時間がないことと、撮像素子で可能な限りの処理を施してから読み出しているので外部処理がハード及びソフトともに軽減され、よってシャッタータイムラグを非常に短くすることが出来る。
【0093】
また、本発明では測光、測色、測距の全てを一つの撮像素子を用いて演算するように説明したが、これはもちろん無理に一つの素子に全ての機能を持たせる必要はなく、カメラとして最も効率の良い形態とするように、それぞれの専用素子と適宜組み合わせてこれまで述べた機能を達成しても良い。
【図面の簡単な説明】
【図1】本発明に関わる電子カメラの一実施形態のブロック図である。
【図2】図1の発明の電子カメラの撮影までの動作を示すフローチャートである。
【図3】図1の発明の電子カメラのファインダ内表示、測光及び測距エリアの詳細、そして測光時に撮像素子から信号を読み出すときのタイミングを示す図である。
【図4】図1の発明の電子カメラの測光時のフローチャートである。
【図5】図1の発明の電子カメラの測距時のフローチャートである。
【図6】図1の発明の電子カメラに使用する絞りの一実施形態を示す図である。
【図7】図1の発明の電子カメラに使用する撮像素子のフィルタ配列の一例を示す図である。
【符号の説明】
101 撮影用レンズ
102 絞り
103 撮像素子
104 信号処理回路
105 記録媒体
106 表示装置
107 コントロール回路
108 操作部材
109、110 ドライバ
301 ファインダ、
302 スポット測光/測距エリア
303 中央重点エリア
601 絞り
602、603、604、605 絞り用開口
606a、606b、607a、607b AF用開口
[0001]
BACKGROUND OF THE INVENTION
The present invention, ShootingUsing image elementsUseRuElectricRegarding child camerasThe
[0002]
[Prior art]
Conventionally, when photographing a subject, it has been necessary to know the distance to the subject, the luminance of the subject, the color temperature of the subject, and the like. For this reason, in general, in addition to the image sensor for photographing, AF (ranging to the subject and automatically driving the photographing lens based on the subject), AE (determining the subject brightness, and exposure conditions (shutter speed and aperture value) based on it ) (Refers to detecting the color temperature of the subject or light source and performing the optimum color reproduction of the subject, which is called AWB when automatically controlling this), etc. Elements were used, and in some cases, a dedicated optical system was required.
[0003]
For example, in AF, a dedicated optical system is provided so that an AF sensor is arranged at a position equivalent to the film surface, and in addition to this dedicated AF element, in order to perform calculation with an optimum light amount, it is separate from the image sensor. It was necessary to provide an element for monitoring the amount of incident light. The same applies to AE, and a dedicated optical system and a dedicated sensor composed of a plurality of photometric areas are necessary to improve photometric accuracy.
[0004]
In addition, unlike an ordinary video camera, an electronic still camera needs to capture subject information under optimum conditions as soon as possible after the shutter release so as not to miss the targeted shutter chance. In order to make the shutter time lag as short as possible, a separate white balance (WB) dedicated sensor is usually required so that the color temperature at the time of shooting can be detected before shooting and an optimum white balance can be shot. .
[0005]
On the other hand, various forms have been devised and announced for the idea of performing AF, AE, and AWB all or a part thereof using an imaging sensor. An example of a device for performing all the functions described above with an imaging sensor is disclosed in Japanese Patent Application Laid-Open No. Hei 2-210974.
In this case, a CCD image sensor is used, and AWB, AF, and AE are performed in this order, and the last image is taken. The outline will be described below. First, in order to accurately perform various calculations within the CCD dynamic range, the CCD overflow time at the subject brightness is first measured. In the subsequent measurement of the color temperature, a diffusion plate is inserted into the optical system, the exposure is performed after uniformizing the amount of light on the imaging surface, and the output signal from this imaging device is passed through a color separation circuit and an integrator, and A / D Convert and import to CPU to perform AWB calculation.
[0006]
In the subsequent AF calculation, first, a focusing lens and a phase difference detection optical system are inserted into the optical system, and after the CCD is reset, exposure is performed for the overflow time. Of the output from the CCD, only the AF area is selected by an external switch, A / D converted and taken into the CPU for AF calculation. Regarding the AF method using this phase difference method, for example, Japanese Patent Laid-Open No. 9-184974 discloses a principle and a method using time-series pupil division as a method for realizing the principle.
[0007]
Next, in the subsequent AE calculation, after the optical system used in the AF metering described above is retracted and exposed by the CCD, only an area corresponding to spot metering and average metering is extracted and integrated by an external switch, and A / D This is converted and AE calculation is performed by the CPU.
On the other hand, CMOS image sensors are used in the manufacturing process of the image sensor to reduce costs and power consumption, and various types of CMOS image sensors with signal processing or calculation functions inside the sensor chip have been announced. In recent years, products that apply these to actually cheap electronic cameras have been announced.
[0008]
The CMOS sensor is characterized in that a minute signal photoelectrically converted by a photodiode is read after being amplified by a cell amplifier formed for each pixel. Until now, SIT (Static Induction Transistor), CMD (Charge Modulation Device), Various types such as BASIS (BAse Stored Image Sensor), FGA (Floating Gate Array), BCMD (Bulk Charge Modulated Device), AMI (Amplified MOS intelligent Imager), BCAST (Buried Charge Accumulator and Sensing Transistor Array) have been announced. . For details of these sensors, various documents have been published. Please refer to them.
[0009]
Recently, in addition to these, a vision chip, a sensor that integrates arithmetic functions into an image sensor and performs parallel 3D image processing, and an artificial retina sensor that can perform simple retinal functions have been announced. The application of this artificial retina chip to games, mobile phones, security systems, etc. has also been announced.
Regarding the artificial retina chip, the detailed contents of the principle and function are described in JP-A-6-139361, JP-A-8-292998, etc., so please refer to them.
[0010]
Here, the main functions realized by the artificial retina chip described there will be described next. First, by sending a signal to a plurality of scanners that control reading of each light receiving element (sensor) for each column, it is possible to output from any row to any row. The result of product-sum operation of the voltages supplied to the plurality of scanners and the input image intensity is obtained as the output of the sensor. This makes it possible to easily obtain an image output obtained by calculating between pixels (such as contour enhancement).
[0011]
Further, pattern matching is possible by sequentially applying the scanner control signal as a desired pattern. Furthermore, by installing a random scanner that controls the column direction of the sensor, it is possible to read out an arbitrary range in the column direction. As a result, only the image in an arbitrary area is read out together with the above-described arbitrary row reading function. Is possible. Even when there are a plurality of gaze patterns, a plurality of read areas may be set and the areas may be read in order.
[0012]
By adding a circuit for setting the time from resetting the sensor cell to reading out the partial image according to the brightness of the portion, the accumulation time can be changed for each cell or for each of a plurality of regions. By reading out after transferring two or more lines at the time of reading, it is possible to reduce the resolution and to perform pattern matching at high speed.
[0013]
In addition, it is possible to give this element various functions, such as a spatial direct conversion of images and a character recognition function.
In general, since the CCD type image pickup device transfers and outputs the charge itself stored in accordance with the amount of received light to the photoelectric conversion unit, once the signal is read, no signal charge remains in the light receiving cell. In contrast to (destructive devices), most of the CMOS sensors described above amplify the charge accumulated in the photoelectric conversion unit by using the above-mentioned cell amplifier using a MOS type FET or the like, convert it into a voltage and output it. Therefore, there is a significant feature that no signal charge is consumed at the time of reading, and signals can be repeatedly read even during light reception (non-destructive element).
[0014]
[Problems to be solved by the invention]
However, in the above-described method of performing AE, AF, and AWB with the image pickup device alone, it is necessary to set an optical system suitable for each measurement purpose before each measurement. For this reason, even if the photographer wants to photograph the subject and presses the shutter, it takes a very long time to actually start imaging and misses an important shutter opportunity.
[0015]
  The present inventionIsElectricity with less imlagChildThe purpose is to provide mela.
[0016]
[Means for solving problems]
The electronic camera according to claim 1 includes an imaging surface including a plurality of light receiving elements that receive subject light and accumulate electric charges, and the order and timing of outputting signals from the respective light receiving elements can be arbitrarily set. And an imaging element that adds and outputs at least two light receiving element signals of the plurality of light receiving elements, a designation unit that designates a first range and a second range of the imaging surface of the imaging element, After the charge accumulation of each of the plurality of light receiving elements is reset, the charge accumulation is started. After the charge accumulation is started, the charge accumulation is not reset, and every predetermined number within the first range designated by the designation unit. Reading means for reading the addition signal obtained by adding the light receiving element signals every predetermined time, and each time the reading means reads the addition signal, the level of the addition signal is in a predetermined level range. Determining means for determining whether or not the light receiving element is in charge, and measuring means for measuring the accumulation time from the reset of charge accumulation of the light receiving element to the start of charge accumulation until the level of the addition signal falls within a predetermined level range And when the determination means determines that it is within a predetermined level range, the photometric calculation for calculating the photographing condition based on the accumulation time is started, and a plurality of values within the second range specified by the specification means Control means for starting distance measurement calculation for calculating the distance to the subject based on the signal of the light receiving element, driving the photographing lens according to the result of the distance measurement calculation, and performing color measurement calculation for calculating the color temperature of the object; It is characterized by providing.
[0022]
  Claim1InventionAccording toThe driving lens is driven based on the distance calculation result.Take insideIs it an image element?FaithIs used, and the color temperature of the subject is calculated based on this, thereby minimizing wasted time.. SoAs a result, one imaging sequence can be shortened.
[0050]
  Figure7 shows a Bayer array that is most commonly employed as a filter of an image pickup element for reasons such as good color reproduction. The opening filter will be specifically described with reference to FIG. 7 and FIG.
[0051]
  In this case, a G filter is provided in one opening (606a and 607a in FIG. 6), and a magenta filter that is a complementary color of R and B is provided in the other opening (606b and 607b in FIG. 6). The transmitted light beam forms an image on the R and B light receiving elements on the image sensor, while the light beam transmitted through the G filter forms an image on the G light receiving element. Since the separated G screen and magenta screen have the same resolution, these two types of screens are used as the basis.ZhouRanging calculation can be easily performed using intelligent correlation calculation.
[0063]
DETAILED DESCRIPTION OF THE INVENTION
Next, a preferred embodiment according to the present invention will be described. FIG. 1 shows an embodiment of an electronic camera according to the present invention.
In FIG. 1, 101 is a photographing lens for capturing a subject image, 102 is provided with various apertures shown in FIG. 6, and is a stop for limiting the light beam incident on the image sensor, and 103 has a random reading and adding function. As an image pickup device, an artificial retina chip or the like whose main functions are shown in paragraphs 0011 to 0013 is used. Further, the image sensor 103 has a filter array as shown in FIG. 7, and a light beam from a subject passing through the diaphragm 102 is imaged on the image sensor 103, converted into an electric signal and output. An embodiment of the diaphragm 102 will be described with reference to FIG.
[0064]
In FIG. 6, a plurality of selectable apertures (602 to 605) having different sizes according to the amount of incident light are provided on a diaphragm 601 that shields a light beam, and apertures are provided at symmetrical positions in the vertical and horizontal directions with respect to the optical axis. The apertures (606a, 606b and 607a, 607b) for dividing the incident light flux (pupil division) and performing AF control are arranged. The pupil division AF openings 606a, 606b, 607a, and 607b are respectively provided with the same or complementary color filters as the filters of the image sensor 103. In the case of the image sensor of the filter arrangement of FIG. 7, it is preferable to install a G (green) filter in the openings 606a and 607a and an M (magenta) filter which is a complementary color of G in 606b and 607b.
[0065]
The subject signal converted into an electrical signal by the image sensor 103 is subjected to CDS processing, gamma processing, etc. in the next signal processing circuit 104 and then converted into a digital signal, and further known gain adjustment, interpolation, compression, etc. Are recorded on a removable recording medium 105 such as a memory card.
In addition to the known signal processing, the signal processing circuit 104 calculates a shutter time and an aperture value from a signal based on the photometric exposure, and performs white balance on the photographed image from the signal based on the colorimetric exposure. Circuit for applying, circuit for determining whether or not the contrast at the time of pupil division AF is sufficient, circuit for separating the light flux that has passed through the two pupils into two image signals by sampling, and the two separated images And a circuit for calculating the amount of focus deviation by performing a correlation calculation between the two. These circuits can be constituted by one ASIC, and as a result, the camera can be further downsized.
[0066]
The display device 106 is used to display a moving image of a subject when the camera is performing video operation. Thereby, it is possible to confirm the exposure condition, the focusing accuracy, the angle of view, and the like in advance when photographing. Of course, an image signal recorded on the recording medium 105 can be reproduced, converted into a signal form suitable for display by the signal processing circuit 104, and displayed on the display device 106.
[0067]
The control circuit 107 is a circuit that controls the entire camera sequence, and includes a shutter button (not shown) operated by the user, an AE mode selection button for selecting spot metering, center-weighted metering, an AE / AF area selection button, and the like. In response to an input from the operation member 108, a series of photographing and recording operations are started. The control circuit 107 outputs a signal to the driver 109 based on the various signal processing results in the signal processing circuit 104 described above, and rotates the diaphragm 102 to set the optimum diaphragm opening.
[0068]
When the aperture is rotated, if it is during photographing, an aperture for aperture (602 to 605) is selected. If the AE and AF operations are being performed, any of the pupil division AF apertures (606, 607) is selected. Select. Further, the control circuit 107 outputs a signal to the driver 110 based on the correlation calculation result described above, and moves the lens to the in-focus position. When the lens is not focused as a result of this lens movement, or when it is determined that AF is impossible due to insufficient contrast, the control circuit 107 may include switching means for enabling manual driving of the lens.
[0069]
FIG. 2A is a flowchart for explaining operations related to photographing of the electronic camera of the present invention. In FIG. 2A, after the power is turned on, the above-mentioned various operation members (108) select the center weight, the photometry mode such as spot photometry, the position of the photometry area, the position of the distance measurement area, etc. in step S201. Immediately, the photometric operation is started in step S202. The photometry position and the distance measurement position are initially set at the central portion where important subjects often come unless particularly selected.
[0070]
As soon as a predetermined signal level is obtained from the photometric area set on the image sensor by this photometric operation, photometric calculation for calculating the shutter speed and aperture value for photographing is started. At the same time, in the next step S203, the distance measurement to the subject is started using the signal from the same distance measurement area as the above-mentioned light measurement area already selected in step S201. Details of the contents of the distance measurement will be described later.
[0071]
If the result of step S203 is that the subject is in focus, the subject is immediately photographed in the next step S204. However, shutter release is possible only after both the steps of distance measurement and photometry calculation are completed. If a signal from the light receiving element is output in step S204, an operation for colorimetry is immediately started in the next step S205. Using the result of the colorimetric calculation, the subject is subjected to white balance by a known method such as setting the color difference signal to zero, and then subjected to processing such as gamma adjustment and compression before recording on the recording medium 105. Note that while the shutter is half-pressed, the above-described photometry in step S202 and the distance measurement in S203 are repeated.
[0072]
As described above, in this method, each operation of photometry, distance measurement, and colorimetry is continuously performed. That is, when a light reception output as a result of a certain operation is obtained, a predetermined calculation is immediately started based on the output, and at the same time, the next operation is started. Furthermore, since the colorimetric operation is performed after the actual exposure for photographing, the time lag until photographing can be minimized.
[0073]
When the non-destructive element described above is used as the imaging element, an imaging sequence as shown in the flowcharts of FIGS. 2B and 2C is also possible. That is, in the case of FIG. 2C, if the optimum output is obtained from the image sensor as a result of the photometric operation, the photometry calculation is started and the colorimetric output signal is immediately taken out from the image sensor in the almost same exposure state. Since the color calculation is started and the distance measurement signal is taken out from the selected area and the distance measurement is started, the time lag until the next photographing can be extremely shortened.
In the case of FIG. 2B, since the colorimetric calculation is performed using the signal received in the distance measurement operation as it is after the photometry and distance measurement operation, the time lag until photographing can be extremely shortened in this case as well. . Of course, the colorimetric operation and calculation described so far can be set manually, and in that case, the steps for colorimetry can be omitted from the sequence described so far. The cycle can be further shortened.
[0074]
  ThisOf course, the colorimetric operation and calculation described so far can also be set manually. In that case, the steps for colorimetry can be omitted from the sequence described so far. The cycle can be further shortened.
[0075]
Next, the photometry area and the distance measurement area will be described with reference to FIG. FIG. 3A shows an example of the display of the finder 301, and five small squares 302 are areas for spot metering and distance measurement. By operating the AE / AF area selection button 108 in FIG. Of these five areas, one area is selected. Usually, the spot photometry area and the distance measurement area are operated so as to coincide with each other.
[0076]
By operating the AE / AF area selection button 108 in FIG. 1 described above, it is possible to measure different areas for the spot photometry area and the distance measurement area. Next, the structure of one area 302 of the five areas in FIG. 3A and the center emphasis area 303 in FIG. 3A will be described. Here, the structures of these areas differ depending on the type of image sensor used in the electronic camera.
[0077]
Here, the photometric flowchart of FIG. First, in FIG. 4, in step S401, the aperture for photometry (any of 602 to 607 in FIG. 6) and the time interval of signal readout from the image sensor (t1, t2, t3,... In FIG. 3D). ) Is set. In order to minimize the time lag from the shutter release to photographing, it is desirable to use one of two apertures 606 or 607 for use in distance measurement, which will be described later.
[0078]
In the next step S402, the image sensor is reset and exposure is started. In step S403, the photometric areas on the image sensor (302 and 303 in FIG. 3) are set at the time intervals (t1, t2, t3,...) Set earlier. ) Is read out. At this time, as described above, if the image pickup device is a non-destructive type image pickup device that adds and outputs the signals of the light receiving elements, the five areas of FIG. A signal added at each time interval is continuously read out from one area or the central emphasis area 303, and it is determined whether or not the output level is within a preset level range.
[0079]
For example, in the range of this level, in the case of low luminance, the SN is obtained so that an error in photometric calculation does not occur. In the case of high luminance, the image sensor output is not saturated. Set to range. Then, as shown in FIG. 3 (d), reading is performed in the order of t1, t2, t3,..., In ascending order of time, and immediately after entering the predetermined range in step S404, the shooting shutter time and aperture are set in step S405. The calculation for determining is started.
[0080]
At the same time, the process proceeds to step S406 for distance measurement calculation (to be described later) for reading a signal from one distance measurement area 302 in FIG. Next, the case where it is outside the predetermined range in step S404 will be described. First, the reading time intervals are t1, t2,..., T10, and each time is set to a power of 2 such as 1/248, 1/1024,. If the subject brightness is too bright and the output level after t1 time has already reached the saturation output of the image sensor, the aperture value is set to the minimum aperture (605) in FIG. 6 or the shutter time is set to the image sensor. By setting the shutter speed as high as possible or using them together, it is possible to cope with the high luminance side.
[0081]
Here, the shutter time is set to be one time interval corresponding to the power of 2 from t1. On the other hand, if the subject brightness is too dark and the output level does not reach the appropriate range even after t10 hours, the setting opposite to that described above may be performed. In this manner, first, in step S407, it is confirmed whether or not the aperture or shutter has already been changed. If it has not been changed, a predetermined change is made in step S408, and then a new reset is made in step S402. Start exposure.
[0082]
If the aperture and shutter have already been changed in step S407, an over or under warning is given in the next step S409, and in step S410, as many values as possible for shooting are set, although not optimal settings. Then, the process proceeds to the next shooting step S406. In addition, if it is known from the beginning that it is brighter or darker than usual when shooting at night or outdoors at a ski resort, the time required for photometry can be shortened by shifting the above-mentioned time interval in advance. I can do it.
[0083]
On the other hand, the case where the image sensor is a destructive element will be described below. FIG. 3B shows an enlarged view of one of the five areas shown in FIG. Here, for the sake of simplicity, the area is divided into five equal parts in the vertical and horizontal directions and divided into a total of 25 areas. The numbers in the areas are the four types of read time intervals t1, t2, t3 shown in FIG. , T4 is shown. Each divided block is further composed of, for example, a block of 2 × 2 pixels or more. The pixels in the same block and the blocks set at the same time interval are simultaneously added and output.
[0084]
In this way, the average signal level of a plurality of pixels in the area can be obtained in the order of shorter readout time, and the signal accumulation state can be monitored in real time even for destructive elements. One block described here may be composed of a single pixel.
In FIG. 3C, the selected area is divided into three areas, the upper and lower two areas are used for photometry, and the middle area is used for distance measurement. With this configuration, if the average signal output from the upper and lower photometry blocks falls within the proper range, photometry calculation starts immediately, and at the same time, signals from individual light receiving pixels are read out from the center distance measurement area. Thus, the distance measurement calculation can be started, and it is not necessary to reset the image sensor for the distance measurement exposure after the photometry exposure, so that no time is lost.
[0085]
Next, a flowchart for distance measurement will be described with reference to FIG. First, regarding the exposure in step S501, if a non-destructive image sensor is used as the image sensor, the charge state accumulated by the exposure at the time of photometry is used as it is, and if a destructive element is used. However, if it is the case of the selection area structure described in FIG. 3C, there is no need to newly reset and perform exposure. Signals are individually read out from the AF area selected in the next step S502. If the subject luminance is low at this time, the contrast is increased by electrically increasing the gain and increasing the signal level. Just go to the next step.
[0086]
In addition to the method of increasing the gain, the output signal level can be increased by outputting after adding two adjacent pixels. In addition to the method of simply adding the first and second pixels and outputting them, and then adding and outputting the third and fourth pixels, the first and second pixels are added. And the second pixel and the third pixel are added, and then the second pixel and the third pixel are added, followed by shifting one pixel at a time in order, and then output. Can be suppressed. Of course, not only the addition of two pixels but also more pixels may be added.
[0087]
  In this way, subject brightnessInAccordingly, it is determined in step S503 whether or not the signal level read by the optimum reading method is a level suitable for AF calculation. This step is usually not necessary when the AF signal is taken out immediately after metering, but the subject brightness may change while the lens is moving during the in-focus state described later. In such a case, since it is necessary to perform photometry again, the process proceeds to step S504.
[0088]
If it is confirmed in step S503 that the level is appropriate, AF calculation is performed in the manner described above in step S505. As a result, if it is determined in the next step S506 that the in-focus state is obtained, the process proceeds to the next step S507, and the process proceeds to the step for original photographing or colorimetry in the photographing procedure described above. If it is determined in step S506 that the subject is not in focus, the lens movement amount is calculated based on the amount of deviation calculated in step S506, and this amount exceeds the infinity or closeness of the lens in the next step S508. Check if it exists.
[0089]
If it is within the movable range of the lens, after moving the lens in the next step 509, the image sensor is reset in step S510, and the process of returning to step S501 and performing the AF calculation again is repeated. If it is finally determined in step S506 that the lens is in focus, the process proceeds to the next step S507. If the lens is moved several times, the lens does not focus, or if the lens is infinite or close, AF is performed in step S511. The display is disabled and the process proceeds to step S507 for the next operation.
[0090]
However, in this explanation, although it is not focused in this way, the procedure proceeds to the next procedure and it is possible to shoot, but this is of course the photographer's preference, and if it is not focused, shooting It may be set so that it cannot.
When the steps for ranging are completed by the above procedure, the image sensor is immediately reset, and the subject is photographed using the shutter speed and aperture value obtained from the result of the above-mentioned photometric calculation. The image signal read from the image sensor during this shooting is normally read out on the full screen, but if you want to increase the number of recorded images on the recording medium or shorten the cycle time until recording, the signal thinned out from the image sensor is used. Reading is also possible.
[0091]
The read signal is first recorded in a buffer memory for one screen converted into a digital signal, then subjected to processing such as gamma processing, white balance processing, and compression, and finally recorded as a still image on the recording medium 105. The Here, as soon as it is recorded in the buffer memory, a signal obtained by adding the light reception signals for the respective color filters is immediately read from the image sensor, and the color difference signal is set to zero based on the magnitude of each color signal. Perform white balance processing.
[0092]
Until now, for example, various processes and operations have been performed based on the vertical synchronization signal according to the above-described shooting procedure, but in the present invention, since one operation is completed and the next operation is performed at the same time, no time is wasted. In addition, since reading is performed after performing as much processing as possible in the image sensor, external processing is reduced in both hardware and software, and thus the shutter time lag can be extremely shortened.
[0093]
Further, in the present invention, it has been described that all of photometry, colorimetry, and distance measurement are performed using a single image sensor. However, of course, it is not necessary to forcibly give all functions to a single element. In order to achieve the most efficient form, the functions described so far may be achieved by appropriately combining with each dedicated element.
[Brief description of the drawings]
FIG. 1 is a block diagram of an embodiment of an electronic camera according to the present invention.
FIG. 2 is a flowchart showing operations up to photographing of the electronic camera of the invention of FIG. 1;
3 is a diagram showing display in the viewfinder, details of photometry and distance measurement area of the electronic camera of the invention of FIG. 1, and timing when a signal is read out from an image sensor during photometry.
4 is a flowchart at the time of photometry of the electronic camera of the invention of FIG. 1; FIG.
5 is a flowchart at the time of distance measurement of the electronic camera of the invention of FIG. 1. FIG.
6 is a view showing an embodiment of an aperture used in the electronic camera of the invention of FIG. 1. FIG.
7 is a diagram showing an example of a filter array of an image sensor used in the electronic camera of the invention of FIG. 1. FIG.
[Explanation of symbols]
101 Shooting lens
102 Aperture
103 Image sensor
104 Signal processing circuit
105 Recording medium
106 Display device
107 Control circuit
108 Operation member
109, 110 drivers
301 Finder,
302 Spot metering / ranging area
303 Central priority area
601 Aperture
602, 603, 604, 605 Aperture aperture
606a, 606b, 607a, 607b AF aperture

Claims (9)

被写体光を受光して電荷を蓄積する複数の受光素子からなる撮像面を備え、それぞれの受光素子から信号を出力する順番とタイミングとを任意に設定可能であり、前記複数の受光素子のうちの少なくとも2つの受光素子信号を加算して出力する撮像素子と、
前記撮像素子の前記撮像面のうち第1範囲および第2範囲を指定する指定手段と、
前記複数の受光素子それぞれの電荷蓄積をリセットした後に電荷の蓄積を開始し、電荷の蓄積開始後は電荷蓄積をリセットすることなく、前記第1範囲内にある所定数ごとの受光素子信号を加算した加算信号を所定時間ごとに読み出す読み出し手段と、
前記読み出し手段が前記加算信号を読み出すごとに、前記加算信号のレベルが所定のレベル範囲内にあるかどうかを判定する判定手段と、
前記受光素子の電荷蓄積をリセットし電荷の蓄積を開始してから前記加算信号のレベルが所定のレベル範囲内になるまでの蓄積時間を測定する測定手段と、
前記判定手段が所定のレベル範囲内にあると判定した場合、前記蓄積時間に基づいて撮影条件を演算する測光演算を開始するとともに、前記第2範囲内の複数の受光素子の信号に基づいて被写体までの距離を演算する測距演算を開始し、前記測距演算の結果で撮影レンズを駆動するとともに被写体の色温度を演算する測色演算を行なう制御手段とを備えること
を特徴とする電子カメラ。
An imaging surface comprising a plurality of light receiving elements for receiving subject light and accumulating charges is provided, and the order and timing of outputting signals from each of the light receiving elements can be arbitrarily set. An image sensor that adds and outputs at least two light receiving element signals;
Designation means for designating a first range and a second range of the imaging surface of the imaging element;
Charge accumulation starts after resetting the charge accumulation of each of the plurality of light receiving elements, and after the charge accumulation starts, the light receiving element signals for each predetermined number within the first range are added without resetting the charge accumulation. Reading means for reading out the added signal every predetermined time;
Determination means for determining whether the level of the addition signal is within a predetermined level range each time the reading means reads the addition signal;
Measuring means for measuring an accumulation time from the reset of charge accumulation of the light receiving element to the start of charge accumulation until the level of the addition signal falls within a predetermined level range;
When the determination means determines that the image is within a predetermined level range, the photometric calculation for calculating the photographing condition is started based on the accumulation time, and the subject is determined based on signals from a plurality of light receiving elements within the second range. An electronic camera comprising: a control means for starting a distance measurement calculation for calculating a distance up to and driving a photographing lens based on a result of the distance measurement calculation and calculating a color temperature of a subject. .
請求項1に記載の電子カメラにおいて、
撮影を指示する撮影指示手段をさらに備え、
前記撮影指示手段により撮影指示された場合、前記制御手段は、前記撮像素子をリセットし前記測光演算の結果に基づく撮影条件で撮像した受光素子信号を出力させ、前記受光素子信号に基づいて前記測色演算を行なうこと
を特徴とする電子カメラ。
The electronic camera according to claim 1,
It further includes a shooting instruction means for instructing shooting,
When the photographing instruction is given by the photographing instruction unit, the control unit resets the image sensor and outputs a light receiving element signal imaged under a photographing condition based on a result of the photometry calculation, and based on the light receiving element signal, the measurement unit outputs the light receiving element signal. An electronic camera characterized by color computation.
請求項2に記載の電子カメラにおいて、
前記撮像素子は、前記受光素子信号を間引いて出力すること
を特徴とする電子カメラ。
The electronic camera according to claim 2,
The image pickup device outputs the light receiving device signal after thinning out the signal.
請求項1から請求項3のいずれか一項に記載の電子カメラにおいて、
前記撮像素子は、少なくとも第1色と前記第1色とは異なる第2色とからなるカラーフィルタを各受光素子に備え、
前記制御手段は、前記第1色のカラーフィルタを備える受光素子の信号のみを加算した加算信号と、前記第2色のカラーフィルタを備える受光素子の信号のみを加算した加算信号とに基づいて前記測色演算を行なうこと
を特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 3,
The image sensor includes a color filter including at least a first color and a second color different from the first color in each light receiving element,
The control means is based on the addition signal obtained by adding only the signals of the light receiving elements including the first color filter and the addition signal obtained by adding only the signals of the light receiving elements including the second color filter. An electronic camera characterized by performing colorimetric calculation.
請求項1から請求項4のいずれか一項に記載の電子カメラにおいて、
前記読み出し手段は、前記第1範囲内の複数の受光素子から第1ブロックおよび前記第1ブロックとは異なる第2ブロックごとに加算した加算信号を読み出し、第1所定時間経過時に前記第1ブロックの加算信号を読み出し、前記第1所定時間より長い第2所定時間経過時に前記第2ブロックの加算信号を読み出すこと
を特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 4,
The reading means reads an addition signal added for each of the first block and the second block different from the first block from the plurality of light receiving elements within the first range, and when the first predetermined time elapses, An electronic camera that reads an addition signal and reads the addition signal of the second block when a second predetermined time longer than the first predetermined time elapses.
請求項1から請求項5のいずれか一項に記載の電子カメラにおいて、
前記測距演算の結果、合焦しているかどうかを判定する合焦判定手段をさらに備え、
前記制御手段は、前記撮影条件として少なくとも絞り値を算出し、
前記合焦判定手段は、前記絞り値に応じて合焦しているかどうかを判定する判定基準を変更すること
を特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 5,
As a result of the distance calculation, further comprising a focus determination means for determining whether or not it is in focus,
The control means calculates at least an aperture value as the photographing condition,
The electronic camera according to claim 1, wherein the in-focus determination unit changes a determination criterion for determining whether or not the in-focus state is in accordance with the aperture value.
請求項1から請求項6のいずれか一項に記載の電子カメラにおいて、
前記指定手段は、前記第1範囲と前記第2範囲とを同一の範囲として指定すること
を特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 6,
The electronic camera according to claim 1, wherein the specifying unit specifies the first range and the second range as the same range.
請求項1から請求項7のいずれか一項に記載の電子カメラにおいて、
前記指定手段は、前記第1範囲として互いに独立した複数の範囲を指定可能であること
を特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 7,
The electronic camera according to claim 1, wherein the designation means can designate a plurality of ranges independent of each other as the first range.
請求項1から請求項8のいずれか一項に記載の電子カメラにおいて、
前記読み出し手段は、前記第1範囲として前記撮像素子の中央部の範囲にある受光素子信号を加算した加算信号を読み出すこと
を特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 8,
The electronic camera according to claim 1, wherein the reading unit reads an addition signal obtained by adding a light receiving element signal in a central range of the imaging element as the first range.
JP2000046705A 1999-09-03 2000-02-18 Electronic camera Expired - Lifetime JP4281199B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000046705A JP4281199B2 (en) 2000-02-18 2000-02-18 Electronic camera
US09/650,764 US7158183B1 (en) 1999-09-03 2000-08-29 Digital camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000046705A JP4281199B2 (en) 2000-02-18 2000-02-18 Electronic camera

Publications (2)

Publication Number Publication Date
JP2001230966A JP2001230966A (en) 2001-08-24
JP4281199B2 true JP4281199B2 (en) 2009-06-17

Family

ID=18569072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000046705A Expired - Lifetime JP4281199B2 (en) 1999-09-03 2000-02-18 Electronic camera

Country Status (1)

Country Link
JP (1) JP4281199B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4703815B2 (en) 2000-05-26 2011-06-15 株式会社半導体エネルギー研究所 MOS type sensor driving method and imaging method
JP2005316271A (en) * 2004-04-30 2005-11-10 Nikon Corp Autofocus camera
JP2007116265A (en) * 2005-10-18 2007-05-10 Olympus Imaging Corp Imaging apparatus and method
JP5245370B2 (en) * 2007-11-22 2013-07-24 株式会社ニコン Solid-state imaging device, electronic camera
KR20100018449A (en) * 2008-08-06 2010-02-17 삼성전자주식회사 Pixel array of three dimensional image sensor
JP5884579B2 (en) * 2012-03-19 2016-03-15 株式会社リコー Imaging apparatus and display processing method
JP6366251B2 (en) * 2013-01-07 2018-08-01 キヤノン株式会社 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
WO2018124053A1 (en) * 2016-12-27 2018-07-05 パナソニックIpマネジメント株式会社 Imaging device, camera, and imaging method

Also Published As

Publication number Publication date
JP2001230966A (en) 2001-08-24

Similar Documents

Publication Publication Date Title
US10419694B2 (en) Method and apparatus for imaging an object
US6819360B1 (en) Image pickup element and apparatus for focusing
US8817165B2 (en) Image capturing apparatus
KR100900485B1 (en) Improved image sensing means for digital camera and digital camera adopting the same
EP2212731B1 (en) Image sensing apparatus
JP2011015222A (en) Imaging apparatus, and imaging control method
US11290648B2 (en) Image capture apparatus and control method thereof
JP2004056422A (en) Solid-state image pickup device and photometry method thereof
JP2003307669A (en) Camera
US11201999B2 (en) Imaging device, information acquisition method, and information acquisition program
US10056421B2 (en) Imaging device and imaging method
US7158183B1 (en) Digital camera
JP4281199B2 (en) Electronic camera
US10791260B2 (en) Imaging device, information acquisition method, and information acquisition program
JP2005347928A (en) Imaging controller, solid-state imaging apparatus, and imaging method
US8149291B2 (en) Image capture apparatus, control method thereof, program, and storage medium
JP4170131B2 (en) Imaging control method and imaging control apparatus
JP2016197826A (en) Imaging apparatus and imaging control program
JP2001057645A (en) Electronic camera
JP2009031343A (en) Camera
KR100702958B1 (en) Camera and method for exposure control
JP5550333B2 (en) Imaging apparatus, development method, and program
JP2020057974A (en) Imaging apparatus, method for controlling the same, and program
JP2004222062A (en) Imaging device
JPH02134986A (en) Image pickup device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20060905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070117

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090309

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4281199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20000906

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150327

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150327

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150327

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term