JP2005003933A - Automatic focusing device for electronic camera - Google Patents

Automatic focusing device for electronic camera Download PDF

Info

Publication number
JP2005003933A
JP2005003933A JP2003167321A JP2003167321A JP2005003933A JP 2005003933 A JP2005003933 A JP 2005003933A JP 2003167321 A JP2003167321 A JP 2003167321A JP 2003167321 A JP2003167321 A JP 2003167321A JP 2005003933 A JP2005003933 A JP 2005003933A
Authority
JP
Japan
Prior art keywords
evaluation value
main
frame
pixel frame
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003167321A
Other languages
Japanese (ja)
Inventor
Tomoki Inoue
知己 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2003167321A priority Critical patent/JP2005003933A/en
Publication of JP2005003933A publication Critical patent/JP2005003933A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an automatic focusing device for an electronic camera capable of always performing an appropriate AF control even in the case the brightness of an object drastically changes when taking a moving picture. <P>SOLUTION: A main pixel frame and a sub pixel frame having different levels of sensitivity are outputted by a CCD 10. Whether or not the main pixel frame taken from the CCD 10 is saturated is discriminated by a main/sub pixel brightness decision part 161, and a gate circuit 164 is controlled through a frame designation part 163 based on the discrimination result, and when not saturated, image data in the focus area of the main pixel frame is guided to a high frequency component extraction part 165, on the other hand, when saturated, image data in the focus area in the sub pixel frame is guided to the part 165. The high frequency components of the inputted image data are extracted by the part 165, and the absolute value of the extracted high frequency components is integrated and an AF evaluation value is calculated by an AF evaluation value calculation part 166. When taking the moving picture, the AF control is performed by the AF control part 167 based on the AF evaluation value. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は電子カメラの自動焦点調節装置に係り、特に感度の異なる素子を持つ撮像素子を用いた、動画撮影時における自動焦点調節の技術に関する。
【0002】
【従来の技術】
従来、撮像素子の撮影範囲の一部の画像信号だけを高速で読み出し、その読み出した画像信号により自動焦点調節(AF)を行う高速AFモードを設け、この高速AFモードにより静止画の露光前に短時間でAF制御を行うようにした電子スチルカメラが提案されている(特許文献1)。
【0003】
尚、AF制御は、撮像素子から読み出した画像信号の高周波成分の絶対値を積分して評価値(AF評価値)を求め、このAF評価値が極大になるようにフォーカスレンズを移動させるようにして行われる。
【0004】
【特許文献1】
特開平9−298685号公報
【0005】
【発明が解決しようとする課題】
しかしながら、特許文献1に記載の高速AFモードでAF制御を行うようにしても、撮像素子に高輝度の被写体光が入射している場合には、撮像素子の画素が飽和してしまうため、正確なAF評価値を得ることができず、良好なAF制御を行うことができないという問題がある。
【0006】
特に、動画撮影時にシーンの変化等によって被写体が急激に明るくなり、撮像素子の画素が飽和すると、その後、露出制御が適正に行われて、撮像素子の画素の飽和が解消されるまでの間、良好なAF制御ができなくなる。尚、一般に、動画撮影時の露出制御の応答性は、被写体の明るさの変化に対して遅く設定され、短時間の明るさの変化には露出制御を追従させないようになっている。これは、被写体の突発的な明るさの変化に対して露出制御を追従させると、再生される動画の主要被写体の明るさが短い時間内で変動し、見苦しくなるからである。
【0007】
本発明はこのような事情に鑑みてなされたもので、動画撮影時に被写体の明るさが急激に変化しても、適正なAF制御を常時行うことができる電子カメラの自動焦点調節装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
前記目的を達成するために請求項1に係る発明は、感度の高い主画素と、該主画素よりも感度の低い副画素とが所定の配列形態に従って多数配置され、前記主画素及び副画素で光電変換された信号をそれぞれ取り出すことが可能な撮像手段を有し、該撮像手段から取り込んだ信号を用いて算出される画像の鮮鋭度を示す評価値に基づいて、動画撮影時に撮影レンズを合焦位置に移動させる電子カメラの自動焦点調節装置において、前記撮像手段から取り込んだ主/副画素フレームのうちの主画素フレームが飽和しているか否かを判別する判別手段と、前記判別手段によって前記主画素フレームが飽和していないと判別されると、該主画素フレームを選択し、前記主画素フレームが飽和していると判別されると、前記副画素フレームを選択する主/副画素フレーム選択手段と、前記主/副画素フレーム選択手段によって選択された主画素フレーム又は副画素フレームの画像信号から前記評価値を算出する評価値算出手段と、前記撮影レンズを焦点調節のために移動させるレンズ移動手段と、前記評価値算出手段によって算出された評価値に基づいて該評価値が常時極大を維持するように前記レンズ移動手段を制御する制御手段と、を備えたことを特徴としている。
【0009】
即ち、動画撮影時のAF制御を行う場合には、基本的には主画素フレームから算出した画像の鮮鋭度を示す評価値に基づいてAF制御を行う。これは、主画素は副画素に比べてS/Nがよいからである。一方、被写体の明るさが急激に明るく変化し(例えば、屋内から屋外に出る場合等)、主画素フレームが飽和してしまう場合には、副画素フレームから算出した評価値に基づいてAF制御を行う。主画素フレームが飽和しても感度の低い副画素フレームは飽和していない場合が多いからである。これにより、被写体の明るさが急激に明るく変化した場合でも、適正な評価値を算出することができ、動画撮影時に適正なAF制御を常時行うことが可能になる。
【0010】
請求項2に示すように、請求項1の電子カメラの自動焦点調節装置において、前記判別手段は、前記主画素フレームの全画面のうちの所定のフォーカスエリア内の一定画素数以上が飽和しているか否かを判別することを特徴としている。
【0011】
請求項3に示すように、請求項1又は2の電子カメラの自動焦点調節装置において、前記評価値算出手段は、前記主/副画素フレーム選択手段によって選択された主画素フレーム又は副画素フレームのうちの所定のフォーカスエリア内の画像信号から被写体の高周波成分を抽出し、該高周波成分の絶対値を積算することにより前記評価値を算出することを特徴としている。
【0012】
即ち、前記評価値は、1フレームのうちの所定のフォーカスエリア(例えば、画面中央部)の画像信号から算出する。一般に、撮影しようとする主要被写体が画面中央部に入るようにフレーミングする場合が多いからである。従って、主画素フレームが飽和しているか否かの判別も、主画素フレームのうちの所定のフォーカスエリア内の一定画素数以上が飽和しているか否かによって判別する。尚、一定画素数の個数は、一定画素数が飽和している場合に算出される評価値と、S/Nのよくない副画素フレームから算出される評価値とを勘案して決めるのが好ましい。
【0013】
【発明の実施の形態】
以下添付図面に従って本発明に係る電子カメラの自動焦点調節装置の好ましい実施の形態について詳説する。
【0014】
〔撮像素子の構造〕
まず、本発明に係る電子カメラに適用される撮像素子の構造について説明する。図1は本発明に係る電子カメラに用いられるCCD固体撮像素子(以下、CCDという)の一例を示す平面模式図である。
【0015】
同図に示すように、CCD10は、多数の受光セル20が水平方向(行方向)及び垂直方向(列方向)に一定の配列周期で配置された二次元撮像デバイス(イメージセンサ)である。図示した構成はハニカム配列と呼ばれる画素配列であり、受光セル20の幾何学的な形状の中心点を行方向及び列方向に1つおきに画素ピッチの半分(1/2ピッチ)ずらして配列させたものとなっている。すなわち、互いに隣接する受光セル20の行どうし(又は列どうし)において、一方の行(又は列)のセル配列が、他方の行(又は列)のセル配列に対して行方向(又は列方向)の配列間隔の略1/2だけ相対的にずれて配置された構造となっている。
【0016】
各受光セル20は、感度の異なる2つのフォトダイオード領域21、22を含む。第1のフォトダイオード領域21は、相対的に広い面積を有し、感度の高い主たる感光部(以下、「主画素」という)を構成する。第2のフォトダイオード領域22は、相対的に狭い面積を有し、感度の低い従たる感光部(以下、「副画素」という)を構成する。
【0017】
各受光セル20について、主画素21と副画素22には同色のカラーフィルタが配置されている。つまり、各受光セル20に対応してそれぞれRGBの何れか1色の原色カラーフィルタが割り当てられている。図1のように、水平方向についてGGGG…の行の次段にBRBR…の行が配置され、その次段にGGGG…の行、更にその次の行にRBRB…という具合に配列される。また、列方向についてみれば、GGGG…の列と、BRBR…の列と、GGGG…の列と、RBRB…の列とが循環式に繰り返される配列パターンとなっている。
【0018】
受光セル20の右側には垂直転送路(VCCD)30が形成されている。垂直転送路30は、受光セル20の各列に近接して受光セル20を避けながらジグザグ状に蛇行して垂直方向に伸びている。
【0019】
垂直転送路30上には4相駆動(φ1,φ2,φ3,φ4)に必要な転送電極31、32、33、34が配置される。転送電極31〜34は、受光セル20の各行に近接して受光セル20の開口を避けながら蛇行して図1の水平方向に伸びるように設けられている。例えば、2層ポリシリコンで転送電極を形成する場合、φ1 のパルス電圧が印加される第1の転送電極31とφ3 のパルス電圧が印加される第3の転送電極33は第1層ポリシリコン層で形成され、φ2 のパルス電圧が印加される第2の転送電極32とφ4 のパルス電圧が印加される第4の転送電極34は第2層ポリシリコン層で形成される。
【0020】
図1において受光セル20が並んだ撮像エリア40の右側には、転送電極31〜34にパルス電圧を印加するVCCD駆動回路42が配置される。また、撮像エリア40の下側(垂直転送路30の下端側)には、垂直転送路30から移された信号電荷を水平方向に転送する水平転送路(HCCD)44が設けられている。
【0021】
水平転送路44は、2相駆動の転送CCDで構成されており、水平転送路44の最終段(図1上で最左段)は出力部46に接続されている。出力部46は出力アンプを含み、入力された信号電荷の電荷検出を行い、信号電圧として出力端子48に出力する。こうして、各受光セル20で光電変換した信号が、点順次の信号列として出力される。
【0022】
図2は主画素21と副画素22の光電変換特性を示すグラフである。横軸は入射光量、縦軸はA/D変換後の画像データ値(QL値)を示す。本例では12ビットデータを例示するが、ビット数はこれに限定されない。
【0023】
同図に示すように、主画素21と副画素22の感度比は1:1/aとなっている(ただし、a>1、本例ではa=16)。主画素21の出力は、入射光量に比例して次第に増加し、入射光量が「c」のときに出力が飽和値(QL値=4095)に達する。以後、入射光量が増加しても主画素21の出力は一定となる。この「c」を主画素21の飽和光量と呼ぶことにする。
【0024】
一方、副画素22の感度は、主画素21の感度の1/aであり、入射光量がα×cのときにQL値=4095/bで飽和する(ただし、b>1,α=a/b、本例ではb=4,α=4)。このときの「α×c」を副画素22の飽和光量と呼ぶ。
【0025】
このように、異なる感度と飽和を持つ主画素21と副画素22とを組み合わせることにより、主画素のみの構成よりも撮像素子のダイナミックレンジをα倍に拡大できる。本例では感度比1/16、飽和比1/4でダイナミックレンジを約4倍に拡大している。主画素21のみを使用する場合の最大ダイナミックレンジを100%とするとき、本例では副画素22を活用することによって最大で約400%までダイナミックレンジが拡大される。
【0026】
〔電子カメラの構成例〕
次に、上述した広ダイナミックレンジ撮像用のCCD10を搭載した電子カメラについて説明する。
【0027】
図3は本実施形態に係る電子カメラのブロック図である。この電子カメラ100は、図示しないモード切替手段により静止画モードと動画モードとを切り替えることにより、静止画と動画をそれぞれ撮影できるものであり、静止画の撮影時には、主画素と副画素の信号を合成することで、予め指定したダイナミックレンジ(例えば、200%、300%、400%)で撮影することができ、動画の撮影時には、主画素のみの信号を動画記録用に使用する。尚、図3は、主に動画モード時に機能するブロックについて図示している。
【0028】
電子カメラ100の撮影光学系110は、撮影レンズ及び絞りと、これらの駆動手段とから構成され、撮影レンズ(フォーカスレンズ)及び絞りは、フォーカス/絞り調節部120から各駆動手段に出力される制御信号によってフォーカス制御及び絞り制御が行われる。尚、この制御の詳細については後述する。
【0029】
前記撮影光学系110を通過した光はCCD10に入射する。CCD10の受光面には多数のフォトセンサ(受光素子)が二次元的に配列され、各フォトセンサに対応して赤(R),緑(G),青(B)の原色カラーフィルタが所定の配列形態で配置されている。
【0030】
CCD10の受光面に結像された被写体像は、CCD10上の各センサで光の入射光量に応じた量の信号電荷に変換される。
【0031】
このようにして蓄積された信号電荷は、図示しないCCD駆動回路から加えられるリードゲートパルスによってシフトレジスタに読み出され、レジスタ転送パルスによって信号電荷に応じた電圧信号として順次読み出される。このCCD10は、露光時間制御部130から出力されるシャッターゲートパルスによって蓄積した信号電荷を掃き出すことができ、これにより電荷の蓄積時間(露光時間)を制御する、いわゆる電子シャッター機能を有している。
【0032】
CCD10からは、主画素のフォトセンサに蓄積された信号(主画素フレームの信号)と、副画素のフォトセンサに蓄積された信号(副画素フレームの信号)とが順番に電圧信号として読み出される。これらの主画素フレームの信号と、副画素フレームの信号は、A/D変換器140に加えられ、ここでデジタル信号に変換される。尚、上記主画素フレーム及び副画素フレームの信号は、奇数フィールドと偶数フィールドとからなる2フィールド1フレームの信号の場合には、奇数フィールド又は偶数フィールドの信号も含む。
【0033】
A/D変換器140でデジタル信号に変換された主/副画素フレームの画像データ(点順次のR,G,B信号)は、信号処理部150及びAF/露出制御部160に加えられる。
【0034】
信号処理部150は、同時化回路、ホワイトバランス調整回路、ダイナミック拡大処理回路(主/副画素合成処理回路)、ガンマ補正回路、輝度・色差信号(YC信号)作成回路、及び圧縮/伸長回路等から構成され、入力する主/副画素フレームの画像データに対して各回路で対応する信号処理を実行し、画像出力部170に画像ファイルとして出力され、記録される。
【0035】
尚、主/副画素合成処理回路は、静止画撮影時に主画素と副画素の画像データにそれぞれ適宜の係数を乗算し、これらの乗算値を加算することでダイナミックレンジを拡大するが、動画撮影時には主画素の画像データのみを記録するため、ダイナミックレンジ拡大処理は行わない。
【0036】
AF/露出制御部160は、AF制御と露出制御を行うもので、主として主/副画素輝度判定部161、露出制御部162、フレーム指定部163、ゲート回路164、高周波成分抽出部165、AF評価値算出部166、及びAF制御部167から構成されている。
【0037】
主/副画素輝度判定部161は、A/D変換器140から順次入力する主/副画素フレームの画像データに基づいて被写体の明るさの情報を求め、この情報を露出制御部162に送る。露出制御部162は主/副画素輝度判定部161から入力する被写体の明るさの情報に基づいて露光時間制御部130を介して露光時間を調節し、又はフォーカス/絞り調節部120を介して撮影光学系110における絞りを調節する。
【0038】
即ち、露出制御部162は、被写体の明るさの情報として、例えば主画素及び副画素の最大値を入力する場合、主画素の最大値が飽和値(本例ではQL値が4095)以外のときには、その主画素の最大値が、予め設定されている最大の主画素の最適値になるように露光時間又は絞り値を決定し、一方、主画素の最大値が飽和値のときには、副画素の最大値と、主画素と副画素との感度比とに基づいて主画素の最大値が、予め設定されている最大の主画素の最適値になるように露光時間又は絞り値を決定し、この決定した露光時間又は絞り値により露出を制御する。尚、露出制御は、S/Nはよくないが、飽和しない副画素フレームの画像データのみを用いて行うようにしてもよい。
【0039】
また、主/副画素輝度判定部161は、A/D変換器140から順次入力する主/副画素フレームの画像データに基づいて主画素フレームの所定のフォーカスエリア(例えば、画面中央部)内の一定画素数以上が飽和しているか否かを判別し、その判別結果をフレーム指定部163に出力する。フレーム指定部163は、ゲート回路164に入力する主/副画素フレームのうちのいずれのフレームを選択するかを示す指令を出力する。即ち、主/副画素フレームの所定のフォーカスエリア内の一定画素数以上が飽和している場合には、副画素フレームを選択する指令を出力し、それ以外の場合には主画素フレームを選択する指令を出力する。
【0040】
ゲート回路164は、A/D変換器140から順次入力する主/副画素フレームの画像データのうち、フレーム指定部163から入力する指令に基づいていずれか一方のフレームの画像データを選択するとともに、その選択したフレームの画像データのうちの所定のフォーカスエリアの画像データのみを通過させ、高周波成分抽出部165に送る。
【0041】
高周波成分抽出部165は、入力する画像データのうちの所定の高周波成分を抽出し、その抽出した高周波成分をAF評価値算出部166に出力する。尚、高周波成分は、例えば隣接する画素の画像データの差分を求めることで抽出することができる。
【0042】
AF評価値算出部166は、高周波成分抽出部165から入力する高周波成分の絶対値を積算し、その積算した値(これをAF評価値と呼ぶ)をAF制御部167に出力する。AF制御部167は、AF評価値算出部166から入力するAF評価値が極大となるようにフォーカス/絞り調節部120を介してフォーカスレンズを移動させる。
【0043】
ここで、上記AF評価値を使用したAF制御の概要について説明する。
【0044】
図4に示すように静止画撮影時のAF制御は、例えば、フォーカスレンズを至近端から無限遠まで移動させ、所定のレンズ位置ごとにAF評価値をサンプリングする。そして、サンプリングした複数のAF評価値のうちの極大のAF評価値を含む複数のAF評価値を通る曲線を求め、この曲線が極大となるレンズ位置を求める。このようにして求めたレンズ位置にフォーカスレンズを移動させることで、AF制御を行う。
【0045】
一方、動画撮影時のAF制御は、AF評価値が常時極大を維持するようにフォーカスレンズを移動させる。尚、この動画撮影時のAF制御の詳細については後述する。
【0046】
次に、上記AF/露出制御部160の作用について説明する。
【0047】
図5はAF/露出制御部160におけるAF/露出制御の全体的なフローチャートを示す。
【0048】
まず、動画撮影時の露出制御を行う(ステップS100)。この露出制御は、主/副画素フレームのうちの主画素フレームの主画素の最大値が飽和値以外のときには、その最大値が、予め設定されている最適値になるように露光時間等を決定する。
【0049】
いま、主画素の最大値をGmain、最大の主画素の最適値をGopt 、前回の露光時間をTold とすると、次式により新たな露光時間Tnew を計算する。
【0050】
【数1】
Tnew =Told ×(Gopt /Gmain)
この露光時間Tnew によって動画撮影時の露光時間を制御すれば、そのときに得られる主画素フレームの画素の最大値Gmainを最適値Gopt にすることができる。
【0051】
一方、主画素フレームの画像データが飽和している場合には、副画素フレームにおける副画素の最大値を読み取る。そして、副画素の最大値をGsub 、主画素と副画素の感度比をGgain、最大の主画素の最適値をGopt 、前回の露光時間をTold とすると、次式により新たな露光時間Tnew を計算する。
【0052】
【数2】
Tnew =Told ×(Gopt ×Ggain)/Gsub
この露光時間Tnew によって動画撮影時の露光時間を制御すれば、そのときに得られる主画素フレームの画像データは飽和せず、かつ主画素フレームの画素の最大値Gmainを最適値Gopt にすることができる。
【0053】
尚、動画撮影時の露出制御方法は、上記の実施の形態に限定されず、また、副画素フレームの画像データのみに基づいて露出制御を行うようにしてもよい。
【0054】
次に、主画像フレーム及び副画素フレームのうち、動画撮影のAF制御時に使用するフレームを決定する(ステップS200)。
【0055】
即ち、図6のフローチャートに示すように、主画素フレームの画像データに基づいて主画素フレームの所定のフォーカスエリア内の一定画素数以上が飽和しているか否かを判別する(ステップS202)。そして、飽和していないと判別されると、主画素フレームの画像データをAF制御に使用し(ステップS204)、飽和していると判別されると、副画像フレームの画像データをAF制御に使用する(ステップS206)。
【0056】
上記のようにしてAF制御に使用するフレームが決定されると、続いてAFサーチを行う(ステップS300)。
【0057】
動画撮影時の最初のAF制御は、フォーカスレンズを一定の方向(例えば、無限遠側) に移動させるとともに、AF評価値をサンプリングする。そして、AF評価値が前回のサンプリング時よりも大きくなる場合には、無限遠側にAF評価値の極大が存在すると判断し、引き続き無限遠側にフォーカスレンズを移動させる。一方、AF評価値が前回のサンプリング時よりも小さくなる場合には、逆方向(至近側) にAF評価値の極大が存在すると判断し、至近側にフォーカスレンズを移動させる。
【0058】
このようにしてフォーカスレンズの移動方向を決定した後、その決定した方向にフォーカスレンズを移動させるとともに、AF評価値をサンプリングし、前回のサンプリング時よりもAF評価値が最初に小さくなったときに、AF評価値が極大を越えたと判断し、逆方向にワンステップだけフォーカスレンズを戻す。これによりAF評価値が極大となるレンズ位置にフォーカスレンズを移動させることができる。
【0059】
次に、上記のようにしてAF評価値が極大となるレンズ位置にフォーカスレンズを移動させた後、AF評価値を常時極大に維持するAF制御について説明する。
【0060】
図7のフローチャートに示すように、AF評価値を算出する(ステップS302)。尚、このAF評価値の算出は、ステップS200で決定したフレームのフォーカスエリア内の画像データに基づいて行う。
【0061】
続いて、ステップS302で算出したAF評価値が、現在のフォーカスレンズの位置制御に使用されたAF評価値に対して一定値以上変化しているか否かを判別する(ステップS304)。新たに算出したAF評価値が一定値以上変化していない場合には、撮影シーンの変化等がなく、AF制御をやり直す必要がない。
【0062】
一方、新たに算出したAF評価値が一定値以上変化している場合には、AF制御をやり直す必要があるため、フォーカスレンズを一定方向(例えば至近側)にワンステップ移動させ(ステップS306)、その移動位置で再びAF評価値を算出する(ステップS308)。
【0063】
次に、ステップS308で算出したAF評価値がステップS302で算出したAF評価値よりも大きくなった否かを判別する(ステップS310)。AF評価値が大きくなった場合には、現在のレンズ位置よりも至近側にAF評価値の極大が存在すると判断し、引き続きフォーカスレンズを至近側にワンステップ移動させ(ステップS312)、その移動位置で再びAF評価値を算出する(ステップS314)。
【0064】
続いて、このAF評価値が前回算出したAF評価値よりも大きくなった否かを判別し(ステップS316)、AF評価値が大きくなった場合には、ステップS312に戻り、ステップS312、S314、及びS316の処理を繰り返し、AF評価値が小さくなったと判別されると、フォーカスレンズを至近側とは逆方向の無限側にワンステップだけ戻す(ステップS318)。これは、フォーカスレンズがAF評価値が極大となるレンズ位置を越えて移動させられたからである。
【0065】
上記のようにしてAF評価値が極大となるレンズ位置にフォーカスレンズが移動させられ、このAF制御された現在のAF評価値を算出する(ステップS320)。
【0066】
一方、ステップS310において、ステップS308で算出したAF評価値がステップS302で算出したAF評価値よりも小さくなったと判別されると、現在のレンズ位置よりも無限遠側にAF評価値の極大が存在すると判断し、フォーカスレンズを無限遠側に移動させ(ステップS322)、その移動位置で再びAF評価値を算出する(ステップS324)。
【0067】
続いて、このAF評価値が前回算出したAF評価値よりも大きくなった否かを判別し(ステップS326)、AF評価値が大きくなった場合には、ステップS322に戻り、ステップS322、S324、及びS326の処理を繰り返し、AF評価値が小さくなったと判別されると、フォーカスレンズを無限遠側とは逆方向の至近側にワンステップだけ戻す(ステップS328)。
【0068】
上記のようにしてAF評価値が極大となるレンズ位置にフォーカスレンズが移動させられ、このAF制御された現在のAF評価値を算出する(ステップS320)。
【0069】
このように動画撮影時にはAF評価値が常時極大を維持するようにフォーカスレンズのレンズ位置が制御される。
【0070】
図8はAF制御に使用する主/副画素フレームの概念図である。同図に示すように、基本的には主画素フレーム(図8上の上段のフレーム)の画像データに基づいてAF制御を行い、主画素フレームの一定画素数以上が飽和した場合には、副画素フレーム(図8上の下段のフレーム)の画像データに基づいてAF制御を行う。また、図8上では、副画素フレームの画像データを用いて露光時間の制御を行う場合に関して示している。
【0071】
【発明の効果】
以上説明したように本発明によれば、撮像手段から取り込んだ互いに感度の異なる主/副画素フレームのうちの主画素フレームが飽和している場合には、飽和していない副画素フレームに基づいて画像の鮮鋭度を示す評価値を算出し、この評価値に基づいてAF制御を行うようにしたため、動画撮影時に被写体の明るさが急激に変化しても適正なAF制御を常時行うことができる。尚、主画素フレームが飽和していない場合には、副画素フレームよりもS/Nのよい主画素フレームに基づいて評価値を算出するようにしている。
【図面の簡単な説明】
【図1】本発明の実施に用いられるCCDの一例を示す平面模式図
【図2】主画素と副画素の光電変換特性を示すグラフ
【図3】本発明に係る自動焦点調節装置を含む電子カメラのブロック図
【図4】AF評価値に基づくAF制御を説明するために用いたレンズ位置とAF評価値との関係を示すグラフ
【図5】AF/露出制御の全体的なフローチャート
【図6】動画撮影のAF制御時に使用する主/副画素フレームの決定方法を示すフローチャート
【図7】動画撮影時のAF制御の一例を示すフローチャート
【図8】AF制御に使用する主/副画素フレームの概念図
【符号の説明】
10…CCD、20…受光セル、21…主画素、22…副画素、100…電子カメラ、110…撮影光学系、120…フォーカス/絞り調節部、130…露光時間制御部、150…信号処理部、160…AF/露出制御部、161…主/副画素輝度判定部、162…露出制御部、163…フレーム指定部、164…ゲート回路、165…高周波成分抽出部、166…AF評価値算出部、167…AF制御部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an automatic focus adjustment apparatus for an electronic camera, and more particularly to a technique for automatic focus adjustment at the time of moving image shooting using image pickup elements having elements with different sensitivities.
[0002]
[Prior art]
Conventionally, a high-speed AF mode in which only a part of the image signal in the imaging range of the image sensor is read out at high speed and automatic focus adjustment (AF) is performed based on the read-out image signal is provided. An electronic still camera has been proposed that performs AF control in a short time (Patent Document 1).
[0003]
In the AF control, an absolute value of the high frequency component of the image signal read from the image sensor is integrated to obtain an evaluation value (AF evaluation value), and the focus lens is moved so that the AF evaluation value is maximized. Done.
[0004]
[Patent Document 1]
Japanese Patent Laid-Open No. 9-298685
[0005]
[Problems to be solved by the invention]
However, even if the AF control is performed in the high-speed AF mode described in Patent Document 1, if high-luminance subject light is incident on the image sensor, the pixels of the image sensor are saturated. There is a problem that a satisfactory AF evaluation value cannot be obtained and good AF control cannot be performed.
[0006]
In particular, when a subject is suddenly brightened due to a scene change or the like during moving image shooting, and the pixel of the image sensor is saturated, after that, exposure control is properly performed until the pixel saturation of the image sensor is canceled. Good AF control cannot be performed. In general, the responsiveness of the exposure control at the time of moving image shooting is set to be slow with respect to the change in the brightness of the subject, and the exposure control does not follow the change in the brightness for a short time. This is because if the exposure control is made to follow a sudden change in the brightness of the subject, the brightness of the main subject of the moving image to be reproduced fluctuates within a short time and becomes unsightly.
[0007]
The present invention has been made in view of such circumstances, and provides an automatic focusing device for an electronic camera that can always perform appropriate AF control even when the brightness of a subject changes suddenly during moving image shooting. For the purpose.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 is characterized in that a large number of high-sensitivity main pixels and sub-pixels having lower sensitivity than the main pixels are arranged according to a predetermined arrangement form. It has an image pickup means that can take out the photoelectrically converted signals, and based on the evaluation value indicating the sharpness of the image calculated by using the signal taken from the image pickup means, the shooting lens is combined. In the automatic focusing device for an electronic camera that moves to a focal position, a determination unit that determines whether or not a main pixel frame of main / sub-pixel frames captured from the imaging unit is saturated; When it is determined that the main pixel frame is not saturated, the main pixel frame is selected. When it is determined that the main pixel frame is saturated, the sub pixel frame is selected. / Subpixel frame selection means; evaluation value calculation means for calculating the evaluation value from the image signal of the main pixel frame or the subpixel frame selected by the main / subpixel frame selection means; And a control means for controlling the lens moving means so that the evaluation value always maintains a maximum based on the evaluation value calculated by the evaluation value calculating means. It is a feature.
[0009]
That is, when performing AF control during moving image shooting, the AF control is basically performed based on an evaluation value indicating the sharpness of an image calculated from the main pixel frame. This is because the main pixel has better S / N than the sub-pixel. On the other hand, when the brightness of the subject suddenly changes brightly (for example, when going from indoors to the outdoors) and the main pixel frame is saturated, AF control is performed based on the evaluation value calculated from the subpixel frame. Do. This is because even if the main pixel frame is saturated, the sub-pixel frame with low sensitivity is often not saturated. Thereby, even when the brightness of the subject changes sharply, an appropriate evaluation value can be calculated, and appropriate AF control can always be performed during moving image shooting.
[0010]
According to a second aspect of the present invention, in the automatic focus adjustment apparatus for an electronic camera according to the first aspect, the determination means saturates more than a certain number of pixels in a predetermined focus area in the entire screen of the main pixel frame. It is characterized by determining whether or not.
[0011]
According to a third aspect of the present invention, in the automatic focus adjustment apparatus for an electronic camera according to the first or second aspect, the evaluation value calculation means includes a main pixel frame or a sub-pixel frame selected by the main / sub-pixel frame selection means. A high frequency component of a subject is extracted from an image signal in a predetermined focus area, and the evaluation value is calculated by integrating absolute values of the high frequency component.
[0012]
That is, the evaluation value is calculated from an image signal of a predetermined focus area (for example, the center of the screen) in one frame. This is because, in general, framing is often performed so that the main subject to be photographed enters the center of the screen. Accordingly, whether or not the main pixel frame is saturated is also determined based on whether or not a certain number of pixels in a predetermined focus area in the main pixel frame is saturated. The number of fixed pixels is preferably determined in consideration of an evaluation value calculated when the fixed number of pixels is saturated and an evaluation value calculated from a sub-pixel frame with a poor S / N. .
[0013]
DETAILED DESCRIPTION OF THE INVENTION
A preferred embodiment of an automatic focusing device for an electronic camera according to the present invention will be described below in detail with reference to the accompanying drawings.
[0014]
[Image sensor structure]
First, the structure of the image sensor applied to the electronic camera according to the present invention will be described. FIG. 1 is a schematic plan view showing an example of a CCD solid-state imaging device (hereinafter referred to as CCD) used in an electronic camera according to the present invention.
[0015]
As shown in the figure, the CCD 10 is a two-dimensional imaging device (image sensor) in which a large number of light receiving cells 20 are arranged at a constant arrangement period in the horizontal direction (row direction) and the vertical direction (column direction). The illustrated configuration is a pixel array called a honeycomb array, in which the center points of the geometric shapes of the light receiving cells 20 are shifted by half the pixel pitch (1/2 pitch) every other row direction and column direction. It has become. That is, in the rows (or columns) of the light receiving cells 20 adjacent to each other, the cell arrangement in one row (or column) is in the row direction (or column direction) with respect to the cell arrangement in the other row (or column). The structure is arranged so as to be relatively shifted by about ½ of the arrangement interval.
[0016]
Each light receiving cell 20 includes two photodiode regions 21 and 22 having different sensitivities. The first photodiode region 21 has a relatively large area and constitutes a main photosensitive portion (hereinafter referred to as “main pixel”) having high sensitivity. The second photodiode region 22 has a relatively small area and constitutes a subordinate photosensitive portion (hereinafter referred to as “sub-pixel”) having low sensitivity.
[0017]
For each light receiving cell 20, color filters of the same color are arranged in the main pixel 21 and the sub-pixel 22. That is, one primary color filter of RGB is assigned to each light receiving cell 20. As shown in FIG. 1, the BRBR... Row is arranged in the next stage of the GGGG... Row in the horizontal direction, the GGGG... Row is arranged in the next stage, and the RBRB. Further, in the column direction, the GGGG column, the BRBR column, the GGGG column, and the RBRB column are repeated in a cyclic manner.
[0018]
A vertical transfer path (VCCD) 30 is formed on the right side of the light receiving cell 20. The vertical transfer path 30 extends in the vertical direction by meandering in a zigzag manner in the vicinity of each column of the light receiving cells 20 and avoiding the light receiving cells 20.
[0019]
On the vertical transfer path 30, transfer electrodes 31, 32, 33, and 34 necessary for four-phase driving (φ1, φ2, φ3, φ4) are arranged. The transfer electrodes 31 to 34 are provided close to each row of the light receiving cells 20 so as to meander while avoiding the opening of the light receiving cells 20 and extend in the horizontal direction in FIG. For example, when the transfer electrode is formed of two-layer polysilicon, the first transfer electrode 31 to which the pulse voltage φ1 is applied and the third transfer electrode 33 to which the pulse voltage φ3 is applied are the first polysilicon layer. The second transfer electrode 32 to which the pulse voltage φ2 is applied and the fourth transfer electrode 34 to which the pulse voltage φ4 is applied are formed of a second polysilicon layer.
[0020]
In FIG. 1, a VCCD driving circuit 42 that applies a pulse voltage to the transfer electrodes 31 to 34 is disposed on the right side of the imaging area 40 in which the light receiving cells 20 are arranged. A horizontal transfer path (HCCD) 44 that transfers the signal charges transferred from the vertical transfer path 30 in the horizontal direction is provided below the imaging area 40 (at the lower end side of the vertical transfer path 30).
[0021]
The horizontal transfer path 44 is composed of a two-phase drive transfer CCD, and the last stage (the leftmost stage in FIG. 1) of the horizontal transfer path 44 is connected to the output unit 46. The output unit 46 includes an output amplifier, performs charge detection of the input signal charge, and outputs it to the output terminal 48 as a signal voltage. In this way, the signal photoelectrically converted by each light receiving cell 20 is output as a dot-sequential signal sequence.
[0022]
FIG. 2 is a graph showing the photoelectric conversion characteristics of the main pixel 21 and the sub-pixel 22. The horizontal axis represents the amount of incident light, and the vertical axis represents the image data value (QL value) after A / D conversion. In this example, 12-bit data is illustrated, but the number of bits is not limited to this.
[0023]
As shown in the figure, the sensitivity ratio between the main pixel 21 and the sub-pixel 22 is 1: 1 / a (where a> 1, a = 16 in this example). The output of the main pixel 21 gradually increases in proportion to the amount of incident light, and when the amount of incident light is “c”, the output reaches a saturation value (QL value = 4095). Thereafter, even if the amount of incident light increases, the output of the main pixel 21 becomes constant. This “c” will be referred to as the saturation light amount of the main pixel 21.
[0024]
On the other hand, the sensitivity of the sub-pixel 22 is 1 / a of the sensitivity of the main pixel 21, and is saturated at a QL value = 4095 / b when the incident light quantity is α × c (where b> 1, α = a / b, in this example b = 4, α = 4). “Α × c” at this time is referred to as the saturation light amount of the sub-pixel 22.
[0025]
In this way, by combining the main pixel 21 and the sub-pixel 22 having different sensitivities and saturations, the dynamic range of the image sensor can be expanded α times compared to the configuration of only the main pixel. In this example, the dynamic range is expanded about four times with a sensitivity ratio of 1/16 and a saturation ratio of 1/4. When the maximum dynamic range when only the main pixel 21 is used is 100%, in this example, the dynamic range is expanded to about 400% at the maximum by utilizing the sub-pixel 22.
[0026]
[Configuration example of electronic camera]
Next, an electronic camera equipped with the above-described wide dynamic range imaging CCD 10 will be described.
[0027]
FIG. 3 is a block diagram of the electronic camera according to the present embodiment. The electronic camera 100 can shoot a still image and a moving image by switching between a still image mode and a moving image mode by a mode switching unit (not shown). By synthesizing, it is possible to shoot with a dynamic range specified in advance (for example, 200%, 300%, 400%), and when shooting a moving image, a signal of only the main pixel is used for moving image recording. Note that FIG. 3 mainly illustrates blocks that function in the moving image mode.
[0028]
The photographing optical system 110 of the electronic camera 100 includes a photographing lens and a diaphragm, and a driving unit thereof. The photographing lens (focus lens) and the diaphragm are controlled to be output from the focus / aperture adjustment unit 120 to each driving unit. Focus control and aperture control are performed by the signal. Details of this control will be described later.
[0029]
The light that has passed through the photographing optical system 110 enters the CCD 10. A large number of photosensors (light receiving elements) are two-dimensionally arranged on the light receiving surface of the CCD 10, and red (R), green (G), and blue (B) primary color filters corresponding to each photosensor are predetermined. Arranged in array form.
[0030]
The subject image formed on the light receiving surface of the CCD 10 is converted into a signal charge in an amount corresponding to the amount of incident light by each sensor on the CCD 10.
[0031]
The signal charge accumulated in this way is read out to the shift register by a read gate pulse applied from a CCD drive circuit (not shown), and sequentially read out as a voltage signal corresponding to the signal charge by a register transfer pulse. The CCD 10 has a so-called electronic shutter function that can sweep out the signal charge accumulated by the shutter gate pulse output from the exposure time control unit 130, thereby controlling the charge accumulation time (exposure time). .
[0032]
From the CCD 10, the signal accumulated in the photosensor of the main pixel (signal of the main pixel frame) and the signal accumulated in the photosensor of the subpixel (signal of the subpixel frame) are sequentially read out as voltage signals. These main pixel frame signal and sub-pixel frame signal are applied to the A / D converter 140 where they are converted into digital signals. Note that the signals of the main pixel frame and the sub-pixel frame include signals of odd fields or even fields in the case of signals of two fields and one frame composed of odd fields and even fields.
[0033]
The main / sub-pixel image data (dot sequential R, G, B signals) converted into digital signals by the A / D converter 140 is applied to the signal processing unit 150 and the AF / exposure control unit 160.
[0034]
The signal processing unit 150 includes a synchronization circuit, a white balance adjustment circuit, a dynamic enlargement processing circuit (main / sub-pixel synthesis processing circuit), a gamma correction circuit, a luminance / color difference signal (YC signal) generation circuit, a compression / decompression circuit, and the like. Each of the circuits executes signal processing corresponding to the input image data of the main / sub-pixel frame, and is output to the image output unit 170 as an image file and recorded.
[0035]
The main / sub-pixel combination processing circuit multiplies image data of the main pixel and sub-pixel by appropriate coefficients at the time of still image shooting and adds these multiplication values to expand the dynamic range. Since only the image data of the main pixel is sometimes recorded, the dynamic range expansion process is not performed.
[0036]
The AF / exposure control unit 160 performs AF control and exposure control. Mainly, the main / sub-pixel luminance determination unit 161, the exposure control unit 162, the frame designation unit 163, the gate circuit 164, the high-frequency component extraction unit 165, and the AF evaluation. A value calculation unit 166 and an AF control unit 167 are included.
[0037]
The main / sub-pixel luminance determination unit 161 obtains information on the brightness of the subject based on the image data of main / sub-pixel frames sequentially input from the A / D converter 140 and sends this information to the exposure control unit 162. The exposure control unit 162 adjusts the exposure time via the exposure time control unit 130 based on the brightness information of the subject input from the main / sub-pixel luminance determination unit 161, or shoots via the focus / aperture adjustment unit 120. The diaphragm in the optical system 110 is adjusted.
[0038]
That is, for example, when the maximum value of the main pixel and the sub-pixel is input as the brightness information of the subject, the exposure control unit 162 is when the maximum value of the main pixel is other than a saturation value (QL value is 4095 in this example). The exposure time or aperture value is determined so that the maximum value of the main pixel becomes the optimum value of the maximum main pixel set in advance. On the other hand, when the maximum value of the main pixel is a saturation value, Based on the maximum value and the sensitivity ratio between the main pixel and the sub-pixel, the exposure time or aperture value is determined so that the maximum value of the main pixel becomes the optimum value of the maximum main pixel set in advance. The exposure is controlled by the determined exposure time or aperture value. The exposure control may be performed using only the image data of the sub-pixel frame that is not saturated, although the S / N is not good.
[0039]
Further, the main / sub-pixel luminance determination unit 161 is based on the image data of the main / sub-pixel frame sequentially input from the A / D converter 140, and is in a predetermined focus area (for example, the screen center) of the main pixel frame. It is determined whether or not a certain number of pixels is saturated, and the determination result is output to the frame designation unit 163. The frame designation unit 163 outputs a command indicating which of the main / subpixel frames to be input to the gate circuit 164 is to be selected. That is, when a certain number of pixels within a predetermined focus area of the main / sub-pixel frame is saturated, a command for selecting the sub-pixel frame is output, and in other cases, the main pixel frame is selected. Output a command.
[0040]
The gate circuit 164 selects image data of one of the main / sub-pixel frame image data sequentially input from the A / D converter 140 based on a command input from the frame designating unit 163, and Only the image data of a predetermined focus area among the image data of the selected frame is passed and sent to the high frequency component extraction unit 165.
[0041]
The high frequency component extraction unit 165 extracts a predetermined high frequency component from the input image data, and outputs the extracted high frequency component to the AF evaluation value calculation unit 166. Note that the high frequency component can be extracted by, for example, obtaining a difference between image data of adjacent pixels.
[0042]
The AF evaluation value calculation unit 166 integrates the absolute values of the high frequency components input from the high frequency component extraction unit 165, and outputs the integrated value (referred to as an AF evaluation value) to the AF control unit 167. The AF control unit 167 moves the focus lens via the focus / aperture adjustment unit 120 so that the AF evaluation value input from the AF evaluation value calculation unit 166 is maximized.
[0043]
Here, an outline of AF control using the AF evaluation value will be described.
[0044]
As shown in FIG. 4, in the AF control at the time of still image shooting, for example, the focus lens is moved from the closest end to the infinity, and the AF evaluation value is sampled for each predetermined lens position. Then, a curve passing through a plurality of AF evaluation values including a maximum AF evaluation value among a plurality of sampled AF evaluation values is obtained, and a lens position at which this curve becomes a maximum is obtained. AF control is performed by moving the focus lens to the lens position thus obtained.
[0045]
On the other hand, in the AF control during moving image shooting, the focus lens is moved so that the AF evaluation value always maintains the maximum. Details of the AF control at the time of moving image shooting will be described later.
[0046]
Next, the operation of the AF / exposure control unit 160 will be described.
[0047]
FIG. 5 shows an overall flowchart of AF / exposure control in the AF / exposure control unit 160.
[0048]
First, exposure control during moving image shooting is performed (step S100). In this exposure control, when the maximum value of the main pixel of the main / sub-pixel frame is other than the saturation value, the exposure time is determined so that the maximum value becomes a preset optimum value. To do.
[0049]
If the maximum value of the main pixel is Gmain, the optimum value of the maximum main pixel is Gopt, and the previous exposure time is Told, a new exposure time Tnew is calculated by the following equation.
[0050]
[Expression 1]
Tnew = Told × (Gopt / Gmain)
If the exposure time during moving image shooting is controlled by this exposure time Tnew, the maximum value Gmain of the pixels of the main pixel frame obtained at that time can be set to the optimum value Gopt.
[0051]
On the other hand, when the image data of the main pixel frame is saturated, the maximum value of the subpixel in the subpixel frame is read. Then, if the maximum value of the subpixel is Gsub, the sensitivity ratio of the main pixel and the subpixel is Ggain, the optimum value of the maximum main pixel is Gopt, and the previous exposure time is Told, a new exposure time Tnew is calculated by the following equation. To do.
[0052]
[Expression 2]
Tnew = Told × (Gopt × Ggain) / Gsub
If the exposure time during moving image shooting is controlled by this exposure time Tnew, the image data of the main pixel frame obtained at that time is not saturated, and the maximum value Gmain of the pixels of the main pixel frame can be set to the optimum value Gopt. it can.
[0053]
The exposure control method at the time of moving image shooting is not limited to the above-described embodiment, and the exposure control may be performed based only on the image data of the sub-pixel frame.
[0054]
Next, of the main image frame and the sub-pixel frame, a frame to be used at the time of AF control for moving image shooting is determined (step S200).
[0055]
That is, as shown in the flowchart of FIG. 6, it is determined whether or not a predetermined number of pixels or more in a predetermined focus area of the main pixel frame is saturated based on the image data of the main pixel frame (step S202). If it is determined that it is not saturated, the image data of the main pixel frame is used for AF control (step S204). If it is determined that it is saturated, the image data of the sub-image frame is used for AF control. (Step S206).
[0056]
When a frame to be used for AF control is determined as described above, an AF search is subsequently performed (step S300).
[0057]
In the first AF control during moving image shooting, the focus lens is moved in a certain direction (for example, the infinity side) and the AF evaluation value is sampled. If the AF evaluation value becomes larger than that at the previous sampling, it is determined that the maximum of the AF evaluation value exists on the infinity side, and the focus lens is continuously moved to the infinity side. On the other hand, if the AF evaluation value is smaller than that at the previous sampling, it is determined that there is a maximum AF evaluation value in the reverse direction (closest side), and the focus lens is moved to the close side.
[0058]
After determining the moving direction of the focus lens in this way, the focus lens is moved in the determined direction, and the AF evaluation value is sampled. When the AF evaluation value is initially smaller than the previous sampling time Then, it is determined that the AF evaluation value exceeds the maximum, and the focus lens is returned by one step in the reverse direction. As a result, the focus lens can be moved to the lens position where the AF evaluation value is maximized.
[0059]
Next, AF control is described in which the AF evaluation value is always kept at a maximum after the focus lens is moved to the lens position where the AF evaluation value becomes a maximum as described above.
[0060]
As shown in the flowchart of FIG. 7, an AF evaluation value is calculated (step S302). The calculation of the AF evaluation value is performed based on the image data in the focus area of the frame determined in step S200.
[0061]
Subsequently, it is determined whether or not the AF evaluation value calculated in step S302 has changed by a certain value or more with respect to the AF evaluation value used for the current focus lens position control (step S304). If the newly calculated AF evaluation value has not changed by a certain value or more, there is no change in the shooting scene and there is no need to redo AF control.
[0062]
On the other hand, when the newly calculated AF evaluation value has changed by a certain value or more, it is necessary to perform AF control again, so the focus lens is moved one step in a certain direction (for example, the closest side) (step S306). The AF evaluation value is calculated again at the moving position (step S308).
[0063]
Next, it is determined whether or not the AF evaluation value calculated in step S308 is larger than the AF evaluation value calculated in step S302 (step S310). When the AF evaluation value becomes large, it is determined that the maximum of the AF evaluation value exists on the near side from the current lens position, and the focus lens is continuously moved one step to the close side (step S312), and the movement position is determined. Then, the AF evaluation value is calculated again (step S314).
[0064]
Subsequently, it is determined whether or not the AF evaluation value has become larger than the previously calculated AF evaluation value (step S316). If the AF evaluation value has increased, the process returns to step S312, and steps S312, S314, If it is determined that the AF evaluation value has decreased, the focus lens is returned by one step to the infinity side opposite to the closest side (step S318). This is because the focus lens has been moved beyond the lens position where the AF evaluation value is maximized.
[0065]
The focus lens is moved to the lens position where the AF evaluation value is maximized as described above, and the current AF evaluation value subjected to the AF control is calculated (step S320).
[0066]
On the other hand, when it is determined in step S310 that the AF evaluation value calculated in step S308 is smaller than the AF evaluation value calculated in step S302, the AF evaluation value has a maximum on the infinity side of the current lens position. Then, the focus lens is moved to the infinity side (step S322), and the AF evaluation value is calculated again at the moving position (step S324).
[0067]
Subsequently, it is determined whether or not the AF evaluation value is larger than the previously calculated AF evaluation value (step S326). When the AF evaluation value becomes large, the process returns to step S322, and steps S322, S324, If it is determined that the AF evaluation value has decreased, the focus lens is returned to the closest side in the direction opposite to the infinity side by one step (step S328).
[0068]
The focus lens is moved to the lens position where the AF evaluation value is maximized as described above, and the current AF evaluation value subjected to the AF control is calculated (step S320).
[0069]
In this way, the lens position of the focus lens is controlled so that the AF evaluation value always maintains the maximum during moving image shooting.
[0070]
FIG. 8 is a conceptual diagram of main / sub-pixel frames used for AF control. As shown in the figure, basically, AF control is performed based on the image data of the main pixel frame (the upper frame in FIG. 8). AF control is performed based on image data of a pixel frame (lower frame in FIG. 8). Further, FIG. 8 shows a case where the exposure time is controlled using the image data of the sub-pixel frame.
[0071]
【The invention's effect】
As described above, according to the present invention, when the main pixel frame of the main / sub-pixel frames having different sensitivities captured from the imaging unit is saturated, the main pixel frame is based on the non-saturated sub-pixel frame. Since an evaluation value indicating the sharpness of the image is calculated and AF control is performed based on the evaluation value, proper AF control can always be performed even when the brightness of the subject changes drastically during moving image shooting. . If the main pixel frame is not saturated, the evaluation value is calculated based on the main pixel frame having a better S / N than the sub-pixel frame.
[Brief description of the drawings]
FIG. 1 is a schematic plan view showing an example of a CCD used to implement the present invention.
FIG. 2 is a graph showing photoelectric conversion characteristics of main pixels and sub-pixels.
FIG. 3 is a block diagram of an electronic camera including an automatic focusing device according to the present invention.
FIG. 4 is a graph showing a relationship between a lens position and an AF evaluation value used for explaining AF control based on an AF evaluation value;
FIG. 5 is an overall flowchart of AF / exposure control.
FIG. 6 is a flowchart showing a method for determining main / sub-pixel frames used during AF control of moving image shooting;
FIG. 7 is a flowchart illustrating an example of AF control during moving image shooting.
FIG. 8 is a conceptual diagram of main / sub-pixel frames used for AF control.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... CCD, 20 ... Light receiving cell, 21 ... Main pixel, 22 ... Subpixel, 100 ... Electronic camera, 110 ... Imaging optical system, 120 ... Focus / aperture adjustment part, 130 ... Exposure time control part, 150 ... Signal processing part , 160: AF / exposure control unit, 161: main / sub-pixel luminance determination unit, 162: exposure control unit, 163 ... frame designation unit, 164 ... gate circuit, 165 ... high frequency component extraction unit, 166 ... AF evaluation value calculation unit 167: AF control unit

Claims (3)

感度の高い主画素と、該主画素よりも感度の低い副画素とが所定の配列形態に従って多数配置され、前記主画素及び副画素で光電変換された信号をそれぞれ取り出すことが可能な撮像手段を有し、該撮像手段から取り込んだ信号を用いて算出される画像の鮮鋭度を示す評価値に基づいて、動画撮影時に撮影レンズを合焦位置に移動させる電子カメラの自動焦点調節装置において、
前記撮像手段から取り込んだ主/副画素フレームのうちの主画素フレームが飽和しているか否かを判別する判別手段と、
前記判別手段によって前記主画素フレームが飽和していないと判別されると、該主画素フレームを選択し、前記主画素フレームが飽和していると判別されると、前記副画素フレームを選択する主/副画素フレーム選択手段と、
前記主/副画素フレーム選択手段によって選択された主画素フレーム又は副画素フレームの画像信号から前記評価値を算出する評価値算出手段と、
前記撮影レンズを焦点調節のために移動させるレンズ移動手段と、
前記評価値算出手段によって算出された評価値に基づいて該評価値が常時極大を維持するように前記レンズ移動手段を制御する制御手段と、
を備えたことを特徴とする電子カメラの自動焦点調節装置。
An imaging means capable of taking out a signal photoelectrically converted by the main pixel and the sub-pixel, wherein a large number of high-sensitivity main pixels and sub-pixels having a lower sensitivity than the main pixel are arranged according to a predetermined arrangement form. In an automatic focus adjustment device for an electronic camera that moves an imaging lens to a focus position during moving image shooting based on an evaluation value indicating the sharpness of an image calculated using a signal captured from the imaging unit,
Discriminating means for discriminating whether or not a main pixel frame of the main / sub-pixel frames captured from the imaging means is saturated;
When it is determined by the determining means that the main pixel frame is not saturated, the main pixel frame is selected, and when it is determined that the main pixel frame is saturated, a main pixel frame is selected. / Subpixel frame selection means;
Evaluation value calculating means for calculating the evaluation value from the image signal of the main pixel frame or the sub pixel frame selected by the main / sub pixel frame selecting means;
Lens moving means for moving the photographing lens for focus adjustment;
Control means for controlling the lens moving means so that the evaluation value always maintains a maximum based on the evaluation value calculated by the evaluation value calculating means;
An automatic focusing apparatus for an electronic camera, comprising:
前記判別手段は、前記主画素フレームの全画面のうちの所定のフォーカスエリア内の一定画素数以上が飽和しているか否かを判別することを特徴とする請求項1の電子カメラの自動焦点調節装置。2. The automatic focus adjustment of an electronic camera according to claim 1, wherein the determination unit determines whether or not a predetermined number of pixels or more in a predetermined focus area in the entire screen of the main pixel frame is saturated. apparatus. 前記評価値算出手段は、前記主/副画素フレーム選択手段によって選択された主画素フレーム又は副画素フレームのうちの所定のフォーカスエリア内の画像信号から被写体の高周波成分を抽出し、該高周波成分の絶対値を積算することにより前記評価値を算出することを特徴とする請求項1又は2の電子カメラの自動焦点調節装置。The evaluation value calculating means extracts a high frequency component of a subject from an image signal in a predetermined focus area of the main pixel frame or the sub pixel frame selected by the main / sub pixel frame selecting means, and 3. The automatic focus adjustment apparatus for an electronic camera according to claim 1, wherein the evaluation value is calculated by integrating absolute values.
JP2003167321A 2003-06-12 2003-06-12 Automatic focusing device for electronic camera Pending JP2005003933A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003167321A JP2005003933A (en) 2003-06-12 2003-06-12 Automatic focusing device for electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003167321A JP2005003933A (en) 2003-06-12 2003-06-12 Automatic focusing device for electronic camera

Publications (1)

Publication Number Publication Date
JP2005003933A true JP2005003933A (en) 2005-01-06

Family

ID=34093157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003167321A Pending JP2005003933A (en) 2003-06-12 2003-06-12 Automatic focusing device for electronic camera

Country Status (1)

Country Link
JP (1) JP2005003933A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009049858A (en) * 2007-08-22 2009-03-05 Canon Inc Imaging apparatus
CN105262954A (en) * 2015-11-17 2016-01-20 腾讯科技(深圳)有限公司 Method and device for triggering camera to perform automatic focusing

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009049858A (en) * 2007-08-22 2009-03-05 Canon Inc Imaging apparatus
CN105262954A (en) * 2015-11-17 2016-01-20 腾讯科技(深圳)有限公司 Method and device for triggering camera to perform automatic focusing
CN105262954B (en) * 2015-11-17 2019-07-19 腾讯科技(深圳)有限公司 The method and apparatus that triggering camera focuses automatically

Similar Documents

Publication Publication Date Title
US7872680B2 (en) Method and imaging apparatus for correcting defective pixel of solid-state image sensor, and method for creating pixel information
JP4051674B2 (en) Imaging device
JP4738907B2 (en) Solid-state imaging device and solid-state imaging device
US7787040B2 (en) Solid-state image-taking element and image-taking apparatus including the solid-state image-taking element
US7609306B2 (en) Solid-state image pickup apparatus with high- and low-sensitivity photosensitive cells, and an image shooting method using the same
JP2006121650A (en) Solid-state image pickup apparatus
JP2006270364A (en) Solid-state image pickup element and solid-state image pickup device, and driving method thereof
JP2007274599A (en) Imaging apparatus
JP2006261929A (en) Image pickup device
JP2005072966A (en) Solid-state image pickup device and image pickup apparatus
JP2006129418A (en) Method for driving charge-transfer type solid-state image pick-up device and image pick-up method and apparatus
JP6929106B2 (en) Imaging device and control method of imaging device
JP4051701B2 (en) Defective pixel correction method and imaging apparatus for solid-state imaging device
JP4170131B2 (en) Imaging control method and imaging control apparatus
JP4200485B2 (en) Imaging device
JP2007088842A (en) Imaging apparatus, and method of driving imaging device
JP3943273B2 (en) Solid-state imaging device and signal readout method
JP2004222134A (en) Image pickup device
JP2005003933A (en) Automatic focusing device for electronic camera
JP2007228152A (en) Solid-state image pick up device and method
JP2008270832A (en) Solid-state imaging element and imaging apparatus
JP5550333B2 (en) Imaging apparatus, development method, and program
JP2005006047A (en) Exposure control device of electronic camera
JP2005303653A (en) Image pickup device
JP4538742B2 (en) Signal processing method for imaging apparatus and imaging apparatus