以下、本発明に係る撮像装置の例であるデジタルカメラの例について図面を参照しながら説明する。図1は、本発明に係る撮像装置の例であるデジタルカメラの外観構成の例であって、図1(a)は正面図を、図1(b)は上面図を、図1(c)は背面図を示している。
図1(a)において、デジタルカメラ1の正面(前面)には、撮像に用いられる主撮像光学系を構成する撮像レンズ5を含む鏡胴ユニット6と、フラッシュ動作をするストロボ発光部7と、被写体を視認するための光学ファインダ8と、主に測距に用いるための光学系である補助光学系16と、を有している。
また、図1(b)において、デジタルカメラ1の上面には、シャッターボタンであるレリーズボタン2と、電源ボタン3と、撮影モードや再生モードなどからなる動作モードの切り替えに用いる切替ダイヤル4と、を有している。
また、図1(c)において、デジタルカメラ1の背面には、撮像動作時に被写体像を表示するモニタリング動作に用いられ、また、再生動作時には記録されている被写体画像の表示に用いられる表示部を構成する液晶モニタ(LCDモニタ)9と、光学ファインダ8の接眼レンズ部8aと、広角側ズーム(W)スイッチ10と、望遠側ズーム(T)スイッチ11と、デジタルカメラ1の動作パラメータなどを設定するための設定メニューをLCDモニタ9に表示させるためのメニュー(MENU)ボタン12と、確定ボタン(OKボタン)13と、を有している。また、デジタルカメラ1の側面内部には、撮影した画像を保存するための図示しないメモリカード14を収納するメモリカード収納部15が設けられている。
次に本実施例に係るデジタルカメラ1の内部構成の例について、図2のブロック図を用いて説明する。図2においてデジタルカメラ1は、撮像レンズ5を介して被写体画像を結像させる受光面を有する撮像素子であるCMOS104と、CMOS104から出力される電気信号(デジタルRGB画像信号)に対して所定の画像信号処理を施す信号処理部101と、フォーカスレンズを含む撮像レンズ5と絞りユニットおよびメカシャッタユニットからなるユニット18を駆動するモータドライバ103と、デジタルカメラ1の全体制御を行うCPU102と、を有してなる。
主撮像光学系17は、撮像レンズ5と、ユニット18と、CMOS104と、を有しなる。
また、デジタルカメラ1は、撮像処理によって取得された画像を一時的に格納するメモリ108と、デジタルカメラ1を図示しない通信インターフェースを介して外部機器と接続させるための通信ドライバ107と、撮像された被写体画像のデータを格納する着脱可能なメモリカード14と、信号処理部101から出力される画像信号を表示可能な信号に変換する表示コントローラとLCDモニタ9からなる表示部109と、利用者が操作可能な各種ボタン類(レリーズボタン2や切替ダイヤル4、メニューボタン12、OKボタン13など)からなる操作部106と、を有してなる。
また、デジタルカメラ1は、主撮像光学系17を用いて行う撮像処理において、補助的な動作に使用される補助光学系16と、CPU102によって発光動作の開始と停止が制御されるストロボ発光部7と、ストロボ発光用のメインコンデンサ105と、を有してなる。
撮影レンズ5と、ユニット18を駆動するモータドライバ103は、CPU102からの駆動信号によって、駆動制御される。
CMOS104は、2次元に配列された受光素子を有しており、この受光素子に結像した光学像を電荷に変換し、隣接する駆動部から送信される読出し信号タイミングで外部に電気信号として出力する。CMOS104を構成する複数の画素(受光素子)上にRGB原色フィルタ(以下、「RGBフィルタ」という。)が配置されており、RGB3原色に対応した電気信号(デジタルRGB画像信号)が出力される。
信号処理部101は、詳細は図示しないが、CMOS104から出力されるRAW−RGBデータを取り込むCMOSインターフェース(以下、「CMOSI/F」という。)と、メモリ108へのデータの書き出しと読み込みを制御するメモリコントローラと、取り込んだRAW−RGBデータを表示や記録が可能なYUV形式の画像情報に変換するYUV変換部と、表示や記録される画像情報のサイズに合わせて画像サイズを変更するリサイズ処理部と、画像情報の表示出力を制御する表示出力制御部と、画像情報をJPEG形成などで記録するためのデータ圧縮部と、画像情報をメモリカードへ書き込み又はメモリカードからの読み出しに用いられるメディアインターフェース(以下、「メディアI/F」という。)と、操作部106からの操作入力情報に基づき、図示しないROMに記憶された制御プログラムに基づいてデジタルカメラ1全体のシステム制御等を行う制御部(CPU)と、を備えている。
メモリ108には、CMOSI/Fに取り込まれたRAW−RGBデータが保存されると共に、YUV変換部で変換処理されたYUVデータ(YUV形式の画像情報)およびYUV合成部で合成処理されたYUVデータ(詳細は後述する)が保存される。また、メモリ108には、データ圧縮部で圧縮処理されたJPEG形成などの画像情報等が保存される。なお、YUVデータのYUVは、輝度データ(Y)と、色差(輝度データと青色(B)データの差分(U)と、輝度データと赤色(R)の差分(V))の情報で色を表現する形式を指称するものである。
次に、本発明に係る撮像装置の実施例であるデジタルカメラ1において実行されるモニタリング動作の例と、撮像処理の一例である静止画撮影の例について説明する。デジタルカメラ1が静止画撮影モードで動作しているときは、以下に説明するモニタリング動作を実行しながら静止画撮影動作が行われる。
デジタルカメラ1を静止画撮影モードで動作させるときは、利用者が、電源ボタン3を操作して動作電源を投入した後に、切替ダイヤル4を操作して「撮影モード」を選択する操作を行えばよい。
撮影モードが選択されたデジタルカメラ1は、CPU102からモータドライバ103に対して制御信号が出力される。制御信号を受け取ったモータドライバ103は、フォーカスレンズを含む撮像レンズ5を撮影可能位置に移動させる。また、CPU102は、CMOS104と信号処理部101、および表示部109などを起動させる。
その後、撮像レンズ5を被写体に向けると、被写体の像光が撮像レンズ5を介してCMOS104の受光面(受光素子)に結像される。CMOS104の受光素子から出力される被写体像に応じた画像電気信号は、CDS/PGA111を介してA/D変換部112に入力され、12ビットのRAW−RGBデータに変換される。変換されたRAW−RGBデータは、信号処理部101のCMOSI/Fに取り込まれてメモリコントローラを介してメモリ108であるSDRAMに保存される。
メモリ108に保存されたRAW−RGBデータは所定のタイミングで読み出されて、信号処理部101が有するYUV変換部によって、表示部109のLCDモニタ9において表示可能な形式であるYUVデータ(YUV信号)に変換される。この変換されたYUVデータも、メモリコントローラを介してメモリ108であるSDRAMに保存される。
その後、所定のタイミングでメモリコントローラを介してメモリ108からYUVデータが読み出されて、表示部109に出力され、液晶モニタ9に被写体像が表示される。この表示に係る一連の動作を「モニタリング動作」という。
上記のモニタリング動作の間は、CMOSI/Fによる画素数の間引き処理によって1/30秒間隔で1フレームのYUVデータが読み出されてLCDモニタ9に表示される。「モニタリング動作」は、レリーズボタン2に対する押圧(半押も含む)操作が検出されるまで継続し、モニタリング動作が継続している間は、電子ファインダとして機能するLCDモニタ9に被写体の画像が表示されている。
LCDモニタ9に、YUVデータに係る画像が表示されることで、被写体画像を視認することができるようになる。なお、表示部109からTVビデオ信号として出力して、ビデオケーブルを介して外部のTV(テレビ)に撮影画像(動画)を表示することもできる。LCDモニタ9に表示される画像を視認しながら、撮影者は合焦状態や画角の確認をすることになる。
上記のモニタリング動作の間に、信号処理部101は、CMOSI/Fから取り込まれたRAW−RGBデータによって、AF(自動合焦)評価値と、AE(自動露出)評価値と、AWB(オートホワイトバランス)評価値と、を含む撮像処理に用いるデータを算出する処理を行う。
AF評価値とは、例えば高周波成分抽出フィルタの出力を積分した値や、近接画素の輝度差を積分した値をいう。撮像レンズ5が被写体に合焦しているときは、被写体のエッジ部分がはっきりとしているため高周波成分が一番高くなる。これを利用して、AF動作時(合焦検出動作時)には、撮影レンズ5に含まれるフォーカスレンズを駆動して、各レンズ位置におけるAF評価値を算出し、算出されたAF評価値が最大になるレンズ位置を検出することで、合焦位置を特定することができる。この一連の動作をAF動作という。
AE評価値およびAWB評価値とは、RAW−RGBデータにおけるRGB値のそれぞれの積分値から算出されるものであり、例えば、CMOS104の全画素の受光面に対応した画面を256エリアに等分割(水平16分割、垂直16分割)し、それぞれのエリア毎に算出したRGBの積算値をいう。
信号処理部101は、RGB積算値を用いて被写体像を捉えている画面(CMOS104の受光面から出力される画像信号の全範囲)を等分割したエリア毎に輝度を算出し、この算出された輝度の分布に基づいて適正な露光量を決定して、この決定された露光量に基づいて、露光条件(電子シャッタ回数、絞りユニットの絞り値等)を設定する処理を行う。これら一連の処理をAE処理という。
また、信号処理部101は、RGB積算値の分布から被写体の光源の色に合わせた制御値を決定し、この決定された制御値に基づいてYUV変換部において、RAW−RGBデータをYUVデータに変換するときのホワイトバランスを合わせる処理を行う。これら一連の処理をAWB処理という。
上記にて説明をしたAE処理とAWB処理は、モニタリング動作の間は連続的に行われている。このようなモニタリング動作の最中に、レリーズボタン2が押圧(半押しから全押し)操作されると、モニタリング動作から静止画撮影動作に移行する。
静止画撮影動作は、レリーズボタン2への押圧(半押しから全押し)操作が検出されたことをトリガーとして開始される。静止画撮影動作が実行されるとCPU102からモータドライバ103への駆動指令が出力され、この駆動指令により、モータドライバ103が撮影レンズ5に含まれるフォーカスレンズを所定の位置に移動させる。
AF処理の対象範囲が無限から至近まで(全領域)であった場合、撮影レンズ5に含まれるフォーカスレンズは、至近から無限へ、または、無限から至近へ移動することになる。この間の各フォーカス位置におけるAF評価値が算出される。
その後、AF評価値が極大になるレンズ位置にフォーカスレンズを移動させて合焦させ、上記において説明したAE処理が行われる。AE処理によって露光が完了した時点で、CPU102からモータドライバ103への駆動指令によりユニット18に含まれるメカシャッタが閉じられて、CMOS104から静止画用のアナログRGB画像信号が出力される。その後、モニタリング動作時と同様にRAW−RGBデータに変換される。
変換されたRAW−RGBデータは、信号処理部101のCMOSI/Fに取り込まれて、YUV変換部によってYUVデータに変換され、メモリコントローラを介してメモリ108に保存される。保存されたYUVデータは所定のタイミングでメモリ108から読み出されて、信号処理部101に含まれるリサイズ処理部において記録画素数に対応するサイズに変換され、データ圧縮部においてJPEG形式等の画像情報へと圧縮変換される。
圧縮された画像情報は、再度メモリ108に書き戻された後にメモリコントローラを介してメモリ108から読み出されて、メディアI/Fを介してメモリカード14に記録される。
ここで、面間フリッカ(フレーム間フリッカ)と面内フリッカの発生原理について説明をする。商用電源の周波数は50Hzか60Hzであるから、蛍光灯の明滅に係る周波数は、電源周波数の2倍にあたる100Hzか120Hzになる。本実施例においては、電源の周波数が50Hzの場合を例に説明をする。
図3は、面間フリッカ(フレーム間フリッカ)を説明するための図である。図3(a)は、蛍光灯の明滅の様子を示した波形図である。図3(a)に示すように、商用電源(50Hz)の2倍の周期(100Hz)で、蛍光灯は明滅を繰り返している。言い換えれば50Hzの周期で輝度が変化している。
図3(b)および図3(c)は、モニタリング動作時においてLCDモニタ9に画像が表示されるためのフレームレートと、各フレームの露光時間の関係を示す図である。図3(b)は、1/30秒間隔のフレームレートにおいて、露光時間(露光秒時)が1/200秒である場合を示している。
図3(b)に示すように、露光秒時が1/200秒であるときは、その間の蛍光灯の輝度の変化が、図3(c)の符号300と符号301のようになっている。輝度変化300と輝度変化301では、蛍光灯の明度が異なるため、各露光処理によって得られたモニタリング画像の明るさは異なる。つまり、モニタリング画像の明るさが変化している。このように、モニタリング画像間で「明るさが変化」することで、画面全体に生じる「ちらつき」が面間フリッカである。
露光秒時が1/100秒であるときは(図3(d))、その間の蛍光灯の輝度の変化は図3(e)の符号302と符号303のようになる。輝度変化302と輝度変化303では、蛍光灯の輝度が同じになるため、各露光処理によって得られたモニタリング画像の明るさは同じになる。このように、モニタリング動作時の露光処理(AE処理)において、露光秒時を変更することでフリッカの発生を低減させることができる。
次に、面内フリッカ(フレーム内フリッカ)について図4を用いて説明をする。図4(a)は、面間フリッカの説明に用いた図3(a)と同様であって、蛍光灯の明滅の様子を示す波形図である。
モニタリング動作時のフレームレートは1/30秒であるから、1/30秒内に一画面を構成する画像情報がLCDモニタ9に転送される。面内フリッカは、LCDモニタ9に表示される1フレームの画像を構成する水平画素ラインごとに露光タイミングが異なるローリングシャッターを備えたカメラで生じる特有の現象である。
例えば、図4(b)に示すように露光秒時が1/200であるとき、各画素ラインの露光中において、蛍光灯の輝度の変化の度合いが異なる状態となる。その結果、各画素ラインの明るさが変化する。これによって、1フレームを構成する画像の垂直方向に、画像の明暗の差が生じ、縞模様のように表示される。この縞模様表示を面内フリッカという。
例えば、図4(c)に示すように、露光秒時が1/100秒であれば、蛍光灯の輝度の変化のサイクルと露光秒時が同期するので、各画素ラインの明るさに差は生じないため、面内フリッカは生じない。
以上のように、面間フリッカや面内フリッカが生じるか否かは、その撮影環境下の輝度の変化の周期と露光秒時の相関によって決定される。そこで、本発明に係る撮像装置は、補助光学系を用いてフリッカ低減処理を行う。以下、本発明に係る撮像装置において実行されるフリッカ低減処理の例について説明をする。
デジタルカメラ1が備える補助光学系16は、主撮像光学系17の撮像制御のために補助的に使用される撮像光学系である。例えば、被写体までの距離を測定する測距処理に用いることができる。また、補助光学系16も撮像素子を備えていることから、主撮像光学系17を用いたモニタリング動作と同程度の画素数で被写体像を取得することができる。
補助光学系16は、主撮像光学系17と同じように、撮像画像を例えば16×16の画素ブロックに分割し、それぞれの画素ブロックに対してAE評価値の算出を行うこともできる。ここで、補助光学系16を用いた撮像処理は、撮像間隔やAE評価値の取得間隔は必ずしも主撮像光学系17と同期する必要はない。
補助光学系16はCPU102において制御されており、主撮像光学系17とは独立した露出制御をすることが可能である。CPU102が必要なときに補助光学系16で得られた撮像画像およびAE評価値を取得することができる。
なお、デジタルカメラ1のLCDモニタ9において表示される画像は、主撮像光学系17で撮像された画像であって、補助光学系16で撮像された画像をLCDモニタ9に表示することはできない。
次に、本発明に係る撮像装置において実行される面内フリッカ低減処理の例について図5のフローチャートを用いて説明する。図5において各処理ステップはS11、S12、S13・・・のように表記する。
画角の変化の有無を判定するために、まず、主撮像光学系17において取得された画像からAE評価値を算出し、このAE評価値から輝度ヒストグラムをフレーム毎に作成する(S11)。
続いて、作成された輝度ヒストグラムの差をフレーム間で算出して、輝度ヒストグラムの変化量を算出する。この変化量が所定の値以上である場合には画角変化があったものと判定する(S12のY)。
画角の変化がないと判定されたときは(S12のN)、処理をS11に戻す。
画角変化があったものと判定された場合(S12のY)は、補助光学系16の露光秒時を、フリッカが発生すると予想される値に設定して、設定された露光秒時に係る1フレームの垂直ラインの輝度データ列を取得する(S13)。ここで設定される露光秒時は、例えば1/200秒とする。また、S13において取得される輝度データ列を、輝度データ1という。
続いて、補助光学系16の露光秒時の設定を、フリッカが発生しない設定にし、設定された露光秒時に係る1フレームの垂直ラインの輝度データ列を取得する(S14)。ここで設定される露光秒時は、例えば1/100秒とする。また、S14において取得される輝度データ列を、輝度データ2という。
輝度データ1と輝度データ2における撮像画像の明るさを同程度とするために、例えば、輝度データ1を取得する際には、輝度データ2を取得する際に比べて、ゲインを2倍かけて、輝度データを取得するものとする。
続いて、輝度データ1と輝度データ2を比較する輝度データ比較処理を行う(S15)。輝度データ比較処理(S15)は、輝度データ2と輝度データ1の差分を算出する処理である。輝度データ1および輝度データ2は、それぞれ1フレームを構成する垂直ラインの輝度データ列の集合であるから、輝度データ1を構成する輝度データ列と、輝度データ2を構成する輝度データ列のそれぞれ対応する輝度データの、差分を算出する。
続いて、算出された輝度データの差分が周期的に増減しているか否かを判定する処理を行う(S16)。周期的に増減していれば面内フリッカが生じていると判定し(S16のY)、フリッカ低減設定処理(S17)を行う。
フリッカ低減設定処理(S17)は、主撮像光学系17の露光秒時を、1/100秒の整数倍に制限して設定する処理である。たとえば、露光秒時を1/100秒に設定する。
輝度データの差分が周期的に増減していなければ(S16のN)、通常設定処理(S18)を行う。通常設定処理(S18)においては、主撮像光学系17の露光時間(露光秒時)を、たとえば、1/200秒に設定する。
以上のように、本実施例に係る撮像装置によれば、補助光学系16を用いて取得した画像に基づいて、面内フリッカが発生する環境下にあるか否かを判定することができ、面内フリッカが発生する環境下であるときは、主撮像光学系17の露光に係る設定をゆっくりした露光秒時として、モニタリング動作に係るLCDモニタ9に表示される画像において、面内フリッカが発生しないようにすることができる。
また、本実施例に係る撮像装置によれば、面内フリッカが発生しない環境下であると判定されたときは、主撮像光学系の露光秒時を高速に設定することができる。
次に、本発明に係る撮像装置において実行される面内フリッカ低減処理の別の例について図6のフローチャートを用いて説明する。図6において各処理ステップはS21、S22、S23・・・のように表記する。
本実施例におけるデジタルカメラ1は、補助光学系16が、図示しない第1補助光学系161と第2補助光学系162の、複数の補助光学系を有してなるものとする。第1補助光学系161と第2補助光学系162は、CPU102によって独立して露光制御されるように構成されており、それぞれ異なる露光秒時において、画像を取得することができる。また、第1補助光学系161と第2補助光学系162が取得した画像はいずれも、LCDモニタ9には出力されないものとする。
まず、画角の変化の有無を判定するために、主撮像光学系17において取得された画像からAE評価値を算出し、このAE評価値から輝度ヒストグラムをフレーム毎に作成する(S21)。
続いて、作成された輝度ヒストグラムの差をフレーム間で算出して、輝度ヒストグラムの変化量を算出する。この変化量が所定の値以上である場合には画角変化があったものと判定する(S22のY)。
画角の変化がないと判定されたときは(S22のN)、処理をS21に戻す。
画角変化があったものと判定された場合(S22のY)は、第1補助光学系161の露光秒時を、フリッカが発生すると予想される値に設定して、設定された露光秒時に係る1フレームの垂直ラインの輝度データ列(輝度データ1)を取得する(S23)。ここで設定される露光秒時は、例えば1/200秒とする。
続いて、第2補助光学系162の露光秒時の設定を、フリッカが発生しない設定にし、設定された露光秒時に係る1フレームの垂直ラインの輝度データ列(輝度データ2)を取得する(S24)。ここで設定される露光秒時は、例えば1/100秒とする。
輝度データ1と輝度データ2における撮像画像の明るさを同程度とするために、例えば、輝度データ1を取得する際には、輝度データ2を取得する際に比べて、ゲインを2倍かけて、輝度データを取得するものとする。
続いて、輝度データ1と輝度データ2を比較する輝度データ比較処理を行う(S25)。輝度データ比較処理(S25)は、輝度データ2と輝度データ1の差分を算出する処理である。輝度データ1および輝度データ2は、それぞれ1フレームを構成する垂直ラインの輝度データ列の集合であるから、輝度データ1を構成する輝度データ列と、輝度データ2を構成する輝度データ列のそれぞれ対応する輝度データの、差分を算出する。
続いて、算出された輝度データの差分が周期的に増減しているか否かを判定する処理を行う(S26)。周期的に増減していれば面内フリッカが生じていると判定し(S26のY)、フリッカ低減設定処理(S27)を行う。
フリッカ低減設定処理(S27)は、主撮像光学系17の露光秒時を、1/100秒の整数倍に制限して設定する処理である。たとえば、露光秒時を1/100秒に設定する。
輝度データの差分が周期的に増減していなければ(S26のN)、通常設定処理(S18)を行う。通常設定処理(S28)においては、主撮像光学系17の露光時間(露光秒時)を、たとえば、1/200秒に設定する。
このように、本実施例に係る撮像装置によれば、第1補助光学系161と第2補助光学系162のそれぞれの露光秒時を、一方は、フリッカが発生する可能性がある設定とし、もう一方はフリッカが発生しにくい設定とすることで、面内フリッカが発生する環境下にあるか否かを的確かつ素早く判定することができ、面内フリッカが発生する環境下であるときは、主撮像光学系17の露光に係る設定をゆっくりした露光秒時として、モニタリング動作に係るLCDモニタ9に表示される画像において、面内フリッカが発生しないようにすることができる。
また、本実施例に係る撮像装置によれば、面内フリッカが発生しない環境下であると判定されたときは、主撮像光学系の露光秒時を高速に設定することができる。
なお、実施例において処理S23と処理S24を並行して同時実行し、輝度データ1と輝度データ2を同時に取得してもよい。
次に、本発明に係る撮像装置において実行される面間フリッカ低減処理の例について図7のフローチャートを用いて説明する。図7において各処理ステップはS31、S32、S33・・・のように表記する。
まず、画角の変化の有無を判定する。本実施例に係るデジタルカメラ1には、図示しない加速度センサが搭載されているものとし、画角検出処理(S31)においては、所定の時間間隔をもってCPU102が加速度センサの出力情報を読み出す処理を行う。
読み出された加速度センサの出力情報によって画角の変化があったか否かを判定する(S32)。画角の変化があったときは(S32のY)、処理をS33に移行し、画角の変化がなかったときは(S32のN)、処理をS31に移行する。
画角変化があったものと判定された場合(S32のY)は、補助光学系16の露光秒時を、フリッカが発生すると予想される値(例えば1/200秒)に設定して、連続するnフレーム分の輝度平均データ群を取得する(S33)。ここでS33において取得される輝度平均データ群を、輝度データ群1という。
続いて、補助光学系16の露光秒時の設定を、フリッカが発生しない値(例えば1/100秒)に設定して、連続するnフレーム分の輝度平均データ群を取得する(S34)。ここで取得される輝度平均データ群を、輝度データ群2という。
輝度群データ1と輝度データ群2における撮像画像の明るさを同程度とするために、例えば、輝度データ群1を取得する際には、輝度データ群2を取得する際に比べて、ゲインを2倍かけて、輝度データを取得するものとする。
続いて、輝度データ群1と輝度データ群2を比較する輝度データ群比較処理を行う(S35)。輝度データ群比較処理(S35)は、輝度データ群2と輝度データ群1のフレームごとの差分を算出する処理である。輝度データ群1および輝度データ群2は、それぞれのデータ群を構成する複数のフレームの集合であるから、輝度データ群1を構成する1のフレームの輝度データ、このフレームに対応する輝度データ群2のフレームの輝度データの差分を算出する。
続いて、算出されたフレームごとの輝度データの差分が周期的に増減しているか否かを判定する処理を行う(S36)。周期的に増減していれば面間フリッカが生じていると判定し(S36のY)、フリッカ低減設定処理(S37)を行う。
フリッカ低減設定処理(S37)は、主撮像光学系17の露光秒時を、1/100秒の整数倍に制限して設定する処理である。たとえば、露光秒時を1/100秒に設定する。
輝度データの差分が周期的に増減していなければ(S36のN)、通常設定処理(S38)を行う。通常設定処理(S38)においては、主撮像光学系17の露光時間(露光秒時)を、たとえば、1/200秒に設定する。
以上のように、本実施例に係る撮像装置によれば、補助光学系16を用いて取得した画像に基づいて、面間フリッカが発生する環境下にあるか否かを判定することができ、面間フリッカが発生する環境下であるときは、主撮像光学系17の露光に係る設定をゆっくりした露光秒時として、モニタリング動作に係るLCDモニタ9に表示される画像において、面間フリッカが発生しないようにすることができる。
また、本実施例に係る撮像装置によれば、面間フリッカが発生しない環境下であると判定されたときは、主撮像光学系の露光秒時を高速に設定することができる。
次に、本発明に係る撮像装置において実行される面間フリッカ低減処理の別の例について図8のフローチャートを用いて説明する。図8において各処理ステップはS41、S42、S43・・・のように表記する。
本実施例におけるデジタルカメラ1は、補助光学系16が、図示しない第1補助光学系161と第2補助光学系162の、複数の補助光学系を有してなるものとする。第1補助光学系161と第2補助光学系162は、CPU102によって独立して露光制御されるように構成されており、それぞれ異なる露光秒時において、画像を取得することができる。また、第1補助光学系161と第2補助光学系162が取得した画像はいずれも、LCDモニタ9には出力されないものとする。
まず、画角の変化の有無を判定する。本実施例に係るデジタルカメラ1には、図示しない加速度センサが搭載されているものとし、画角検出処理(S41)においては、所定の時間間隔をもってCPU102が加速度センサの出力情報を読み出す処理を行う。
読み出された加速度センサの出力情報によって画角の変化があったか否かを判定する(S42)。画角の変化があったときは(S42のY)、処理をS43に移行し、画角の変化がなかったときは(S42のN)、処理をS41に移行する。
画角判定処理(S42)に用いる加速度センサの出力情報の例について、図10を用いて説明する。図10は、横軸をモニタリング処理におけるAE処理サイクル、縦軸を加速度センサの出力情報(値)とするグラフの例である。図10に示すように、グラフG2において、所定の閾値R2を超えているa2点、b2点、c2点において画角判定処理(S42)が実行されると、画角に変化があったと判定される。
画角変化があったものと判定された場合(S42のY)は、第1補助光学系161の露光秒時を、フリッカが発生すると予想される値(例えば1/200秒)に設定して、連続するnフレーム分の輝度平均データ群(輝度データ群1)を取得する(S43)。
次に、第2補助光学系162の露光秒時の設定を、フリッカが発生しない値(例えば1/100秒)に設定して、連続するnフレーム分の輝度平均データ群(輝度データ群2)を取得する(S34)。
輝度群データ1と輝度データ群2における撮像画像の明るさを同程度とするために、例えば、輝度データ群1を取得する際には、輝度データ群2を取得する際に比べて、ゲインを2倍かけて、輝度データを取得するものとする。
次に、輝度データ群1と輝度データ群2を比較する輝度データ群比較処理を行う(S45)。輝度データ群比較処理(S45)は、輝度データ群2と輝度データ群1のフレームごとの差分を算出する処理である。輝度データ群1および輝度データ群2は、それぞれのデータ群を構成する複数のフレームの集合であるから、輝度データ群1を構成する1のフレームの輝度データと、このフレームに対応する輝輝度データ群2のフレームの輝度データの差分を算出する。
次に、算出されたフレームごとの輝度データの差分が周期的に増減しているか否かを判定する処理を行う(S46)。周期的に増減していれば面間フリッカが生じていると判定し(S46のY)、フリッカ低減設定処理(S47)を行う。
フリッカ低減設定処理(S47)は、主撮像光学系17の露光秒時を、1/100秒の整数倍に制限して設定する処理である。たとえば、露光秒時を1/100秒に設定する。
輝度データの差分が周期的に増減していなければ(S46のN)、通常設定処理(S48)を行う。通常設定処理(S48)においては、主撮像光学系17の露光時間(露光秒時)を、たとえば、1/200秒に設定する。
以上のように、本実施例に係る撮像装置によれば、第1補助光学系161と第2補助光学系162のそれぞれの露光秒時を、一方は、フリッカが発生する可能性がある設定とし、もう一方はフリッカが発生しにくい設定とすることで、面間フリッカが発生する環境下にあるか否かを的確かつ素早く判定することができ、面間フリッカが発生する環境下であるときは、主撮像光学系17の露光に係る設定をゆっくりした露光秒時として、モニタリング動作に係るLCDモニタ9に表示される画像において、面間フリッカが発生しないようにすることができる。
また、本実施例に係る撮像装置によれば、面間フリッカが発生しない環境下であると判定されたときは、主撮像光学系の露光秒時を高速に設定することができる。
なお、実施例において処理43と処理S44を並行して同時実行し、輝度データ群1と輝度データ群2を同時に取得してもよい。
以上の実施例においては、補助光学系の露光設定を、フリッカが生じる可能性が高い設定(第1設定)において取得した第1補助画像情報と、フリッカが生じない可能性が高い設定(第2設定)において取得した第2補助画像情報と、を用いてフリッカの発生の有無を判定したが、本発明に係る撮像装置に係るフリッカの判定において、主撮像光学系が連続的に取得した主画像情報を用いてもよい。
この場合、連続して取得された主画像情報の輝度データを所定のタイミングで連続して算出し、複数の輝度データ間の変動幅を算出し、輝度データの変動幅が所定の閾値よりも高ければフリッカが生じると判定すればよい。
図9は、横軸をモニタリング処理におけるAE処理サイクル、縦軸を前フレームのからの輝度データの変化量とするグラフの例である。図9に示すように、グラフG1において、所定の閾値R1を超えているa1点、b1点、c1点においてフリッカ判定処理を実行すると、フリッカが生じていると判定される。
フリッカが生じていると判定された場合、それまで設定されていた露光秒時よりも遅い露光秒時を主撮像光学系に設定すればよい。
以上のように、本発明に係る撮像装置によれば、主撮像光学系と同じように被写体画像を取得することができる補助光学系を用いて、異なる露光秒時において画像を取得し、フリッカが生じる環境下にあるか否かを判定し、フリッカが生じる環境下にあれば、主撮像光学系の露光時間を遅くしてモニタリング動作に係る画像表示において、フリッカが生じないようにすることができる。また、フリッカが生じない環境にあれば主撮像光学系の露光時間を早くして、モニタリング動作に係る画像表示をよりなめらかなものにすることができる。