図1(A)に示される如く、撮影装置としてのデジタルカメラ10の正面には、被写体像を結像させるためのレンズ12Lを備えた鏡筒12が備えられており、上面には、撮像(撮影)を実行する際にユーザーによって押圧操作されるレリーズボタン(所謂シャッター)14と、電源スイッチ16と、が備えられている。
なお、本実施の形態に係るレリーズボタン14は、中間位置まで押下される状態(以下、「半押し状態」、又は「S1オン状態」という。)と、当該中間位置を超えた最終押下位置まで押下される状態(以下、「全押し状態」又は「S2オン状態」という。)と、の2段階の押圧操作が検出可能に構成されている。
デジタルカメラ10は、レリーズボタン14を前記半押し状態にすることによりAE(Automatic Exposure、自動露出)機能が働いて露出状態(シャッタースピード、絞りの状態)が設定された後、AF(Auto Focus、自動合焦)機能が働いて合焦制御され、その後、引き続き、前記全押し状態にすると撮影(撮像)が可能に構成されている。なお、露出等の撮影条件は自動制御だけでなく、ユーザーにより手動で設定可能に構成されている。
一方、図1(B)に示される如く、デジタルカメラ10の背面には、オプチカルビューファインダー(以下、[OVF」という)と、エレクトリカルビューファインダー(以下、「EVF」という)とが併用された接眼部18が設けられている。EVFとOVFについての詳細は後述する。なお、接眼部18に対向するように、デジタルカメラ10の正面(図1(A)参照)には、対物レンズ20が設けられている。
また、デジタルカメラ10の背面には、撮影によって得られたデジタル画像データにより示される被写体像や各種メニュー画面、メッセージ等を表示するための背面LCD22と、撮影を行なうモードである撮影モード及び撮影によって得られたデジタル画像データにより示される被写体像を背面LCD22に表示(再生)するモードである再生モードのいずれかのモードに設定するために操作されるモード切替スイッチ24と、背面LCD22の表示領域における上下左右の4方向の移動方向を示す4つの矢印キー及び当該4つの矢印キーの中央部に位置された決定キーの合計5つのキーを含んで構成された十字カーソルボタン26と、が備えられている。なお、入力操作系は、前記モード切替スイッチ24、十字カーソルボタン26に限定されるものではなく、背面LCD22にタッチパネル22TP(図2参照)機能を持たせるようにしてもよい。従って、必要に応じて全ての入力操作系を総称する場合、「操作部28(図2参照)」と呼ぶ場合がある。
図2には、デジタルカメラ10における内部の光路構成と、撮像画像の処理を行なう制御のハード資源である制御ブロック図とが示されている。
前記鏡筒12のレンズ12Lから入射した光は、撮像素子(本実施の形態ではCCD30であるが、CMOS等でもよい)で受光され、電気信号に変換されるようになっている。入射光に応じた電気信号は、メインコントローラ32に入力され、各種処理が実行される。メインコントローラ32には、鏡筒駆動ドライバ34が接続されており、鏡筒12を光軸方向に移動させ、撮影倍率や焦点距離を変更するようになっている。なお、CCD30にはシャッター装置が設けられ、該シャッター装置のシャッタースピードを制御することによりCCD30の電荷の蓄積時間を制御することもできる。
また、メインコントローラ32には、LCDI/F36を介して、前記背面LCD22が接続されると共に、モード切替スイッチ24や十字カーソルボタン26を含む操作部28が接続されている(背面LCD22がタッチパネル機能を備える場合は、このタッチパネル22TPも含むものとする)。
更に、メインコントローラ32には、外部メモリI/F38(リーダ/ライタ兼用)が接続され、この外部メモリI/F38に装填されるメモリカード40へ画像データを記録したり、メモリカード40から画像データを取得する。
ここで、本実施の形態では、メインコントローラ32に、EVF及びOVFの併用ファインダー(ハイブリッドビューファインダー、以下HVFという)を実現するために、LCDI/F42を介して表示部としてEVFLCD44が接続されると共に、遮光部としてのファインダーシャッター46が接続されている。ファインダーシャッター46は、OVF画像(光学画像)を接眼部18へ案内するときは開放され、EVF画像(電子画像)のみを接眼部18へ案内するときに閉止される。
このファインダーシャッター46は、液晶シャッターであって、縦横に配列された画素単位で開閉可能であるが、所謂メカニカルなシャッターであってもよい。メカニカルなシャッターの場合は、接眼部18からの見える画像は、四方の辺の一つから徐々に遮光膜が出没する構成となっている。
すなわち、図2に示される如く、デジタルカメラ10の内部において、光学的に対物レンズ20を介して入射された被写体画像(OVF画像)の光路48、表示部としてのEVFLCD44に表示された画像(EVF画像)の光路50は、前記接眼部18の手前でハーフミラー52によって一致される(同軸)ようになっている。このため、ファインダーがOVF及びEVFを併用したHFVとなっている場合には、ユーザーが接眼部18を覗くと、OVF画像とEVF画像の双方を見ることが可能となっている。なお、本実施の形態では、デフォルト設定として、EVFLCD44の表示はオフとし、OVF画像のみで撮影するようになっている。
また、本実施の形態に係るデジタルカメラ10では、EVFLCD44として発光ダイオード式バックライト(以下、「LED式バックライト」という。)を備えたLCDが適用され、前記背面LCD22として光電管式バックライトを備えたLCDが適用されているが、これに限定されるものではない。
次に、図3を参照して、本実施の形態に係るデジタルカメラ10における、主として撮像処理制御系の構成を説明する。
デジタルカメラ10は、前述のレンズ12Lを含んで構成され、鏡筒駆動ドライバ34によって光軸方向へ移動する鏡筒12と、鏡筒12の光軸後方に配設されたCCD30と、相関二重サンプリング回路(以下、「CDS」という。)を含んで構成されたアナログ信号処理部54と、入力されたアナログ信号をデジタルデータに変換するアナログ/デジタル変換器(以下、「ADC」という。)56と、所定容量のラインバッファを内蔵し、かつ入力されたデジタル画像データを後述するメモリ58の所定領域に直接記憶させる制御を行なうと共に、デジタル画像データに対して各種の画像処理を行なうデジタル信号処理部60と、を含んで構成されている。
ここで、アナログ信号処理部54のCDSによる相関二重サンプリング処理は、固体撮像素子の出力信号に含まれるノイズ(特に熱雑音)等を軽減することを目的として、固体撮像素子の1画素毎の出力信号に含まれるフィードスルー成分レベルと画素信号成分レベルとの差をとることにより正確な画素データを得る処理である。
一方、デジタルカメラ10は、デジタル画像データにより示される画像やメニュー画面等を背面LCD22に表示させるための信号を生成して背面LCD22に供給するLCDI/F36と、デジタル画像データにより示される画像やメニュー画面等をEVFLCD44に表示させるための信号を生成してEVFLCD44に供給するLCDI/F42と、デジタルカメラ10全体の動作を司るCPU(中央処理装置)66と、主として撮影により得られたデジタル画像データを記憶するVRAM(Video RAM)により構成されたメモリ58と、スマートメディア(Smart Media(登録商標))により構成されたメモリカード40をデジタルカメラ10でアクセス可能とするための外部メモリI/F38と、所定の圧縮形式でデジタル画像データに対して圧縮処理を施す一方、圧縮処理されたデジタル画像データに対して圧縮形式に応じた伸張処理を施す圧縮・伸張処理回路68と、を含んで構成されている。
また、デジタルカメラ10には、デジタル信号処理部60により画像処理されたデジタル画像データに基づいて、被写体(本実施の形態では人物の顔)の位置を検出する顔検出部74と、レンズ12Lから被写体までの距離を測定する測距部76とが備えられている。
なお、顔検出部74の顔検出は、公知の方法を用いて行なう。例えば、予め人の肌色に対応する、後述する色差信号(クロマ信号)の範囲を決定しておき、撮像画像情報の各画素の色差信号が、当該範囲内にあるか否かを判定することにより肌色の領域の有無を判定し、撮像画像情報により示される被写体に対する肌色を有する領域の割合が予め定められた大きさ以上であれば、当該肌色を有する領域を肌色領域として抽出する。次いで、抽出した肌色領域内の予め定められた位置範囲内に目、鼻、口、眉などの肌色でないパターンが含まれるか否かを判定し、これらのパターンが含まれている場合に、該肌色領域を顔の領域であるものと判定する。また、色相や彩度の2次元ヒストグラムからクラスターを求め、クラスターの内部構造、形状、接続する外部構造から顔を判定する方法などを利用しても良い。
メモリ58、デジタル信号処理部60、LCDI/F36、42、CPU66、外部メモリI/F38、圧縮・伸張処理回路68、顔検出部74、及び測距部76はシステムバス70を介して相互に接続されている。従って、CPU66は、デジタル信号処理部60、圧縮・伸張処理回路68、顔検出部74、及び測距部76の作動の制御、背面LCD22及びEVFLCD44に対する各種情報の表示、メモリ58及びメモリカード40へのアクセスを行なうことができる。
一方、デジタルカメラ10には、主としてCCD30を駆動させるためのタイミング信号を生成してCCD30に供給するタイミングジェネレータ72が備えられており、CCD30の駆動はCPU66によりタイミングジェネレータ66を介して制御される。
CPU66は、CCD30による撮像によって得られた画像のコントラスト値が最大となるように合焦制御を行なう(TTL「Through The Lens」方式)。
なお、図3の破線で囲まれた各構成要素が、メモリコントローラ32を構成する構成要素である。ところで、ここでは図示を省略したが、デジタルカメラ10には、メインコントローラ32により絞り径の調整が可能な絞り機構がレンズ12Lに対して設けられている。撮影条件の1つである露出は、絞り機構や上記CCD30のシャッタースピードにより調整される。また、撮影条件として、絞りや被写界深度を調整する場合には、絞り機構が調整される。また、ホワイトバランスを調整する場合には、画像処理を行なうデジタル信号処理部60が制御される。メインコントローラ32は、設定された撮影条件が反映された撮影がなされるように、該設定に応じて、絞り機構やCCDのシャッタースピード、ホワイトバランス調整のためのゲイン等を制御する。なお、デジタルカメラ10の撮影条件は、予め定められた記憶部(例えばメモリ58など)に記憶され上記各種制御に用いられる。撮影条件を変更するときは該記憶されている撮影条件を変更する。
以下に本実施の形態の作用を説明する。
(通常の撮像/再生動作)
デジタルカメラ10が、撮像モードに切り替えられている場合、鏡筒12内のレンズ12Lを介した撮像によってCCD30から出力された被写体像を示す信号は順次アナログ信号処理部54に入力されて相関二重サンプリング処理等のアナログ信号処理が施された後にADC56に入力され、ADC56は、アナログ信号処理部54から入力されたR(赤)、G(緑)、B(青)の信号を各々8〜12ビットのR、G、B信号(デジタル画像データ)に変換してデジタル信号処理部30に出力する。
デジタル信号処理部60は、ラインバッファにADC56から順次入力されるデジタル画像データを蓄積して一旦メモリ58の所定領域に格納する。
メモリ58の所定領域に格納されたデジタル画像データは、CPU66による制御下でデジタル信号処理部60によって読み出され、これらに所定の物理量に応じたデジタルゲインをかけることでホワイトバランス調整を行なうと共に、ガンマ処理及びシャープネス処理を行なって8ビットのデジタル画像データを生成し、更にYC信号処理を施して輝度信号Yとクロマ信号Cr、Cb(以下、「YC信号」という。)を生成し、YC信号をメモリ58の上記所定領域とは異なる領域に格納する。
なお、本実施の形態に係る背面LCD22は、CCD30による連続的な撮像によって得られた動画像(スルー画像、或いはスルー画ともいう。)を表示してファインダーとして使用することができるものとして構成されているが、このように背面LCD22をファインダーとして使用する場合には、生成したYC信号(映像信号)を、LCDI/F62を介して順次背面LCD22に出力する。これによって背面LCD22にスルー画像が表示されることになる。これは、EVFLCD44においても同様である。
ここで、レリーズボタン14がユーザーによって半押し状態(S1)とされた場合、前述のようにAE機能が働いて露出状態が設定された後、AF機能が働いて合焦制御され、その後、引き続き全押し状態(S2)とされた場合、この時点でメモリ58に格納されているYC信号を、圧縮・伸張処理回路68によって所定の圧縮形式(本実施の形態では、JPEG形式)で圧縮した後に外部メモリI/F38を介してメモリカード40に記録することによって、撮影が行われる。
一方、メモリカード40(又はメモリ66)に記憶された画像データは、背面LCD22(又は、EVFLCD44)に表示させることができる。すなわち、デジタルカメラ11を、撮像モードから再生モードに切り替えると、背面LCD22(EVFLCD44)は、前述のようなスルー画像ではなく、既にメモリカード40(又はメモリ66)に記憶された画像データを読み出して表示する。この表示は背面LCD22(EVFLCD44)の表示領域に1枚分の画像を表示することを基準として、2枚以上、或いは1枚の画像のトリミング画像を操作部28の操作によって表示させることができる。
(ファインダーの表示モードの切り替え)
本実施の形態に係るデジタルカメラ10において、接眼部18にOVF画像を表示する場合(OVF表示モードという)には、メインコントローラ32は、ファインダーシャッター46を制御して開放状態にし、対物レンズ20の光路48を遮光しないようにする。また、EVFLCD44をオフ状態にして、EVF画像が接眼部18に表示されないように制御する。
また、接眼部18にEVF画像を表示する場合(EVF表示モードという)には、メインコントローラ32は、ファインダーシャッター46を制御して閉止状態にし、対物レンズ20の光路48を遮光する。また、EVFLCD44をオン状態にして、EVF画像が接眼部18に表示されるように制御する。
また、接眼部18にOVF画像及びEVF画像を同時に表示、すなわち重畳して表示する場合(HVF表示モードという)には、メインコントローラ32は、ファインダーシャッター46を制御して開放状態にし、対物レンズ20の光路48を遮光しないようにすると共に、EVFLCD44をオン状態にして、OVF画像及びEVF画像の双方が接眼部18に表示(すなわち、OVF画像とEVF画像が合成された合成画像が表示)されるように制御する。
(撮影設定の変更)
本実施の形態に係るデジタルカメラ10は、シーン認識機能を備えている。シーン認識機能は、画像信号や輝度値に基づいて撮影シーン(例えば、人物、風景、夜景、接写など)を認識し、該認識されたシーンに応じて自動的に撮影設定を変更する機能である。なお、撮影シーンをユーザーが手動で設定することも可能である。なお、撮影シーンを自動で認識する場合及び手動で設定する場合のいずれにおいても、撮影シーンに応じて撮影条件の設定(露出、WB、或いは絞りの少なくとも1つを含むものとする)が変更されるため、極端に露出、WB、或いは絞りが変更されることもある。更にまた、ユーザー自身が、露出やホワイトバランス(WB)、或いは絞りを個別に調整することもできる。これにより、ユーザーは、露出やWB、絞り等を設定可能な範囲内で自由に設定することができる。以下、撮影条件の設定を、単に撮影設定という場合もある。
このシーン認識は、メインコントローラ32により行われる。
なお、露出やWB等の撮影設定が変更されると、デジタル信号処理部60により該撮影設定の変更に応じた画像処理が施されたデジタル画像データが生成されるため、表示されるEVF画像は撮影効果が反映されたものとなる。従って、ユーザーは、接眼部18にEVF画像が表示されている場合には、撮影設定が変更されたときの撮影効果を把握することができる。また、背面LCD22をファインダーとして使用している場合も同様に、該撮影設定の変更が反映されたEVF画像が表示される。一方、OVF画像には、撮影設定の変更は反映されないため、接眼部18にOVF画像のみが表示されている状態では、露出の設定や、ホワイトバランス(WB)の設定や、絞り(被写界深度)の設定等の撮影設定が変更された場合には、ユーザーは設定変更の効果を把握できない(画像に反映されない)。OVF表示モード中に該効果を確認するためには、従来の技術では、EVF表示モードに切り替えたり、背面LCD22にEVF画像を表示させるようにする等の切り替えが必要となるが、これらの切り替えを行なうことは、撮影までのタイムラグを発生させ、OVF表示モードによる動作の即時性が損なってしまうこととなる。
(表示切替制御処理)
そこで、本実施の形態では、OVF表示モード中に撮影設定が変更された場合には、設定変更から予め定められた時間が経過するまでHVF表示モードに切り替えて、該設定変更に応じて画像処理が施されたEVF画像(図4(B)も参照。)をOVF画像(図4(A)も参照。)に重畳させた合成画像(HVF画像ともいう。図4(C)も参照。)を接眼部18に表示させるようにする。
図5は、表示切替制御処理の流れの一例を示すフローチャートである。なお、表示切替制御処理のプログラムは、メインコントローラ32のCPU66により実行されるプログラムの1つとして、不図示の記憶部に記憶されている。
ステップ100では、撮影設定の変更を行なう。なお、この撮影設定は、露出の設定、WBの設定、及び絞り(被写界深度)の設定の少なくとも1つを含む。
ステップ102では、現在の表示状態を判断する。現在の表示状態が、OVF表示モードである場合には、ステップ104に進む。
ステップ104では、EVF/OVF同時表示を行なうモード、すなわちHVF表示モードに切り替える。これにより、図4(C)に示すように、上記撮影設定の変更内容が反映されたEVF画像とOVF画像とが重畳された合成画像が接眼部18に表示される。
ステップ106では、HVF表示モードに切替えてから所定時間が経過したか否かを判断する。所定時間が経過するまでは、HVF表示モードを継続し、所定時間が経過したときには、ステップ108に進み、EVF/OVF同時表示を行なうモード、すなわちHVF表示モードを解除し、OVF表示モードに切り替える。これにより、接眼部18の表示状態は、図4(A)に示すようにOVF画像のみが表示された状態となる。
一方、ステップ102で、現在の表示状態が、EVF表示モードである場合、或いは、背面LCD22にEVF画像が表示されている場合には、ステップ104〜ステップ108を行なわずに表示切替制御処理を終了する。
このように、本実施の形態では、撮影設定の変更時に一定時間自動でHVF画像を表示し、その後HFV表示をオフする(OVF表示に戻す)制御を行なうことで、OVF使用時に撮影設定の変更が行われた場合でも、OVFの使用感(即時性)を損なうことなく、リアルタイムに撮影効果をユーザーに提示することが可能となる。
なお、このHVF表示モード中に、ユーザーが操作部28を操作することにより、所定時間が経過する前に、OVF表示モードに復帰させることが可能に構成してもよい。また、OVF表示モードに切り替えた後に、露出の設定値、WBの設定値、及び絞りの設定値の少なくとも1つが、該切り替え時の値から予め定められた閾値以上変更された場合に、ステップ104でHVF表示モードに切り替えるようにしてもよい。
ところで、OVF画像にEVF画像を単純に重ねただけでは、OVF画像とEVF画像とで二重像となるため、露出など撮影設定効果は確認できるが視認性の悪い状態になってしまうこともある(図6(A)も参照)。
そこで、OVF画像の全面にEVF画像の全面を重ねるのではなく、図6(B)に示すように、EVF画像を縮小し、該縮小画像をOVF画像の縁辺に配置するようにしてもよい。これにより、OVF画像の見た目を損なわずリアルタイムに撮影設定状態をユーザーに提示することができる。以下、HVF表示モードにおいて、このようにEVF画像の縮小画像を重畳する表示方法をEVF縮小表示という。
なお、ユーザーの設定によらず、シーン認識機能により撮影シーンを自動的に認識したときの認識結果をそのまま用いて撮影設定を変更して撮影する場合もあるが、ユーザーが該認識結果を最終的に承認して設定する(確定する)か或いはキャンセルするかの操作入力を可能に構成した場合には、ユーザーが撮影シーンの認識結果を確定するまでシーン認識を継続することができる。
このような撮影設定の変更課程において、撮影シーンの認識結果が確定していない期間は、図6(B)に示すように、EVF画像の縮小画像をOVF画像に重畳させて表示させ、撮影シーンの認識結果が確定した時に、図6(C)に示すように、OVF画像の左半分或いは右半分の領域を重畳領域として、EVF画像から該重畳領域に対応する画像部分を縮小せずに該重畳領域に重ねて表示してもよい。以下、HVF表示モードにおいて、このようにOVF画像の半面にEVF画像の半面を重畳する表示方法をEVF半面表示という。ここで、図6(C)では、OVF画像の左半分にEVF画像を重畳させているが、前述したように、EVF画像を重畳する重畳領域は、OVF画像の右半分でもよい。また、該重畳領域は、上半分であってもよいし、下半分であってもよい。
なお、確定前の段階であっても、EVF半面表示を行なうようにしてもよい。これにより、EVF縮小表示における縮小されたEVF画像だけでは確認できない細部のイメージまでユーザーに伝えることができ、OVF画像とEVF画像を比較しながらの撮影を行なうことが可能となる。以下、図7を参照して説明する。
図7は、シーン認識機能実行時の表示切替制御処理の流れの一例を示すフローチャートである。なお、以下では、シーン認識機能によってシーン認識結果が出ることを「シーン確定」といい、ユーザーによって該認識結果が承認されて撮影シーンが設定される「確定」とは区別して説明する。
ステップ200では、シーン認識機能によりシーン認識が開始される。シーン認識機能による認識結果に応じて撮影設定の変更が行われる。
ステップ202では、現在の表示状態を判断する。現在の表示状態が、OVF表示モードである場合には、ステップ204に進む。
ステップ104では、EVF/OVF同時表示を行なうモード、すなわちHVF表示モードに切り替える。なお、このとき、EVF画像を示すデジタル画像データに縮小処理を施し、EVF画像を縮小した縮小画像をOVF画像の端部に重ねて表示させて、EVF縮小表示状態にする。
なお、シーン確定するまでは、シーン認識動作が継続される(ステップ206、208)。ステップ208で、シーン確定した後は、撮影条件を該シーン確定した撮影シーンに応じた撮影条件に変更し、該変更の効果が反映されたEVF画像を表示する。次に、ステップ210で、ユーザーが、操作部28を介して設定変更を入力した(ユーザーが認識結果を確定せずにキャンセルして、再度シーン認識させる指示が入力された)か否かを判断する。ここで、設定変更が入力されたと判断した場合には、ステップ212に進み、設定変更を行い(すなわち、認識結果をキャンセルし)、ステップ206に戻って、再度シーン認識を行なう。なお、ユーザーにより認識結果が確定されるまでは、EVF縮小表示が継続される。
一方、ステップ210で、設定変更が入力されなかった、すなわち、シーン認識機能による認識結果をユーザーが確定した場合には、ステップ216に進む。
ステップ214では、EVF縮小表示からEVF半面表示に切り替える。
ステップ216では、S1がON状態とされたか否かを判断する。ステップ216で否定判断した場合には、ステップ218に進む。
ステップ218では、EVF半面表示を開始してから所定時間が経過したか否かを判断する。所定時間が経過するまでは、EVF半面表示のHVF表示モードを継続し、所定時間が経過したときには、ステップ220に進み、EVF半面表示のHVF表示モードを解除し、OVF表示モードに切り替える。
一方、ステップ216で肯定判断した場合には、ステップ218をスキップして、ステップ220に進み、EVF半面表示のHVF表示モードを解除し、OVF表示モードに切り替える。
また、ステップ204で、現在の表示状態が、EVF表示モードである場合、或いは、背面LCD22にEVF画像が表示されている場合には、ステップ222に進み、すなわち、EVF画像が接眼部18或いは背面LCD22に表示されるように制御する通常の処理が行われる。
このように、シーン認識結果が確定するまでの通常状態ではEVF縮小表示を行い、シーン認識結果が確定した後は、EVF半面表示に切り替え、S1がONされたことによるEVF半面表示の解除、或いは一定時間経過後の解除を行なう。これにより、ユーザーがOVF画像から目を離して、EVF表示モードへの切り替えを行なうことなく、撮影時の設定を確認することが可能となり、HVFに適したシーン認識の提示と迅速な撮影とが可能となる。
なお、ここでは、撮影シーンを認識した結果が確定していない期間は、EVF縮小表示とし、撮影シーン確定時に、EVF半面表示に切り替える例について説明したが、これに限定されない。
例えば、シーン認識機能により撮影設定を変更するのではなく、ユーザー自身が操作部28を操作して直接撮影設定の変更を行なう場合には、例えば露出等の値を変化させている期間(すなわち撮影設定が確定する前の段階)は、EVF縮小表示とし、ユーザーが操作部28の確定ボタンなどを押下することにより、露出、WB等の撮影設定を確定させたときに、EVF半面表示に切り替えるようにしてもよい。
また、撮影シーンの確定などによらず、撮影設定の変更を行なう際には、常にEVF半面表示で表示するようにしてもよい。また、S1がON状態になったことにより、EVF半面表示を解除してOVF表示モードに切り替わる例について説明したが、操作部28のレリーズボタン14以外のスイッチやボタンを操作することで、EVF半面表示を解除してOVF表示モードに切り替わるようにしてもよい。
以上説明したように、OVF画像上にEVF画像を部分的に配置することで、OVF画像とEVF画像の重ね合わせによる全体的な視認性の悪化を最小限に抑え、OVFの即時性を維持したまま、シーン認識、露出、WBなどの撮影効果が確認できるようになる。
ところで、EVF画像とOVF画像とを透過同時表示するHVF表示モードでは、上記の二重像の問題の他に、明るすぎる環境や、暗すぎる環境では正確なWBや露出が判断しづらいことがある。具体的には、図8の下段に示すように、環境の明るさに応じたOVF画像の輝度が中輝度となる場合には、EVF画像が外光(OVF画像)に対して弱すぎる(輝度が低すぎる)こともなく、見えやすいためHVF表示モードによる撮影設定の効果はわかりやすいが、図8の上段に示すように、例えば、環境の明るさが明るすぎる(OVF画像の輝度が高すぎる)場合には、EVF画像が外光に対して弱すぎ(輝度が低すぎ)、撮影設定の効果がわかりにくくなることがある。また、環境が暗すぎる(輝度が低すぎる)場合も同様である。
そこで、このような環境による見えにくさ改善のため、EVF画像の輝度を視認性が向上するように調整して表示するようにしてもよい。具体的には、例えば、シーン認識機能による認識結果は、通常、環境の明るさに応じたものとなるため、予め撮影シーン毎に視認性が向上するEVF画像の輝度の値をデジタルカメラ10に登録しておき、シーン認識結果に応じてEVF画像の輝度を変更するようにしてもよい。以下、図9を参照して説明する。
図9は、EVF画像の輝度を調整して表示制御する表示制御処理の流れの一例を示すフローチャートである。なお、撮影シーン毎にEVF画像の目標輝度が、撮影シーン毎に予めデジタルカメラ10の記憶部(ここでは不図示)に記憶(登録)されているものとする。以下、EVF画像の目標輝度を登録輝度と呼称する。
ステップ300では、シーン認識機能によるシーン認識結果を取得する。ステップ302では、EVF画像の表示輝度を取得する。
ステップ304では、上記取得したEVF画像の表示輝度と、シーン認識結果が示す撮影シーンにおけるEVF画像の目標輝度として予め記憶されている登録輝度(以下、シーン認識時の登録輝度と呼称する)とを比較する。
ステップ306では、ステップ304の比較結果に基づいて、EVF画像の輝度を調整する必要があるか否かを判断する。例えば、EVF画像の表示輝度と、シーン認識時の登録輝度との差分が予め定められた閾値を超えている場合には、EVF画像の輝度を調整する必要があると判断し、該差分が閾値以下の場合には、EVF画像の輝度を調整する必要がないと判断してもよい。ステップ306で、EVF画像の輝度を調整する必要があると判断した場合には、ステップ308で、デジタル信号処理部60を制御して、EVF画像の輝度が該登録輝度となるように画像処理を実行させ、EVF画像の輝度を調整する。
そして、HVF表示モードでは、当該調整されたEVF画像が表示されるように制御する(図5のステップ104、図7のステップ204、ステップ214も参照)。
なお、ここでは、シーン認識結果が示す撮影シーンに応じてEVF画像の輝度を調整するようにしたが、シーン認識結果の代わりに環境の明るさを取得して、環境の明るさに応じてEVF画像の視認性が向上するようEVF画像の輝度を調整するようにしてもよい。
また、ここでは、EVF画像の輝度を調整するようにしたが、対物レンズ20とファインダーシャッター46との間に、光量を制限するNDフィルターを移動可能に設け、該NDフィルターによりOVF画像の輝度を調整するようにしてもよい。
以上説明したように、EVF画像の輝度を調整することで、環境による見えにくさの改善を図ることができるが、図10に示すように、環境の明るさの変動範囲は、EVF画像の輝度の調整可能範囲よりも広いため、EVF画像の輝度と外光(環境の明るさ)との差がある程度大きくなると、輝度調整だけでは改善されないことがある。
そこで、このような場合にはEVF画像の輝度調整だけでなく、ファインダーシャッター46におけるEVF画像の表示範囲に対応する部分を閉じる物理的な制御を行なうことで、EVF画像の下地となる外光(OVF画像)を遮り、EVF画像の見えにくさを改善を行なうようにしてもよい。以下、図11を参照して説明する。
図11は、EVF画像の輝度を調整すると共にファインダーシャッター46の開閉を制御する表示制御処理の流れの一例を示すフローチャートである。
ステップ400では、シーン認識機能によるシーン認識結果を取得する。ステップ402では、EVF画像(シーン認識結果に応じた撮影設定が反映されている画像)の表示輝度を取得する。
ステップ404では、デジタル信号処理部60により撮影設定に応じた画像処理が施される前のスルー画から撮影環境の明るさを示す値を取得する。なお、ここではスルー画に基づいて環境の明るさを示す値を取得する場合を例に挙げて説明したが、デジタルカメラ10に被写体の光量を測定する測光部を別途設け、該光量から環境の明るさを検出して取得するようにしてもよい。
ステップ406では、撮影環境の明るさとEVF画像の表示輝度とを比較する。なお、ここで、撮影環境の明るさに応じて定まるOVF画像の輝度と、EVF画像の表示輝度とを比較するようにしてもよい。
ステップ408では、ステップ406の比較結果に基づいて、EVF画像の輝度を調整する必要があるか否かを判断する。例えば、撮影環境の明るさに応じて定まるOVF画像の輝度と、EVF画像の表示輝度との差分が予め定められた閾値を超えている場合には、EVF画像の輝度を調整する必要があると判断し、該差分が閾値以下の場合には、EVF画像の輝度を調整する必要がないと判断してもよい。
ステップ408で、EVF画像の輝度を調整する必要がないと判断した場合には、EVF画像の輝度調整やファインダーシャッター制御は行われない。
一方、ステップ408で、EVF画像の輝度を調整する必要があると判断した場合には、ステップ410で、EVF画像の輝度の調整で環境の明るさに追従できるか否かを判断する。ここで、追従可能とは、撮影環境の明るさに対してEVF画像の輝度調整でEVF画像の視認性を向上させることが可能となることをいう。
ステップ410で、追従可能と判断した場合には、ステップ412に進む。ステップ412では、撮影環境の明るさに応じてEVF画像の輝度が視認性が向上する輝度となるようにデジタル信号処理部60を制御して画像処理を実行させる。
ステップ410で、追従不可能と判断した場合には、ファインダーシャッター46をハーフ動作(液晶シャッターにおいて、EVF画像を表示させる部分に対応する領域を閉状態にし、残りを開状態にする)させ、OVF画像においてEVF画像が配置される部分が遮光されるように制御する。接眼部18の該遮光領域に相当する部分には、OVF画像が表示されなくなる。
ステップ412では、EVF画像の輝度が、視認性が向上する方向に可能な限り補正されるようデジタル信号処理部60を制御する。
そして、HVF表示モードでは、当該輝度補正されたEVF画像が表示されるように制御する。これにより、図12に示すように、接眼部18において、ファインダーシャッター46の遮光領域上にはEVF画像のみが表示されるため、OVF画像の影響を受けずに撮影効果を判断できる。
以上説明したように、撮影環境に応じたEVFの輝度制御とファインダーシャッター制御を同時に行なうことで、EVF画像とOVF画像の同時表示でも、環境の明るさによらず正確な撮影効果の判断ができるようになる。
なお、図9,図11では、シーン認識機能を使用して撮影設定を変更する際のEVF画像輝度制御(及びファインダーシャッター46の駆動制御)を行なう例について説明したが、手動で撮影設定が変更される場合等、撮影設定が変更される他の場合においても、上記と同様に、EVF画像の輝度調整やファインダーシャッター46の駆動制御を行なうことができる。
上記説明したように、環境の明るさに応じてEVF画像の輝度の補正を行っても、更に明るすぎる環境や暗すぎる環境では、メカ的な限界により補正で追従できなくなりOVF画像の視界とEVF画像との差分が拡がり、撮影設定の効果を同時表示で確認するには難しい環境があり得る。このような状況では、撮影設定に応じたEVF画像の輝度と環境の明るさとを比較し、輝度調整ではEVF画像の視認性が向上しないと判断した場合に、EVF表示モードに切り替えるようにしてもよい。以下、図13を参照して説明する。なお、図13に示す処理は、デジタルカメラ10がOVF表示モードからHVF表示モードに切り替えられた後(図5及び図7も参照)に実行されるものとする。
ステップ500では、撮影環境の明るさ(環境の明るさ)を示す値を取得する。
ステップ502では、EVF画像の表示輝度を取得する。
ステップ504では、前述のステップ406と同様に、撮影環境の明るさとEVF画像の表示輝度とを比較する。
ステップ506では、前述したステップ408の処理と同様に、ステップ504の比較結果に基づいてEVF画像の輝度を調整する必要があるか否かを判断する。
ステップ506で、EVF画像の輝度を調整する必要がないと判断した場合には、EVF画像の輝度調整やファインダーの表示モードの切り替えは行われない。
一方、ステップ506で、EVF画像の輝度を調整する必要があると判断した場合には、ステップ508で、EVF画像の輝度の調整で環境の明るさに追従できるか否かを判断する。ステップ508で、追従可能と判断した場合には、ステップ510に進む。ステップ510では、撮影環境の明るさに応じてEVF画像の輝度が視認性が向上する輝度となるようにデジタル信号処理部60を制御して画像処理を実行させる。
また、ステップ508で、追従不可能と判断した場合には、HVF表示モードからEVF表示モードに切り替える。
なお、EVF表示モードに切り替えた後は、例えば、S1がONされた場合、或いは予め定められた時間が経過した場合に、OVF表示モードに切り替えるようにしてもよいし、そのままEVF表示モードを継続してもよい。
以上説明したように、OVF画像とEVF画像の同時表示(HVF表示モード)において、OVF画像とEVF画像の輝度差が大きい場合には、これを撮影環境から自動でデジタルカメラ10側が判断して、EVF表示モードに表示変更するようにしたため、ユーザーは撮影設定の効果を正確に判断できる。
なお、ここでは、EVF表示モードに切り替える場合を例に挙げて説明したが、OVF表示モードに切り替えてもよい。また、ユーザーの選択でEVF表示モードとOVF表示モードのどちらを優先するか決定する機能が設けられていてもよい。
ところで、手ブレなどの要因でEVF画像の視界とOVF画像の差が大きくなりすぎることがある。そこで、HVF表示モードでカメラを構えたときに、手ブレを検出し、検出した手ブレが大きければ手ブレ補正をしたEVF画像を表示するEVF表示モードに自動で切り替えるように構成してもよい。この場合には、手ブレを検出する手ブレ検出部がデジタルカメラ10に設けられているものとするが、ここでは図示を省略する。ここで、図14を参照して詳細に説明する。図14に示す処理は、デジタルカメラ10がOVF表示モードからHVF表示モードに切り替えられた後(図5及び図7も参照)に実行されるものとする。
ステップ600では、手ブレ検出部からブレ量を取得する。
ステップ602では、取得したブレ量が予め定められた許容範囲内であるか否かを判断する。ステップ602で否定判断した場合には、ステップ604で、手ブレ補正がされたEVF画像を表示するEVF表示モードに切り替える。また、ステップ602で肯定判断した場合には、HVF表示モードを継続する。
なお、表示が切り替えられた場合には手ブレしている状態であるため、EVF表示モードに切り替えられた後は、S1がON状態とされても、EVF表示モードを解除せず、そのまま撮影まで(S2がONとされるまで)EVF表示モードを継続してもよい。
以上説明したように、OVF画像は手ブレが直接見えてしまうが、EVF表示モードに自動で切り替えることで、安定したフォーカスを行なうことができる。
なお、上記では、EVF画像を縮小しないでOVF画像に重ねる場合の具体例として、OVF画像の全面にEVF画像を重畳させる表示(図6(A)も参照)や、EVF半面表示(図6(C)も参照)を例に挙げて説明したが、これに限定されない。例えば、顔検出部74により顔検出を行ったり、不図示のオブジェクト認識部によりオブジェクト認識を行ったりする場合には、具体的に、検出された顔や認識されたオブジェクトがユーザーが撮りたいものであろうことが予測される。従って、この場合には、OVF画像の半分にEVF画像を重畳する(図15(C)も参照。)代わりに、検出された顔や認識されたオブジェクトを含む領域(ユーザーが主被写体として指定するであろう被写体の部分)にEVF画像を重畳させるようにしてもよい(図15(D)も参照)。
例えば、図15に示す例では、撮像領域の右側に人物の顔が存在している。従って、ユーザーが撮影効果を確認したいと予測される領域は、左側の領域ではなく、右側であって人物の顔が存在する領域である。従って、人物が存在しない左半分にEVF画像を重畳させて表示するよりは、人物の顔が存在する領域にEVF画像を重畳するようにすることで、ユーザーが撮影効果を知りたい箇所の画像について撮影効果の確認ができるため、ユーザーにとってより好ましい表示形態となる。
このように、顔検出した場合には、検出した顔の位置にEVF画像を重畳させることによって、OVF表示モードからEVF表示モードへの切り替えを行なわずに、撮影時の色味や階調等の撮影効果をユーザーに把握させることができる。なお、顔検出に限定されず、前述したようにユーザーにより指定されたオブジェクトを認識させる機能がデジタルカメラ10に設けられている場合には、該認識されたオブジェクトを含む領域にEVF画像を重畳すればよく、これによっても、同様の効果が得られる。
なお、上記のように、被写体認識した箇所にEVF画像を重畳する場合、パララクスにより、図16(A)に示すように、OVF画像に対してEVF画像が正しい位置に表示されない可能性がある。
ここで、パララクスは、ファインダー用の対物レンズ20が、撮影用のレンズ12Lとは別に設けられているために生じるものである。OVF画像は対物レンズ20から入射した光により表される光学画像であり、EVF画像は、撮影用のレンズ12Lから入射した光を撮像素子30により受光して得られた電子画像であるため、OVF画像とEVF画像とで位置ずれが生じることがある。なお、近接撮影ほど(被写体が近いほど)、パララクス(被写体像のずれ)は大きくなる。
そこで、顔検出したときの被写体距離(デジタルカメラから被写体までの距離)に基づいて、EVF画像とOVF画像のパララクス量を補正するようにしてもよい。
図17は、パララクス補正処理の流れの一例を示すフローチャートである。なお、このパララクス補正処理は、HVF表示モードによる表示中に実行される。
ステップ700では、顔検出部74で被写体(ここでは人物の顔)を検出させる。
ステップ702では、顔検出部74からの検出結果に基づいて、撮影領域に被写体が存在するか否かを判断する。ステップ702で肯定判断した場合には、ステップ704に進む。
ステップ704では、測距部76で検出された被写体距離(以下、被写体検出距離という)に基づいて、パララクス補正量(EVF画像の位置の補正量)を算出する。前述したように、被写体検出距離が短いほどパララクスは大きくなるため、被写体検出距離が短いほどパララクス補正量が大きくなる算出式を用いて算出する。なお、被写体検出距離とパララクス補正量とを対応付けたテーブルを記憶部に記憶しておき、該テーブルを参照してパララクス補正量を求めるようにしてもよい。
ところで、被写体検出距離が短すぎるため、パララクスが大きくなりすぎて、検出された被写体の多くの部分がOVF画像に存在しない場合がある。このような場合には、上記算出したパララクス補正量によりEVF画像の位置をずらしてOVF画像に重畳したとしても、被写体の撮影効果を確認することができない。このような被写体検出距離はパララクス補正可能な距離とはいえない。そこで、ステップ706で、検出された被写体の位置と上記算出したパララクス補正量から、被写体検出距離がパララクス補正可能な距離かを判断し、可能であると判断した場合には、ステップ708で、デジタル信号処理部60を制御し、上記算出したパララクス補正量によりEVF画像の位置を補正してEVF画像を表示する(図16(B)も参照。)。
一方、ステップ706で、被写体検出距離がパララクス補正不可能な距離であると判断した場合には、ステップ710で、通常の表示、すなわち、パララクス補正しない位置(被写体検出位置)にEVF画像を表示する。
以上説明したように、HVF表示モード中は、EVF画像及びOVF画像のパララクスを考慮し、両方の画像が表示できるように補正することで、被写体の位置にだけEVF画像を重畳させる状態でもパララクスの影響を少なくでき正しい位置にEVF画像を表示することが可能となる。
なお、接眼部18にユーザーが眼を近づけたか否かを検出するセンサを設けてもよい。この場合、例えば、撮影条件の設定変更がなされた後、OVF表示モードからHVF表示モードに切り替えられる前(例えば、図5のステップ100とステップ102の間、或いは図7のステップ200とステップ202の間)に、接眼部18にユーザーが眼を近づけたか否かを検出して判断するステップを設け、眼を近づけたと判断した場合に、次のステップ、すなわち、HVF表示モードに切り替える処理を行うようにしてもよい。これにより、設定変更した後、接眼部18をのぞいたタイミングで表示を切り替えることができる。