以下、添付図面に従って本発明に係るカメラを実施するための最良の形態について詳細に説明する。
<第1の実施の形態>
図1は本発明に係る第1の実施の形態の撮像装置の一実施形態を示す正面斜視図である。図2は、上記撮像装置の一実施形態を示す背面図である。この撮像装置は、レンズを通った光を撮像素子で受け、デジタル信号に変換して記憶メディアに記録するデジタルカメラである。
デジタルカメラ10のカメラボディ12は、横長の四角い箱状に形成されており、その正面には、図1に示すように、レンズ14、ストロボ16、ファインダ窓18、セルフタイマランプ20、AF補助光ランプ22、ストロボ調光センサ24等が配設されている。また、カメラボディ12の上面にはシャッターボタン26、電源/モードスイッチ28、モードダイヤル30等が配設されている。一方、カメラボディ12の背面には、図2に示すように、モニタ32、ファインダ接眼部34、スピーカー36、ズームボタン38、十字ボタン40、MENU/OKボタン42、DISPボタン44、BACKボタン46等が配設されている。
なお、図示しないカメラボディ12の下面には、三脚ネジ穴と、開閉自在なカバーを介してバッテリ挿入部とメモリカードスロットとが設けられており、このバッテリ挿入部とメモリカードスロットにバッテリとメモリカードが装填される。
レンズ14は、沈胴式のズームレンズで構成されており、電源/モードスイッチ28によってカメラのモードを撮影モードに設定することにより、カメラボディ12から繰り出される。なお、レンズ14のズーム機構や沈胴機構については、公知の技術なので、ここでは、その具体的な構成についての説明は省略する。
ストロボ16は、主要被写体に向けてストロボ光を照射できるように、その発光部が水平方向及び垂直方向に揺動できるように構成されている。なお、このストロボ16の構成については、後に詳述する。
ファインダ窓18は、撮影する被写体を決めるのぞき窓の部分である。
セルフタイマランプ20は、たとえばLED構成されており、後述するシャッターボタン26を押した後、一定時間を経過した後で撮影を行うセルフタイマ機能を用いて撮影を行うときに発光される。
AF補助光ランプ22は、たとえば高輝度LED構成されており、AF時に必要に応じて発光される。
ストロボ調光センサ24は、後述するようにストロボ16の発光量を調整するものである。
シャッターボタン26は、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。デジタルカメラ10は、このシャッターボタン26が「半押し」されることにより、AE/AFが作動し、「全押し」されることにより、撮影を実行する。
電源/モードスイッチ28は、デジタルカメラ10の電源をON/OFFする電源スイッチとしての機能と、デジタルカメラ10のモードを設定するモードスイッチとしての機能とを併せ持っており、「OFF位置」と「再生位置」と「撮影位置」との間をスライド自在に配設されている。デジタルカメラ10は、電源/モードスイッチ28をスライドさせて、「再生位置」又は「撮影位置」に合わせることにより、電源がONになり、「OFF位置」に合わせることにより、電源がOFFになる。そして、電源/モードスイッチ28をスライドさせて、「再生位置」に合わせることにより、「再生モード」に設定され、「撮影位置」に合わせることにより、「撮影モード」に設定される。
モードダイヤル30は、デジタルカメラ10の撮影モードを設定する撮影モード設定手段として機能し、このモードダイヤルの設定位置により、デジタルカメラ10の撮影モードが様々なモードに設定される。例えば、絞り、シャッタースピード等がデジタルカメラ10によって自動的に設定される「オート撮影モード」、動画撮影を行う「動画撮影モード」、人物撮影に適した「人物撮影モード」、動体撮影に適した「スポーツ撮影モード」、風景の撮影に適した「風景撮影モード」、夕景及び夜景の撮影に適した「夜景撮影モード」、絞りの目盛りを撮影者が設定し、シャッタースピードをデジタルカメラ10が自動的に設定する「絞り優先撮影モード」、シャッタースピードを撮影者が設定し、絞りの目盛りをデジタルカメラ10が自動的に設定する「シャッタースピード優先撮影モード」、絞り、シャッタースピード等を撮影者が設定する「マニュアル撮影モード」、人物を自動的に検出し、その人物に向けてストロボ光を発光させる「人物検出撮影モード」(詳細は後述)等である。
モニタ32は、カラー表示が可能な液晶ディスプレイで構成されている。このモニタ32は、再生モード時に撮影済み画像を表示するための画像表示パネルとして利用されるとともに、各種設定操作を行なう際のユーザインターフェース表示パネルとして利用される。また、撮影モード時には、必要に応じてスルー画像が表示されて、画角確認用の電子ファインダとして利用される。
スピーカー36は、モードダイヤル30などにより音声出力がONに設定されている場合に、所定の音声やブザー音などの音を出力するものである。
ズームボタン38は、ズームを指示するズーム指示手段として機能し、望遠側へのズームを指示するズームテレボタン38Tと、広角側へのズームを指示するズームワイドボタン38Wとからなる。デジタルカメラ10は、撮影モード時に、このズームテレボタン38Tとズームワイドボタン38Wとが操作されることにより、レンズ14の焦点距離が変化する。また、再生モード時に、このズームテレボタン38Tとズームワイドボタン38Wとが操作されることにより、再生中の画像が拡大、縮小する。
十字ボタン40は、上下左右4方向の指示を入力する方向指示手段として機能し、たとえば、メニュー画面でメニュー項目の選択などに使用される。
MENU/OKボタン42は、各モードの通常画面からメニュー画面への遷移を指示するボタン(MENUボタン)として機能するととともに、選択内容の確定、処理の実行等を指示するボタン(OKボタン)として機能する。
DISPボタン44は、モニタ32の表示切り替えを指示するボタンとして機能し、撮影中、このDISPボタン44が押されると、モニタ32の表示が、ON→フレーミングガイド表示→OFFに切り替えられる。また、再生中、このDISPボタン44が押されると、通常再生→文字表示なし再生→マルチ再生に切り替えられる。
BACKボタン46は、入力操作のキャンセルや一つ前の操作状態に戻すことを指示するボタンとして機能する。
図3は、デジタルカメラ10内部の概略構成を示すブロック図である。
同図に示すように、デジタルカメラ10は、CPU110、操作部(シャッターボタン26、電源/モードスイッチ28、モードダイヤル30、ズームボタン38、十字ボタン40、MENU/OKボタン42、DISPボタン44、BACKボタン46等)112、ROM116、EEPROM118、メモリ120、VRAM122、撮像素子124、タイミングジェネレータ(TG)126、アナログ処理部(CDS/AMP)128、A/D変換器130、画像入力制御部132、画像信号処理部134、ビデオエンコーダ136、アニメーション画像合成部138、AF検出部140、AE/AWB検出部142、絞り駆動部144、レンズ駆動部146、圧縮伸張処理部148、メディア制御部150、記憶メディア152、顔検出部154、ストロボ駆動制御部160、ストロボ駆動部162、ストロボ発光制御部164等で構成されている。
CPU110は、操作部112から入力される操作信号に基づき所定の制御プログラムに従ってデジタルカメラ10の全体を統括制御する。
バス114を介してCPU110と接続されたROM116には、このCPU110が実行する制御プログラム及び制御に必要な各種データ等が格納されており、EEPROM118には、ユーザー設定情報等のデジタルカメラ10の動作に関する各種設定情報等が格納されている。また、メモリ(SDRAM)120は、CPU110の演算作業用領域として利用されるとともに、画像データ等の一時記憶領域として利用され、VRAM122は、画像データ専用の一時記憶領域として利用される。
撮像素子124は、たとえば、所定のカラーフィルタ配列のカラーCCDで構成されており、レンズ14によって結像された被写体の画像を電子的に撮像する。タイミングジェネレータ(TG)126は、CPU110からの指令に応じて、この撮像素子124を駆動するためのタイミング信号を出力する。
アナログ処理部128は、撮像素子124から出力された画像信号に対して、画素ごとのR、G、B信号をサンプリングホールド(相関二重サンプリング処理)するとともに、増幅してA/D変換器130に出力する。
A/D変換器130は、アナログ処理部128から出力されたアナログのR、G、B信号をデジタルのR、G、B信号に変換して出力する。
画像入力制御部132は、A/D変換器130から出力されたデジタルのR、G、B信号をメモリ120に出力する。
画像信号処理部134は、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理回路)、ホワイトバランス補正回路、ガンマ補正回路、輪郭補正回路、輝度・色差信号生成回路等を含み、CPU110からの指令に従い、入力された画像信号に所要の信号処理を施して、輝度データ(Yデータ)と色差データ(Cr,Cbデータ)とからなる画像データ(YUVデータ)を生成する。
ビデオエンコーダ136は、CPU110からの指令に従い、モニタ32への表示を制御する。すなわち、CPU110からの指令に従い、入力された画像信号をモニタ32に表示するための映像信号(たとえば、NTSC信号やPAL信号、SCAM信号)に変換してモニタ32に出力するとともに、必要に応じてアニメーション画像合成部138で合成された、所定の文字、図形情報をモニタ32に出力する。
AF検出部140は、G信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、所定のフォーカスエリア(たとえば、画面中央部)内の信号を切り出すAFエリア検出部及びAFエリア内の絶対値データを積算する積算部から構成される。
AE/AWB検出部142は、CPU110からの指令に従い、入力された画像信号からAE制御及びAWB制御に必要な物理量を算出する。たとえば、AE制御に必要な物理量として、1画面を複数のエリア(たとえば16×16)に分割し、分割したエリアごとにR、G、Bの画像信号の積算値を算出する。
絞り駆動部144及びレンズ駆動部146は、CPU110からの指令に応じて撮影光学系124の駆動部124Aを制御し、撮影レンズ14、絞り15の動作を制御する。
圧縮伸張処理部148は、CPU110からの指令に従い、入力された画像データに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、CPU110からの指令に従い、入力された圧縮画像データに所定形式の伸張処理を施し、非圧縮の画像データを生成する。
メディア制御部150は、CPU110からの指令に従い、メディアスロットに装填された記憶メディア152に対してデータの読み/書きを制御する。
顔検出部154は、CPU110からの指令に従い、入力された画像データから画像内の顔領域を抽出し、その位置(たとえば、顔領域の重心)を検出する。この顔領域の抽出は、たとえば、原画像から肌色データを抽出し、肌色範囲と判断された測光点のクラスタを顔として抽出する。この他、画像から顔領域を抽出する方法としては、測光データを色相と彩度に変換し、変換した色相・彩度の二次元ヒストグラムを作成し、解析することで、顔領域を判断する方法や、人の顔の形状に相当する顔候補領域を抽出し、その領域内の特徴量から顔領域を決定する方法、画像から人の顔の輪郭を抽出し、顔領域を決定する方法、複数の顔の形状をしたテンプレートを用意し、そのテンプレートと画像との相関を計算し、この相関値により顔候補領域とすることで人の顔を抽出する方法等が知られており、これらの方法を用いて抽出することができる。
アニメーション画像作成部156は、複数枚の静止画像をアニメーション画像(動画)に組み立てるもので、たとえばアニメーションGIF、MNG(いずれも、フォーマット名)のような形式のアニメーション画像を作成する。CPU110は、AF検出部140で行われるAFの状況を把握し、アニメーション画像作成部156に指令を出す。アニメーション画像作成部156は、CPU110からの指令に従い、AFの状況に合わせた静止画像を選択してアニメーション画像を作成する。そして、CPU110は、顔検出部154で検出された顔の位置情報に基づいて、アニメーション画像作成部156で作成されたアニメーション画像を表示するようにアニメーション画像合成部138に指令する。アニメーション画像作成部156は、顔検出部154などで検出された被写体の状況に応じて静止画像を選択するプログラムをROM116に記憶しておき、このプログラムを用いてアニメーション画像を生成することもできる。これにより、より臨場感のあるアニメーション画像を生成することができる。なお、アニメーション画像作成部156で作成されるアニメーション画像については、後に詳述する。
ストロボ発光制御部160は、CPU110からの指令に従い、ストロボ16の発光を制御する。
次に、以上のように構成された本実施の形態のデジタルカメラ10の作用について説明する。
まず、一般的な画像の撮影、記録処理の手順について説明する。上記のように、デジタルカメラ10は、電源/モードスイッチ28を撮影位置に合わせることで、撮影モードに設定され、撮影が可能になる。そして、撮影モードに設定されることにより、レンズ14が繰り出され、撮影スタンバイ状態になる。
この撮影モードの下、レンズ14を通過した被写体光は、絞り15を介して撮像素子124の受光面に結像される。撮像素子124の受光面には、所定の配列構造(ベイヤー、Gストライプなど)で配列された赤(R)、緑(G)、青(B)のカラーフィルタを介して多数のフォトダイオード(受光素子)が二次元的に配置されている。レンズ14を通過した被写体光は、各フォトダイオードによって受光され、入射光量に応じた量の信号電荷に変換される。
各フォトダイオードに蓄積された信号電荷は、タイミングジェネレータ(TG)126から与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)として順次読み出され、アナログ処理部(CDS/AMP)128に加えられる。
アナログ処理部128から出力されたアナログのR、G、B信号は、A/D変換器130でデジタルのR、G、B信号に変換され、画像入力制御部132に加えられる。画像入力制御部132は、A/D変換器130から出力されたデジタルのR、G、B信号をメモリ120に出力する。
撮影画像をモニタ32に出力する場合は、画像入力制御部132からメモリ120に出力された画像信号より画像信号処理部134で輝度/色差信号が生成され、その信号がビデオエンコーダ136に送られる。ビデオエンコーダ136は、入力された輝度/色差信号を表示用の信号形式(たとえばNTSC方式のカラー複合映像信号)に変換し、モニタ32に出力する。これにより、撮像素子124で撮像された画像がモニタ32に表示される。
撮像素子124から画像信号を定期的に取り込み、その画像信号から生成される輝度/色差信号によってVRAM122内の画像データを定期的に書き換え、モニタ32に出力することにより、撮像素子124で撮像される画像がリアルタイムに表示される。撮影者は、このモニタ32にリアルタイムに表示される画像(スルー画像)を見ることにより、撮影画角を確認することができる。
なお、VRAM122からビデオエンコーダ136に加えられる輝度/色差信号は、必要に応じてアニメーション画像合成部138に加えられ、所定の文字や図形等と合成されたのち、ビデオエンコーダ136に加えられる。これにより、所要の撮影情報等がスルー画像に重ねて表示される。
撮影はシャッターボタン26の押下によって行なわれる。シャッターボタン26が半押しされると、S1ON信号がCPU110に入力され、CPU110はAE/AF処理を実施する。
まず、画像入力制御部132を介して撮像素子124から取り込まれた画像信号がAF検出部140並びにAE/AWB検出部142に入力される。
AF検出部140で求めた積算値のデータはCPU110に通知される。
CPU110は、レンズ駆動部146を制御してレンズ14を含む撮影光学系のフォーカスレンズ群を移動させながら、複数のAF検出ポイントで焦点評価値(AF評価値)を演算し、評価値が極大となるレンズ位置を合焦位置として決定する。そして、求めた合焦位置にフォーカスレンズ群が移動するように、レンズ駆動部146を制御する。
CPU110は、AE/AWB検出部142から得た積算値に基づいて被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。そして、求めた撮影EV値と所定のプログラム線図から絞り値とシャッタースピードを決定し、これに従い撮像素子124の電子シャッターと絞り駆動部144を制御して適正な露光量を得る。同時に、検出された被写体輝度より、ストロボの発光が必要かどうかを判断する。
また、AE/AWB検出部142は、自動ホワイトバランス調整時、分割エリアごとにR、G、B信号の色別の平均積算値を算出し、その算出結果をCPU110に提供する。CPU110は、得られたRの積算値、Bの積算値、Gの積算値から分割エリアごとにR/G及びB/Gの比を求め、求めたR/G、B/Gの値のR/G、B/Gの色空間における分布等に基づいて光源種判別を行う。そして、判別された光源種に適したホワイトバランス調整値に従って、たとえば、各比の値がおよそ1(つまり、1画面においてRGBの積算比率がR:G:B≒1:1:1)になるように、ホワイトバランス調整回路のR、G、B信号に対するゲイン値(ホワイトバランス補正値)を制御し、各色チャンネルの信号に補正をかける。
以上のように、シャッターボタン26の半押しによって、AE/AF処理が行なわれる。なお、撮影者は、必要に応じてズームボタン38を操作し、レンズ14をズーミングさせて画角を調整する。
この後、シャッターボタン26が全押しされると、CPU110にS2ON信号が入力され、CPU110は、撮影、記録処理を開始する。すなわち、測光結果に基づき決定されたシャッター速度、絞り値で撮像素子124を露光する。この際、ストロボ16を発光させる場合は、ストロボ発光制御部160を介してストロボ16を発光させる。ストロボ発光制御部160は、ストロボ調光センサ24での受光量が所定量に達すると、ストロボ16への通電を遮断し、ストロボ16の発光を停止させる。
撮像素子124から出力された画像信号は、アナログ処理部128、A/D変換器130、画像入力制御部132を介してメモリ120に取り込まれ、画像信号処理部134において輝度/色差信号に変換されたのち、メモリ120に格納される。
メモリ120に格納された画像データは、圧縮伸張処理部148に加えられ、所定の圧縮フォーマット(たとえばJPEG形式)に従って圧縮された後、メモリ120に格納され、所定の画像記録フォーマット(たとえばExif形式)の画像ファイルとされたのち、メディア制御部150を介して記憶メディア152に記録される。
以上のようにして記憶メディア152に記録された画像は、電源/モードスイッチ28を再生位置に合わせて、デジタルカメラ10のモードを再生モードに設定することにより、モニタ32で再生表示させることができる。
電源/モードスイッチ28を再生位置に合わせて、デジタルカメラ10のモードを再生モードに設定すると、CPU110は、メディア制御部150にコマンドを出力し、記憶メディア152に最後に記録された画像ファイルを読み出させる。
読み出された画像ファイルの圧縮画像データは、圧縮伸張処理部148に加えられ、非圧縮の輝度/色差信号に伸張されたのち、ビデオエンコーダ136を介してモニタ32に出力される。これにより、記憶メディア152に記録されている画像がモニタ32に再生表示される。なお、再生時も必要に応じて再生する画像の輝度/色差信号が、アニメーション画像合成部138に加えられ、所定の文字や図形等と合成されたのち、ビデオエンコーダ136に加えられる。これにより、撮影済み画像に重ねられて所定の撮影情報等がモニタ32に表示される。
画像のコマ送りは、十字ボタン40の左右のキー操作によって行なわれ、十字ボタン40の右キーが押されると、次の画像ファイルが記憶メディア152から読み出され、モニタ32に再生表示される。また、十字ボタン40の左キーが押されると、一つ前の画像ファイルが記憶メディア152から読み出され、モニタ32に再生表示される。
さて、本実施の形態のデジタルカメラ10では、ユーザーに合焦状態を示すため、合焦動作の状況を判断し、その状況に応じたアニメーション画像を表示する。以下、このアニメーション画像の表示の手順について説明する。
<合焦表示の第1の実施の形態>
図4は、上記デジタルカメラ10の合焦表示の処理の流れを示すフローチャートである。以下の処理は、主としてCPU110によって行われる。
モニタ32にスルー画が表示されている撮影スタンバイ状態において、顔検出部154により、入力された被写体像に顔が含まれるかどうか、顔が含まれる場合には、顔領域の抽出と、顔位置の検出が行われる(ステップS110)。
シャッターボタン26の半押し(S1ON)が検出されたかどうかが判断される(ステップS112)。S1ONが検出されなかった場合(ステップS112でNO)には、再度ステップS112が行われる。
S1ONが検出された場合(ステップS112でYES)には、ステップS110において被写体像から顔が検出されたかどうかが判断される(ステップS114)。顔が検出された場合(ステップS114でYES)には、S2ONが検出されたかどうかが判断される(ステップS116)。
顔が検出されなかった場合(ステップS114でNO)には、S2ONが検出されたかどうかが判断される(ステップS118)。S2ONが検出されなかった場合(ステップS118でNO)には、再度顔検出処理(ステップS114)が行われ、S2ONが検出された場合(ステップS118でYES)には、撮影が行われる(ステップS138)。
S2ONが検出された場合(ステップS116でYES)は、AFが正確に行えないため、フォーカスレンズ群を所定の位置へ移動させ(ステップS140)、撮影が行われる(ステップS138)。
S2ONが検出されなかった場合(ステップS116でNO)には、図5(a)に示すように、異なる大きさの2個の円形の枠が、その中心点が一致するように異なる色でスルー画上の任意の位置(例えば中央)に表示される(ステップS120)。この時、外側の円形の枠は、ステップS114で検出された顔の領域より大きい大きさの枠である。2個の円形の枠の大きさが等しい場合には、2個の円形の枠が重ねられることにより1個の円が形成されるように、円形の枠は、それぞれ複数の円弧で構成される。
レンズ駆動部146を制御してフォーカスレンズ群を移動させながら、複数のAF検出ポイントで焦点評価値を演算し、評価値が極大となるレンズ位置を合焦位置として決定する(ステップS122)。そして、求めた合焦位置にフォーカスレンズ群が移動するように、レンズ駆動部146を制御して、フォーカスレンズ群の移動を開始する。
ステップS114において検出された顔に焦点があったかどうかが判断される(ステップS124)。顔に焦点があっていないと判断された場合(ステップS124でNO)には、求めた合焦位置にフォーカスレンズ群が移動させると同時に、アニメーション画像作成部156において、内側の円形の枠と外側の円形の枠とがそれぞれ異なる方向に回転するアニメーション画像が作成され、スルー画に重ねて表示される(ステップS126)。すなわち、アニメーション画像作成部156は、外側の円形の枠が所望の速さで時計回りに回転され、内側の円形の枠が所望の速さで反時計回りに回転されると同時に、合焦時に2個の円弧の大きさが一致するように、合焦状態に応じて外側の円形の枠の大きさが小さくなり、内側の円形の枠の大きさが大きくなるようなアニメーション画像を作成する。このように、円形の枠を異なる方向に回転するアニメーション画像を作成することで、円形の枠が回転していることが視認しやすくなる。CPU110は、作成されたアニメーション画像をステップS120で表示された任意の位置から、ステップS114で検出された顔に移動させるように、スルー画に合成して表示する。そして、再度ステップS124が行われる。
所望の領域に焦点があっている場合、すなわちフォーカスレンズ群の移動が終了した場合(ステップS124でYES)には、図5(b)に示すように、2個の円形の枠が等しい大きさで、かつ2個の円形の枠が重ねられることにより形成された円が、ステップ114で検出された顔に重ねて表示される(ステップS128)。そして、2個の円形の枠が明度をあげて鮮明に表示される(ステップS130)。
音声出力がONになっているかが判断される(ステップS132)。音声出力がONになっている場合(ステップS132でYES)には、スピーカー36を介して合焦が終了したことを示す音声、メロディ、合図音などの音が出力され(ステップS134)、S2ONが検出されたかどうかが判断される(ステップS136)。音声出力がONになっていない場合(ステップS132でNO)には、S2ONが検出されたかどうかが判断される(ステップS136)。
S2ONが検出されなかった場合(ステップS136でNO)には、大きさの異なる2個の円形の枠を表示するステップ(ステップS2120)へ戻る。S2ONが検出された場合(ステップS136でYES)には、撮影が行われる(ステップS138)。
本実施の形態によれば、非合焦時には複数の回転する枠を表示し、合焦時には枠が1つの円となって静止することにより、合焦状態及び合焦が行われたことをユーザーにわかり易く知らせることができる。また、AFが正確に行われなかった場合には枠を表示しないことにより、AF動作を行うようにユーザーを誘導することができる。また、顔が検出された場合には、検出された顔に重ねて枠を表示することにより、焦点があっている領域がどこであるかをユーザーに分かりやすく示すことができる。また、表示と共に音声などを出力することにより、焦点が合ったことをユーザーにより分かりやすく示すことができる。
なお、本実施の形態では、円形の枠を表示させたが、円形に限らず、三角形、矩形、楕円形などの幾何学的な形状や、ハート型などの不定形の形状を含む様々な形状の枠を用いることができる。三角形、矩形、楕円形、ハート型などの回転により形状が変わる場合には、円形の場合に比べて静止したことがより分かりやすいという利点がある。
また、本実施の形態では、2個の円形の枠を異なる色で表示したが、合焦時には2個の円形の枠を2色の中間の色で表示してもよい。例えば、外側の枠を青で表示し、内側の枠を黄色で表示した場合には、合焦時に2個の枠によって形成された円は黄緑色となる。このように、複数の枠の色を変えて表示することにより、より視認性を良くすることができる。また、回転時と静止時で色を変化させることにより、枠が静止したことがより分かりやくいという利点もある。もちろん、2個の枠を同じ色で表示してもかまわない。
また、本実施の形態では、合焦と同時時に枠を鮮明に表示させることで視認性を向上させたが、合焦したことをユーザーに容易に伝えることができる表示であればこれに限らない。例えば、合焦と同時に枠の色を濃くしてもよいし、枠の線を太くしてもよい。
また、本実施の形態では、枠を所定の回転速度で回転させたが、合焦状態に応じて回転速度を変えてもよい。合焦位置の算出から合焦までに要するおよその時間から回転速度を算出し、算出された回転速度で回転させてもよいし、合焦位置からフォーカスレンズ群の移動に要する時間を算出し、所定の領域に焦点があっている場合と同時に回転が終わるような回転速度を算出し、算出された回転速度で回転させてもよい。
また、本実施の形態では、合焦が行われたことをよりはっきりとユーザーに知らせるために、複数の枠を異なる方向に回転させたが、同じ方向に回転させるようにしてもよい。この場合には、計算量を減らし、処理を軽くすることができる。
<合焦表示の第2の実施の形態>
合焦表示の第2の実施の形態は、矩形の枠が振動するアニメーション表示を行うものである。図6は、上記デジタルカメラ10の合焦表示の処理の流れを示すフローチャートである。以下の処理は、主としてCPU110によって行われる。なお、第1の実施の形態と同一の部分については、同一の符号を付し、詳細な説明を省略する。
S1ONが検出されたかどうかが判断される(ステップS112)。S1ONが検出されなかった場合(ステップS112でNO)には、再度ステップS112が行われる。
S1ONが検出された場合(ステップS112でYES)には、ステップS110において被写体像から顔が検出されたかどうかが判断される(ステップS114)。顔が検出された場合(ステップS114でYES)には、S2ONが検出されたかどうかが判断される(ステップS116)。
顔が検出されなかった場合(ステップS114でNO)には、S2ONが検出されたかどうかが判断される(ステップS118)。S2ONが検出されなかった場合(ステップS118でNO)には、再度顔検出処理(ステップS114)が行われ、S2ONが検出された場合(ステップS118でYES)には、撮影が行われる(ステップS138)。
S2ONが検出された場合(ステップS116でYES)は、AFが正確に行えないため、フォーカスレンズ群を所定の位置へ移動させ(ステップS140)、撮影が行われる(ステップS138)。
S2ONが検出されなかった場合(ステップS116でNO)には、図7(a)に示すように、略正方形の枠がスルー画上の任意の位置(例えば中央)に表示される(ステップS220)。以下、略正方形の枠が1つの場合を例に説明するが、図7(a)に示すように、メインの枠(太線の枠)に連動して動く従属的な枠(細い線の枠)が1つ又は複数表示されていてもかまわない。また、検出された顔に、目、口などの特徴点を示す目印を表示させてもよい。
レンズ駆動部146を制御してフォーカスレンズ群を移動させながら、複数のAF検出ポイントで焦点評価値を演算し、評価値が極大となるレンズ位置を合焦位置として決定する(ステップS122)。そして、求めた合焦位置にフォーカスレンズ群が移動するように、レンズ駆動部146を制御して、フォーカスレンズ群の移動を開始する。
ステップS114において検出された顔に焦点があったかどうかが判断される(ステップS124)。顔に焦点があっていないと判断された場合(ステップS124でNO)には、求めた合焦位置にフォーカスレンズ群が移動させると同時に、アニメーション画像作成部156において、略正方形の枠が絶えず動いている、つまり枠が振動しているようなアニメーション画像が作成され、スルー画に重ねて表示される(ステップS226)。すなわち、アニメーション画像作成部156は、略正方形の枠が所定の速さで、かつある領域を中心として合焦状態に応じた距離だけランダムな方向に移動し続けるアニメーション画像を作成する。CPU110は、作成されたアニメーション画像を、移動の中心となる領域と、ステップS114で検出された顔とが重なるようにスルー画に合成して表示する。そして、再度ステップS124が行われる。
所望の領域に焦点があっている場合、すなわちフォーカスレンズ群の移動が終了した場合(ステップS124でYES)には、図7(b)に示すように、略正方形の枠がステップ114で検出された顔に重ねて表示される(ステップS228)。そして、略正方形の枠が明度をあげて鮮明に表示される(ステップS230)。
音声出力がONになっているかが判断される(ステップS132)。音声出力がONになっている場合(ステップS132でYES)には、スピーカー36を介して合焦が終了したことを示す音声、メロディ、合図音などの音が出力され(ステップS134)、S2ONが検出されたかどうかが判断される(ステップS136)。音声出力がONになっていない場合(ステップS132でNO)には、S2ONが検出されたかどうかが判断される(ステップS136)。
S2ONが検出されなかった場合(ステップS136でNO)には、略正方形の枠を表示するステップ(ステップS220)へ戻る。S2ONが検出された場合(ステップS136でYES)には、撮影が行われる(ステップS138)。
本実施の形態によれば、動いている枠が停止することにより、合焦が行われたことをユーザーにわかり易く知らせることができる。また、AFが正確に行われなかった場合には枠を表示しないことにより、AF動作を行うようにユーザーを誘導することができる。また、顔が検出された場合には、検出された顔の位置で枠の動きを止めることにより、焦点があっている領域がどこであるかをユーザーに分かりやすく示すことができる。また、表示と共に音声などを出力することにより、焦点が合ったことをユーザーにより分かりやすく示すことができる。
なお、本実施の形態では、略正方形の枠を表示させたが、に限らず、三角形、長方形、多角形、円形、楕円形などの幾何学的な形状や、ハート型などの不定形の形状を含む様々な形状の枠を用いることができる。
また、本実施の形態では、合焦と同時時に枠を鮮明に表示させることで視認性を向上させたが、合焦したことをユーザーに容易に伝えることができる表示であればこれに限らない。例えば、合焦と同時に枠の色を濃くしてもよいし、枠の線を太くしてもよい。
また、本実施の形態では、枠を所定の速度で移動させたが、移動距離に応じて移動速度を変えるようにしてもよい。
<合焦表示の第3の実施の形態>
合焦表示の第3の実施の形態は、合焦状態に応じて動物(例えば、うさぎ)の耳が動くアニメーション表示を行うものである。図8は、上記デジタルカメラ10の合焦表示の処理の流れを示すフローチャートである。以下の処理は、主としてCPU110によって行われる。なお、第1の実施の形態と同一の部分については、同一の符号を付し、詳細な説明を省略する。
S1ONが検出されたかどうかが判断される(ステップS112)。S1ONが検出されなかった場合(ステップS112でNO)には、再度ステップS112が行われる。
S1ONが検出された場合(ステップS112でYES)には、ステップS110において被写体像から顔が検出されたかどうかが判断される(ステップS114)。顔が検出された場合(ステップS114でYES)には、S2ONが検出されたかどうかが判断される(ステップS116)。
顔が検出されなかった場合(ステップS114でNO)には、S2ONが検出されたかどうかが判断される(ステップS118)。S2ONが検出されなかった場合(ステップS118でNO)には、再度顔検出処理(ステップS114)が行われ、S2ONが検出された場合(ステップS118でYES)には、撮影が行われる(ステップS138)。
S2ONが検出された場合(ステップS116でYES)は、AFが正確に行えないため、フォーカスレンズ群を所定の位置へ移動させ(ステップS140)、撮影が行われる(ステップS138)。
S2ONが検出されなかった場合(ステップS116でNO)には、図9(a)に示すように、折れ曲がった(倒れた)うさぎの耳が、ステップS114で検出された顔の上部に表示される(ステップS320)。
レンズ駆動部146を制御してフォーカスレンズ群を移動させながら、複数のAF検出ポイントで焦点評価値を演算し、評価値が極大となるレンズ位置を合焦位置として決定する(ステップS122)。そして、求めた合焦位置にフォーカスレンズ群が移動するように、レンズ駆動部146を制御して、フォーカスレンズ群の移動を開始する。
ステップS114において検出された顔に焦点があったかどうかが判断される(ステップS124)。顔に焦点があっていないと判断された場合(ステップS124でNO)には、求めた合焦位置にフォーカスレンズ群が移動させると同時に、アニメーション画像作成部156において、合焦状態に応じて倒れたうさぎの耳が左右に揺れながら立ち上がって行き、合焦と同時にうさぎの耳が直立するアニメーション画像が作成され、CPU110において、作成されたアニメーション画像がステップS320で倒れたうさぎの耳が表示された位置と同じ位置でスルー画に重ねて表示される(ステップS326)。そして、再度ステップS124が行われる。
所望の領域に焦点があっている場合、すなわちフォーカスレンズ群の移動が終了した場合(ステップS124でYES)には、図9(b)に示すように、まっすぐに立ち上がって静止したうさぎの耳が、ステップS320で倒れたうさぎの耳が表示された位置と同じ位置に表示される(ステップS328)。そして、立ち上がったうさぎの耳が明度をあげて鮮明に表示される(ステップS330)。
音声出力がONになっているかが判断される(ステップS132)。音声出力がONになっている場合(ステップS132でYES)には、スピーカー36を介して合焦が終了したことを示す音声、メロディ、合図音などの音が出力され(ステップS134)、S2ONが検出されたかどうかが判断される(ステップS136)。音声出力がONになっていない場合(ステップS132でNO)には、S2ONが検出されたかどうかが判断される(ステップS136)。
S2ONが検出されなかった場合(ステップS136でNO)には、倒れたうさぎの耳を表示するステップ(ステップS320)へ戻る。S2ONが検出された場合(ステップS136でYES)には、撮影が行われる(ステップS138)。
本実施の形態によれば、うさぎの耳というユーザーの興味を引く表示形態により、合焦動作を行っていることをユーザーに示すことができる。また、うさぎの耳の立ち具合により合焦動作がどの程度進んでいるかが感覚的にわかるため、合焦状態及び合焦が行われたことをユーザーにわかり易く知らせることができる。また、AFが正確に行われなかった場合にはうさぎの耳を表示しないことにより、AF動作を行うようにユーザーを誘導することができる。また、検出された顔にうさぎの耳が表示されるため、どの位置に焦点を合わせるのか、またどの位置で焦点があっているのかをユーザーにわかり易く知らせることができる。
なお、本実施の形態では、うさぎの耳を例に説明したが、うさぎの耳に限らず、犬の耳、像の耳、パンダの耳など直立している状態が通常状態であると認識される動物の耳を用いることができる。
また、本実施の形態では、合焦と同時時にうさぎの耳を鮮明に表示させることで視認性を向上させたが、合焦したことをユーザーに容易に伝えることができる表示であればこれに限らない。例えば、合焦と同時にうさぎの耳全体の色を濃くしてもよいし、輪郭の線を太くしてもよい。
<合焦表示の第4の実施の形態>
合焦表示の第4の実施の形態は、合焦状態に応じて動物(例えば、クマ)のキャラクターなどの絵が徐々に現れるアニメーション表示を行うものである。図10は、上記デジタルカメラ10の合焦表示の処理の流れを示すフローチャートである。以下の処理は、主としてCPU110によって行われる。なお、第1の実施の形態と同一の部分については、同一の符号を付し、詳細な説明を省略する。
S1ONが検出されたかどうかが判断される(ステップS112)。S1ONが検出されなかった場合(ステップS112でNO)には、再度ステップS112が行われる。
S1ONが検出された場合(ステップS112でYES)には、ステップS110において被写体像から顔が検出されたかどうかが判断される(ステップS114)。顔が検出された場合(ステップS114でYES)には、S2ONが検出されたかどうかが判断される(ステップS116)。
顔が検出されなかった場合(ステップS114でNO)には、S2ONが検出されたかどうかが判断される(ステップS118)。S2ONが検出されなかった場合(ステップS118でNO)には、再度顔検出処理(ステップS114)が行われ、S2ONが検出された場合(ステップS118でYES)には、撮影が行われる(ステップS138)。
S2ONが検出された場合(ステップS116でYES)は、AFが正確に行えないため、フォーカスレンズ群を所定の位置へ移動させ(ステップS140)、撮影が行われる(ステップS138)。
S2ONが検出されなかった場合(ステップS116でNO)には、レンズ駆動部146を制御してフォーカスレンズ群を移動させながら、複数のAF検出ポイントで焦点評価値を演算し、評価値が極大となるレンズ位置を合焦位置として決定する(ステップS122)。そして、求めた合焦位置にフォーカスレンズ群が移動するように、レンズ駆動部146を制御して、フォーカスレンズ群の移動を開始する。
ステップS114において検出された顔に焦点があったかどうかが判断される(ステップS124)。顔に焦点があっていないと判断された場合(ステップS124でNO)には、求めた合焦位置にフォーカスレンズ群が移動させると同時に、アニメーション画像作成部156において、合焦状態に応じてクマのキャラクターが徐々に現れるアニメーション画像が作成され、スルー画に重ねて表示される(ステップS426)。すなわち、アニメーション画像作成部156は、図11(a)に示すように、合焦動作が進むに従ってクマのキャラクターが顔の近傍、例えば横から少しずつ現れ、図11(b)に示すように、合焦と同時にクマのキャラクター全体が顔の横に表示されるアニメーション画像を作成する。CPU110は、ステップS114で検出された顔の横からクマのキャラクターが現れるように、作成されたアニメーション画像をスルー画に合成して表示する。そして、再度ステップS124が行われる。
所望の領域に焦点があっている場合、すなわちフォーカスレンズ群の移動が終了した場合(ステップS124でYES)には、図11(b)に示すように、クマのキャラクターの全体がステップS114で検出された顔の横に、かつその一部が顔の前面にかかるように表示される(ステップS428)。そして、クマのキャラクターが明度をあげて鮮明に表示される(ステップS430)。
音声出力がONになっているかが判断される(ステップS132)。音声出力がONになっている場合(ステップS132でYES)には、スピーカー36を介して合焦が終了したことを示す音声、メロディ、合図音などの音が出力され(ステップS134)、S2ONが検出されたかどうかが判断される(ステップS136)。音声出力がONになっていない場合(ステップS132でNO)には、S2ONが検出されたかどうかが判断される(ステップS136)。
S2ONが検出されなかった場合(ステップS136でNO)には、焦点評価値を算出するステップ(ステップS122)へ戻る。S2ONが検出された場合(ステップS136でYES)には、撮影が行われる(ステップS138)。
本実施の形態によれば、クマのキャラクターというユーザーの興味を引く表示形態により、合焦動作を行っていることをユーザーに示すことができる。また、クマのキャラクターがどの程度表示されているかにより合焦状態がどの程度進んでいるかが感覚的にわかるため、合焦状態及び合焦が行われたことをユーザーにわかり易く知らせることができる。また、AFが正確に行われなかった場合にはクマのキャラクターを表示しないことにより、AF動作を行うようにユーザーを誘導することができる。また、検出された顔の近傍にクマのキャラクターが表示されるため、どの位置で焦点があっているのかをユーザーにわかり易く知らせることができる。
また、本実施の形態では、合焦と同時時にクマのキャラクターを鮮明に表示させることで視認性を向上させたが、合焦したことをユーザーに容易に伝えることができる表示であればこれに限らない。例えば、合焦と同時にクマのキャラクターの色を濃くしてもよいし、輪郭の線を太くしてもよい。
<合焦表示の第5の実施の形態>
合焦表示の第5の実施の形態は、合焦状態に応じて動物(例えば、鳥)が動くアニメーション表示を行うものである。図12は、上記デジタルカメラ10の合焦表示の処理の流れを示すフローチャートである。以下の処理は、主としてCPU110によって行われる。なお、第1の実施の形態と同一の部分については、同一の符号を付し、詳細な説明を省略する。
S1ONが検出されたかどうかが判断される(ステップS112)。S1ONが検出されなかった場合(ステップS112でNO)には、再度ステップS112が行われる。
S1ONが検出された場合(ステップS112でYES)には、ステップS110において被写体像から顔が検出されたかどうかが判断される(ステップS114)。顔が検出された場合(ステップS114でYES)には、S2ONが検出されたかどうかが判断される(ステップS116)。
顔が検出されなかった場合(ステップS114でNO)には、S2ONが検出されたかどうかが判断される(ステップS118)。S2ONが検出されなかった場合(ステップS118でNO)には、再度顔検出処理(ステップS114)が行われ、S2ONが検出された場合(ステップS118でYES)には、撮影が行われる(ステップS138)。
S2ONが検出された場合(ステップS116でYES)は、AFが正確に行えないため、フォーカスレンズ群を所定の位置へ移動させ(ステップS140)、撮影が行われる(ステップS138)。
S2ONが検出されなかった場合(ステップS116でNO)には、図13(a)に示すように、飛んでいる鳥が所定の場所(例えば、画面左下)に表示される(ステップS520)。
レンズ駆動部146を制御してフォーカスレンズ群を移動させながら、複数のAF検出ポイントで焦点評価値を演算し、評価値が極大となるレンズ位置を合焦位置として決定する(ステップS122)。そして、求めた合焦位置にフォーカスレンズ群が移動するように、レンズ駆動部146を制御して、フォーカスレンズ群の移動を開始する。
ステップS114において検出された顔に焦点があったかどうかが判断される(ステップS124)。顔に焦点があっていないと判断された場合(ステップS124でNO)には、求めた合焦位置にフォーカスレンズ群が移動させると同時に、アニメーション画像作成部156において、鳥が飛びながら様々な位置に移動するアニメーション画像が作成され、CPU110において、作成されたアニメーション画像がスルー画に重ねて表示される(ステップS526)。そして、再度ステップS124が行われる。
所望の領域に焦点があっている場合、すなわちフォーカスレンズ群の移動が終了した場合(ステップS124でYES)には、図13(b)に示すように、ステップS114で検出された顔の上部に鳥が停止される(ステップS528)。そして、停止した鳥が明度をあげて鮮明に表示される(ステップS530)。
音声出力がONになっているかが判断される(ステップS132)。音声出力がONになっている場合(ステップS132でYES)には、スピーカー36を介して合焦が終了したことを示す音声、メロディ、合図音などの音が出力され(ステップS134)、S2ONが検出されたかどうかが判断される(ステップS136)。音声出力がONになっていない場合(ステップS132でNO)には、S2ONが検出されたかどうかが判断される(ステップS136)。
S2ONが検出されなかった場合(ステップS136でNO)には、飛んでいる鳥が所定の場所に表示されるステップ(ステップS520)へ戻る。S2ONが検出された場合(ステップS136でYES)には、撮影が行われる(ステップS138)。
本実施の形態によれば、飛んでいる鳥というユーザーの興味を引く表示形態により、合焦動作を行っていることをユーザーに示すことができる。また、飛んでいる鳥が静止することにより、合焦が行われたことをユーザーにわかり易く知らせることができる。また、AFが正確に行われなかった場合には鳥を表示しないことにより、AF動作を行うようにユーザーを誘導することができる。また、検出された顔に鳥が静止されるため、どの位置で焦点があっているのかをユーザーにわかり易く知らせることができる。
なお、本実施の形態では、鳥を例に説明したが、蝶、トンボ、蜂、こうもりなどの飛ぶという動作が自明である生物を用いることができる。蝶のアニメーション画像の場合には、ステップS526において蝶が様々な位置に飛びながら移動するアニメーション画像を作成し、ステップS528においてステップS114で検出された顔の上部に蝶を停止させ、ステップS530において停止した蝶が明度をあげて鮮明に表示されるようにすればよい。
また、本実施の形態では、合焦と同時時に静止した鳥を鮮明に表示させることで視認性を向上させたが、合焦したことをユーザーに容易に伝えることができる表示であればこれに限らない。例えば、合焦と同時に鳥の色を濃くしてもよいし、輪郭の線を太くしてもよい。
<合焦表示の第6の実施の形態>
合焦表示の第6の実施の形態は、合焦状態に応じて花が開くアニメーション表示を行うものである。図14は、上記デジタルカメラ10の合焦表示の処理の流れを示すフローチャートである。以下の処理は、主としてCPU110によって行われる。なお、第1の実施の形態と同一の部分については、同一の符号を付し、詳細な説明を省略する。
S1ONが検出されたかどうかが判断される(ステップS112)。S1ONが検出されなかった場合(ステップS112でNO)には、再度ステップS112が行われる。
S1ONが検出された場合(ステップS112でYES)には、ステップS110において被写体像から顔が検出されたかどうかが判断される(ステップS114)。顔が検出された場合(ステップS114でYES)には、S2ONが検出されたかどうかが判断される(ステップS116)。
顔が検出されなかった場合(ステップS114でNO)には、S2ONが検出されたかどうかが判断される(ステップS118)。S2ONが検出されなかった場合(ステップS118でNO)には、再度顔検出処理(ステップS114)が行われ、S2ONが検出された場合(ステップS118でYES)には、撮影が行われる(ステップS138)。
S2ONが検出された場合(ステップS116でYES)は、AFが正確に行えないため、フォーカスレンズ群を所定の位置へ移動させ(ステップS140)、撮影が行われる(ステップS138)。
S2ONが検出されなかった場合(ステップS116でNO)には、図15(a)に示すように、つぼみがステップS114で検出された顔の上部に表示される(ステップS620)。
レンズ駆動部146を制御してフォーカスレンズ群を移動させながら、複数のAF検出ポイントで焦点評価値を演算し、評価値が極大となるレンズ位置を合焦位置として決定する(ステップS122)。そして、求めた合焦位置にフォーカスレンズ群が移動するように、レンズ駆動部146を制御して、フォーカスレンズ群の移動を開始する。
ステップS114において検出された顔に焦点があったかどうかが判断される(ステップS124)。顔に焦点があっていないと判断された場合(ステップS124でNO)には、求めた合焦位置にフォーカスレンズ群が移動させると同時に、アニメーション画像作成部156において、合焦状態に応じて花が徐々に開花するアニメーション画像が作成され、CPU110において、作成されたアニメーション画像がステップS620でつぼみが表示された位置と同じ位置でスルー画に合成して表示される(ステップS626)。そして、再度ステップS124が行われる。
所望の領域に焦点があっている場合、すなわちフォーカスレンズ群の移動が終了した場合(ステップS124でYES)には、図15(b)に示すように、満開の花がステップS620でつぼみが表示された位置と同じ位置に表示される(ステップS628)。そして、満開の花が明度をあげて鮮明に表示される(ステップS630)。
音声出力がONになっているかが判断される(ステップS132)。音声出力がONになっている場合(ステップS132でYES)には、スピーカー36を介して合焦が終了したことを示す音声、メロディ、合図音などの音が出力され(ステップS134)、S2ONが検出されたかどうかが判断される(ステップS136)。音声出力がONになっていない場合(ステップS132でNO)には、S2ONが検出されたかどうかが判断される(ステップS136)。
S2ONが検出されなかった場合(ステップS136でNO)には、つぼみを表示するステップ(ステップS620)へ戻る。S2ONが検出された場合(ステップS136でYES)には、撮影が行われる(ステップS138)。
本実施の形態によれば、花というユーザーの興味を引く表示形態により、合焦動作を行っていることをユーザーに示すことができる。また、花の開き具合により合焦動作がどの程度進んでいるかが感覚的にわかるため、合焦状態及び合焦が行われたことをユーザーにわかり易く知らせることができる。また、AFが正確に行われなかった場合には花を表示しないことにより、AF動作を行うようにユーザーを誘導することができる。また、検出された顔の近傍に花が表示されるため、どの位置に焦点を合わせるのか、またどの位置で焦点があっているのかをユーザーにわかり易く知らせることができる。
また、本実施の形態では、合焦と同時時に満開の花を鮮明に表示させることで視認性を向上させたが、合焦したことをユーザーに容易に伝えることができる表示であればこれに限らない。例えば、合焦と同時にうさぎの耳全体の色を濃くしてもよいし、輪郭の線を太くしてもよい。
<合焦表示の第7の実施の形態>
合焦表示の第7の実施の形態は、合焦状態に応じて吹き出しが膨らむアニメーション表示を行うものである。図16は、上記デジタルカメラ10の合焦表示の処理の流れを示すフローチャートである。以下の処理は、主としてCPU110によって行われる。なお、第1の実施の形態と同一の部分については、同一の符号を付し、詳細な説明を省略する。
S1ONが検出されたかどうかが判断される(ステップS112)。S1ONが検出されなかった場合(ステップS112でNO)には、再度ステップS112が行われる。
S1ONが検出された場合(ステップS112でYES)には、ステップS110において被写体像から顔が検出されたかどうかが判断される(ステップS114)。顔が検出された場合(ステップS114でYES)には、S2ONが検出されたかどうかが判断される(ステップS116)。
顔が検出されなかった場合(ステップS114でNO)には、S2ONが検出されたかどうかが判断される(ステップS118)。S2ONが検出されなかった場合(ステップS118でNO)には、再度顔検出処理(ステップS114)が行われ、S2ONが検出された場合(ステップS118でYES)には、撮影が行われる(ステップS138)。
S2ONが検出された場合(ステップS116でYES)は、AFが正確に行えないため、フォーカスレンズ群を所定の位置へ移動させ(ステップS140)、撮影が行われる(ステップS138)。
S2ONが検出されなかった場合(ステップS116でNO)には、レンズ駆動部146を制御してフォーカスレンズ群を移動させながら、複数のAF検出ポイントで焦点評価値を演算し、評価値が極大となるレンズ位置を合焦位置として決定する(ステップS122)。そして、求めた合焦位置にフォーカスレンズ群が移動するように、レンズ駆動部146を制御して、フォーカスレンズ群の移動を開始する。
ステップS114において検出された顔に焦点があったかどうかが判断される(ステップS124)。顔に焦点があっていないと判断された場合(ステップS124でNO)には、求めた合焦位置にフォーカスレンズ群が移動させると同時に、アニメーション画像作成部156において、合焦状態に応じて吹き出しが膨らむアニメーション画像が作成され、スルー画に重ねて表示される(ステップS726)。すなわち、アニメーション画像作成部156は、図17(a)に示すように、合焦動作が始まった直後にはきわめて小さい吹き出し(あるいは小さな丸)が表示され、図17(b)に示すように、合焦動作が進むに従って吹き出しが徐々に大きくなり、図17(c)に示すように、合焦動作の完了と共に吹き出しの大きさが最大となるようなアニメーション画像を作成する。CPU110は、作成されたアニメーション画像をステップS114検出された顔の近傍(例えば、横)に表示する。そして、再度ステップS124が行われる。なお、吹き出しを表示する場所は顔の近傍に限らず、顔検出部154で口を検出し、検出された口から吹き出しが出ているような表示をしてもよい。
所望の領域に焦点があっている場合、すなわちフォーカスレンズ群の移動が終了した場合(ステップS124でYES)には、図17(c)に示すように、最大の大きさの吹き出しがステップS114検出された顔の近傍(ステップS728)。そして、吹き出しが明度をあげて鮮明に表示される(ステップS730)。
音声出力がONになっているかが判断される(ステップS132)。音声出力がONになっている場合(ステップS132でYES)には、スピーカー36を介して合焦が終了したことを示す音声、メロディ、合図音などの音が出力され(ステップS134)、S2ONが検出されたかどうかが判断される(ステップS136)。音声出力がONになっていない場合(ステップS132でNO)には、S2ONが検出されたかどうかが判断される(ステップS136)。
S2ONが検出されなかった場合(ステップS136でNO)には、焦点評価値を算出するステップ(ステップS122)へ戻る。S2ONが検出された場合(ステップS136でYES)には、撮影が行われる(ステップS138)。
本実施の形態によれば、吹き出しの大きさが変わるというユーザーの興味を引く表示形態により、合焦動作を行っていることをユーザーに示すことができる。また、吹き出しの大きさにより合焦動作がどの程度進んでいるかが感覚的にわかるため、合焦状態及び合焦が行われたことをユーザーにわかり易く知らせることができる。また、AFが正確に行われなかった場合には吹き出しを表示しないことにより、AF動作を行うようにユーザーを誘導することができる。また、検出された顔の近傍に吹き出しが表示されるため、どの位置で焦点があっているのかをユーザーにわかり易く知らせることができる。
なお、本実施の形態では、合焦と同時時に吹き出しを鮮明に表示させることで視認性を向上させたが、合焦したことをユーザーに容易に伝えることができる表示であればこれに限らない。例えば、合焦と同時に吹き出しの輪郭の線を太くしてもよい。
また、本実施の形態では、吹き出しの中に「!」の文字が表示された吹き出しの形状を変更させるアニメーション画像をスルー画像に合成したが、合焦動作が完了するまでは吹き出しの中に「?」の文字が表示され、合焦動作の完了と共に吹き出しの中に「!」の文字が表示されたアニメーション画像を作成してスルー画像に合成するようにしてもよい。これにより、合焦したことをユーザーにより明確に伝えることができる。
なお、上記実施の形態では、顔を検出し、検出された顔に焦点を合わせたが、検出対象は顔に限らず、人物全体や、犬、猫、うさぎ等の動物や、車などを検出対象とし、検出されたものに対して焦点を合わせるようにしてもよい。なお、人物全体、動物、車などの検出については、公知の様々な技術を用いることができる。
なお、本発明の適用は、デジタルカメラに限定されるものではなく、カメラ付き携帯電話機やビデオカメラ等の撮像装置にも同様に適用することができる。
10…デジタルカメラ、12…カメラボディ、14…レンズ、16…ストロボ、18…ファインダ窓、20…セルフタイマランプ、22…AF補助光ランプ、24…ストロボ調光センサ、26…シャッターボタン、28…電源/モードスイッチ、30…モードダイヤル、32…モニタ、34…ファインダ接眼部、36…スピーカー、38…ズームボタン、40…十字ボタン、42…MENU/OKボタン、44…DISPボタン、46…BACKボタン、110…CPU、112…操作部、114…バス、116…ROM、118…EEPROM、120…メモリ(SDRAM)、122…VRAM、124…撮像素子(CCD)、126…タイミングジェネレータ(TG)、128…アナログ処理部(CDS/AMP)、130…A/D変換器、132…画像入力制御部、134…画像信号処理部、136…ビデオエンコーダ、138…アニメーション画像合成部、140…AF検出部、142…AE/AWB検出部、144…絞り駆動部、146…レンズ駆動部、148…圧縮伸張処理部、150…メディア制御部、152…記憶メディア、154…顔検出部、156…アニメーション画像作成部、160…ストロボ発光制御部