以下、添付図面を参照して、本発明に係る撮影装置及び方法の好ましい実施の形態について詳説する。
[第1の実施の形態]
<装置構成>
図1、図2は、それぞれ本発明が適用されたデジタルカメラの外観構成を示す正面斜視図と背面斜視図である。
同図に示すように、このデジタルカメラ10は、いわゆるコンパクトカメラとして構成されており、そのカメラボディ12は、厚みの薄い四角い箱状に形成されている。
カメラボディ12の正面には、図1に示すように、撮影レンズ14、フラッシュ16、マイク18、視線誘導ランプ20が設けられており、上面には、シャッタボタン22、モードレバー24、電源ボタン26が設けられている。
一方、カメラボディ12の背面には、図2に示すように、モニタ28、ズームボタン30、再生ボタン32、ファンクションボタン34、十字ボタン36、MENUボタン38、OKボタン40、キャンセルボタン42が設けられており、側面には、スピーカ44が設けられている。
また、図示されていないが、カメラボディ12の底面には、三脚ネジ穴、USB端子、電源端子、開閉自在なバッテリカバー等が設けられており、バッテリカバーの内側には、バッテリを収納するためのバッテリ収納室及びメモリカードを装着するためのメモリカードスロットが設けられている。
撮影レンズ14は、沈胴式のズームレンズで構成されており、デジタルカメラ10の電源をONすると、カメラボディ12から繰り出される。なお、撮影レンズ14のズーム機構や沈胴機構については、公知の技術なので、ここでは、その具体的な構成についての説明は省略する。
フラッシュ16は、キセノン管で構成されており、暗いシーンや逆光時などに被写体に向けて発光される。
マイク18は、周囲の音声を集音する。動画撮影時には、このマイク18で集音した音声が映像と共に記録される。
視線誘導ランプ20は、青色のLEDランプで構成されており、視線誘導時に被写体に向けて発光(点滅を含む)される。撮影時に、この視線誘導ランプ20を発光させることにより、被写体の注意が喚起され、被写体の視線が撮影レンズ14に誘導される。
シャッタボタン22は、撮影準備と本撮影の指示を行う操作手段であり、いわゆる「半押し」と「全押し」とからなる二段ストローク式の押下ボタンで構成されている。デジタルカメラ10は、このシャッタボタン22を半押しすると撮影準備、すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)の各処理を行い、全押すると、本撮影、すなわち、記録用の画像の撮影、記録の処理を行う。
なお、シャッタボタン22は、カメラボディ12を把持した際、その把持した手の人指し指が自然にかかる位置(上面やや左端の位置)に配置される。撮影者は、カメラボディ12の正面左端部に配置されたグリップ46に手の中指をかけて、カメラボディ12を右手で把持する。
視線誘導ランプ20は、このカメラボディ12を把持する手の指がかからない位置に配置される。本例では、撮影レンズ14の上に配置され、前方に向けて撮影方向と平行(撮影光軸と平行)に青色の光を投光する。
モードレバー24は、撮影モードの設定を行う操作手段であり、シャッタボタン22の周りを回動して、所定位置、すなわち、「SP位置」、「AUTO位置」、「M位置」、「動画位置」にセット可能に設けられている。デジタルカメラ10は、このモードレバー24を「SP位置」にセットすることにより、「シーンプログラム撮影モード」に設定され、撮影シーンに応じた露出制御、撮影制御を行うモードに設定される。また、「AUTO位置」にセットすることにより、「オート撮影モード」に設定され、露出制御を全自動で行うモードに設定される。また、「M位置」に設定されることにより、「マニュアル撮影モード」に設定され、露出設定を手動で行うモードに設定される。また、「動画位置」に設定することにより、「動画撮影モード」に設定され、動画を撮影するモードに設定される。
なお、「シーンプログラム撮影モード」としては、たとえば、人物撮影を行う「人物撮影モード」、風景撮影を行う「風景撮影モード」、スポーツ撮影を行う「スポーツ撮影モード」、夜景撮影を行う「夜景撮影モード」、水中撮影を行う「水中撮影モード」等が用意されており、メニュー画面で設定される。
電源ボタン26は、デジタルカメラ10の電源のON/OFFを指示する操作手段であり、押下式のボタンで構成されている。デジタルカメラ10は、この電源ボタン26が所定時間継続して押下されることにより(たとえば、2秒)、デジタルカメラ10の電源がON/OFFされる。
モニタ28は、カラーLCDで構成されている。このモニタ28は、撮影済み画像を表示するための画像表示部として利用されるとともに、各種設定時にGUIとして利用される。また、撮影時には、撮像素子で捉えた画像がスルー表示され、電子ファインダとして利用される。
ズームボタン30は、撮影時における撮影レンズ14のズーム操作、及び、再生時における再生画像のズーム操作を行う操作手段であり、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとで構成されている。
再生ボタン32は、再生モードへの切り替えを指示する操作手段であり、押下式のボタンで構成されている。デジタルカメラ10は、撮影中、この再生ボタン32が押されると、再生モードに切り替えられる。また、電源OFFの状態でこの再生ボタン32が押されると、デジタルカメラ10は、再生モードで起動する。
ファンクションボタン34は、特定の撮影機能及び再生機能の設定画面の呼び出しを指示する操作手段であり、押下式のボタンで構成されている。デジタルカメラ10は、撮影時に、このファンクションボタン34が押されると、モニタ28に画像サイズ(記録画素数)、感度、画質等の設定画面が表示され、これらの設定が可能になる。また、再生時に、このファンクションボタン34が押されると、モニタ28に表示中の画像のプリント予約(DPOF)、表示中の画像のプロテクト等の設定画面が表示され、これらの設定が可能になる。
十字ボタン36は、上下左右4方向に押下操作可能に設けられた操作手段である。この十字ボタン36の各方向には、カメラの状態に応じた機能が割り当てられる。たとえば、撮影時には、左ボタンにマクロ機能のON/OFFを切り替える機能が割り当てられ、右ボタンにフラッシュモードを切り替える機能が割り当てられる。また、上ボタンにモニタ28の明るさを替える機能が割り当てられ、下ボタンにセルフタイマのON/OFFを切り替える機能が割り当てられる。また、再生時には、左ボタンにコマ送りの機能が割り当てられ、右ボタンにコマ戻しの機能が割り当てられる。また、上ボタンにモニタ28の明るさを替える機能が割り当てられ、下ボタンに再生中の画像を削除する機能が割り当てられる。また、各種設定時には、モニタ28に表示されたカーソルを各ボタンの方向に移動させる機能が割り当てられる。
なお、本実施の形態のデジタルカメラ10において、フラッシュモードには、オート発光モード(撮影シーンに応じて自動的にフラッシュが発光される)と、強制発光モード(強制的にフラッシュが発光される)と、発光禁止モード(発光が禁止される)と、スローシンクロモード(スローシャッタ撮影が行われる)、赤目軽減発光モード(赤目軽減処理が行われる)、二枚撮りモード(1回の記録指示(シャッタボタンの全押し)でフラッシュON画像とフラッシュOFF画像の二枚の画像を撮影する)が用意されており、十字ボタン36の右ボタンを押すたびに順次モードが切り替わるように構成されている。
MENUボタン38は、メニュー画面の呼び出しを指示する操作手段であり、押下式のボタンで構成されている。デジタルカメラ10は、このMENU38を押下することによって、モニタ28に呼び出されるメニュー画面で各種設定が行われる。たとえば、セルフタイマ機能のON/OFFや測光方式の切り替え、AF方式の切り替え、デジタルズーム機能のON/OFF、ホワイトバランス(光源種別)の切り替え、連写機能のON/OFF、日時設定等の各種設定が行われる。
OKボタン40は、メニュー画面等で選択した項目の確定、処理の実行を指示する操作手段であり、押下式のボタンで構成されている。
キャンセルボタン42は、入力操作のキャンセルを指示する操作手段であり、押下式のボタンで構成されている。
スピーカ44は、音声を出力する。動画再生時には、このスピーカ44から音声が出力される。
図3は、図1及び図2に示したデジタルカメラ10のシステム構成を示すブロック図である。
同図に示すように、デジタルカメラ10は、CPU112、操作部114、ROM116、フラッシュROM118、メモリ(SDRAM)120、撮影レンズ14、イメージセンサ130、イメージセンサ駆動回路132、アナログ信号処理回路134、A/D変換回路136、画像入力制御回路138、デジタル信号処理回路140、AF検出回路142、AE検出回路144、圧縮伸張処理回路146、メディア制御回路148、表示制御回路150、モニタ28、音声信号処理回路158、音声入力回路160、マイク18、音声出力回路164、スピーカ44、フラッシュ制御回路168、フラッシュ16、視線誘導ランプ制御回路170、視線誘導ランプ20、電源制御回路172、電源174、顔検出回路176、表情判定回路178、動き検出回路180等を備えて構成されている。
CPU112は、デジタルカメラ10の全体の動作を統括制御する制御手段であり、所定のプログラムを実行して、デジタルカメラ10の各部を制御する。また、所定のプログラムを実行して、制御に必要な各種演算処理を実行する。
バス186を介して接続されたROM116には、このCPU112が実行するプログラム及び制御に必要な各種データ等が格納されており、フラッシュROM118には、デジタルカメラ10の動作に関する各種設定情報等が格納されている。
メモリ(SDRAM)122は、CPU112のプログラム実行領域として利用されるとともに、データの一時記憶領域として利用される。
操作部114は、各操作ボタン類(シャッタボタン22、モードレバー24、電源ボタン26、ズームボタン30、再生ボタン32、ファンクションボタン34、十字ボタン36、MENUボタン38、OKボタン40、キャンセルボタン42)の操作に応じた信号をCPU112に出力する。
撮影レンズ14は、ズームレンズ14z、絞り14i、フォーカスレンズ14f等を備えて構成されている。
ズームレンズ14zは、光軸上を前後移動自在に設けられており、ズームモータ126zに駆動されて、光軸上を光軸に沿って前後移動する。撮影レンズ14は、このズームレンズ14zを前後移動させることにより、焦点距離が変化する。CPU112は、ズーム制御回路128zを介してズームモータ26zの駆動を制御し、ズームレンズ14zの移動を制御して、撮影レンズ14の焦点距離を制御する。
フォーカスレンズ14fは、光軸上を前後移動自在に設けられており、フォーカスモータ26fに駆動されて、光軸上を前後移動する。撮影レンズ14は、このフォーカスレンズ14fを光軸に沿って前後移動させることにより、焦点位置が変化する。CPU112は、フォーカス制御回路128fを介してフォーカスモータ126fの駆動を制御し、フォーカスレンズ14fの移動を制御することにより、撮影レンズ14の焦点位置を制御する。
絞り14iは、虹彩絞りで構成されており、絞りモータ26iに駆動されて、その開口量が可変する。撮影レンズ14は、この絞り14iの開口量を調整することにより、イメージセンサ130への入射光量(絞り値)を調整する。CPU112は、絞り制御回路128iを介して絞りモータ26iの駆動を制御し、絞り14iの開口量を制御することにより、絞り値(F値)を制御する。
なお、本例では虹彩絞りを用いることとしているが、ターレット式の絞り等の他の構成の絞りを用いることもできる。
イメージセンサ130は、単板式のカラーCCD(たとえば、ベイヤ配列の原色カラーCCD)で構成されている。イメージセンサ駆動回路132は、CPU112からの指令に応じて、イメージセンサ130を駆動し、各フォトダイオードに蓄積された信号電荷を電圧信号(画像信号)として点順次に出力させる。なお、本実施の形態では、イメージセンサとして、単板式のカラーCCDを採用しているが、CMOS等の他の構成のイメージセンサを用いてもよい。
アナログ信号処理回路134は、アナログ信号処理回路138は、相関二重サンプリング回路(CDS)、ゲイン・コントロール・アンプ(AGC)を含み、イメージセンサ130から点順次に出力されたR、G、Bのアナログの画像信号を取り込んで、所要の信号処理を施す。すなわち、相関二重サンプリング回路でアンプ雑音とリセット雑音を除去し、ゲイン・コントロール・アンプでゲインを調整する。
A/D変換回路136は、アナログ信号処理回路134から出力されたアナログの画像信号をデジタルの画像信号に変換する。
画像入力制御回路138は、CPU112からの指令に応じて、A/D変換回路136から出力される画像信号を順次取り込み、1コマ分の画像データとして、メモリ120に格納する。
デジタル信号処理回路140は、CPU112からの指令に応じて、メモリ120に格納された画像データ(RAWデータ)を取り込み、所定の信号処理を施して、可視可能な画像データを生成する。具体的には、単板式のイメージセンサから得られるRAWデータは、各画素が単色の色情報しか持たないため、所要の補完処理(デモザイク処理)を行って、各画素がR、G、B三色の色情報を持った画像データを生成する。また、これと同時に明るさやコントラスト、ホワイトバランス、増感補正、彩度、シャープネスなどの画像処理(レタッチ処理)を行って、最終的に可視可能な画像データ(再生用の画像データ)を生成する。ここでは、カラー画像データとして、輝度データ(Yデータ)と色差データ(Crデータ、Cbデータ)とからなるY/Cデータを生成する。
なお、画像処理は、通常、自動で行われるが(シーンに応じて最適な画像となるように、画像処理を行うための各種パラメータ(現像パラメータ)が自動設定されて、画像処理が行われる。)、ユーザが特定の画像処理の条件について修正を指示した場合には、指示された条件に従って、対応する現像パラメータを修正し、画像処理を実行する。たとえば、画像の明るさを明るくする又は暗くする指示がなされた場合には、指示された程度に応じて、明るさの現像パラメータを修正して、画像処理が行われ、彩度を上げる又は下げる指示がなされた場合には、指示された程度に応じて、彩度の現像パラメータを修正して、画像処理が行われる。他の現像パラメータについても同様である。
修正の指示は、メニュー画面から専用の設定画面を呼び出して、モニタ28上で行われる。この設定画面では、たとえば、各現像パラメータについて、1段ずつ±10の範囲で修正を指示できるようにされている(デフォルトでは0)。ユーザは、修正する現像項目を選択し、十字キーを上下動させて、修正量を入力する。
このようにして、修正が指示された場合、CPU112は、自動設定された現像パラメータ(標準の現像パラメータ)を指示された修正量で修正し、デジタル信号処理回路140に画像処理を行わせる。
デジタル信号処理回路140で生成された画像データ(現像データ)は、メモリ120に格納される。
AF検出回路142は、メモリ120に格納された1コマ分のRAWデータを取り込み、AF制御に必要な焦点評価値を算出する。CPU112は、このAF検出回路142から出力される焦点評価値に基づいてフォーカスレンズ14fの移動を制御し、焦点合わせを行う。具体的には、フォーカスレンズ14fを至近から無限遠まで移動させて、焦点評価値が極大となる位置をサーチし、サーチされた位置にフォーカスレンズ124fを移動させることにより、焦点合わせを行う(いわゆるコントラストAF)。
AE検出回路144は、メモリ120に格納された1コマ分のRAWデータを取り込み、AE制御に必要な積算値を算出する。具体的には、一画面を複数のエリア(たとえば、8×8=64エリア)に分割し、分割されたエリアごとにR、G、B信号の積算値を算出する。CPU112は、このAE検出回路144で算出されたエリアごとのR、G、B信号の積算値の情報を取得して、本撮影時の露出を決定する。具体的には、得られた積算値から被写体の明るさ(測光値)を算出し、算出さられた測光値と設定ISO感度とに基づいて露出値(EV値)を算出し、所定のプログラム線図を参照して、本撮影時の露出(絞り値、シャッタースピード)を決定する。
圧縮伸張処理回路146は、CPU112からの指令に応じて、入力された画像データ(Y/Cデータ)を所定の圧縮フォーマット(本実施の形態では、JPEG)で圧縮して、圧縮画像データを生成する。また、CPU112からの指令に応じて、入力された圧縮画像データを伸張し、非圧縮の画像データ(Y/Cデータ)を生成する。
メディア制御回路148は、CPU112からの指令に応じて、記憶メディア184にデータを読み/書きする。記憶メディア184は、メモリカードとして、カメラボディ12に設けられたメモリカードスロットに着脱自在に装着される。
表示制御回路150は、CPU112からの指令に応じて、モニタ28の表示を制御する。この表示制御回路150は、OSD(On Screen Display)回路を含み、OSD回路は、CPU112からの指令に応じて、文字や図形、記号等を画像に重ねてモニタ28に表示させる。
音声信号処理回路158は、CPU112からの指令に応じて、音声入力回路60から入力された音声信号を処理し、記録用の音声データを生成する。また、CPU112からの指令に応じて、記録済みの音声データを再生処理し、音声出力回路164に出力する。
音声入力回路60は、マイク62から取り込まれた音声信号をデジタル信号に変換して、音声信号処理回路158に出力する。
音声出力回路164は、音声信号処理回路158から出力された音声信号をアナログ信号に変換して、スピーカ44から出力する。
フラッシュ制御回路168は、CPU112からの指令に応じて、フラッシュ16の発光を制御する。
視線誘導ランプ制御回路170は、CPU112からの指令に応じて、視線誘導ランプ20の発光を制御する。
電源制御回路172は、CPU112からの指令に応じて、バッテリ174から供給される電力の各部への供給を制御する。
顔検出回路176は、CPU112からの指令に応じて、入力された画像データから画像中に含まれる人物の顔領域を検出する。具体的には、顔テンプレートとのパターンマッチングにより、入力された画像データから人物の顔領域を検出する。検出された人物の顔領域の情報はCPU112に出力される。
なお、画像から人物の顔領域を検出する方法は、これに限らず、他の方法、たとえば、原画像から肌色データを抽出し、肌色範囲と判断された測光点のクラスタを顔として抽出する方法や、測光データを色相と彩度に変換し、変換した色相・彩度の二次元ヒストグラムを作成し、解析することで、顔領域を判断する方法、人の顔の形状に相当する顔候補領域を抽出し、その領域内の特徴量から顔領域を決定する方法、画像から人の顔の輪郭を抽出し、顔領域を決定する方法等を用いて検出する構成とすることもできる。
表情判定回路178は、CPU112からの指令に応じて、顔検出回路176で検出された顔領域の表情を判定する。すなわち、顔検出回路176で顔領域が検出された画像データを取り込み、所要の画像解析を行って、そこに写されている人物の表情(たとえば、怒り、嫌悪、恐怖、喜び、悲しみ、驚き、無表情等)を判別する。この判定結果は、CPU112に出力される。
なお、画像に写されている人物の顔の表情(感情)を判別(認識)する技術については、種々の公知技術が存在するので、これら公知技術を用いて、表情の判別を行うことができる。たとえば、目や口などの顔器官に設定した特徴点の位置関係を示す特徴量を算出し、その特徴量から表情を推定する。
動き検出回路180は、CPU112からの指令に応じて、イメージセンサ130から得られた画像データから撮影中の被写体の動き量を検出する。具体的には、イメージセンサ130から画像データを連続的に取り込み、前後する画像データの差分を求めて、被写体の動き量を検出する。検出された被写体の動き量の情報はCPU112に出力される。
なお、画像から被写体の動き量を検出する方法は、これに限らず、他の方法で検出する構成とすることもできる。
<基本動作>
次に、本実施の形態のデジタルカメラ10による撮影、再生の基本動作について説明する。
まず、撮影時の基本動作について説明する。
撮影は、カメラのモードを撮影モードに設定することにより行われる。本実施の形態のデジタルカメラ10は、カメラの電源を投入すると、撮影モードで起動する。
カメラのモードが、撮影モードに設定されると、イメージセンサ130からスルー表示用の画像が連続的に取り込まれる。取り込まれた画像信号は、連続的に処理されて、モニタ28に出力される。撮影者は、このモニタ28に表示される画像(スルー画像)を見て構図を確認し、シャッタボタン22を半押して、撮影準備の実行を指示する。
シャッタボタン22が半押しされると、CPU112には、S1ON信号が入力される。CPU112は、このS1ON信号の入力に応動して、撮影準備処理、すなわち、AE、AFの各処理を実行する。
まず、イメージセンサ130から出力された画像信号が、AE検出回路144及びAF検出回路142に加えられる。
AE検出回路144は、入力された画像信号からAE制御に必要な積算値を算出し、CPU112に出力する。CPU112は、このAE検出回路144から得られた積算値に基づき露出を決定する。
また、AF検出回路142は、入力された画像信号からAF制御に必要な焦点評価値を算出し、CPU112に出力する。CPU112は、このAF検出回路142から得られた焦点評価値に基づきフォーカスレンズ14fの移動を制御し、撮影レンズ14の焦点を主要被写体に合わせる。
撮影者は、モニタ28に表示されるスルー画像を見てピント状態等を確認し、シャッタボタン22を全押しして、本撮影の実行を指示する。
シャッタボタン22が全押しされると、CPU112にS2ON信号が入力される。CPU112は、このS2ON信号に応動して、本撮影の処理を実行する。
まず、上記AEで決定した露出でイメージセンサ130を露光させ、記録用の画像を撮像する。
イメージセンサ130から出力された記録用の画像信号は、アナログ信号処理回路134で所要の信号処理を施されたのち、A/D変換回路136でデジタル信号に変換されて、画像入力制御回路138からメモリ120に取り込まれる。
メモリ120に取り込まれた画像データ(RAWデータ)は、デジタル信号処理回路140に加えられ、ここで所要の現像処理が施されて、輝度データYと色差データCr、Cbとからなる画像データ(Y/Cデータ)に変換される。
生成された画像データは、メモリ120に一旦格納されたのち、圧縮伸張処理回路146に加えられ、ここで所要の圧縮処理が施されて、圧縮画像データに変換される。
生成された圧縮画像データは、メモリ120に格納される。CPU112は、このメモリ120に格納された圧縮画像データに所定の付属情報を付加して、所定フォーマット(本実施の形態では、Exif)の画像ファイルを生成する。
生成された画像ファイルは、メディア制御回路148を介して記憶メディア184に記録される。なお、本実施の形態のデジタルカメラ10では、DCF規格に従って記憶メディア184に画像ファイルが記録される。
なお、上記の例では、撮影により得られた画像データを圧縮して記録する例で説明したが、圧縮せずに記録することもできる。また、RAWデータとして記録することもでき、この場合、A/D変換後の画像データ(RAWデータ)が、そのまま記憶メディア184に記録される。撮影者は、撮影時に記録モードを選択することができる。
次に、画像再生時の基本動作について説明する。
画像の再生は、カメラのモードを再生モードに設定することにより行われる。撮影モードから再生モードへの切り換えは、再生ボタン32を押下することにより行われる。また、カメラの電源がOFFされている場合は、再生ボタン32を押下することにより、カメラは再生モードで起動する。なお、この再生モードの状態でシャッタボタン22を半押しすると、カメラのモードが撮影モードに切り換えられる。
カメラのモードが、再生モードに設定されると、CPU112は、メディア制御回路148を介して記憶メディア184に最後に記録された画像ファイルの画像データを読み出す。読み出された画像データは、圧縮伸張処理回路146で所要の伸張処理が施されたのち、表示制御回路150を介してモニタ28に出力される。
これにより、記憶メディア184に記録された画像が、モニタ28に再生表示される。
なお、最後に記録された画像ファイルの画像データが、非圧縮の画像データの場合は、そのまま表示制御回路150を介してモニタ28に出力される。また、最後に記録された画像ファイルの画像データが、RAWデータの場合は、デジタル信号処理回路140で所要の現像処理が施されたのち、表示制御回路150を介してモニタ28に出力される。
画像のコマ送り/コマ戻しは、十字ボタン36の右ボタン/左ボタンで行われ、右ボタンが押下操作されると、次の画像が記憶メディア184から読み出されて、モニタ28に再生表示される。また、左ボタンが押圧操作されると、一つ前の画像が記憶メディア184から読み出され、モニタ28に再生表示される。
<視線誘導処理>
さて、本実施の形態のデジタルカメラ10には、視線誘導の機能が備えられており、当該機能を発動させると、視線誘導ランプ20が点滅して、被写体の注意を喚起し、被写体の視線を撮影レンズ14に誘導する。
この視線誘導の機能は、図4に示すように、少数の被写体(同図では二人)を多数の撮影者(同図では9人)が取り囲んで撮影するようなシチュエーション(たとえば、結婚式など、以下、「撮影会シチュエーション」という。)で特に有効に機能する。本実施の形態のデジタルカメラ10は、撮影シチュエーションを自動的に判別し、撮影会シチュエーションの場合は自動的に視線誘導機能を発動させる。
図5は、撮影シチュエーションを判別して、撮影する場合の処理の手順を示すフローチャートである。
上記のように、撮影時はモニタ28にスルー画像が表示されるので、撮影者は、このスルー画像を見て構図を決定し、シャッタボタン22を半押して、撮影準備を指示する。
上記のように、シャッタボタン22が半押しされると、操作部114からCPU112にS1ON信号が入力される。CPU112は、操作部114からの信号入力に基づいて、シャッタボタン22が半押しされたか否かを判定する(ステップS10)。
シャッタボタン22が半押しされると、CPU112は、撮影準備が指示されたと判断して、撮影準備処理を行う(ステップS11)。すなわち、AE、AFの各処理を実行する。
撮影準備が完了すると、CPU112は、スルー表示用に取り込んだ画像データに基づいて、撮影シチュエーションの判定処理を行う(ステップS12)。具体的には、画面内(現在の撮影範囲)に人物の顔領域が存在するか否か、存在する場合は、その顔領域が画面に占める割合が閾値以上か否か、顔領域が画面に占める割合が閾値以上の場合は、その顔が笑顔か否かを判定し、撮影会シチュエーションであるか否かを判定する。すなわち、すべての要件が満たされている場合は、少数の被写体を大勢で撮影している撮影会シチュエーションと判定し、それ以外は撮影会シチュエーションではないと判定する。
図6は、撮影シチュエーションの判定処理の手順を示すフローチャートである。
まず、画面内から人物の顔領域を検出する(ステップS20)。顔領域の検出は、顔検出回路176で行われ、スルー表示用に取り込んだ画像データを顔検出回路176に加えて、画面内の人物の顔領域を検出する。
CPU112は、この顔領域の検出結果を顔検出回路176から取得して、画面内に人物の顔領域が存在するか否かを判定する(ステップS21)。
この判定で画面内に人物の顔領域が存在しないと判定すると、CPU112は、現在の撮影シチュエーションが、撮影会シチュエーションではないと判定し(ステップS27)、撮影シチュエーションの判定処理を終了する。
一方、画面内に人物の顔領域が存在すると判定すると、次に、CPU112は、顔領域の検出結果に基づいて、検出された顔領域が画面内に占める割合を算出する(ステップS22)。
そして、算出された割合が閾値以上か否かを判定する(ステップS23)。すなわち、一般に少数の被写体を大勢で撮影する撮影会シチュエーションでは、人物の顔を比較的大きく写すと考えられるので、画面内に人物の顔の大きさが一定の大きさ以上で写されているか否か(画面内に占める人物の顔領域の割合が閾値以上であるか否か)を判定する。
この判定で画面内に占める人物の顔領域の割合が閾値未満と判定すると、CPU112は、現在の撮影シチュエーションが、撮影会シチュエーションではないと判定し(ステップS27)、撮影シチュエーションの判定処理を終了する。
一方、画面内に占める人物の顔領域が閾値以上と判定すると、次に、CPU112は、検出された顔の表情を判定する(ステップS24)。表情の判定は、表情判定回路178で行われ、顔検出した画像データを表情判定回路178に加えて、検出された顔領域の顔の表情を判定する。
CPU112は、この表情の判定結果を表情判定回路178から取得して、検出された人物の顔が笑顔か否かを判定する(ステップS25)。
この判定で検出された人物の顔が笑顔ではないと判定すると、CPU112は、現在の撮影シチュエーションが、撮影会シチュエーションではないと判定し(ステップS27)、撮影シチュエーションの判定処理を終了する。
一方、検出された人物の顔が笑顔と判定すると、現在の撮影シチュエーションが、少数の被写体を大勢で撮影する撮影会シチュエーションであると判定し(ステップS26)、撮影シチュエーションの判定処理を終了する。
この後、CPU112は、撮影処理フロー(図5)に復帰し、撮影シチュエーションの判定結果に基づいて、視線誘導機能の発動の要否を判定する(ステップS13)。すなわち、撮影シチュエーションの判定結果、現在の撮影シチュエーションが、撮影会シチュエーションであると判定されていれば、視線誘導機能の発動が必要と判定する。一方、現在の撮影シチュエーションが、撮影会シチュエーションではないと判定されていれば、視線誘導機能の発動は不要と判定する。
この判定で視線誘導機能の発動が必要と判定すると、CPU112は、視線誘導ランプ20を所定の態様で点滅させて、視線誘導機能を発動させる(ステップS14)。この視線誘導ランプ20が点滅することにより、被写体の注意が喚起され、被写体の視線が撮影レンズ14に誘導される。
この後、CPU112は、操作部114の入力に基づいて、シャッタボタン22が全押しされたか否かを判定し(ステップS15)、本撮影の指示がなされたか否かを判定する。
上記ステップS13において、視線誘導機能の発動が不要と判定した場合も、CPU112は、操作部114からの入力に基づいて、シャッタボタン22が全押しされたか否かを判定し(ステップS15)、本撮影の指示がなされたか否かを判定する。
なお、上記のように、シャッタボタン22が全押しされると、操作部114からCPU112にS2ON信号が入力されるので、CPU112は、このS2ON信号の入力に基づいて、シャッタボタン22が全押しされたか否かを判定する。
ここで、シャッタボタン22が全押しされていないと判定すると、CPU12は、シャッタボタン22の半押しが解除されたか否かを判定する(ステップS17)。そして、シャッタボタン22の半押しが解除されたと判定すると、ステップS10に戻り、再度シャッタボタン22の半押しの有無を判定する。
一方、シャッタボタン22が全押しされたと判定すると、CPU12は、本撮影の処理を実行する(ステップS16)。すなわち、AEで決定した露出でイメージセンサ130を露光させ、記録用の画像を撮像する。そして、得られた画像データを記憶メディア184に記録する(ステップS17)。
このように、本実施の形態のデジタルカメラ10では、撮影シチュエーションを自動で認識し、自動的に視線誘導機能を発動させるので、カメラ目線の好ましい画像を簡単に撮影することができる。
なお、上記の実施の形態では、画面中に占める人物の顔領域の割合が閾値以上であって、かつ、画面内の人物の顔の表情が笑顔の場合に少数の被写体を大勢で撮影する撮影会撮影シチュエーションであると判定しているが、撮影会シチュエーションの判定方法は、これに限定されるものではない。画面内に占める被写体の顔の割合、画面内の被写体の顔の向き、画面内の被写体までの距離、画面内の被写体の動き量、画面内の被写体の顔の表情、所定時間内における画面内の被写体の明るさの変化量の少なくとも一つを検出し、その検出結果に基づいて、撮影会シチュエーションを判別する構成とすることもできる。
すなわち、上記のように、少数の被写体を大勢で撮影する場合、画面内に被写体の顔を大きく写すことが多いので、画面内に占める被写体の顔の割合の割合を検出し、その割合が一定以上の場合は、撮影会シチュエーションと判定するようにする。
また、少数の被写体を大勢で撮影する場合、画面内の被写体の顔の向きが正面(ほぼ正面を含む)を向いていることが多いので、画面内の被写体の顔の向きを検出し、その向きが正面の場合は、撮影会シチュエーションと判定するようにする。
また、少数の被写体を大勢で撮影する場合、画面内の被写体までの距離が近いことが多いので(およそ1〜3m程度と考えられる。)、画面内の被写体までの距離を検出し、その距離が一定範囲内の場合は、撮影会シチュエーションと判定するようにする。
また、上記のように、少数の被写体を大勢で撮影する場合、画面内の被写体の表情が笑顔であることが多いので、画面内の被写体の表情を判定し、笑顔の場合は、撮影会シチュエーションと判定するようにする。
また、少数の被写体を大勢で撮影する場合、画面内の被写体は、動かないことが多いので、画面内の被写体の動き量を検出し、その動き量が一定量以下の場合は、撮影会シチュエーションと判定するようにする。
また、フラッシュが沢山たかれているときは、少数の被写体を大勢で撮影していると考えられるので、所定時間内における画面内の被写体の明るさの変化量を検出し、その変化量が一定量以上のときは、撮影会シチュエーションと判定するようにする。すなわち、このような場合、被写体の顔に他のカメラのフラッシュが当たって短時間で大きな明暗差が生じるので、所定時間内における画面内の被写体の明るさの変化量を検出し、その変化量が一定量以上のときは、撮影会シチュエーションと判定する。
なお、判定項目は少なくとも一つあればよいが、より高精度に判定するためには、複数の判定項目を組み合わせ、すべてにおいて要件を満足する場合(すべての判定で肯定の場合)に、撮影会シチュエーションと判定することが好ましい。
また、複数の判定項目で判定を行い、規定数以上の要件を満足する場合に、撮影会シチュエーションと判定するようにしてもよい。たとえば、画面内に占める被写体の顔の割合が閾値以上か否か、画面内の被写体の顔の向きが正面か否か、画面内の被写体までの距離が所定範囲か、画面内の被写体の動き量が閾値以下か、画面内の被写体の顔の表情が笑顔か、所定時間内における画面内の被写体の明るさの変化量が閾値以上かのすべてを判定し、少なくとも3項目以上において、要件を満足している場合に撮影会シチュエーションと判定するようにしてもよい。
また、特定の判定項目を必須項目とし、それに加えて他の判定項目も満足している場合に撮影会シチュエーションと判定するようにしてもよい。たとえば、画面内に占める被写体の顔の割合が閾値以上であることを必須項目とし、これに加えて、画面内の被写体の顔の向きが正面、画面内の被写体までの距離が所定範囲、画面内の被写体の動き量が閾値以下、画面内の被写体の顔の表情が笑顔、所定時間内における画面内の被写体の明るさの変化量が閾値以上の少なくとも一つの要件を満足する場合に撮影会シチュエーションと判定するようにしてもよい。
なお、上述した各判定項目、すなわち、(1)画面内に占める被写体の顔の割合が閾値以上か否か、(2)画面内の被写体の顔の向きが正面か否か、(3)画面内の被写体までの距離が所定範囲か、(4)画面内の被写体の動き量が閾値以下か、(5)画面内の被写体の顔の表情が笑顔か、(6)所定時間内における画面内の被写体の明るさの変化量が閾値以上かの中では、(2)画面内の被写体の顔の向きが正面か否か、(3)画面内の被写体までの距離が所定範囲か、(4)画面内の被写体の動き量が閾値以下かの3項目が、もっとも撮影会シチュエーションとの相関が高く、次いで、(1)画面内に占める被写体の顔の割合が閾値以上か否かの項目、次いで、(6)所定時間内における画面内の被写体の明るさの変化量が閾値以上か、(5)画面内の被写体の顔の表情が笑顔かの項目が、撮影会シチュエーションとの相関が高いと考えられる。
したがって、好ましくは、(2)画面内の被写体の顔の向きが正面か否か、(3)画面内の被写体までの距離が所定範囲か、(4)画面内の被写体の動き量が閾値以下かの3項目について検出し、すべての項目の要件を満たした場合に撮影会シチュエーションと判別することが好ましい。
そして、より高精度に撮影シチュエーションを判別する場合は、上記3項目((2)画面内の被写体の顔の向きが正面か否か、(3)画面内の被写体までの距離が所定範囲か、(4)画面内の被写体の動き量が閾値以下か)に加えて、(1)画面内に占める被写体の顔の割合が閾値以上か否かの項目についても検出し、すべての項目の要件を満たした場合、撮影会シチュエーションとの判別することが好ましい。
また、更に高精度に撮影シチュエーションを判別する場合は、上記4項目(2)画面内の被写体の顔の向きが正面か否か、(3)画面内の被写体までの距離が所定範囲か、(4)画面内の被写体の動き量が閾値以下か、(1)画面内に占める被写体の顔の割合が閾値以上か否か)に加えて、(6)所定時間内における画面内の被写体の明るさの変化量が閾値以上か、及び/又は、(5)画面内の被写体の顔の表情が笑顔かについても検出し、すべての項目の要件を満たした場合、撮影会シチュエーションとの判別することが好ましい。
なお、上記3項目(2)画面内の被写体の顔の向きが正面か否か、(3)画面内の被写体までの距離が所定範囲か、(4)画面内の被写体の動き量が閾値以下か)に加えて、(6)所定時間内における画面内の被写体の明るさの変化量が閾値以上か、及び/又は、(5)画面内の被写体の顔の表情が笑顔かについても検出し、すべての項目の要件を満たした場合、撮影会シチュエーションとの判別するようにしてもよい。
また、(1)画面内に占める被写体の顔の割合が閾値以上か否か、(2)画面内の被写体の顔の向きが正面か否か、(3)画面内の被写体までの距離が所定範囲か、(4)画面内の被写体の動き量が閾値以下か、(5)画面内の被写体の顔の表情が笑顔か、(6)所定時間内における画面内の被写体の明るさの変化量が閾値以上かのすべての項目について検出し、(2)画面内の被写体の顔の向きが正面か否か、(3)画面内の被写体までの距離が所定範囲か、(4)画面内の被写体の動き量が閾値以下かの3項目がについて要件を満足し、かつ、(1)画面内に占める被写体の顔の割合が閾値以上か否かの項目、(6)所定時間内における画面内の被写体の明るさの変化量が閾値以上か、(5)画面内の被写体の顔の表情が笑顔かの少なくとも一つの項目で要件を満足している場合に撮影会シチュエーションと判定するようにしてもよい。
なお、検出、判定する項目については、カメラに実装されている機能に応じて、適宜選択して設定することが好ましい。すなわち、顔検出AF(画面内の顔領域を検出して、検出された顔に焦点を自動的に合せる機能)等のために、顔検出機能が実装されているカメラの場合には、これを利用して、画面中に占める人物の顔領域の割合を検出することができるので、画面中に占める人物の顔領域の割合を検出して、撮影シチュエーションを判別する。
また、表情に応じて自動的に撮影する機能(たとえば、笑顔を判定して、自動的に撮影する機能)等のために、表情判定機能を備えている場合には、その表情判定機能を利用して、撮影シチュエーションを判別する。
同様に、顔の向きの検出機能を備えている場合には、その顔の向きの検出機能を利用して、撮影シチュエーションを判別する。
また、撮影画像のブレを防止等するために、被写体の動き量を検出する機能を備えている場合には、その動き量の検出機能を利用して、撮影シチュエーションを判別する。たとえば、上記実施の形態のデジタルカメラ10には、動き検出回路180が備えられているので、これを利用して、撮影シチュエーションを判別することができる。
また、被写体までの距離については、画像解析により計測することもできるが、AF制御の結果を利用して求めることもできる(たとえば、フォーカスレンズ14fの位置情報から演算により求めることができる。)。
なお、上述した画面内に占める被写体の顔の割合、画面内の被写体の顔の向き、画面内の被写体までの距離、画面内の被写体の動き量、画面内の被写体の顔の表情、所定時間内における画面内の被写体の明るさの変化量の検出は、すべて専用のハードウェアにて行うようにすることもできるが、画像データを解析することによって検出することができるので、ソフトウェアで実現することもできる。ソフトウェアで実現する場合は、部品点数が増加することがないので、低コストで実装することができる。
なお、上記実施の形態では、視線誘導機能として、視線誘導ランプ20を所定の態様で点滅させているが、視線誘導の構成は、これに限定されるものではない。この他、所定の音声をスピーカ44から発生させて、視線誘導を行うようにしてもよい(たとえば、「こっち向いて」などの音声をスピーカ44から発生させる。)。
また、複数の視線誘導機能を発動させて、視線誘導を行うようにしてもよい。たとえば、視線誘導ランプ20を所定の態様で点滅させるとともに、所定の音声をスピーカ44から発生させて、視線誘導を行うようにしてもよい。
また、上記実施の形態では、視線誘導手段として、専用の視線誘導ランプ20をカメラボディ12に設置しているが、カメラに既存の装置を用いて視線誘導手段を構成することにより、部品点数を削減することができる。たとえば、フラッシュが備えられている場合には、フラッシュを高速に点滅させて、視線誘導に用いるようにしてもよい。また、セルフタイマランプを備えている場合には、セルフタイマランプを所定の態様で発光、点滅させて、視線誘導に用いるようにてもよい。また、AF補助光ランプを備えている場合には、AF補助光ランプを所定の態様で発光、点滅させて、視線誘導に用いるようにしてもよい。
なお、視線誘導機能を発動させる場合、視線誘導ランプ20は、本撮影が行われるまで継続して発光させるようにしてもよいし、また、一定時間発光させて、停止させるようにしてもよい(この場合、再度撮影会シチュエーションであると判定されると、再発光される。)。
また、視線誘導ランプ20の発光態様を複数用意し、ユーザが選択できるようにしてもよい。
また、視線誘導ランプ20は、単色の光を発光させるのではなく、複数の光を発光させるようにしてもよい。たとえば、赤、青、緑のLEDで構成し、順番に発光させるようにしてもよい。これにより、より注意を喚起することができる。
なお、上記実施の形態では、被写体として人物を対象とした場合を例に説明したが、被写体は、これに限定されるものではなく、ペット等の動物を対象とすることもできる。
[第2の実施の形態]
本実施の形態のデジタルカメラでは、周囲で発生するシャッタ音に基づいて、撮影シチュエーションを判別する。すなわち、一定期間内に多数のシャッタ音が周囲で発生しているような場合は、少数の被写体を大勢で撮影するシチュエーション(撮影会シチュエーション)と考えられるので、このような場合に自動的に視線誘導機能を発動させる。
図7は、本実施の形態のデジタルカメラ10aのシステム構成を示すブロック図である。
同図に実施の形態に示すように、本実施の形態のデジタルカメラ10aは、音声検出回路190を備えている点で上述した第1の実施の形態のデジタルカメラ10と相違している。したがって、ここでは、この音声検出回路190の構成についてのみ説明する。
音声検出回路190は、CPU112の指示に応じて、音声データを解析し、シャッタ音を検出する。本実施の形態のデジタルカメラ10aでは、取り込んだ音声データの波形からシャッタ音の波形を検出して、シャッタ音を検出する。
なお、シャッタ音は、メーカや機種によって異なるので、複数のシャッタ音の波形データを保有し、これらと照合して、音声中のシャッタ音を検出することが好ましい。本実施の形態のデジタルカメラ10aでは、シャッタ音データベースとして、複数のシャッタ音の音声波形データがフラッシュROM118に記録されており、これらと照合して、音声中のシャッタ音を検出する。この音声データベースは、適宜音声波形データを追加できるようにすることが好ましい。
撮影シチュエーションの判定は、一定時間内に検出されるシャッタ音の回数に基づいて行われ、一定時間内に一定回数以上のシャッタ音が検出されると、撮影会シチュエーションと判定する。
本実施の形態のデジタルカメラ10aでは、シャッタボタン22が半押しされて、撮影準備が指示されると、マイク18から周囲の音声が取り込まれ、取り込まれた音声に基づいて判定される。具体的には、一定の取り込み間隔で音声を連続的に取り込み、取り込んだ音声から規定回数以上のシャッタ音が検出されると、撮影会シチュエーションと判定する。
図8は、本実施の形態のデジタルカメラでの撮影処理の手順を示すフローチャートである。
撮影時は、モニタ28にスルー画像が表示されるので、撮影者は、このモニタ28のスルー画像を見て構図を決定し、シャッタボタン22を半押して、撮影準備を指示する。
CPU112は、操作部114からの信号入力に基づいて、シャッタボタン22が半押しされたか否かを判定する(ステップS30)。
シャッタボタン22が半押しされると、CPU112は、撮影準備が指示されたと判断して、撮影準備処理を行う(ステップS31)。すなわち、AE、AFの各処理を実行する。
また、撮影準備の開始とともに、CPU112は、カウンタCの値を0にセットし、音声の取り込みを開始する(ステップS32)。なお、取り込まれた音声は、音声信号処理回路158で逐次処理され、メモリ120に格納される。
この後、CPU112は、カウンタCの値が、閾値CMAXを超えているか否か判定する(ステップS33)。この判定で、カウンタCの値が、閾値CMAXを超えていないと判定すると、CPU112は、操作部114の入力に基づいて、シャッタボタン22が全押しされたか否かを判定し(ステップS34)、本撮影の指示がなされたか否かを判定する。
シャッタボタン22が全押しされたと判定すると、本撮影を行い(ステップS42)、得られた画像データを記憶メディア184に記録して(ステップS43)、撮影処理を終了する。
一方、シャッタボタン22が全押しされていないと判定すると、CPU12は、シャッタボタン22の半押しが解除されたか否かを判定する(ステップS35)。そして、シャッタボタン22の半押しが解除されたと判定すると、音声の取り込みを中止して、ステップS30に戻る。すなわち、再度シャッタボタン22を検出して、撮影準備からやり直す。
一方、シャッタボタン22が半押しが解除されていないと判定すると、カウンタCの値に1を加算し(ステップS36)、ステップS33に戻る。すなわち、カウンタCの値が、閾値CMAXを超えているか否か判定する(ステップS33)。
ここで、カウンタCの値が、閾値CMAXを超えていると判定すると(すなわち、取り込み開始から一定時間が経過していると判定すると)、CPU112は、取り込んだ音声からシャッタ音の検出を行う(ステップS37)。すなわち、取り込んだ音声データを音声検出回路190に加えて、シャッタ音を検出させる(ステップS37)。
CPU112は、この音声検出回路190によるシャッタ音の検出結果を取得し、検出されたシャッタ音が閾値以上か否かを判定して、視線誘導機能の発動の要否を判定する(ステップS38)。すなわち、一定期間内(CMAX内)に規定回数以上(閾値以上)のシャッタ音が検出されている場合は、撮影シチュエーションが、撮影会シチュエーションと判断し、視線誘導機能の発動が必要と判定する。一方、規定回数以上のシャッタ音が検出されていない場合は、撮影シチュエーションが、撮影会シチュエーションではないと判断し、視線誘導機能の発動が不要と判定する。
そして、視線誘導機能の発動が必要と判定すると(検出されたシャッタ音が閾値以上と判定すると)、CPU112は、視線誘導ランプ20を所定の態様で点滅させて、視線誘導機能を発動させる(ステップS39)。この視線誘導ランプ20が点滅することにより、被写体の注意が喚起され、被写体の視線が撮影レンズ14に誘導される。
この後、CPU112は、操作部114からの入力に基づいて、シャッタボタン22が全押しされたか否かを判定し(ステップS40)、本撮影の指示がなされたか否かを判定する。そして、シャッタボタン22が全押しされたと判定すると、CPU12は、本撮影の処理を行い(ステップS42)、撮影により得られた画像を記憶メディア184に記録する(ステップS43)。
一方、シャッタボタン22が全押しされていないと判定すると、CPU12は、シャッタボタン22の半押しが解除されたか否かを判定する(ステップS41)。そして、シャッタボタン22の半押しが解除されたと判定すると、ステップS30に戻り、再度、シャッタボタン22の半押しを検出して、撮影準備から処理をやり直す。
また、上記ステップS38において、検出されたシャッタ音が閾値以上ではないと判定し、視線誘導機能の発動が不要と判定すると、ステップS32に戻り、カウンタCを0にセットして、再度音声の取り込みを開始する。
すなわち、シャッタボタン22が半押しされている限り、シャッタ音の検出は行われ、規定回数以上のシャッタ音が検出された段階で視線誘導機能を発動させる。
このように、本実施の形態のデジタルカメラ10では、周囲で発生するシャッタ音から撮影シチュエーションを自動で認識し、自動的に視線誘導機能を発動させるので、カメラ目線の好ましい画像を簡単に撮影することができる。
また、シャッタ音は、カメラ特有の音であり、カメラ以外の機器から発生することはないので、撮影会シチュエーションを正確に検出することができる。
また、マイクを有するカメラであれば、別途部品点数を増加させることなく構成することができるので、コスト削減も図ることができる。
なお、上記の実施の形態では、シャッタ音にのみ基づいて撮影シチュエーションの判定を行っているが、更に画像から人物の顔領域を検出して、撮影シチュエーションを判定するようにしてもよい。すなわち、シャッタボタン22の半押し後に取り込まれるスルー表示用の画像から人物の顔領域を検出し、顔領域が検出されている場合であって、一定時間内に一定回数以上のシャッタが検出されている場合に撮影会シチュエーションと判定して、視線誘導機能を発動させるようにしてもよい。
[第3の実施の形態]
上記第2の実施の形態のデジタルカメラでは、周囲で発生するシャッタ音に基づいて、撮影会シチュエーションを検出しているが、本実施の形態のデジタルカメラでは、撮影会シチュエーションで多く発声される音声、たとえば、「こっち向いてー」、「撮るよー」等の音声を検出して、撮影会シチュエーションを検出する。
なお、装置の基本構成は、上述した第2の実施の形態のデジタルカメラ10aと同じなので、ここでは、撮影シチュエーションの判定方法と撮影時の処理の手順についてのみ説明する。
撮影シチュエーションの判定は、マイク18から取り込まれる音声に基づいて行われ、あらかじめ登録された音声が検出されると、撮影会シチュエーションと判定する。
具体的には、シャッタボタン22が半押しされて、撮影準備が指示されると、マイク18から周囲の音声が取り込まれ、取り込まれた音声から特定の音声の波形データを検出することにより、特定の音声が発せられれたことを検出する。
特定の音声は、あらかじめデータベースとして保有し、フラッシュROM118に格納される。音声検出回路190は、このデータベースに登録された音声の波形と照合して、音声データから特定の音声を検出する。
なお、このデータベースは、適宜追加できるように構成することが好ましい。
図9は、本実施の形態のデジタルカメラでの撮影処理の手順を示すフローチャートである。
撮影時は、モニタ28にスルー画像が表示されるので、撮影者は、このモニタ28のスルー画像を見て構図を決定し、シャッタボタン22を半押して、撮影準備を指示する。
CPU112は、操作部114からの信号入力に基づいて、シャッタボタン22が半押しされたか否かを判定する(ステップS50)。
シャッタボタン22が半押しされると、CPU112は、撮影準備が指示されたと判断して、撮影準備処理を行う(ステップS51)。すなわち、AE、AFの各処理を実行する。
また、撮影準備の開始とともに、CPU112は、カウンタCの値を0にセットし、音声の取り込みを開始する(ステップS52)。なお、取り込まれた音声は、音声信号処理回路158で逐次処理され、メモリ120に格納される。
この後、CPU112は、カウンタCの値が、閾値CMAXを超えているか否か判定する(ステップS53)。この判定で、カウンタCの値が、閾値CMAXを超えていないと判定すると、CPU112は、操作部114の入力に基づいて、シャッタボタン22が全押しされたか否かを判定し(ステップS54)、本撮影の指示がなされたか否かを判定する。
シャッタボタン22が全押しされたと判定すると、本撮影を行い(ステップS52)、得られた画像データを記憶メディア184に記録して(ステップS53)、撮影処理を終了する。
一方、シャッタボタン22が全押しされていないと判定すると、CPU12は、シャッタボタン22の半押しが解除されたか否かを判定する(ステップS55)。そして、シャッタボタン22の半押しが解除されたと判定すると、音声の取り込みを中止して、ステップS50に戻る。すなわち、シャッタボタン22を検出して、撮影準備からやり直す。
一方、シャッタボタン22が半押しが解除されていないと判定すると、カウンタCの値に1を加算し(ステップS56)、ステップS33に戻る。すなわち、カウンタCの値が、閾値CMAXを超えているか否か判定する(ステップS33)。
ここで、カウンタCの値が、閾値CMAXを超えていると判定すると、CPU112は、取り込んだ音声から特定の音声の検出処理を行う(ステップS57)。すなわち、取り込んだ音声データを音声検出回路190に加え、特定の音声を検出させる。
CPU112は、この音声検出回路190によるシャッタ音の検出結果を取得し、特定の音声が検出されたか否かを判定して、視線誘導機能の発動の要否を判定する(ステップS58)。すなわち、特定の音声が検出されている場合は、撮影シチュエーションが、撮影会シチュエーションと判断し、視線誘導機能の発動が必要と判定する。一方、特定の音声が検出されていない場合は、撮影シチュエーションが、撮影会シチュエーションではないと判断し、視線誘導機能の発動が不要と判定する。
そして、視線誘導機能の発動が必要と判定すると、CPU112は、視線誘導ランプ20を所定の態様で点滅させて、視線誘導機能を発動させる(ステップS59)。この視線誘導ランプ20が点滅することにより、被写体の注意が喚起され、被写体の視線が撮影レンズ14に誘導される。
この後、CPU112は、操作部114からの入力に基づいて、シャッタボタン22が全押しされたか否かを判定し(ステップS60)、本撮影の指示がなされたか否かを判定する。そして、シャッタボタン22が全押しされたと判定すると、CPU12は、本撮影の処理を行い(ステップS62)、撮影により得られた画像を記憶メディア184に記録する(ステップS63)。
一方、シャッタボタン22が全押しされていないと判定すると、CPU12は、シャッタボタン22の半押しが解除されたか否かを判定する(ステップS61)。そして、シャッタボタン22の半押しが解除されたと判定すると、ステップS50に戻り、再度、シャッタボタン22の半押しを検出して、撮影準備から処理をやり直す。
また、上記ステップS58において、特定の音声が検出されていないと判定すると、ステップS52に戻り、カウンタCを0にセットして、再度音声の取り込みを開始する。
すなわち、シャッタボタン22が半押しされている限り、特定の音声の検出は行われ、特定の音声が検出された段階で視線誘導機能を発動させる。
このように、本実施の形態のデジタルカメラ10では、周囲で発生する特定の音声(撮影会シチュエーションで多く発声される音声)を検出して、撮影シチュエーションを自動で認識し、自動的に視線誘導機能を発動させるので、カメラ目線の好ましい画像を簡単に撮影することができる。
本例の場合、シャッタ音がならないカメラがある場合においても対応することができるので、撮影会シチュエーションを正確に検出することができる。
また、マイクを有するカメラであれば、別途部品点数を増加させることなく構成することができるので、コスト削減も図ることができる。
なお、上記の実施の形態では、周囲で発生する音声のみ基づいて撮影シチュエーションの判定を行っているが、更に画像から人物の顔領域を検出して、撮影シチュエーションを判定するようにしてもよい。すなわち、シャッタボタン22の半押し後に取り込まれるスルー表示用の画像から人物の顔領域を検出し、顔領域が検出されている場合であって、特定の音声が検出されている場合に撮影会シチュエーションと判定して、視線誘導機能を発動させるようにしてもよい。
[第4の実施の形態]
上記第1−3の実施の形態のデジタルカメラでは、カメラ側が撮影会シチュエーションと判定すると、自動的に視線誘導機能を発動させるが、他のカメラも同時に視線誘導機能を発動させると、被写体が混乱する。
そこで、本実施の形態のデジタルカメラでは、他のカメラが視線誘導機能を発動させているか否かを事前に検知し、他のカメラが視線誘導機能を発動させている場合は、自身の視線誘導を禁止する。
ここで、他のカメラが視線誘導機能を発動させているか否かの検知は、視線誘導機能が、視線誘導ランプの場合は、イメージセンサから得られる画像データの色相を検出して行う。すなわち、他のカメラが、視線誘導ランプを発光させて、視線誘導を行うと、イメージセンサから得られる画像の色相が、その視線誘導ランプの光の影響を受けて色みがかるので(たとえば、青色の光を発光する場合には、画像が青みがかる。)、これを検出して、他のカメラの視線誘導機能が発動されていることを検知する。
図10は、本実施の形態のデジタルカメラ10bのシステム構成を示すブロック図である。
同図に実施の形態に示すように、本実施の形態のデジタルカメラ10bは、色相検出回路192を備えている点で上述した第1の実施の形態のデジタルカメラ10と相違している。
この色相検出回路192は、CPU112の指令に応じて、入力された画像データの色相を検出する。具体的には、画面全体の色相角Θ(Θ=tan-1Cb/Cr)を検出する。
検出された色相角Θの情報は、CPU112に出力される。CPU112は、得られた色相角Θに基づいて、他のカメラの視線誘導機能が発動されているか否かを判定する。具体的には、得られたΘが、Θ1≦Θ≦Θ2か否かを判定して、他のカメラの視線誘導機能が発動されているか否かを判定する。なお、このΘ1≦Θ≦Θ2の範囲は、他のカメラの視線誘導機能が発動されている場合の画像の色相角の範囲である。したがって、視線誘導ランプの発光色が青色の場合は、青色の色相角の範囲が設定される。
図11は、本実施の形態のデジタルカメラ10bでの撮影処理の手順を示すフローチャートである。
なお、撮影シチュエーションの判定処理は、上記第1の実施の形態と同様に、スルー表示用に取り込んだ画像データに基づいて行う。すなわち、画面内に人物の顔領域が存在するか否か、存在する場合は、その顔領域が画面に占める割合が閾値以上か否か、顔領域が画面に占める割合が閾値以上の場合は、その顔が笑顔か否かを判定し、撮影会シチュエーションであるか否かを判定する。すなわち、すべての要件が満たされている場合は、少数の被写体を大勢で撮影している撮影会シチュエーションと判定し、それ以外は撮影会シチュエーションではないと判定する。
撮影者は、モニタ28に表示されるスルー画像を見て構図を決定し、シャッタボタン22を半押して、撮影準備を指示する。
CPU112は、操作部114からの信号入力に基づいて、シャッタボタン22が半押しされたか否かを判定する(ステップS70)。
シャッタボタン22が半押しされると、CPU112は、撮影準備が指示されたと判断して、撮影準備処理を行う(ステップS71)。
撮影準備が完了すると、CPU112は、スルー表示用に取り込んだ画像データに基づいて、撮影シチュエーションの判定処理を行う(ステップS72)。具体的には、画面内(現在の撮影範囲)に人物の顔領域が存在するか否か、存在する場合は、その顔領域が画面に占める割合が閾値以上か否か、顔領域が画面に占める割合が閾値以上の場合は、その顔が笑顔か否かを判定し、撮影会シチュエーションであるか否かを判定する。すなわち、すべての要件が満たされている場合は、少数の被写体を大勢で撮影している撮影会シチュエーションと判定し、それ以外は撮影会シチュエーションではないと判定する。
CPU112は、この撮影シチュエーションの判定結果に基づいて、視線誘導機能の発動の要否を判定する(ステップS73)。すなわち、撮影シチュエーションの判定結果、現在の撮影シチュエーションが、撮影会シチュエーションであると判定されていれば、視線誘導機能の発動が必要と判定する。一方、現在の撮影シチュエーションが、撮影会シチュエーションではないと判定されていれば、視線誘導機能の発動は不要と判定する。
この判定で視線誘導機能の発動が必要と判定すると、CPU112は、他のカメラの視線誘導機能の発動の有無を検出する。すなわち、競合の有無を検知する。
まず、スルー表示用に取り込んだ画像データを色相検出回路192に加えて、画面全体の色相角Θを検出する(ステップS74)。そして、得られた色相角が、あらかじめ規定された色相角の範囲内(Θ1≦Θ≦Θ2)か否かを判定する(ステップS75)。すなわち、画面の色相が、他のカメラの視線誘導機能が発動されているときの色相になっているか否かを判定する。
この判定で画面の色相が、あらかじめ規定された色相角の範囲内(Θ1≦Θ≦Θ2)ではないと判定すると(画面の色相が、他のカメラの視線誘導機能が発動されているときの色相ではないと判定すると)、CPU112は、視線誘導ランプ20を所定の態様で点滅させて、視線誘導機能を発動させる(ステップS76)。この視線誘導ランプ20が点滅することにより、被写体の注意が喚起され、被写体の視線が撮影レンズ14に誘導される。
この後、CPU112は、操作部114の入力に基づいて、シャッタボタン22が全押しされたか否かを判定し(ステップS77)、本撮影の指示がなされたか否かを判定する。
ここで、シャッタボタン22が全押しされていないと判定すると、CPU12は、シャッタボタン22の半押しが解除されたか否かを判定する(ステップS78)。そして、シャッタボタン22の半押しが解除されたと判定すると、ステップS70に戻り、再度シャッタボタン22の半押しの有無を判定する。
一方、シャッタボタン22が全押しされたと判定すると、CPU12は、本撮影の処理を行い(ステップS79)、撮影により得られた画像データを記憶メディア184に記録する(ステップS80)。
また、上記ステップS75で画面の色相が、あらかじめ規定された色相角の範囲内(Θ1≦Θ≦Θ2)であると判定すると(画面の色相が、他のカメラの視線誘導機能が発動されているときの色相であると判定すると)、CPU112は、視線誘導機能の発動を中止する。したがって、この場合、CPU112は、視線誘導の発動処理をスキップして、シャッタボタン22が全押しされたか否かを判定する(ステップS77)。
これにより、視線誘導の競合が防止でき、被写体が混乱するのを未然に防止することができる。
なお、この場合、上記ステップS77でシャッタボタン22が全押しされていないと判定され、更にステップS78で半押しの解除もされていないと判定されると、ステップS74に戻り、再度、他のカメラの視線誘導機能の発動の有無を検出して、競合の有無を検知する。
そして、競合が解消している場合(他のカメラの視線誘導機能が発動していない場合)は、改めて自身の視線誘導機能を発動させ、被写体の注意を喚起する。
このように、本実施の形態のデジタルカメラ10bでは、視線誘導の競合を未然に防止できるので、被写体を混乱させることなく、撮影することができる。
また、本実施の形態のデジタルカメラ10bでは、イメージセンサ130から得られる画像データに基づいて、他のカメラの視線誘導機能の発動状態を検知しているので、別途検出センサ等を設けることなく、他のカメラの視線誘導機能の発動状態を検知することができる。
なお、本実施の形態では、画面の色相を検出して、他のカメラの視線誘導機能の発動状態を検出する構成としているが、他のカメラの視線誘導機能の発動状態を検出する方法は、これに限定されるものではない。この他、たとえば、カメラ間で無線通信する機能を備えている場合には、自己の視線誘導機能の発動状態を互いに通知して、他のカメラの視線誘導機能の発動状態を検出するようにしてもよい。また、たとえば、特定の音声を発して、視線誘導を行う場合には、その音声を検知して、他のカメラの視線誘導機能の発動状態を検出するようにしてもよい。
また、上記実施の形態では、第1の実施の形態のデジタルカメラと同様に、イメージセンサ130から得られる画像データに基づいて、撮影シチュエーションの判定を行っているが、上記第2の実施の形態のデジタルカメラのように、周囲で発生するシャッタ音を検出して、撮影シチュエーションの判定を行うようにしてもよい。同様に記第3の実施の形態のデジタルカメラのように、周囲で発声する特定の音声を検出して、撮影シチュエーションを判定するようにしてもよい。
[その他の実施の形態]
上記第1の実施の形態では、画像データを解析して、第2の実施の形態では、周囲で発生するシャッタ音を検出して、第3の実施の形態では、周囲で発生する特定の音声を検出して、撮影シチュエーションを判別しているが、これらを複合して、撮影シチュエーションを判別する構成としてもよい。すなわち、たとえば、画面中に占める人物の顔領域の割合が一定割合以上であって、かつ、一定期間内に一定回数以上のシャッタ音が検出されると、撮影会シチュエーションと判定して、視線誘導機能が発動させるようにしてもよい。同様に画面中に占める人物の顔領域の割合が一定割合以上であって、かつ、特定の音声が検出されると、撮影会シチュエーションと判定して、視線誘導機能が発動させるようにしてもよい。また、一定期間内に一定回数以上のシャッタ音が検出され、かつ、特定の音声が検出されると、撮影会シチュエーションと判定して、視線誘導機能が発動させるようにしてもよい。また、画面中に占める人物の顔領域の割合が一定割合以上であって、かつ、一定期間内に一定回数以上のシャッタ音が検出され、かつ、特定の音声が検出されると、撮影会シチュエーションと判定して、視線誘導機能が発動させるようにしてもよい。また、更にこれらに上記第4の実施の形態で説明した競合防止の処理を行うようにしてもよい。
10、10a、10b…デジタルカメラ、12…カメラボディ、14…撮影レンズ、16…フラッシュ、18…マイク、20…視線誘導ランプ、22…シャッタボタン、24…モードレバー、26…電源ボタン、28…モニタ、30…ズームボタン、32…再生ボタン、34…ファンクションボタン、36…十字ボタン、38…MENUボタン、40…OKボタン、42…キャンセルボタン、44…スピーカ、112…CPU、114…操作部、116…ROM、118…フラッシュROM、120…メモリ(SDRAM)、130…イメージセンサ、132…イメージセンサ駆動回路、134…アナログ信号処理回路、136…A/D変換回路、138…画像入力制御回路、140…デジタル信号処理回路、142…AF検出回路、144…AE検出回路、146…圧縮伸張処理回路、148…メディア制御回路、150…表示制御回路、158…音声信号処理回路、160…音声入力回路、164…音声出力回路、168…フラッシュ制御回路、170…視線誘導ランプ制御回路、172…電源制御回路、174…電源、176…顔検出回路、178…表情判定回路、180…動き検出回路、190…音声検出回路、192…色相検出回路