JP2007259004A - デジタルカメラ、画像処理装置及び画像処理プログラム - Google Patents

デジタルカメラ、画像処理装置及び画像処理プログラム Download PDF

Info

Publication number
JP2007259004A
JP2007259004A JP2006079967A JP2006079967A JP2007259004A JP 2007259004 A JP2007259004 A JP 2007259004A JP 2006079967 A JP2006079967 A JP 2006079967A JP 2006079967 A JP2006079967 A JP 2006079967A JP 2007259004 A JP2007259004 A JP 2007259004A
Authority
JP
Japan
Prior art keywords
image
face
digital camera
imaging
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006079967A
Other languages
English (en)
Inventor
Shigeo Takahashi
茂雄 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006079967A priority Critical patent/JP2007259004A/ja
Publication of JP2007259004A publication Critical patent/JP2007259004A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】 撮影者が焦点や露出条件を設定したい主要な被写体に対して焦点や露出条件を確実に設定して被写体を撮像可能なデジタルカメラと、このデジタルカメラを用いて撮像した画像を処理する画像処理装置及び画像処理プログラムを提供する。
【解決手段】 撮像手段16は、被写体を撮像する。検出手段34は、被写体の特徴部を検出する。制御手段32は、検出手段34が複数の特徴部を検出したときに、焦点を複数の特徴部にそれぞれ合わせて、撮像手段16に被写体を複数回撮像させる。
【選択図】 図1

Description

本発明は、被写体の特徴を検出し、その検出結果に応じて被写体の撮影に必要な焦点や露出条件を設定するデジタルカメラと、このデジタルカメラを用いて撮像した画像を処理する画像処理装置及び画像処理プログラムに関する。
従来のデジタルカメラでは、被写体の特徴に応じて、その被写体の撮像に用いる焦点や露出条件を設定する技術がある。例えば、特許文献1では、被写体が有する複数の特徴を検出することによって人物の顔等が主要な被写体として特定され、この主要な被写体に焦点や露出条件を合わせて被写体の撮像が行われる。さらに、撮影レンズから被写体までの距離や、被写体のサイズ等が被写体の特徴として検出され、検出された距離が小さく、または、検出されたサイズの大きい被写体が主要な被写体として特定される。
特開2005−117530号公報
ところで、特許文献1の手法では、上述した複数の特徴に基づいて特定される主要な被写体は、焦点や露出条件の設定に適しているとは限らなかった。例えば、撮影レンズから近い距離に位置する被写体や、サイズの大きい被写体は、撮影者が焦点や露出条件を設定したい主要な被写体と同じとは限らない。このため、撮影者の意図する主要な被写体に焦点や露出条件を合わせて被写体を撮像できない場合があった。また、撮影者が焦点を設定したい複数の主要な被写体がカメラからほぼ同じ距離に位置していたとしても、これらの主要な被写体からそれぞれ放出される被写体像が結像する焦点面(撮像面)は、撮影レンズの像面湾曲収差等の影響によって平面にならず曲面になる場合がある。したがって、被写体像が撮像面の中心に結像すると、撮像面の周辺で撮像される画像はぼけてしまう。逆に、被写体像が撮像部の周辺に結像すると、撮像面の中心で撮像される画像はぼけてしまう。このため、撮影者の意図する複数の主要な被写体に焦点を合わせて被写体を撮像できない場合があった。
本発明の目的は、撮影者が焦点や露出条件を設定したい主要な被写体に対して焦点や露出条件を確実に設定して被写体を撮像可能なデジタルカメラと、このデジタルカメラを用いて撮像した画像を処理する画像処理装置及び画像処理プログラムを提供することである。
請求項1のデジタルカメラでは、撮像手段は、被写体を撮像する。検出手段は、被写体の特徴部を検出する。制御手段は、検出手段が複数の特徴部を検出したときに、焦点を複数の特徴部にそれぞれ合わせて、撮像手段に被写体を複数回撮像させる。
請求項2のデジタルカメラでは、検出手段は、撮像手段により予め撮像される補助画像から人物の顔領域を特徴部として検出する。制御手段は、検出手段が複数の特徴部を検出したときに、複数の特徴部に焦点をそれぞれ合わせて、撮像手段に被写体を複数回撮像させる。
請求項3のデジタルカメラでは、制御手段は、検出手段により検出された顔領域の数が予め決められた基準数を超えるときに、各顔領域の内、面積が大きい顔領域、あるいは、補助画像の中心付近の顔領域に対応する人物の顔から優先的に焦点をそれぞれ合わせて、撮像手段に基準数回だけ被写体を撮像させる。
請求項4のデジタルカメラでは、検出手段は、撮像手段により予め撮像される補助画像から人物の顔領域を特徴部として検出する。選択手段は、撮像手段により撮像された複数の画像のいずれかを選択する。顔検出手段は、選択手段により選択されていない残りの画像から焦点が合っている人物の顔領域をそれぞれ検出する。生成手段は、顔検出手段により検出された顔領域を、選択手段により選択されている画像の同じ領域に置き換えることで合成画像を生成する。
請求項5のデジタルカメラでは、撮像手段は、被写体を撮像する。検出手段は、被写体の特徴部を検出する。制御手段は、検出手段が複数の特徴部を検出したときに、複数の特徴部に合わせて露出条件をそれぞれ設定して、撮像手段に被写体を複数回撮像させる。
請求項6のデジタルカメラでは、検出手段は、撮像手段により予め撮像される補助画像から人物の顔領域を特徴部として検出する。制御手段は、検出手段が複数の特徴部を検出したときに、複数の特徴部に合わせて露出条件をそれぞれ設定して、撮像手段に被写体を複数回撮像させる。
請求項7のデジタルカメラでは、制御手段は、検出手段により検出された顔領域の数が予め決められた基準数を超えるときに、各顔領域の内、面積が大きい顔領域、あるいは、補助画像の中心付近の顔領域に対応する人物の顔から優先的に合わせて露出条件をそれぞれ設定して、撮像手段に基準数回だけ被写体を撮像させる。
請求項8のデジタルカメラでは、検出手段は、撮像手段により予め撮像される補助画像から人物の顔領域を特徴部として検出する。選択手段は、撮像手段により撮像された複数の画像のいずれかを選択する。顔検出手段は、選択手段により選択されていない残りの画像から露出条件が設定されている人物の顔領域をそれぞれ検出する。生成手段は、顔検出手段により検出された顔領域を、選択手段により選択されている画像の同じ領域に置き換えることで合成画像を生成する。
請求項9のデジタルカメラでは、画像処理手段は、撮像手段により撮像された複数の画像のホワイトバランスをそれぞれ調整するホワイトバランス処理、及び複数の画像の色彩をそれぞれ補正する色再現処理の少なくともいずれかを行う。
請求項10の画像処理装置では、選択手段は、被写体である複数の人物の顔に焦点をそれぞれ合わせて被写体を撮像することにより得られた複数の画像のいずれかを選択する。顔検出手段は、選択手段により選択されていない残りの画像から焦点が合っている人物の顔領域をそれぞれ検出する。生成手段は、顔検出手段により検出された顔領域を、選択手段により選択されている画像の同じ領域に置き換えることで合成画像を生成する。
請求項11の画像処理装置では、選択手段は、被写体である複数の人物の顔に合わせて露出条件をそれぞれ設定して被写体を撮像することにより得られた複数の画像のいずれかを選択する。顔検出手段は、選択手段により選択されていない残りの画像から露出条件が設定されている人物の顔領域をそれぞれ検出する。生成手段は、顔検出手段により検出された顔領域を、選択手段により選択されている画像の同じ領域に置き換えることで合成画像を生成する。
請求項12の画像処理プログラムでは、コンピュータを、被写体である複数の人物の顔に焦点をそれぞれ合わせて被写体を撮像することにより得られた複数の画像のいずれかを選択する選択手段と、選択手段により選択されていない残りの画像から焦点が合っている人物の顔領域をそれぞれ検出する顔検出手段と、顔検出手段により検出された顔領域を、選択手段により選択されている画像の同じ領域に置き換えることで合成画像を生成する生成手段として機能させる。
請求項13の画像処理プログラムでは、コンピュータを、被写体である複数の人物の顔に合わせて露出条件をそれぞれ設定して被写体を撮像することにより得られた複数の画像のいずれかを選択する選択手段と、選択手段により選択されていない残りの画像から露出条件が設定されている人物の顔領域をそれぞれ検出する顔検出手段と、顔検出手段により検出された顔領域を、選択手段により選択されている画像の同じ領域に置き換えることで合成画像を生成する生成手段として機能させる。
撮影者が焦点や露出条件を設定したい主要な被写体に対して焦点や露出条件を確実に設定して、被写体を撮像できる。
以下、本発明の実施形態を図面を用いて説明する。
図1は、本発明のデジタルカメラの第1の実施形態を示している。デジタルカメラ100は、撮影レンズ10、絞り12、機械式のシャッタ14、CCDやCMOSイメージセンサ等で構成される撮像素子16(撮像手段)、A/D変換回路18、記憶部20、操作部22、表示部24、I/F部26、ROM28、閃光発光部30及び制御部32(制御手段、検出手段、顔検出手段、生成手段及び画像処理手段)を有している。
撮影レンズ10は、ズームレンズ10aやフォーカスレンズ10bを含む複数のレンズ群で構成されている。撮影レンズ10を構成する各レンズは、図示しないレンズ駆動用ドライバ40によって光軸方向の位置が調節される。絞り12は、撮影レンズ10とシャッタ14の間に配置される。絞り12は、図示しない絞りドライバによって駆動される。絞り12の絞り値は、撮影レンズ10を通過した光の光量を絞るために調節される。
シャッタ14は、撮影レンズ10からCCD16への光路を遮る位置に配置されるシャッタ膜(図示せず)を有する。シャッタ14は、図示しないシャッタドライバによって駆動され、撮影レンズ10を通過した光によってCCD16が露光される時間を調節する。また、シャッタ膜は、レリーズボタン(図示せず)が押し下げられるレリーズ時または非レリーズ時(撮影待機時)に、撮影レンズ10からCCD16への光路を確保するために開く。なお、機械式のシャッタ14に代えて、撮像素子16の電子シャッタにより露光時間を調節する構成としてもよい。あるいは、機械式のシャッタ14と、撮像素子16の電子シャッタとを併用する構成としてもよい。
撮像素子16は、撮像面に撮影レンズ10を介して結像した被写体像を光電変換し、画像信号を出力する。撮像素子16は、非レリーズ時にも被写体を所定間隔毎に露光し、間引き読み出しによる画像信号を出力する。A/D変換回路18は、撮像素子16より受けた画像信号をA/D変換して、画像データを生成する。また、A/D変換回路18は、非レリーズ時に撮像素子16より受けた画像信号をA/D変換して、スルー画像データを生成する。なお、スルー画像データは、撮影者が被写体の構図を決定する補助画像(以下、プレビュー画像)として使用されると共に、特徴検出部34による顔検出処理(詳細は後述)にも使用される画像データである。記憶部20は、A/D変換回路18によりA/D変換された画像データを一時的に保存する。
操作部22は、被写体の撮影時に押下げられるレリーズボタンや、デジタルカメラ100の動作モードや表示部24に再生表示される画像等を選択する選択スイッチ(図示せず)等を有している。表示部24は、例えば液晶パネル(図示せず)及び液晶パネルの駆動用ドライバ回路(図示せず)等により構成される。液晶パネルには、レリーズ時または非レリーズ時に撮像素子16によって撮像される画像や設定画面が表示される。すなわち、表示部24は、撮像素子16の撮像面に結像される被写体像を映すファインダーとしても利用される。撮影者は、この表示部24に映し出された被写体像を見ることによって、被写体の構図や被写体の状態を確認できる。
I/F部26には、記憶媒体42を接続するためのコネクタが形成されている。この記憶媒体42は、公知の半導体メモリ等で構成される。I/F部26は、記憶媒体42に対する画像データの書き込み/読み込みを制御する。ROM28は、フラッシュメモリ等で構成され、デジタルカメラ100の電源がオフの間も、画像データを含む各種データを保持する。ROM28には、制御部により実行されるプログラムが格納されている。
閃光発光部30は、キセノン発光管(図示せず)や、閃光発光のエネルギを蓄えるメインコンデンサ(図示せず)等で構成される。閃光発光部30は、撮影の際に被写体に対して閃光発光を照射可能である。制御部32は、特徴検出部34(検出手段)、オートフォーカス(以下、AF)部36、露出演算部38及び画像合成部40(選択手段、顔検出手段及び生成手段)を有している。制御部32は、ROM28に格納されたプログラムを実行することによって各回路の動作を制御する。
図2〜図5は、デジタルカメラの第1の実施形態における撮影待機処理動作を示している。図2〜図5に示す動作は、制御部32(制御手段、検出手段、顔検出手段、生成手段及び画像処理手段)がROM28に格納されたプログラムを実行することによって実現される。
まず、ステップS100において、制御部32は、撮像素子16及びA/D変換回路18をそれぞれ駆動して、被写体である人物を撮像し、プレビュー画像PPを生成する。そして、制御部32は、このプレビュー画像PPを表示部24に表示する。この後、処理はステップS102に移行する。
ステップS102において、制御部32は、撮影者による撮影待機処理以外の処理への変更要求を受け付けると、デジタルカメラの第1の実施形態における撮影待機処理動作が終了する。一方、撮影者による変更要求を受け付けないと、処理はステップS104に移行する。
ステップS104において、制御部32(特徴検出部34)は、プレビュー画像PPから特徴点を抽出して、被写体の顔領域tcを検出する処理(以下、顔検出処理)を行うと共に、検出した顔領域の数nを計数する。なお、この顔検出処理の方法には特に限定はなく、公知の各種の方法が利用可能である。例えば、制御部32は、プレビュー画像PPから、人物の眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点等を抽出して、顔領域tc(c=1〜n)を検出する。なお、検出された顔領域のいずれにもあてはまる事項についても以下では、顔画像tcと表記する。また、制御部32は、被写体の色情報に基づいて肌色領域の輪郭を抽出し、さらに予め用意された顔部分のテンプレートとのマッチングを行って顔領域tcを検出してもよい。そして、処理はステップS106に移行する。
ステップS106において、制御部32は、撮影者によるレリーズボタンの全押しを待つ。レリーズボタンの全押しが検出されると、処理はステップS108に移行する。一方、レリーズボタンの全押しが検出されないと、処理はステップS100に移行する。
ステップS108において、処理は図3の撮影処理に移行する。ステップS200において、制御部32は、ステップS104で計数した顔領域tcの数nが0であるか否かを判定する。nが0であれば、すなわち、プレビュー画像PP内に顔領域tcがないと、処理はステップS202に移行する。一方、nが0でなければ、すなわち、プレビュー画像PP内に顔領域tcがあると、処理は図4のステップS300に移行する。
ステップS202において、制御部32(AF部36)は、プレビュー画像PPにおいて予め決められた領域Rtに対応する被写体に合わせてAF演算を実行する。この後、処理はステップS204に移行する。
ステップS204において、制御部32(露出演算部38)は、プレビュー画像PPにおいて予め決められた領域Rtに対応する被写体に合わせて露出条件を決定するAE(自動露出)演算を実行する。この後、処理はステップS206に移行する。
ステップS206において、制御部32は、撮像素子16及びA/D変換回路18をそれぞれ駆動して画像Pを生成する。なお、この後、処理はステップS208に移行する。
ステップS208において、制御部32は、画像Pのホワイトバランスを調整する処理(以下、ホワイトバランス処理)や、画像Pの色彩を補正する処理(以下、色再現処理)を行って画像P−pを生成する。この後、処理はステップ210に移行する。
ステップS210において、制御部32は、画像P−pをI/F部26を介して記憶媒体42に保存する。そして、撮影処理が終了し、処理は図2のステップS100に移行する。
一方、ステップS200でプレビュー画像PP内に顔領域tcがあると、ステップS300において、制御部32は、顔領域tcの数nが2以上であるか否かを判定する。nが2未満、すなわち、nが1であれば、処理は図5のステップS400に移行する。一方、nが2以上であれば、制御部32は、ステップS104で検出された顔領域tc(c=1〜n)について、図4に示す第1反復処理(ステップS302〜S312に相当する処理)を、顔領域tcの数nに等しい回数だけ反復して実行する。なお、以下では、説明を簡単にするために、顔領域tcの数nが3であると仮定する。
ステップS302において、制御部32は、顔領域tc(c=1〜3)から、後述のAF演算やAE演算に使用されていない顔領域tcを選択する。この後、処理はステップS304に移行する。
ステップS304において、制御部32(AF部36)は、選択した顔領域tcに対応する人物の顔に焦点を合わせるAF演算を実行する。なお、このAF演算方法には特に限定はなく、公知の各種の方法が利用可能である。例えば、制御部32は、顔領域tcに対応して読み出される焦点検出用の画像データを用いて焦点評価値(AF評価値)を判定して、この焦点評価値が最大になるように、図1のフォーカスレンズ10bを駆動させて人物の顔に焦点を合わせる。このように、制御部32は、プレビュー画像PP内にある全ての顔領域tcに対応する人物の顔に焦点を合わせることができる。このため、制御部32は、撮影者が焦点を合わせたい人物の顔に対して焦点を確実に合わせることができる。そして、処理はステップS306に移行する。
ステップS306において、制御部32(露出演算部38)は、選択した顔領域tcに対応する人物の顔に合わせて露出条件を決定するAE演算を実行する。なお、このAE演算方法には特に限定はなく、公知の各種の方法が利用可能である。例えば、制御部32は、以下の演算式(1)を用いて露出条件を決定する。
BV+SV=AV+TV・・・(1)
演算式(1)のBVは顔領域tcにおける輝度値のAPEX(Additive System of Photographic Exposure)値、SVは撮像素子16の感度値のAPEX値、AVは絞り値のAPEX値、TVはシャッタ速度のAPEX値を示している。露出演算部38は、演算式(1)を満たすように、感度値SV、絞り値AV、シャッタ速度TVを調整する。このように、制御部32は、プレビュー画像PP内にある全ての顔領域tcに対応する人物の顔に合わせて露出条件を設定できる。このため、制御部32は、撮影者が露出条件を設定したい人物の顔に対して露出条件を確実に設定できる。そして、処理はステップS308に移行する。
ステップS308において、制御部32は、撮像素子16及びA/D変換回路18をそれぞれ駆動して画像Pcを生成する。このように、撮像素子16は、撮影者が焦点や露出条件を設定したい人物の顔に焦点や露出条件を合わせて被写体を撮像できる。この後、処理はステップS310に移行する。
ステップS310において、制御部32は、図3のステップS208と同様に、画像Pcに対してホワイトバランス処理や色再現処理を行って画像Pc−pを生成する。
ステップS312において、制御部32は、生成した画像Pc−pを記憶部20に一時的に保存する。
そして、第1反復処理が完了し、画像P1−p、P2−p、P3−pが記憶部20にそれぞれ保存されると、制御部32は、引き続きステップS314を実行する。ステップS314において、制御部32は、撮影者による画像P1−p、P2−p、P3−pの合成要求を受け付けると、処理はステップS316に移行する。一方、この合成要求を受け付けないと、撮影処理が終了し、処理は図2のステップS100に移行する。
ステップS316において、制御部32(画像合成部40)は、記憶部20に格納されている画像P1−p、P2−p、P3−pのいずれか(この例では、P1−p)を選択する。そして、制御部32(画像合成部40)は、選択されていない残りの画像P2−p、P3−pから、ステップS104と同様に顔検出処理を行って、焦点や露出条件が設定されている人物の顔領域T2、T3をそれぞれ検出する。そして、制御部32(画像合成部40)は、検出した顔領域T2、T3を、画像P1−pの同じ領域に置き換えることで合成画像CPを生成する。したがって、制御部32は、全ての人物の顔に焦点や露出条件が設定されている合成画像CPを生成できる。このため、制御部32は、撮影者が焦点や露出条件を設定したい人物の顔に対して焦点や露出条件が合っている合成画像CPを確実に生成できる。なお、制御部32は、顔領域T2、T3に対応する人物の顔領域が画像P1−pの同じ領域にない場合、合成画像CPを生成することができないことを示すエラー表示を表示部24に表示させてもよい。この後、処理はステップS318に移行する。
ステップS318において、制御部32は、合成画像CPをI/F部26を介して記憶媒体42に保存する。この後、処理はステップS320に移行する。
ステップS320において、制御部32は、合成画像CPの生成に用いた元の画像P1−p、P2−p、P3−pを消去する。なお、これらの画像P1−p、P2−p、P3−pの消去は、撮影者による削除要求に応じて行われるものでもよい。また、画像P1−p、P2−p、P3−pと、合成画像CPとを1つのファイルにまとめて記憶媒体42に保存してもよく、あるいは、それぞれの画像を独立したファイルに保存してもよい。そして、撮影処理が終了し、処理は図2のステップS100に移行する。
一方、ステップS300で顔領域tcの数nが1であれば、ステップS400において、制御部32(AF部36)は、ステップS304と同様に、顔領域t1に対応する人物の顔に焦点を合わせるAF演算を実行する。この後、処理はステップS402に移行する。
ステップS402において、制御部32(露出演算部38)は、ステップS306と同様に、顔領域t1に対応する人物の顔に合わせて露出条件を決定するAE演算を実行する。この後、処理はステップS404に移行する。
ステップS404において、制御部32は、ステップS308と同様に、撮像素子16及びA/D変換回路18をそれぞれ駆動して画像P1を生成する。この後、処理はステップS406に移行する。
ステップS406において、制御部32は、ステップS310と同様に、画像P1に対してホワイトバランス処理や色再現処理を行って画像P1−pを生成する。この後、処理はステップS408に移行する。
ステップS408において、制御部32は、生成した画像P1−pをI/F部26を介して記憶媒体42に保存する。そして、撮影処理が終了し、処理は図2のステップS100に移行する。
以上、第1の実施形態では、制御部32は、プレビュー画像PP内にある全ての顔領域tcに対応する人物の顔に合わせて焦点や露出条件を設定することができる。また、制御部32は、撮影者が焦点を設定したい複数の人物がデジタルカメラ100からほぼ同じ距離に位置している場合であっても、全ての人物の顔に焦点を合わせることができる。このため、撮像素子16は、撮影者が焦点や露出条件を設定したい人物の顔に対して焦点や露出条件を確実に設定して被写体を撮像できる。
図6〜図10は、デジタルカメラの第2の実施形態における撮影待機処理動作を表している。第1の実施形態で説明した要素と同一の要素については、詳細な説明を省略する。この実施形態では、図1に示した制御部32が実行するためにROM28に格納されているプログラムが、第1の実施形態と相違する。その他の構成は、第1の実施形態のデジタルカメラ100と同じである。
なお、上述した図2〜図5と同じ処理については、詳細な説明を省略する。また、図6〜図10に示す動作は、制御部32(制御手段、検出手段、顔検出手段、生成手段及び画像処理手段)がROM28に格納されたプログラムを実行することによって実現される。 図6〜図10は、図8のステップS300において、顔領域tcの数nが2以上であれば、ステップS500の実行後、ステップS302、あるいは、図9に示す第2反復処理(ステップS502〜S512に相当する処理)が実行される点と、この第2反復処理が完了すると、引き続き図8のステップS314が実行される点を除いて、第1実施形態(図2〜図5)と同じである。
まず、図6のステップS100〜S106が実行され、図7のステップS200において、プレビュー画像PPから顔領域tcが検出された場合、処理は図8のステップS300に移行する。
ステップS300において、制御部32は、顔領域tcの数nが2以上であるか否かを判定する。nが2未満、すなわち、nが1であれば、処理は図10のステップS400に移行する。一方、nが2以上であれば、処理はステップS500に移行する。
ステップS500において、制御部32は、顔領域tcの数nが予め決められた基準回数SNを超えるか否かを判定する。なお、以下では、説明を簡単にするために、基準回数SNが3であると仮定する。顔領域tcの数nが基準回数3以下であれば、制御部32は、ステップS104で検出された顔領域tc(c=1〜n)について、第1反復処理(図8のステップS302〜S312に相当する処理)を、顔領域tcの数nに等しい回数だけ反復して実行する。そして、制御部32は、この第1反復処理が完了すると、引き続きステップS314を実行する。
一方、顔領域tcの数nが基準回数3を超えると、制御部32は、上述した第2反復処理を基準回数3だけ反復して実行する。ステップS502において、制御部32は、顔領域tc(c=1〜n)から、AF演算やAE演算に使用されていない顔領域tcの内、面積が最も大きい顔領域tc、あるいは、プレビュー画像PPの中心付近の顔領域tcを選択する。面積が最も大きい顔領域tcや、プレビュー画像PPの中心付近の顔領域tcに対応する人物の顔は、一般的に、撮影者が焦点や露出条件を設定したい人物の顔であることが多い。このため、制御部32は、撮影者による複雑な操作を伴うことなく、撮影者が焦点や露出条件を設定したい人物の顔に対して焦点や露出条件を優先的に設定できる。この後、処理はステップS504に移行する。
ステップS504において、制御部32(AF部36)は、図4のステップS304と同様に、選択した顔領域tcに対応する人物の顔に焦点を合わせるAF演算を実行する。そして、処理はステップS506に移行する。
ステップS506において、制御部32(露出演算部38)は、図4のステップS306と同様に、選択した顔領域tcに対応する人物の顔に合わせて露出条件を決定するAE演算を実行する。そして、処理はステップS508に移行する。
ステップS508において、制御部32は、撮像素子16及びA/D変換回路18をそれぞれ駆動して画像Pcを生成する。この後、処理はステップS510に移行する。
ステップS510において、制御部32は、図3のステップS208と同様に、画像Pcに対してホワイトバランス処理や色再現処理を行って画像Pc−pを生成する。そして、第2反復処理が完了し、画像P1−p、P2−p、P3−pが記憶部20にそれぞれ保存されると、制御部32は、引き続きステップS314を実行する。
以上、第2の実施形態では、第1の実施形態と同様な効果を得ることができる。更に、制御部32は、撮影者による複雑な操作を伴うことなく、撮影者が焦点や露出条件を設定したい人物の顔に対して、焦点や露出条件を優先的に設定できる。
図11〜図13は、デジタルカメラの第3の実施形態における撮影待機処理動作を表している。第1の実施形態で説明した要素と同一の要素については、詳細な説明を省略する。この実施形態では、図1に示した制御部32が実行するためにROM28に格納されているプログラムが、第1の実施形態と相違する。その他の構成は、第1の実施形態のデジタルカメラ100と同じである。
なお、上述した図2〜図5と同じ処理については、詳細な説明を省略する。また、図11〜図13に示す動作は、制御部32(制御手段、検出手段、顔検出手段、生成手段及び画像処理手段)がROM28に格納されたプログラムを実行することによって実現される。
まず、ステップS600において、制御部32は、図2のステップS100と同様に被写体である人物を撮像してプレビュー画像PPを生成し、このプレビュー画像PPを表示部24に表示する。この後、処理はステップS602に移行する。
ステップS602において、制御部32は、図2のステップS102と同様に、撮影待機処理以外の処理への変更要求を受け付けると、デジタルカメラの第3の実施形態における撮影待機処理動作が終了する。一方、撮影者による変更要求を受け付けないと、処理はステップS604に移行する。
ステップS604において、制御部32(特徴検出部34)は、図2のステップS104と同様にプレビュー画像PPから特徴点を抽出して、被写体の顔領域tcを検出する顔検出処理を行うと共に、検出した顔領域tcの数nを計数する。そして、処理はステップS606に移行する。
ステップS606において、制御部32は、撮影者によるレリーズボタンの半押しを待つ。レリーズボタンの半押しが検出されないと、処理はステップS600に移行する。一方、レリーズボタンの半押しが検出されると、処理はステップS608に移行する。
ステップS608において、処理は図12の半押し処理に移行する。ステップS700において、制御部32は、レンズ駆動用ドライバ40を制御して、AFサーチ開始位置へフォーカスレンズ10bを駆動する。この後、処理はステップS702に移行する。
ステップS702において、制御部32(AF部36)は、各顔領域tcに対応するAF評価値を取得する。この後、処理はステップS704に移行する。
ステップS704において、制御部32は、レンズ駆動用ドライバ40を制御して、AFサーチ終了位置へフォーカスレンズ10bを駆動する。この後、処理はステップS706に移行する。
ステップS706において、制御部32は、制御部32(AF部36)は、各顔領域tcに対応するAF評価値を取得する。この後、処理はステップS708に移行する。
ステップS708において、制御部32は、各顔領域tcに対応するAF評価値の取得(サーチ)が終了したか否かを判定する。AF評価値の取得が終了した場合、処理はステップS710に移行する。一方、AF評価値の取得が終了していない場合、処理はステップS706に移行する。
ステップS710において、制御部32(AF部36)は、各顔領域tcに対応するフォーカスレンズ10bの位置であるフォーカス位置を計算する。この後、処理はステップS712に移行する。
ステップS712において、制御部32(露出演算部38)は、各顔領域tcにおける輝度値のAPEX値BVを演算する。この後、処理は図11のステップS610に移行する。
ステップS610において、制御部32は、レリーズボタンがオフであるか否かを判定する。レリーズボタンがオフであれば、処理はステップS600に移行する。一方、レリーズボタンがオンであれば、処理はステップS612に移行する。
ステップS612において、制御部32は、撮影者によるレリーズボタンの全押しを待つ。レリーズボタンの全押しが検出されないと、処理はステップS610に移行する。一方、レリーズボタンの全押しが検出されると、処理はステップS614に移行する。
ステップS614において、処理は図13の全押し処理に移行する。ステップS800において、制御部32は、各顔領域tcのいずれかを選択する。この後、処理はステップS802に移行する。
ステップS802において、制御部32(AF部36)は、選択された顔領域tcに対応するフォーカス位置にフォーカスレンズ10bを駆動する。この後、処理はステップS804に移行する。
ステップS804において、制御部32(露出演算部38)は、選択された顔領域tcに対応する輝度値のAPEX値BVを用いて、上述した演算式(1)を満たすように感度値SV、絞り値AV、シャッタ速度TVを調整する。この後、処理はステップS806に移行する。
ステップS806において、制御部32は、撮像素子16及びA/D変換回路18をそれぞれ駆動して画像Pcを生成する。この後、処理はステップS808に移行する。
ステップS808において、制御部32は、画像Pcに対してホワイトバランス処理や色再現処理を行って画像Pc−pを生成する。この後、処理はステップS810に移行する。
ステップS810において、制御部32は、ステップS800で全ての顔領域が選択されたか否かを判定する。全ての顔領域が選択された場合、処理はステップS812に移行する。一方、全ての顔領域が選択されていない場合、処理はステップS800に移行する。
ステップS812において、制御部32(画像合成部40)は、図4のステップS316と同様に合成画像CPを生成する。そして、処理は図11のステップS600に移行する。
以上、この実施形態においても、デジタルカメラ100の第1の実施形態と同様な効果を得ることができる。更に、半押し処理(図12)で各顔領域におけるAF評価値のサーチを一度行うだけで、各顔領域に対応するフォーカス位置を決定することが可能である。したがって、複雑なAF演算を一度限りで終わらせることができる。さらに、露出演算についても、半押し処理で各顔領域におけるAPEX値BVを予め取得可能である。よって、全押し処理(図13)では、感度値SV、絞り値AV、シャッタ速度TVの設定のみが行われ、処理が速やかに行われる。
図14は、本発明の画像処理装置及び画像処理プログラムの第1の実施形態を示している。パーソナルコンピュータ200(画像処理装置)は、画像を表示するディスプレイ44、コマンドや数値等を入力するキーボード46、制御装置48、CD−ROM50及びカードリーダ52を有している。制御装置48は、パーソナルコンピュータ200内の各装置を制御するCPU54、ハードディスク56及びドライブ装置58を有している。
CD−ROM50は、ドライブ装置58に着脱可能に装着される。このCD−ROM50がドライブ装置58に装着された後、キーボード46を介して入力される指示に応答して、CD−ROM50に保存されたプログラム(画像処理プログラム)がハードディスク56にダウンロードされる。
カードリーダ52は、USBコード等を用いて制御装置48に着脱可能に装着される。カードリーダ52には、記憶媒体42が着脱可能に装着される。なお、この記憶媒体42には、デジタルカメラ100の第1の実施形態(図4)で述べた第1反復処理によって得られた画像P1−p、P2−p、P3−pが予め格納されている。
図15は、画像処理装置及び画像処理プログラムの第1の実施形態における画像処理動作を表している。図15に示す動作は、CPU54(選択手段、顔検出手段及び生成手段)がハードディスク56に格納されたプログラムを実行することによって実現される。
ステップS900において、CPU54は、ユーザによる画像P1−p、P2−p、P3−pの合成要求を受け付けると、処理はステップS902に移行する。一方、この合成要求を受け付けないと、画像処理装置及び画像処理プログラムの第1の実施形態における画像処理動作が終了する。
ステップS902において、CPU54は、記憶媒体42に格納されている画像P1−p、P2−p、P3−pのいずれか(この例では、画像P1−p)を選択する。CPU54は、選択されていない残りの画像P2−p、P3−pから、図2のステップS104と同様に顔検出処理を行って、焦点や露出条件が設定された顔領域T2、T3をそれぞれ検出する。そして、CPU54は、検出した顔領域T2、T3を、画像P1−pの同じ領域に置き換えることで合成画像CPを生成する。したがって、CPU54は、全ての人物の顔に焦点や露出条件が設定されている合成画像CPを生成できる。このため、CPU54は、撮影者が焦点や露出条件を設定したい人物の顔に対して焦点や露出条件が合っている合成画像CPを確実に生成できる。なお、CPU54は、これらの顔領域T2、T3に対応する人物の顔領域が画像P1−pの同じ領域にない場合、合成画像CPを生成することができないことを示すエラー表示をディスプレイ44に表示させてもよい。この後、処理はステップS904に移行する。
ステップS904において、CPU54は、合成画像CPをハードディスク56に保存する。この後、処理はステップS906に移行する。
ステップS906において、CPU54は、合成画像CPの生成に用いた元の画像P1−p、P2−p、P3−pを消去する。なお、これらの画像P1−p、P2−p、P3−pの消去は、ユーザによる削除要求に応じて行われるものでもよい。また、画像P1−p、P2−p、P3−pと、合成画像CPとを1つのファイルにまとめてハードディスク56に保存してもよく、あるいは、それぞれの画像を独立したファイルに保存してもよい。そして、画像処理装置及び画像処理プログラムの第1の実施形態における画像処理動作が終了する。
以上、この実施形態においても、デジタルカメラ100の第1の実施形態と同様な効果を得ることができる。更に、CPU54は、全ての顔領域に焦点や露出条件が設定されている合成画像CPを生成できる。このため、CPU54は、撮影者が焦点や露出条件を設定したい人物の顔に対して焦点や露出条件が合っている合成画像CPを確実に生成できる
なお、上述したデジタルカメラの第1〜第3の実施形態及び、画像処理装置及び画像処理プログラムの第1の実施形態では、画像P2−p、P3−pに対して公知の顔検出処理を行って、焦点や露出条件が設定された顔領域T2、T3をそれぞれ検出し、合成画像CPを生成する例について述べた。本発明はかかる実施形態に限定されるものではない。例えば、画像P2−p、P3−pに対してウェーブレット変換を行って、これらの画像の各周波数成分の値に重み付けを行い、それらの総和を画素毎に比較することで、より鮮明な領域を焦点が設定された顔領域T2、T3として検出するものでもよい。
上述したデジタルカメラの第1〜第3の実施形態では、プレビュー画像PPから特徴点を抽出して、被写体である人物の顔領域を検出する例について述べた。本発明はかかる実施形態に限定されるものではない。例えば、被写体が所持しているICタグを検知する検知部を設け、被写体である人物の位置や人数等に基づいて焦点や露出条件を設定するものでもよい。なお、人物の位置や人数等は、ICタグに限らず、携帯電話、GPS、赤外線センサ等を利用して検知されるものでもよい。
本発明は、被写体の特徴を検出し、その検出結果に応じて被写体の撮影に必要な焦点や露出条件を設定するデジタルカメラと、このデジタルカメラを用いて撮像した画像を処理する画像処理装置及び画像処理プログラムに適用される。
本発明のデジタルカメラの第1の実施形態を示すブロック図である。 デジタルカメラの第1の実施形態における撮影待機処理動作を示すフローチャートである。 デジタルカメラの第1の実施形態における撮影待機処理動作を示すフローチャートである。 デジタルカメラの第1の実施形態における撮影待機処理動作を示すフローチャートである。 デジタルカメラの第1の実施形態における撮影待機処理動作を示すフローチャートである。 デジタルカメラの第2の実施形態における撮影待機処理動作を示すフローチャートである。 デジタルカメラの第2の実施形態における撮影待機処理動作を示すフローチャートである。 デジタルカメラの第2の実施形態における撮影待機処理動作を示すフローチャートである。 デジタルカメラの第2の実施形態における撮影待機処理動作を示すフローチャートである。 デジタルカメラの第2の実施形態における撮影待機処理動作を示すフローチャートである。 デジタルカメラの第3の実施形態における撮影待機処理動作を示すフローチャートである。 デジタルカメラの第3の実施形態における撮影待機処理動作を示すフローチャートである。 デジタルカメラの第3の実施形態における撮影待機処理動作を示すフローチャートである。 本発明の画像処理装置及び画像処理プログラムの第1の実施形態を示すブロック図である。 画像処理装置及び画像処理プログラムの第1の実施形態における画像処理動作を示すフローチャートである。
符号の説明
10…撮影レンズ、10a…ズームレンズ、10b…フォーカスレンズ、12…絞り、14…シャッタ、16…撮像素子、18…A/D変換回路、20…記憶部、22…操作部、24…表示部、26…I/F部、28…ROM、30…閃光発光部、32…制御部、34…特徴検出部、36…オートフォーカス部、38…露出演算部、40…画像合成部、42…記憶媒体、44…ディスプレイ、46…キーボード、48…制御装置、50…CD−ROM、52…カードリーダ、54…CPU、56…ハードディスク、58…ドライブ装置、100…デジタルカメラ、200…パーソナルコンピュータ

Claims (13)

  1. 被写体を撮像する撮像手段と、
    前記被写体の特徴部を検出する検出手段と、
    前記検出手段が複数の前記特徴部を検出したときに、焦点を複数の特徴部にそれぞれ合わせて、前記撮像手段に前記被写体を複数回撮像させる制御手段とを備えることを特徴とするデジタルカメラ。
  2. 請求項1記載のデジタルカメラにおいて、
    前記検出手段は、前記撮像手段により予め撮像される補助画像から人物の顔領域を前記特徴部として検出し、
    前記制御手段は、前記検出手段が複数の前記特徴部を検出したときに、複数の特徴部に焦点をそれぞれ合わせて、前記撮像手段に前記被写体を複数回撮像させることを特徴とするデジタルカメラ。
  3. 請求項2記載のデジタルカメラにおいて、
    前記制御手段は、前記検出手段により検出された顔領域の数が予め決められた基準数を超えるときに、各顔領域の内、面積が大きい顔領域、あるいは、前記補助画像の中心付近の顔領域に対応する人物の顔から優先的に前記焦点をそれぞれ合わせて、前記撮像手段に前記基準数回だけ前記被写体を撮像させることを特徴とするデジタルカメラ。
  4. 請求項1記載のデジタルカメラにおいて、
    前記検出手段は、前記撮像手段により予め撮像される補助画像から人物の顔領域を前記特徴部として検出し、
    前記撮像手段により撮像された複数の画像のいずれかを選択する選択手段と、
    前記選択手段により選択されていない残りの画像から前記焦点が合っている人物の顔領域をそれぞれ検出する顔検出手段と、
    前記顔検出手段により検出された顔領域を、前記選択手段により選択されている画像の同じ領域に置き換えることで合成画像を生成する生成手段とを備えることを特徴とするデジタルカメラ。
  5. 被写体を撮像する撮像手段と、
    前記被写体の特徴部を検出する検出手段と、
    前記検出手段が複数の前記特徴部を検出したときに、複数の特徴部に合わせて露出条件をそれぞれ設定して、前記撮像手段に前記被写体を複数回撮像させる制御手段とを備えることを特徴とするデジタルカメラ。
  6. 請求項5記載のデジタルカメラにおいて、
    前記検出手段は、前記撮像手段により予め撮像される補助画像から人物の顔領域を前記特徴部として検出し、
    前記制御手段は、前記検出手段が複数の前記特徴部を検出したときに、複数の特徴部に合わせて露出条件をそれぞれ設定して、前記撮像手段に前記被写体を複数回撮像させることを特徴とするデジタルカメラ。
  7. 請求項6記載のデジタルカメラにおいて、
    前記制御手段は、前記検出手段により検出された顔領域の数が予め決められた基準数を超えるときに、各顔領域の内、面積が大きい顔領域、あるいは、前記補助画像の中心付近の顔領域に対応する人物の顔から優先的に合わせて前記露出条件をそれぞれ設定して、前記撮像手段に前記基準数回だけ前記被写体を撮像させることを特徴とするデジタルカメラ。
  8. 請求項5記載のデジタルカメラにおいて、
    前記検出手段は、前記撮像手段により予め撮像される補助画像から人物の顔領域を前記特徴部として検出し、
    前記撮像手段により撮像された複数の画像のいずれかを選択する選択手段と、
    前記選択手段により選択されていない残りの画像から前記露出条件が設定されている人物の顔領域をそれぞれ検出する顔検出手段と、
    前記顔検出手段により検出された顔領域を、前記選択手段により選択されている画像の同じ領域に置き換えることで合成画像を生成する生成手段とを備えることを特徴とするデジタルカメラ。
  9. 請求項2または請求項6記載のデジタルカメラにおいて、
    前記撮像手段により撮像された複数の画像のホワイトバランスをそれぞれ調整するホワイトバランス処理、及び前記複数の画像の色彩をそれぞれ補正する色再現処理の少なくともいずれかを行う画像処理手段を備えることを特徴とするデジタルカメラ。
  10. 被写体である複数の人物の顔に焦点をそれぞれ合わせて前記被写体を撮像することにより得られた複数の画像のいずれかを選択する選択手段と、
    前記選択手段により選択されていない残りの画像から前記焦点が合っている人物の顔領域をそれぞれ検出する顔検出手段と、
    前記顔検出手段により検出された顔領域を、前記選択手段により選択されている画像の同じ領域に置き換えることで合成画像を生成する生成手段とを備えることを特徴とする画像処理装置。
  11. 被写体である複数の人物の顔に合わせて露出条件をそれぞれ設定して前記被写体を撮像することにより得られた複数の画像のいずれかを選択する選択手段と、
    前記選択手段により選択されていない残りの画像から前記露出条件が設定されている人物の顔領域をそれぞれ検出する顔検出手段と、
    前記顔検出手段により検出された顔領域を、前記選択手段により選択されている画像の同じ領域に置き換えることで合成画像を生成する生成手段とを備えることを特徴とする画像処理装置。
  12. コンピュータを、
    被写体である複数の人物の顔に焦点をそれぞれ合わせて前記被写体を撮像することにより得られた複数の画像のいずれかを選択する選択手段と、
    前記選択手段により選択されていない残りの画像から前記焦点が合っている人物の顔領域をそれぞれ検出する顔検出手段と、
    前記顔検出手段により検出された顔領域を、前記選択手段により選択されている画像の同じ領域に置き換えることで合成画像を生成する生成手段として機能させることを特徴とする画像処理プログラム。
  13. コンピュータを、
    被写体である複数の人物の顔に合わせて露出条件をそれぞれ設定して前記被写体を撮像することにより得られた複数の画像のいずれかを選択する選択手段と、
    前記選択手段により選択されていない残りの画像から前記露出条件が設定されている人物の顔領域をそれぞれ検出する顔検出手段と、
    前記顔検出手段により検出された顔領域を、前記選択手段により選択されている画像の同じ領域に置き換えることで合成画像を生成する生成手段として機能させることを特徴とする画像処理プログラム。
JP2006079967A 2006-03-23 2006-03-23 デジタルカメラ、画像処理装置及び画像処理プログラム Withdrawn JP2007259004A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006079967A JP2007259004A (ja) 2006-03-23 2006-03-23 デジタルカメラ、画像処理装置及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006079967A JP2007259004A (ja) 2006-03-23 2006-03-23 デジタルカメラ、画像処理装置及び画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2007259004A true JP2007259004A (ja) 2007-10-04

Family

ID=38632802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006079967A Withdrawn JP2007259004A (ja) 2006-03-23 2006-03-23 デジタルカメラ、画像処理装置及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2007259004A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008271132A (ja) * 2007-04-19 2008-11-06 Matsushita Electric Ind Co Ltd 撮像装置及び撮像方法
JP2014505915A (ja) * 2010-11-11 2014-03-06 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 焦点ずれ状態下での被写体検出及び認識
JP2015115715A (ja) * 2013-12-10 2015-06-22 キヤノン株式会社 撮像装置、撮像装置の制御方法、及び、プログラム
JP2015115714A (ja) * 2013-12-10 2015-06-22 キヤノン株式会社 撮像装置、撮像装置の制御方法、及び、プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008271132A (ja) * 2007-04-19 2008-11-06 Matsushita Electric Ind Co Ltd 撮像装置及び撮像方法
US8131142B2 (en) 2007-04-19 2012-03-06 Panasonic Corporation Imaging apparatus
US8391704B2 (en) 2007-04-19 2013-03-05 Panasonic Corporation Imaging apparatus
JP2014505915A (ja) * 2010-11-11 2014-03-06 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 焦点ずれ状態下での被写体検出及び認識
KR101870853B1 (ko) * 2010-11-11 2018-06-25 포토내이션 리미티드 초점이 벗어난 상태들 하에서 객체 검출 및 인식
JP2015115715A (ja) * 2013-12-10 2015-06-22 キヤノン株式会社 撮像装置、撮像装置の制御方法、及び、プログラム
JP2015115714A (ja) * 2013-12-10 2015-06-22 キヤノン株式会社 撮像装置、撮像装置の制御方法、及び、プログラム

Similar Documents

Publication Publication Date Title
US8649574B2 (en) Imaging apparatus, control method of imaging apparatus, and computer program
JP4315148B2 (ja) 電子カメラ
US6806906B1 (en) Digital still camera with composition assist function, and method of controlling operation of same
JP5056061B2 (ja) 撮像装置
JP5054063B2 (ja) 電子カメラ、画像処理装置及び画像処理方法
JP5713055B2 (ja) 撮像装置、撮像方法及びプログラム
JP2006211139A (ja) 撮像装置
JP2007306416A (ja) 顔検出枠の表示方法、文字情報の表示方法及び撮像装置
JP2007281760A (ja) 電子カメラ
JP2008252713A (ja) 撮像装置
JP6752681B2 (ja) 表示制御装置、表示制御装置の制御方法及びプログラム並びに記憶媒体
JP2007041046A (ja) 撮像装置
JP2007150603A (ja) 電子カメラ
JP2008092515A (ja) 電子カメラ、画像処理装置およびプログラム
JP5228354B2 (ja) ディジタルカメラ
JP2009141475A (ja) カメラ
KR20120002834A (ko) 참조 영상을 제공하는 촬상장치 및 그의 참조 영상 제공방법
JP2007148691A (ja) 画像処理装置
JP2008288798A (ja) 撮像装置
JP2007259004A (ja) デジタルカメラ、画像処理装置及び画像処理プログラム
JP2010081357A (ja) 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置
JP2008288797A (ja) 撮像装置
JP4632417B2 (ja) 撮像装置、及びその制御方法
JP2008054031A (ja) デジタルカメラ及び表示制御方法
JP2005223658A (ja) デジタルカメラ

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090602