JP2008167028A - 撮像装置 - Google Patents
撮像装置 Download PDFInfo
- Publication number
- JP2008167028A JP2008167028A JP2006352794A JP2006352794A JP2008167028A JP 2008167028 A JP2008167028 A JP 2008167028A JP 2006352794 A JP2006352794 A JP 2006352794A JP 2006352794 A JP2006352794 A JP 2006352794A JP 2008167028 A JP2008167028 A JP 2008167028A
- Authority
- JP
- Japan
- Prior art keywords
- image
- reference image
- data
- control unit
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
Abstract
【課題】 より適切に被写体の状態を判定できる画像データを取得するための手段を提供することを目的とする。
【解決手段】 被写体を撮像して画像のデータを生成する撮像素子と、レリーズ前の予備撮影期間に撮像した複数のスルー画像のデータに基づいて、前記被写体の状態が所定の条件を満たす基準画像のデータを生成する制御部と、を備えることを特徴とする撮像装置。
【選択図】 図1
【解決手段】 被写体を撮像して画像のデータを生成する撮像素子と、レリーズ前の予備撮影期間に撮像した複数のスルー画像のデータに基づいて、前記被写体の状態が所定の条件を満たす基準画像のデータを生成する制御部と、を備えることを特徴とする撮像装置。
【選択図】 図1
Description
本発明は、デジタルカメラなどの撮像装置において、好ましい画像を取得するための処理に関する。
従来から、レリーズ直前の先行撮影の撮影情報とレリーズ時の本撮影の撮影情報とを比較して、先行撮影の画像に対して本撮影の画像に一定以上の変化が生じていれば警告を行う電子カメラが公知である(例えば特許文献1参照)。また、撮像された画像から被写体を検出するとともにその被写体の状態を判定し、被写体の状態が好適でない場合には警告を行う電子カメラも公知である(例えば特許文献2参照)。
特開2005−229368号公報
特開2006−87083号公報
従来の電子カメラでは、レリーズ直前に撮像された1枚(1フレーム)の画像と本撮影の画像とを対比して被写体の状態を判定するか、本撮影の画像のみから被写体の状態を判定している。そのため、必ずしも撮影者の意図通りに被写体の状態を判定できない点で改善の余地があった。例えば、レリーズ直前に撮像された画像がもし被写体の好ましくない状態をサンプリングしていた場合には、本撮影の画像が被写体の好ましい状態を撮像したものか否かを判定することは困難である。また、本撮影の画像のみで被写体の状態を判定する場合には、被写体の特徴などが十分に考慮されないので誤判定が起こる可能性がある。
そこで、本発明は、より適切に被写体の状態を判定できる画像データを取得するための手段を提供することを目的とする。
請求項1に記載の撮像装置は、被写体を撮像して画像のデータを生成する撮像素子と、レリーズ前の予備撮影期間に撮像した複数のスルー画像のデータに基づいて、前記被写体の状態が所定の条件を満たす基準画像のデータを生成する制御部と、を備えることを特徴とする。
本発明の電子カメラによれば、レリーズ前の予備撮影期間に撮像した複数の画像のデータから基準画像のデータを生成するので、最適な基準画像を生成することができ、その基準画像に基づいて、より適切に被写体の状態を判定できるようになる。
(第1実施形態)
図1は、第1実施形態の電子カメラのブロック図である。
電子カメラは、撮像レンズ1と、撮像素子2と、A/D変換部3と、画像処理部4と、制御部5と、判定処理部6と、バッファメモリ7と、メモリ8と、2段階の押圧操作(半押し操作、全押し操作)によりそれぞれオンする半押しスイッチ、全押し(レリーズ)スイッチに連動するレリーズ釦9aを含む操作部9と、記録I/F10と、モニタ11と、バス12とを備える。なお、撮像素子2と、画像処理部4と、制御部5と、バッファメモリ7と、メモリ8と、操作部9と、記録I/F10と、モニタ11はそれぞれバス12を介して接続されている。
図1は、第1実施形態の電子カメラのブロック図である。
電子カメラは、撮像レンズ1と、撮像素子2と、A/D変換部3と、画像処理部4と、制御部5と、判定処理部6と、バッファメモリ7と、メモリ8と、2段階の押圧操作(半押し操作、全押し操作)によりそれぞれオンする半押しスイッチ、全押し(レリーズ)スイッチに連動するレリーズ釦9aを含む操作部9と、記録I/F10と、モニタ11と、バス12とを備える。なお、撮像素子2と、画像処理部4と、制御部5と、バッファメモリ7と、メモリ8と、操作部9と、記録I/F10と、モニタ11はそれぞれバス12を介して接続されている。
撮像レンズ1は、フォーカシングレンズを含む複数のレンズ群で構成されている。この撮像レンズ1は、撮像素子2の撮像面に被写体像を結像させる。なお、簡単のため、図1では撮像レンズ1を1枚のレンズとして図示する。
撮像素子2は、撮像レンズ1を通過した光束による被写体像を光電変換し、アナログ画像信号を生成する。撮像素子2の出力はA/D変換部3に接続されている。
撮像素子2は、撮像レンズ1を通過した光束による被写体像を光電変換し、アナログ画像信号を生成する。撮像素子2の出力はA/D変換部3に接続されている。
ここで、被写体を撮影するための撮影モードにおいて、撮像素子2は、レリーズ時(レリーズ釦9aの全押し時)に記録用画像(本画像)を撮像する。また、撮像素子2は、レリーズ釦9aの操作がされていない撮影待機時(非レリーズ時)にも所定間隔毎に間引き読み出しでスルー画像を撮像する。上記のスルー画像のデータは、制御部5による各種の演算処理やモニタ11の表示などに使用される。なお、スルー画像の解像度は、モニタ11の解像度に合わせて設定されている。
A/D変換部3は、撮像素子2の出力信号のA/D変換を行う。
画像処理部4は、A/D変換部3から出力されたデジタル信号に各種の画像処理(色補間、階調変換処理、輪郭強調処理、ホワイトバランス調整、圧縮伸長処理など)を施して画像のデータを生成する。また、画像処理部4は、後述の基準画像と本画像とを比較するときに、本画像の解像度を基準画像の解像度に合わせる解像度変換処理を行う。
画像処理部4は、A/D変換部3から出力されたデジタル信号に各種の画像処理(色補間、階調変換処理、輪郭強調処理、ホワイトバランス調整、圧縮伸長処理など)を施して画像のデータを生成する。また、画像処理部4は、後述の基準画像と本画像とを比較するときに、本画像の解像度を基準画像の解像度に合わせる解像度変換処理を行う。
制御部5は、電子カメラの統括的な制御を行うプロセッサである。制御部5は、所定のシーケンスプログラムに従って電子カメラの各部動作を制御するとともに、撮影時に必要となる各種演算(AF、AEなど)を実行する。また、制御部5は、後述するレリーズ前の予備撮影期間に撮像した複数のスルー画像のデータに基づいて、被写体の状態が所定の条件を満たす基準画像のデータを生成する。例えば、制御部5は、人物の開眼状態を判定するための基準画像や、人物の顔の向きを判定するための基準画像や、人物の表情を判定するための基準画像などを生成する。なお、上記の基準画像のデータの生成方法の詳細な説明については後述する。
さらに、図1に示すように、制御部5は、顔検出部5aと、目検出部5bと、顔向き検出部5cと、目開閉検出部5dと、表情検出部5eとを有している。
顔検出部5aは、スルー画像および本画像から被写体の人物の顔領域を検出する顔検出処理を行う。この顔検出処理は公知のアルゴリズムによって行われる。一例として、顔検出部5aは、公知の特徴点抽出処理によって、画像から眉、目、鼻、唇の各端点などの特徴点を抽出し、これらの特徴点に基づいて顔領域か否かを判定する。あるいは、顔検出部5aは、予め用意された顔画像と判定対象の画像との相関係数を求めて、この相関係数が一定の閾値を超えるときに顔領域と判定するものでもよい。
顔検出部5aは、スルー画像および本画像から被写体の人物の顔領域を検出する顔検出処理を行う。この顔検出処理は公知のアルゴリズムによって行われる。一例として、顔検出部5aは、公知の特徴点抽出処理によって、画像から眉、目、鼻、唇の各端点などの特徴点を抽出し、これらの特徴点に基づいて顔領域か否かを判定する。あるいは、顔検出部5aは、予め用意された顔画像と判定対象の画像との相関係数を求めて、この相関係数が一定の閾値を超えるときに顔領域と判定するものでもよい。
目検出部5bは、顔検出部5aが抽出した顔領域から人物の目の部分(目領域あるいは目の位置)を検出する。例えば、目検出部5bは、上記の特徴点抽出の結果に基づいて顔領域内の目領域を検出する。あるいは、目検出部5bは、顔領域の検出結果から顔の概略中心位置を求め、この中心位置との相対的位置関係から目領域を検出してもよい。
顔向き検出部5cは、公知のアルゴリズムに基づいて画像内の人物の顔の向き(正面、横向き、上向き、下向きなど)を判定する。例えば、顔向き検出部5cは、特開2001−51388号公報に示される手法により、人物の顔が正面を向いているものと判定する。また、顔向き検出部5cは、人物の顔のパーツの幾何学的な形状の変化や、顔のパーツの位置関係、顔の特徴点の相対距離などから顔の向きを判定してもよい。一例として、顔の水平方向における特徴点の間隔(目の左右端の間隔など)の変化に着目すると、被写体がどの程度横向きかを推定できる。また、顔の垂直方向における特徴点の間隔(鼻と唇との間隔など)の変化に着目すると、被写体がどの程度上向きまたは下向きかを推定できる。
顔向き検出部5cは、公知のアルゴリズムに基づいて画像内の人物の顔の向き(正面、横向き、上向き、下向きなど)を判定する。例えば、顔向き検出部5cは、特開2001−51388号公報に示される手法により、人物の顔が正面を向いているものと判定する。また、顔向き検出部5cは、人物の顔のパーツの幾何学的な形状の変化や、顔のパーツの位置関係、顔の特徴点の相対距離などから顔の向きを判定してもよい。一例として、顔の水平方向における特徴点の間隔(目の左右端の間隔など)の変化に着目すると、被写体がどの程度横向きかを推定できる。また、顔の垂直方向における特徴点の間隔(鼻と唇との間隔など)の変化に着目すると、被写体がどの程度上向きまたは下向きかを推定できる。
目開閉検出部5dは、顔領域にある目が開いているか否かを判定する。例えば、目開閉検出部5dは、上記の顔領域から上瞼線および下瞼線を検出し、上瞼線および下瞼線の間隔を測定する。そして、目開閉検出部5dは、上瞼線と下瞼線との間隔が閾値以上の場合は、目が開いていると判定する。
表情検出部5eは、顔検出部5aが抽出した顔領域における表情を判定する。例えば、表情検出部5eは、例えば、喜び、怒り、驚き、悲しみなどの各表情について予めメモリ8や制御部5内のメモリ内などに記憶されている複数種類の表情モデルのテンプレートデータを用いて、スルー画像や本画像に含まれる顔領域の表情と、各々の表情モデルとの類似度をそれぞれ求める。そして、表情検出部5eは、判定対象の顔領域が、類似度の最も高い表情モデルの表情をしているものと自動的に判定する。
表情検出部5eは、顔検出部5aが抽出した顔領域における表情を判定する。例えば、表情検出部5eは、例えば、喜び、怒り、驚き、悲しみなどの各表情について予めメモリ8や制御部5内のメモリ内などに記憶されている複数種類の表情モデルのテンプレートデータを用いて、スルー画像や本画像に含まれる顔領域の表情と、各々の表情モデルとの類似度をそれぞれ求める。そして、表情検出部5eは、判定対象の顔領域が、類似度の最も高い表情モデルの表情をしているものと自動的に判定する。
また、表情検出部5eは、撮影者により予め指定された表情モデルのテンプレートデータを用いて、スルー画像や本画像に含まれる顔領域の表情がその指定された表情モデルの表情をしている画像を自動的に抽出(特定)することも可能である。例えば、「喜び(笑顔)」の表情モデルが指定されている場合には、複数のスルー画像の中から、「喜び(笑顔)」の表情モデルのテンプレートデータに最も類似度の高い顔領域を持ったスルー画像を抽出(特定)することができる。ここで、表情モデルのテンプレートデータは、例えば、各表情における顔パーツの位置関係や形状などを示すデータで構成される。また、各々の表情モデルは、不特定多数の人物の表情から統計的に求めたものであってもよい。
また、他の例として、表情検出部5eは、特開平8−249453号公報、特開平10−255043号公報に示されるように、表情カテゴリとして、喜びの表情と、怒りの表情と、驚きの表情と、悲しみの表情と、嫌悪の表情と、恐怖の表情との合計6種類の基本表情を考え、無表情から各基本表情への時系列画像の処理を行い、表情を判断してもよい。
なお、画像内に複数の人物が撮像されている場合には、上記の顔検出部5aはそれら複数の人物を検出することも可能である。このとき、目検出部5b、顔向き検出部5c、目開閉検出部5d、表情検出部5eは、個々の人物を対象としてそれぞれ個別に処理を行うことができる。
判定処理部6は、基準画像のデータと本画像のデータとを比較して、本画像における被写体の状態を判定する。
判定処理部6は、基準画像のデータと本画像のデータとを比較して、本画像における被写体の状態を判定する。
バッファメモリ7は、画像処理部4による画像処理の前工程や後工程で本画像のデータを一時的に記録する。また、バッファメモリ7には、後述の予備撮像期間に撮像されたスルー画像のデータなどが記録される。
メモリ8には、上記の表情検出部5eで表情の判定に使用する表情データ(表情モデルのテンプレートデータなど)が記憶されている。
メモリ8には、上記の表情検出部5eで表情の判定に使用する表情データ(表情モデルのテンプレートデータなど)が記憶されている。
操作部9は、前述のレリーズ釦9aや操作釦9bなどを有している。操作部9のレリーズ釦9aは、レリーズタイミングの指示入力をユーザーから受け付ける。操作部9の操作釦9bは、例えば後述のメニュー画面等での入力をユーザーから受け付ける。
記録I/F10は、記憶媒体(不図示)を接続するためのコネクタが形成されている。そして、記録I/F10は、コネクタに接続された記憶媒体に対してデータの書き込み/読み込みを実行する。
記録I/F10は、記憶媒体(不図示)を接続するためのコネクタが形成されている。そして、記録I/F10は、コネクタに接続された記憶媒体に対してデータの書き込み/読み込みを実行する。
モニタ11は、制御部5の指示する画面を表示する。本実施形態の例では、モニタ11は、例えば、LCD等の液晶モニタで構成されている。このモニタ11は、例えば、カメラ本体の背面部に設けられるものであるが、ファインダー内での表示用として用いるものであってもよい。ここで、モニタ11には撮影待機時にスルー画像が表示される。また、モニタ11には、GUI(Graphical User Interface)形式の入力が可能なメニュー画面なども表示することができる。上記のメニュー画面では、本画像の人物の表情を判定する場合に、判定しようとする表情の種類を制御部5に対してユーザーが操作釦9bへの操作を介して入力できる。例えば、ユーザーは、メニュー画面の選択項目として提示された表情モード(喜び、怒りなど)の項目を操作部9で指定することで上記入力を実行する。また、操作釦9bの操作により、主要被写体を選択指定することも可能である(これについては後述する)。
以下、第1実施形態の電子カメラの動作を説明する。図2は、第1実施形態の電子カメラでの撮像処理を示すフローチャートである。この第1実施形態の電子カメラでは、被写体の人物の開眼状態に応じてユーザーに警告を行う例を示す。なお、以下の各実施形態の説明では、便宜上、1人の人物を撮影するシーンを前提として説明を行う。
ステップS1で、制御部5は、操作部9のうちのレリーズ釦9aに対するユーザーの半押し操作に応じて、基準画像を生成するための予備撮像処理を開始する。なお、このS1の処理は、レリーズ釦9aの半押し操作に限られず、予備撮像処理を行うための専用の操作部材(レリーズ釦9aとは別の操作部材)の操作で実行せしめるようにしてもよい。
ステップS1で、制御部5は、操作部9のうちのレリーズ釦9aに対するユーザーの半押し操作に応じて、基準画像を生成するための予備撮像処理を開始する。なお、このS1の処理は、レリーズ釦9aの半押し操作に限られず、予備撮像処理を行うための専用の操作部材(レリーズ釦9aとは別の操作部材)の操作で実行せしめるようにしてもよい。
ステップS2で、制御部5は、撮像素子2を駆動させて複数枚(複数フレーム)のスルー画像の撮像を行う。この各スルー画像の画像信号は、それぞれA/D変換部3を通過した後に、画像処理部4で補間処理などが施される。そして、これら複数枚(複数フレーム)のスルー画像のデータはバッファメモリ7に記録される。
ステップS3で、顔検出部5aは、S2で生成した各スルー画像からそれぞれ顔領域を検出する。
ステップS3で、顔検出部5aは、S2で生成した各スルー画像からそれぞれ顔領域を検出する。
ステップS4で、制御部5は、S2のスルー画像から顔領域が検出できたか否かを判定する。顔領域が検出できた場合(Y)にはS5に移行する。一方、顔領域が検出できない場合(N)にはS8に移行する。
ステップS5で、目検出部5bは、S3で検出した顔領域から目領域を検出する。
ステップS6で、目開閉検出部5dは、S2で得られた各スルー画像における被写体の開眼状態の評価を実行する。具体的には、目開閉検出部5dは、S5で検出した目領域における目の上瞼線および下瞼線を検出する。次に、目開閉検出部5dは、上瞼線および下瞼線の間隔を測定し、この間隔の値を開眼状態の評価値とする。ここでは上瞼線および下瞼線の間隔が大きいほど、評価値の値は高くなるものとする。そして、制御部5は、開眼状態の評価値を判定対象の各スルー画像(S2)に対応付けしてバッファメモリ7に記録する。なお、S5で目領域が検出できない場合には、制御部5はS6およびS7の処理を省略してS8に移行する(なお、図2においてこの場合の処理の図示は省略する)。
ステップS5で、目検出部5bは、S3で検出した顔領域から目領域を検出する。
ステップS6で、目開閉検出部5dは、S2で得られた各スルー画像における被写体の開眼状態の評価を実行する。具体的には、目開閉検出部5dは、S5で検出した目領域における目の上瞼線および下瞼線を検出する。次に、目開閉検出部5dは、上瞼線および下瞼線の間隔を測定し、この間隔の値を開眼状態の評価値とする。ここでは上瞼線および下瞼線の間隔が大きいほど、評価値の値は高くなるものとする。そして、制御部5は、開眼状態の評価値を判定対象の各スルー画像(S2)に対応付けしてバッファメモリ7に記録する。なお、S5で目領域が検出できない場合には、制御部5はS6およびS7の処理を省略してS8に移行する(なお、図2においてこの場合の処理の図示は省略する)。
ステップS7で、制御部5は、レリーズ前の予備撮像期間に撮像された複数枚(複数フレーム)のスルー画像(S2)に基づいて基準画像を生成する。
第1の例として、制御部5は、相前後して撮像された2フレーム分のスルー画像について、2つのスルー画像における開眼状態の評価値(S6)を比較する。そして、制御部5は開眼状態の評価値の高い方を基準画像に設定する。その後、制御部5は、基準画像のスルー画像と、それ以降の半押し操作期間中に(全押し操作がなされるまで)順次撮像される新たなスルー画像との間で上記の評価値の比較を繰り返し、より被写体の目が開いている画像を基準画像に設定(更新)する。なお、この場合には、基準画像とならない方のスルー画像のデータは、バッファメモリ7において他のスルー画像のデータで逐次上書きされて消去されることとなる。
第1の例として、制御部5は、相前後して撮像された2フレーム分のスルー画像について、2つのスルー画像における開眼状態の評価値(S6)を比較する。そして、制御部5は開眼状態の評価値の高い方を基準画像に設定する。その後、制御部5は、基準画像のスルー画像と、それ以降の半押し操作期間中に(全押し操作がなされるまで)順次撮像される新たなスルー画像との間で上記の評価値の比較を繰り返し、より被写体の目が開いている画像を基準画像に設定(更新)する。なお、この場合には、基準画像とならない方のスルー画像のデータは、バッファメモリ7において他のスルー画像のデータで逐次上書きされて消去されることとなる。
また、第2の例として、制御部5は、S2で得られた複数のスルー画像を統計的に処理して基準画像のデータを作成してもよい。具体的には、制御部5は、複数のスルー画像における開眼状態の評価値(S6)の平均値を求め、上瞼線および下瞼線の間隔が平均値となる基準画像を画像処理で作成する。なお、制御部5は、複数のスルー画像のうちから上記の平均値に最も近い評価値を有するスルー画像を基準画像としてもよい。
また、第2の例において、制御部5は、重み付け平均処理をおこなって、他のスルー画像と明らかに相違するスルー画像に対しては重み付けを落とすようにしてもよい。さらに、制御部5は、基準画像を生成するときに、開眼状態の評価値(S6)が閾値の範囲から外れるスルー画像を判定対象から除外し、残りのスルー画像の評価値を平均化して基準画像を生成してもよい。
ステップS8で、制御部5は、レリーズ釦9aが全押しされたか否かを判定する。レリーズ釦9aが全押しされた場合(Y)には、S9に移行する。この場合には予備撮像期間が終了し、制御部5によって本撮影が行われることとなる。一方、レリーズ釦9aが全押しされていない場合(N)には、S2へ戻る。これにより、電子カメラによる基準画像の生成動作がレリーズ時まで繰り返されることとなる。
ステップS9で、制御部5は、撮像素子2を駆動させて本画像の撮像を行う。この本画像の画像信号は、A/D変換部3を通過した後に、画像処理部4で各種の画像処理が施される。そして、本画像のデータは、圧縮処理が施される前にバッファメモリ7に一時的に記録される。
ステップS10で、判定処理部6は、バッファメモリ7に記録された基準画像(S7)とレリーズ時に撮像された本画像(S9)とを比較する。
ステップS10で、判定処理部6は、バッファメモリ7に記録された基準画像(S7)とレリーズ時に撮像された本画像(S9)とを比較する。
まず、画像処理部4は、バッファメモリ7に記録された本画像のデータに対して解像度変換処理を行って、スルー画像と同解像度に設定された評価用画像のデータを生成する。そして、判定処理部6は、本画像に対応する評価用画像と基準画像(S7)とを比較して、両画像間の類似度を演算する。一例として、判定処理部6は、画像間で対応する画素の明度、色差に基づいて画素ごとの類似度を判定し、類似すると判定された画素の数に応じて最終的な類似度の値を求める。この際に、特に注目すべき領域の画素(例えば、顔領域の画素、あるいは目領域の画素など、基準画像の特徴となっている領域の画素)のみに基づいて、類似度を判定するようにすれば、高速な類似度判定処理が可能となる。
ステップS11で、判定処理部6は、基準画像と本画像との類似度(S10)が所定の閾値以上であるか否かを判定する。類似度が閾値以上であって、本画像の被写体が開眼状態と推定される場合(Y)にはS14に移行する。一方、類似度が閾値未満であって、本画像の被写体が目つぶりした状態と推定される場合(N)には、S12へ移行する。
ステップS12で、制御部5は、モニタ11に警告を表示する。例えば、制御部5は、モニタ11に「撮影された人物は目を閉じています。画像を記録しますか。」等のメッセージを表示させる。なお、警告の手段はメッセージ表示に限定されず、音声による警告や、LED等の点滅または点灯による警告等によってもかまわない。
ステップS12で、制御部5は、モニタ11に警告を表示する。例えば、制御部5は、モニタ11に「撮影された人物は目を閉じています。画像を記録しますか。」等のメッセージを表示させる。なお、警告の手段はメッセージ表示に限定されず、音声による警告や、LED等の点滅または点灯による警告等によってもかまわない。
ステップS13で、制御部5は、本画像を記録するか否かの指示を操作部9を介してユーザーから受け付ける。そして、制御部5は、ユーザーから本画像を記録する指示があったか否かを判定する。本画像を記録する指示があった場合(Y)にはS14に移行する。一方、本画像を記録しない旨の指示があった場合(N)には、S1へ戻る。
ステップS14で、制御部5は、本画像のデータを記録媒体に記録する。以上で、図2に示す撮像処理の説明を終了する。
ステップS14で、制御部5は、本画像のデータを記録媒体に記録する。以上で、図2に示す撮像処理の説明を終了する。
以下、第1実施形態の作用効果を説明する。第1実施形態の電子カメラは、レリーズ前の予備撮像期間に取得した複数のスルー画像から、人物が開眼状態にある基準画像を生成する。そして、電子カメラは、上記の基準画像に基づいて、例えば、本画像の被写体の開眼状態を判定し、被写体が目つぶり状態にある場合にはユーザーに対して警告する。
一般に、人が瞬きに要する平均時間は約1/10秒といわれており、さらに、目を閉じてから完全に開くまでには約1/2秒を要する。そのため、被写体が一度瞬きをすると、スルー画像のフレームレートが30fpsのときには20フレーム程度は目の開き方が不十分な画像が撮像される。一方で、電子カメラで被写体を撮影するときにはカメラを構えてからレリーズまでに数秒から数十秒を要することが通常であるので、その間に撮像されるスルー画像には被写体が目を開いた画像が含まれる可能性が高くなる。すなわち、第1実施形態では、予備撮像期間の複数のスルー画像からより好ましい開眼状態の画像を基準画像にできるので、本画像の被写体の状態をより適切に判定することができる。
一般に、人が瞬きに要する平均時間は約1/10秒といわれており、さらに、目を閉じてから完全に開くまでには約1/2秒を要する。そのため、被写体が一度瞬きをすると、スルー画像のフレームレートが30fpsのときには20フレーム程度は目の開き方が不十分な画像が撮像される。一方で、電子カメラで被写体を撮影するときにはカメラを構えてからレリーズまでに数秒から数十秒を要することが通常であるので、その間に撮像されるスルー画像には被写体が目を開いた画像が含まれる可能性が高くなる。すなわち、第1実施形態では、予備撮像期間の複数のスルー画像からより好ましい開眼状態の画像を基準画像にできるので、本画像の被写体の状態をより適切に判定することができる。
また、第1実施形態の電子カメラは、例えば、光が眩しくて被写体の人物が目を細めているシーンでは、被写体が目を細めている画像群に基づいて基準画像が生成される。したがって、従来では目つぶり状態と誤判定されやすい撮影条件下でも、撮影するシーンに応じた被写体の状況が基準画像に適確に反映されているので、本撮影画像が目つぶり状態と誤判定(換言すれば、失敗写真と誤判定)されることなく、被写体の開眼状態を精度良く判定できる。
(第2実施形態)
図3は、第2実施形態の電子カメラでの撮像処理を示すフローチャートである。この第2実施形態では、被写体の人物の顔の向き(正面向きか否か)に応じてユーザーに警告を行う例を示す。
ここで、以下の実施形態における電子カメラの構成は、図1に示す第1実施形態の電子カメラと共通するので重複説明は省略する。
図3は、第2実施形態の電子カメラでの撮像処理を示すフローチャートである。この第2実施形態では、被写体の人物の顔の向き(正面向きか否か)に応じてユーザーに警告を行う例を示す。
ここで、以下の実施形態における電子カメラの構成は、図1に示す第1実施形態の電子カメラと共通するので重複説明は省略する。
また、図3のS101〜S103は図2のS1〜S3にそれぞれ対応し、図3のS113は図2のS14に対応するので重複説明を省略する。
ステップS104で、制御部5は、S102のスルー画像から顔領域が検出できたか否かを判定する。顔領域が検出できた場合(Y)にはS105に移行する。一方、顔領域が検出できない場合(N)にはS107に移行する。
ステップS104で、制御部5は、S102のスルー画像から顔領域が検出できたか否かを判定する。顔領域が検出できた場合(Y)にはS105に移行する。一方、顔領域が検出できない場合(N)にはS107に移行する。
ステップS105で、顔向き検出部5cは、S103で顔領域を検出したスルー画像について顔向きを示す評価情報を生成する。そして、制御部5は、上記の評価情報を判定対象のスルー画像(S102)に対応付けしてバッファメモリ7に記録する。
ステップS106で、制御部5は、レリーズ前の予備撮像期間に撮像された複数枚(複数フレーム)のスルー画像(S102)に基づいて基準画像を生成する。
ステップS106で、制御部5は、レリーズ前の予備撮像期間に撮像された複数枚(複数フレーム)のスルー画像(S102)に基づいて基準画像を生成する。
この第2実施形態での制御部5は、相前後して撮像された2フレーム分のスルー画像について、2つのスルー画像における顔の向きの評価情報(S105)を比較する。そして、制御部5は、評価情報に基づいて好ましい顔の向き(正面向き)の画像を基準画像に設定する。その後、制御部5は、基準画像のスルー画像と、その後で順次撮像される新たなスルー画像とで上記の評価情報の比較を繰り返し、より被写体の顔の向きが好ましい画像を基準画像に設定(更新)する。なお、第2実施形態においても、制御部5は、前述の図2のS7において詳述したようにスルー画像を統計的に処理することで基準画像を生成してもよい。
ステップS107で、制御部5は、レリーズ釦9aが全押しされたか否かを判定する。レリーズ釦9aが全押しされた場合(Y)には、S108に移行する。この場合には予備撮像期間が終了し、制御部5によって本撮影が行われることとなる。一方、レリーズ釦9aが全押しされていない場合(N)には、S102へ戻る。これにより、電子カメラによる基準画像の生成動作がレリーズ時まで繰り返されることとなる。
ステップS108で、制御部5は、撮像素子2を駆動させて本画像の撮像を行う。なお、このS108は、図2のS9に対応するので重複説明は省略する。
ステップS109で、判定処理部6は、バッファメモリ7に記録された基準画像(S106)とレリーズ時に撮像された本画像(S108)とを比較する。なお、このS109は、図2のS10に対応するので重複説明は省略する。
ステップS109で、判定処理部6は、バッファメモリ7に記録された基準画像(S106)とレリーズ時に撮像された本画像(S108)とを比較する。なお、このS109は、図2のS10に対応するので重複説明は省略する。
ステップS110で、判定処理部6は、基準画像と本画像との類似度(S109)が所定の閾値以上であるか否かを判定する。類似度が閾値以上である場合(Y)にはS113に移行する。一方、類似度が閾値未満である場合(N)には、S111へ移行する。
ステップS111で、制御部5は、モニタ11に警告を表示する。例えば、制御部5は、モニタ11に「撮影された画像は正面を向いていません。画像を記録しますか。」等のメッセージを表示させる。なお、警告の手段はメッセージ表示に限定されず、音声による警告や、LED等の点滅または点灯による警告等によってもかまわない。
ステップS111で、制御部5は、モニタ11に警告を表示する。例えば、制御部5は、モニタ11に「撮影された画像は正面を向いていません。画像を記録しますか。」等のメッセージを表示させる。なお、警告の手段はメッセージ表示に限定されず、音声による警告や、LED等の点滅または点灯による警告等によってもかまわない。
ステップS112で、制御部5は、本画像を記録するか否かの指示を操作部9を介してユーザーから受け付ける。そして、制御部5は、ユーザーから本画像を記録する指示があったか否かを判定する。本画像を記録する指示があった場合(Y)にはS113に移行する。一方、本画像を記録しない旨の指示があった場合(N)には、S101へ戻る。以上で、図3に示す撮像処理の説明を終了する。
上記第2実施形態では、本画像における顔の向きの判定に関し、第1実施形態の場合とほぼ同様の効果を得ることができる。
(第3実施形態)
図4は、第3実施形態の電子カメラでの撮像処理を示すフローチャートである。この第3実施形態では、予備撮像処理期間中に得られた被写体の平均的な表情を基準としてユーザーに警告を行う例を示す。
(第3実施形態)
図4は、第3実施形態の電子カメラでの撮像処理を示すフローチャートである。この第3実施形態では、予備撮像処理期間中に得られた被写体の平均的な表情を基準としてユーザーに警告を行う例を示す。
また、図4のS201〜S203は図2のS1〜S3にそれぞれ対応し、図4のS213は図2のS14に対応するので重複説明を省略する。
ステップS204で、制御部5は、S202で得た各スルー画像から顔領域が検出できたか否かを判定する。顔領域が検出できた場合(Y)にはS205に移行する。一方、顔領域が検出できない場合(N)にはS207に移行する。
ステップS204で、制御部5は、S202で得た各スルー画像から顔領域が検出できたか否かを判定する。顔領域が検出できた場合(Y)にはS205に移行する。一方、顔領域が検出できない場合(N)にはS207に移行する。
ステップS205で、表情検出部5eは、S203で検出した顔領域の表情の評価を実行する。具体的には、表情検出部5eは、メモリ8に予め記憶されている表情データ(テンプレートデータ)に基づいて、S202で得られた各スルー画像における被写体の表情の種類を示す評価情報を生成する。そして、制御部5は、上記の評価情報を判定対象の各スルー画像(S202)に対応付けしてバッファメモリ7に記録する。
ステップS206で、制御部5は、レリーズ前の予備撮像期間に撮像された複数のスルー画像(S202)を統計的に処理して基準画像を生成する。なお、生成された基準画像のデータはバッファメモリ7に記録される。
一例として、制御部5は、複数のスルー画像のうちで、表情の共通するスルー画像には重み付けを高める重み付け平均処理で基準画像を生成する。例えば、スルー画像が合計5フレームあり、4フレームは喜びの表情と判定され、1フレームは驚きの表情と判定されたとする。このとき、制御部5は、フレーム数の多い喜びの表情を主要な表情として重み付けを大きくし、主要な表情とは異なる驚きの表情に対する重み付けを小さくする。そして、制御部5は、上記の重み付けを考慮して5フレーム分のスルー画像から画像処理で基準画像のデータを作成する。このときの基準画像の表情は、上記の重み付けが反映されて喜びの表情が支配的になる。
一例として、制御部5は、複数のスルー画像のうちで、表情の共通するスルー画像には重み付けを高める重み付け平均処理で基準画像を生成する。例えば、スルー画像が合計5フレームあり、4フレームは喜びの表情と判定され、1フレームは驚きの表情と判定されたとする。このとき、制御部5は、フレーム数の多い喜びの表情を主要な表情として重み付けを大きくし、主要な表情とは異なる驚きの表情に対する重み付けを小さくする。そして、制御部5は、上記の重み付けを考慮して5フレーム分のスルー画像から画像処理で基準画像のデータを作成する。このときの基準画像の表情は、上記の重み付けが反映されて喜びの表情が支配的になる。
なお、制御部5は、主要な表情と異なる表情を除外して、残りのスルー画像の平均的な表情を作成し、基準画像のデータを作成してもよい。上記の例であれば、制御部5は、驚きの表情のスルー画像を除外し、喜びの表情をもつ4フレーム分のスルー画像に基づいて基準画像のデータを作成する。
ステップS207で、制御部5は、レリーズ釦9aが全押しされたか否かを判定する。レリーズ釦9aが全押しされた場合(Y)には、S208に移行する。この場合には予備撮像期間が終了し、制御部5によって本撮影が行われることとなる。一方、レリーズ釦9aが全押しされていない場合(N)には、S202へ戻る。これにより、電子カメラによる基準画像の生成動作がレリーズ時まで繰り返されることとなる。
ステップS207で、制御部5は、レリーズ釦9aが全押しされたか否かを判定する。レリーズ釦9aが全押しされた場合(Y)には、S208に移行する。この場合には予備撮像期間が終了し、制御部5によって本撮影が行われることとなる。一方、レリーズ釦9aが全押しされていない場合(N)には、S202へ戻る。これにより、電子カメラによる基準画像の生成動作がレリーズ時まで繰り返されることとなる。
ステップS208で、制御部5は、撮像素子2を駆動させて本画像の撮像を行う。なお、このS208は、図2のS9に対応するので重複説明は省略する。
ステップS209で、判定処理部6は、バッファメモリ7に記録された基準画像(S206)とレリーズ時に撮像された本画像(S208)とを比較する。なお、このS209は、図2のS10に対応するので重複説明は省略する。
ステップS209で、判定処理部6は、バッファメモリ7に記録された基準画像(S206)とレリーズ時に撮像された本画像(S208)とを比較する。なお、このS209は、図2のS10に対応するので重複説明は省略する。
ステップS210で、判定処理部6は、基準画像と本画像との類似度(S209)が所定の閾値以上であるか否かを判定する。類似度が閾値以上である場合(Y)にはS213に移行する。一方、類似度が閾値未満である場合(N)には、S211へ移行する。
ステップS211で、制御部5は、モニタ11に警告を表示する。例えば、制御部5は、モニタ11に「撮影された画像は好ましい表情をしていない可能性があります。画像を記録しますか。」等のメッセージを表示させる。なお、警告の手段はメッセージ表示に限定されず、音声による警告や、LED等の点滅または点灯による警告等によってもかまわない。
ステップS211で、制御部5は、モニタ11に警告を表示する。例えば、制御部5は、モニタ11に「撮影された画像は好ましい表情をしていない可能性があります。画像を記録しますか。」等のメッセージを表示させる。なお、警告の手段はメッセージ表示に限定されず、音声による警告や、LED等の点滅または点灯による警告等によってもかまわない。
ステップS212で、制御部5は、本画像を記録するか否かの指示を操作部9を介してユーザーから受け付ける。そして、制御部5は、ユーザーから本画像を記録する指示があったか否かを判定する。本画像を記録する指示があった場合(Y)にはS213に移行する。一方、本画像を記録しない旨の指示があった場合(N)には、S201へ戻る。以上で、図4に示す撮像処理の説明を終了する。
上記第3実施形態では、本画像における顔の表情の判定に関し、第1実施形態の場合とほぼ同様の効果を得ることができる。特に第3実施形態によれば、例えば、レリーズ前は笑顔であったのに、レリーズ時に被写体が急に驚いた表情となって撮影された場合には警告を出すので、ユーザーにとって好ましい画像を記録するための対処(撮り直しなど)を促すことができる。
(第4実施形態)
図5は、第4実施形態の電子カメラでの撮像処理を示すフローチャートである。この第4実施形態は、第3実施形態の変形例であって、被写体が良好な表情をしているか否かを基準としてユーザーに警告を行う例を示す。なお、図5のS307〜S313は図4のS207〜S213にそれぞれ対応するので重複説明を省略する。
図5は、第4実施形態の電子カメラでの撮像処理を示すフローチャートである。この第4実施形態は、第3実施形態の変形例であって、被写体が良好な表情をしているか否かを基準としてユーザーに警告を行う例を示す。なお、図5のS307〜S313は図4のS207〜S213にそれぞれ対応するので重複説明を省略する。
ステップS301で、制御部5は、操作部9からの操作に応じて、表情の設定に関するメニュー画面を立ち上げる。そして、制御部5は、ユーザーから表情モード(判定しようとする表情の種類、換言すれば、撮影したい表情の種類)の選択入力を受け付けた後に、基準画像を生成するための予備撮像処理を開始する。
ステップS302で、制御部5は、撮像素子2を駆動させてスルー画像の撮像を行う。なお、このS302は、図2のS2に対応するので重複説明は省略する。
ステップS302で、制御部5は、撮像素子2を駆動させてスルー画像の撮像を行う。なお、このS302は、図2のS2に対応するので重複説明は省略する。
ステップS303で、顔検出部5aは、S302で生成したスルー画像から顔領域を検出する。
ステップS304で、制御部5は、S302の各スルー画像から顔領域が検出できたか否かを判定する。顔領域が検出できた場合(Y)にはS305に移行する。一方、顔領域が検出できない場合(N)にはS307に移行する。
ステップS304で、制御部5は、S302の各スルー画像から顔領域が検出できたか否かを判定する。顔領域が検出できた場合(Y)にはS305に移行する。一方、顔領域が検出できない場合(N)にはS307に移行する。
ステップS305で、表情検出部5eは、S303で検出した顔領域の表情の評価を実行する。具体的には、表情検出部5eは、S301で指定された表情モードに対応する表情データに基づいて、各スルー画像における被写体の表情と指定された表情との類似度を示す評価情報を生成する。そして、制御部5は、上記の評価情報を判定対象のスルー画像(S302)に対応付けしてバッファメモリ7に記録する。
ステップS306で、制御部5は、レリーズ前の予備撮像期間に撮像された複数枚(複数フレーム)のスルー画像(S302)に基づいて基準画像を生成する。一例として、制御部5は、前後して撮像された2フレーム分のスルー画像について、2つのスルー画像における評価情報(S305)を参照する。そして、制御部5は、上記の表情モードで指定された表情との類似度が高い方の画像を基準画像に設定する。その後、制御部5は、基準画像のスルー画像と、順次撮像される新たなスルー画像とで上記の評価情報の比較を繰り返し、より表情モードで指定された表情に類似するスルー画像を基準画像に設定(更新)する。なお、第4実施形態においても、制御部5は、前述の実施形態にて既述したようにスルー画像を統計的に処理することで基準画像を生成してもよい。以上で、図5に示す撮像処理の説明を終了する。
上記第4実施形態では、本画像における顔の表情の判定に関し、第1実施形態の場合とほぼ同様の効果を得ることができる。特に第4実施形態によれば、予備撮像期間において時々刻々変化する表情の中から、指定された表情に最も近い表情と考えられる基準画像を生成することができる。
(実施形態の補足)
(1)上記各実施形態の電子カメラで複数の人物が含まれるシーンを撮影する場合に、顔検出部5aが主要被写体を特定する手順について説明する。
(実施形態の補足)
(1)上記各実施形態の電子カメラで複数の人物が含まれるシーンを撮影する場合に、顔検出部5aが主要被写体を特定する手順について説明する。
具体的には、顔検出部5aは、自動的に複数の人物から主要被写体を特定するか、あるいは、ユーザーの指示に基づいて複数の人物から主要被写体を特定する。
自動的に電子カメラが主要被写体を特定する場合、顔検出部5aは、検出した複数の顔領域のうちで最も至近側に位置する顔を主要被写体として特定する。一般的に電子カメラに対して最も至近側にある人物は、撮像を行うユーザーにとって主要な被写体である可能性が高いからである。このとき、顔検出部5aは、顔の大きさに基づいて、顔のサイズが最も大きい人物を主要被写体としてもよく、あるいは、AF時に取得できる被写体距離の情報に基づいて、最も至近側の人物を決定してもよい。
自動的に電子カメラが主要被写体を特定する場合、顔検出部5aは、検出した複数の顔領域のうちで最も至近側に位置する顔を主要被写体として特定する。一般的に電子カメラに対して最も至近側にある人物は、撮像を行うユーザーにとって主要な被写体である可能性が高いからである。このとき、顔検出部5aは、顔の大きさに基づいて、顔のサイズが最も大きい人物を主要被写体としてもよく、あるいは、AF時に取得できる被写体距離の情報に基づいて、最も至近側の人物を決定してもよい。
例えば、第1実施形態において、前方に一人、後方に三人の人物が存在するシーンを撮影する場合を考える。この場合に制御部5は前方の人物を主要被写体として特定し、前方の人物の開眼状態に関する基準画像を生成する。すなわち、制御部5は、後方の三人が目を閉じた状態でも前方の一人が最も目が開いているスルー画像があれば、そのスルー画像に基づいて基準画像のデータを生成する。
なお、顔検出部5aは、AF時の焦点検出エリアの位置にいる人物を自動的に主要被写体として特定するようにしてもよい。
次に、ユーザーの指示(操作釦9bによる選択指示操作)に基づいて主要被写体を特定する場合、制御部5はメニュー画面で撮影画面における主要被写体の位置の手動入力(指定)を受け付ける。そして、制御部5は、ユーザーから指定された位置にいる人物を主要被写体として、基準画像のデータを生成する。このとき、制御部5は、ユーザーが指定した主要被写体の位置を焦点検出エリアとしてAFを実行するようにしてもよい。
次に、ユーザーの指示(操作釦9bによる選択指示操作)に基づいて主要被写体を特定する場合、制御部5はメニュー画面で撮影画面における主要被写体の位置の手動入力(指定)を受け付ける。そして、制御部5は、ユーザーから指定された位置にいる人物を主要被写体として、基準画像のデータを生成する。このとき、制御部5は、ユーザーが指定した主要被写体の位置を焦点検出エリアとしてAFを実行するようにしてもよい。
また、ユーザーの指示に基づいて主要被写体を特定する場合、制御部5は、ユーザーの入力に基づいて主要被写体の人数の上限を変更できるようにし、複数の人物を主要被写体として基準画像のデータを生成できるようにしてもよい。
(2)第1実施形態において、電子カメラに目を閉じた状態の基準画像を生成させるとともに、基準画像との類似度が高い場合に警告を実行させてもよい。つまり、撮影したくない表情(失敗写真と判定すべき表情)をあえて基準画像として作成しておくことで、その基準画像に類似した画像が本撮影時に得られた時には、失敗写真の警告を行うことが可能となる。また、第2実施形態において、電子カメラに顔の向きが正面向き以外である基準画像を生成させるとともに、本画像の被写体が任意の向きであるか否かを判定させるようにしてもよい。
(2)第1実施形態において、電子カメラに目を閉じた状態の基準画像を生成させるとともに、基準画像との類似度が高い場合に警告を実行させてもよい。つまり、撮影したくない表情(失敗写真と判定すべき表情)をあえて基準画像として作成しておくことで、その基準画像に類似した画像が本撮影時に得られた時には、失敗写真の警告を行うことが可能となる。また、第2実施形態において、電子カメラに顔の向きが正面向き以外である基準画像を生成させるとともに、本画像の被写体が任意の向きであるか否かを判定させるようにしてもよい。
また、上記各実施形態においてモニタ11を、複数の画像を分割表示、あるいはオーバーラップ表示可能なように構成しておき、上記実施形態で得られた基準画像を、撮影画像とともにモニタ11上に同時に表示させておくように構成してもよい。このような表示をすることで、撮影者が基準画像との比較を容易に確認できる。この際に、これから撮影される画像(ライヴビュー画像、スルー画像)とともに基準画像を表示させてもよいし、あるいは本撮影された撮影済み画像とともに基準画像を表示させるようにしてもよい。
また、基準画像は、撮影画像と同じ大きさで表示させてもよいし、サムネイル画像のように小さな画像に加工した上で表示させるようにしてもよい。
なお、図6は、基準画像S(サムネイル画像)を、本撮影された画像Aの一部に重ねて表示させた例を示すものである。図6では、基準画像Sが「喜び(笑顔)」の表情であるのに対し、本撮影された画像Aが、それとは異なった表情であるため、符号Bに示す警告表示を行っている例を示す。
なお、図6は、基準画像S(サムネイル画像)を、本撮影された画像Aの一部に重ねて表示させた例を示すものである。図6では、基準画像Sが「喜び(笑顔)」の表情であるのに対し、本撮影された画像Aが、それとは異なった表情であるため、符号Bに示す警告表示を行っている例を示す。
このように基準画像をモニタ11上に同時表示させておくことで、使用者は、何故警告表示Bがなされたのかを容易に理解することができる。
なお、本発明は、その精神またはその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。
なお、本発明は、その精神またはその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。
2:撮像素子、5:制御部、5a:顔検出部、5b:目検出部、5c:顔向き検出部、5d:目開閉検出部、5e:表情検出部、9:操作部
Claims (10)
- 被写体を撮像して画像のデータを生成する撮像素子と、
レリーズ前の予備撮影期間に撮像した複数のスルー画像のデータに基づいて、前記被写体の状態が所定の条件を満たす基準画像のデータを生成する制御部と、
を備えることを特徴とする撮像装置。 - 請求項1に記載の撮像装置において、
前記制御部は、前記複数のスルー画像間で順次比較して得られた結果に基づいて、前記複数のスルー画像のうちの1フレームを抽出して前記基準画像のデータを生成することを特徴とする撮像装置。 - 請求項1に記載の撮像装置において、
前記制御部は、前記複数のスルー画像のデータを統計的に処理して前記基準画像のデータを生成することを特徴とする撮像装置。 - 請求項1に記載の撮像装置において、
前記制御部は、人物の表情に関して予め記憶されている表情モデルの基準データに基づいて、前記スルー画像の中に被写体として存在する人物の表情に着目した基準画像のデータを生成することを特徴とする撮像装置。 - 請求項1〜4のうちの何れか一項に記載の撮像装置において、
前記被写体から人物の顔領域を検出する顔検出部をさらに備え、
前記制御部は、人物の顔領域の所定の状態に基づいて、前記基準画像のデータを生成することを特徴とする撮像装置。 - 請求項5に記載の撮像装置において、
前記制御部は、人物の開眼状態、顔の向き、表情の少なくとも一つに基づいて、前記基準画像のデータを生成することを特徴とする撮像装置。 - 請求項1〜6のうちの何れか一項に記載の撮像装置において、
前記基準画像のデータとレリーズ時の本画像のデータとを比較して、前記本画像における前記被写体の状態を判定する判定処理部をさらに備えることを特徴とする撮像装置。 - 請求項5に記載の撮像装置において、
前記顔検出部は、被写体に含まれる複数の人物から主要被写体を特定し、
前記制御部は、前記主要被写体の顔の状態に基づいて、前記基準画像のデータを生成することを特徴とする撮像装置。 - 請求項8に記載の撮像装置において、
前記主要被写体の特定に関する入力をユーザーから受け付ける操作部をさらに備え、
前記制御部は、前記入力に応じて、前記基準画像のデータを生成することを特徴とする撮像装置。 - 請求項1〜9のうちの何れか一項に記載の撮像装置において、
前記生成された基準画像のデータに基づいて、前記基準画像を表示する表示部を有することを特徴とする撮像装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006352794A JP2008167028A (ja) | 2006-12-27 | 2006-12-27 | 撮像装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006352794A JP2008167028A (ja) | 2006-12-27 | 2006-12-27 | 撮像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008167028A true JP2008167028A (ja) | 2008-07-17 |
Family
ID=39695891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006352794A Withdrawn JP2008167028A (ja) | 2006-12-27 | 2006-12-27 | 撮像装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008167028A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011071634A (ja) * | 2009-09-24 | 2011-04-07 | Canon Inc | 撮像装置及び撮像方法 |
JP2015076767A (ja) * | 2013-10-09 | 2015-04-20 | 株式会社ニコン | 撮像装置 |
JP2020047253A (ja) * | 2018-09-14 | 2020-03-26 | 虹▲軟▼科技股▲ふん▼有限公司 | 深層学習モデルを利用して、眼球状態を検出する眼球状態検出システム及びその眼球状態検出システムを動作させる方法 |
-
2006
- 2006-12-27 JP JP2006352794A patent/JP2008167028A/ja not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011071634A (ja) * | 2009-09-24 | 2011-04-07 | Canon Inc | 撮像装置及び撮像方法 |
JP2015076767A (ja) * | 2013-10-09 | 2015-04-20 | 株式会社ニコン | 撮像装置 |
JP2020047253A (ja) * | 2018-09-14 | 2020-03-26 | 虹▲軟▼科技股▲ふん▼有限公司 | 深層学習モデルを利用して、眼球状態を検出する眼球状態検出システム及びその眼球状態検出システムを動作させる方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4898532B2 (ja) | 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体 | |
JP4197019B2 (ja) | 撮像装置および表情評価装置 | |
JP5239126B2 (ja) | 電子カメラ | |
JP4254873B2 (ja) | 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム | |
KR101795601B1 (ko) | 영상 처리 장치, 영상 처리 방법, 및 컴퓨터 판독가능 저장매체 | |
JP4078334B2 (ja) | 画像処理装置および画像処理方法 | |
JP6049448B2 (ja) | 被写体領域追跡装置、その制御方法及びプログラム | |
JP2004320287A (ja) | デジタルカメラ | |
JP2004317699A (ja) | デジタルカメラ | |
JP4315234B2 (ja) | 撮像装置および表情評価装置 | |
JP2004320286A (ja) | デジタルカメラ | |
JP2008131204A (ja) | 撮像装置及びその制御方法及びプログラム及び記憶媒体 | |
JP2009212637A (ja) | 撮像装置 | |
KR20090098505A (ko) | 상태 정보를 이용하여 미디어 신호를 생성하는 방법 및장치 | |
JP2008054295A (ja) | 撮影装置および方法並びにプログラム | |
US20100033591A1 (en) | Image capturing apparatus and control method therefor | |
JP5042896B2 (ja) | 画像処理装置および画像処理プログラム | |
JP2004320285A (ja) | デジタルカメラ | |
JP2011155605A (ja) | 画像処理装置、撮像装置、および画像処理プログラム | |
JP2010273280A (ja) | 撮像装置 | |
JP2011135527A (ja) | デジタルカメラ | |
JP2007049631A (ja) | 撮像装置 | |
JP5272775B2 (ja) | 電子スチルカメラ | |
JP6087615B2 (ja) | 画像処理装置およびその制御方法、撮像装置、および表示装置 | |
JP2008167028A (ja) | 撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100302 |