JP2012015727A - 電子カメラ - Google Patents

電子カメラ Download PDF

Info

Publication number
JP2012015727A
JP2012015727A JP2010149343A JP2010149343A JP2012015727A JP 2012015727 A JP2012015727 A JP 2012015727A JP 2010149343 A JP2010149343 A JP 2010149343A JP 2010149343 A JP2010149343 A JP 2010149343A JP 2012015727 A JP2012015727 A JP 2012015727A
Authority
JP
Japan
Prior art keywords
face
region
unit
image
electronic camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010149343A
Other languages
English (en)
Inventor
Kyoei Senda
享永 千田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010149343A priority Critical patent/JP2012015727A/ja
Publication of JP2012015727A publication Critical patent/JP2012015727A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 本発明は、瞼の開閉状態の判定精度を向上させる電子カメラを提供する。
【解決手段】 電子カメラは、撮像部と、顔検出部と、第1判定部と、修正部と、第2判定部とを備える。撮像部は、被写体像を撮像し、画像を生成する。顔検出部は、画像の中から顔を検出し、その顔を含む第1領域を画像内に設定する。第1判定部は、第1領域の内から顔の領域と顔以外の領域とを抽出し、第1領域に対する顔の領域の位置ずれの有無を判定する。修正部は、位置ずれが生じている場合に、第1領域の位置を変更して位置ずれを修正する。推定部は、修正部により位置ずれが修正された後、第1領域の内から、眼の位置を囲む第2領域の位置を推定する。第2判定部は、推定部の推定結果に基づいて、第2領域における瞼の開閉状態を判定する。
【選択図】 図1

Description

本発明は、顔検出機能を有する電子カメラに関する。
従来から、人物の顔を撮影した後に瞼の開閉状態を判定し、瞼が閉じた状態の場合には再度撮影をし直す撮影装置が提案されている(例えば、特許文献1参照)。上記の撮影装置では、顔検出手段で顔を検出した後、瞼の開閉状態を判定する。
特開2006−344166号公報
しかし、上記の撮影装置では、顔検出手段で顔を検出した場合、例えば、顔検出用の顔枠に対して顔の領域の位置がずれていると、瞼の位置もずれる。そのため、上記の撮影装置では、瞼の開閉状態に関し誤判定するおそれが生じる。
そこで、本発明は、上記事情に鑑み、瞼の開閉状態の判定精度を向上させる電子カメラを提供することを目的とする。
第1の発明に係る電子カメラは、撮像部と、顔検出部と、第1判定部と、修正部と、第2判定部とを備える。撮像部は、被写体像を撮像し、画像を生成する。顔検出部は、画像の中から顔を検出し、その顔を含む第1領域を画像内に設定する。第1判定部は、第1領域の内から顔の領域と顔以外の領域とを抽出し、第1領域に対する顔の領域の位置ずれの有無を判定する。修正部は、位置ずれが生じている場合に、第1領域の位置を変更して位置ずれを修正する。推定部は、修正部により位置ずれが修正された後、第1領域の内から、眼の位置を囲む第2領域の位置を推定する。第2判定部は、推定部の推定結果に基づいて、第2領域における瞼の開閉状態を判定する。
第2の発明は、第1の発明において、第1判定部は、瞼が閉じている判定結果の場合、位置ずれを再度判定する。推定部は、第1判定部の判定結果に基づいて位置ずれが修正された場合、第2領域の位置の推定を再度行う。第2判定部は、推定部の再度の推定結果に基づいて開閉状態を判定する。
第3の発明は、第1又は第2の発明において、顔検出部は、画像の内から顔の輪郭を検出する。修正部は、顔の輪郭を左右に分ける中心線と第1領域を左右に分ける中心線とのずれを修正する。
第4の発明は、第1から第3の何れか1の発明において、顔検出部は、画像の内から顔の輪郭を検出する。修正部は、顔の輪郭を上下に分ける中心線と第1領域を上下に分ける中心線とのずれを修正する。
第5の発明は、第1から第4の何れか1の発明において、顔検出部は、画像上での顔の回転角を検出し、回転角に応じて第1領域を傾ける。
本発明の電子カメラは、瞼の開閉状態の判定精度を向上させることができる。
電子カメラ1の構成の一例を示すブロック図 瞼の開閉状態検出モードにおける電子カメラ1の動作の一例を示すフローチャート 瞼の開閉状態を判定する処理の一例を説明する図 瞼の開閉状態を判定する処理の一例を説明する図 警告表示の一例を説明する図 顔の領域の位置ずれを修正するサブルーチンの一例を示すフローチャート 顔の領域の位置ずれの有無の判定及びその位置ずれを修正する処理の一例を説明する図 顔の領域の位置ずれの有無の判定及びその位置ずれを修正する処理の一例を説明する図 顔枠Wを大きくする場合の処理の一例を説明する図 顔が傾いている場合の処理の一例を説明する図
以下、図面に基づいて本発明の実施の形態を詳細に説明する。なお、本実施形態で説明する「瞼の開閉状態の検出モード」は、被写体である人物の瞼が閉じた状態で静止画撮影が行われたと判定した場合、その静止画撮影後に警告メッセージでユーザに報知するモードである(詳細は後述する)。また、本実施形態では、電子カメラ1に対して人物の顔が真正面に向いていることを前提とする。
図1は、電子カメラ1の構成の一例を示すブロック図である。図1に示す通り電子カメラ1は、撮影レンズ10と、撮像部11と、画像処理部12と、RAM(Random Access Memory)13と、ROM(Read Only Memory)14と、表示制御部15と、表示モニタ16と、記録インターフェース部(以下、「記録I/F部」という。)17と、レリーズ釦18と、操作部19と、CPU(Central Processing Unit)20と、データバス21とを備える。
このうち、撮像部11、画像処理部12、RAM13、ROM14、表示制御部15、記録I/F部17及びCPU20は、データバス21を介して互いに接続されている。また、レリーズ釦18と操作部19とは、CPU20に接続されている。
撮影レンズ10は、ズームレンズと、フォーカスレンズとを含む複数のレンズ群で構成されている。なお、簡単のため、図1では、撮影レンズ10を1枚のレンズとして図示する。
撮像部11は、レンズ駆動機構、絞り、シャッター機構、撮像素子、AFE(アナログフロントエンド)等からなる。この撮像部11は、撮影レンズ10が結像した被写体像の画像を生成する。なお、撮像素子は、CCD(Charge Coupled Device)型又はCMOS(Complementary Metal−Oxide Semiconductor)型のイメージセンサである。また、撮像素子の撮像面には、被写体像をカラー検出するために、赤色(R)、緑色(G)、青色(B)の3種類のカラーフィルタが、一例としてベイヤー配列で配置されている。
撮像部11が出力する画像は、色情報を含む複数の画素データから構成される画像データとしてRAM13に一時的に記録される。ROM14は、電子カメラ1の制御を行うプログラム等を予め記憶している不揮発性のメモリである。CPU20は、このプログラムに従い、一例として後述の図2に示すフローの処理を実行する。
画像処理部12は、RAM13に記録されている画像データを読み出し、各種の画像処理(階調変換処理、輪郭強調処理、ホワイトバランス処理等)を施す。また、画像処理部12は、RGBの画像信号を輝度信号と色度信号とに変換して顔検出処理用の画像データを生成する。
表示制御部15は、静止画像、構図確認用のスルー画像、電子カメラ1の操作メニュー等を表示モニタ16に表示する。表示モニタ16には、液晶モニタ等を適宜選択することができる。
記録I/F部17には、着脱自在の記録媒体30を接続するためのコネクタが形成されている。そして、記録I/F部17は、そのコネクタに接続された記録媒体30にアクセスして静止画像の記録処理等を行う。この記録媒体30は、例えば、不揮発性のメモリカードである。図1では、コネクタに接続された後の記録媒体30を示している。
レリーズ釦18は、半押し操作(撮影前におけるオートフォーカス(AF)や自動露出(AE)等の動作開始の指示入力)と全押し操作(撮像動作開始)との指示入力とを受け付ける。
操作部19は、例えば、コマンド選択用のコマンドダイヤル、電源ボタン等を有している。そして、操作部19は、電子カメラ1を操作するための指示入力を受け付ける。
CPU20は、電子カメラ1の統括的な制御を行うマイクロプロセッサである。CPU20は、上記のプログラムを実行することにより、電子カメラ1の各部の制御等を行う。CPU20は、顔検出部20a、第1判定部20b、修正部20c、推定部20d、第2判定部20e及び報知部20fとしても機能する。
顔検出部20aは、例えば、撮影された静止画像の中から顔の領域を検出し、その顔を含む領域を第1領域に設定する。具体的には、顔検出部20aは、一例として特開平8−63597号公報に記載された顔検出処理によって、肌色領域を顔の領域として抽出する。そして、顔検出部20aは、顔の肌色領域を含む矩形領域を第1領域(顔枠)に設定する。CPU20は、第1領域の位置座標、サイズ(範囲)等をRAM13に記録する。
なお、顔検出部20aは、上記の顔検出処理によって、顔の輪郭をさらに抽出しても良い。また、顔検出部20aは、上記の特開平8−63597号公報に記載された顔認識処理によって、画像から眼、鼻、口等の顔の器官を抽出しても良い。この場合、推定部20dは、顔検出部20aが第1領域を設定しなくとも、顔認識処理により眼の器官が抽出されることで眼の位置を囲む第2領域を推定することができる。ただし、顔検出部20aによる顔認識処理は、各器官の特徴量を抽出するため、その分、余計に時間がかかる。そこで、本実施形態では、各器官の特徴量を抽出するまでもなく、第1領域に基づいて第2領域を推定する方法を採用する。
第1判定部20bは、第1領域の内から顔の領域と顔以外の領域とを抽出し、第1領域に対する顔の領域の位置ずれの有無を判定する(詳細は後述する)。修正部20cは、位置ずれが生じている場合、第1領域の位置を変更して位置ずれを修正する。
推定部20dは、修正部20cにより位置ずれが修正された後、第1領域の内から、眼の位置を囲む第2領域の位置を推定する。具体的には、ROM14には、予め第1領域のサイズに応じて、人物の眼の平均的な位置示す領域を対応付けた第2領域推定用のデータが登録されている。推定部20dは、この第2領域推定用のデータを参照して、第1領域の内から、眼の位置を囲む第2領域の位置を推定する。そして、推定部20dは、眼の位置を囲む枠を生成する。この枠内が第2領域に相当する。なお、推定部20dは、修正部20cの処理が行われる前に第2領域の位置を先に推定しても良い。
第2判定部20eは、推定部20dの推定結果に基づいて、第2領域における瞼の開閉状態を判定する。具体的には、第2判定部20eは、推定部20dが推定した第2領域における色分布情報に基づいて、瞼の開閉状態を判定する。
報知部20fは、例えば、瞼が閉じた状態であることを示すメッセージを表示モニタ16に表示させ、ユーザに対して警告をする。
次に、電子カメラ1の動作の一例を説明する。図2は、瞼の開閉状態の検出モードにおける電子カメラ1の動作の一例を示すフローチャートである。ここで、静止画像の撮影によりRAM13に画像データが一旦記録された後、CPU20は、図2に示すフローの処理を開始させる。
ステップS101:CPU20の顔検出部20aは、RAM13に記録された画像データに基づいて顔検出処理を行う。
ステップS102:顔検出部20aが顔を検出した場合(ステップS102:Yes)、CPU20は、第1領域の位置座標、サイズ(範囲)等をRAM13に記録する。一方、顔検出部20aが顔を検出しなかった場合(ステップS102:No)、CPU20は、図2に示すフローの処理を終了させる。
ステップS103:CPU20は、顔の領域の位置ずれを修正するサブルーチン(ステップS104)を先に実行するか否かを判定する。本実施形態では、図6に示すサブルーチンを先に実行した後に瞼の開閉状態を判定しても良い。或いは、本実施形態では、瞼の開閉状態を先に判定し、瞼が閉じている判定結果の場合、図6に示すサブルーチンを実行するようにしても良い。
ステップS104:CPU20は、図6に示すサブルーチンの処理を開始する。なお、説明の便宜上、瞼の開閉状態の検出モードにおけるディフォルトの設定では、図6に示すサブルーチンを行う前に瞼の開閉状態を先に判定することとする。そのため、CPU20は、ステップS105の処理に移行する。
ステップS105:CPU20の推定部20dは、第1領域に基づいて、第1領域内から眼の位置を囲む第2領域を推定する。具体的には、推定部20dは、ROM14の第2領域推定用のデータを参照して、第1領域のサイズに応じて眼の位置を囲む第2領域を顔枠W内に生成する。
ステップS106:CPU20の第2判定部20eは、輝度信号や色度信号に基づいて第2領域の画像を解析し、瞼の開閉状態を判定する。この場合、第2判定部20eは、肌色成分、黒色成分、白色成分等の色の分布状態に基づいて瞼の開閉状態を判定する。具体例を図3、図4を用いて説明する。
図3、図4は、瞼の開閉状態を判定する処理の一例を説明する図である。一例として、図3(a)に示す通り、顔検出部20aは、ステップS101の顔検出処理により、人物Pの顔を検出する。ここで、顔枠W内の領域が第1領域に相当し、第1領域内に第2領域が含まれる。また、顔枠Wが第1領域の輪郭部分に相当する。例えば、推定部20dは、顔枠Wのサイズに応じて、顔枠W内の第2領域(矩形領域)A1、A2内に人物Pの眼があると推定する。なお、第2領域A1、A2は、一例であって、第2領域が1つの矩形領域であっても良く、或いは、片眼のみを囲む領域であっても良い。
ここで、顔検出処理が顔の領域(例えば肌色領域)の検出のみを主目的としている場合、顔枠Wの位置から推定される眼の領域は、実際の人物の眼の位置と必ずしも合っているとは限らない。これは、被写体の顔のサイズが個体差によって異なる場合等に起こり得る。図3(a)〜(d)は、人物Pが瞼を開けている場合の顔検出処理を例示しているが、図3(b)〜(d)は、顔枠Wに対して顔の領域の位置ずれが生じている。また、図4(a)〜(d)は、人物Pが瞼を閉じている場合の顔検出処理を例示しているが、図4(b)〜(d)は、顔枠Wに対し顔の領域の位置ずれが生じている。特に、図3(c)や図4(b)の場合、顔枠W内の第2領域A1、A2内に人物Pの眼がないにも拘わらず、瞼の開閉状態を判定してしまうという問題が生じる。本実施形態では、このような問題を解決する手段を提供する。
一例として、第2判定部20eは、以下に説明する処理で瞼の開閉状態を判定する。第2判定部20eは、例えば図4(a)に示す通り、第2領域において白色成分がなければ、瞼は閉じていると判定する。或いは、第2判定部20eは、テンプレートマッチングにより瞼の開閉状態を判定する。この場合、本実施形態では、テンプレートとして、黒眼に相当する黒色成分と白眼に相当する白色成分からなる眼の形状を有するテンプレートを採用する。第2判定部20eは、第2領域において、テンプレートマッチングに基づいて、眼の形状のパターンを特定できた場合(図3(a)等)、瞼が開いていると判定する。また、テンプレートマッチングに基づいて、眼の形状のパターンを特定できなかった場合(図4(a)等)、第2判定部20eは、瞼が閉じていると判定する。
ステップS107:第2判定部20eは、瞼が開いていると判定した場合(ステップS107:Yes)、CPU20は、このフローの処理を終了させる。一方、第2判定部20eは、瞼が閉じていると判定した場合(ステップS107:No)、CPU20は、ステップS108の処理に移行する。
ステップS108:CPU20は、第2判定部20eによる瞼の開閉状態の判定回数が予め設定された回数(リトライ回数:例えば2回)に達したか否かを判定する。この判定回数の情報は、RAM13に記録されている。CPU20は、このフローを開始すると判定回数を初期化してゼロの値にする。CPU20は、判定回数がリトライ回数に達したと判定した場合(ステップS108:Yes)、ステップS109の処理に移行する。一方、CPU20は、判定回数がリトライ回数に達していないと判定した場合(ステップS107:No)、ステップS104に戻り、修正処理のサブルーチンを実行させる。このサブルーチンが終了すると、CPU20は、判定回数をインクリメントし、判定回数を上書きする。そして、CPU20は、再度、ステップS105からステップS108までの処理を繰り返す。
ステップS109:報知部20fは、ステップS104の修正処理がリトライ回数に達しても瞼が閉じている判定結果の場合、ユーザに対して警告する。具体的には、報知部20fは、表示制御部15に警告表示を行うための指示信号を送信する。表示制御部15は、指示信号に基づいて、瞼が閉じた状態であることを示すメッセージ等を表示モニタ16に表示させる。図5は、警告表示の一例を説明する図である。このような表示をすることにより、撮影した静止画像において、瞼が閉じていることをユーザに報知する。これにより、ユーザは、再度、静止画撮影を行った方が良いと判断することができる。
次に、顔の領域の位置ずれを修正するサブルーチンについて説明する。図6は、顔の領域の位置ずれを修正するサブルーチンの一例を示すフローチャートである。本実施形態では、このフローチャートのプログラムもROM14に予め格納されている。
ステップS201:第1判定部20bは、顔の領域の位置ずれの有無を判定する。図7、図8は、顔の領域の位置ずれの有無の判定及びその位置ずれを修正する処理の一例を説明する図である。例えば、第1判定部20bは、図7(a)に示す顔枠WのY方向に対して左右に分ける中心線(L1)を顔枠Wの位置座標に基づいて求める。そして、第1判定部20bは、顔枠W内から顔(肌色)の領域と背景の領域とを抽出し、中心線(L1)を境にして顔枠W内における背景の領域の面積を算出する。ここで、第1判定部20bは、中心線(L1)を境にして顔枠W内における背景の領域の面積が左右で異なる場合、顔枠Wに対する顔の領域の位置ずれが生じていると判定する。つまり、第1判定部20bは、例えば、中心線(L1)を境にして顔枠W内における背景の領域の面積比に基づいて、顔の領域の位置ずれを判定する。
或いは、第1判定部20bは、顔枠WのY方向の中心線(L1)と、顔を左右に分ける中心線(L2)との一致度を求めることにより、顔の領域の位置ずれの有無を判定しても良い。この場合、第1判定部20bは、顔検出部20aが検出した顔の輪郭を楕円形とみなして、その楕円形の長軸を中心線(L2)とする。図7(a)では、第1判定部20bが、顔枠W内における水平方向(図中、X方向)に対し、顔の領域の位置ずれを判定する場合について例示している。すなわち、第1判定部20bは、顔枠WのY方向の中心線(L1)と、顔の上下方向(Y方向)の中心線(L2)との一致度を求める。ここで、一致度は、顔枠WのY方向の中心線(L1)と顔の上下方向(Y方向)の中心線(L2)との距離間隔を表している。つまり、距離間隔がゼロの場合、顔枠WのY方向の中心線(L1)と顔の上下方向(Y方向)の中心線(L2)とは重なり、一致度が最大となる(図7(b)参照)。一方、顔枠WのY方向の中心線(L1)と顔の上下方向(Y方向)の中心線(L2)との距離が離れるに従って一致度は小さくなり、一致度が低下するほど顔の領域の位置ずれが大きくなる。
従って、第1判定部20bは、一致度を求めることで顔の領域の位置ずれを判定できる。本実施形態では、位置ずれの判定にはある程度の幅を持たせても良い。この場合、第1判定部20bは、一致度を示す距離間隔が予め設定した値以下の場合、位置ずれが起きていないと判定し、一致度を示す距離間隔が予め設定した値よりも大きい場合、位置ずれが起きていると判定する。
なお、第1判定部20bは、顔枠WのY方向の中心線(L1)と、顔の上下方向(Y方向)の中心線(L2)とについては、RAM13に記録されている画像データの位置座標に基づいて求める。
図8(a)では、第1判定部20bが、顔枠W内における垂直方向(図中、Y方向)に対し、顔の領域の位置ずれを判定する場合について例示している。すなわち、第1判定部20bは、顔枠Wを上下に分ける中心線(L3)と、顔を上下に分ける中心線(L4)との一致度を求める。ここでは、簡単のため、人物の平均的な眼の位置のデータに基づいて、中心線(L4)が眼の領域を横切っていると仮定する。
この場合、第1判定部20bは、顔検出部20aが検出した顔の輪郭を楕円形とみなして、その楕円形の短軸を中心線(L4)とする。ここで、図8(a)における一致度は、顔枠Wを上下に分ける中心線(L3)と顔を上下に分ける中心線(L4)との距離間隔を表している。第1判定部20bは、中心線(L3)と中心線(L4)とについては、RAM13に記録されている画像データの位置座標に基づいて求める。
ステップS202:第1判定部20bは、一致度を示す距離間隔が予め設定した値よりも大きい場合、位置ずれが起きている判定をし(ステップS202:Yes)、CPU20は、ステップS203の処理に移行する。一方、第2判定部20eは、一致度を示す距離間隔が予め設定した値以下の場合、位置ずれが起きていないと判定し(ステップS202:No)、CPU20は、図2に示すフローチャートのステップS105の処理に戻る。
ステップS203:CPU20の修正部20cは、顔枠Wの位置を変更することにより、顔の領域の位置ずれを修正する。例えば、修正部20cは、図7(b)に示す通り、顔枠WのY方向の中心線(L1)と、顔の上下方向(Y方向)の中心線(L2)とが一致するように顔枠Wの位置を変更する。或いは、修正部20cは、図8(b)に示す通り、顔枠WのX方向の中心線(L3)と、顔の左右方向(X方向)の中心線(L4)とが一致するように顔枠Wの位置を変更する。或いは、修正部20cは、図7(b)と図8(b)との処理を組み合わせるようにしても良い。
なお、ここでは、説明をわかりやすくするため模式的な図を用いて説明したが、修正部20cは、RAM13に記録されている静止画撮影された画像データに対して顔の領域の位置ずれを修正する処理を行っている。ただし、CPU20は、表示制御部15を介して、表示モニタ16に例えばステップS203の処理(図7、図8等)を表示させるようにしても良い。この場合、CPU20は、ステップ203の処理が終了すると、図2に示すフローチャートに戻り、再度ステップS105からの処理を行わせる。
以上より、本実施形態の電子カメラ1では、顔の領域の位置ずれが生じていた場合であっても、その位置ずれを修正して瞼の開閉状態を判定するため、瞼の開閉状態の判定精度を向上させることができる。
<実施形態の補足事項>
(1)上記実施形態では、顔検出部20aが検出した顔の領域に応じて顔枠Wを設定したが、顔枠Wをディフォルト値で設定しても良い。この場合、顔枠Wが顔よりも小さい場合には、CPU20は、画像に対する顔枠Wのサイズを大きくする。
図9は、顔枠Wを大きくする場合の処理の一例を説明する図である。図9(a)は、顔枠Wが顔よりも小さい場合を例示している。この場合、CPU20は、図9(b)に示す通り、顔枠Wを大きくすると共に第2領域A1、A2も大きくする。一方、顔枠Wが顔よりも大きい場合には、CPU20は、画像に対する顔枠Wのサイズを小さくする。この場合、CPU20は、顔枠Wを小さくすると共に第2領域A1、A2も小さくする。
なお、顔枠Wが実際の顔より大きく設定されているか否かの判定について、CPU20は、顔枠Wの周辺側の領域に肌色成分以外の色情報が多く含まれているか否かで判定しても良い。或いは、CPU20は、顔枠W内の肌色成分の占める割合に基づいて判定しても良い。
(2)上記実施形態では、第1判定部20bは、顔の傾きを考慮せずに位置ずれの有無を判定した。ここで、本実施形態では、顔の傾きを考慮して位置ずれの有無を判定しても良い。図10は、顔が傾いている場合の処理の一例を説明する図である。図10(a)に示す通り、顔が傾いている場合、第2判定部20eは、瞼が閉じていると誤判定するおそれが生じる。そこで、顔検出部20aは、画像の画面内の垂直方向(図10中、Y軸方向)に対する回転角を検出し、回転角に応じて顔枠Wを傾けて画像内に設定しても良い。
具体的には、第1判定部20bは、図10(b)に示す通り、顔検出部20aが検出した顔の輪郭を楕円形とみなして、その楕円形の長軸を中心線(L5)として求める。顔検出部20aは、画像内のXY座標において、Y軸方向の垂線(L6)と中心線(L5)とがなす角度θを算出する。顔検出部20aは、角度θが0度であれば、顔の傾きは生じていないと判定する。一方、顔検出部20aは、角度θが例えば時計回りに45度であれば、顔が傾いていると判定する。そして、顔検出部20aは、顔枠Wを時計回りに45度傾けて画像内に設定する(図10(b)参照)。これにより、本実施形態の電子カメラ1では、顔が傾いている場合であっても、瞼の開閉状態の判定精度を向上させることができる。
(3)上記実施形態では、逆光下での撮影をする場合、背景に対して顔が暗くなるため、CPU20は、背景と顔との境界の輝度差で顔枠W内における顔の領域の位置を求めて、顔の領域の位置ずれを修正しても良い。
(4)上記実施形態では、1人の人物に対して眼の開閉状態を判定したが、複数の人物が写っている場合、人物毎に眼の開閉状態を判定しても良い。
(5)上記実施形態では、眼が完全に閉じている状態を閉状態として判定したが、これは一例であって、例えば、瞼が半分閉じている状態を閉状態として判定しても良い。
11・・・撮像部、20a・・・顔検出部、20b・・・第1判定部、20c・・・修正部、20d・・・推定部、20e・・・第2判定部、20f・・・報知部

Claims (5)

  1. 被写体像を撮像し、画像を生成する撮像部と、
    前記画像の中から顔を検出し、該顔を含む第1領域を前記画像内に設定する顔検出部と、
    前記第1領域の内から前記顔の領域と前記顔以外の領域とを抽出し、前記第1領域に対する前記顔の領域の位置ずれの有無を判定する第1判定部と、
    前記位置ずれが生じている場合に、前記第1領域の位置を変更して前記位置ずれを修正する修正部と、
    前記修正部により前記位置ずれが修正された後、前記第1領域の内から、眼の位置を囲む第2領域の位置を推定する推定部と、
    前記推定部の推定結果に基づいて、前記第2領域における瞼の開閉状態を判定する第2判定部と、
    を備えることを特徴とする電子カメラ。
  2. 請求項1に記載の電子カメラにおいて、
    前記第1判定部は、前記瞼が閉じている判定結果の場合、前記位置ずれを再度判定し、
    前記推定部は、前記第1判定部の判定結果に基づいて前記位置ずれが修正された場合、前記第2領域の位置の推定を再度行い、
    前記第2判定部は、前記推定部の再度の推定結果に基づいて前記開閉状態を判定することを特徴とする電子カメラ。
  3. 請求項1又は請求項2に記載の電子カメラにおいて、
    前記顔検出部は、前記画像の内から前記顔の輪郭を検出し、
    前記修正部は、前記顔の輪郭を左右に分ける中心線と前記第1領域を左右に分ける中心線とのずれを修正することを特徴とする電子カメラ。
  4. 請求項1から請求項3の何れか1項に記載の電子カメラにおいて、
    前記顔検出部は、前記画像の内から前記顔の輪郭を検出し、
    前記修正部は、前記顔の輪郭を上下に分ける中心線と前記第1領域を上下に分ける中心線とのずれを修正することを特徴とする電子カメラ。
  5. 請求項1から請求項4の何れか1項に記載の電子カメラにおいて、
    前記顔検出部は、前記画像上での前記顔の回転角を検出し、前記回転角に応じて前記第1領域を傾けることを特徴とする電子カメラ。
JP2010149343A 2010-06-30 2010-06-30 電子カメラ Withdrawn JP2012015727A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010149343A JP2012015727A (ja) 2010-06-30 2010-06-30 電子カメラ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010149343A JP2012015727A (ja) 2010-06-30 2010-06-30 電子カメラ

Publications (1)

Publication Number Publication Date
JP2012015727A true JP2012015727A (ja) 2012-01-19

Family

ID=45601654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010149343A Withdrawn JP2012015727A (ja) 2010-06-30 2010-06-30 電子カメラ

Country Status (1)

Country Link
JP (1) JP2012015727A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196517A (ja) * 2012-03-21 2013-09-30 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム
CN110378182A (zh) * 2018-04-12 2019-10-25 欧姆龙株式会社 图像解析装置、图像解析方法及记录介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196517A (ja) * 2012-03-21 2013-09-30 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム
CN110378182A (zh) * 2018-04-12 2019-10-25 欧姆龙株式会社 图像解析装置、图像解析方法及记录介质
CN110378182B (zh) * 2018-04-12 2023-09-22 欧姆龙株式会社 图像解析装置、图像解析方法及记录介质

Similar Documents

Publication Publication Date Title
US7952618B2 (en) Apparatus for controlling display of detection of target image, and method of controlling same
TWI411970B (zh) 攝像裝置、臉部檢測方法及記錄媒體
US10136067B2 (en) Observation apparatus providing an enlarged display for facilitating changing an image-pickup condition
JP3820497B2 (ja) 撮像装置及び自動露出制御の補正処理方法
JP5736796B2 (ja) 電子カメラ、プログラム及び記録媒体
JP2005130468A (ja) 撮像装置及びその制御方法
TW201030632A (en) Image processing apparatus, image processing method, and storage medium for storing program
JP2003241067A (ja) 撮像装置
US20170024604A1 (en) Imaging apparatus and method of operating the same
JP2011160413A (ja) 撮像装置
JP2008096582A (ja) カメラ
EP2715428A1 (en) Imaging device
JP4866317B2 (ja) 撮像装置及び撮像装置の制御方法
JP2010072619A (ja) 露出演算装置およびカメラ
US20080239086A1 (en) Digital camera, digital camera control process, and storage medium storing control program
JP2008292622A (ja) 焦点状態表示装置および焦点状態表示方法
US20110090375A1 (en) Photometric device, imaging device, and camera
US8773568B2 (en) Imaging apparatus and method for improving manipulation of view finders
JP2012015727A (ja) 電子カメラ
JP2012227653A (ja) 撮像装置及び撮像方法
JP2011259053A (ja) 画像処理装置および画像処理方法
JP2008172732A (ja) 撮像装置及びその制御方法、プログラム、
JP2013058165A (ja) 画像処理装置及びカメラ
US20230162707A1 (en) Imaging apparatus, method of controlling imaging apparatus, and program
US10567662B2 (en) Imaging device and control method therefor using shift direction calculation

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130903