JP2008270896A - 撮像装置及びそのプログラム - Google Patents

撮像装置及びそのプログラム Download PDF

Info

Publication number
JP2008270896A
JP2008270896A JP2007107278A JP2007107278A JP2008270896A JP 2008270896 A JP2008270896 A JP 2008270896A JP 2007107278 A JP2007107278 A JP 2007107278A JP 2007107278 A JP2007107278 A JP 2007107278A JP 2008270896 A JP2008270896 A JP 2008270896A
Authority
JP
Japan
Prior art keywords
face
shooting
personal recognition
recognized
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007107278A
Other languages
English (en)
Other versions
JP4900014B2 (ja
JP2008270896A5 (ja
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007107278A priority Critical patent/JP4900014B2/ja
Publication of JP2008270896A publication Critical patent/JP2008270896A/ja
Publication of JP2008270896A5 publication Critical patent/JP2008270896A5/ja
Application granted granted Critical
Publication of JP4900014B2 publication Critical patent/JP4900014B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)

Abstract

【課題】 顔を認識する処理に係る負担を軽減させることができる撮像装置及びそのプログラムを実現する。
【解決手段】 単に画像データ内に人の顔があるか否かを検出する顔検出手段101と、該検出された顔が誰の顔であるかを具体的に個人認識する個人認識手段102と、撮影の条件に応じて顔検出手段101と個人認識手段102を制御する制御手段103を備えるようにし、制御手段103は、撮影の処理状況に応じて、顔検出手段101による顔検出処理のみを実行させたり、顔検出手段101による顔検出処理と個人認識手段102による個人認識処理との両方の処理を実行させたりする。
【選択図】 図1

Description

本発明は、撮像装置及びそのプログラムに係り、詳しくは、顔を認識する機能有した撮像装置及びそのプログラムに関する。
近年、電子カメラ等の撮像装置においては、複数の顔を認識するという技術が登場し、該認識した顔と予め登録していた顔とが一致する場合は、該一致した顔に基づいてAF処理やAE処理等を行うというものがある(特許文献1)。
公開特許公報 特開2004−317699
しかしながら、顔を認識する処理は処理負担が大きく、上記技術のようにどのような撮影の処理状況においても顔を認識する場合は、顔を認識する処理によって、逆に撮像等の他の処理をスムーズに行うことができず、使い勝手が悪かった。
そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、顔を認識する処理に係る負担を軽減させることができる撮像装置及びそのプログラムを提供することを目的とする。
上記目的達成のため、請求項1記載の発明による撮像装置は、被写体を撮像する撮像手段と、
撮影の条件を判定する判定手段と、
前記撮像手段により撮像された画像データ内にある顔を検出する第1の顔検出手段と、
前記撮像手段により撮像された画像データ内にある顔が誰なのかを認識する個人認識手段と、
前記判定手段による判定結果に基づいて、前記第1の顔検出手段による検出の実行、及び/又は、前記個人認識手段による認識の実行を制御する制御手段と、
を備えたことを特徴とする。
また、例えば、請求項2に記載されているように、撮影の種類を設定する設定手段を備え、
前記判定手段は、
前記設定手段により設定された撮影の種類に基づいて、撮影の条件を判定するようにしてもよい。
また、例えば、請求項3に記載されているように、前記設定手段は、
撮影の種類として、スルー画像撮影、動画撮影、被写体追従撮影、連写撮影、単写撮影のうち、何れか1つの種類を設定するようにしてもよい。
また、例えば、請求項4に記載されているように、撮影条件を設定する撮影条件設定手段を備え、
前記判定手段は、
前記撮影条件設定手段により設定された撮影条件に基づいて、撮影の条件を判定するようにしてもよい。
また、例えば、請求項5に記載されているように、前記撮影条件設定手段は、
動画撮像のフレームレート、動画撮像のシャッタ速度、連写速度、記録画像サイズ、ストロボ発光か否かのうち、1つ以上の撮影条件を設定するようにしてもよい。
また、例えば、請求項6に記載されているように、前記判定手段は、
被写体に追従してAF処理を行っているか否かに基づいて、撮影の条件を判定するようにしてもよい。
また、例えば、請求項7に記載されているように、前記制御手段は、
前記判定手段による判定結果に基づいて、前記個人認識手段による認識の実行、非実行を制御するようにしてもよい。
また、例えば、請求項8に記載されているように、前記個人認識手段により認識された顔の画像データに基づいて前記撮像手段により撮像された画像データ内のどこに顔が移動したかを検出する第2の顔検出手段を備え、
前記制御手段は、
前記判定手段による判定結果に基づいて、前記個人認識手段による認識を終了させて前記第2の顔検出手段を実行させるように制御するようにしてもよい。
また、例えば、請求項9に記載されているように、前記制御手段は、
前記判定手段による判定結果に基づいて、前記第1の顔検出手段による検出の精度、及び/又は、前記個人認識手段による認識の精度の高さを変えるようにしてもよい。
また、例えば、請求項10に記載されているように、前記制御手段は、
前記判定手段による判定結果に基づいて、検出する顔のパーツの数を変えることにより、前記第1の顔検出手段による検出の精度、及び/又は、前記個人認識手段による認識の精度の高さを変えるようにしてもよい。
また、例えば、請求項11に記載されているように、前記個人認識手段は、
前記第1の顔検出手段により検出された顔のパーツの特徴点を抽出することにより、該顔が誰なのかを認識し、
前記制御手段は、
前記判定手段による判定結果に基づいて、特徴点を抽出する顔のパーツの数、及び/又は、抽出する特徴点の数を変えることにより、前記第1の顔検出手段による検出の精度、及び/又は、前記個人認識手段による認識の精度の高さを変えるようにしてもよい。
また、例えば、請求項12に記載されているように、前記制御手段は、
前記判定手段による判定結果に基づいて、前記第1の顔検出手段により検出される顔の数、及び/又は、前記個人認識手段により認識される顔の数を変えることにより、該第1の顔検出手段による検出の精度、及び/又は、個人認識手段による認識の精度を変えるようにしてもよい。
また、例えば、請求項13に記載されているように、前記撮像手段により撮像された画像データを表示手段に表示させる表示制御手段を備えるようにしてもよい。
また、例えば、請求項14に記載されているように、前記表示制御手段は、
前記第1の顔検出手段により検出された顔を区別表示させるようにしてもよい。
また、例えば、請求項15に記載されているように、前記表示制御手段は、
前記個人認識手段により認識された顔を差別表示させるようにしてもよい。
また、例えば、請求項16に記載されているように、被写体に対してオートフォーカスを行なうオートフォーカス制御手段を備え、
前記オートフォーカス制御手段は、
前記個人認識手段により誰の顔か認識された場合は、認識された顔にピントが合うようにオートフォーカスを行ない、該個人認識手段により誰の顔が認識されなかった場合は、前記第1の顔検出手段により検出された顔にピントが合うようにオートフォーカスを行なうようにしてもよい。
また、例えば、請求項17に記載されているように、露出条件を設定する露出条件設定手段を備え、
前記露出条件設定手段は、
前記個人認識手段により誰の顔か認識された場合は、認識された顔を重点に露出条件を設定し、該個人認識手段により誰の顔が認識されなかった場合は、前記第1の顔検出手段により検出された顔を重点に露出条件を設定するようにしてもよい。
上記目的達成のため、請求項18記載の発明によるプログラムは、被写体を撮像する撮像処理と、
撮影の条件を判定する判定処理と、
前記撮像処理により撮像された画像データに基づいて、顔を検出する顔検出処理と、
前記撮像処理により撮像された画像データ内にある顔が誰なのかを認識する個人認識処理と、
前記判定処理による判定結果に基づいて、前記検出処理による検出の実行、及び/又は、前記個人認識処理による認識の実行を制御する制御処理と、
を含み、上記各処理をコンピュータで実行させることを特徴とする。
本願発明によれば、顔検出処理を行うとともに、顔認識処理に係る負担の増大を効率よく抑えることができる。
以下、本実施の形態について、本発明の撮像装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[第1の実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮像装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り4、CCD5、ドライバ6、TG(timing generator)7、ユニット回路8、画像生成部9、CPU10、キー入力部11、メモリ12、DRAM13、フラッシュメモリ14、画像表示部15、バス16を備えている。
撮影レンズ2は、図示しない複数のレンズ群から構成されるフォーカスレンズ、ズームレンズ等を含む。そして、撮影レンズ2にはレンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ、ズームレンズをそれぞれ光軸方向に沿って駆動させるフォーカスモータ、ズームモータと、CPU10から送られてくる制御信号にしたがって、フォーカスモータ、ズームモータを駆動させるフォーカスモータドライバ、ズームモータドライバから構成されている(図示略)。
絞り4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り4を動作させる。
絞り4とは、撮影レンズ2から入ってくる光の量を制御する機構のことをいう。
CCD5は、ドライバ6によって駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路8に出力する。このドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10により制御される。なお、CCD5はベイヤー配列の色フィルターを有しており、電子シャッタとしての機能も有する。この電子シャッタのシャッタ速度は、ドライバ6、TG7を介してCPU10によって制御される。
ユニット回路8には、TG7が接続されており、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されており、CCD5から出力された撮像信号はユニット回路8を経てデジタル信号として画像生成部9に送られる。
画像生成部9は、ユニット回路8から送られてきた画像データに対してγ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)を生成し、該生成された輝度色差信号の画像データはDRAM13(バッファメモリ)に記憶される。つまり、画像生成部9は、CCD5から出力された画像データに対して画像処理を施す。
CPU10は、CCD5への撮像制御、フラッシュメモリ14への記録処理、画像データの表示処理を行う機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。また、CPU10はクロック回路を含み、タイマーとしての機能も有する。
特に、CPU10は、画像データ内に人の顔があるか否かを検出する顔検出手段101、該検出された顔が誰の顔か否かを個人認識する個人認識手段102を有する。
キー入力部11は、電源On/Offキー、半押し全押し可能なシャッタボタン、モード切替キー、十字キー、SETキー、キャンセルキー、撮影切替えボタン、録画ボタン、連写速度変更キー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。
メモリ12には、CPU10が各部を制御するのに必要な制御プログラム、及び必要なデータが記録されており、CPU10は、該プログラムに従い動作する。なお、このメモリ12は書き換え可能な不揮発性メモリである。
DRAM13は、CCD5によって撮像された後、CPU10に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとして使用される。
フラッシュメモリ14は、圧縮された画像データを保存する記録媒体である。
画像表示部15は、カラーLCDとその駆動回路を含み、撮影待機状態にあるときには、CCD5によって撮像された被写体をスルー画像として表示し、記録画像の再生時には、フラッシュメモリ14から読み出され、伸張された記録画像を表示させる。
B.デジタルカメラ1の動作
実施の形態におけるデジタルカメラ1の動作を図2乃至4のフローチャートに従って説明する。なお、本実施の形態において説明する、顔を検出する顔検出と、顔が誰なのか具体的に認識する個人認識とはともに顔認識の概念に含まれる言葉である。
ユーザのキー入力部11の電源On/Offキーの操作により、デジタルカメラ1の電源がオンされると、ステップS1で、CPU10は、現在のモードが設定モードであるか否かを判断する。なお、ユーザはモード切替キーを操作することによりモードを切替えることができる。
ステップS1で、現在のモードが設定モードであると判断すると、ステップS2に進み、CPU10は、顔登録を行なうか否かの判断を行う。
このとき、CPU10は、設定モードに設定されると、「顔登録」、「画質」等の各種の設定項目を画像表示部15に表示させ、ユーザが十字キーの操作により顔登録を選択した状態でSETキーの操作を行なうことにより顔登録を行なう旨を指示することができ、CPU10は該一連の操作に対応する操作信号がキー入力部11から送られてくると、顔登録を行なうと判断する。
ステップS2で、顔登録を行なわないと判断すると他の処理へ移行し、顔登録を行なうと判断すると、ステップS3に進み、CPU10は、顔登録する人物の顔をこれから撮影して登録を行なうか否かを判断する。
このとき、CPU10は、顔登録を行なうと判断すると、記録済みの画像に基づいて顔を登録するか、撮影して顔を登録するかをユーザに指示させるための画面を表示させ、ユーザは十字キー、SETキーの操作を行なうことにより何れか一方の方法を指示することができる。
ステップS3で、撮影して登録すると判断すると、ステップS4で、CPU10は、CCD5による撮像を開始させ、CCD5により順次撮像され画像生成部9によって生成された輝度色差信号のフレーム画像データ(YUVデータ)をバッファメモリ(DRAM13)に記憶させていき、該記憶されたフレーム画像データに基づく画像を画像表示部15に表示させていくという、いわゆるスルー画像表示を開始する。このスルー画像が表示されることにより、ユーザは、顔登録したい人物の顔が撮像されるようにデジタルカメラ1の位置や、構図を決めることができる。
次いで、ステップS5で、CPU10は、シャッタボタンが全押しされたか否かを判断する。この判断は、シャッタボタンの全押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ステップS5で、シャッタボタンが全押しされていないと判断すると、全押しされるまでステップS5に留まり、全押しされたと判断すると、ステップS6に進み、CPU10は、静止画撮影処理を行う。このとき、ユーザは現在撮像されている人物の顔で顔登録したいと思う場合にシャッタボタンを全押し操作する。
次いで、ステップS7で、CPU10は、該撮影処理により得られた静止画像データに基づく画像を画像表示部15にプレビュー表示させる。
次いで、ステップS8で、CPU10は、撮影処理により得られた静止画像データに基づく画像に映っている人の顔を登録するか否かを判断する。
この判断は、ユーザによってSETキーが操作され、該操作に対応する操作信号がキー入力部11から送られてきた場合は顔を登録すると判断し、ユーザによってキャンセルキーが操作され、該操作に対応する操作信号がキー入力部11から送られてきた場合は顔を登録しないと判断する。
ステップS8で、顔を登録しないと判断するとステップS4に戻り、上記した動作を繰り返し、ステップS8で、顔を登録すると判断するとステップS13に進む。
一方、ステップS3で、撮影して登録しないと判断すると、ステップS9に進み、CPU10は、フラッシュメモリ14に記録されている静止画像データを画像表示部15に一覧表示させる。
次いで、ステップS10に進み、CPU10は、ユーザの操作に応じて静止画像データを選択する。このとき、ユーザは十字キー、SETキー等の操作キーを操作することにより1枚の静止画像データの選択指示を行うことができ、CPU10は該選択指示がされた静止画像データを選択する。
静止画像データの選択を行なうと、ステップS11に進み、CPU10は、該選択された静止画像データを画像表示部15に全画面表示させる。
一覧表示されている静止画像データでは、表示される個々の静止画像データに基づく画像は小さいため、誤登録を無くすため選択された静止画像データを全画面表示させる。
次いで、ステップS12で、CPU10は、現在表示されている静止画像データに基づく画像に写っている人の顔を登録するか否かを判断する。
この判断は、ユーザによってSETキーが操作され、該操作に対応する操作信号がキー入力部11から送られてきた場合は顔を登録すると判断し、ユーザによってキャンセルキーが操作され、該操作に対応する操作信号がキー入力部11から送られてきた場合は顔を登録しないと判断する。
ステップS12で、顔登録しないと判断するとステップS9に戻り、上記した動作を繰り返し、ステップS12で、顔登録すると判断するとステップS13に進む。
ステップS13に進むと、現在画像表示部15に表示されている(プレビュー表示も含む)静止画像データから顔領域の画像データを抽出する。
この顔領域の画像データの抽出は、予め記憶されている一般的な人の顔の特徴データと該静止画像データとを比較照合することにより該静止画像データの中に人の顔の画像データがあるか否かを認識し、該認識結果に基づいて顔領域の画像データを静止画像データから抽出する。なお、この認識は、人の顔があるかを認識できれば十分なので、人の顔の輪郭、目や口など、大まかに人の顔であると認識する程度の画像認識でよい。つまり、その顔が誰の顔であるかを具体的に認識する必要は全くない。
図5は、顔登録を説明するための図である。
図5(a)は、静止画像データから抽出される顔領域の例を示す図であり、枠内の画像データが抽出されることになる。
なお、ユーザが顔領域を指定し、該指定された顔領域を抽出するようにしてもよい。
次いで、ステップS14で、CPU10は、該抽出した顔領域の画像データから顔特徴データを算出する。この算出される顔特徴データは、被写体の顔が誰の顔であるかを具体的に認識できる程度のデータであり、人物の顔から複数の顔の特徴点を抽出し、それら特徴点の座標位置や相対位置関係の数値データ(顔特徴データ)を算出する。
図5(b)は、抽出される顔の特徴点の例を示すものであり、図中の点で示されている点が特徴点を表している。ここでは、目の特徴点として左右それぞれ8つの点、眉毛の特徴点として左右それぞれ5つ点、鼻の特徴点として鼻下の3つの点、唇の特徴点として8つの点、顔の輪郭の特徴点として9つの点を抽出する。このように抽出された特徴点を図5(c)に示す。
そして、該抽出した点の座標位置や相対位置関係の数値データを算出することになる。
次いで、ステップS15で、CPU10は、人物名入力画面を表示させ、ステップS16で、CPU10は、人物名の入力が完了したか否かを判断する。この判断は、SETキーの操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ここで、人物名入力画面が表示されると、ユーザが十字キーを操作することにより人物名を入力することができ、SETキーの操作を行なうことにより人物名の入力完了を指示することができる。
この人物名の入力を簡単に説明すると、ユーザが十字キーの「↓」キーを操作することにより、「あ」、「い」、「う」という順序で文字が変わっていき、「→」キーを操作することにより、文字入力の欄が右隣のスペースに移動する。例えば、「た」という文字が表示されている状態で、「→」キーを操作すると、文字入力欄が「た」の右隣の欄に移動し、その後「↓」キーを操作すると、「たあ」、「たい」、「たう」という順番に文字入力欄の文字が変わる。そして、入力した文字でOKと思う場合はSETキーの操作を行なうことにより文字入力の完了を指示する。
なお、デジタルカメラ1とパソコンや直接キーボードとを接続することにより、キーボードで文字を入力するようにしてもよい。
ステップS16で、人物名の入力が完了していないと判断すると完了するまでステップS16に留まり、ステップS16で、人物名の入力が完了したと判断すると、ステップS17に進み、CPU10は、ステップS14で算出した顔特徴データと、該入力した人物名を関連付けてメモリ12の顔登録記録領域に記録させて、ステップS1に戻る。これにより、人物の顔登録を行なうことができる。
なお、ステップS16で、人物名が入力されないままの状態でSETキーの操作が行なわれた場合は、自動的に番号若しくは名称を付し、該付した番号若しくは名称と顔特徴データとを関連付けて記録させる。また、ステップS13で抽出された顔領域の画像データのみを顔特徴データに関連付けて記録するようにしてもよいし、顔特徴データと人物名と顔領域の画像データとを関連付けて記録するようにしてもよい。
また、ステップS1で、現在のモードが設定モードでないと判断すると、図3のステップS21に進み、CPU10は、現在のモードが顔認識撮影モードであるか否かを判断する。
ステップS21で、現在のモードが顔認識撮影モードでないと判断すると他のモードへ移行し、顔認識撮影モードであると判断すると、ステップS22に進み、CPU10は、個人認識して撮影を行なうか否かを判断する。このとき、個人認識撮影を行なうか否かを選択させるための画面を表示させ、ユーザは十字キー、SETキーの操作を行なうことにより、個人認識撮影を行なうか否かを選択することができる。また、この個人認識とは、単に人の顔が撮像された画像内にあるかどうかを認識するだけでなく、被写体の顔が誰の顔であるかを具体的に認識する処理を行うことをいい、後述する個人認識対象として設定された人物の顔が撮像された画像内にあるか否かを認識する。
ステップS22で、個人認識撮影を行なうと判断すると、ステップS23に進み、CPU10は、顔登録されている人の人物名(登録人物名)を一覧表示させる。つまり、メモリ12の顔登録記録領域に記録されている顔特徴データに関連付けられている人物名を一覧表示させる。このとき、登録人物名を一覧表示する際には、所定の人物名を選択し、該選択した人物名を差別表示させ、また、個人認識設定終了させるための個人認識終了ボタンも表示させる。
なお、顔特徴データに顔画像が関連付けて記録されている場合は、該顔画像も、又は顔画像のみを表示させるようにしてもよい。
次いで、ステップS24で、CPU10は、ユーザによって十字キーの操作が行なわれたか否かを判断する。この判断は、十字キーの操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ステップS24で、十字キーの操作が行われたと判断すると、ステップS25に進み、CPU10は、該ユーザの操作に応じて登録人物名を新たに選択して、ステップS26に進む。このときは、既に選択されている登録人物名の選択を解除し、新たな登録人物名を選択するとともに、該選択した登録人物名を差別表示させる。これにより、ユーザは、個人認識させたい人物名を十字キーを操作することにより選択することができる。
一方、ステップS24で十字キーの操作が行われていないと判断するとそのままステップS26に進む。
ステップS26に進むと、CPU10は、ユーザによってSETキーの操作が行なわれたか否かを判断する。この判断は、SETキーの操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
次いで、ステップS26で、SETキーの操作が行なわれたと、ステップS27に進み、現在選択されている登録人物名を個人認識対象として設定して、ステップS28に進む。このとき、該個人認識対象として設定された登録人物名の人物の顔特徴データ、つまり、設定された登録人物名に関連付けてメモリ12の顔登録記録領域に記録されている顔特徴データをバッファメモリの顔特徴データ記憶領域に記憶させる。これにより、ユーザは現在選択されている人物名の顔を個人認識させたい場合に、SETキーを操作することにより個人認識対象として設定することができる。
一方、ステップS26で、SETキーの操作が行なわれていないと判断するとそのままステップS24に戻る。
ステップS28に進むと、CPU10は、人物名の個人認識対象としての設定を終了するか否かを判断する。この判断は、個人認識終了ボタンが選択された状態で、SETキーの操作が行なわれたか否かにより判断する。
つまり、ユーザは十字キーを操作することにより個人認識終了ボタンを選択し、SETキーの操作を行なうことにより個人認識対象としての設定を終了することができる。
ステップS28で、人物の個人認識対象としての設定を終了しないと判断するとステップS24に戻り、上記した動作を繰り返す。つまり、ユーザは、人物の個人認識対象としての設定を終了しない限り、複数の人物を個人認識対象として設定することができる。
一方、ステップS28で、人物の個人認識対象としての設定を終了すると判断すると、ステップS29に進み、CPU10は、スルー画像表示を開始させる。
次いで、ステップS30で、CPU10の顔検出手段101は、顔検出処理を行う。この顔検出処理は、予め記憶されている一般的な人の顔の特徴データ(目、眉毛、鼻、口、耳等の特徴データ)と順次撮像される画像データとを比較照合することにより、順次撮像される該画像データの中に人の顔の画像データがあるか否かを検出する。なお、この検出は、人の顔があるかを検出できれば十分なので、人の顔の輪郭、目や口など、大まかに人の顔であると認識する程度の画像認識でよい。つまり、その顔が誰の顔であるかを具体的に認識する必要は全くない。
次いで、ステップS31で、CPU10は、該検出された顔を区別表示させる処理を開始する。つまり、顔であると検出された顔領域を区別表示させる。
ここでは、区別表示の方法として、検出された各顔の位置に基づいてAFエリアをそれぞれ表示させることにするが、顔検出枠という枠を顔の位置に表示させるようにしてもよいし、他の方法で区別表示させるようにしてもよい。また、ここで、表示されるAFエリアの数は検出された顔の数に応じて変わり、例えば、検出された顔の数が3つの場合は、表示されるAFエリアの数も3つになる。
図6は、表示されるAFエリアの例を示す図であり、図6(a)は、検出された顔の区別表示の例を示す図である。
図6(a)を見ると、撮像されている被写体(人)は4人(人物21、人物22、人物23、人物24)であり、4人の人の顔が検出されたので、検出された各顔の位置に基づいてAFエリア31が表示されているのが分かる。これにより、ユーザは実際に検出された顔を認識することができる。
なお、撮影状況、被写体の状況に応じては、人が撮像されている場合であっても、人の顔が検出されない場合があることに留意されたい。例えば、暗い場所や、顔が向いている方向とデジタルカメラ1の撮影レンズ2の光軸とがなす角度によって(例えば、人が略背中を撮影レンズに向けている等)は人が写っている場合でも顔が検出されないこともある。従って、該検出された顔が4つであっても、時間の経過とともに、3つの顔が検出されたり、4つの顔が検出されたりと、検出される顔の数も異なり、表示されるAFエリア31の個数が刻々と変わることがある。もちろん被写体の位置が変わった場合も表示されるAFエリアの位置はそれに応じて変わることになる。
次いで、ステップS32に進み、CPU10は、ステップS27で設定された登録人物名があるか否かを判断する。つまり、バッファメモリの顔特徴データ記憶領域に顔特徴データが記憶されているか否かを判断する。
ステップS32で、設定された登録人物名があると判断すると、ステップS33に進み、CPU10の個人認識手段102は、現在検出されている顔に基づいて個人認識対象として設定されている登録人物名の顔を個人認識する処理を開始する。
この個人認識処理は、単に人の顔が画像内にあるかどうかを検出するだけでなく、被写体の顔が誰の顔であるかを具体的に認識する処理を行う。具体的に説明すると、該検出した顔から各顔のパーツの特徴点を複数抽出し、それら特徴点の座標位置や相対位置関係の数値データを算出し、これをバッファメモリに記憶されている顔特徴データ(個人認識対象として設定された人物名に関連付けて記録されている顔特徴データ)と比較照合することにより、個人認識を行なう。この個人認識は、具体的に顔が誰の顔であるかを認識するので、単に人の顔を検出する顔検出より処理負担が大きくなる。
ここでは、個人認識対象として設定された人物は、人物22と人物23とするので、つまり、人物22の顔と人物23の顔の顔特徴データがバッファメモリの顔特徴データ記憶領域に記憶されているので、撮像された画像内に人物22、人物23の顔があるか否かを認識することになる。
次いで、ステップS34で、CPU10は、個人認識された顔と顔検出のみされた顔とを差別表示させる処理を開始して、ステップS35に進む。
図6(b)は、認識された顔の差別表示の例を示す図である。
図6(b)を見ると、個人認識された顔は、人物22と人物23の顔であるので、該個人認識された顔に区別表示されているAFエリア31が、他の顔検出のみされている顔に表示されているAFエリア31とは差別表示されているのが分かる。なお、ここでは、AFエリアの線を太くすることにより差別表示を行っているが、他の方法、例えば、AFエリアの色等を変えたり、個人識別された旨を示す情報を表示させたりすることにより、個人認識された顔を差別表示させるようにしてもよい。要は、顔検出のみされた顔と個人認識された顔を差別できる方法であればよい。これにより、ユーザは、実際に個人認識された顔を認識することができる。
なお、上述したように、撮影状況、被写体の状況に応じて認識される顔が変わり、たとえ、個人認識対象として設定された人物が撮像されている場合であっても、撮影状況、被写体の状況に応じて認識されない場合もあるので、時間の経過とともに差別表示されるAFエリアの数も刻々と変わることになる。
また、一度顔が個人認識されると、該顔に対して被写体追従を開始して、AFエリアを該認識した顔に追従表示させていくようにしてもよい。この場合は、追従されている顔に対しては、個人認識を行わないようにしてもよい。つまり、該追従している顔に対しては特徴点の抽出処理を行わないようにするとともに、該個人認識された登録人物名の顔特徴データを比較照合に用いないようにする。追従されている顔は既に撮像されている画像内にあり、どこにあるかも分かるからである。この被写体追従は周知の技術なので説明を割愛するが、ブロックマッチング等を用いることにより被写体追従を行なうことができる。
一方、ステップS32で、設定された登録人物名がないと判断するとそのままステップS35に進む。
ステップS35に進むと、CPU10は、ユーザによってシャッタボタンが半押しされたか否かを判断する。この判断は、シャッタボタンの半押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ステップS35で、シャッタボタンが半押しされていないと判断すると半押しされるまでステップS35に留まり、シャッタボタンが半押しされたと判断すると、顔検出処理、個人認識処理その他の区別・差別表示処理を終了して、図4のステップS36に進み、CPU10は、シャッタボタン半押し直前に個人認識された顔があるか否かの判断を行う。つまり、シャッタボタン半押し直前に差別表示されているAFエリアがあるか否かを判断する。この個人認識された顔がないと判断される場合としては、個人認識対象として登録人物名が設定されていない場合はもちろんのこと、個人認識対象として登録人物名が設定されている場合であっても、個人認識できなかった場合とがあり、要はAFエリアが差別表示されていない場合をいう。
なお、上述した被写体追従を行なっている場合は、個人認識された顔があると判断することになる。なぜならば、追従されている顔は既に誰の顔か分かっており、また、どこにあるかも分かるからである。
ステップS36で、シャッタ半押し直前に個人認識されている顔があると判断すると、ステップS37に進み、CPU10は、シャッタ半押し直前に該個人認識された全ての顔が被写界深度に入るようにオートフォーカス(AF)処理を行う。つまり、差別表示されている全てのAFエリアにピントが合うようにAF処理を行う。
この、「個人認識された全ての顔が被写界深度に入る」とは、個人認識された全ての顔が被写界深度に入ればどんな被写界深度でもよいという意味ではなく、個人認識された全ての顔が丁度納まる(入る)ような被写界深度という意味である。これにより、個人認識対象として設定された登録人物名の顔にピントを合わせることができる。
次いで、ステップS38に進み、CPU10、シャッタ半押し直前に該個人認識された顔を重点に露出条件を設定する。この個人認識された顔を重点にした露出条件の設定とは、シャッタ半押し直前に撮像された画像データの輝度成分のうち、該個人認識された顔の位置付近の領域(AFエリアであってもよい)の輝度成分の重み付けを大きくし、該個人認識された顔の位置付近の領域以外の輝度成分の重み付けを小さくして平均値をとった値に基づいて露出量を算出して、露出条件(絞り、シャッタ速度、感度等)を設定することをいう。これにより、個人認識対象として設定された登録人物名の顔が適正露出量となるような画像データを得ることが可能となる。
次いで、ステップS39に進み、CPU10は、シャッタボタンが全押しされたか否かを判断する。この判断は、シャッタボタンの全押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ステップS39で、シャッタボタンが全押しされていないと判断すると、シャッタボタンが全押しされるまでステップS39に留まり、シャッタボタンが全押しされたと判断すると、ステップS40に進み、CPU10は、ステップS38で設定された露出条件で静止画撮影処理を行う。
次いで、ステップS41に進み、CPU10は、該撮影により得られた静止画像データを圧縮し、該圧縮した静止画像データとシャッタボタン半押し直前に個人認識された登録人物名を関連付けてフラッシュメモリ14に記録させて、ステップS1に戻る。なお、登録人物名を関連付けて記録するようにしたが、誰の顔(どの登録人物名の顔)を認識したのかを示す情報であればよい。
一方、ステップS36で、シャッタ半押し直前に個人認識されている顔がないと判断すると、ステップS42に進み、CPU10は、シャッタ半押し直前に顔検出された全ての顔が被写界深度に入るようにAF処理を行う。
この、「顔検出された全ての顔が被写界深度に入る」とは、顔検出された全ての顔が被写界深度に入ればどんな被写界深度でもよいという意味ではなく、顔検出された全ての顔が丁度納まる(入る)ような被写界深度という意味である。これにより、人の顔にピントを合わせることができる。
なお、シャッタ半押し直前に顔検出された顔がないと判断すると、所定のAFエリアに対してAF処理を行うようにしてもよいし、パンフォーカス処理を行うようにしてもよい。
次いで、ステップS43に進み、CPU10は、シャッタ半押し直前に顔検出された顔を重点に露出条件を設定する。この顔検出された顔を重点にした露出条件の設定とは、シャッタ半押し直前に撮像された画像データの輝度成分のうち、該顔検出された顔の位置付近の領域(AFエリアであってもよい)の輝度成分の重み付けを大きくし、該顔検出された顔の位置付近の領域以外の輝度成分の重み付けを小さくして平均値をとった値に基づいて露出量を算出して、露出条件(絞り、シャッタ速度、感度等)を設定することをいう。これにより、人の顔が適正露出量となるような画像データを得ることができる。
次いで、ステップS44に進み、CPU10は、シャッタボタンが全押しされたか否かを判断する。
ステップS44で、全押しされていないと判断すると全押しされるまでステップS44に留まり、全押しされたと判断すると、ステップS45に進み、CPU10は、該設定された露出条件で静止画撮影処理を行う。
次いで、ステップS46で、該撮影により得られた静止画像データを圧縮し、該圧縮した静止画像データをフラッシュメモリ14に記録させて、ステップS1に戻る。
[第2の実施の形態]
次に第2の実施の形態について説明する。
第1の実施の形態においては、個人認識対象として設定された場合は、個人認識と個人認識の両方を行なうというものであるが、第2の実施の形態においては、撮影の種類や撮影条件に応じて、顔検出のみを行なったり、顔検出と個人認識との両方を行なうというものである。
C.デジタルカメラ1の動作
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮像装置を実現する。
但し、第2の実施の形態においては、更に、撮影の種類に応じて顔検出手段101と、個人認識手段102を制御する制御手段103を有する。
以下、第2の実施の形態のデジタルカメラ1の動作を図7乃至図11のフローチャートにしたがって説明する。
なお、第1の実施の形態においては、顔認識撮影モードの中で、個人認識対象として登録人物名を設定するようにしたが、第2の実施の形態においては、予め個人認識対象設定モードというものを設け、該個人認識対象設定モードで既に1以上の登録人物名が個人認識対象として設定されていることを前提に説明する。
ユーザのモード切替キーの操作により顔認識撮影モードに設定されると、ステップS101に進み、CPU10は、現在設定されている撮影の種類が、動画撮影であるか否かを判断する。なお、ユーザは、撮影切替ボタンを操作することにより撮影の種類を切替えることができる。この撮影の種類としては、大きく分けて、「動画撮影」と「静止画撮影」とに分かれ、更に、静止画撮影は、「被写体追従撮影」、「連写撮影」、「単写撮影」とに分かれる。
ステップS101で、現在設定されている撮影の種類が動画撮影であると判断すると、ステップS102に進み、CPU10は、スルー画像表示を開始させる。
次いで、ステップS103で、CPU10の顔検出手段101は制御手段103の制御によって、顔検出処理を開始する。この顔検出処理は、上記第1の実施の形態で説明したように、予め記憶されている一般的な人の顔の特徴データと該静止画像データとを比較照合することにより該静止画像データの中に人の顔の画像データがあるか否かを検出する。この顔検出処理は、個人認識処理に比べ、処理が簡単であることは言うまでもない。
次いで、ステップS104で、CPU10は、該検出された顔の区別表示処理を開始する。ここでも、上記第1の実施の形態で説明したように、AFエリアを該検出した顔の位置に表示させることにより、検出された顔を区別表示させる。
次いで、ステップS105で、CPU10の個人認識手段102は制御手段103の制御によって、該検出された顔に基づいて個人認識対象として設定された登録人物名の個人認識処理を開始する。この個人認識処理は、上記第1の実施の形態で説明したように、単に人の顔が画像内にあるかどうかを検出するだけでなく、被写体の顔が誰の顔であるかを具体的に認識する処理を行う。つまり、該認識した顔から複数の顔の特徴点を抽出し、それら特徴点の座標位置や相対位置関係の数値データを算出し、これをバッファメモリに記憶されている顔特徴データ(個人認識対象として設定された人物名に関連付けて記録されている顔特徴データ)と比較照合することにより、個人認識を行なう。これにより、個人認識対象として設定されている登録人物名の顔が撮像されたフレーム画像内にあるか否かを認識することになる。
次いで、ステップS106で、CPU10は、個人認識された顔と顔検出のみされた顔とを差別表示させる処理を開始する。この差別表示も、上記第1の実施の形態のステップS34で説明した方法等により行なう。
次いで、ステップS107で、CPU10は、録画を開始するか否かを判断する。この判断は、ユーザの録画ボタンの押下によって、該録画ボタンの押下に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ステップS107で、録画を開始しないと判断すると、録画を開始すると判断するまでステップS107に留まる。このとき、CPU10は、録画を開始すると判断するまで、コンティニュアス的にAF処理、AE処理を行う。このAF処理は、個人認識された全ての顔、若しくは検出された全ての顔が、被写界深度に入るよう行い、このAE処理は、個人認識された顔、若しくは、検出された顔を重点に露出条件を設定して行なう。
一方、ステップS107で、録画を開始すると判断すると、ステップS108に進み、CPU10は、個人認識処理及び差別表示処理を終了し、顔検出された全ての顔が被写界深度に入るようにコンティニュアスAF処理を開始する。上記第1の実施の形態で説明したように、「顔検出された全ての顔が被写界深度に入る」とは、顔検出された全ての顔が被写界深度に入ればどんな被写界深度でもよいという意味ではなく、顔検出された全ての顔が丁度納まる(入る)ような被写界深度という意味である。これにより、動画の記録中は、顔検出処理のみを行うようにしたので、動画記録処理により処理負担が増大しても、個人認識処理を終了させることにより、動画の記録中の処理負担を軽減することができる。
なお、ここで留意されたいのは、録画が開始されたと判断された後も、顔検出処理及び検出された顔の区別表示を終了させることなく継続して行なうことであり、コンティニュアスAFは、逐次検出された顔の位置に基づいてコンティニュアス的にAF処理を行う。また、録画が開始されたと判断されても、コンティニュアス的にAE処理を行うようにしてもよい。このAE処理は、顔検出された顔を重点に露出条件を設定して行なう。
次いで、ステップS109に進み、CCD5により撮像されるフレーム画像データを順次フラッシュメモリ14に記録する処理を開始する。このときは、フレーム画像データを圧縮して(例えば、MPEG圧縮して)、記録させる。
次いで、ステップS110に進み、録画を終了するか否かを判断する。この判断は、録画ボタンの押下が解除されると録画を終了すると判断する。つまり、録画ボタンの押下に対応する操作信号がキー入力部11から送られてこなくなると、録画を終了すると判断する。
ステップS110で、録画を終了しないと判断すると、録画を終了するまでステップS110に留まり、録画を終了すると判断すると、ステップS101に戻る。
一方、ステップS101で、現在の撮影の種類が動画撮影でないと判断すると、図8のステップS111に進み、CPU10は、現在設定されている撮影の種類が、被写体追従撮影か否かを判断する。
ステップS111で、被写体追従撮影であると判断すると、ステップS112に進み、CPU10は、スルー画像表示を開始する。
次いで、ステップS113で、CPU10の顔検出手段101は、制御手段102の制御によって、第1の顔検出処理を開始する。この第1の顔検出処理は、上記第1の実施の形態で説明したように、予め記憶されている一般的な人の顔の特徴データと該静止画像データとを比較照合することにより該静止画像データの中に人の顔の画像データがあるか否かを検出する。
次いで、ステップS114で、CPU10の個人認識手段102は制御手段103の制御によって、該検出された顔に基づいて個人認識対象として設定された登録人物名の個人認識処理を開始する。この個人認識処理は、上記第1の実施の形態で説明したように、単に人の顔が画像内にあるかどうかを検出するだけでなく、被写体の顔が誰の顔であるかを具体的に認識する処理を行う。つまり、該認識した顔から複数の顔の特徴点を抽出し、それら特徴点の座標位置や相対位置関係の数値データを算出し、これをバッファメモリに記憶されている顔特徴データ(個人認識対象として設定された人物名に関連付けて記録されている顔特徴データ)と比較照合することにより、個人認識を行なう。これにより、個人認識対象として設定されている登録人物名の顔が撮像されたフレーム画像内にあるか否かを認識することになる。
次いで、ステップS115で、CPU10の顔検出手段101は制御手段103の制御によって、該個人認識された顔に基づいて第2の検出処理を開始する。この第2の顔検出処理は、該個人認識された顔が順次撮像されるフレーム画像のどこに移動したのかを検出処理であり、ブロックマッチング法などの被写体追従処理により該認識された顔がどこに移動したのかを検出する。
ここで、個人認識処理により認識された顔に対しては以後、個人認識処理を終了し、第2の顔検出処理のみを行うこととする。例えば、個人認識対象として設定された登録人物名が3つ(登録人物名A、登録人物名B、登録人物名C)ある場合において、登録人物名Aの顔を個人認識処理により認識した場合は、該登録人物名Aに対しては個人認識処理を行わずに第2の顔検出処理のみを行い、個人認識されていない登録人物名B、登録人物名Cに対しては個人認識処理を継続させる。その後、個人認識された顔に対しては順次個人認識処理を終了し、第2の検出処理のみを行うことになる。これにより顔認識処理に係る負担の増大を効率よく抑えることができる
この個人認識処理の終了とは、第2の顔検出手段により検出された顔に対しては特徴点を抽出せず、また、個人認識処理により認識された登録人物名の顔特徴データは、以後、比較照合に用いないということである。比較照合しなくても、該登録人物名の顔は既にどこにあるか第2の検出処理により検出されるからである。
なお、全ての顔が個人認識処理により認識された場合は(全ての顔に対して第2の顔検出処理が行なわれている場合は)、第1の顔検出処理も終了させる。
次いで、ステップS116で、CPU10は、第2の検出処理により検出された顔にAF枠を表示させるAF枠追従表示を開始させる。
次いで、ステップS117で、シャッタボタンが半押しされているか否かを判断する。
ステップS117で、シャッタボタンが半押しされていないと判断すると、ステップS118に進み、CPU10は、追従が失敗したか否かを判断する。具体的には、第2の顔検出処理により検出対象となっていた顔が検出されなくなり、AF枠の追従表示を行うことができなくなったか否かを判断する。
ステップS118で、追従が失敗していないと判断するとステップS117に戻り、追従が失敗したと判断すると、ステップS113に戻り上記した動作を繰り返す。このとき、追従失敗と判断された後のステップS114の個人認識処理は、追従が失敗されたと判断された登録人物名の顔と、未だ個人認識されていない登録人物名の顔のみを認識することになる。つまり、追従失敗と判断されていない登録人物名の顔に対しては第2の顔検出処理を行っているので、個人認識処理を行う必要が無いからである。
例えば、個人認識対象として設定された登録人物名が3人(登録人物名A、登録人物名B、登録人物名Cの3人)である場合であって、全ての顔に対して第2の検出処理を行っている場合に、登録人物名Bの顔検出が失敗した場合は、第1の顔検出処理を開始し(ステップS113)、ステップS114で、該失敗した登録人物名Bの顔のみを認識する個人認識処理を開始する。また、登録人物名Aの顔と、登録人物名Bの顔に対して第2の顔検出処理を行っている場合に(登録人物名Cの顔に対してのみ個人認識を行なっている場合に)、登録人物名Bの顔の顔検出が失敗した場合は、登録人物名Bの顔と、登録人物名Cの顔に対して個人認識処理を行うことになる。このときも、第2の検出処理によって検出されていない顔の特徴点を抽出し、該抽出した特徴点の座標位置、相対位置関係の数値データを算出し、第2の検出処理によって検出されていない登録人物名の顔特徴データとを比較照合することにより個人認識処理を行う。
一方、ステップS117で、シャッタボタンが半押しされたと判断すると、ステップS119に進み、CPU10は、追従されている全ての顔が被写界深度に入るようにAF処理を行う。
次いで、ステップS120で、シャッタ半押し直前に第2の顔検出処理により検出された顔を重点に露出条件を設定する。
次いで、ステップS121で、CPU10は、シャッタボタンが全押しされたか否かを判断する。
ステップS121で、シャッタボタンが全押しされていないと判断すると、全押しされるまでステップS121に留まり、シャッタボタンが全押しされたと判断すると、ステップS122に進み、CPU10は、該設定された露出条件で静止画撮影処理を行う。
次いで、ステップS123で、CPU10は、該撮影により得られた静止画像データを圧縮し、該圧縮した画像データと、追従されていた(第2の顔検出処理により検出されていた)顔の登録人物名を関連付けて記録して、ステップS101に戻る。なお、登録人物名を関連付けて記録するようにしたが、誰の顔(どの登録人物名の顔)を認識したのかを示す情報であればよい。
一方、ステップS111で、被写体追従撮影でないと判断すると、図9のステップS131に進み、CPU10は、現在設定されている撮影の種類が、連写撮影であるか否かを判断する。
ステップS131で、連写撮影であると判断すると、ステップS132に進み、CPU10は、スルー画像表示を開始させる。
次いで、ステップS133で、CPU10の顔検出手段101は制御手段103の制御によって、顔検出処理を開始する。この顔検出処理は、上記第1の実施の形態で説明したように、予め記憶されている一般的な人の顔の特徴データと該静止画像データとを比較照合することにより該静止画像データの中に人の顔の画像データがあるか否かを検出する。この顔検出処理は、個人認識処理に比べ、処理が簡単であることは言うまでもない。
次いで、ステップS134で、CPU10は、該検出された顔の区別表示処理を開始する。ここでも、上記第1の実施の形態で説明したように、AFエリアを該検出した顔の位置に表示させることにより、検出された顔を区別表示させる。
次いで、ステップS135で、CPU10の個人認識手段102は制御手段103の制御によって、該検出された顔に基づいて個人認識対象として設定された登録人物名の個人認識処理を開始する。この個人認識処理は、上記第1の実施の形態で説明したように、単に人の顔が画像内にあるかどうかを検出するだけでなく、被写体の顔が誰の顔であるかを具体的に認識する処理を行う。つまり、該認識した顔から複数の顔の特徴点を抽出し、それら特徴点の座標位置や相対位置関係の数値データを算出し、これをバッファメモリに記憶されている顔特徴データ(個人認識対象として設定された人物名に関連付けて記録されている顔特徴データ)と比較照合することにより、個人認識を行なう。これにより、個人認識対象として設定されている登録人物名の顔が撮像されたフレーム画像内にあるか否かを認識することになる。
次いで、ステップS136で、CPU10は、個人認識された顔と顔検出のみされた顔とを差別表示させる処理を開始する。この差別表示も、上記第1の実施の形態のステップS34で説明した方法等により行なう。
次いで、ステップS137で、CPU10は、ユーザによって連写速度の設定変更が行なわれたか否かを判断する。
このとき、ユーザは、スルー画像表示中において、連写速度変更キーの操作を行なうと、スルー画像に重ねて複数の連写速度(毎秒2回、毎秒4、毎秒8回等の連写速度)が画像表示部15に表示される。そして、ユーザが十字キー、SETキーの操作を行なうことにより、該表示された複数の連写速度の中から任意の連写速度を指定することができ、該一連の操作が行なわれると、CPU10は、該連写速度の変更が行なわれたと判断する。この任意の連写速度の指定を具体的に説明すると、十字キーの「→」又は「↓」キーの操作が行なわれると、選択される連写速度は、「毎秒2回」→「毎秒4回」→「毎秒8回」という順番に変わっていき、SETキーの操作が行われることにより、現在選択されている連写速度を指定することができる。
ステップS137で、連写速度の変更が行なわれたと判断すると、ステップS138に進み、CPU10は、連写速度の設定を、該指定された連写速度に変更して、ステップS139に進む。
一方、ステップS137で、連写速度の設定変更が行なわれていないと判断するとそのままステップS139に進む。
ステップS139に進むと、CPU10は、シャッタボタンが半押しされたか否かを判断する。
ステップS139で、シャッタボタンが半押しされていないと判断するとステップS137に戻る。これにより、シャッタボタンを半押しするまで、ユーザは自由に連写速度を設定変更することができる。
一方、ステップS139で、シャッタボタンが半押しされたと判断すると、ステップS140に進み、CPU10は、シャッタボタン半押し直前に個人認識された顔があるか否かを判断する。
ステップS140で、シャッタボタン半押し直前に個人認識されている顔があると判断すると、ステップS141に進み、該個人認識された全ての顔が被写界深度に入るようにAF処理を行う。つまり、シャッタ半押し直前に差別表示されていた全てのAFエリアにピントが合うようにAF処理を行う。
次いで、ステップS142で、CPU10は、シャッタボタン半押し押し直前に該個人認識された顔を重点に露出条件を設定して、ステップS145に進む。
一方、ステップS140で、シャッタボタン半押し直前に個人認識されている顔がないと判断すると、ステップS143に進み、シャッタボタン半押し直前に該顔検出された全ての顔が被写界深度に入るようにAF処理を行う。
次いで、ステップS144で、シャッタボタン半押し直前に顔検出された顔を重点に露出条件を設定して、ステップS145に進む。
ステップS145に進むと、CPU10は、シャッタボタンが全押しされたか否かを判断する。
ステップS145で、シャッタボタンが全押しされていないと判断すると全押しされるまでステップS145に留まり、シャッタボタンが全押しされたと判断すると、図10のステップS146に進み、CPU10は、現在設定されている連写速度が所定速度より速いか否かを判断する。
ステップS146で、現在設定されている連写速度が所定速度より速くないと判断すると、ステップS147に進み、CPU10の顔検出手段101は制御手段103の制御によって、顔検出処理を開始する。
この顔検出処理は、上記第1の実施の形態で説明したように、予め記憶されている一般的な人の顔の特徴データと該静止画像データとを比較照合することにより該静止画像データの中に人の顔の画像データがあるか否かを検出する。
次いで、ステップS148で、CPU10は、該顔検出された顔の区別表示処理を開始する。ここでも、上記第1の実施の形態で説明したように、AFエリア(AF枠)を該検出した顔の位置に表示させることにより、検出された顔を区別表示させる。
次いで、ステップS149で、CPU10の個人認識手段102は制御手段103の制御によって現在検出されている顔に基づいて個人認識処理を開始させる。この個人認識処理も第1の実施の形態で説明したように、この個人認識処理は、上記第1の実施の形態で説明したように、単に人の顔が画像内にあるかどうかを検出するだけでなく、被写体の顔が誰の顔であるかを具体的に認識する処理を行う。つまり、該認識した顔から複数の顔の特徴点を抽出し、それら特徴点の座標位置や相対位置関係の数値データを算出し、これをバッファメモリに記憶されている顔特徴データ(個人認識対象として設定された人物名に関連付けて記録されている顔特徴データ)と比較照合することにより、個人認識を行なう。
次いで、ステップS150で、CPU10は、個人認識された顔と顔検出のみされた顔とを差別表示させる処理を開始して、ステップS153に進む。この差別表示も、上記第1の実施の形態のステップS34で説明した方法等により行なう。
一方、ステップS146で、現在設定されている連写速度が所定速度より速いと判断すると、ステップS151に進み、CPU10の顔検出手段101は制御手段103の制御によって、顔検出処理を開始する。
この顔検出処理は、上記第1の実施の形態で説明したように、予め記憶されている一般的な人の顔の特徴データと該静止画像データとを比較照合することにより該静止画像データの中に人の顔の画像データがあるか否かを検出する。
次いで、ステップS152で、CPU10は、該顔検出された顔の区別表示処理を開始して、ステップS153に進む。ここでも、上記第1の実施の形態で説明したように、AFエリアを該検出した顔の位置に表示させることにより、検出された顔を区別表示させる。
このように、連写速度が所定速度より遅い場合は、顔検出処理と個人認識処理の両方を行い、連写速度が所定速度より速い場合は、顔検出処理のみを行うことになる。連写速度が所定速度より速い場合に、顔検出と個人認識との両方を行なうと処理負担が過度に増大するため、顔検出処理のみを行うことにより処理負担を軽減することができる。
なお、連写速度(撮影条件)に応じて、個人認識処理を行ったり、行なわなかったりするようにしたが、連写撮影の場合は、一律に個人認識処理を行わずに、顔検出処理のみを行うようにしてもよい。
ステップS153に進むと、CPU10は、ステップS142又はステップS144で設定された露出条件で静止画撮影処理を行う。なお、このとき、直近に個人認識されていた顔がある場合、又は、該静止画撮影処理により得られた静止画像データに個人認識された顔がある場合は、撮影処理により得られバッファメモリに記憶されている静止画像データに関連付けて該個人認識された顔の登録人物名も記憶させるようにしてもよい。
次いで、ステップS154に進み、CPU10は、ユーザによってシャッタボタンの全押しが解除されたか否かを判断する。つまり、シャッタボタンの全押し操作に対応する操作信号がキー入力部11から送られてこなくなったか否かにより全押しが解除されたか否かを判断する。
ステップS154で、シャッタボタンの全押しが解除されていないと判断すると、ステップS155に進み、CPU10は、撮影周期が到来したか否かを判断する。この撮影周期は、設定されている連写速度によって定まる。例えば、連写速度として毎秒2回と設定されている場合は、撮影周期は、1/2秒ということになる。
ステップS155で、撮影周期が到来していないと判断するとステップS154に戻り、撮影周期が到来したと判断すると、ステップS156に進み、CPU10は、直近のステップS153の動作により撮影された静止画像データに個人認識された顔があるか否かを判断する。
ステップS156で、個人認識された顔があると判断すると、ステップS157に進み、CPU10は、該個人認識された顔を重点に露出条件を設定して、つまり、直近に撮影された静止画像データの輝度成分のうち、該個人認識された顔の位置付近の領域の輝度成分の重み付けを大きくし、該個人認識された顔の位置付近の領域以外の輝度成分の重み付けを小さくして平均値をとった値に基づいて露出量を算出して露出条件を設定して、ステップS153に戻り、静止画撮影処理を行う。なお、このときも、撮影処理により得られバッファメモリに記憶されている静止画像データに関連付けて該個人認識された登録人物名も記憶させるようにしてもよい。
一方、ステップS156で、個人認識された顔がないと判断すると、ステップS158に進み、CPU10は、顔検出処理により検出された直近のステップS153の動作により撮像された画像データ内にある顔を重点に露出条件を設定して、つまり、直近に撮影された静止画像データの輝度成分のうち、該顔検出された顔の位置付近の領域の輝度成分の重み付けを大きくし、該顔検出された顔の位置付近の領域以外の輝度成分の重み付けを小さくして平均値をとった値に基づいて露出量を算出して露出条件を設定して、ステップS153に戻り、静止画撮影処理を行う。
一方、ステップS154で、シャッタボタンの全押しが解除されたと判断すると、ステップS159に進み、CPU10は、撮影された各静止画像データを圧縮してフラッシュメモリ14に記録させて、ステップS101に戻る。なお、このときも、登録人物名が関連付けて記憶されている静止画像データに関しては、該登録人物名を関連付けてフラッシュメモリ14に記録するようにしてもよい。
一方、ステップS131で、連写撮影でないと判断すると、現在設定されている撮影の種類が、単数撮影であると判断して、図11のステップ161に進み、CPU10は、現在設定されている静止画像データの記録サイズが所定サイズより大きいか否かを判断する。この静止画像データの記録サイズは設定モード等においてユーザが任意のサイズに設定変更することができる。
ステップS161で、記録サイズが所定サイズより大きくないと判断すると、図3のステップS29に進み、上記第1の実施の形態で説明した動作と同様の動作を行なう。
一方、ステップS161で、記録サイズが所定サイズより大きいと判断すると、ステップS162に進み、CPU10は、スルー画像表示を開始する。
次いで、ステップS163で、CPU10の顔検出手段101は制御手段103の制御によって、顔検出処理を開始する。
この顔検出処理は、上記第1の実施の形態で説明したように、予め記憶されている一般的な人の顔の特徴データと該静止画像データとを比較照合することにより該静止画像データの中に人の顔の画像データがあるか否かを検出する。
次いで、ステップS164で、CPU10は、該顔検出された顔の区別表示処理を開始する。ここでも、上記第1の実施の形態で説明したように、AFエリアを該検出した顔の位置に表示させることにより、検出された顔を区別表示させる。
次いで、ステップS165で、CPU10は、シャッタボタンが半押しされたか否かを判断する。
ステップS165で、シャッタボタンが半押しされていないと判断すると、半押しされるまでステップS165に留まり、シャッタボタンが半押しされたと判断すると、ステップS166に進み、該検出された全ての顔が被写界深度に入るようにAF処理を行う。
次いで、ステップS167で、CPU10は、該顔検出された顔を重点に露出条件を設定する。
次いで、ステップS168で、CPU10は、シャッタボタンが全押しされたか否かを判断する。
ステップS168で、シャッタボタンが全押しされていないと判断するとシャッタボタンが全押しされるまでステップS168に留まり、シャッタボタンが全押しされたと判断すると、ステップS169に進み、CPU10は、該設定された露出条件で静止画撮影処理を行う。
次いで、ステップS170で、CPU10は、該撮影処理により得られた静止画像データを圧縮して、フラッシュメモリ14に記録して、ステップS101に戻る。
つまり、単写撮影の場合、記録画像サイズ(撮影条件)が所定サイズより大きい場合は、たとえ、個人認識対象として登録人物名が設定されていた場合であっても、個人認識は行なわずに、顔検出のみを行なうことになる。
なお、単写撮影の場合は、画像の記録サイズにかかわらず、顔検出と個人認識の両方を行なうようにしてもよい。つまり、図3のステップS29へ進むようにしてもよい。
以上のように、第2の実施の形態においては、顔検出処理を行うとともに、撮影の種類や撮影条件に応じて個人認識処理を制御するので、顔認識処理に係る負担の増大を効率よく抑えることができる。つまり、動画撮影中や所定速度以上の連写撮影の場合、記録サイズが所定サイズ以上の単写撮影の場合は、処理負担が大きいので個人認識処理を行わないことにより撮影等の処理をスムーズに行うことができ、被写体追従撮影の場合は、個人認識された顔に対しては以後、処理負担の軽い顔検出処理を行うようにしたので、被写体追従や撮影をスムーズに行なうことができ、スルー画像表示時や所定速度以下の連写撮影の場合や記録サイズが所定サイズ以下の場合は、処理負担が小さいので顔検出処理と個人認識処理の両方を行なうことにより、確実に具体的に被写体の顔を認識することができ、顔認識処理に係る負担の増大を効率よく抑えることができる。
[変形例]
C.上記実施の形態は以下のような態様でもよい。
(01)上記各実施の形態において、スルー画像表示時や動画記録時の動画撮像の周期(フレームレート)や、スルー画像表示時や動画記録時の動画撮像のシャッタ速度、連写速度、画像サイズ、画質、ストロボ撮影か否か等の撮影条件をCPU10が設定し、該設定された撮影条件に応じて、顔検出処理や個人認識処理の精度を変えるようにしてもよい。順次撮像されるフレーム画像データに基づいて、顔検出処理や個人認識処理などを行うので、フレームレートが高い場合や連写速度が速い場合においても同じ精度で顔検出や個人認識を行なうと処理負担が増大するからである。これにより、顔認識処理に係る負担の増大を効率よく抑えることができる
この顔検出処理の精度を異ならせる方法としては、顔検出するための顔のパーツを減らしたり、増やしたりすることにより精度を変えることができる。例えば、検出処理の精度を低くする場合は、目と口のみを検出し、目と口とを検出した場合は顔と判断し、徐々に検出処理の精度を高くするにつれて、目と口と眉毛というように、顔のパーツを増やすようにしてもよい。
また、個人認識処理の精度を異ならせる方法としては、各顔のパーツ毎に抽出する特徴点の数や、特徴点を抽出するパーツの数を減らしたりすることにより精度を低くすることができる。
図12は、個人認識処理の精度によって抽出される特徴点の様子を示す図である。
図12(a)は個人認識処理の精度が高いときに抽出される特徴点の例を示すものであり、(c)は個人認識処理の精度が低いときに抽出される特徴点の例を示すものであり、(b)は個人認識処理の精度がその中間のときに抽出される特徴点の例を示すものである。
図12を見ると分かるように、精度が低くなればなるほど、各顔のパーツから抽出される特徴点が少なくなるとともに、特徴点が抽出される顔のパーツの数も少なくっているのがわかる。
また、個人認識処理の精度を異ならせる他の方法として、登録人物名に関連付けて記録されている顔特徴データと、個人認識処理により画像データから抽出された特徴点の座標位置や相対位置関係の数値データとを比較照合し、それらが一致すると判断する誤差範囲を異ならせるようにしてもよい。例えば、個人認識処理の精度がある程度高い場合は、顔特徴データと算出された数値データとが略一致する場合に一致すると判断し、逆に個人認識処理の精度が低い場合は、顔特徴データと算出された数値データとが極端にズレない範囲なら一致すると判断する。
また、撮影の種類に応じて、顔検出処理や個人認識処理の精度を変えるようにしてもよい。
(02)上記各実施の形態において、スルー画像表示時や動画記録時の動画撮像の周期(フレームレート)や、スルー画像表示時や動画記録時の動画撮像のシャッタ速度、連写速度、画像サイズ、画質、ストロボ撮影か否か等の撮影条件に応じて、個人認識処理により認識する顔の数を変えるようにしてもよい。つまり、フレームレートが高い場合、シャッタ速度が速い場合、画像サイズが大きい場合、高画質の場合、ストロボ撮影の場合等、撮影条件に基づく撮像処理負担が大きい場合は、個人認識処理により認識可能な顔の数を少なくし、撮影条件に基づく撮像処理負担が小さい場合は、個人認識処理により認識可能な顔の数を大きくする。顔認識処理に係る負担の増大を効率よく抑えることができる
この個人認識する顔の数を減らす方法としては、比較照合する個人認識対象となっている登録人物名の顔の数を変える方法と、検出した顔のうち、特徴点を抽出する顔の数を減らす方法とがある。
例えば、個人認識対象となっている登録人物名の顔の数を変える方法の場合は、撮影条件に基づく撮像処理負担が大きい場合は、個人認識対象として設定されている登録人物名が2以上いる場合であっても、個人認識する登録人物名の顔を1、又は2つにする。
また、検出した顔のうち、特徴点を抽出する顔の数を減らす方法の場合は、例えば、2つ以上の顔が検出されても、撮影条件に基づく撮像処理負担が大きい場合は、特徴点を抽出する顔の数を1つ又は2つにし、該抽出した特徴点の座標位置や相対位置関係の数値データと、個人認識対象として設定されている登録人物名の顔特徴データとを比較照合することにより個人認識処理を行う。
また、撮影の種類に応じて、個人認識処理により認識する顔の数を変えるようにしてもよい。
(03)上記第2の実施の形態においては、撮影の種類に応じて、顔検出処理のみを行なったり、個人認識処理も行なったりするようにしたが、スルー画像表示時や動画記録時の動画撮像の周期(フレームレート)や、スルー画像表示時や動画記録時の動画撮像のシャッタ速度、連写速度、画像サイズ、画質、ストロボ撮影か否か等の撮影条件に応じて、個人認識のみを行なったり、個人認識処理も行なったりするようにしてもよい。これにより、顔認識処理に係る負担の増大を効率よく抑えることができる
例えば、撮影条件に基づく撮影処理負担が大きい場合は、顔検出処理のみを行うようにし、撮影条件に基づく撮影処理負担が小さい場合は顔検出処理と個人認識処理とを行なうようにしてもよい。
(04)上記第2の実施の形態においては、撮影の種類に応じて、顔検出処理のみを行なったり、個人認識処理も行なったりするようにしたが、撮影の種類にかかわらず顔検出処理と個人認識処理との両方の処理を行うようにしてもよい。
この場合は、撮影の種類に応じて顔検出処理、個人認識処理の精度を変えたり、個人認識処理により認識される登録人物名の顔の数を変えるようにしてもよい。
また、上記変形例(1)、(2)のように、動画撮像の周期(フレームレート)や、動画撮像のシャッタ速度、連写速度、画像サイズ、画質、ストロボ撮影か否か等の撮影条件に応じて、顔検出処理や個人認識処理の精度を変えるようにしてもよいし、個人認識処理により認識する登録人物名の顔の数を変えるようにしてもよい。
(05)上記変形例(01)〜(04)をまとめると、要は、つまり、撮影の種類、撮影条件等の撮影の条件に応じて(所定の条件を満たすか否かによって)、個人認識を行なうか否かを制御したり、顔検出処理の精度、個人認識処理の精度を変えたり、個人認識する顔の数を変えるものであればよいので、例えば、周期的に顔検出された顔、若しくは周期的に個人認識された顔にコンティニュアス的にAF処理を行っている否か(被写体に追従してAF処理を行っているか否か)によって、個人認識処理を行うか否かを制御したり、顔検出処理の精度、個人認識処理の精度を変えたり、個人認識する顔の数を変えるようにしてもよい。これにより、顔認識処理に係る負担の増大を効率よく抑えることができる
(06)上記各実施の形態においては、顔検出処理により検出された顔を区別表示させるようにしたが、区別表示させないようにしてもよい。この場合は、個人認識されて初めて該認識された顔を区別表示、差別表示させることになる。
また、個人認識された顔を差別表示させないようにしてもよい。
(07)上記各実施の形態においては、個人認識処理は、顔検出処理を行なってから行なうようにしたが、個人認識処理を行う場合は顔検出処理を行わないようにしてもよい。つまり、2者択一でどちらか一方を行なうようにしてもよい。個人認識処理のみを行う場合であっても、当然に顔は検出されるからである。
(08)上記各実施の形態においては、被写体の移動速度や、被写体までの距離、被写体の明るさ等の撮影状況(撮影の条件)に応じて(所定の条件を満たすか否かによって)、顔検出する顔の数、個人認識する顔の数を少なくしたり、画像データの全範囲のうち顔を顔検出する画像領域、個人認識する画像領域の大きさを小さくしたり、特徴点が抽出される顔のパーツの数、抽出される特徴点の数を小さくしたり、個人認識処理により画像データから抽出された特徴点の座標位置や相対位置関係の数値データと顔特徴データとが一致判断する誤差範囲を大きくしたりするようにしてもよい。
また、被写体追従を行なっている場合、つまり、第2の顔検出処理を行っている場合や、被写体に追従してコンティニュアスAFを行なっている場合も、撮影状況に応じて、顔検出する顔の数、個人認識する顔の数を少なくしたり、画像データの全範囲のうち顔を顔検出する画像領域、個人認識する画像領域の大きさを小さくしたり、特徴点が抽出される顔のパーツの数、抽出される特徴点の数を小さくしたり、個人認識処理により画像データから抽出された特徴点の座標位置や相対位置関係の数値データと顔特徴データとが一致判断する誤差範囲を大きくしたりするようにしてもよいことは言うまでもない。
(09)また、上記各実施の形態は、上記変形例(01)〜(08)を任意に組み合わせた態様であってもよい。
(10)また、本発明の上記実施形態は、何れも最良の実施形態としての単なる例に過ぎず、本発明の原理や構造等をより良く理解することができるようにするために述べられたものであって、添付の特許請求の範囲を限定する趣旨のものでない。
したがって、本発明の上記実施形態に対してなされ得る多種多様な変形ないし修正はすべて本発明の範囲内に含まれるものであり、添付の特許請求の範囲によって保護されるものと解さなければならない。
最後に、上記各実施の形態においては、本発明の撮像装置をデジタルカメラ1に適用した場合について説明したが、上記の実施の形態に限定されるものではなく、要は、画像を撮像し顔を認識することができる機器であれば適用可能である。
本発明の実施の形態のデジタルカメラのブロック図である。 第1の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 第1の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 第1の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 顔登録を説明するための図である。 区別表示、差別表示される顔の様子を示すものである。 第2の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 第2の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 第2の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 第2の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 第2の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 個人認識処理の精度によって抽出される特徴点の様子を示す図である。
符号の説明
1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り
5 CCD
6 ドライバ
7 TG
8 ユニット回路
9 画像生成部
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 フラッシュメモリ
15 画像表示部
16 バス

Claims (18)

  1. 被写体を撮像する撮像手段と、
    撮影の条件を判定する判定手段と、
    前記撮像手段により撮像された画像データ内にある顔を検出する第1の顔検出手段と、
    前記撮像手段により撮像された画像データ内にある顔が誰なのかを認識する個人認識手段と、
    前記判定手段による判定結果に基づいて、前記第1の顔検出手段による検出の実行、及び/又は、前記個人認識手段による認識の実行を制御する制御手段と、
    を備えたことを特徴とする撮像装置。
  2. 撮影の種類を設定する設定手段を備え、
    前記判定手段は、
    前記設定手段により設定された撮影の種類に基づいて、撮影の条件を判定することを特徴とする請求項1記載の撮像装置。
  3. 前記設定手段は、
    撮影の種類として、スルー画像撮影、動画撮影、被写体追従撮影、連写撮影、単写撮影のうち、何れか1つの種類を設定することを特徴とする請求項2記載の撮像装置。
  4. 撮影条件を設定する撮影条件設定手段を備え、
    前記判定手段は、
    前記撮影条件設定手段により設定された撮影条件に基づいて、撮影の条件を判定することを特徴とする請求項1乃至3の何れかに記載の撮像装置。
  5. 前記撮影条件設定手段は、
    動画撮像のフレームレート、動画撮像のシャッタ速度、連写速度、記録画像サイズ、ストロボ発光か否かのうち、1つ以上の撮影条件を設定することを特徴とする請求項4記載の撮像装置。
  6. 前記判定手段は、
    被写体に追従してAF処理を行っているか否かに基づいて、撮影の条件を判定することを特徴する請求項1乃至5の何れかに記載の撮像装置。
  7. 前記制御手段は、
    前記判定手段による判定結果に基づいて、前記個人認識手段による認識の実行、非実行を制御することを特徴とする請求項1乃至6の何れかに記載の撮像装置。
  8. 前記個人認識手段により認識された顔の画像データに基づいて前記撮像手段により撮像された画像データ内のどこに顔が移動したかを検出する第2の顔検出手段を備え、
    前記制御手段は、
    前記判定手段による判定結果に基づいて、前記個人認識手段による認識を終了させて前記第2の顔検出手段を実行させるように制御することを特徴とする請求項7記載の撮像装置。
  9. 前記制御手段は、
    前記判定手段による判定結果に基づいて、前記第1の顔検出手段による検出の精度、及び/又は、前記個人認識手段による認識の精度の高さを変えることを特徴とする請求項1乃至8の何れかに記載の撮像装置。
  10. 前記制御手段は、
    前記判定手段による判定結果に基づいて、検出する顔のパーツの数を変えることにより、前記第1の顔検出手段による検出の精度、及び/又は、前記個人認識手段による認識の精度の高さを変えることを特徴とする請求項9記載の撮像装置。
  11. 前記個人認識手段は、
    前記第1の顔検出手段により検出された顔のパーツの特徴点を抽出することにより、該顔が誰なのかを認識し、
    前記制御手段は、
    前記判定手段による判定結果に基づいて、特徴点を抽出する顔のパーツの数、及び/又は、抽出する特徴点の数を変えることにより、前記第1の顔検出手段による検出の精度、及び/又は、前記個人認識手段による認識の精度の高さを変えることを特徴とする請求項9記載の撮像装置。
  12. 前記制御手段は、
    前記判定手段による判定結果に基づいて、前記第1の顔検出手段により検出される顔の数、及び/又は、前記個人認識手段により認識される顔の数を変えることにより、該第1の顔検出手段による検出の精度、及び/又は、個人認識手段による認識の精度を変えることを特徴とする請求項9記載の撮像装置。
  13. 前記撮像手段により撮像された画像データを表示手段に表示させる表示制御手段を備えることを特徴とする請求項1乃至12の何れかに記載の撮像装置。
  14. 前記表示制御手段は、
    前記第1の顔検出手段により検出された顔を区別表示させることを特徴とする請求項13記載の撮像装置。
  15. 前記表示制御手段は、
    前記個人認識手段により認識された顔を差別表示させることを特徴とする請求項13又は14記載の撮像装置。
  16. 被写体に対してオートフォーカスを行なうオートフォーカス制御手段を備え、
    前記オートフォーカス制御手段は、
    前記個人認識手段により誰の顔か認識された場合は、認識された顔にピントが合うようにオートフォーカスを行ない、該個人認識手段により誰の顔が認識されなかった場合は、前記第1の顔検出手段により検出された顔にピントが合うようにオートフォーカスを行なうことを特徴とする請求項1乃至15の何れかに記載の撮像装置。
  17. 露出条件を設定する露出条件設定手段を備え、
    前記露出条件設定手段は、
    前記個人認識手段により誰の顔か認識された場合は、認識された顔を重点に露出条件を設定し、該個人認識手段により誰の顔が認識されなかった場合は、前記第1の顔検出手段により検出された顔を重点に露出条件を設定することを特徴とする請求項1乃至16の何れかに記載の撮像装置。
  18. 被写体を撮像する撮像処理と、
    撮影の条件を判定する判定処理と、
    前記撮像処理により撮像された画像データに基づいて、顔を検出する顔検出処理と、
    前記撮像処理により撮像された画像データ内にある顔が誰なのかを認識する個人認識処理と、
    前記判定処理による判定結果に基づいて、前記検出処理による検出の実行、及び/又は、前記個人認識処理による認識の実行を制御する制御処理と、
    を含み、上記各処理をコンピュータで実行させることを特徴とするプログラム。

JP2007107278A 2007-04-16 2007-04-16 撮像装置及びそのプログラム Expired - Fee Related JP4900014B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007107278A JP4900014B2 (ja) 2007-04-16 2007-04-16 撮像装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007107278A JP4900014B2 (ja) 2007-04-16 2007-04-16 撮像装置及びそのプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011283533A Division JP5375943B2 (ja) 2011-12-26 2011-12-26 撮像装置及びそのプログラム

Publications (3)

Publication Number Publication Date
JP2008270896A true JP2008270896A (ja) 2008-11-06
JP2008270896A5 JP2008270896A5 (ja) 2010-05-20
JP4900014B2 JP4900014B2 (ja) 2012-03-21

Family

ID=40049874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007107278A Expired - Fee Related JP4900014B2 (ja) 2007-04-16 2007-04-16 撮像装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP4900014B2 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2187625A1 (en) * 2008-11-12 2010-05-19 Fujinon Corporation Autofocus system
EP2187624A1 (en) * 2008-11-18 2010-05-19 Fujinon Corporation Autofocus system
JP2010117663A (ja) * 2008-11-14 2010-05-27 Fujinon Corp オートフォーカスシステム
JP2010160271A (ja) * 2009-01-07 2010-07-22 Canon Inc 撮像装置
JP2010251866A (ja) * 2009-04-10 2010-11-04 Canon Inc 画像処理装置及びその制御方法、コンピュータプログラム
JP2011075832A (ja) * 2009-09-30 2011-04-14 Canon Inc 撮影システム及びレンズ装置
EP2339826A1 (en) * 2009-11-17 2011-06-29 Fujifilm Corporation Autofocus system
WO2012116347A1 (en) * 2011-02-24 2012-08-30 Qualcomm Incorporated Auto-focus tracking
US8339448B2 (en) 2009-01-26 2012-12-25 Panasonic Corporation Imaging apparatus
JP2013138315A (ja) * 2011-12-28 2013-07-11 Canon Inc 撮像装置およびその制御方法
JP2013254432A (ja) * 2012-06-08 2013-12-19 Canon Inc 画像処理装置及び画像処理方法
WO2014084249A1 (ja) * 2012-11-28 2014-06-05 Necカシオモバイルコミュニケーションズ株式会社 顔認証装置、認証方法とそのプログラム、情報機器
JP2014235183A (ja) * 2013-05-30 2014-12-15 株式会社ニコン 撮像装置
JP2016072965A (ja) * 2014-09-29 2016-05-09 パナソニックIpマネジメント株式会社 撮像装置
US9621857B2 (en) 2013-08-05 2017-04-11 Canon Kabushiki Kaisha Setting apparatus, method, and storage medium
JP2017076901A (ja) * 2015-10-15 2017-04-20 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
KR102057581B1 (ko) * 2013-04-16 2019-12-19 삼성전자 주식회사 카메라를 구비하는 장치의 자동 포커싱 장치 및 방법
US12125312B2 (en) 2012-11-28 2024-10-22 Nec Corporation Decreasing lighting-induced false facial recognition

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330882A (ja) * 2000-05-24 2001-11-30 Canon Inc 被写体認識機能付きカメラ
JP2006101186A (ja) * 2004-09-29 2006-04-13 Nikon Corp カメラ
JP2007074142A (ja) * 2005-09-05 2007-03-22 Canon Inc 撮像装置及びその制御方法、及び画像処理装置及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330882A (ja) * 2000-05-24 2001-11-30 Canon Inc 被写体認識機能付きカメラ
JP2006101186A (ja) * 2004-09-29 2006-04-13 Nikon Corp カメラ
JP2007074142A (ja) * 2005-09-05 2007-03-22 Canon Inc 撮像装置及びその制御方法、及び画像処理装置及び方法

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2187625A1 (en) * 2008-11-12 2010-05-19 Fujinon Corporation Autofocus system
JP2010117663A (ja) * 2008-11-14 2010-05-27 Fujinon Corp オートフォーカスシステム
EP2187624A1 (en) * 2008-11-18 2010-05-19 Fujinon Corporation Autofocus system
JP2010160271A (ja) * 2009-01-07 2010-07-22 Canon Inc 撮像装置
US8339448B2 (en) 2009-01-26 2012-12-25 Panasonic Corporation Imaging apparatus
US9197818B2 (en) 2009-01-26 2015-11-24 Panasonic Intellectual Property Corporation Of America Imaging apparatus
JP2010251866A (ja) * 2009-04-10 2010-11-04 Canon Inc 画像処理装置及びその制御方法、コンピュータプログラム
JP2011075832A (ja) * 2009-09-30 2011-04-14 Canon Inc 撮影システム及びレンズ装置
US8310652B2 (en) 2009-09-30 2012-11-13 Canon Kabushiki Kaisha Image taking system and lens apparatus
US8643766B2 (en) 2009-11-17 2014-02-04 Fujifilm Corporation Autofocus system equipped with a face recognition and tracking function
EP2339826A1 (en) * 2009-11-17 2011-06-29 Fujifilm Corporation Autofocus system
US9077890B2 (en) 2011-02-24 2015-07-07 Qualcomm Incorporated Auto-focus tracking
WO2012116347A1 (en) * 2011-02-24 2012-08-30 Qualcomm Incorporated Auto-focus tracking
JP2013138315A (ja) * 2011-12-28 2013-07-11 Canon Inc 撮像装置およびその制御方法
JP2013254432A (ja) * 2012-06-08 2013-12-19 Canon Inc 画像処理装置及び画像処理方法
US10303926B2 (en) 2012-11-28 2019-05-28 Nec Corporation Decreasing lighting-induced false facial recognition
JP2014106794A (ja) * 2012-11-28 2014-06-09 Nec Casio Mobile Communications Ltd 顔認証装置、認証方法とそのプログラム、情報機器
US10083344B2 (en) 2012-11-28 2018-09-25 Nec Corporation Facial recognition apparatus, recognition method and program therefor, and information device
WO2014084249A1 (ja) * 2012-11-28 2014-06-05 Necカシオモバイルコミュニケーションズ株式会社 顔認証装置、認証方法とそのプログラム、情報機器
US10956715B2 (en) 2012-11-28 2021-03-23 Nec Corporation Decreasing lighting-induced false facial recognition
US12125312B2 (en) 2012-11-28 2024-10-22 Nec Corporation Decreasing lighting-induced false facial recognition
KR102057581B1 (ko) * 2013-04-16 2019-12-19 삼성전자 주식회사 카메라를 구비하는 장치의 자동 포커싱 장치 및 방법
JP2014235183A (ja) * 2013-05-30 2014-12-15 株式会社ニコン 撮像装置
US9621857B2 (en) 2013-08-05 2017-04-11 Canon Kabushiki Kaisha Setting apparatus, method, and storage medium
JP2016072965A (ja) * 2014-09-29 2016-05-09 パナソニックIpマネジメント株式会社 撮像装置
JP2017076901A (ja) * 2015-10-15 2017-04-20 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP4900014B2 (ja) 2012-03-21

Similar Documents

Publication Publication Date Title
JP4900014B2 (ja) 撮像装置及びそのプログラム
US7791668B2 (en) Digital camera
US8300112B2 (en) Image processing apparatus and control method therefor
JP5251215B2 (ja) デジタルカメラ
JP4819001B2 (ja) 撮影装置および方法並びにプログラム、画像処理装置および方法並びにプログラム
US8786760B2 (en) Digital photographing apparatus and method using face recognition function
US8831282B2 (en) Imaging device including a face detector
JP5293206B2 (ja) 画像検索装置、画像検索方法及びプログラム
US20120206619A1 (en) Image processing apparatus, image capturing apparatus and recording medium
JP5446076B2 (ja) デジタルカメラ
JP2008289004A (ja) 撮像装置及びそのプログラム
US8830374B2 (en) Image capture device with first and second detecting sections for detecting features
JP2007010898A (ja) 撮像装置及びそのプログラム
JP4552997B2 (ja) 撮像装置及びプログラム
JP5030022B2 (ja) 撮像装置及びそのプログラム
KR20110032250A (ko) 자동 초점 조절 방법, 상기 방법을 기록한 기록 매체, 및 상기 방법을 실행하는 자동 초점 조절 장치
JP2008085737A (ja) 電子カメラ
JP4853707B2 (ja) 撮像装置及びそのプログラム
JP2007129310A (ja) 撮像装置
JP2007249000A (ja) 撮像装置、撮像方法および撮像プログラム
JP5375943B2 (ja) 撮像装置及びそのプログラム
JP2009252069A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP7342883B2 (ja) 撮像制御装置、撮像装置、撮像制御方法
JP4254467B2 (ja) デジタルカメラ
JP5293769B2 (ja) 撮像装置及びそのプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100405

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111219

R150 Certificate of patent or registration of utility model

Ref document number: 4900014

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees