JP2011193063A - 電子カメラ - Google Patents

電子カメラ Download PDF

Info

Publication number
JP2011193063A
JP2011193063A JP2010055213A JP2010055213A JP2011193063A JP 2011193063 A JP2011193063 A JP 2011193063A JP 2010055213 A JP2010055213 A JP 2010055213A JP 2010055213 A JP2010055213 A JP 2010055213A JP 2011193063 A JP2011193063 A JP 2011193063A
Authority
JP
Japan
Prior art keywords
face
search
image
result
specific object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010055213A
Other languages
English (en)
Inventor
Masayoshi Okamoto
正義 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010055213A priority Critical patent/JP2011193063A/ja
Priority to US13/043,108 priority patent/US8466981B2/en
Publication of JP2011193063A publication Critical patent/JP2011193063A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】記録被写界像の品質を向上させることができる、電子カメラを提供する。
【解決手段】写界を捉える撮像面で生成された被写界像を繰り返し出力する撮像手段16、撮像手段から出力された被写界像から特定物体像を探索する処理を互いに異なる姿勢を各々が有する複数の参照用特定物体像を利用して繰り返し実行する探索手段、被写界に存在する特定物体の数を探索手段の探索結果に基づいて検出する検出手段、検出手段によって検出された数に相当する特定物体のいずれもが姿勢条件を満足するか否かを探索手段の探索結果に基づいて繰り返し判別する判別手段、および判別手段の判別結果が否定的な結果から肯定的な結果に更新されたとき撮像手段から出力された被写界像を記録する記録手段を備える。
【効果】記録被写界像の品質を改善することができる。
【選択図】図2

Description

この発明は、電子カメラに関し、特に、特定物体像を被写界像から探索する、電子カメラに関する。
この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、被写界像は、イメージセンサから繰り返し出力される。CPUは、撮像面を向く顔画像がイメージセンサから出力された被写界像に現れているか否かを、シャッタボタンの半押しに先立って繰り返し判別する。判別結果を含む顔検出履歴は、CPUによって顔検出履歴テーブルに記述される。CPUは、シャッタボタンが半押しされたとき、顔検出履歴テーブルに記述された顔検出履歴に基づいて顔画像位置を決定する。フォーカスなどの撮像条件は、決定された顔画像位置に注目して調整される。これによって、撮像条件を顔画像に注目して調整することができる。
特開2008−187412号公報
しかし、背景技術では、被写体が複数ある場合に、それらの存在が認識されるか不明である。また、被写体の顔が検出されて履歴に記録されている場合、その後当該被写体が顔を横に向けたにもかかわらず撮影が行われてしまう。これらによって記録被写界像の品質が低下するおそれがある。
それゆえに、この発明の主たる目的は、記録被写界像の品質を向上させることができる、電子カメラを提供することである。
この発明に従う電子カメラ(10:実施例で相当する参照符号。以下同じ)は、被写界を捉える撮像面で生成された被写界像を繰り返し出力する撮像手段(16)、撮像手段から出力された被写界像から特定物体像を探索する処理を互いに異なる姿勢を各々が有する複数の参照用特定物体像を利用して繰り返し実行する探索手段(S29)、被写界に存在する特定物体の数を探索手段の探索結果に基づいて検出する検出手段(S25, S31~S39)、検出手段によって検出された数に相当する特定物体のいずれもが姿勢条件を満足するか否かを探索手段の探索結果に基づいて繰り返し判別する判別手段(S41, S43)、および判別手段の判別結果が否定的な結果から肯定的な結果に更新されたとき撮像手段から出力された被写界像を記録する記録手段(S5~S15, S45)を備える。
好ましくは、検出手段は、探索手段によって発見された特定物体像の位置と探索手段による発見時刻とを含む特定物体像情報を登録する情報登録手段(S129~S139, S143~S147, S167)、および情報登録手段によって登録された特定物体像情報に基づいて特定物体の数を測定する測定手段(S25, S39, S141)を含む。
さらに好ましくは、情報登録手段は、登録済みの特定物体像情報を最新の特定物体像情報によって更新する更新手段(S147)、探索手段によって発見された特定物体像の位置に基づいて被写界に存在する特定物体を追尾する追尾手段(S171~S183)、および追尾手段の追尾結果に基づいて更新手段の更新態様を制御する制御手段(S185)を含む。
好ましくは、探索手段は、被写界像上で指定された部分画像を複数の参照用特定物体像の各々と照合して照合度を算出する照合手段(S99)、および照合手段によって算出された照合度のうち基準を上回る照合度に対応する参照用特定物体像の姿勢を登録する姿勢登録手段(S101~S107)を含み、判別手段は姿勢登録手段によって登録された姿勢を参照して判別処理を実行する。
この発明によれば、探索処理は互いに異なる姿勢を各々が有する複数の参照用特定物体像を利用して実行されるため、特定物体像の数および姿勢が被写界像毎に特定される。また、探索処理は繰り返し実行されるため、複数の探索結果を参照することで被写界に存在する特定物体の数が明らかとなる。
被写界に存在する特定物体のいずれもが姿勢条件を満足するか否かは探索処理の結果に基づいて繰り返し判別され、被写界像の記録処理は判別結果が否定的な結果から肯定的な結果に更新されたときに実行される。
この結果、記録される被写界像は、被写界に存在する特定物体のいずれもが姿勢条件を満足する状態で生成された被写界像となる。これによって、記録被写界像の品質を改善することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
この発明の基本的構成を示すブロック図である。 この発明の一実施例の構成を示すブロック図である。 評価エリアを撮像面に割り当てた状態の一例を示す図解図である。 顔向きパターンを収める顔向きパターン辞書FPDCの一例を示す図解図である。 照合処理において参照されるレジスタの一例を示す図解図である。 顔検出処理において参照されるワークテーブルの一例を示す図解図である。 顔検出処理のために用いられる顔検出枠の一例を示す図解図である。 探索処理の一例を示す図解図である。 顔検出処理において参照される人数・顔向き管理テーブルの一例を示す図解図である。 更新・追加処理の一部を示す図解図である。 (A)は撮像面によって複数の人物が捉えられた状態を表す画像の一例を示す図解図であり、(B)は撮像面によって複数の人物が捉えられた状態を表す画像の他の一例を示す図解図であり、(C)は撮像面によって複数の人物が捉えられた状態を表す画像のその他の一例を示す図解図である。 (A)は撮像面によって複数の人物が捉えられた状態を表す画像のさらにその他の一例を示す図解図であり、(B)は撮像面によって複数の人物が捉えられた状態を表す画像の他の一例を示す図解図であり、(C)は撮像面によって複数の人物が捉えられた状態を表す画像のその他の一例を示す図解図である。 追尾処理において参照される追尾情報テーブルの一例を示す図解図である。 追尾処理の一部を示す図解図である。 追尾処理の他の一部を示す図解図である。 (A)は撮像面によって複数の人物が捉えられた状態を表す画像のさらにその他の一例を示す図解図であり、(B)は撮像面によって複数の人物が捉えられた状態を表す画像の他の一例を示す図解図であり、(C)は撮像面によって複数の人物が捉えられた状態を表す画像のその他の一例を示す図解図である。 (A)は撮像面によって複数の人物が捉えられた状態を表す画像のさらにその他の一例を示す図解図であり、(B)は撮像面によって複数の人物が捉えられた状態を表す画像の他の一例を示す図解図である。 図2実施例に適用されるCPUの動作の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。
以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
図1を参照して、この発明の電子カメラは、基本的に次のように構成される。撮像手段1は、被写界を捉える撮像面で生成された被写界像を繰り返し出力する。探索手段2は、撮像手段1から出力された被写界像から特定物体像を探索する処理を互いに異なる姿勢を各々が有する複数の参照用特定物体像を利用して繰り返し実行する。検出手段3は、被写界に存在する特定物体の数を探索手段2の探索結果に基づいて検出する。判別手段4は、検出手段3によって検出された数に相当する特定物体のいずれもが姿勢条件を満足するか否かを探索手段2の探索結果に基づいて繰り返し判別する。記録手段5は、判別手段4の判別結果が否定的な結果から肯定的な結果に更新されたとき撮像手段1から出力された被写界像を記録する。
探索処理は互いに異なる姿勢を各々が有する複数の参照用特定物体像を利用して実行されるため、特定物体像の数および姿勢が被写界像毎に特定される。また、探索処理は繰り返し実行されるため、複数の探索結果を参照することで被写界に存在する特定物体の数が明らかとなる。
被写界に存在する特定物体のいずれもが姿勢条件を満足するか否かは探索処理の結果に基づいて繰り返し判別され、被写界像の記録処理は判別結果が否定的な結果から肯定的な結果に更新されたときに実行される。
この結果、記録される被写界像は、被写界に存在する特定物体のいずれもが姿勢条件を満足する状態で生成された被写界像となる。これによって、記録被写界像の品質を改善することができる。
[実施例]
図2を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経た被写界の光学像は、イメージセンサ16の撮像面に照射され、光電変換を施される。これによって、被写界像を表す電荷が生成される。
電源が投入されると、CPU34は、集合写真撮像タスクの下で動画取り込み処理を開始するべく、ドライバ18cに露光動作および電荷読み出し動作の繰り返しを命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。イメージセンサ16からは、読み出された電荷に基づく生画像データが周期的に出力される。
前処理回路20は、イメージセンサ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路22を通してSDRAM24の生画像エリア24aに書き込まれる。
後処理回路26は、生画像エリア24aに格納された生画像データをメモリ制御回路22を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理,YUV変換処理などの処理を施し、YUV形式に従う表示画像データおよび探索画像データを個別に作成する。
表示画像データは、メモリ制御回路22によってSDRAM24の表示画像エリア24bに書き込まれる。探索画像データは、メモリ制御回路22によってSDRAM24の探索画像エリア24cに書き込まれる。
LCDドライバ28は、表示画像エリア24bに格納された表示画像データをメモリ制御回路22を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ30を駆動する。この結果、被写界のリアルタイム動画像(スルー画像)がモニタ画面に表示される。なお、探索画像データに対する処理については、後述する。
図3を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。
AE/AF評価回路32は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE/AF評価回路32から出力される。
また、AE/AF評価回路32は、前処理回路20から出力されたRGBデータのうち同じ評価エリアEVAに属するGデータの高周波成分を抽出し、抽出された高域周波数成分を垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAE/AF評価回路32から出力される。
CPU34は、AE/AF評価回路32からの出力に基づく簡易AE処理を動画取り込み処理と並列して実行し、適正EV値を算出する。算出された適正EV値を定義する絞り量および露光時間は、ドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像の明るさが適度に調整される。
フラグFLG_frが1に更新されると、CPU34は、AE/AF評価回路32の出力に基づくAE処理を集合写真撮像タスクの下で実行し、これによって算出された最適EV値を定義する絞り量および露光時間をドライバ18bおよび18cにそれぞれ設定する。この結果、スルー画像の明るさが厳格に調整される。CPU34はまた、AE/AF評価回路32からの出力に基づくAF処理を通常撮像タスクの下で実行し、ドライバ18aを通じてフォーカスレンズ12を合焦点に設定する。これによって、スルー画像の鮮鋭度が向上する。
続いて、CPU34は、集合写真撮像タスクの下で静止画取り込み処理および記録処理を実行する。AF処理が完了した直後の1フレームの表示画像データは、静止画取り込み処理によって静止画エリア24dに取り込まれる。取り込まれた1フレームの表示画像データは、記録処理に関連して起動したI/F38によって静止画エリア24dから読み出され、ファイル形式で記録媒体40に記録される。
CPU34はまた、人数・顔向き検出タスクの下で、探索画像エリア24cに格納された画像データから人物の顔画像を探索するべく、顔検出処理を実行する。このような顔検出処理のために、図4に示す顔向きパターン辞書FPDC、図5に示すレジスタRGST1、図6に示す顔検出ワークテーブルTBLw、図7に示す複数の顔検出枠FD,FD,FD,…が準備される。
図4によれば、人物の顔向きパターンFP_1〜FP_5が顔向きパターン辞書FPDCに収められる。ここで、FP_1は正面を向いた姿勢に対応し、FP_2は右真横を向いた姿勢に対応し、FP_3は斜め右に向いた姿勢に対応し、FP_4は斜め左に向いた姿勢に対応し、FP_5は左真横に向いた姿勢に対応する。
図5に示すレジスタRGST1は顔向きパターン辞書との照合度を保持するためのレジスタに相当し、最も照合度が高い顔向きパターンを記述するカラムとその照合度を記述するカラムとによって形成される。
図6に示す顔検出ワークテーブルTBLwは、1回の顔検出処理で検出された顔画像の情報を保持するためのテーブルに相当し、検出された顔画像の位置(顔画像が検出された時点の顔検出枠FDの位置)を記述するカラム、顔画像のサイズ(顔画像が検出された時点の顔検出枠FDのサイズ)を記述するカラム、および検出された顔画像に相当する顔向きパターンを記述するカラムによって構成される。
図7に示す顔検出枠FDは、垂直同期信号Vsyncが発生する毎に、探索画像エリア24cに割り当てられた探索エリア上をラスタ走査態様で移動する。顔検出枠FDのサイズは、ラスタ走査が終了する毎に最大サイズSZmaxから最小サイズSZminまで“5”刻みで縮小される。
人数・顔向き検出タスクの下では、まずフラグFLG_frが“0”に設定される。ここで、フラグFLG_frは検出された人物が全員正面を向いているか否かを識別するためのフラグであり、“0”は検出された人物が全員正面を向いていないことを示す一方、“1”は検出された人物が全員正面を向いて撮影準備が出来ていることを示す。次に、後述する人数・顔向き管理テーブルTBL1が初期化されて、顔検出処理が実行される。
探索エリアはまず、評価エリアEVAの全域を覆うように設定される。また、最大サイズSZmaxは“200”に設定され、最小サイズSZminは“20”に設定される。したがって、顔検出枠FDは、“200”〜“20”の範囲で変化するサイズを有して、図8に示す要領で評価エリアEVA上を走査される。
CPU34は、顔検出枠FDに属する画像データをメモリ制御回路22を通して探索画像エリア24cから読み出し、読み出された画像データの特徴量を算出する。算出された特徴量は、顔向きパターン辞書FPDCに収められた顔向きパターンFP_1〜FP_5の各々の特徴量と照合される。
顔向きパターンFP_1の特徴量に対する照合度は、正面を向いている人物の顔を捉えたときに基準REFを上回る。また、顔向きパターンFP_2の特徴量に対する照合度は、向かって右真横を向いている人物の顔を捉えたときに基準REFを上回る。顔向きパターンFP_3の特徴量に対する照合度は、向かって斜め右を向いている人物の顔を捉えたときに基準REFを上回る。顔向きパターンFP_4の特徴量に対する照合度は、向かって斜め左を向いている人物の顔を捉えたときに基準REFを上回る。さらに、顔向きパターンFP_5の特徴量に対する照合度は、向かって左真横を向いている人物の顔を捉えたときに基準REFを上回る。
顔向きパターンFP_1〜FP_5の各々と照合した結果、照合度が基準REFを上回るものがあると、CPU34は、人物の顔画像が発見されたとみなし、照合された顔向きパターンおよび照合度をレジスタRGST1に登録する。他の顔向きパターンとの照合度がレジスタRGST1に登録されているものを上回った場合は、照合度が高い方の顔向きパターンおよび照合度でレジスタRGST1を上書きする。
顔検出枠FDに属する画像データから人物の顔画像が発見された場合は、顔検出枠FDの現時点の位置、顔検出枠FDの現時点のサイズ、およびレジスタRGST1に登録されている顔向きパターンを、発見された人物1名分のレコードとして、顔検出ワークテーブルTBLwに記述する。
次に、顔検出枠FDをラスタ方向に移動させ、同様に、顔検出枠FDに属する画像データの特徴量と顔向きパターン辞書FPDCの顔向きパターンの特徴量との照合を行い、人物の顔画像が発見された場合は顔検出ワークテーブルTBLwを更新する。これらの処理を顔検出枠FDが右下位置に移動するまで繰り返すと、顔検出枠FDのサイズを縮小して、再度探索する。
顔検出枠FDが右下位置に移動した時点で顔検出枠FDのサイズがSZminに達すると顔検出処理が終了し、続いて更新・追加処理が実行される。このとき、顔検出ワークテーブルTBLwには、1回の顔検出処理で発見された人物の人数分のレコードが保持されている。
CPU34はまた、人数・顔向き検出タスクの下で、検出された顔画像の情報を更新するべく、更新・追加処理を実行する。このような更新・追加処理のために、図9に示す人数・顔向き管理テーブルTBL1が準備される。
図9に示す人数・顔向き管理テーブルTBL1は、過去に検出された顔画像の情報を保持するためのテーブルに相当し、検出された顔画像の位置を記述するカラム、顔画像のサイズを記述するカラム、検出された顔画像に相当する顔向きパターンを記述するカラム、当初検出時刻(最初に顔検出がなされた時刻)を記述するカラム、最終検出時刻(最後に顔検出がなされた時刻)を記述するカラム、および削除フラグを記述するカラムによって構成される。
最初の更新・追加処理が実行される前においては、人数・顔向き管理テーブルTBL1には何も記述されていない。直前の顔検出処理において作成された顔検出ワークテーブルTBLwの各々のレコードに対応して、検出された人数分の新たなレコードが人数・顔向き管理テーブルTBL1に作成される。「顔位置」、「顔サイズ」、および「顔向きパターン」には、顔検出ワークテーブルTBLwの同名のカラムと同じ内容が記述される。「当初検出時刻」および「最終検出時刻」には、いずれも現在の時刻が記述される。
2回目以降の更新・追加処理においては、直前の顔検出処理において作成された顔検出ワークテーブルTBLwの内容に従って、人数・顔向き管理テーブルTBL1が更新される。
顔検出ワークテーブルTBLwに記述されている人物について人数・顔向き管理テーブルTBL1に同一人物のものと判断されるレコードがあれば、当該レコードの「顔位置」、「顔サイズ」、および「顔向きパターン」を顔検出ワークテーブルTBLwの内容で更新する。また、「最終検出時刻」を現在の時刻で更新する。同一人物か否かの判断に際しては、顔検出ワークテーブルTBLwのレコードと人数・顔向き管理テーブルTBL1のレコードとで顔位置が同一の場合は、同一人物と判断する。また、図10を参照して、人物HBが移動した場合など顔位置が完全に同一でなくても、顔検出枠FDの位置が互いに重なっている場合は同一人物と判断する。
人数・顔向き管理テーブルTBL1に同一人物のものと判断されるレコードがない場合、つまり、新たに画角に入った人物が存在する場合は、新たなレコードが人数・顔向き管理テーブルTBL1に作成される。
CPU34はまた、人数・顔向き検出タスクの下で、一旦検出されたがその後検出されなかった顔画像の情報を管理するべく、検出不可処理を実行する。
検出不可処理においては、人数・顔向き管理テーブルTBL1を1レコードずつ読み出して、最終検出時刻が直前の更新・追加処理で更新されたものであるかまたは過去のものであるかを判断する。
過去のものである場合、つまり、一旦顔画像が検出されたが直前の顔検出処理では検出されなかった人物については、人数・顔向き管理テーブルTBL1の該当レコードの「顔向きパターン」を“NG”に更新する。また、既に「顔向きパターン」に“NG”が設定されており、かつ、顔画像等が検出されないまま最終検出時刻から一定時間が経過しているレコードについては、「削除フラグ」に“1”を設定する。
CPU34は、人数・顔向き検出タスクの下で、人数・顔向き管理テーブルTBL1のレコードのうち「削除フラグ」が“1”であるレコードを、削除する。次に、CPU34は、人数・顔向き管理テーブルTBL1の各々のレコードの「顔向きパターン」が“FP_1”であるか否か、つまり、直前の顔検出処理で検出された人物全員が正面を向いているか否かを判断する。全員が正面を向いており、かつ、全員の当初検出時刻から一定時間が経過している場合は、フラグFLG_frに“1”を設定する。
このようにしてフラグFLG_frが1に更新されると、前述のように、厳格AE処理、AF処理、静止画取り込み処理、および記録処理が実行されて、画像データが記録媒体40に記録される。
以上述べた顔検出処理、更新・追加処理、および検出不可処理を、図11(A)、図11(B)、および図11(C)を参照して、以下に具体的に説明する。図11(A)は1回目の顔検出処理が実行される際の被写界の状態を、図11(B)は2回目の顔検出処理が実行される際の被写界の状態を、図11(C)は1回目の顔検出処理から一定時間経過後に再び顔検出処理が実行される際の被写界の状態を、それぞれ示している。
図11(A)の状態では、6人の人物HB1〜HB6の顔画像が検出されている。また、全員が正面を向いているが、最初に検出されてから一定時間が経過していないので、フラグFLG_frに“1”は設定されない。
図11(B)の状態では、1回目の顔検出処理の際と同様に6人の人物HB1〜HB6の顔画像が検出されるが、人物HB5については、右真横を向いているので、人数・顔向き管理テーブルTBL1において人物HB5の「顔向きパターン」が“FP_2”に更新される。また、全員が正面を向いていないので、フラグFLG_frに“1”は設定されない。
図11(C)の状態では、後列中央の人物は、顔検出枠FDの位置が互いに重なっていることから、1回目および2回目の顔検出処理で検出された人物HB5と同一人物と判断される。よって、人数・顔向き管理テーブルTBL1において人物HB5の「最終検出時刻」が更新される。また、正面を向いているので、人物HB5の「顔向きパターン」が“FP_1”に更新される。さらに、全員が正面を向いており、当初検出時刻から一定時間が経過しているので、フラグFLG_frに“1”が設定される。よって、図11(C)の状態で、厳格AE処理、AF処理、静止画取り込み処理、および記録処理が実行される。
次に、図12(A)、図12(B)、および図12(C)を参照して、繰り返し顔検出処理が実行される間に一旦検出された人数が減る場合の例を、以下に具体的に説明する。図12(A)は1回目の顔検出処理が実行される際の被写界の状態を、図12(B)は2回目の顔検出処理が実行される際の被写界の状態を、図12(C)は1回目の顔検出処理から一定時間経過後に再び顔検出処理が実行される際の被写界の状態を、それぞれ示している。
図12(A)の状態では、6人の人物HB7〜HB12の顔画像が検出されている。また、全員が正面を向いているが、最初に検出されてから一定時間が経過していないので、フラグFLG_frに“1”は設定されない。
図12(B)の状態では、人物HB8が移動して人物HB9の陰に隠れている。よって、人物HB8の顔画像は検出されず、人数・顔向き管理テーブルTBL1において人物HB8の「顔向きパターン」を“NG”に更新する。
図12(C)の状態では、前回検出されなかった人物HB8が画角外に移動している。よって、人物HB8の顔画像は今回も検出されない。また、人物HB8が最後に検出されてから一定時間が経過しているので、人数・顔向き管理テーブルTBL1において人物HB8の「削除フラグ」に“1”が設定され、人物HB8のレコードは削除される。人物HB7および人物HB9〜H12は全員正面を向いており、人数・顔向き管理テーブルTBL1において人物HB7および人物HB9〜H12の「顔向きパターン」には全て“FP_1”が記述されている。かつ当初検出時刻から一定期間が経過しているので、フラグFLG_frに“1”が設定される。よって、5人の人物HB7および人物HB9〜H12の顔画像が検出された図12(C)の状態で、厳格AE処理、AF処理、静止画取り込み処理、および記録処理が実行される。
顔検出処理によって顔画像が一旦検出された人物は、移動等のためにディジタルカメラ10に対して反対方向に顔を向けることがある。その際に再度の顔検出処理が実行されると、顔向きパターン辞書FPDCのいずれの顔向きパターンの特徴量に対しても照合度が基準REFを上回らず、顔の向きを変えた人物の顔画像は検出されない。この状態で一定時間が経過した場合に、画角内にその人物が存在するにも関わらず人数・顔向き管理テーブルTBL1の該当レコードが削除されないようにする必要がある。そこで、CPU34は、人数・顔向き検出タスクの下で、顔画像が検出されなかった人物について画角内での存在を把握すべく、追尾処理を実行する。このような追尾処理のために、図13に示す追尾情報テーブルTBL2が準備される。
図13に示す追尾情報テーブルTBL2は、顔画像は検出されないが画角内に存在すると推定される人物の情報を保持するためのテーブルに相当し、人数・顔向き管理テーブルTBL1に対応する番号を記述するカラム、移動方向を記述するカラム、および移動速度を記述するカラムによって構成される。なお、追尾処理がなされる人物が複数人であれば、追尾情報テーブルTBL2のレコードも複数作成される。
CPU34は、一旦顔画像が検出されたがその後の顔検出処理において顔画像が検出されなかった人物について、顔向きパターン辞書FPDCを用いない方法によって、再度探索を行う。ただし、図14を参照して、CPU34は、最後に検出された顔位置を基準として、その際の顔検出枠FDを左右に等距離に所定量広げかつ上下に等距離に所定量広げた追尾探索範囲TRCを、探索エリアとして設定する。追尾処理では、顔検出処理における顔向きパターン辞書FPDCを用いる代わりに、追尾探索範囲TRCの範囲内で肌色エリアSKを探索することによって、人物の存在の検出を行う。
CPU34は、検出不可処理において、人数・顔向き管理テーブルTBL1のレコードの「顔向きパターン」を“NG”に更新すると、そのレコードに対応するレコードを追尾情報テーブルTBL2に新規作成する。次に、CPU34は、人数・顔向き管理テーブルTBL1の「顔位置」を基準として追尾探索範囲TRCを算出し、肌色エリアSKを探索する。
肌色エリアSKが発見された場合は、最後に検出された顔画像の位置から肌色エリアSKの位置まで人物が移動したと推定し、人数・顔向き管理テーブルTBL1の該当レコードの「最終検出時刻」を現在の時刻で更新する。また、人数・顔向き管理テーブルTBL1の該当レコードの「顔位置」と肌色エリアSKの位置とを用いて、人物の移動方向および移動速度を算出し、追尾情報テーブルTBL2に記述する。肌色エリアSKの位置を人物の顔位置とみなすので、人数・顔向き管理テーブルTBL1の該当レコードの「顔位置」を、肌色エリアSKの位置で更新する。
顔検出処理において同一の顔画像を複数回連続して検出できなかった場合は、追尾探索範囲TRCの算出において、人数・顔向き管理テーブルTBL1の「顔位置」に加え、追尾情報テーブルTBL2の「移動方向」および「移動速度」を考慮する。具体的には、図15を参照して、追尾情報テーブルTBL2の「移動方向」に向けて継続して移動すると推定し、推定した移動方向に広くなり、その反対方向に狭くなるように、追尾探索範囲TRCを算出する。また、「移動速度」に応じて、広くする量または狭くする量を調整する。
追尾処理によって人数・顔向き管理テーブルTBL1のレコードが更新された人物が再びディジタルカメラ10の方を向いた場合は、CPU34は、顔検出処理において顔向きパターン辞書FPDCと照合し、人数・顔向き管理テーブルTBL1の該当レコードの「顔向きパターン」が“FP_1”〜“FP_5”のいずれかで更新する。また、追尾情報テーブルTBL2の該当レコードを削除する。顔画像が検出された全員が正面を向いており、かつ、全員の当初検出時刻から一定時間が経過している場合は、フラグFLG_frに“1”を設定し、記録処理等を実行する。
追尾探索範囲TRCにおいて肌色エリアSKを発見できなかった場合は、CPU34は、最終検出時刻から一定時間が経過しているか否かを判断する。一定時間が経過していなければ、人数・顔向き管理テーブルTBL1の「顔位置」と追尾情報テーブルTBL2の「移動方向」および「移動速度」とを用いて、人物の予測位置を算出する。算出した予測位置が画角内であれば、人数・顔向き管理テーブルTBL1の該当レコードの「顔位置」を、算出した予測位置で更新する。画角外であれば、人物が退去したと推定し、人数・顔向き管理テーブルTBL1の該当レコードの「削除フラグ」に“1”を設定する。
追尾情報テーブルTBL2の「移動方向」および「移動速度」が空であった場合、つまり、顔検出処理において顔画像を検出できなかった後に肌色エリアSKも発見できなかった場合は、予測位置を算出できないので、「顔位置」は更新しない。
最終検出時刻から一定時間が経過していれば、顔画像および肌色エリアSKが検出されることなく人物が退去したと推定し、「削除フラグ」に“1”を設定する。「削除フラグ」に“1”が設定されたレコードは人数・顔向き管理テーブルTBL1から削除され、同時に追尾情報テーブルTBL1からも対応するレコードが削除される。
以上述べた追尾処理を、図16(A)、図16(B)、図16(C)、図17(A)、および図17(B)を参照して、以下に具体的に説明する。図16(A)は1回目の顔検出処理が実行される際の被写界の状態を、図16(B)は1回目の追尾処理が実行される際の被写界の状態を、図16(C)は2回目の追尾処理が実行される際の被写界の状態を、図17(A)は1回目の顔検出処理から一定時間経過後の4回目の顔検出処理が実行される際の被写界の状態を、図17(B)は4回目の顔検出処理で検出されない顔画像があって3回目の追尾処理が実行される際の被写界の状態を、それぞれ示している。
図16(A)の状態では、3人の人物HB13、HB14、およびHB15の顔画像が検出されている。また、全員が正面を向いているが、最初に検出されてから一定時間が経過していないので、フラグFLG_frに“1”は設定されない。
図16(B)の状態では、人物HB14が後ろを向いたことによって顔画像が検出されないので、人数・顔向き管理テーブルTBL1の「顔向きパターン」が“NG”とされ、追尾処理が実行される。人物HB14は右上に移動しているが、1回目の顔検出処理で検出された顔位置に基づいて追尾探索範囲TRCが設定され、その範囲内で肌色エリアSKが検出されたので、肌色エリアSKの位置に人物HB14が存在すると推定される。1回目の顔検出処理で検出された顔位置および肌色エリアSKの位置から、人物HB14の移動方向と移動速度が算出され、追尾情報テーブルTBL2に記述される。また、人数・顔向き管理テーブルTBL1は、肌色エリアSKの位置を顔位置と擬制して更新される。
図16(C)の状態では、人物HB14は後ろを向いたまま移動を続けており、顔検出処理によっては顔画像が検出されない。よって、追尾処理が実行される。1回目の追尾処理で検出された肌色エリアSKの位置、算出された移動方向、および算出された移動速度に基づいて、追尾探索範囲TRCが右上に広く設定されている。そして、設定された追尾探索範囲TRCの範囲内で肌色エリアSKが検出されたので、肌色エリアSKの位置に人物HB14が存在すると推定される。肌色エリアSKの位置に基づいて、移動方向、移動速度、および顔位置が更新される。
図17(A)の状態では、人物HB14が正面を向いたので、顔検出処理において「顔向きパターン」が“FP_1”に更新される。また、人物HB13およびHB15も正面を向いており、全員の当初検出時刻から一定時間が経過しているので、フラグFLG_frに“1”が設定される。よって、図17(A)の状態で、厳格AE処理、AF処理、静止画取り込み処理、および記録処理が実行される。
図17(B)の状態では、図16(C)の状態から人物HB14がさらに移動を続けて、画角外に出てしまっている。顔検出処理によっては顔画像が検出されないので追尾処理が実行される。しかし、人物HB14は画角外に出ているので、追尾探索範囲TRCの範囲内で肌色エリアSKは検出されない。よって、3回目の追尾処理で検出された肌色エリアSKの位置、算出された移動方向、および算出された移動速度に基づいて、予測位置が算出される。算出された予測位置が画角外であるので、人数・顔向き管理テーブルTBL1の該当レコードの「削除フラグ」に“1”が設定されて、そのレコードが削除される。それとともに、追尾情報テーブルTBL2の対応するレコードも削除される。人数・顔向き管理テーブルTBL1にレコードが残されている人物HB13およびHB15は正面を向いており、2人の当初検出時刻から一定時間が経過しているので、フラグFLG_frに“1”が設定される。よって、2人が画角内に存在する図17(B)の状態で、厳格AE処理、AF処理、静止画取り込み処理、および記録処理が実行される。
CPU34は、図18に示す集合写真撮像タスクおよび図19〜28に示す人数・顔向き検出タスクを含む複数のタスクを実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ42に記憶される。
図18を参照して、ステップS1では動画取り込み処理を開始し、この結果、被写界を表すスルー画像がLCDモニタ30に表示される。ステップS3では人数・顔向き検出タスクを起動する。
フラグFLG_frは、起動された人数・顔向き検出タスクの下で“0”に初期設定され、顔検出処理によって顔画像が検出された全員の顔向きが正面で、かつ、全員の当初検出時刻から一定期間が経過したときに、“1”に更新される。ステップS5ではこのようなフラグFLG_frが“1”に更新されたか否かを繰り返し判別し、判別結果がNOである限り、ステップS7で簡易AE処理を繰り返し実行する。スルー画像の明るさは、簡易AE処理によって適度に調整される。
判別結果がNOからYESに更新されると、ステップS9では厳格AE処理を実行し、ステップS11ではAF処理を実行する。厳格AE処理およびAF処理の結果、スルー画像の明るさおよびフォーカスが厳格に調整される。
ステップS13では静止画取り込み処理を実行する。ステップS15では記録処理を実行し、その後にステップS3に戻る。
図19を参照して、ステップS21ではフラグFLG_frに“0”を設定し、ステップS23では人数・顔向き管理テーブルTBL1を初期化する。また、ステップS25では、人数・顔向き管理テーブルTBL1のレコード数を表す変数REC1に“0”を設定する。
ステップS27では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOからYESに更新されると、ステップS29では、探索画像エリア24cに格納された画像データから人物の顔画像を探索するべく、顔検出処理を実行する。
顔検出処理が完了すると、ステップS31では、一旦検出された顔画像の情報を更新するべく、更新・追加処理を実行する。更新・追加処理が完了すると、ステップS33では、一旦検出されたがその後検出されなかった顔画像の情報を管理するべく、検出不可処理を実行する。
検出不可処理が完了すると、ステップS35では削除フラグに“1”が設定されているレコードを人数・顔向き管理テーブルTBL1から削除し、ステップS37では対応するレコードを追尾情報テーブルTBL2から削除する。また、ステップS39では、ステップS35で人数・顔向き管理テーブルTBL1から削除したレコード数だけ、変数REC1を減ずる。
ステップS41では人数・顔向き管理テーブルTBL1を参照して顔画像が検出された人物全員が正面を向いているか否かを判別し、判別結果がNOであればステップS27に戻り、YESであればステップS43に進む。
ステップS43では人数・顔向き管理テーブルTBL1を参照して顔画像が検出された人物全員の当初検出時刻から一定時間が経過しているか否かを判別し、判別結果がNOであればステップS27に戻り、YESであればステップS45に進む。
ステップS45ではフラグFLG_frに“1”を設定し、その後に処理を終了する。
図19に示すステップS29の顔検出処理は、図21〜図22に示すサブルーチンに従って実行される。まず、ステップS51では顔検出ワークテーブルTBLwを初期化する。ステップS53では、顔検出ワークテーブルのレコード数を示す変数RECwに“0”を設定する。
ステップS55では評価エリアEVAの全域を顔検出処理における探索エリアとして設定する。
ステップS57では、顔検出枠FDのサイズの可変範囲を定義するべく、顔検出枠FDの最大サイズSZmaxを“200”に設定し、最小サイズSZminを“20”に設定する。ステップS59では顔検出枠FDのサイズを“SZmax”に設定し、ステップS61で顔検出枠FDを探索エリアの左上位置に配置する。
ステップS63では、顔検出枠FDに属する一部の画像データを探索画像エリア24cから読み出し、読み出された画像データの特徴量を算出する。ステップS65では、算出された特徴量を顔向きパターン辞書FPDCに収められた顔向きパターンの特徴量と照合する照合処理を実行する。
フラグFLG_Aは、照合処理の下で“0”に初期設定され、顔検出枠FDに属する画像データから人物の顔画像が検出されたときに、“1”に更新される。ステップS67ではこのようなフラグFLG_Aが“1”に更新されたか否かを判別し、判別結果がNOであればステップS73に進む。判別結果がYESであれば、ステップS69で、顔検出枠FDの現在の位置、顔検出枠の現時点のサイズ、および照合処理において最も照合度が高かった顔向きパターンを顔検出ワークテーブルTBLwに記述する。ステップS71では変数RECwをインクリメントする。
ステップS73では、顔検出枠FDが探索エリアの右下位置に到達したか否かを判別する。判別結果がNOであれば、ステップS75で顔検出枠FDを既定量だけラスタ方向に移動させ、その後にステップS63に戻る。判別結果がYESであれば、顔検出枠FDのサイズが“SZmin”以下であるか否かをステップS77で判別する。判別結果がNOであれば、ステップS79で顔検出枠FDのサイズを“5”だけ縮小させ、ステップS81で顔検出枠FDを探索エリアの左上位置に配置し、その後にステップS63に戻る。ステップS77の判別結果がYESであれば、上階層のルーチンに復帰する。
図21に示すステップS65の照合処理は、図23〜図24に示すサブルーチンに従って実行される。まず、ステップS91ではフラグFLG_Aを“0”に設定し、ステップS93ではレジスタRGST1を初期化する。
ステップS95では、変数Kを“1”に設定し、ステップS97では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOからYESに更新されると、ステップS99では顔検出枠FDに属する画像データの特徴量を顔向きパターン辞書FPDCに収められた顔向きパターンの特徴量と照合し、ステップS101では照合度が基準REFを上回るか否かを判別する。
判別結果がNOであれば、ステップS111で変数Kをインクリメントし、インクリメントされた変数Kが“5”を上回るか否かをステップS113で判別する。K≦5であればステップS97に戻る一方、K>5であれば上階層のルーチンに復帰する。
ステップS101の判別結果がYESであればステップS103でレジスタRGST1に登録されている照合度があるか否かを判別する。判別結果がNOであればステップS107に進み、YESであればステップS105で、ステップS99で算出された照合度がレジスタに登録されている照合度よりも高いかを判別する。
ステップS105の判別結果がNOであればステップS111に進み、YESであればステップS107で、顔向きパターンFP_KおよびステップS99で算出された照合度をレジスタRGST1に登録する。ステップS109ではフラグFLG_Aを“1”に設定し、ステップS111に進む。
図19に示すステップS31の更新・追加処理は、図25に示すサブルーチンに従って実行される。まず、ステップS121では変数Fを“0”に設定し、ステップS123では変数Fmaxを変数RECwが示す値に設定する。
ステップS125では変数Fをインクリメントする。ステップS127では、変数Fが変数Fmaxの値を超えたか否かを判別し、判別結果がYESであれば上階層のルーチンに復帰する。
判別結果がNOであれば、ステップS129で顔検出ワークテーブルTBLwのF番目のレコード、すなわち顔検出処理においてF番目に検出された人物のレコードを読み出す。
ステップS131では変数Tを“0”に設定し、ステップS133では変数Tmaxを変数REC1が示す値に設定する。
ステップS135では変数Tをインクリメントする。ステップS137では変数Tが変数Tmaxの値を超えたか否かを判別し、判別結果がNOであればステップS143に進む一方、判別結果がYESであれば、ステップS139に進む。
ステップS139では、人数・顔向き管理テーブルTBL1に新規レコードを追加し、「顔位置」、「顔サイズ」、および「顔向きパターン」には、ステップS129で読み出した顔検出ワークテーブルTBLwの同名のカラムと同じ内容を記述する。「当初検出時刻」および「最終検出時刻」には、いずれも現在の時刻を記述する。
ステップS141では変数REC1をインクリメントし、その後にステップS125に戻る。
ステップS143では、人数・顔向き管理テーブルTBL1のT番目のレコードを読み出す。ステップS145では、ステップS129およびステップS143で読み出した2つのレコードの顔位置が重なるか否かを判別する。判別結果がNOであればステップS135に戻る一方、YESであればステップS147に進む。
ステップS147では、人数・顔向き管理テーブルTBL1のT番目のレコードの「顔位置」、「顔サイズ」、および「顔向きパターン」を、ステップS129で読み出した顔検出ワークテーブルTBLwの同名のカラムの内容で更新する。また、「最終検出時刻」を現在の時刻で更新する。その後にステップS125に戻る。
図19に示すステップS33の検出不可処理は、図26に示すサブルーチンに従って実行される。まず、ステップS151では変数Uを“0”に設定し、ステップS153では変数Umaxを変数REC1が示す値に設定する。
ステップS155では変数Uをインクリメントする。ステップS157では、変数Uが変数Umaxの値を超えたか否かを判別し、判別結果がYESであれば上階層のルーチンに復帰する。判別結果がNOであれば、ステップS159で人数・顔向き管理テーブルTBL1のU番目のレコードを読み出す。
ステップS161ではステップS159で読み出したレコードの「最終検出時刻」が直前の更新・追加処理よりも過去の時刻であるか否かを判別する。判別結果がNOであればステップ163に進む一方、YESであればステップS167に進む。
ステップS163ではそのレコードに対応するレコードが追尾情報テーブルTBL2にあるか否かを判別し、判別結果がNOであればステップS155に戻る。判別結果がYESであればステップS165で当該レコードを追尾情報テーブルTBL2から削除した上でステップS155に戻る。
ステップS167では、顔画像が検出されなかった人物について画角内での存在を把握すべく、追尾処理を実行する。追尾処理の完了後、ステップS155に戻る。
図26に示すステップS167の追尾処理は、図27および図28に示すサブルーチンに従って実行される。
ステップS171では検出不可処理のステップS159で読み出したレコードの「顔向き」に“NG”が設定されているか否かを判別し、判別結果がYESであればステップS177に進む一方、NOであればステップS173に進む。
ステップS173では、検出不可処理のステップS159で読み出したレコードの「顔向き」を“NG”に設定し、ステップS175では追尾情報テーブルTBL2に新規レコードを追加する。
ステップS177では、追尾情報テーブルTBL2の対応するレコードに、「移動方向」および「移動速度」が記述されているか否かを判別する。
判別結果がNOであれば、ステップS179で、検出不可処理のステップS159で読み出したレコードの「顔位置」に基づいて追尾探索範囲TRCを算出し、その後にステップS183に進む。
判別結果がYESであれば、ステップS181で、検出不可処理のステップS159で読み出した人数・顔向き管理テーブルTBL1の「顔位置」と追尾情報テーブルTBL2の対応するレコードの「移動方向」および「移動速度」とに基づいて、追尾探索範囲TRCを算出する。その後にステップS183に進む。
ステップS183では、ステップS179またはステップS181で算出された追尾探索範囲TRCの範囲内で、肌色エリアSKを探索する。
ステップS185では、ステップS183で肌色エリアSKが検出されたか否かを判別し、判別結果がYESであればステップS187に進む一方、NOであればステップS195に進む。
ステップS187では、検出不可処理のステップS159で読み出したレコードの「最終検出時刻」を現在の時刻で更新する。
ステップS189では、検出不可処理のステップS159で読み出したレコードの「顔位置」と肌色エリアSKの位置とを用いて、人物の移動方向および移動速度を算出する。ステップS191では、ステップS189で算出した人物の移動方向および移動速度を、追尾情報テーブルTBL2に記述する。
ステップS193では、検出不可処理のステップS159で読み出したレコードの「顔位置」を、肌色エリアSKの位置または後述するステップS199で算出する予測位置で更新し、その後に上階層のルーチンに復帰する。
ステップS195では検出不可処理のステップS159で読み出したレコードの「最終検出時刻」から一定時間が経過しているか否かを判別し、判別結果がNOであればステップS197に進む一方、YESであればステップS203に進む。
ステップS197では、追尾情報テーブルTBL2の対応するレコードに、「移動方向」および「移動速度」が記述されているか否かを判別し、判別結果がNOであれば上階層のルーチンに復帰する一方、YESであればステップS199に進む。
ステップS199では、検出不可処理のステップS159で読み出したレコードの「顔位置」と追尾情報テーブルTBL2の対応するレコードの「移動方向」および「移動速度」とを用いて、人物の予測位置を算出する。
ステップS201ではステップS199で算出された予測位置が画角外であるか否かを判別する。判別結果がYESであればステップS203に進む一方、NOであればステップS193に進む。
ステップS203では検出不可処理のステップS159で読み出したレコードの「削除フラグ」を“1”に設定し、その後に上階層のルーチンに復帰する。
以上の説明から分かるように、イメージセンサ16は、被写界を捉える撮像面で生成された被写界像を繰り返し出力する。CPU34は、イメージセンサ16から出力された被写界像から特定物体像を探索する処理を互いに異なる姿勢を各々が有する複数の参照用特定物体像を利用して繰り返し実行し(S29)、被写界に存在する特定物体の数を探索結果に基づいて検出する(S25, S31~S39)。CPU34はまた、検出された数に相当する特定物体のいずれもが姿勢条件を満足するか否かを探索結果に基づいて繰り返し判別し(S41, S43)、判別結果が否定的な結果から肯定的な結果に更新されたときイメージセンサ16から出力された被写界像を記録する(S5~S15, S45)。
探索処理は互いに異なる姿勢を各々が有する複数の参照用特定物体像を利用して実行されるため、特定物体像の数および姿勢が被写界像毎に特定される。また、探索処理は繰り返し実行されるため、複数の探索結果を参照することで被写界に存在する特定物体の数が明らかとなる。
被写界に存在する特定物体のいずれもが姿勢条件を満足するか否かは探索処理の結果に基づいて繰り返し判別され、被写界像の記録処理は判別結果が否定的な結果から肯定的な結果に更新されたときに実行される。
この結果、記録される被写界像は、被写界に存在する特定物体のいずれもが姿勢条件を満足する状態で生成された被写界像となる。これによって、記録被写界像の品質を改善することができる。
なお、この実施例では、追尾処理においては、追尾探索範囲TRCの範囲内で肌色エリアSKを探索することによって、人物の存在を検出している。しかし、顔検出処理によって顔画像が検出された際に、顔検出枠FDに属する画像データの色情報、輝度情報、または形状情報等を保持しておき、追尾処理の際に、これらの保持されている情報との照合度が一定以上の領域を追尾探索範囲TRCの範囲内で探索するようにして、人物の存在を検出してもよい。
また、この実施例では、顔向きパターン辞書FPDCに収められる人物の顔向きパターンをFP_1〜FP_5の5つとしている。しかし、5つ以上または5つ未満の顔向きパターンを収めるようにして、照合処理を実行するようにしてもよい。
また、この実施例では、フラグFLG_frに“1”が設定されている場合には自動的に記録処理等を行っている。しかし、撮影者がキー入力装置36を通じて手動でシャッタボタンを押さない限り、記録処理等を実行しないようにしてもよい。この場合、撮影者が撮影しようとする際にフラグFLG_frに“1”が設定されていると記録処理等を実行するが、フラグFLG_frに“0”が設定されていると記録処理等を実行せずに警告を発するようにすればよい。
10 …ディジタルカメラ
16 …イメージセンサ
24 …SDRAM
32 …AE/AF評価回路
34 …CPU
40 …記録媒体
42 …フラッシュメモリ
FPDC …顔向きパターン辞書

Claims (9)

  1. 被写界を捉える撮像面で生成された被写界像を繰り返し出力する撮像手段、
    前記撮像手段から出力された被写界像から特定物体像を探索する処理を互いに異なる姿勢を各々が有する複数の参照用特定物体像を利用して繰り返し実行する探索手段、
    前記被写界に存在する特定物体の数を前記探索手段の探索結果に基づいて検出する検出手段、
    前記検出手段によって検出された数に相当する特定物体のいずれもが姿勢条件を満足するか否かを前記探索手段の探索結果に基づいて繰り返し判別する判別手段、および
    前記判別手段の判別結果が否定的な結果から肯定的な結果に更新されたとき前記撮像手段から出力された被写界像を記録する記録手段を備える、電子カメラ。
  2. 前記検出手段は、前記探索手段によって発見された特定物体像の位置と前記探索手段による発見時刻とを含む特定物体像情報を登録する情報登録手段、および前記情報登録手段によって登録された特定物体像情報に基づいて前記特定物体の数を測定する測定手段を含む、請求項1記載の電子カメラ。
  3. 前記情報登録手段は、登録済みの特定物体像情報を最新の特定物体像情報によって更新する更新手段、前記探索手段によって発見された特定物体像の位置に基づいて前記被写界に存在する特定物体を追尾する追尾手段、および前記追尾手段の追尾結果に基づいて前記更新手段の更新態様を制御する制御手段を含む、請求項2記載の電子カメラ。
  4. 前記追尾手段は、前記探索手段によって発見された特定物体像の位置に基づいて追尾探索範囲を算出する算出手段、および前記算出手段によって算出された追尾探索範囲において肌色エリアを探索する追尾探索手段を含む、請求項3記載の電子カメラ。
  5. 前記検出手段は、前記情報登録手段による特定物体像情報の登録後の前記探索手段の探索結果に基づいて登録済みの特定物体像情報を削除する削除手段をさらに含む、請求項2ないし4のいずれかに記載の電子カメラ。
  6. 前記探索手段は、前記被写界像上で指定された部分画像を前記複数の参照用特定物体像の各々と照合して照合度を算出する照合手段、および前記照合手段によって算出された照合度のうち基準を上回る照合度に対応する参照用特定物体像の姿勢を登録する姿勢登録手段を含み、
    前記判別手段は前記姿勢登録手段によって登録された姿勢を参照して判別処理を実行する、請求項1ないし5のいずれかに記載の電子カメラ。
  7. 前記探索手段が探索する特定物体像は人物の顔画像である、請求項1ないし6のいずれかに記載の電子カメラ。
  8. 被写界を捉える撮像面で生成された被写界像を繰り返し出力する撮像手段を備える電子カメラのプロセッサに、
    前記撮像手段から出力された被写界像から特定物体像を探索する処理を互いに異なる姿勢を各々が有する複数の参照用特定物体像を利用して繰り返し実行する探索ステップ、
    前記被写界に存在する特定物体の数を前記探索ステップの探索結果に基づいて検出する検出ステップ、
    前記検出ステップによって検出された数に相当する特定物体のいずれもが姿勢条件を満足するか否かを前記探索ステップの探索結果に基づいて繰り返し判別する判別ステップ、および
    前記判別ステップの判別結果が否定的な結果から肯定的な結果に更新されたとき前記撮像手段から出力された被写界像を記録する記録ステップを実行させるための、撮像制御プログラム。
  9. 被写界を捉える撮像面で生成された被写界像を繰り返し出力する撮像手段を備える電子カメラによって実行される撮像制御方法であって、
    前記撮像手段から出力された被写界像から特定物体像を探索する処理を互いに異なる姿勢を各々が有する複数の参照用特定物体像を利用して繰り返し実行する探索ステップ、
    前記被写界に存在する特定物体の数を前記探索ステップの探索結果に基づいて検出する検出ステップ、
    前記検出ステップによって検出された数に相当する特定物体のいずれもが姿勢条件を満足するか否かを前記探索ステップの探索結果に基づいて繰り返し判別する判別ステップ、および
    前記判別ステップの判別結果が否定的な結果から肯定的な結果に更新されたとき前記撮像手段から出力された被写界像を記録する記録ステップを備える、撮像制御方法。
JP2010055213A 2010-03-12 2010-03-12 電子カメラ Pending JP2011193063A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010055213A JP2011193063A (ja) 2010-03-12 2010-03-12 電子カメラ
US13/043,108 US8466981B2 (en) 2010-03-12 2011-03-08 Electronic camera for searching a specific object image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010055213A JP2011193063A (ja) 2010-03-12 2010-03-12 電子カメラ

Publications (1)

Publication Number Publication Date
JP2011193063A true JP2011193063A (ja) 2011-09-29

Family

ID=44559617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010055213A Pending JP2011193063A (ja) 2010-03-12 2010-03-12 電子カメラ

Country Status (2)

Country Link
US (1) US8466981B2 (ja)
JP (1) JP2011193063A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110113523A (zh) * 2019-03-15 2019-08-09 深圳壹账通智能科技有限公司 智能拍照方法、装置、计算机设备及存储介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8929598B2 (en) * 2011-06-29 2015-01-06 Olympus Imaging Corp. Tracking apparatus, tracking method, and storage medium to store tracking program
EP3014519A4 (en) * 2013-06-27 2017-02-15 Intel Corporation Face recognition with parallel detection and tracking, and/or grouped feature motion shift tracking
CN104580898A (zh) * 2014-12-26 2015-04-29 魅族科技(中国)有限公司 成像装置的控制方法和成像装置
JP2017017624A (ja) * 2015-07-03 2017-01-19 ソニー株式会社 撮像素子、画像処理方法、および電子機器
CN113364971B (zh) * 2020-03-07 2023-04-18 华为技术有限公司 图像处理方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008187412A (ja) * 2007-01-30 2008-08-14 Sanyo Electric Co Ltd 電子カメラ
JP2010028606A (ja) * 2008-07-23 2010-02-04 Olympus Imaging Corp 撮像装置および撮像装置の制御方法
JP2010028605A (ja) * 2008-07-23 2010-02-04 Olympus Imaging Corp 撮像装置および撮像装置の制御方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5554972A (en) * 1994-10-21 1996-09-10 Garlock Equipment Company Electronic perimeter warning system
US5939987A (en) * 1998-01-26 1999-08-17 Cram; Randall S. Roadside deer warning method and system
US6016100A (en) * 1998-07-08 2000-01-18 Radio Systems Corporation Ultrasonic animal deterrent for protecting an area
CA2343493A1 (en) * 2001-04-09 2002-10-09 Harold Hykawy Roadside animal warning system
CA2358728A1 (en) * 2001-10-12 2003-04-12 International Road Dynamics Inc. Wildlife warning system
US7113098B1 (en) * 2002-08-29 2006-09-26 Melvin Hayes Animal accident reduction systems, methods, and apparatuses
ITTO20020894A1 (it) * 2002-10-15 2004-04-16 Fiat Ricerche Sistema per evitare la collisione di un veicolo con animali
JP4654974B2 (ja) * 2006-05-23 2011-03-23 富士フイルム株式会社 撮影装置および撮影方法
US20100283608A1 (en) * 2007-01-04 2010-11-11 Honeywell International Inc. Intrusion Warning and Reporting Network
JP4787180B2 (ja) * 2007-01-24 2011-10-05 富士フイルム株式会社 撮影装置及び撮影方法
US7777624B2 (en) * 2007-09-26 2010-08-17 Honeywell International Inc. Direction of travel motion sensor
JP4944055B2 (ja) * 2008-03-19 2012-05-30 富士フイルム株式会社 撮像装置及び撮像制御方法
JP4466770B2 (ja) * 2008-06-26 2010-05-26 カシオ計算機株式会社 撮像装置、撮像方法および撮像プログラム
JP5384172B2 (ja) * 2009-04-03 2014-01-08 富士フイルム株式会社 オートフォーカスシステム
US8432281B2 (en) * 2009-07-20 2013-04-30 Utah State University Portable boundary sensor system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008187412A (ja) * 2007-01-30 2008-08-14 Sanyo Electric Co Ltd 電子カメラ
JP2010028606A (ja) * 2008-07-23 2010-02-04 Olympus Imaging Corp 撮像装置および撮像装置の制御方法
JP2010028605A (ja) * 2008-07-23 2010-02-04 Olympus Imaging Corp 撮像装置および撮像装置の制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110113523A (zh) * 2019-03-15 2019-08-09 深圳壹账通智能科技有限公司 智能拍照方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
US20110221921A1 (en) 2011-09-15
US8466981B2 (en) 2013-06-18

Similar Documents

Publication Publication Date Title
JP4324170B2 (ja) 撮像装置およびディスプレイの制御方法
US8768063B2 (en) Image processing apparatus, image management apparatus and image management method, and computer program
CN108174185B (zh) 一种拍照方法、装置及终端
US20080309770A1 (en) Method and apparatus for simulating a camera panning effect
JP5699432B2 (ja) 画像処理装置
JP2011193063A (ja) 電子カメラ
TW200947357A (en) Image recording method, image recording device, and program
JP2012003539A (ja) 画像処理装置
JP2011071573A (ja) 画像処理装置
JP5485781B2 (ja) 電子カメラ
JP2015008385A (ja) 画像選択装置、撮像装置および画像選択プログラム
CN111212226A (zh) 对焦拍摄方法和装置
JP2012231327A (ja) 撮像装置、撮像方法及びプログラム
JP5865120B2 (ja) 電子カメラ
JP5485712B2 (ja) 電子カメラ
JP5785034B2 (ja) 電子カメラ
JP2012155044A (ja) 電子カメラ
JP5267136B2 (ja) 電子カメラ
JP5428243B2 (ja) 画像処理装置および電子カメラ並びに画像振り分けプログラム
JP2009010828A (ja) 撮像装置及び撮像プログラム
CN113992904A (zh) 一种信息处理方法、装置、电子设备和可读存储介质
JP2013074570A (ja) 電子カメラ
JP2007104200A (ja) 撮像装置
JP2011124819A (ja) 電子カメラ
CN107566713B (zh) 提高相机在用户行走中定时拍照质量的拍照方法与装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130206

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140409