JP2013131795A - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP2013131795A
JP2013131795A JP2011277828A JP2011277828A JP2013131795A JP 2013131795 A JP2013131795 A JP 2013131795A JP 2011277828 A JP2011277828 A JP 2011277828A JP 2011277828 A JP2011277828 A JP 2011277828A JP 2013131795 A JP2013131795 A JP 2013131795A
Authority
JP
Japan
Prior art keywords
image data
face
image
detected
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011277828A
Other languages
English (en)
Inventor
Ayahiro Nakajima
紋宏 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011277828A priority Critical patent/JP2013131795A/ja
Publication of JP2013131795A publication Critical patent/JP2013131795A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】顔画像の識別に要する演算量が多く、処理の高速化が困難であった。
【解決手段】画像データに含まれる顔画像を検出する顔検出部と、検出された顔画像が示す人物を識別する顔識別部と、第一の画像データから検出された顔画像の数が当該第一の画像データの直前に生成された先行画像データから検出された顔画像の数と同じであり、かつ、当該第一の画像データが生成された時刻と当該先行画像データが生成された時刻との差が所定のしきい以下である場合には、当該第一の画像データから検出された顔画像に対する識別を上記顔識別部に実行させず、当該先行画像データから検出された顔画像に対する識別の結果を当該第一の画像データから検出された顔画像に適用する識別結果適用部と、を備える構成とした。
【選択図】図2

Description

本発明は、画像処理装置、画像処理方法および画像処理プログラムに関する。
入力された画像に写っている人物の顔を認識する顔認識手段と、顔認識手段によって認識された顔に基づいて前記人物を特定する人物特定手段とを備えた画像分類装置が知られている(特許文献1参照)。
特開2008‐71112号公報
上記文献1によれば、特定された人物に従って複数の画像が分類される。ここで、上記分類の過程で、画像に写っている顔に基づいて人物を特定する処理(顔識別処理と呼ぶ。)が各画像に対して実行されている。しかし、顔識別処理は一般に、顔の特徴点等の情報を抽出して登録したり、抽出した情報を登録済みの情報と対比したりする等、多くの演算を要する処理であるため、全ての画像を顔識別処理の対象とすることは、画像分類等の処理の高速化に対する大きな妨げとなる。
本発明は上記課題を解決するためになされたものであり、顔識別処理を実行する機能を備えつつ全体として処理量の削減、高速化を実現することが可能な画像処理装置、画像処理方法および画像処理プログラムを提供する。
本発明にかかる画像処理装置の態様の一つは、画像データに含まれる顔画像を検出する顔検出部と、検出された顔画像が示す人物を識別(特定)する顔識別部と、第一の画像データから検出された顔画像の数が当該第一の画像データの直前に生成された先行画像データから検出された顔画像の数と同じであり、かつ、当該第一の画像データが生成された時刻と当該先行画像データが生成された時刻との差が所定のしきい以下である場合には、当該第一の画像データから検出された顔画像に対する識別を上記顔識別部に実行させず、当該先行画像データから検出された顔画像に対する識別の結果を当該第一の画像データから検出された顔画像に適用する識別結果適用部と、を備える構成としてある。
当該構成によれば、第一の画像データ内の顔画像の数が先行画像データ内の顔画像の数と同じであり、かつ、第一の画像データが生成された時刻と先行画像データが生成された時刻との差がしきい以下である場合には、第一の画像データ内の顔画像に対する顔識別処理を実行せず、先行画像データ内の顔画像に対する顔識別結果をそのまま第一の画像データ内の顔画像に適用する。そのため、複数の画像データ全てについて(複数の画像データを順番に第一の画像データとして扱って)顔識別処理を実行する場合と比較して、大幅に処理量を減らし、処理全体の高速化(短時間化)が実現される。
本発明の態様の一つとして、画像処理装置は、所定の記憶領域に保存された複数の画像データを、画像の撮像に用いられた機器の共通性に従ってグループ分けする分類処理部を備え、上記識別結果適用部は、上記分けられたグループ内において上記第一の画像データおよび当該第一の画像データに対する上記先行画像データを選出する構成としてもよい。
当該構成によれば、例えば、記憶領域に多数保存された画像データを分類等する際に、撮影に用いられた機器(デジタルスチルカメラ等の撮像装置)が共通する関係にある画像データ間で第一の画像データおよび先行画像データが選出されるため、先行画像データ内の顔画像に対する顔識別結果をそのまま第一の画像データ内の顔画像に適用した場合の結果の正確性がより高まる。
本発明の態様の一つとして、画像処理装置は、撮像素子を有し画像を撮像可能な撮像部を備え、上記識別結果適用部は、上記撮像素子を介して取得される画像データを上記第一の画像データとし、既に撮像部を介して取得された画像を上記先行画像データとする構成としてもよい。
当該構成によれば、例えば、画像処理装置としてのデジタルスチルカメラのモニターに撮像素子を介してリアルタイムで映し出される画像データ内で検出された人物について、既に撮像されてメモリーに保存された先行画像データ内の顔画像に対する顔識別結果をそのまま適用することができ、画像処理装置の演算負担が大幅に軽減される。
本発明の態様の一つとして、上記識別結果適用部は、先行画像データから検出された複数の顔画像に対する識別の結果を第一の画像データから検出された複数の顔画像に適用する場合は、顔画像の平均の頭頂方向を求め、平均の頭頂方向および平均の頭頂方向に垂直な方向それぞれにおける顔画像の位置の分散を求め、平均の頭頂方向又は当該垂直な方向のうち当該分散が大きい方の方向を特定する処理を、第一の画像データと先行画像データのそれぞれについて行い、第一の画像データについて上記特定した方向における顔画像の並びおよび先行画像データについて上記特定した方向における顔画像の並びに従って、顔画像を一対一で対応付ける、としてもよい。
当該構成によれば、第一の画像データに複数の顔画像が含まれている場合であっても、それぞれの顔画像にかかる人物を正確に識別した結果が容易に得られる。
本発明にかかる技術的思想は画像処理装置という形態のみで実現されるものではなく、例えば、上述した画像処理装置の各部が実行する各処理工程を有する画像処理方法の発明や、上述した画像処理装置の各部に相当する各機能をハードウェア(コンピューター)に実行させる画像処理プログラムの発明なども、把握することが可能である。
第一の実施形態にかかる画像処理装置の一例を概略的に示すブロック図である。 第一の実施形態で実行される処理の一例を示すフローチャートである。 複数の画像ファイルがソートされた様子を例示する図である。 先行画像データおよび対象画像データを例示する図である。 先行画像データおよび対象画像データを例示する図である。 ステップS116の詳細を示すフローチャートである。 第二の実施形態にかかる画像処理装置の一例を概略的に示すブロック図である。 第二の実施形態で実行される処理の一例を示すフローチャートである。 DSCの背面側の一例を簡易的に示す図である。
以下、図面を参照しながら本発明の実施形態を説明する
1.第一の実施形態
図1は、第一の実施形態にかかる画像処理装置の一例をブロック図により概略的に示している。画像処理装置は、画像処理方法の実行主体でもある。画像処理装置は、例えば、コンピューター10である。コンピューター10は、コンピューター10の各部を制御するCPU14と、例えばROMやRAMによって構成された内部メモリー19と、マウスやキーボードあるいはボタンやタッチパネル等により構成された操作部12と、液晶ディスプレー等により構成された表示部13と、記憶装置の一種としてのハードディスクドライブ(HDD)11と、カードインターフェース(I/F)16と、外部機器との有線あるいは無線による通信を実行するためのI/F部15等を備える。コンピューター10の各構成要素は、バス18を介して互いに接続されている。
カードI/F16は、カードスロット17に挿入された記憶媒体(メモリーカードMC)との間でデータのやり取りを行うためのインターフェースである。カードスロット17に挿入されたメモリーカードMCには、所定のフォーマットで生成された画像ファイルが複数保存されている。画像ファイルは、例えば、デジタルスチルカメラ等の撮像装置によって撮像、生成されたExif(Exchangeable Image File Format)フォーマット等に対応したファイルであり、画像データの他に、種々の付帯情報を含んで構成される。コンピューター10は、カードI/F16を介してメモリーカードMCに格納された画像ファイルの取得を行う。あるいは、このような画像ファイルはHDD11にも複数保存されており、コンピューター10は、HDD11から画像ファイルの取得を行う。むろん、コンピューター10は、画像ファイルの提供元としてはメモリーカードMCやHDD11以外にも種々の媒体を用いることができるし、I/F部15を介して通信可能に接続した外部機器から画像ファイルを取得することもできる。
内部メモリー19には、種々のプログラムやデータが格納されており、その一部として画像処理部20(画像処理プログラム)が格納されている。画像処理部20は、分類処理部21、顔検出部22、顔識別部23および識別結果適用部24を含む。内部メモリー19におけるこれら各部は、オペレーティングシステムの下で所定の処理を実現するためのコンピュータープログラムである。CPU14は、内部メモリー19から、これらのプログラムを読み出して実行することにより、これら各部の機能を実現する。むろんコンピューター10は、表示部13を制御して種々の表示を実行させるディスプレードライバー等、コンピューターとして一般的な各種機能を有している。
図2は、本実施形態にかかる画像処理装置(コンピューター10)において実現される処理を示すフローチャートである。当該フローチャートは、主に、CPU14が実行する画像処理部20(分類処理部21、顔検出部22、顔識別部23および識別結果適用部24)の機能により実現される。
ステップS100では、分類処理部21が、分類対象となる複数の画像ファイルが保存された所定の記憶領域(例えばHDD11)から、それら複数の画像ファイルを取得する。ここでは、N(2以上の整数)枚分の写真(画像データ)に相当するN枚の画像ファイルを取得したものとする。
ステップS102では、分類処理部21は、上記N枚の各画像ファイルから、画像データに関する付帯情報を取得する。ここで言う付帯情報には、画像データの撮像に用いられた撮像装置の機種情報と、画像ファイルの撮像(画像データの生成)日時とを少なくとも含む。
ステップS104では、分類処理部21は、上記付帯情報に基づいて、上記N枚の画像ファイルを、撮像装置毎にグループ分けし、かつ、各グループ内で日時順に並べる(ソートする)。
図3は、ステップS104においてN枚の画像ファイルDFがソートされた様子を模式的に示している。ここでは一例として、3台の撮像装置(カメラA,B,C)によってそれぞれ100枚ずつ撮像された計300枚分の画像ファイルDFがHDD11に保存されていたものとする。そのため、カメラAで撮像された100枚の画像ファイルDFが撮像日時順にソートされ、同様に、カメラBで撮像された100枚の画像ファイルDFが撮像日時順にソートされ、カメラCで撮像された100枚の画像ファイルDFが撮像日時順にソートされている。また図3では、上記N枚の画像ファイルDFに1〜Nまでの通しのファイル番号を付与している。この場合、撮影に用いられた装置が共通するグループ内においてファイル番号は連番とする。図3では、カメラAで撮像されて撮像日時順にソートされた100枚の画像ファイルDFに1〜100のファイル番号を付し、カメラBで撮像されて撮像日時順にソートされた100枚の画像ファイルDFに101〜200のファイル番号を付し、カメラCで撮像されて撮像日時順にソートされた100枚の画像ファイルDFに201〜300のファイル番号を付している。
ステップS106では、顔検出部22が、処理対象とする画像データを有する画像ファイルDFの番号i(ファイル番号)を、i=1に設定する。
ステップS108では、顔検出部22は、現在の番号iにかかる画像ファイルDFの画像データ(第一の画像データ。『対象画像データ』とも呼ぶ。)に含まれる顔画像を検出する顔検出処理を実行する。顔検出処理とは、画像データが表す画像内に人顔が含まれているか否か判定し、人顔が含まれている場合に、その人顔を含む領域(例えば矩形領域)を顔画像として抽出する処理を言い、例えば、特許文献1で説明されている顔認識処理が該当する。なお、顔検出処理の具体的手法は特に限られず、肌色領域の検出や、パターンマッチングによる手法など、種々の公知の手法を採用可能である。
ステップS110では、顔検出部22は、直近のステップS108において顔検出に成功したか否かにより処理を分岐する。具体的には、対象画像データから、一つ以上の顔画像の検出に成功した場合(ステップS110において“Yes”)にはステップS112へ進み、一つの顔画像も検出できなかった場合(ステップS110において“No”)にはステップS118へ進む。
ステップS112では、識別結果適用部24は、対象画像データから検出された顔画像の数と、番号i−1にかかる画像データ、つまり対象画像データの直前に撮像され生成された画像ファイルDFの画像データ(以下、『先行画像データ』と呼ぶ。)から検出済みの顔画像の数が一致するか否か判定する。さらに、識別結果適用部24は、対象画像データにかかる撮像日時と先行画像データにかかる撮像日時との差が所定のしきい値(例えば、数秒)以下であるか否か判定する。そして、上記顔画像の数が一致し、かつ、上記撮像日時の差がしきい値以下である場合のみ(ステップS112において“Yes”)、ステップS116へ進み、それ以外の場合(ステップS112において“No”)はステップS114へ進む。なお、先行画像データは、必ず対象画像データと同一のグループ内(撮像装置が共通する関係内)で選出される。従って、図3の例によれば、現在のファイル番号iが「1」、「101」、「201」のいずれかである場合は、先行画像データは存在せず、ステップS112における判定は“No”となる。また、先行画像データに顔画像が存在しない(先行画像データが対象画像データであったときのステップS108で、顔画像が検出されなかった)場合も、当然ステップS112における判定は“No”となる。
ステップS114では、顔識別部23は、対象画像データから検出された顔画像毎に、顔画像が示す人物を識別する顔識別処理を実行する。顔識別処理の具体的手法も特に限られず、種々の公知の手法を採用可能である。
一例として、所定の記憶領域にデータベースとして予め人物(例えば、人物a,b,c,d)毎に登録した顔の特徴点(目、鼻、口、輪郭など)を示した特徴データと、対象画像データから検出された顔画像の特徴点との比較等により、顔画像が示す人物が誰であるか(人物a,b,c,dのいずれに一致するか)を識別し、識別結果を対象画像データにかかる画像ファイルDFの付帯情報の一種として記録する。また、対象画像データから検出された顔画像の特徴点が上記データベースに登録されたいずれの人物の特徴データとも一致しない場合(あるいは、上記データベースに人物の特徴データが登録されていない場合)は、対象画像データから検出された顔画像の特徴点に基づいて新たな人物の特徴データを登録しつつ、識別結果(当該新たな人物(例えば、人物e)であるという識別結果)を、対象画像データにかかる画像ファイルDFの付帯情報の一種として記録する。
一方、ステップS116では、識別結果適用部24は、対象画像データから検出された顔画像に対する顔識別処理を顔識別部23に実行させず、先行画像データから検出された顔画像に対する識別結果を、対象画像データから検出された顔画像に適用する。つまり、同じ撮像装置で、上記しきい値以内の時間差で撮像された画像であって、写っている人数も同じであるという条件が満たされれば、それらの画像に写っている人物は同一人物であると見なしても問題ないため、当該条件が整う場合には、顔識別処理(ステップS114)は省いて、直前に撮像された画像内の顔に対する識別結果を流用するのである。なお上記しきい値としては、被写体となる人物の変更(人物の入れ替わり或いは増減)が起こらないと想定されるごく短い時間が用いられる。
図4(A)は、先行画像データを例示し、図4(B)は、対象画像データを例示している。図4(A),(B)に示した先行画像データ、対象画像データそれぞれにおいては、人物の顔を含む矩形領域が顔画像FAとして検出されている。図4(A),(B)に示した先行画像データ、対象画像データは、いずれも同人数(1人)の顔画像FAを含んでいるため、これら先行画像データおよび対象画像データについての撮像日時の差が上記しきい値以下であれば、ステップS112の次にステップS116が実行される。つまり、図4(A)に示した先行画像データが対象画像データであったとき(番号i=i−1であったとき)に、その顔画像FAに対してステップS114で実行された(あるいはステップS116で適用された)顔識別処理の結果(例えば、人物aであるという識別結果)を、現在の対象画像データにおける顔画像FAにもそのまま適用する。この適用結果は、対象画像データにかかる画像ファイルDFの付帯情報の一種として記録される。
ステップS118では、顔検出部22は、現在の番号i=Nであるか否か判定し、番号i=Nであれば当該フローチャートを終了する。一方、番号i=Nが不成立であれば、ステップS120において、番号iの数字を一つインクリメントした上でステップS108以下の処理を繰り返す。
このように本実施形態によれば、複数の画像データについて、それらに含まれる顔画像を識別(特定)しようとする場合に、同じ撮像装置で所定のしきい値以内の時間差で撮像されかつ写っている人数も同じであるという条件が満たされれば、直前に撮像された画像データ内の顔画像に対する識別結果をそのまま適用するようにした。そのため、大量の画像データを対象とした顔識別にかかる演算量を大幅に低減させ、かつ短時間で処理を終わらせることができる。
ここで、先行画像データおよび対象画像データに複数の顔画像が含まれていることもある。そのような場合でも、ステップS112において“Yes”と判定された場合はステップS116が実行されるが、以下では、先行画像データおよび対象画像データに複数の顔画像が含まれる場面を想定して、ステップS116の処理を詳述する。
図5(A)は、先行画像データを例示し、図5(B)は、対象画像データを例示している。図5(A),(B)に示した先行画像データ、対象画像データそれぞれには、顔画像FAが3つ検出されている。これら先行画像データおよび対象画像データについての撮像日時の差は上記しきい値以下であるとする。また、図5(A)の先行画像データに関しては、それが対象画像データであったときにステップS114(またはS116)において、3つの顔画像FAについて上から順に、人物a、人物b、人物cと識別された(識別結果を適用された)ものとする。図5(A)では便宜上、人物aと識別された顔画像FAを顔画像FA(a)、人物bと識別された顔画像FAを顔画像FA(b)、人物cと識別された顔画像FAを顔画像FA(c)、と表現している。
図6は、ステップS116の詳細をフローチャートにより示している。
ステップS1161では、識別結果適用部24は、対象画像データから検出された顔画像の数が1であるか否か判定し、顔画像の数が1である場合はステップS1165へ進み、顔画像の数が1ではない(2以上)場合はステップS1162へ進む。
ステップS1162では、識別結果適用部24は、先行画像データ、対象画像データそれぞれにおいて、顔画像の平均の頭頂方向(平均頭頂方向)を求める。図5(A),(B)を例に説明すると、先行画像データに含まれる3つの顔画像FAの頭頂方向の平均が、先行画像データにおける平均頭頂方向として算出され、同様に、対象画像データに含まれる3つの顔画像FAの頭頂方向の平均が、対象画像データにおける平均頭頂方向として算出される。
ステップS1163では、識別結果適用部24は、先行画像データについて、平均頭頂方向と平均頭頂方向に垂直な方向それぞれにおける顔画像FAの位置の分散を求め、平均頭頂方向と平均頭頂方向に垂直な方向のうち、当該求めた分散の値が大きい方の方向を特定する。図5(A)を例に説明すると、3つの顔画像FAは、ほぼ顔の上下方向に沿って並んでいるため、平均頭頂方向における分散の方が、平均頭頂方向に垂直な方向における分散よりも大きい値となる。顔画像FAの位置とは、例えば、顔画像FAの矩形の中心位置である。同様に、識別結果適用部24は、対象画像データについても、平均頭頂方向と平均頭頂方向に垂直な方向それぞれにおける顔画像FAの位置の分散を求め、平均頭頂方向と平均頭頂方向に垂直な方向のうち、分散の値が大きい方の方向を特定する。図5(B)を例に説明すると、3つの顔画像FAは、ほぼ顔の上下方向に沿って並んでいるため、平均頭頂方向における分散の方が、平均頭頂方向に垂直な方向における分散よりも大きい値となる。なお、ステップS1162,S1163で行なう処理のうち、先行画像データについての平均頭頂方向の算出や分散が大きい方向の特定は、既に実行済みであれば、当該実行済みの処理によって得られている結果を用いればよい。
ステップS1164では、識別結果適用部24は、先行画像データについて上記特定した方向における顔画像FAの並び、および対象画像データについて上記特定した方向における顔画像FAの並びに従って、顔画像FAを一対一で対応付ける。図5(A),(B)を例に説明すると、先行画像データにおいて上記特定された方向(平均頭頂方向)に沿って一方側(例えば頭頂側)から順に並ぶ顔画像FA(a),FA(b),FA(c)を、対象画像データにおいて上記特定された方向(平均頭頂方向)に沿って一方側(同じく頭頂側)から順に並ぶ顔画像FA(a´),FA(b´),FA(c´)へ、一対一で対応付ける。なお、顔画像FA(a´),FA(b´),FA(c´)の表記は、図5(B)に例示した複数の顔画像FAを区別するための便宜上の表現である。
ステップS1165では、識別結果適用部24は、先行画像データ、対象画像データ間における顔画像FAの対応付けの結果に従って、先行画像データにおける顔画像FAに対する識別結果を、対象画像データにおける顔画像FAに適用する。図5(A),(B)を例に説明すると、対象画像データにおける顔画像FA(a´)へは、先行画像データにおける顔画像FA(a)に対する識別結果(人物aであるという識別結果)が適用される。同様に、対象画像データにおける顔画像FA(b´)へは、先行画像データにおける顔画像FA(b)に対する識別結果(人物bであるという識別結果)が適用され、対象画像データにおける顔画像FA(c´)へは、先行画像データにおける顔画像FA(c)に対する識別結果(人物cであるという識別結果)が適用される。なお、対象画像データ内の顔画像FAの数が1である場合(ステップS1161において“Yes”)は、先行画像データ、対象画像データ間における顔画像FAの対応関係は選択の余地が無いため、ステップS1161〜S1164は不要である。
このように図5,6を参照した説明によれば、対象画像データ内に複数の人物が写っている場合であっても、各人の識別に要する演算量を大幅に削減しつつも、結果的に各人を的確に識別することができる。
本発明は上述した第一の実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば以下に述べるような実施形態も可能である。各実施形態を適宜組み合わせた内容も、本発明の開示範囲である。なお以下では、これまでに説明した事項と同様の事項については、適宜説明を省略する。
2.第二の実施形態
図7は、第二の実施形態にかかる画像処理装置の一例をブロック図により概略的に示している。画像処理装置は、例えば、デジタルスチルカメラ(DSC)30である。DSC30は、レンズ31と、レンズ31を駆動して焦点(ピント)の位置や焦点距離を調整するレンズ駆動部46と、レンズ駆動部46を制御するレンズ駆動制御部47と、レンズ31を介して受光面に入力された光を電気信号に変換する撮像素子44と、撮像素子44から出力された電気信号に対するアナログ/デジタル変換を行うA/D変換器45と、DSC30の各部を制御するCPU34と、例えばROMやRAMによって構成された内部メモリー39と、ボタンやタッチパネル等により構成された操作部32と、液晶ディスプレー等により構成された表示部33と、カードI/F36と、外部機器との有線あるいは無線による通信を実行するためのI/F部35等を備える。DSC30の各構成要素は、バス38を介して互いに接続されている。
撮像素子44は、例えばCCDやCMOSにより構成される。DSC30は、少なくとも撮像素子44を有する点で、撮像部を備えると言える。カードI/F36は、カードスロット37に挿入された記憶媒体(メモリーカードMC)との間でデータのやり取りを行うためのインターフェースである。カードスロット37に挿入されたメモリーカードMCへは、撮像により生成された所定のフォーマットの画像ファイルが保存される。内部メモリー39には、種々のプログラムやデータが格納されており、その一部として画像処理部40(画像処理プログラム)が格納されている。画像処理部40は、顔検出部41、顔識別部42および識別結果適用部43を含む。CPU34は、内部メモリー39から、当該プログラムを読み出して実行することにより、これら各部の機能を実現する。
図8は、本実施形態にかかる画像処理装置(DSC30)において実現される処理を示すフローチャートである。当該フローチャートは、主に、CPU34が実行する画像処理部40(顔検出部41、顔識別部42および識別結果適用部43)の機能により実現される。
ステップS200では、画像処理部40が準備画像を撮像素子44を介して取得する。ここでは撮像前の種々の処理に用いられる画像という意味で準備画像と呼んでいるが、当該準備画像は、本実施形態においては対象画像データ(第一の画像データ)に該当する。画像処理部40は、レンズ31や撮像素子44やA/D変換器45を制御して、当該対象画像データを取得する。本実施形態では、表示部33が撮像時のモニターとして利用されており、その時点でレンズ31を通して撮像素子44によって捉えられた画像を表す対象画像データが、当該モニターに出力される。
ステップS208では、顔検出部41は、対象画像データに含まれる顔画像を検出する顔検出処理を実行する。
ステップS210では、顔検出部41は、直近のステップS208において顔検出に成功したか否かにより処理を分岐する。対象画像データから一つ以上の顔画像の検出に成功した場合にはステップS212へ進み、一つの顔画像も検出できなかった場合にはステップS200へ戻り、新たな対象画像データを取得する。
ステップS212では、識別結果適用部43は、対象画像データから検出された顔画像の数と、先行画像データに含まれる顔画像の数が一致するか否か判定する。本実施形態で言う先行画像データとは、基本的には、過去にDSC30のシャッターボタン48(図9)が押されて撮像されメモリーカードMCに保存されている画像ファイルのうち、その時点で最新の画像ファイルにかかる画像データを意味する。先行画像データを有する画像ファイルには、先行画像データの撮像日時や顔画像の検出結果等の情報が付帯されている。さらに、識別結果適用部43は、対象画像データの生成日時(直近のステップS200で対象画像データを取得した日時。実質的には現在の時刻。)と、先行画像データにかかる撮像日時との差が所定のしきい値(例えば、数秒)以下であるか否か判定する。DSC30が、タイマー(時計)を備えることは言うまでもない。そして、上記顔画像の数が一致し、かつ、上記日時の差がしきい値以下である場合のみ、ステップS216へ進み、それ以外の場合はステップS214へ進む。先行画像データがそもそも存在しない場合や、先行画像データに顔画像が含まれていない場合はむろんステップS214へ進む。
ステップS214では、顔識別部42は、対象画像データから検出された顔画像毎に、顔画像が示す人物を識別する顔識別処理を実行する。
一方、ステップS216では、識別結果適用部43は、対象画像データから検出された顔画像に対する顔識別処理を顔識別部42に実行させず、先行画像データから検出された顔画像に対する識別結果、つまり先行画像データが対象画像データであったときに顔画像に対してステップS214で実行された(あるいはステップS216で適用された)顔識別処理の結果を、対象画像データ内の顔画像へ適用する。つまり、直前の写真(先行画像データ)が生成されてから上記しきい値を越えない時間であって、撮像素子44を介して表示部33(モニター)に出力されている画像(対象画像データ)に写っている人数が先行画像データに写っている人数と同じであるという条件が満たされれば、写っている人物は同一人物であると見なしても問題ない。そのため、当該条件が整う場合には、顔識別処理(ステップS214)は省いて、直前に生成された画像内の顔に対する識別結果を流用するのである。
図9は、DSC30の背面側の一例を簡易的に示す図である。図9に示すように、DSC30は、背面側に表示部33、操作部32(操作部32の一部)、ファインダー49等、DSCとして一般的な各種構成を備える。また、DSC30の筺体の所定箇所には、シャッターボタン48(操作部32の一種)が備えられている。図9に示すように、表示部33には、現時点で撮像素子44を介して取得されている画像データ(対象画像データ)が表示されている。ここで、DSC30は、対象画像データ上で特定人物を追従する追従機能を有しており、追従機能が有効化されている場合は、特定人物の顔を対象画像データ上において枠Fで囲い続ける。本実施形態では、この追従機能に、ステップS214またはステップS216の結果が利用される。具体的には、画像処理部40は、予め追従対象に設定されている特定人物(例えば、人物a)が、ステップS214における対象画像データ内の顔画像毎に対する顔識別処理で識別された場合には、当該特定人物と識別された顔画像に枠Fを表示する(ステップS218)。あるいは、ステップS216の処理で対象画像データ内の顔画像毎に対して適用された顔識別結果が、当該特定人物を示す結果を含むときも、当該特定人物の識別が適用された顔画像に枠Fを表示する(ステップS218)。
つまり本実施形態によれば、DSC30の表示部33に表示される対象画像データ上で特定人物を追従する場合に、直前の写真(先行画像データ)が生成されてから上記しきい値を越えない時間であって対象画像データに写っている人数が先行画像データに写っている人数と同じである場合には、顔識別処理(ステップS214)を省略し、先行画像データ内の顔画像に対する識別結果を流用する。そのため、対象画像データ上においてリアルタイムで特定人物を追従する際の演算量が大幅に低減される。
図8のフローチャートは繰り返し実行されつつ、ユーザーがシャッターボタン48を押下げたときに撮像が行われる。このとき、画像処理部40は、レンズ31、レンズ駆動部46、レンズ駆動制御部47を制御して、自動焦点合わせ(オートフォーカス)を行い撮像を行う。撮像により撮像素子44で生成された画像データと撮像時刻、人物の識別結果等の付帯情報とを含む画像ファイルが生成され、画像ファイルはメモリーカードMCへ保存される。
なお、本実施形態においても、対象画像データから複数の顔画像が検出された場合であって、ステップS216に進んだ場合には、図6で説明した処理を行なうことにより、先行画像データ内の顔画像と対象画像データ内の顔画像とを対応付けて、顔識別結果を適用する。
また、本実施形態における先行画像データは、必ずしもメモリーに画像ファイルとして保存済み(撮像済み)のデータである必要はない。例えば、ユーザーが操作部32を操作して表示部33の表示内容を所定の操作画面に切り替えさせ、再び、撮像素子44により取得される画像データを表示部33に表示させる状態に戻した場合には、当該操作画面への切り替え直前に撮像素子44により取得されていた画像データを先行画像データとしてもよい。あるいは、ユーザーが操作部32を操作してDSC30の電源をオフにし、再び電源をオンにした場合には、電源がオフされる直前に撮像素子44により取得されていた画像データを先行画像データとしてもよい。
3.その他の実施形態
本発明にかかる画像処理装置は、上述したようなコンピューター10やDSC30の他にも、種々の製品によって具現化される。例えば、本発明にかかる画像処理装置は、大量の画像ファイルを蓄積可能なフォトビューワーや、プリンター等であってもよいし、それ以外の電子機器であってもよい。つまり、これらフォトビューワーやプリンター等の各種電子機器が分類処理部21、顔検出部22(41)、顔識別部23(42)、識別結果適用部24(43)等の機能を発揮し、上述したようなフローチャートで示した処理を実行するとしてもよい。
10…コンピューター、11…HDD、12…操作部、13…表示部、14…CPU、19…内部メモリー、20…画像処理部、21…分類処理部、22…顔検出部、23…顔識別部、24…識別結果適用部、30…DSC、31…レンズ、32…操作部、33…表示部、34…CPU、39…内部メモリー、40…画像処理部、41…顔検出部、42…顔識別部、43…識別結果適用部、44…撮像素子、48…シャッターボタン、MC…メモリーカード、DF…画像ファイル、FA…顔画像、F…枠

Claims (6)

  1. 画像データに含まれる顔画像を検出する顔検出部と、
    検出された顔画像が示す人物を識別する顔識別部と、
    第一の画像データから検出された顔画像の数が当該第一の画像データの直前に生成された先行画像データから検出された顔画像の数と同じであり、かつ、当該第一の画像データが生成された時刻と当該先行画像データが生成された時刻との差が所定のしきい以下である場合には、当該第一の画像データから検出された顔画像に対する識別を上記顔識別部に実行させず、当該先行画像データから検出された顔画像に対する識別の結果を当該第一の画像データから検出された顔画像に適用する識別結果適用部と、
    を備えることを特徴とする画像処理装置。
  2. 所定の記憶領域に保存された複数の画像データを、画像の撮像に用いられた機器の共通性に従ってグループ分けする分類処理部を備え、
    上記識別結果適用部は、上記分けられたグループ内において上記第一の画像データおよび当該第一の画像データに対する上記先行画像データを選出することを特徴とする請求項1に記載の画像処理装置。
  3. 撮像素子を有し画像を撮像可能な撮像部を備え、
    上記識別結果適用部は、上記撮像素子を介して取得される画像データを上記第一の画像データとし、既に撮像部を介して取得された画像を上記先行画像データとすることを特徴とする請求項1に記載の画像処理装置。
  4. 上記識別結果適用部は、先行画像データから検出された複数の顔画像に対する識別の結果を第一の画像データから検出された複数の顔画像に適用する場合は、
    顔画像の平均の頭頂方向を求め、平均の頭頂方向および平均の頭頂方向に垂直な方向それぞれにおける顔画像の位置の分散を求め、平均の頭頂方向又は当該垂直な方向のうち当該分散が大きい方の方向を特定する処理を、第一の画像データと先行画像データのそれぞれについて行い、第一の画像データについて上記特定した方向における顔画像の並びおよび先行画像データについて上記特定した方向における顔画像の並びに従って、顔画像を一対一で対応付けることを特徴とする請求項1〜請求項3のいずれかに記載の画像処理装置。
  5. 画像データに含まれる顔画像を検出する顔検出工程と、
    検出された顔画像が示す人物を識別する顔識別工程と、
    第一の画像データから検出された顔画像の数が当該第一の画像データの直前に生成された先行画像データから検出された顔画像の数と同じであり、かつ、当該第一の画像データが生成された時刻と当該先行画像データが生成された時刻との差が所定のしきい以下である場合には、当該第一の画像データから検出された顔画像に対する識別を上記顔識別工程で実行させず、当該先行画像データから検出された顔画像に対する識別の結果を当該第一の画像データから検出された顔画像に適用する識別結果適用工程と、を備えることを特徴とする画像処理方法。
  6. 画像データに含まれる顔画像を検出する顔検出機能と、
    検出された顔画像が示す人物を識別する顔識別機能と、
    第一の画像データから検出された顔画像の数が当該第一の画像データの直前に生成された先行画像データから検出された顔画像の数と同じであり、かつ、当該第一の画像データが生成された時刻と当該先行画像データが生成された時刻との差が所定のしきい以下である場合には、当該第一の画像データから検出された顔画像に対する識別を上記顔識別機能に実行させず、当該先行画像データから検出された顔画像に対する識別の結果を当該第一の画像データから検出された顔画像に適用する識別結果適用機能と、をコンピューターに実行させることを特徴とする画像処理プログラム。
JP2011277828A 2011-12-20 2011-12-20 画像処理装置、画像処理方法および画像処理プログラム Pending JP2013131795A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011277828A JP2013131795A (ja) 2011-12-20 2011-12-20 画像処理装置、画像処理方法および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011277828A JP2013131795A (ja) 2011-12-20 2011-12-20 画像処理装置、画像処理方法および画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2013131795A true JP2013131795A (ja) 2013-07-04

Family

ID=48909067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011277828A Pending JP2013131795A (ja) 2011-12-20 2011-12-20 画像処理装置、画像処理方法および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2013131795A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017046290A (ja) * 2015-08-28 2017-03-02 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017046290A (ja) * 2015-08-28 2017-03-02 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム

Similar Documents

Publication Publication Date Title
US8314854B2 (en) Apparatus and method for image recognition of facial areas in photographic images from a digital camera
US8831282B2 (en) Imaging device including a face detector
US8494286B2 (en) Face detection in mid-shot digital images
JP5251215B2 (ja) デジタルカメラ
JP5662670B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US8526742B2 (en) Image processing apparatus, method, and program that classifies data of images
JP6049448B2 (ja) 被写体領域追跡装置、その制御方法及びプログラム
JP5959923B2 (ja) 検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
US8626782B2 (en) Pattern identification apparatus and control method thereof
JP6132490B2 (ja) 認証装置、認証方法、およびプログラム
CN101911670A (zh) 使用存储对象识别的数码相机对焦
JP4663700B2 (ja) 撮影装置、及び撮影方法
JP5640388B2 (ja) 画像処理装置、撮像装置、および画像処理プログラム
JP2007310813A (ja) 画像検索装置およびカメラ
US20100188520A1 (en) Imaging device and storage medium storing program
JP6025557B2 (ja) 画像認識装置、その制御方法及びプログラム
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP6087615B2 (ja) 画像処理装置およびその制御方法、撮像装置、および表示装置
JP2013131795A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2006345503A (ja) 撮像装置、撮像方法、画像処理装置、画像処理方法、及びプログラム
US9049382B2 (en) Image processing apparatus and image processing method
JP2008167028A (ja) 撮像装置
JP5464965B2 (ja) 画像処理装置及びその制御方法、並びにプログラム及び記憶媒体
JP2008148262A (ja) 撮像装置及び撮像装置の制御方法、プログラム及び記憶媒体
JP5380833B2 (ja) 撮像装置、被写体検出方法及びプログラム