JP2011060038A - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JP2011060038A JP2011060038A JP2009209694A JP2009209694A JP2011060038A JP 2011060038 A JP2011060038 A JP 2011060038A JP 2009209694 A JP2009209694 A JP 2009209694A JP 2009209694 A JP2009209694 A JP 2009209694A JP 2011060038 A JP2011060038 A JP 2011060038A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- face image
- area
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】顔画像に重なっている遮蔽領域を正確に検出することが困難であった。また、遮蔽領域を正確に検出できないために、各種処理において遮蔽領域の影響を受けた不適切な処理結果が生じていた。
【解決手段】注目画像に含まれる顔の少なくとも一部を含む領域の画像を顔画像として取得する顔画像取得部と、遮蔽領域の検出のための基準画像として用いられる基準顔画像を取得する基準顔画像取得部と、上記顔画像と基準顔画像とを比較することにより、上記顔画像内において、顔を構成する要素以外の要素によって遮蔽された遮蔽領域を検出する遮蔽領域検出部とを備える構成とした。
【選択図】図10
【解決手段】注目画像に含まれる顔の少なくとも一部を含む領域の画像を顔画像として取得する顔画像取得部と、遮蔽領域の検出のための基準画像として用いられる基準顔画像を取得する基準顔画像取得部と、上記顔画像と基準顔画像とを比較することにより、上記顔画像内において、顔を構成する要素以外の要素によって遮蔽された遮蔽領域を検出する遮蔽領域検出部とを備える構成とした。
【選択図】図10
Description
本発明は、画像処理装置に関する。
視覚的事象のモデル化手法として、アクティブアピアランスモデル(Active Appearance Model、略して「AAM」とも呼ばれる)が知られている。AAMでは、例えば、複数のサンプル画像に含まれる顔の特徴部位(例えば目尻や鼻頭やフェイスライン)の位置(座標)や画素値(例えば輝度値)の統計的分析を通じて、上記特徴部位の位置により特定される顔の形状を表す形状モデルや、平均的な顔の形状における「見え(Appearance)」を表すテクスチャーモデルが設定され、これらのモデルを用いて顔画像がモデル化される。AAMによれば、任意の顔画像のモデル化(合成)が可能であり、また、画像に含まれる顔の特徴部位の位置の検出が可能である(特許文献1参照。)。
ここで、デジタルスチルカメラ等で撮影された人顔を含む写真画像においては、顔の領域に遮蔽領域が重なっているものがある。遮蔽領域とは、顔を構成する要素(肌や顔器官など)以外の要素(遮蔽物)で覆われた領域を言う。遮蔽物とは、例えば、顔の手前に写っている植物や人工物、当該人物が装着しているマスクなどが挙げられる。このような遮蔽領域が画像内に存在していると、画像内の顔に対する種々の処理(変形処理や、画像補正処理や、表情判定処理や、顔認証処理など)を行なう際に、顔の一部ではない遮蔽領域の形や色に影響を受けて、これら各処理を適切に実行できない(ユーザーが望む適切な処理結果が得られない)ことがあった。これは、画像内において、顔に遮蔽領域が重なっている状況を正確に検出できないことが一つの要因であった。
本発明は上記課題の少なくとも一つを解決するためになされたものであり、画像内において顔に重なっている遮蔽領域を正確に検出することができ、また、遮蔽領域の有無に応じて適切な処理を実行可能な画像処理装置を提供することを目的とする。
本発明の態様の一つは、画像処理装置は、注目画像に含まれる顔の少なくとも一部を含む領域の画像を顔画像として取得する顔画像取得部と、遮蔽領域の検出のための基準画像として用いられる基準顔画像を取得する基準顔画像取得部と、上記顔画像と基準顔画像とを比較することにより、上記顔画像内において、顔を構成する要素以外の要素によって遮蔽された遮蔽領域を検出する遮蔽領域検出部とを備える構成としてある。
本発明によれば、上記顔画像と基準顔画像との比較結果に応じて遮蔽領域を検出するので、遮蔽領域が存在する場合には正確にそれを検出することができる。
本発明によれば、上記顔画像と基準顔画像との比較結果に応じて遮蔽領域を検出するので、遮蔽領域が存在する場合には正確にそれを検出することができる。
上記基準顔画像取得部は、顔の複数のサンプル画像に対する主成分分析により得られたテクスチャーモデルによって表される上記顔画像のテクスチャーを取得し、当該取得したテクスチャーを構成する固有ベクトルの重みを表したパラメーターを算出し、当該算出したパラメーターおよび上記テクスチャーモデルに基づいて上記顔画像に近似した顔の見えを表現するテクスチャーを生成し、当該生成したテクスチャーを上記基準顔画像とするとしてもよい。当該構成によれば、生成される基準顔画像としてのテクスチャーは、上記顔画像に近似した画像であってかつ遮蔽領域の要素が欠落した画像である。そのため、当該基準顔画像と上記顔画像とを比較することで、顔画像内に遮蔽領域が存在する場合には正確にそれを検出できる。
上記基準顔画像取得部は、顔の複数のサンプル画像を平均化することにより生成された画像である平均顔画像を上記基準顔画像として取得するとしてもよい。当該構成によっても、基準顔画像と上記顔画像とを比較することで、顔画像内に遮蔽領域が存在する場合には正確にそれを検出できる。なお、顔画像と基準顔画像との比較とは、顔画像と基準顔画像との差分を算出することを意味し、この差分の大きさに応じて、顔画像内に遮蔽領域が存在しているか否かを判定できる。
画像処理装置は、上記注目画像に含まれる顔の特徴部位の座標位置を特徴点として検出する特徴位置検出部を備え、上記顔画像取得部は、上記検出された特徴点によって規定される領域の画像を上記顔画像として取得するとともに、当該特徴点の配置が、上記基準顔画像における特徴部位の位置を表す特徴点の配置と等しくなるように上記顔画像を変換した画像である平均形状画像を生成し、上記遮蔽領域検出部は、上記平均形状画像と基準顔画像とを比較することにより上記顔画像内の遮蔽領域を検出するとしてもよい。当該構成によれば、上記顔画像を基準顔画像の形状と同じ形状に整えた上で比較を行なうため、遮蔽領域の検出を正確に行なうことができる。
上記遮蔽領域検出部は、上記平均形状画像における特徴点を頂点とする複数の小領域と、上記基準顔画像における特徴点を頂点とする複数の小領域との間で、位置が対応する小領域の組み合わせ毎に画像の比較を行なうとしてもよい。当該構成によれば、小領域単位で、遮蔽領域に該当するか否かを判定することができるため、上記顔画像におけるいずれの範囲が遮蔽領域に覆われているかを正確に検出できる。
画像処理装置は、上記顔画像の少なくとも一部を変形可能な変形処理部を備え、上記変形処理部は、上記遮蔽領域検出部による検出の成功、不成功に応じて、変形処理の実行態様を異ならせるとしてもよい。当該構成によれば、遮蔽領域が検出された場合には、例えば、変形処理を不実行としたり、検出された遮蔽領域の位置に応じて変形処理の態様を変えたりすることができる。
画像処理装置は、上記注目画像から所定の特徴量を抽出可能な抽出部を備え、上記抽出部は、顔の色に関する特徴量を抽出する際に、上記遮蔽領域検出部によって検出された遮蔽領域を避けて特徴量を抽出するとしてもよい。当該構成によれば、特徴量の抽出対象として相応しくない遮蔽領域から特徴量を抽出してしまうことが防止され、抽出される特徴量の質が向上する。また、当該抽出された特徴量に基づく処理(例えば、顔色の補正)においては、適切な結果が得られる。
画像処理装置は、上記注目画像に含まれる顔の表情判定を実行可能な表情判定部を備え、上記表情判定部は、上記遮蔽領域検出部によって検出された遮蔽領域の上記顔画像内における位置に応じて、表情判定の実行態様を異ならせるとしてもよい。当該構成によれば、遮蔽領域が検出された場合には、その位置に応じて(表情判定の結果に強い影響を与えるような位置に遮蔽領域が存在しているか否かに応じて)、表情判定を不実行としたり、実行したりすることができる。
本発明の技術的思想は、画像処理装置以外によっても実現可能である。例えば、画像処理装置の各部が実行する処理工程を有する画像処理方法の発明や、画像処理装置の各部が実行する機能をコンピューターに実行させるコンピューター読取可能なプログラムの発明をも把握可能である。
以下、本発明の実施例を図面を参照しながら説明する。
1.第1実施例
1‐1.画像処理装置の構成
図1は、本実施形態にかかる画像処理装置としてのプリンター100の構成を概略的に示す説明図である。プリンター100は、メモリーカードMC等から取得した画像データに基づき画像を印刷する、いわゆるダイレクトプリントに対応したインクジェット式カラープリンターである。プリンター100は、プリンター100の各部を制御するCPU110と、ROMやRAMによって構成された内部メモリー120と、ボタンやタッチパネルにより構成された操作部140と、液晶ディスプレイにより構成された表示部150と、印刷機構160と、カードインターフェイス(カードI/F)170と、を備えている。プリンター100は、さらに、他の機器(例えばデジタルスチルカメラやコンピューター300)とのデータ通信を行うためのインターフェイス(I/F)180を備える。プリンター100の各構成要素は、バスを介して双方向通信可能に接続されている。
1.第1実施例
1‐1.画像処理装置の構成
図1は、本実施形態にかかる画像処理装置としてのプリンター100の構成を概略的に示す説明図である。プリンター100は、メモリーカードMC等から取得した画像データに基づき画像を印刷する、いわゆるダイレクトプリントに対応したインクジェット式カラープリンターである。プリンター100は、プリンター100の各部を制御するCPU110と、ROMやRAMによって構成された内部メモリー120と、ボタンやタッチパネルにより構成された操作部140と、液晶ディスプレイにより構成された表示部150と、印刷機構160と、カードインターフェイス(カードI/F)170と、を備えている。プリンター100は、さらに、他の機器(例えばデジタルスチルカメラやコンピューター300)とのデータ通信を行うためのインターフェイス(I/F)180を備える。プリンター100の各構成要素は、バスを介して双方向通信可能に接続されている。
印刷機構160は、印刷データに基づき印刷を行う。カードインターフェイス170は、カードスロット172に挿入されたメモリーカードMCとの間でデータのやり取りを行うためのインターフェイスである。なお、本実施例では、メモリーカードMCに画像データを含む画像ファイルが格納されている。
内部メモリー120には、画像処理部200と、表示処理部310と、印刷処理部320と、が格納されている。画像処理部200は、コンピュータープログラムであり、所定のオペレーティングシステムの下で、CPU110により実行されることで遮蔽領域検出処理や、遮蔽領域検出処理の結果に応じた各種処理を実現する。画像処理部200による処理内容については後に詳述する。表示処理部310、および、印刷処理部320についてもCPU110により実行されることでぞれぞれの機能を実現する。
画像処理部200は、遮蔽領域検出処理を実現するためのプログラムモジュールとして、顔領域検出部210と、特徴位置検出部220と、顔画像取得部230と、基準顔画像取得部240と、遮蔽領域検出部250と、を含んでいる。さらに、画像処理部200は、遮蔽領域検出処理の結果に応じた各種処理を実現するためのプログラムモジュールとして、変形処理部260と、補正処理部(抽出部)270と、表情判定部280と、を含んでいる。
表示処理部310は、表示部150を制御して、表示部150上に処理メニューやメッセージ、画像等を表示させるディスプレイドライバーである。印刷処理部320は、画像データから印刷データを生成し、印刷機構160を制御して、印刷データに基づく画像の印刷を実行するためのコンピュータープログラムである。CPU110は、内部メモリー120から、これらのプログラム(画像処理部200、表示処理部310、印刷処理部320)を読み出して実行することにより、これら各部の機能を実現する。
内部メモリー120には、AAM情報AMIが格納されている。AAM情報AMIは、後述のAAM設定処理によって予め設定される情報であり、顔の特徴部位の座標位置検出において参照される。AAM情報AMIの内容については、後述のAAM設定処理の説明において詳述する。また、内部メモリー120には、特徴点移動テーブル420も格納されている。特徴点移動テーブル420は、上記変形処理の際に参照される(後述)。
1‐2.AAM設定処理
図2は、本実施例におけるAAM設定処理の流れを示すフローチャートである。AAM設定処理は、AAM(アクティブアピアランスモデル(Active Appearance Model))と呼ばれる画像のモデル化に用いられる形状モデルおよびテクスチャーモデルを設定する処理である。本実施例において、AAM設定処理は、ユーザーがAAM設定用に用意されたコンピューター300を操作することにより行なわれる。コンピューター300は、CPUとRAMとROMとHDDとディスプレイと入力装置等を有しており、これらがバスによって接続されている。CPUはHDDに記録されたプログラムを読み出し、該プログラムに従った演算処理を実行することにより、コンピューター300が後述するAAM設定処理を実行する。
図2は、本実施例におけるAAM設定処理の流れを示すフローチャートである。AAM設定処理は、AAM(アクティブアピアランスモデル(Active Appearance Model))と呼ばれる画像のモデル化に用いられる形状モデルおよびテクスチャーモデルを設定する処理である。本実施例において、AAM設定処理は、ユーザーがAAM設定用に用意されたコンピューター300を操作することにより行なわれる。コンピューター300は、CPUとRAMとROMとHDDとディスプレイと入力装置等を有しており、これらがバスによって接続されている。CPUはHDDに記録されたプログラムを読み出し、該プログラムに従った演算処理を実行することにより、コンピューター300が後述するAAM設定処理を実行する。
はじめに、ユーザーは、人物の顔を含んだ複数の画像をサンプル画像SIとしてコンピューター300のメモリー(HDD)上に用意する(ステップS110)。
図3は、サンプル画像SIの一例を示す説明図である。図3に示すように、サンプル画像SIは、個性、人種・性別、表情(怒り、笑い、困り、驚き等)、向き(正面向き、上向き、下向き、右向き、左向き等)といった種々の属性に関して互いに相違する顔画像が含まれるように用意される。サンプル画像SIがそのように用意されれば、AAMによってあらゆる顔画像を精度良くモデル化することが可能となり、あらゆる顔画像を対象とした精度の良い輪郭点検出処理(後述)の実行が可能となる。なお、サンプル画像SIは、学習用画像とも呼ばれる。
図3は、サンプル画像SIの一例を示す説明図である。図3に示すように、サンプル画像SIは、個性、人種・性別、表情(怒り、笑い、困り、驚き等)、向き(正面向き、上向き、下向き、右向き、左向き等)といった種々の属性に関して互いに相違する顔画像が含まれるように用意される。サンプル画像SIがそのように用意されれば、AAMによってあらゆる顔画像を精度良くモデル化することが可能となり、あらゆる顔画像を対象とした精度の良い輪郭点検出処理(後述)の実行が可能となる。なお、サンプル画像SIは、学習用画像とも呼ばれる。
次に、ユーザーの所定の操作によって、コンピューター300は、それぞれのサンプル画像SIに含まれる顔画像に、特徴点CPを設定する(ステップS120)。
図4は、サンプル画像SIにおける特徴点CPの設定方法の一例を示す説明図である。特徴点CPは、顔画像における所定の特徴部位の位置を示す点である。本実施例では、所定の特徴部位として、人物の顔における眉毛上の所定位置(例えば端点や4分割点等、以下同じ)、目の輪郭上の所定位置、鼻筋および小鼻の輪郭上の所定位置、上下唇の輪郭上の所定位置、顎や頬やこめかみの輪郭(フェイスライン)上の所定位置、といった68箇所の部位が設定されている。すなわち、本実施例では、人物の顔に共通して含まれる顔の器官(眉毛、目、鼻、口)およびフェイスラインにおける所定位置を、特徴部位として設定する。図4に示すように、特徴点CPは、コンピューター300がディスプレイに表示したサンプル画像SIにおいてユーザーの操作により画面上で指定された68個の特徴部位を表す位置に設定(配置)される。このように設定された各特徴点CPは各特徴部位に対応しているため、顔画像における特徴点CPの配置は顔の形状を特定していると表現することができる。サンプル画像SIにおける特徴点CPの位置は、座標により特定される。
図4は、サンプル画像SIにおける特徴点CPの設定方法の一例を示す説明図である。特徴点CPは、顔画像における所定の特徴部位の位置を示す点である。本実施例では、所定の特徴部位として、人物の顔における眉毛上の所定位置(例えば端点や4分割点等、以下同じ)、目の輪郭上の所定位置、鼻筋および小鼻の輪郭上の所定位置、上下唇の輪郭上の所定位置、顎や頬やこめかみの輪郭(フェイスライン)上の所定位置、といった68箇所の部位が設定されている。すなわち、本実施例では、人物の顔に共通して含まれる顔の器官(眉毛、目、鼻、口)およびフェイスラインにおける所定位置を、特徴部位として設定する。図4に示すように、特徴点CPは、コンピューター300がディスプレイに表示したサンプル画像SIにおいてユーザーの操作により画面上で指定された68個の特徴部位を表す位置に設定(配置)される。このように設定された各特徴点CPは各特徴部位に対応しているため、顔画像における特徴点CPの配置は顔の形状を特定していると表現することができる。サンプル画像SIにおける特徴点CPの位置は、座標により特定される。
図5は、サンプル画像SIに設定された特徴点CPの座標の一例を示す説明図である。図5において、SI(j)(j=1,2,3・・・)は各サンプル画像SIを示しており、CP(k)(k=0,1,・・・,67)は、対応するサンプル画像SIにおける人物の各特徴点CPを示している。つまり特徴点CPには0〜67までの番号kが付されており、一つ一つの番号はそれぞれに決められた特徴部位に対応している。また、CP(k)‐Xは、特徴点CP(k)のX座標を示しており、CP(k)‐Yは、特徴点CP(k)のY座標を示している。特徴点CPの座標としては、顔の大きさと顔の傾き(画像面内の傾き)と顔のX方向およびY方向の位置とのそれぞれについて正規化されたサンプル画像SIにおける所定の基準点(例えば画像の左下の点)を原点とした座標が用いられる。また、本実施例では、1つのサンプル画像SIに複数の人物の顔画像が含まれる場合が許容されており(例えばサンプル画像SI(2)には2人の顔画像が含まれている)、1つのサンプル画像SIにおける各人物は人物IDによって特定される。
つづいて、コンピューター300は、AAMの形状モデルの設定をおこなう(ステップS130)。具体的には、各サンプル画像SIにおける68個の特徴点CPの座標(X座標およびY座標)により構成される座標ベクトル(図5参照)に対する主成分分析をおこない、特徴点CPの位置により特定される顔の形状sを下記の式(1)によりモデル化する。なお、式(1)で表した形状モデルは、特徴点CPの配置モデルとも呼ぶ。
上記式(1)において、s0は平均形状である。
図6は、平均形状s0の一例を示す説明図である。図6(a)および(b)に示すように、平均形状s0は、サンプル画像SIの各特徴点CPについての平均位置(平均座標)により特定される平均的な顔の形状を表すモデルである。なお、本実施例では、平均形状s0において、外周に位置する特徴点CP(フェイスラインおよび眉毛に対応する特徴点CP、図4参照)を結ぶ直線により囲まれた領域(図6(b)においてハッチングを付して示す)を「平均形状領域BSA」と呼ぶ。平均形状s0においては、図6(a)に示すように、特徴点CPを頂点とする複数の三角形領域TAが、平均形状領域BSAをメッシュ状に分割するように設定される。
図6は、平均形状s0の一例を示す説明図である。図6(a)および(b)に示すように、平均形状s0は、サンプル画像SIの各特徴点CPについての平均位置(平均座標)により特定される平均的な顔の形状を表すモデルである。なお、本実施例では、平均形状s0において、外周に位置する特徴点CP(フェイスラインおよび眉毛に対応する特徴点CP、図4参照)を結ぶ直線により囲まれた領域(図6(b)においてハッチングを付して示す)を「平均形状領域BSA」と呼ぶ。平均形状s0においては、図6(a)に示すように、特徴点CPを頂点とする複数の三角形領域TAが、平均形状領域BSAをメッシュ状に分割するように設定される。
形状モデルを表す上記式(1)において、siは形状ベクトルであり、piは形状ベクトルsiの重みを表す形状パラメーターである。形状ベクトルsiは、顔の形状sの特性を表すベクトルであり、主成分分析により得られる第i主成分に対応する固有ベクトルである。上記式(1)に示すように、本実施例における形状モデルでは、特徴点CPの配置を表す顔形状sが、平均形状s0とn個の形状ベクトルsiの線形結合との和としてモデル化される。形状モデルにおいて形状パラメーターpiを適切に設定することにより、あらゆる画像における顔の形状sを再現することが可能である。
図7は、形状ベクトルsiおよび形状パラメーターpiと、顔の形状sとの関係を例示した説明図である。図7(a)に示すように、顔の形状sを特定するために、寄与率のより大きい主成分に対応する固有ベクトルから順に、累積寄与率に基づき設定された個数n(図7ではn=4)の固有ベクトルが、形状ベクトルsiとして採用される。形状ベクトルsiのそれぞれは、図7(a)の矢印に示すように、各特徴点CPの移動方向・移動量と対応している。本実施例では、最も寄与率の大きい第1主成分に対応する第1形状ベクトルs1は顔の左右振りにほぼ相関するベクトルとなっており、形状パラメーターp1を大小させることにより、図7(b)に示すように、顔の形状sの横方向の顔向きが変化する。2番目に寄与率の大きい第2主成分に対応する第2形状ベクトルs2は顔の上下振りにほぼ相関するベクトルとなっており、形状パラメーターp2を大小させることにより、図7(c)に示すように、顔の形状sの縦方向の顔向きが変化する。また、3番目に寄与率の大きい第3主成分に対応する第3形状ベクトルs3は顔の形状の縦横比にほぼ相関するベクトルとなっており、4番目に寄与率の大きい第4主成分に対応する第4形状ベクトルs4は口の開きの程度にほぼ相関するベクトルとなっている。
このように、形状パラメーターの値は、顔の表情や、顔向きや、形状など顔画像の特徴を表す。形状パラメーターは、特徴部位の座標が既知の顔画像を含む複数のサンプル画像に基づいて算出された特徴量である。また形状モデルは、複数の特徴量に基づいて、顔の輪郭を複数の特徴点CP(フェイスラインおよび眉毛に対応する特徴点CP)の位置によって表現するモデルとも言える。なお、コンピューター300は、形状モデル設定ステップ(ステップS130)において設定した平均形状s0および形状ベクトルsiを、プリンター100に送信する。プリンター100は、送信されたこれらの平均形状s0および形状ベクトルsiの情報を、AAM情報AMI(図1)として内部メモリー120に格納する。
つづいて、コンピューター300は、AAMのテクスチャーモデルの設定をおこなう(ステップS140)。具体的には、まず、各サンプル画像SIに対して、サンプル画像SIにおける特徴点CPの設定位置が平均形状s0における特徴点CPの設定位置と等しくなるように、画像変換(以下、「ワープW」とも呼ぶ)を行う。
図8は、サンプル画像SIのワープWの方法の一例を示す説明図である。各サンプル画像SIにおいては、平均形状s0と同様に、外周に位置する特徴点CPにより囲まれた領域をメッシュ状に分割する複数の三角形領域TAが設定される。ワープWは、複数の三角形領域TAのそれぞれについてのアフィン変換の集合である。すなわち、ワープWにおいては、サンプル画像SIにおけるある三角形領域TAの画像は、平均形状s0における対応する三角形領域TAの画像へとアフィン変換される。ワープWにより、特徴点CPの設定位置が平均形状s0における特徴点CPの設定位置と等しいサンプル画像SI(以下「サンプル画像SIw」と表す)が生成される。
なお、各サンプル画像SIwは、平均形状領域BSA(図8においてハッチングを付して示す)を内包する矩形枠を外周とし、平均形状領域BSA以外の領域(以下「マスク領域MA」とも呼ぶ)がマスクされた画像として生成される。平均形状領域BSAとマスク領域MAとを併せた画像領域を基準領域BAと呼ぶ。また、各サンプル画像SIwは、例えば、縦横56画素×56画素のサイズの画像として正規化される。
次に、各サンプル画像SIwの画素群xのそれぞれにおける輝度値により構成される輝度値ベクトルに対する主成分分析が行われ、顔のテクスチャー(「見え」とも呼ぶ)A(x)が下記の式(2)によりモデル化される。なお、画素群xは、平均形状領域BSAに位置する画素の集合である。
上記式(2)において、A0(x)は平均顔画像である。
図9は、平均顔画像A0(x)の一例を示す説明図である。平均顔画像A0(x)は、ワープWの後のサンプル画像SIw(図8参照)の平均の顔が表された画像である。すなわち、平均顔画像A0(x)は、サンプル画像SIwの平均形状領域BSA内の画素群xの画素値(輝度値)の平均をとることにより算出される画像である。従って、平均顔画像A0(x)は、平均的な顔の形状における平均的な顔のテクスチャー(見え)を表すモデルである。なお、平均顔画像A0(x)は、サンプル画像SIwと同様に、平均形状領域BSAとマスク領域MAとで構成され、例えば、縦横56画素×56画素のサイズの画像として算出される。
図9は、平均顔画像A0(x)の一例を示す説明図である。平均顔画像A0(x)は、ワープWの後のサンプル画像SIw(図8参照)の平均の顔が表された画像である。すなわち、平均顔画像A0(x)は、サンプル画像SIwの平均形状領域BSA内の画素群xの画素値(輝度値)の平均をとることにより算出される画像である。従って、平均顔画像A0(x)は、平均的な顔の形状における平均的な顔のテクスチャー(見え)を表すモデルである。なお、平均顔画像A0(x)は、サンプル画像SIwと同様に、平均形状領域BSAとマスク領域MAとで構成され、例えば、縦横56画素×56画素のサイズの画像として算出される。
テクスチャーモデルを表す上記式(2)において、Ai(x)はテクスチャーベクトルであり、λiはテクスチャーベクトルAi(x)の重みを表すテクスチャーパラメーターである。テクスチャーベクトルAi(x)は、顔のテクスチャーA(x)の特性を表すベクトルであり、具体的には、主成分分析により得られる第i主成分に対応する固有ベクトルである。すなわち、寄与率のより大きい主成分に対応する固有ベクトルから順に、累積寄与率に基づき設定された個数mの固有ベクトルが、テクスチャーベクトルAi(x)として採用される。本実施例では、最も寄与率の大きい第1主成分に対応する第1テクスチャーベクトルA1(x)は、顔色の変化(性別の差とも捉えられる)にほぼ相関するベクトルとなっている。
上記式(2)に示すように、本実施例におけるテクスチャーモデルでは、顔の見えを表す顔のテクスチャーA(x)が、平均顔画像A0(x)とm個のテクスチャーベクトルAi(x)の線形結合との和としてモデル化される。テクスチャーモデルにおいてテクスチャーパラメーターλiを適切に設定することにより、あらゆる画像における顔のテクスチャーA(x)を再現することが可能である。
なお、コンピューター300は、テクスチャーモデル設定ステップ(ステップS140)において設定した平均顔画像A0(x)およびテクスチャーベクトルAi(x)を、プリンター100に送信する。プリンター100は、送信されたこれらの平均顔画像A0(x)およびテクスチャーベクトルAi(x)の情報を、AAM情報AMI(図1)として内部メモリー120に格納する。
なお、コンピューター300は、テクスチャーモデル設定ステップ(ステップS140)において設定した平均顔画像A0(x)およびテクスチャーベクトルAi(x)を、プリンター100に送信する。プリンター100は、送信されたこれらの平均顔画像A0(x)およびテクスチャーベクトルAi(x)の情報を、AAM情報AMI(図1)として内部メモリー120に格納する。
以上説明したAAM設定処理(図2)により、顔の形状をモデル化する形状モデルと、顔のテクスチャーをモデル化するテクスチャーモデルが設定される。設定された形状モデルとテクスチャーモデルとを組み合わせることにより、すなわち合成されたテクスチャーA(x)に対して平均形状s0から形状sへの変換(図8に示したワープWの逆変換)を行うことにより、あらゆる顔画像の形状およびテクスチャーを再現することが可能である。
1‐3.遮蔽領域検出処理を含む画像処理
図10は、本実施例における画像処理を示すフローチャートである。当該処理は、遮蔽領域検出処理と、遮蔽領域検出処理後の処理の一例としての画像変形処理とを含む。
はじめに、画像処理部200(図1)は、処理対象となる注目画像を表す画像データを取得する(ステップS210)。本実施例のプリンター100では、カードスロット172にメモリーカードMCが挿入されると、メモリーカードMCに格納された画像ファイルのサムネイル画像が表示部150に表示される。処理の対象となる1つまたは複数の画像は、操作部140を介してユーザーにより選択される。画像処理部200は、選択された1つまたは複数の画像に対応する画像データを含む画像ファイルをメモリーカードMCより取得して内部メモリー120の所定の領域に格納する。なお、取得された画像データを注目画像データと呼び、注目画像データの表す画像を注目画像OIと呼ぶ。
図10は、本実施例における画像処理を示すフローチャートである。当該処理は、遮蔽領域検出処理と、遮蔽領域検出処理後の処理の一例としての画像変形処理とを含む。
はじめに、画像処理部200(図1)は、処理対象となる注目画像を表す画像データを取得する(ステップS210)。本実施例のプリンター100では、カードスロット172にメモリーカードMCが挿入されると、メモリーカードMCに格納された画像ファイルのサムネイル画像が表示部150に表示される。処理の対象となる1つまたは複数の画像は、操作部140を介してユーザーにより選択される。画像処理部200は、選択された1つまたは複数の画像に対応する画像データを含む画像ファイルをメモリーカードMCより取得して内部メモリー120の所定の領域に格納する。なお、取得された画像データを注目画像データと呼び、注目画像データの表す画像を注目画像OIと呼ぶ。
次に、画像処理部200は、変形処理のタイプや変形度合い等(変形態様)を設定する(ステップS220)。この場合、画像処理部200は、変形態様を設定するためのユーザーインターフェイスを表示部150に表示するように表示処理部310に指示し、当該ユーザーインターフェイスを通じてユーザーにより指定された変形処理のタイプや変形度合いを選択し、処理に用いる変形処理のタイプや変形度合いとして設定する。当該ユーザーインターフェイスを介して設定され得る変形処理のタイプとしては、例えば、顔の形状を全体的に小さくする「小顔化」、顔の形状を細く(シャープに)する「シャープ化」、顔を特定の俳優や歌手等の有名人に似せるように変形する「有名人化」等がある。また、ユーザーは、当該ユーザーインターフェイスを介して変形処理の変形度合い(変形量)を、例えば、「強」、「中」、「弱」の3段階の中から選択して指示することができる。
本実施例では、遮蔽領域検出処理後の処理の一例として画像変形処理を実行する場合を説明しているため、当該ステップS220を組み込んでいるが、遮蔽領域検出処理後に画像変形処理以外の処理を行なう場合には、当該ステップS220は不要である。
本実施例では、遮蔽領域検出処理後の処理の一例として画像変形処理を実行する場合を説明しているため、当該ステップS220を組み込んでいるが、遮蔽領域検出処理後に画像変形処理以外の処理を行なう場合には、当該ステップS220は不要である。
顔領域検出部210(図1)は、注目画像OIに含まれる顔の少なくとも一部を含む画像領域を顔領域FAとして検出する(ステップS230)。顔領域FAの検出は、公知の顔検出手法を用いて行うことができる。公知の顔検出手法としては、例えば、パターンマッチングによる手法や肌色領域抽出による手法、サンプル画像を用いた学習(例えばニューラルネットワークを用いた学習や、ブースティングを用いた学習、サポートベクターマシーンを用いた学習等)により設定される学習データを用いる手法等がある。
図11は、注目画像OIにおける顔領域FAの検出結果の一例を示す説明図である。図11には、注目画像OIにおいて検出された顔領域FAが示されている。本実施例では、おおよそ、顔の上下方向は額から顎まで、左右方向は両耳の外側まで含む矩形の領域が顔領域FAとして検出されるような顔検出手法が用いられている。
特徴位置検出部220(図1)は、注目画像OIに含まれる顔の特徴部位の座標位置を検出する特徴位置検出処理を行なう(ステップS240)。この特徴位置検出処理は、大きく分けて、第一段階としての特徴点CPの初期位置設定処理(Init処理と呼ぶ)と、第二段階としての特徴点CPの設定位置補正処理(Fit処理と呼ぶ)とによって構成される。
図12は、本実施例におけるInit処理を示すフローチャートである。Init処理では、まず、特徴位置検出部220は、顔領域FAに対する顔画像の大きさ、傾き、上下方向の位置および左右方向の位置を表すグローバルパラメーターの値を種々変更して、特徴点CP(番号k=0〜67までの68個の特徴点CP)を注目画像OI上の仮設定位置に設定する(ステップS310)。
図12は、本実施例におけるInit処理を示すフローチャートである。Init処理では、まず、特徴位置検出部220は、顔領域FAに対する顔画像の大きさ、傾き、上下方向の位置および左右方向の位置を表すグローバルパラメーターの値を種々変更して、特徴点CP(番号k=0〜67までの68個の特徴点CP)を注目画像OI上の仮設定位置に設定する(ステップS310)。
図13は、グローバルパラメーターの値を変更することによる特徴点CPの仮設定位置の一例を示す説明図である。図13(a)および図13(b)には、注目画像OIにおける特徴点CPおよび特徴点CPをつないで形成されるメッシュを示している。特徴点CPをつないで形成されるメッシュは、上述したように特徴点CPを頂点とする複数の三角形領域TAの集合である(図6(a)等参照)。特徴位置検出部220は、図13(a)および図13(b)の中央に示すように、平均形状s0における特徴点CPの配置と等しい特徴点CPの配置を持ったメッシュであって、最も平均的なグローバルパラメーターの組み合わせに応じて顔領域FAに対する大きさ、傾き、位置を調整したメッシュを設定する。例えば、顔領域FAに対する大きさを表す3段階(大きい、標準、小さい)のグローバルパラメーターと、顔領域FAに対する上下方向の位置を表す3段階(上、中央、下)のグローバルパラメーターと、顔領域FAに対する左右方向の位置を表す3段階(左、中央、右)のグローバルパラメーターと、顔領域FAに対する傾きを表す3段階(反時計回り(−)に15度、0度、時計回り(+)に15度)のグローバルパラメーターとが存在するとする。この場合、最も平均的なグローバルパラメーターの組み合わせとは、顔領域FAに対する大きさは「標準」、顔領域FAに対する上下方向の位置および左右方向の位置はそれぞれ「中央」、かつ顔領域FAに対する傾きは「0度」を示すグローバルパラメーターの組み合わせを言う。本実施例では、図13(a)および図13(b)の中央に示すようなメッシュを構成する特徴点CPの設定位置(仮設定位置)を、「基準仮設定位置」とも呼ぶ。
特徴位置検出部220は、また、基準仮設定位置に対して、グローバルパラメーターの値を種々変更させた複数の仮設定位置を設定する。グローバルパラメーター(大きさ、傾き、上下方向の位置および左右方向の位置)を変更することは、注目画像OIにおいて特徴点CPにより形成されるメッシュが拡大・縮小、傾きを変更、並行移動することに相当する。従って、特徴位置検出部220は、図13(a)に示すように、基準仮設定位置のメッシュを所定倍率で拡大または縮小したメッシュを形成するような仮設定位置(基準仮設定位置の図の下および上に示す)や、所定角度だけ時計回りまたは半時計回りに傾きを変更したメッシュを形成するような仮設定位置(基準仮設定位置の図の右および左に示す)を設定する。また、特徴位置検出部220は、基準仮設定位置のメッシュに対して、拡大・縮小および傾きの変更を組み合わせた変換を行ったメッシュを形成するような仮設定位置(基準仮設定位置の図の左上、左下、右上、右下に示す)も設定する。
また、図13(b)に示すように、特徴位置検出部220は、基準仮設定位置のメッシュを所定量だけ上または下に並行移動したメッシュを形成するような仮設定位置(基準仮設定位置の図の上および下に示す)や、左または右に並行移動したメッシュを形成するような仮設定位置(基準仮設定位置の図の左および右に示す)を設定する。また、特徴位置検出部220は、基準仮設定位置のメッシュに対して、上下および左右の並行移動を組み合わせた変換を行ったメッシュを形成するような仮設定位置(基準仮設定位置の図の左上、左下、右上、右下に示す)も設定する。
特徴位置検出部220は、図13(a)に示す基準仮設定位置以外の8つの仮設定位置のそれぞれにおけるメッシュに対して図13(b)に示す上下左右の並行移動が実行される仮設定位置も設定する。従って、本実施例では、上述したように夫々に3段階の値を持つ4つのグローバルパラメーター(大きさ、傾き、上下方向の位置、左右方向の位置)を組み合わせたことにより設定される80通り(=3×3×3×3−1)の仮設定位置と基準仮設定位置との、合計81通りの仮設定位置が設定される。
特徴位置検出部220は、設定された各仮設定位置に対応する平均形状画像I(W(x;p))を生成する(ステップS320)。
図14は、平均形状画像I(W(x;p))の一例を示す説明図である。平均形状画像I(W(x;p))は、注目画像OIにおける特徴点CPの配置が平均形状s0における特徴点CPの配置と等しくなるような変換によって算出される。
図14は、平均形状画像I(W(x;p))の一例を示す説明図である。平均形状画像I(W(x;p))は、注目画像OIにおける特徴点CPの配置が平均形状s0における特徴点CPの配置と等しくなるような変換によって算出される。
平均形状画像I(W(x;p))を算出するための変換は、サンプル画像SIw算出のための変換(図8参照)と同様に、三角形領域TA毎のアフィン変換の集合であるワープWにより行われる。具体的には、注目画像OIに仮設定された特徴点CP(図13参照)によって変換対象領域(メッシュの外周に位置する特徴点CPにより囲まれた領域)が特定され、この変換対象領域に対して三角形領域TA毎のアフィン変換が行われることにより、平均形状画像I(W(x;p))が算出される。本実施例では、平均形状画像I(W(x;p))は、平均顔画像A0(x)と同様に平均形状領域BSAおよびマスク領域MAにより構成され、平均顔画像A0(x)と同一サイズ(例えば、縦横56画素×56画素)の画像として算出される。
なお上述したように、画素群xは、平均形状s0における平均形状領域BSAに位置する画素の集合である。本実施例では、平均形状画像は、形状パラメーターpによるワープW(x;p)によって生成された画像(画素群)Iという意味で、平均形状画像I(W(x;p))と表現している。図14には、図13(a)に示した9個の仮設定位置に対応する9個の平均形状画像I(W(x;p))を示している。
特徴位置検出部220は、各仮設定位置に対応する平均形状画像I(W(x;p))と平均顔画像A0(x)との差分画像Ieを算出する(ステップS330)。特徴点CPの仮設定位置は81種類設定されているため、特徴位置検出部220は、81個の差分画像Ieを算出する。
特徴位置検出部220は、各差分画像Ieの画素値からノルム(ユークリッド距離)を算出し、ノルムの値が最も小さい差分画像Ieに対応する仮設置位置(以下「ノルム最小仮設定位置」とも呼ぶ)を、注目画像OIにおける特徴点CPの初期位置として設定する(ステップS340)。ノルムを算出するための差分画像Ieの画素値は輝度値であってもよいしRGB値であってもよい。以上により、Init処理が完了する。Init処理後、特徴位置検出部220はFit処理を実行する。Fit処理では、特徴位置検出部220は、Init処理で初期位置として設定された特徴点CPの設定位置の補正を行う。
図15は、Fit処理を示すフローチャートである。
特徴位置検出部220は、注目画像OIに設定されている特徴点CPに基づいて平均形状画像I(W(x;p))を算出する(ステップS410)。平均形状画像I(W(x;p))の算出方法は、Init処理におけるステップS320と同様である。
特徴位置検出部220は、注目画像OIに設定されている特徴点CPに基づいて平均形状画像I(W(x;p))を算出する(ステップS410)。平均形状画像I(W(x;p))の算出方法は、Init処理におけるステップS320と同様である。
特徴位置検出部220は、ステップS410で生成された平均形状画像I(W(x;p))と平均顔画像A0(x)との差分画像Ieを算出する(ステップS420)。特徴位置検出部220は、ステップS420で算出された差分画像Ieに基づき、Fit処理が収束したか否かを判定する(ステップS430)。特徴位置検出部220は、差分画像Ieのノルムを算出し、ノルムの値が予め設定されたしきい値より小さい場合には収束したと判定し、ノルムの値がしきい値以上の場合には未だ収束していないと判定する。なお、特徴位置検出部220は、算出された差分画像Ieのノルムの値が前回のステップS430において算出されたノルムの値よりも小さい場合には収束したと判定し、前回値以上である場合には未だ収束していないと判定してもよい。あるいは、特徴位置検出部220は、しきい値による判定と前回値との比較による判定とを組み合わせて収束判定を行うとしてもよい。例えば、特徴位置検出部220は、算出されたノルムの値が、しきい値より小さく、かつ、前回値より小さい場合にのみ収束したと判定し、それ以外の場合には未だ収束していないと判定するとしてもよい。
ステップS430の収束判定において未だ収束していないと判定した場合、特徴位置検出部220はパラメーター更新量ΔPを算出する(ステップS440)。パラメーター更新量ΔPは、4個のグローバルパラメーター(全体としての大きさ、傾き、X方向位置、Y方向位置)、および、特徴量であるn個の形状パラメーターpi(i=1〜nの整数。)の値の変更量を意味している。なお、特徴点CPを初期位置に設定した直後においては、グローバルパラメーターは、Init処理(図12)において決定された値が設定されている。また、このときの特徴点CPの初期位置と平均形状s0の特徴点CPの設定位置との相違は、全体としての大きさ、傾き、位置の相違に限られるため、形状モデルにおける形状パラメーターpiの値はすべてゼロである。
パラメーター更新量ΔPは、下記の式(3)により算出される。すなわち、パラメーター更新量ΔPは、アップデートマトリックスRと差分画像Ieとの積である。
式(3)におけるアップデートマトリックスRは、差分画像Ieに基づきパラメーター更新量ΔPを算出するために予め学習により設定されたM行N列のマトリックスであり、AAM情報AMI(図1)として内部メモリー120に格納されている。本実施例では、アップデートマトリックスRの行数Mは、グローバルパラメーターの数(4個)と、形状パラメーターpiの数(n個)との和((4+n)個)に等しく、列数Nは、平均顔画像A0(x)の平均形状領域BSA内の画素数(56画素×56画素−マスク領域MAの画素数)に等しい。アップデートマトリックスRは、下記の式(4)および(5)により算出される。
式(4)および(5)における関数Wは、ワープW(x;p)を指し、変数Pは、形状パラメーターpiを指し、Tは転置行列を意味する。
特徴位置検出部220は、算出したパラメーター更新量ΔPに基づきパラメーター(4個のグローバルパラメーターおよびn個の形状パラメーター)を更新する(ステップS450)。これにより、注目画像OIにおける特徴点CPの設定位置が補正(更新)される。特徴位置検出部220は、差分画像Ieのノルムが小さくなるように特徴点CPの設定位置を補正する。すなわち、上記n個の形状パラメーターをパラメーター更新量ΔPで更新することで、形状モデルの上記式(1)に従って新たな形状sが生成されるため、特徴位置検出部220は、当該生成された形状sにおける特徴点CPを注目画像OIに設定する。このとき、特徴位置検出部220は、当該生成された形状sの大きさ、傾き、位置を、上記パラメーター更新量ΔPで更新した4個のグローバルパラメーターに応じて調整した上で、特徴点CPを注目画像OIに設定する。このようにパラメーターの更新に応じて注目画像OIに設定された特徴点CPの位置が、補正後の特徴点CPの設定位置である。
パラメーターの更新の後には、再度、特徴点CPの設置位置が補正された注目画像OIからの平均形状画像I(W(x;p))の算出(ステップS410)、差分画像Ieの算出(ステップS420)、差分画像Ieに基づく収束判定(ステップS430)が行われる。再度の収束判定においても収束していないと判定された場合には、さらに、差分画像Ieに基づくパラメーター更新量ΔPの算出(ステップS440)、パラメーターの更新による特徴点CPの設定位置補正(ステップS450)が行われる。
図15のステップS410からS450までの処理が繰り返し実行されると、注目画像OIにおける各特徴部位に対応する特徴点CPの位置は実際の特徴部位の位置に全体として近づいていき、ある時点で収束判定(ステップS430)において収束したと判定される。収束判定において収束したと判定されると、特徴位置検出処理が完了する(ステップS460)。特徴位置検出部220は、このとき設定されているグローバルパラメーターおよび形状パラメーターの値により特定される特徴点CPの設定位置を、最終的な注目画像OIにおける特徴点CPの設定位置として検出する。
図16は、特徴位置検出処理の結果の一例を示す説明図である。図16には、注目画像OIにおいて最終的に検出された特徴点CP(番号k=0〜67までの68個の特徴点CP)の設定位置が示されている。特徴点CPの設定位置により、注目画像OIに含まれる顔の特徴部位(人物の顔の器官(眉毛、目、鼻、口)およびフェイスラインにおける所定位置)の座標位置が特定される。つまり、特徴位置検出部220は、収束判定(ステップS430)において収束したと判定した時に、そのときの特徴点CPの設定位置を取得することで、注目画像OIに含まれる顔の特徴部位の座標位置を検出することができる。
次に、顔画像取得部230(図1)は、注目画像OIに含まれる顔の少なくとも一部を含む領域の画像を顔画像FIとして取得する(ステップS250)。本実施例において、“顔画像FI”と言った場合は、注目画像OIにおいて上記最終的に検出された特徴点CPの設定位置によって規定される領域の画像を意味する。具体的には、上記最終的に検出された特徴点CPのうち、外周に位置する特徴点CP(フェイスラインおよび眉毛に対応する特徴点CP)を直線で結んで得られる領域が顔画像FIとなる。顔画像FIは、遮蔽領域が存在するか否かの判定対象となる画像である。
本実施例では、顔画像取得部230は、顔画像FIを更に平均形状画像I(W(x;p))に変換する。つまり、顔画像取得部230は、上記最終的に検出された特徴点CPの配置が平均形状s0における特徴点CPの配置と等しくなるように、上記ステップS320等の処理と同様に、三角形領域TA毎のアフィン変換の集合であるワープWを行い、平均形状画像I(W(x;p))を生成する。
基準顔画像取得部240(図1)は、遮蔽領域検出のための基準画像として用いられる基準顔画像を取得する(ステップS260)。本実施例では、基準顔画像として、平均顔画像A0(x)を内部メモリー120から取得する。
基準顔画像取得部240(図1)は、遮蔽領域検出のための基準画像として用いられる基準顔画像を取得する(ステップS260)。本実施例では、基準顔画像として、平均顔画像A0(x)を内部メモリー120から取得する。
遮蔽領域検出部250(図1)は、顔画像FIと基準顔画像とを比較することにより、顔画像FI内において、顔を構成する要素以外の要素によって遮蔽された(遮蔽されたと推定される)遮蔽領域SAを検出する(ステップS270)。具体的には、遮蔽領域検出部250は、顔画像FIから変換された平均形状画像I(W(x;p))と、基準顔画像としての平均顔画像A0(x)とを、位置が対応する三角形領域TA(小領域)の組み合わせ毎に比較し、三角形領域TA間の差分に基づいて平均形状画像I(W(x;p))側の三角形領域TAが遮蔽領域SAに該当するか否か判定する。例えば、平均形状画像I(W(x;p))側の三角形領域TAと、平均顔画像A0(x)側の三角形領域TAとの間で、位置が対応し合う画素間の輝度差を算出し、かかる輝度差の総和を三角形領域TA内の画素数で除して得た値を、三角形領域TA間の差分とする。
そして、当該差分と所定のしきい値とを比較し、差分がしきい値以上であれば、そのとき比較に用いている平均形状画像I(W(x;p))側の三角形領域TAを遮蔽領域SAと判定し、一方、当該差分がしきい値より小さければ、その三角形領域TAは遮蔽領域SAではないと判定する。遮蔽領域検出部250は、このような平均形状画像I(W(x;p))の三角形領域TA毎の判定結果に基づいて、顔画像FIにおいて遮蔽領域SAの検出を行なう。つまり、平均形状画像I(W(x;p))の各三角形領域TAと顔画像FIの各三角形領域TAとは一対一で対応しているため、平均形状画像I(W(x;p))において遮蔽領域SAと判定された三角形領域TAに対応する顔画像FI側の三角形領域TAを、遮蔽領域SAとして検出する。このような検出結果を、遮蔽領域検出部250は顔画像FI毎に内部メモリー120に記録しておく。
図17は、遮蔽領域検出部250が顔画像FIから遮蔽領域SAを検出した結果の一例を示している。なお、顔画像FIは、実際には上記外周に位置する特徴点CPに囲まれた範囲における人顔の画像そのものであるが、図17では、説明容易のため、各特徴点CPおよび特徴点CPを頂点とする各三角形領域TAだけで顔画像FIを表現している。図17においては、顔の正面に向かって左側の頬から顎にかけての範囲に対応する複数の三角形領域TAがそれぞれ遮蔽領域SAとして検出されている。図17では便宜的に、遮蔽領域SAにハッチングを付している。つまり、このときの注目画像OIに含まれている顔は、顔の正面に向かって左側の頬から顎にかけての範囲が、何らかの遮蔽物によって覆われた状態で撮影された顔であることが推定される。
変形処理部260(図1)は、遮蔽領域検出部250による検出結果に応じて、注目画像OIにおける顔画像FIに対する変形処理を行なう(ステップS280)。この場合、変形処理部260は、遮蔽領域検出部250による遮蔽領域SAの検出の成功、不成功に応じて、変形処理の実行態様を異ならせる。
図18は、ステップS280における変形処理の一例を示したフローチャートである。まず、ステップS510では、変形処理部260は、上記ステップS270(遮蔽領域検出処理)において顔画像FIから遮蔽領域SAが検出されたか否かを判定する。変形処理部260は、顔画像FIから遮蔽領域SAが検出されていないと判定した場合は、次のステップS520に進み、一方、顔画像FIから遮蔽領域SAが一つでも検出されていると判定した場合には、当該変形処理のフローチャートを終了させる(顔画像FIに対する変形処理を行なわない)。つまり、遮蔽領域SAを含む顔画像FIに対して変形処理を施すと、遮蔽領域SAの画像も変形される等、不適切な変形結果(見栄えの悪い変形結果)が得られる虞があるため、変形処理を行なわないようにする。
ステップS520では、変形処理部260は、顔画像FIの外周における特徴点CP(上記最終的に検出された特徴点CPのうち、外周に位置する特徴点CP。以下、輪郭点OPとも呼ぶ。)の位置に基づいて、当該輪郭点OPで囲まれた領域よりも広い領域であって顔の少なくとも一部を含む領域を、変形処理の対象領域として設定する。以下では、ステップS520で設定する対象領域を、変形領域CAと呼ぶ。
図19は、当該ステップS520の処理によって注目画像OIに設定される変形領域CAを例示している。変形処理部260は、注目画像OIにおいて、輪郭点OPに囲まれた領域内に基準点SPを設定する。基準点SPとは、輪郭点OPに囲まれた領域のほぼ中心に相当する点である。本実施例では、顔領域FAの重心を基準点SPとして設定する。ただし変形処理部260は、注目画像OIにおいて設定された特徴点CPのうち、例えば、鼻の所定位置に該当する特徴点CPの位置を、基準点SPとしてもよい。
次に、変形処理部260は、基準点SPと各輪郭点OPとを結ぶ各線分Lを生成するとともに、各線分Lを、各輪郭点OPから外側へ所定距離だけ延長する。ここで言う所定距離とは、例えば、顔領域FAのサイズの10%程度の長さを言う。顔領域FAのサイズとは、例えば、顔領域FAの縦幅と横幅との平均値である。なお、顔領域FAの縦幅とは、顔の高さ方向(上下方向)における顔領域FAの幅であり、顔領域FAの横幅とは、顔の横方向(左右方向)における顔領域FAの幅である。変形処理部260は、上記延長した各線分Lの端部(基準点SPではない端部)に、外枠点PPを設定する。
ただし、各輪郭点OPに対応する各外枠点PPの設定方法は、上述した手法に限られない。つまり、各外枠点PPは、各輪郭点OPとの所定の位置関係に基づいて各輪郭点OPの外側に設定される点である。変形処理部260は、隣接する外枠点PP同士を線分で結ぶことにより、外枠点PPで囲まれた領域を設定し、かかる領域を変形領域CAとする。
図19では、黒丸で表した各輪郭点OPの外側に、白丸で各外枠点PPを示している。このように外枠点PPで囲まれた変形領域CAの形状は、輪郭点OPで囲まれた領域の形状に沿った形状となっている。つまり変形領域CAは、注目画像OIに含まれている顔の形状を詳細に反映した形となっている。
次に、変形処理部260は、変形領域CA内の画像に対する変形処理の際に移動対象とする特徴点CPを、上記最終的に検出された特徴点CP(輪郭点OPを含む特徴点CP)の中から、上記ステップS220(図10)で設定された変形処理のタイプに応じて選択する(ステップS530)。上述したように、変形処理のタイプは、「小顔化」、「シャープ化」、「有名人化」等の中からユーザーが入力操作により任意に設定可能であり、変形処理のタイプと移動対象として選択すべき特徴点CPとの対応関係は、予め決められているものとする。例えば、「小顔化」が設定されている場合には、変形処理部260は、「小顔化」のために移動対象とする特徴点CPを選択する。変形処理部260は、「小顔化」のための移動対象の特徴点CPとして、例えば、顎から頬にかけてのフェイスラインに対応する所定の番号にかかる複数の特徴点CP(輪郭点OP)を選択する。以下では、ステップS530において選択した特徴点CPを、選択特徴点SCPと呼ぶ。ステップS530においては外枠点PPは選択されない。
なお、図20に示すように、「小顔化」のための選択特徴点SCPを、便宜上、SCP0〜SCP10と表現する。図20(後述の図22も同様)では、特徴点CP(輪郭点OPを含む特徴点CP)を黒丸で表し、上記外枠点PPを図19と同様に白丸で表している。
次に、変形処理部260は、内部メモリー120に格納された特徴点移動テーブル420に規定された移動量(あるいは、計算により設定された移動量)に従い、選択特徴点SCPの位置を移動して小領域(三角形領域)を変形することにより、変形領域CAを変形させる(ステップS540)。ここで言う三角形領域とは、変形領域CAを構成する複数の三角形領域であって、外枠点PPまたは特徴点CPを頂点として分割される三角形領域を意味している。特徴点移動テーブル420は、上述した変形処理のタイプ別、かつ、変形度合い(上述の例では、「強」、「中」、「弱」)別に予め用意されている。従って、当該S620では、変形処理部420は、上記ステップS220で設定された変形処理のタイプおよび変形度合いに対応する特徴点移動テーブル420を用いる。なお上記移動量は、画像の変形量とも呼べる。
図21は、特徴点移動テーブル420(変形処理のタイプが「小顔化」かつ、変形度合いが「中」、に対応する特徴点移動テーブル420)の一例を示している。特徴点移動テーブル420では、その変形処理のタイプに対応する選択特徴点SCP毎に、基準線RLと直交する方向(H方向と呼ぶ。)に沿った移動量及び基準線RLと平行な方向(V方向と呼ぶ。)に沿った移動量を定義している。基準線RLとは、顔領域FAの重心を通り、顔領域FAの高さ方向に沿った辺に平行な直線である(図19参照)。従って、H方向は顔の横方向に略相等し、V方向は顔の上下方向に略相等する。この移動量は、例えば、注目画像OIの画素ピッチを単位として表されたり、所定のサイズを100としたときの比率などで表される。当該所定のサイズとは、例えば、H方向に対する所定のサイズであれば、顔領域FAの横幅や、輪郭点OPによって囲まれた領域の横幅などが該当し、V方向に対する所定のサイズであれば、顔領域FAの縦幅や、輪郭点OPによって囲まれた領域の縦幅などが該当する。
また、H方向については、注目画像OIに向かって右側への移動量が正の値として表され、向かって左側への移動量が負の値として表され、V方向については、注目画像OIに向かって上方への移動量が正の値として表され、下方への移動量が負の値として表される。このような移動量は、特徴点移動テーブル420が対応している変形度合いのレベルに応じて、異なる値に設定されている。
図22は、特徴点移動テーブル420に従った選択特徴点SCPの位置の移動の一例を示す説明図である。図22の例では、変形領域CA内において、上記選択特徴点SCP0〜SCP10の位置を移動させて変形する際の具体的な変形態様(小顔化)を示している。変形処理部260は、変形領域CAを構成する各三角形領域について、選択特徴点SCPの位置移動前の状態における領域の画像が選択特徴点CPの位置移動により新たに定義された領域の画像となるように、画像の変形処理を行う。図22では、理解容易のために、上段(変形前の図)において、各選択特徴点SCPの移動方向を矢印で例示しており、下段(変形後の図)において、選択特徴点SCPの移動に伴って変形した各三角形領域にハッチングを付している。つまり、3つの頂点の中に1つでも選択特徴点SCPを含んでいる三角形領域は全て変形の対象となる。三角形領域毎の画像の変形処理は、上述したようにアフィン変換によって実現してもよいし、特開2009‐104672号公報に記載された方法によって行ってもよい。
図22に示すように、ステップS540における選択特徴点SCPの移動の結果、V方向に関しては、選択特徴点SCP0〜SCP10のうち、左右の頬の最も高い位置に対応する選択特徴点SCP0,SCP10を除く選択特徴点SCP1〜SCP9の位置が上方に移動される。また、H方向に関しては、顎の先端に対応する選択特徴点SCP5を除いて、向かって左側の選択特徴点SCP0〜SCP4の位置が右方向に移動され、向かって右側の選択特徴点SCP6〜SCP10の位置が左方向に移動される。そのため、注目画像OIにおける顔は、フェイスライン内側の顎や頬を含む領域(顔画像FIの一部の領域)が全体的に顔の略中心方向に向かって縮小するように変形され、フェイスライン外側の領域(特に、首の領域)が全体的に顔の略中心方向に向かって延びるように変形される。この結果、小顔化が実現される。本実施例では、変形領域CAの内外の画像間の境界が不自然とならないように、変形領域CAの外枠上に位置する外枠点PPの位置は移動されないものとしている。
図23は、ステップS280における変形処理の他の例を示したフローチャートである。なお、図23の処理は、ステップS615の判定が含まれる点においてのみ、図18の処理と異なり、ステップS610,S620〜S640は、ステップS510〜S540と同じである。変形処理部260は、顔画像FIから遮蔽領域SAが一つでも検出されていると判定した場合(ステップS610において“Yes”)には、その検出された遮蔽領域SAが、後のステップS640の際に変形対象となる三角形領域に該当するか否か判定する(ステップS615)。ステップS640では、上述のS540と同様に、変形領域CA内の三角形領域のうち、3つの頂点の中に1つでも選択特徴点SCPを含む領域はすべて変形対象となる。そのため、変形処理部260は、このような変形対象となる三角形領域をS615の時点で特定する(ただし、顔画像FI内の三角形領域のみ特定する)とともに、当該特定した三角形領域の中に遮蔽領域SAに該当するものが一つでもあるか判定し、該当するものがある場合には、当該変形処理のフローチャートを終了させる。
一方、変形処理部260は、検出された遮蔽領域SAの全てが、後のステップS640の際に変形対象となる三角形領域に該当しない場合は、ステップS620の処理に進む。すなわち、変形処理部260は、顔画像FIから遮蔽領域SAが検出されている場合であっても、その遮蔽領域SAが、変形処理の際に変形の対象となる三角形領域ではない場合は、変形処理に対する遮蔽領域SAの影響は無いと判断し、変形処理を実行するとしてもよい。さらなる例(図18,図23の処理とは異なる例)として、変形処理部260は、変形領域CA内の変形対象となる三角形領域のうち、上記検出された遮蔽領域SAに該当する領域については変形させず、上記検出された遮蔽領域SAに該当しない領域については上記選択特徴点SCPの移動による変形を行なうとしてもよい。
さらに変形処理部260は、上記ステップS510あるいは、ステップS610やS615において“Yes”の判定をしたとき、遮蔽領域SAが顔画像FI内に存在すること、あるいは変形対象となる画像領域に遮蔽物が重なっていること等を警告する所定の表示を、表示部150に表示するように表示処理部310に指示するとしてもよい。そして、表示部150に表示された当該警告を見たユーザーからの、変形処理の実行・不実行の指示に応じて、ステップS520あるいはステップS620以降の処理の実行・不実行を分岐するとしてもよい。
このように本実施例によれば、顔領域FAの検出および上記特徴位置検出処理を行なうことにより、注目画像OIに含まれる顔の特徴部位の座標位置に高精度に一致する特徴点CPを検出し、特徴点CPの設定位置によって規定される領域の画像を顔画像FIとし、顔画像FI(顔画像FIから変換された平均形状画像)と基準顔画像(例えば、平均顔画像A0(x))とを比較することにより、顔画像FI内において遮蔽領域SAを高い精度で検出できるようになった。つまり、顔画像FIと平均的な顔の見えを持つ基準顔画像とを小領域単位で比較して差分を評価することにより、顔画像FI内の小領域毎に、顔の要素ではない要素に覆われた領域であるか否か(遮蔽領域SAであるか否か)を正確に判定することができる。
また、本実施例によれば、このように注目画像OI内の顔に遮蔽領域SAが存在するか否かや、顔のどの領域に遮蔽領域SAが存在するかについての正確な検出結果を用いることにより、種々の画像処理、例えば顔の変形処理等において、最適な処理の選択を行なうことができる。つまり、遮蔽領域SAの影響による変形処理等における不適切な処理結果の発生を、確実に防止することができる。
本発明は第1実施例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、以下のような各実施例も可能である。むろん、第1実施例や各実施例を適宜組み合わせた構成も、本発明の範囲となる。以下において特に言及しない部分については、第1実施例で説明した内容が適用されるものとする。
2.第2実施例
上記では、遮蔽領域検出処理(図10のステップS270)の際に顔画像FIと比較する基準顔画像として、平均顔画像A0(x)を用いたが、基準顔画像は平均顔画像A0(x)以外の画像でもよい。平均顔画像A0(x)は、個性、人種・性別、表情、向き、といった各特性が互いに異なる複数のサンプル画像(顔)の形状および見えを平均化したものである。そのため、どのような顔画像FIとの比較にも用いることができ、かつその比較結果に基づいて、一定以上の精度で遮蔽領域SAの有無を判定することができる。つまり、利便性や効率性を考えた場合、平均顔画像A0(x)は基準顔画像として相応しい。
上記では、遮蔽領域検出処理(図10のステップS270)の際に顔画像FIと比較する基準顔画像として、平均顔画像A0(x)を用いたが、基準顔画像は平均顔画像A0(x)以外の画像でもよい。平均顔画像A0(x)は、個性、人種・性別、表情、向き、といった各特性が互いに異なる複数のサンプル画像(顔)の形状および見えを平均化したものである。そのため、どのような顔画像FIとの比較にも用いることができ、かつその比較結果に基づいて、一定以上の精度で遮蔽領域SAの有無を判定することができる。つまり、利便性や効率性を考えた場合、平均顔画像A0(x)は基準顔画像として相応しい。
一方、遮蔽領域SAの検出精度を最優先する場合は、平均顔画像A0(x)以上に顔画像FIの比較対象として相応しい画像を、別途用意することも可能である。例えば、顔画像FIが白人男性の顔である場合、これと比較する基準顔画像も、白人男性の顔の基準となるような画像であれば、顔画像FIと基準顔画像との差分に応じて、顔画像FI内の遮蔽領域SAを極めて高精度に検出することができる。そこで本実施例では、顔画像FIの特徴に応じた基準顔画像を生成し、このように生成した基準顔画像を遮蔽領域検出処理に用いる場合について説明する。
本実施例では、画像処理部200は、顔画像FIの特徴に応じた基準顔画像を生成するに先立って、テクスチャー検出処理を実行する。テクスチャー検出処理は、特徴位置検出処理(ステップS240)よりも後に実行する。
図24は、テクスチャー検出処理を示すフローチャートである。画像処理部200は、特徴位置検出処理が完了した時点で注目画像OIに設定されている特徴点CPに基づいて、注目画像OIから平均形状画像I(W(x;p))を算出する(ステップS710)。当該ステップS710の処理は、顔画像FIを平均形状画像I(W(x;p))に変換することと全く同じ処理である。
図24は、テクスチャー検出処理を示すフローチャートである。画像処理部200は、特徴位置検出処理が完了した時点で注目画像OIに設定されている特徴点CPに基づいて、注目画像OIから平均形状画像I(W(x;p))を算出する(ステップS710)。当該ステップS710の処理は、顔画像FIを平均形状画像I(W(x;p))に変換することと全く同じ処理である。
さらに、画像処理部200は、平均形状画像I(W(x;p))に基づく平均テクスチャー画像J(Q(x;λ))を算出する(ステップS715)。平均テクスチャー画像J(Q(x;λ))は、以下の式(6)によって算出される。
式(6)は、式(2)における顔のテクスチャーA(x)に平均形状画像I(W(x;p))を代入したものであり、テクスチャーパラメーターλiが適切に設定されれば、J(Q(x;λ))が平均顔画像A0(x)と等しくなる。なお、初めてステップS715において平均テクスチャー画像J(Q(x;λ))を算出する場合、画像処理部200は、適当なテクスチャーパラメーターλi(例えば、デフォルト値として予め決められたテクスチャーパラメーターλi)を用いて算出する。本実施例では、平均テクスチャー画像は、テクスチャーパラメーターλの変更による上記式(6)の変換Q(x;λ)によって生成された画像(画素群)Jという意味で、平均テクスチャー画像J(Q(x;λ))と表現している。
式(6)は、式(2)における顔のテクスチャーA(x)に平均形状画像I(W(x;p))を代入したものであり、テクスチャーパラメーターλiが適切に設定されれば、J(Q(x;λ))が平均顔画像A0(x)と等しくなる。なお、初めてステップS715において平均テクスチャー画像J(Q(x;λ))を算出する場合、画像処理部200は、適当なテクスチャーパラメーターλi(例えば、デフォルト値として予め決められたテクスチャーパラメーターλi)を用いて算出する。本実施例では、平均テクスチャー画像は、テクスチャーパラメーターλの変更による上記式(6)の変換Q(x;λ)によって生成された画像(画素群)Jという意味で、平均テクスチャー画像J(Q(x;λ))と表現している。
画像処理部200は、平均テクスチャー画像J(Q(x;λ))と平均顔画像A0(x)との差分画像Ieを算出する(ステップS720)。画像処理部200は、差分画像Ieに基づき、テクスチャー検出処理が収束したか否かを判定する(ステップS730)。画像処理部200は、差分画像Ieのノルムを算出し、ノルムの値が予め設定されたしきい値より小さい場合には収束したと判定し、ノルムの値がしきい値以上の場合には未だ収束していないと判定する。なお、画像処理部200は、算出された差分画像Ieのノルムの値が前回のステップS730において算出された値よりも小さい場合には収束したと判定し、前回値以上である場合には未だ収束していないと判定するものとしてもよい。ここにおける収束の判定は、上述したFit処理における収束判定と同様の手法により行うことができる。
ステップS730の収束判定において未だ収束していないと判定された場合には、画像処理部200は、パラメーター更新量ΔΛを算出する(ステップS740)。パラメーター更新量ΔΛは、特徴量であるm個のテクスチャーパラメーターλi(i=1〜mの整数。)の値の変更量を意味している。パラメーター更新量ΔΛは、下記の式(9)により算出される。すなわち、パラメーター更新量ΔΛは、アップデートマトリックスUと差分画像Ieとの積である。
式(7)におけるアップデートマトリックスUは、差分画像Ieに基づきパラメーター更新量ΔΛを算出するために予め学習により設定されたM行N列のマトリックスであり、AAM情報AMI(図1)として内部メモリー120に格納されている。本実施例では、アップデートマトリックスUの行数Mは、テクスチャーパラメーターλiの数(m個)に等しく、列数Nは、平均形状領域BSA内の画素数(56画素×56画素−マスク領域MAの画素数)に等しい。アップデートマトリックスUは、下記の式(8),(9)により算出される。
式(8)および(9)における関数Qは、上記式(6)による変換を指し、変数Λは、テクスチャーパラメーターλiを指し、Tは転置行列を意味する。
式(8)および(9)における関数Qは、上記式(6)による変換を指し、変数Λは、テクスチャーパラメーターλiを指し、Tは転置行列を意味する。
画像処理部200は、算出したパラメーター更新量ΔΛに基づきテクスチャーパラメーターλiを更新する(ステップS750)。これにより、顔のテクスチャーA(x)が補正される。すなわち、画像処理部200は、差分画像Ieのノルムが小さくなるように補正する。パラメーターの更新の後には、再度、補正されたテクスチャーパラメーターλiに基づいて平均テクスチャー画像J(Q(x;λ))の算出(ステップS715)、差分画像Ieの算出(ステップS720)、差分画像Ieに基づく収束判定(ステップS730)が行われる。再度の収束判定においても収束していないと判定された場合には、さらに、差分画像Ieに基づくパラメーター更新量ΔΛの算出(ステップS740)、パラメーターの更新によるテクスチャーの補正(ステップS750)が行われる。
図24のステップS710からS750までの処理が繰り返し実行されると、上記式(2)で計算される顔のテクスチャーA(x)の各画素の輝度値(色彩値)が、実際の顔画像FIの輝度値に全体として近づいていき、ある時点で収束判定(ステップS730)において収束したと判定される。収束判定において収束したと判定されると、テクスチャー検出処理が完了する(ステップS760)。テクスチャー検出処理完了のとき設定されているテクスチャーパラメーターλiの値は、対応するテクスチャーベクトルAi(x)が表す顔の特性に関して、注目画像OIにおける実際の顔の見えと平均顔画像A0(x)見えとがどれぐらい異なっているかを示している。従って、画像処理部200は、このとき設定されているテクスチャーパラメーターλiの値により特定される顔のテクスチャーA(x)を、顔画像FIの最終的な見えとして特定する。
このようにテクスチャー検出処理が行なわれたことを前提として、基準顔画像取得部240(図1)は、上記ステップS260(図10)において、基準顔画像を生成し取得する。
このようにテクスチャー検出処理が行なわれたことを前提として、基準顔画像取得部240(図1)は、上記ステップS260(図10)において、基準顔画像を生成し取得する。
図25は、基準顔画像取得部240による基準顔画像の生成処理を示したフローチャートである。基準顔画像取得部240は、まず、上記テクスチャー検出処理によって特定された顔画像FIのテクスチャーA(x)を取得する。(ステップS810)。
次に、基準顔画像取得部240は、上記ステップS810で取得したテクスチャーA(x)に基づいて、下記式(10)により、パラメーターEを求める(ステップS820)。
次に、基準顔画像取得部240は、上記ステップS810で取得したテクスチャーA(x)に基づいて、下記式(10)により、パラメーターEを求める(ステップS820)。
式(10)および下記式(11)においては、E=(e1,e2,…em)であり、Ai(x)=(A1(x),A2(x),…Am(x))である。つまり、式(10)によって、顔画像FIのテクスチャーA(x)における各固有ベクトル(各テクスチャーベクトル)の内積値が、パラメーターEとして算出される。このようなパラメーターEは、顔画像FIのテクスチャーA(x)がPCA(主成分分析)で定義された空間において、どの主成分をどの程度含んでいるかを示していると言える。
基準顔画像取得部240は、上記ステップS820で算出したパラメーターE=(e1,e2,…em)を下記式(11)に代入することにより、新たなテクスチャーA(x)´を算出する(ステップS830)。下記式(11)は、式(2)と同様に、顔のテクスチャーA(x)´を、平均顔画像A0(x)と各テクスチャーベクトルAi(x)の線形結合との和により表している。
ここで、顔画像FIが仮に遮蔽領域SAを含むものであったとしても、遮蔽領域SAに該当する画像が持つ成分は、顔のテクスチャーを構成するいずれの固有ベクトルによっても表されない成分である。従って、上記のように算出されるパラメーターEは、顔画像FIに含まれる遮蔽領域SAを表す成分についての重みを欠いたパラメーターである。よって、かかるパラメーターEに基づいて生成したテクスチャーA(x)´は、顔画像FIの見えの特性と非常に近似した特性を持つ顔であって、かつ、遮蔽領域SAが欠落した(遮蔽領域SAを表し得ない)顔を表現していると言える。
本実施例では、基準顔画像取得部240は、上記のように算出したテクスチャーA(x)´を、基準顔画像として取得する。つまり基準顔画像取得部240は、図25の処理によって、顔画像FIのテクスチャーを構成する固有ベクトルの重みを表したパラメーターEを算出し、当該算出したパラメーターEおよびテクスチャーモデルに基づいて顔画像FIに近似した顔の見えを表現するテクスチャーを生成し、当該生成したテクスチャーを基準顔画像とする。
基準顔画像としてテクスチャーA(x)´が取得された場合、遮蔽領域検出部250は、顔画像FI(顔画像FIから変換された平均形状画像)と、テクスチャーA(x)´とを比較することにより、顔画像FI内において遮蔽領域SAを検出する(図10のステップS270)。比較の手法は第1実施例で述べた通りである。
このように本実施例によれば、遮蔽領域検出の対象となる顔画像FIの見えの特性と近似した特性を持つ顔であって遮蔽領域SAが欠落した顔を表現するテクスチャーを生成し、当該生成したテクスチャーと顔画像FIとを比較することにより遮蔽領域SAを検出する。そのため、仮に、顔画像FIに遮蔽領域SAが含まれている場合には、当該比較結果において遮蔽領域SAの存在が端的に表れることとなり、よって、極めて正確に遮蔽領域SAの有無を判定することができる。
このように本実施例によれば、遮蔽領域検出の対象となる顔画像FIの見えの特性と近似した特性を持つ顔であって遮蔽領域SAが欠落した顔を表現するテクスチャーを生成し、当該生成したテクスチャーと顔画像FIとを比較することにより遮蔽領域SAを検出する。そのため、仮に、顔画像FIに遮蔽領域SAが含まれている場合には、当該比較結果において遮蔽領域SAの存在が端的に表れることとなり、よって、極めて正確に遮蔽領域SAの有無を判定することができる。
3.第3実施例
遮蔽領域検出部250による検出結果に応じて行なう処理としては、第1実施例のような変形処理(図10のステップS280)だけに限られず、これに加えてあるいは替えて、種々の処理が挙げられる。
図26は、補正処理部(抽出部)270(図1)が、遮蔽領域検出処理(ステップS270)よりも後に実行する画像補正処理の一例を示したフローチャートである。補正処理部270は、特徴量の抽出対象となる領域を注目画像OI上において特定する(ステップS910)。ここでは、顔の色を補正するために、顔の色(肌色)に関する特徴量を抽出することを目的とし、例えば、顔領域FAや、そのときの顔画像FIの範囲を、特徴量の抽出対象の領域として特定する。
遮蔽領域検出部250による検出結果に応じて行なう処理としては、第1実施例のような変形処理(図10のステップS280)だけに限られず、これに加えてあるいは替えて、種々の処理が挙げられる。
図26は、補正処理部(抽出部)270(図1)が、遮蔽領域検出処理(ステップS270)よりも後に実行する画像補正処理の一例を示したフローチャートである。補正処理部270は、特徴量の抽出対象となる領域を注目画像OI上において特定する(ステップS910)。ここでは、顔の色を補正するために、顔の色(肌色)に関する特徴量を抽出することを目的とし、例えば、顔領域FAや、そのときの顔画像FIの範囲を、特徴量の抽出対象の領域として特定する。
次に、補正処理部270は、上記ステップS270において遮蔽領域SAが検出されている否かを判定する(ステップS920)。補正処理部270は、遮蔽領域SAが検出されている場合にはステップS930に進み、遮蔽領域SAが検出されていない場合には、ステップS930をスキップしてステップS940に進む。
ステップS930では、補正処理部270は、上記ステップS910で特定した領域のうち、上記検出された遮蔽領域SAに該当する部分については特徴量の抽出対象の領域から除外した上で、特徴量の抽出対象の領域を特定し直す。
ステップS930では、補正処理部270は、上記ステップS910で特定した領域のうち、上記検出された遮蔽領域SAに該当する部分については特徴量の抽出対象の領域から除外した上で、特徴量の抽出対象の領域を特定し直す。
補正処理部270は、その時点で特定されている(ステップS910またはステップS930で特定された)抽出対象の領域内から、肌色画素(所定の表色系における肌色に該当する座標範囲に含まれる画素値を持った画素)をサンプリングする(ステップS940)。
補正処理部270は、上記サンプリングした肌色画素の画素値を解析することにより、所定の統計値を特徴量として抽出する(ステップS950)。ここでは、例えば、輝度値や各色要素RGB等の、平均値、最大・最小値、メジアン、最頻値等、種々の統計値を特徴量として取得可能である。
補正処理部270は、上記サンプリングした肌色画素の画素値を解析することにより、所定の統計値を特徴量として抽出する(ステップS950)。ここでは、例えば、輝度値や各色要素RGB等の、平均値、最大・最小値、メジアン、最頻値等、種々の統計値を特徴量として取得可能である。
補正処理部270は、上記抽出した特徴量に応じた補正処理を実行する(ステップS960)。本実施例では、当該補正処理の具体的内容は特に問わない。例えば、補正処理部270は、肌色画素の輝度平均値に基づいて、注目画像OIにおける顔の明るさ(肌色画素の明るさ)を補正したり、肌色画素のRGB毎の特徴量の比率に応じて、注目画像OIにおける顔のカラーバランス(肌色画素のカラーバランス)を補正したりする。なお、上記遮蔽領域SAが検出されている場合には、当該補正を行う際にも、補正処理部270は、遮蔽領域SAについては補正の対象としないようにする。
このように本実施例によれば、画像補正(例えば、顔の色補正)のために画素をサンプリングして特徴量を抽出する際に、遮蔽領域SAが存在する場合には、遮蔽領域SAを避けて画素をサンプリングして特徴量を抽出するようにした。そのため、このようにして得られる特徴量は、補正すべき画像の特徴(顔の肌の輝度や色等)を正確に表したものとなり、結果、適切な画像補正が実行される。
4.第4実施例
図27は、表情判定部280(図1)が、遮蔽領域検出処理(ステップS270)よりも後に実行する表情判定処理の一例を示したフローチャートである。表情判定部280は、注目画像OIに含まれる顔の表情判定を実行可能であり、本実施例では、遮蔽領域SAの顔画像FI内における位置に応じて表情判定の実行態様を異ならせる。
表情判定部280は、上記ステップS270において遮蔽領域SAが検出されている否かを判定する(ステップS1010)。表情判定部280は、遮蔽領域SAが検出されている場合にはステップS1020に進み、遮蔽領域SAが検出されていない場合には、ステップS1040に進む。
図27は、表情判定部280(図1)が、遮蔽領域検出処理(ステップS270)よりも後に実行する表情判定処理の一例を示したフローチャートである。表情判定部280は、注目画像OIに含まれる顔の表情判定を実行可能であり、本実施例では、遮蔽領域SAの顔画像FI内における位置に応じて表情判定の実行態様を異ならせる。
表情判定部280は、上記ステップS270において遮蔽領域SAが検出されている否かを判定する(ステップS1010)。表情判定部280は、遮蔽領域SAが検出されている場合にはステップS1020に進み、遮蔽領域SAが検出されていない場合には、ステップS1040に進む。
ステップS1020では、表情判定部280は、そのときの顔画像FI内の領域のうち、表情判定に必要な顔器官(例えば、口や左右の目など。)に該当する領域が、上記検出された遮蔽領域SAに該当するか否か判定する。顔画像FI内における口に該当する領域や、左右の目に該当する領域等は、口や目等の位置に対応する特徴点CPを頂点とする各三角形領域の位置によって特定する。表情判定部280は、これら表情判定に必要な顔器官に該当する領域のいずれか一つでも遮蔽領域SAに該当する場合には、ステップS1030に進み、表情判定に必要な顔器官に該当する領域の全てが遮蔽領域SAに該当しない場合には、ステップS1040に進む。
ステップS1030では、表情判定部280は、適切な表情判定が実行不能であると判断し、表情判定処理を中止し、当該フローチャートを終える。あるいは、表情判定部280は当該ステップS1030において、表示処理部310に指示することにより、遮蔽領域SAが顔画像FI内に存在するために表情判定を実行不能である旨の警告を、表示部150に表示させるとしてもよい。一方、ステップS1040では、表情判定部280は、上記表情判定に必要な顔器官に該当する領域の形状や特徴点CPの位置等に基づき、公知の表情判定手法によって表情判定を実行する。むろん、表情判定の結果は、表示部150に表示させる等することができる。
なお、表情判定部280は、表情判定に必要な顔器官に該当する領域の全てが遮蔽領域SAに該当しない場合にのみ表情判定を実行する構成ではなく、表情判定に必要な顔器官に該当する領域の一部についてのみ遮蔽領域SAに該当する場合にも、表情判定を実行するとしてもよい。このように本実施例によれば、注目画像OIに含まれる顔の表情判定を実行しようとする際に、遮蔽領域SAが存在する場合には、遮蔽領域SAの位置と、表情判定に必要な顔器官の位置との関係に応じて、表情判定の実行・不実行を分岐する。そのため、遮蔽領域SAの影響による不正確な表情判定結果が得られてしまうことを防止できる。
5.変形例
上記のような遮蔽領域SAの検出結果は、上述した各処理以外にも適用可能である。
例えば、画像処理部200は、注目画像OIに含まれている顔について認証(顔の個人認証)を実行しようとする際、当該顔内に遮蔽領域SAが存在する場合には、遮蔽領域SAに該当する領域を避けた領域から、認証に必要な情報(特徴量)を取得して認証を実行するとしてもよい。
上記のような遮蔽領域SAの検出結果は、上述した各処理以外にも適用可能である。
例えば、画像処理部200は、注目画像OIに含まれている顔について認証(顔の個人認証)を実行しようとする際、当該顔内に遮蔽領域SAが存在する場合には、遮蔽領域SAに該当する領域を避けた領域から、認証に必要な情報(特徴量)を取得して認証を実行するとしてもよい。
また、デジタルスチルカメラを本実施形態にかかる画像処理装置とした場合、デジタルスチルカメラ内のメモリーに画像処理部200としてのコンピュータープログラムやAAM情報AMIを格納しておく。そして、ユーザーによる任意の撮影時に、デジタルスチルカメラ(画像処理部200)は、レンズから入力した画像に対して、上記ステップS230〜S270等の処理を行なうことにより、当該画像から遮蔽領域SAの検出を試みるとしてもよい。そして、画像処理部200は、当該画像に含まれる顔画像FIにおいて遮蔽領域SAが検出された場合には、例えば、デジタルスチルカメラの液晶ディスプレイに、ユーザーに対する警告を表示させたり、顔画像FIの範囲から遮蔽領域SAが検出されなくなるまでカメラのシャッターボタンの押下げを無効としたりする。
上述した特徴点CPの初期位置設定処理(Init処理)や設定位置補正処理(Fit処理)では、注目画像OIに基づき平均形状画像I(W(x;p))を算出することにより、注目画像OIの特徴点CPの設定位置を平均顔画像A0(x)の特徴点CPの設定位置に整合させている。しかし逆に、平均顔画像A0(x)に対して画像変換を行うことにより、注目画像OIの特徴点CPと平均顔画像A0(x)の特徴点CPとの配置を整合させるとしてもよい。
また、Init処理において、4つのグローバルパラメーター(大きさ、傾き、上下方向の位置、左右方向の位置)のそれぞれについての3段階の値の組み合わせに対応する仮設定位置が予め設定されているが、仮設定位置の設定に用いるパラメーターの種類および数やパラメーター値の段階数は変更可能である。
また上記では、サンプル画像SIwの画素群xのそれぞれにおける輝度値により構成される輝度値ベクトルに対する主成分分析によってテクスチャーモデルが設定されているが、顔画像のテクスチャー(見え)を表す輝度値以外の指標値(例えばRGB値)に対する主成分分析によってテクスチャーモデルが設定されるものとしてもよい。
また上記では、サンプル画像SIwの画素群xのそれぞれにおける輝度値により構成される輝度値ベクトルに対する主成分分析によってテクスチャーモデルが設定されているが、顔画像のテクスチャー(見え)を表す輝度値以外の指標値(例えばRGB値)に対する主成分分析によってテクスチャーモデルが設定されるものとしてもよい。
また、平均顔画像A0(x)のサイズは56画素×56画素に限られず他のサイズであってもよい。また、平均顔画像A0(x)は、マスク領域MA(図8)を含む必要はなく、平均形状領域BSAのみによって構成されるとしてもよい。また、平均顔画像A0(x)の代わりに、サンプル画像SIの統計的分析に基づき設定される他の基準顔画像が用いられるとしてもよい。
また上記では、AAMを用いた形状モデルおよびテクスチャーモデルの設定が行われているが、他のモデル化手法(例えばMorphable Modelと呼ばれる手法やActive Blobと呼ばれる手法)を用いて形状モデルおよびテクスチャーモデルの設定が行われるとしてもよい。
また上記では、AAMを用いた形状モデルおよびテクスチャーモデルの設定が行われているが、他のモデル化手法(例えばMorphable Modelと呼ばれる手法やActive Blobと呼ばれる手法)を用いて形状モデルおよびテクスチャーモデルの設定が行われるとしてもよい。
また上記では、メモリーカードMCに格納された画像が注目画像OIに設定されているが、注目画像OIは例えばネットワークを介して取得された画像であってもよい。
また上記では、主に画像処理装置としてのプリンター100による画像処理を説明したが、処理の一部または全部がコンピューター300や、デジタルビデオカメラ等の他の種類の画像処理装置により実行されるものとしてもよい。また、プリンター100はインクジェットプリンターに限らず、他の方式のプリンター、例えばレーザプリンターや昇華型プリンターであるとしてもよい。
また上記では、主に画像処理装置としてのプリンター100による画像処理を説明したが、処理の一部または全部がコンピューター300や、デジタルビデオカメラ等の他の種類の画像処理装置により実行されるものとしてもよい。また、プリンター100はインクジェットプリンターに限らず、他の方式のプリンター、例えばレーザプリンターや昇華型プリンターであるとしてもよい。
100…プリンター、110…CPU、120…内部メモリー、140…操作部、150…表示部、160…印刷機構、170…カードインターフェイス、172…カードスロット、200…画像処理部、210…顔領域検出部、220…特徴位置検出部、230…顔画像取得部、240…基準顔画像取得部、250…遮蔽領域検出部、260…変形処理部、270…補正処理部(抽出部)、280…表情判定部、300…コンピューター、310…表示処理部、320…印刷処理部、420…特徴点移動テーブル
Claims (8)
- 注目画像に含まれる顔の少なくとも一部を含む領域の画像を顔画像として取得する顔画像取得部と、
遮蔽領域の検出のための基準画像として用いられる基準顔画像を取得する基準顔画像取得部と、
上記顔画像と基準顔画像とを比較することにより、上記顔画像内において、顔を構成する要素以外の要素によって遮蔽された遮蔽領域を検出する遮蔽領域検出部とを備えることを特徴とする画像処理装置。 - 上記基準顔画像取得部は、顔の複数のサンプル画像に対する主成分分析により得られたテクスチャーモデルによって表される上記顔画像のテクスチャーを取得し、当該取得したテクスチャーを構成する固有ベクトルの重みを表したパラメーターを算出し、当該算出したパラメーターおよび上記テクスチャーモデルに基づいて上記顔画像に近似した顔の見えを表現するテクスチャーを生成し、当該生成したテクスチャーを上記基準顔画像とすることを特徴とする請求項1に記載の画像処理装置。
- 上記基準顔画像取得部は、顔の複数のサンプル画像を平均化することにより生成された画像である平均顔画像を上記基準顔画像として取得することを特徴とする請求項1に記載の画像処理装置。
- 上記注目画像に含まれる顔の特徴部位の座標位置を特徴点として検出する特徴位置検出部を備え、
上記顔画像取得部は、上記検出された特徴点によって規定される領域の画像を上記顔画像として取得するとともに、当該特徴点の配置が、上記基準顔画像における特徴部位の位置を表す特徴点の配置と等しくなるように上記顔画像を変換した画像である平均形状画像を生成し、
上記遮蔽領域検出部は、上記平均形状画像と基準顔画像とを比較することにより上記顔画像内の遮蔽領域を検出することを特徴とする請求項1〜請求項3のいずれかに記載の画像処理装置。 - 上記遮蔽領域検出部は、上記平均形状画像における特徴点を頂点とする複数の小領域と、上記基準顔画像における特徴点を頂点とする複数の小領域との間で、位置が対応する小領域の組み合わせ毎に画像の比較を行なうことを特徴とする請求項4に記載の画像処理装置。
- 上記顔画像の少なくとも一部を変形可能な変形処理部を備え、
上記変形処理部は、上記遮蔽領域検出部による検出の成功、不成功に応じて、変形処理の実行態様を異ならせることを特徴とする請求項1〜請求項5のいずれかに記載の画像処理装置。 - 上記注目画像から所定の特徴量を抽出可能な抽出部を備え、
上記抽出部は、顔の色に関する特徴量を抽出する際に、上記遮蔽領域検出部によって検出された遮蔽領域を避けて特徴量を抽出することを特徴とする請求項1〜請求項6のいずれかに記載の画像処理装置。 - 上記注目画像に含まれる顔の表情判定を実行可能な表情判定部を備え、
上記表情判定部は、上記遮蔽領域検出部によって検出された遮蔽領域の上記顔画像内における位置に応じて、表情判定の実行態様を異ならせることを特徴とする請求項1〜請求項7のいずれかに記載の画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009209694A JP2011060038A (ja) | 2009-09-10 | 2009-09-10 | 画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009209694A JP2011060038A (ja) | 2009-09-10 | 2009-09-10 | 画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011060038A true JP2011060038A (ja) | 2011-03-24 |
Family
ID=43947584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009209694A Pending JP2011060038A (ja) | 2009-09-10 | 2009-09-10 | 画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011060038A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013089032A (ja) * | 2011-10-18 | 2013-05-13 | Kao Corp | 顔印象判定チャート |
JP2013242757A (ja) * | 2012-05-22 | 2013-12-05 | Sony Corp | 画像処理装置及び画像処理方法、並びにコンピューター・プログラム |
WO2016038647A1 (en) * | 2014-09-11 | 2016-03-17 | Nec Corporation | Image processing device, image processing method and storage medium storing program thereof |
JP2016081212A (ja) * | 2014-10-15 | 2016-05-16 | 日本電気株式会社 | 画像認識装置、画像認識方法、および、画像認識プログラム |
CN109859097A (zh) * | 2019-01-08 | 2019-06-07 | 北京奇艺世纪科技有限公司 | 脸部图像处理方法、设备、图像处理设备、介质 |
JP2020038731A (ja) * | 2019-12-12 | 2020-03-12 | 日本電気株式会社 | 画像認識装置、画像認識方法、および、画像認識プログラム |
CN111428607A (zh) * | 2020-03-19 | 2020-07-17 | 浙江大华技术股份有限公司 | 一种追踪方法、装置及计算机设备 |
KR102144101B1 (ko) * | 2019-02-15 | 2020-08-12 | 주식회사 비플러스랩 | 안면 인식 방법 및 이를 적용한 출입문 안면 인식 시스템 |
CN111860288A (zh) * | 2020-07-16 | 2020-10-30 | 启航汽车有限公司 | 人脸识别方法、装置及系统、可读存储介质 |
JP2022163731A (ja) * | 2019-12-12 | 2022-10-26 | 日本電気株式会社 | 情報処理装置、情報処理方法、および、情報処理プログラム |
CN115601564A (zh) * | 2022-11-14 | 2023-01-13 | 广州市景泰科技有限公司(Cn) | 基于图像识别的胶体轮廓检测方法及系统 |
WO2023162132A1 (ja) * | 2022-02-25 | 2023-08-31 | 日本電信電話株式会社 | 画像変換装置、方法およびプログラム |
-
2009
- 2009-09-10 JP JP2009209694A patent/JP2011060038A/ja active Pending
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013089032A (ja) * | 2011-10-18 | 2013-05-13 | Kao Corp | 顔印象判定チャート |
JP2013242757A (ja) * | 2012-05-22 | 2013-12-05 | Sony Corp | 画像処理装置及び画像処理方法、並びにコンピューター・プログラム |
WO2016038647A1 (en) * | 2014-09-11 | 2016-03-17 | Nec Corporation | Image processing device, image processing method and storage medium storing program thereof |
JP2017527040A (ja) * | 2014-09-11 | 2017-09-14 | 日本電気株式会社 | 画像処理装置、画像処理方法およびそのプログラムを記憶する記憶媒体 |
US10878582B2 (en) | 2014-09-11 | 2020-12-29 | Nec Corporation | Image processing device, image processing method and storage medium storing program for tracking an object |
JP2016081212A (ja) * | 2014-10-15 | 2016-05-16 | 日本電気株式会社 | 画像認識装置、画像認識方法、および、画像認識プログラム |
US9953211B2 (en) | 2014-10-15 | 2018-04-24 | Nec Corporation | Image recognition apparatus, image recognition method and computer-readable medium |
CN109859097A (zh) * | 2019-01-08 | 2019-06-07 | 北京奇艺世纪科技有限公司 | 脸部图像处理方法、设备、图像处理设备、介质 |
CN109859097B (zh) * | 2019-01-08 | 2023-10-27 | 北京奇艺世纪科技有限公司 | 脸部图像处理方法、设备、图像处理设备、介质 |
KR102144101B1 (ko) * | 2019-02-15 | 2020-08-12 | 주식회사 비플러스랩 | 안면 인식 방법 및 이를 적용한 출입문 안면 인식 시스템 |
JP2021103538A (ja) * | 2019-12-12 | 2021-07-15 | 日本電気株式会社 | 情報処理装置、情報処理方法、および、情報処理プログラム |
JP7124912B2 (ja) | 2019-12-12 | 2022-08-24 | 日本電気株式会社 | 情報処理装置、情報処理方法、および、情報処理プログラム |
JP2022163731A (ja) * | 2019-12-12 | 2022-10-26 | 日本電気株式会社 | 情報処理装置、情報処理方法、および、情報処理プログラム |
JP2020038731A (ja) * | 2019-12-12 | 2020-03-12 | 日本電気株式会社 | 画像認識装置、画像認識方法、および、画像認識プログラム |
JP7302719B2 (ja) | 2019-12-12 | 2023-07-04 | 日本電気株式会社 | 情報処理装置、情報処理方法、および、情報処理プログラム |
CN111428607A (zh) * | 2020-03-19 | 2020-07-17 | 浙江大华技术股份有限公司 | 一种追踪方法、装置及计算机设备 |
CN111428607B (zh) * | 2020-03-19 | 2023-04-28 | 浙江大华技术股份有限公司 | 一种追踪方法、装置及计算机设备 |
CN111860288A (zh) * | 2020-07-16 | 2020-10-30 | 启航汽车有限公司 | 人脸识别方法、装置及系统、可读存储介质 |
CN111860288B (zh) * | 2020-07-16 | 2023-12-22 | 启航汽车有限公司 | 人脸识别方法、装置及系统、可读存储介质 |
WO2023162132A1 (ja) * | 2022-02-25 | 2023-08-31 | 日本電信電話株式会社 | 画像変換装置、方法およびプログラム |
CN115601564B (zh) * | 2022-11-14 | 2023-03-17 | 广州市景泰科技有限公司 | 基于图像识别的胶体轮廓检测方法及系统 |
CN115601564A (zh) * | 2022-11-14 | 2023-01-13 | 广州市景泰科技有限公司(Cn) | 基于图像识别的胶体轮廓检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011060038A (ja) | 画像処理装置 | |
KR102362544B1 (ko) | 이미지 처리를 위한 방법 및 장치, 및 컴퓨터 판독 가능 저장 매체 | |
JP6864449B2 (ja) | イメージの明るさを調整する方法及び装置 | |
JP2010186288A (ja) | 顔画像の所定のテクスチャー特徴量を変更する画像処理 | |
JP5088018B2 (ja) | 画像処理装置及び制御プログラム | |
JP2011053942A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US9135726B2 (en) | Image generation apparatus, image generation method, and recording medium | |
JP2010182150A (ja) | 顔の特徴部位の座標位置を検出する画像処理装置 | |
JP2010186216A (ja) | 顔画像における特徴部位の位置の特定 | |
US20090231628A1 (en) | Image Processing Apparatus, Image Processing Method, Computer Program for Image Processing | |
JP2010191592A (ja) | 顔の特徴部位の座標位置を検出する画像処理装置 | |
US20090028390A1 (en) | Image Processing for Estimating Subject Distance | |
JP2010250420A (ja) | 顔の特徴部位の座標位置を検出する画像処理装置 | |
US11321960B2 (en) | Deep learning-based three-dimensional facial reconstruction system | |
JP2010250419A (ja) | 目の様態を検出する画像処理装置 | |
JP2010244321A (ja) | 顔画像を表す顔モデルを設定する画像処理 | |
JP2010282339A (ja) | 目における瞳の位置を補正する画像処理装置、画像処理方法、画像処理プログラム、および、印刷装置 | |
US8031915B2 (en) | Image processing device and image processing method | |
JP2010176314A (ja) | 顔の特徴部位の座標位置を検出する画像処理装置 | |
JP2010170184A (ja) | 顔画像における特徴部位の位置の特定 | |
JP6098133B2 (ja) | 顔構成部抽出装置、顔構成部抽出方法及びプログラム | |
JP2010271955A (ja) | 画像処理装置、画像処理方法、画像処理プログラム、および、印刷装置 | |
US20090231627A1 (en) | Image Processing Apparatus, Image Processing Method, Computer Program for Image Processing | |
JP2010244251A (ja) | 顔の特徴部位の座標位置を検出する画像処理装置 | |
JP2010245721A (ja) | 顔画像に対する画像処理 |