JP2010033221A - 肌色検出装置および方法並びにプログラム - Google Patents

肌色検出装置および方法並びにプログラム Download PDF

Info

Publication number
JP2010033221A
JP2010033221A JP2008193152A JP2008193152A JP2010033221A JP 2010033221 A JP2010033221 A JP 2010033221A JP 2008193152 A JP2008193152 A JP 2008193152A JP 2008193152 A JP2008193152 A JP 2008193152A JP 2010033221 A JP2010033221 A JP 2010033221A
Authority
JP
Japan
Prior art keywords
skin color
model
target image
face
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2008193152A
Other languages
English (en)
Inventor
To Chin
涛 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008193152A priority Critical patent/JP2010033221A/ja
Priority to US12/509,661 priority patent/US20100021056A1/en
Publication of JP2010033221A publication Critical patent/JP2010033221A/ja
Abandoned legal-status Critical Current

Links

Images

Abstract

【課題】対象画像から精度良く肌色を検出する。
【解決手段】顔検出部3が対象画像から顔を検出し、サンプル取得部4が検出した顔から肌色サンプル領域を取得する。特徴量抽出部5が肌色サンプル領域から複数の特徴量を抽出し、モデル作成部6が、複数の特徴量の統計的な分布をガウス混合モデルにより近似し、ガウス混合モデルを用いたEMアルゴリズムにより肌色モデルを作成する。検出部7が肌色モデルを用いて対象画像から肌色領域を検出する。
【選択図】図1

Description

本発明は、画像から肌色領域を検出する肌色検出装置および方法並びに肌色検出方法をコンピュータに実行させるためのプログラムに関するものである。
人物が含まれる画像においては、肌色を適切に再現することが重要である。このため、オペレータがマニュアル操作により画像に含まれる肌色領域を指定し、指定した肌色領域に対して適切な画像処理を行うことが考えられる。また、オペレータの負担を軽減するために、画像に含まれる肌色領域を自動で検出するための様々な手法が提案されている。
例えば、画像の色空間を、肌色を定義するモデルを生成しやすいTSL色空間に変換し、肌色分布モデルを作成するための多数のサンプル画像をTSL色空間に変換し、変換後の画像を用いて肌色の分布モデルを作成し、この分布モデルを用いて肌色を検出する手法が提案されている(特許文献1参照)。また、多数のサンプル画像から肌色のサンプルデータを収集し、収集した肌色画像データをHSV変換して肌色の(H,S)データを集め、集めた(H,S)データのヒストグラムをガウス混合モデルにて近似し、ガウス混合モデルのパラメータを得、肌色検出の対象となる対象画像の各画素に対してガウス混合モデルのパラメータを用いて肌色尤度を算出し、算出した肌色尤度をしきい値と比較して、肌色であるか否かを判定する手法も提案されている(特許文献2参照)。また、特許文献2に記載された手法を動画像に適用した手法も提案されている(特許文献3参照)。
特開2006−313468号公報 特開2004−246424号公報 特開2007−257087号公報
上記特許文献1〜3に記載された手法は、多種多様なサンプル画像を用いて、汎用的な肌色を検出するための肌色モデルを作成するものである。しかしながら、肌色検出の対象となる対象画像には様々な人物が含まれ、さらに照明条件も種々異なるものとなるため、肌色モデルを作成する際に使用したサンプル画像と、対象画像に含まれる肌色とは必ずしも一致しないこととなる。したがって、特許文献1〜3に記載された手法により作成した肌色モデルを用いたのでは、肌色を誤認識してしまう可能性が高く、その結果、対象画像から精度良く肌色領域を検出できないおそれがある。
本発明は上記事情に鑑みなされたものであり、対象画像から精度良く肌色領域を検出することを目的とする。
本発明による肌色検出装置は、対象画像に含まれる人物毎に、該対象画像の各画素が肌色であるか否かを判定するための肌色モデルを作成する肌色モデル作成手段と、
前記肌色モデルを参照して、前記対象画像から前記肌色の画素からなる肌色領域を検出する検出手段とを備えたことを特徴とするものである。
なお、本発明による肌色検出装置においては、前記肌色モデルが複数作成された場合、前記検出手段を、肌色モデル毎に前記肌色領域を検出する手段としてもよい。
また、本発明による肌色検出装置においては、前記肌色モデル作成手段を、前記対象画像から肌色サンプル領域を取得するサンプル取得手段と、
前記肌色サンプル領域から複数の特徴量を抽出する特徴量抽出手段と、
前記複数の特徴量に基づいて前記肌色モデルを統計的に作成するモデル作成手段とを備えるものとしてもよい。
この場合、前記モデル作成手段を、前記複数の特徴量の統計的な分布をガウス混合モデルにより近似し、該ガウス混合モデルを用いたEMアルゴリズムにより前記肌色モデルを作成する手段としてもよい。
またこの場合、前記対象画像から顔領域を検出する顔検出手段をさらに備えるものとし、
前記サンプル取得手段を、前記顔検出手段が検出した顔領域に含まれる所定範囲の領域を前記肌色サンプル領域として取得する手段としてもよい。
本発明による肌色検出方法は、対象画像に含まれる人物毎に、該対象画像の各画素が肌色であるか否かを判定するための肌色モデルを作成し、
前記肌色モデルを参照して、前記対象画像から前記肌色の画素からなる肌色領域を検出することを特徴とするものである。
なお、本発明による肌色検出方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本発明によれば、対象画像に含まれる人物毎に、対象画像の各画素が肌色であるか否かを判定するための肌色モデルが作成され、肌色モデルが参照されて、対象画像から肌色の画素からなる肌色領域が検出される。このため、作成された肌色モデルは対象画像に含まれる人物の肌色に適したものとなり、その結果、作成された肌色モデルを用いることにより、対象画像から肌色領域を精度良く検出することができる。
また、対象画像に人物が複数含まれる場合、人物毎に肌色モデルが作成されるが、このように肌色モデルが複数作成された場合、肌色モデル毎に肌色領域を検出することにより、対象画像に含まれる人物毎に肌色領域を検出することができる。
また、対象画像から肌色サンプル領域を取得し、肌色サンプル領域から複数の特徴量を抽出し、複数の特徴量に基づいて、対象画像の各画素が肌色であるか否かを判定するための肌色モデルを統計的に作成することにより、作成された肌色モデルを対象画像に含まれる肌色により適したものすることができる。
また、対象画像から顔領域を検出し、検出した顔領域に含まれる所定範囲の領域を肌色サンプル領域として取得することにより、肌色モデルを作成するための特徴量を抽出する肌色サンプル領域を自動で取得することができる。
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の実施形態による肌色検出装置の構成を示す概略ブロック図である。図1に示すように本実施形態による肌色検出装置1は、肌色領域検出の対象となる対象画像を装置1に入力するための入力部2、対象画像から顔領域を検出する顔検出部3、検出された顔領域から肌色サンプル領域を取得するサンプル取得部4、肌色サンプル領域から複数の特徴量を抽出する特徴量抽出部5、複数の特徴量に基づいて、対象画像の各画素が肌色であるか否かを判定するための肌色モデルを統計的に作成するモデル作成部6、および作成されたモデルを用いて対象画像から肌色領域を検出する検出部7を備える。
また肌色検出装置1は、対象画像を含む各種表示を行う液晶等のモニタ8、装置1に各種入力を行うためのキーボードおよびマウス等からなる操作部9、各種情報を記憶するハードディスク等の記憶部10、各種処理の作業領域となるメモリ11、並びに装置1の各部を制御するCPU12を備える。
なお、本実施形態においては、対象画像は各画素の画素値がRGBの各色を有するものとする。
入力部2は、対象画像が記録された記録メディアから対象画像を読み出したり、ネットワーク経由で対象画像を受信したりする各種インタフェースからなる。
顔検出部3は、対象画像から顔領域を検出する。具体的には、テンプレートマッチングによる手法、顔の多数のサンプル画像を用いてマシンラーニング学習により得られた顔判別器を用いる手法等により、対象画像から顔を囲む矩形の顔領域を検出する。なお、顔を検出する手法はこれに限定されるものではなく、例えば画像における顔の輪郭形状をなす領域を顔として検出する手法等、任意の手法を用いることができる。なお、顔検出部3は、検出した顔領域について、あらかじめ定められたサイズとなるように正規化する。また、顔検出部3は、対象画像に複数の人物が含まれる場合、すべての顔領域を検出する。
サンプル取得部4は、顔検出部3が検出した顔領域から肌色サンプル領域を取得する。図2は肌色サンプル領域の取得を説明するための対象画像の例を示す図である。図2に示すように対象画像に2名の人物P1,P2が含まれる場合、対象画像からは2つの顔領域F1,F2が検出される。サンプル取得部4は、顔領域F1,F2の中心を対角線の交点とする顔領域F1,F2よりも所定量小さい矩形領域を肌色サンプル領域S1,S2として取得する。例えば、顔領域F1,F2の面積の1/4の面積となる領域を肌色サンプル領域S1,S2として取得する。
なお、サンプル取得部4は、肌色サンプル領域内に目、鼻および口等の顔の構成部品が含まれる場合、これらを肌色サンプル領域から除去するようにしてもよい。
特徴量抽出部5は、肌色サンプル領域に含まれる各画素の特徴量を抽出する。ここで、本実施形態においては、各画素の色相(Hue)、彩度(Saturation)、明度(Value)(以下H,S,Vとする)、エッジ強度および正規化したRGB値の7個の特徴量を抽出する。なお、複数の肌色サンプル領域が取得された場合は、肌色サンプル領域毎に特徴量を抽出する。
色相H、彩度Sおよび明度Vのそれぞれの値は下記の式(1)〜(3)により算出する。また、エッジ強度は公知の微分フィルタによるフィルタリング処理を行うことにより算出する。また、正規化したRGB値Rn,Gn,Bnは下記の式(4)〜(6)により算出する。
Figure 2010033221
モデル作成部6は、7個の特徴量のそれぞれについて頻度を表す7個のヒストグラムを作成し、7個のヒストグラムを下記の式(7)によりガウス混合モデルにより近似する。なお、対象画像に複数の人物が含まれる場合、ガウス混合モデルは人物毎に求められる。
Figure 2010033221
なお、mは特徴量の数(ここでは7)、μは期待値ベクトル、Σは共分散行列、πは重み係数である。ここで、p(x;μ,Σ,π)は、期待値ベクトル、共分散行列および重み係数をパラメータとする正規密度分布となる。
次いで、モデル作成部6は、EMアルゴリズムを用いて、パラメータである期待値ベクトルμ、共分散行列Σおよび重み係数πを推定する。まず、下記の式(8)に示すように、対数尤度関数L(x,θ)を設定する。なお、θはパラメータμ,Σ,πである。
Figure 2010033221
但し、nは肌色サンプル領域内の画素数である。
モデル作成部6は、対数尤度関数L(x,θ)を最大とするパラメータをEMアルゴリズムを用いて推定する。EMアルゴリズムは、Eステップ(Expectationステップ)およびMステップ(Maximizationステップ)からなり、まず、Eステップにおいて、パラメータを適当な初期値に設定し、下記の式(9)により条件付き期待値Eiを算出する。
Figure 2010033221
次いで、Eステップにおいて算出した条件付き期待値Eiを用いて、Mステップにおいて下記の式(10)〜(12)によりパラメータを推定する。
Figure 2010033221
以上のEステップおよびMステップを繰り返し、L(x,θ)が最大となるパラメータ、すなわち期待値ベクトルμ、共分散行列Σおよび重み係数πを決定し、決定したパラメータを式(7)に適用することにより、肌色モデルの作成を終了する。このように作成された肌色モデルは、対象画像の各画素の画素値を入力した場合、その画素が肌色であることの確率を出力するものとなる。作成された肌色モデルは記憶部10に記憶される。なお、対象画像に複数の人物が含まれる場合には、肌色モデルは人物毎に複数作成される。
検出部7は、対象画像の各画素に対して肌色モデルを適用し、各画素について肌色であることの確率を算出する。そして、肌色モデル毎に確率マップを作成し、確率マップに基づいて肌色領域を検出する。なお、検出部7が行う処理の詳細については後述する。
次いで、本実施形態において行われる処理について説明する。図3は本実施形態において行われる肌色モデル作成処理のフローチャートである。オペレータが操作部9を操作して、肌色モデルの作成の指示を装置1に対して行うことによりCPU12が処理を開始し、入力部2が対象画像を装置1に入力する(ステップST1)。次いで、顔検出部3が対象画像から顔を検出し(ステップST2)、サンプル取得部4が検出されたすべての顔から肌色サンプル領域を取得する(ステップST3)。
そして、肌色モデル作成の対象を最初の顔に設定し(ステップST4)、特徴量抽出部5がその顔から取得した肌色サンプル領域から複数の特徴量を抽出する(ステップST5)。そして、モデル作成部6が、上述したように複数の特徴量に基づいて肌色モデルを作成し(ステップST6)、作成したモデルを記憶部10に記憶する(ステップST7)。次いでCPU12はすべての顔について肌色モデルを作成したか否かを判定し(ステップST8)、ステップST8が否定されると、肌色モデル作成の対象を次の顔に変更し(ステップST9)、ステップST5に戻り、ステップST5以降の処理を繰り返すよう、特徴量抽出部5およびモデル作成部6を制御する。ステップST8が肯定されると処理を終了する。
次いで、肌色領域の検出について説明する。図4は肌色領域検出処理のフローチャートである。オペレータが操作部9を操作して、肌色領域検出の指示を装置1に対して行うことによりCPU12が処理を開始し、検出部7が最初の肌色モデルを記憶部10から読み出す(ステップST21)。そして、対象画像の各画素を肌色モデルに適用して、その肌色モデルについての対象画像の確率マップを作成する(ステップST22)。確率マップは、対象画像の各画素の画素値を出した確率により表したものである。
次いでCPU12はすべての肌色モデルの確立マップを作成したか否かを判定し(ステップST23)、ステップST23が否定されると、肌色モデルを次の肌色モデルに変更し(ステップST24)、ステップST23が肯定されるまでステップST22の処理を行う。
図5は確率マップの作成を説明するための図である。なお、対象画像は図2に示すものを用いるものとする。また、図5においては確率が低くなるほどハッチングを密にして示すものとする。肌色モデルが左側の人物P1に対応するものである場合、確率マップM1においては、左側の人物P1の確率が大きく、右側の人物P1の確率は低くなる。一方、肌色モデルが右側の人物P2に対応するものである場合、確率マップM2においては、右側の人物P2の確率が大きく、左側の人物P1の確率は低くなる。
次いで、検出部7は確率マップを統合する(ステップST25)。確率マップの統合は、確率マップの互いに対応する画素同士を加算することにより行う。図6は確率マップの統合を説明するための図である。図6に示すように、確率マップM1,M2を統合することにより、左右の人物P1,P2の顔の確率が高い統合確率マップMtが作成される。
次いで検出部7は、統合確率マップをしきい値Th1を用いて二値化処理して、統合確率マップを肌色領域とそれ以外の領域とに分離する(ステップST26)。そして、分離した肌色領域および肌色以外の領域における孤立点の除去および穴埋め処理を行うことにより肌色マスクを作成する(ステップST27)。孤立点の除去は、肌色領域以外の領域に含まれる所定サイズよりも小さい肌色領域を除去する処理である。穴埋め処理は、肌色領域に含まれる所定サイズよりも小さい肌色以外の領域を除去する処理である。これにより、図7に示すように肌色マスクM0が作成される。
そして、検出部7は、作成した肌色マスクを用いて対象画像から肌色領域を検出し(ステップST28)、処理を終了する。
このように本実施形態においては、対象画像に含まれる人物毎に肌色モデルを作成し、肌色モデルを参照して対象画像から肌色領域を検出するようにしたため、作成された肌色モデルは対象画像に含まれる人物の肌色に適したものとなる。したがって、作成された肌色モデルを用いることにより、対象画像から肌色領域を精度良く検出することができる。
とくに、対象画像から取得した肌色サンプル領域の特徴量を用いて、対象画像の各画素が肌色であるか否かを判定するための肌色モデルを作成するようにしたため、作成された肌色モデルを対象画像に含まれる肌色により適したものとすることができる。
また、対象画像から顔領域を検出し、検出した顔領域に含まれる所定範囲の領域を肌色サンプル領域として取得することにより、肌色サンプル領域を自動で取得することができる。
また、対象画像に複数の人物が含まれる場合、人物毎に肌色モデルを作成することにより、対象画像に含まれるすべての人物についての肌色領域を精度良く検出することができる。
なお、上記実施形態においては、顔検出部3により対象画像から顔領域を検出しているが、対象画像をモニタ8に表示し、オペレータが操作部9を用いて顔領域を指定するようにしてもよい。
また、上記実施形態においては、サンプル取得部4により顔領域から肌色サンプル領域を取得しているが、対象画像をモニタ8に表示し、オペレータが操作部9を用いて肌色サンプル領域を指定するようにしてもよい。
また、上記実施形態においては、各画素の色相、彩度、明度、エッジ強度および正規化したRGB値の7個の特徴量を用いて肌色モデルを作成しているが、特徴量としてはこれに限定されるものではなく、例えば各画素の色相、彩度および明度のみを特徴量として肌色モデルを作成してもよく、上述した7個の特徴量以外の他の特徴量を用いて肌色モデルを作成してもよい。
また、上記実施形態においては、複数の特徴量の統計的な分布をガウス混合モデルにより近似し、ガウス混合モデルを用いたEMアルゴリズムにより肌色モデルを作成しているが、肌色モデルの作成はこれに限定されるものではなく、対象画像に含まれる人物毎に肌色モデルを作成できれば、いかなる手法を用いてもよい。
また、上記実施形態においては、作成した肌色モデルを用いて対象画像に含まれるすべての肌色領域を検出しているが、肌色モデル毎に肌色領域をラベリングしてもよい。例えば、図2に示す対象画像の場合、図5に示すように左右の人物P1,P2毎に確率マップM1,M2が作成されるため、確率マップM1,M2のそれぞれにおいて値が高くなる領域(すなわち値が所定のしきい値以上となる領域)を別個にラベリングするようにしてもよい。図2に示す対象画像の場合、右側の人物P1の肌色領域および左側の人物P2の肌色領域がそれぞれ異なるラベリングがなされる。これにより、人物毎に肌色領域を検出することが可能となる。
ここで、確率マップM1の場合、肌色モデルは人物P1の顔領域から取得した肌色サンプル領域を用いて作成されているため、人物P1の顔領域の確率は大きくなる。しかしながら、顔の肌色と手の肌色とは必ずしも一致しないため、人物P1の手については顔領域よりも確率は低くなる。このため、同じ肌色モデルを用いた場合であっても、確率が大きい肌色領域と確率が小さい肌色領域とで異なるラベリングを行うようにしてもよい。例えば、確率を複数のしきい値を用いて分類し、分類した確率の区分からなる領域毎に異なるラベリングを行うようにしてもよい。これにより、顔の肌色領域と顔以外の手等の肌色領域とを別個に検出できることとなる。
また、同じ肌色であっても、顔領域と手の領域とではサイズが異なるため、肌色領域のサイズに応じて、異なるラベリングを行うようにしてもよい。
また、顔に対応する肌色であっても、目および口については、顔におけるその他の部分の肌色とは大きく異なる。このため、肌色マスクを用いて肌色領域を検出した後、再度確率マップM1,M2を適用し、検出した肌色領域における確率が小さい領域(例えば確率がしきい値Th2以下となる領域)と、それ以外の領域とで異なるラベリングを行うようにしてもよい。これにより、目および口等の顔の構成部品を除いた顔の肌色領域を検出することが可能となる。
以上、本発明の実施形態に係る装置1について説明したが、コンピュータを、上記の入力部2、顔検出部3、サンプル取得部4、特徴量抽出部5、モデル作成部6および検出部7に対応する手段として機能させ、図3,4に示すような処理を行わせるプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も本発明の実施形態の1つである。
本発明の実施形態による肌色検出装置の構成を示す概略ブロック図 対象画像の例を示す図 肌色モデル作成処理のフローチャート 肌色領域検出処理のフローチャート 確率マップの作成を説明するための図 確率マップの統合を説明するための図 肌色マスクの作成を説明するための図
符号の説明
1 肌色検出装置
2 入力部
3 顔検出部
4 サンプル取得部
5 特徴量抽出部
6 モデル作成部
7 検出部

Claims (7)

  1. 対象画像に含まれる人物毎に、該対象画像の各画素が肌色であるか否かを判定するための肌色モデルを作成する肌色モデル作成手段と、
    前記肌色モデルを参照して、前記対象画像から前記肌色の画素からなる肌色領域を検出する検出手段とを備えたことを特徴とする肌色検出装置。
  2. 前記肌色モデルが複数作成された場合、前記検出手段は、肌色モデル毎に前記肌色領域を検出する手段であることを特徴とする請求項1記載の肌色検出装置。
  3. 前記肌色モデル作成手段は、前記対象画像から肌色サンプル領域を取得するサンプル取得手段と、
    前記肌色サンプル領域から複数の特徴量を抽出する特徴量抽出手段と、
    前記複数の特徴量に基づいて前記肌色モデルを統計的に作成するモデル作成手段とを備えたことを特徴とする請求項1または2記載の肌色検出装置。
  4. 前記モデル作成手段は、前記複数の特徴量の統計的な分布をガウス混合モデルにより近似し、該ガウス混合モデルを用いたEMアルゴリズムにより前記肌色モデルを作成する手段であることを特徴とする請求項3記載の肌色検出装置。
  5. 前記対象画像から顔領域を検出する顔検出手段をさらに備え、
    前記サンプル取得手段は、前記顔検出手段が検出した顔領域に含まれる所定範囲の領域を前記肌色サンプル領域として取得する手段であることを特徴とする請求項3または4記載の肌色検出装置。
  6. 対象画像に含まれる人物毎に、該対象画像の各画素が肌色であるか否かを判定するための肌色モデルを作成し、
    前記肌色モデルを参照して、前記対象画像から前記肌色の画素からなる肌色領域を検出することを特徴とする肌色検出方法。
  7. 対象画像に含まれる人物毎に、該対象画像の各画素が肌色であるか否かを判定するための肌色モデルを作成する手順と、
    前記肌色モデルを参照して、前記対象画像から前記肌色の画素からなる肌色領域を検出する手順とを有することを特徴とする肌色検出方法をコンピュータに実行させるためのプログラム。
JP2008193152A 2008-07-28 2008-07-28 肌色検出装置および方法並びにプログラム Abandoned JP2010033221A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008193152A JP2010033221A (ja) 2008-07-28 2008-07-28 肌色検出装置および方法並びにプログラム
US12/509,661 US20100021056A1 (en) 2008-07-28 2009-07-27 Skin color model generation device and method, and skin color detection device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008193152A JP2010033221A (ja) 2008-07-28 2008-07-28 肌色検出装置および方法並びにプログラム

Publications (1)

Publication Number Publication Date
JP2010033221A true JP2010033221A (ja) 2010-02-12

Family

ID=41737637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008193152A Abandoned JP2010033221A (ja) 2008-07-28 2008-07-28 肌色検出装置および方法並びにプログラム

Country Status (1)

Country Link
JP (1) JP2010033221A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102324025A (zh) * 2011-09-06 2012-01-18 北京航空航天大学 基于高斯肤色模型和特征分析的人脸检测与跟踪方法
WO2013089051A1 (ja) * 2011-12-14 2013-06-20 シャープ株式会社 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記憶した記録媒体
JP2016005159A (ja) * 2014-06-18 2016-01-12 東海光学株式会社 着色材料の使用条件の決定方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108980A (ja) * 2001-09-28 2003-04-11 Mitsubishi Electric Corp 頭部領域抽出装置およびリアルタイム表情追跡装置
JP2005250712A (ja) * 2004-03-03 2005-09-15 Univ Waseda 人物属性識別方法およびそのシステム
JP2007272435A (ja) * 2006-03-30 2007-10-18 Univ Of Electro-Communications 顔特徴抽出装置及び顔特徴抽出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108980A (ja) * 2001-09-28 2003-04-11 Mitsubishi Electric Corp 頭部領域抽出装置およびリアルタイム表情追跡装置
JP2005250712A (ja) * 2004-03-03 2005-09-15 Univ Waseda 人物属性識別方法およびそのシステム
JP2007272435A (ja) * 2006-03-30 2007-10-18 Univ Of Electro-Communications 顔特徴抽出装置及び顔特徴抽出方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200500406016; '実環境におけるマシンビジョン適用技術 ベイジアンネットワークに基づく視聴覚情報の統合を用いた画像から' 電気学会論文誌C Vol.124 No.3 , 20040301 *
JPN6012014643; '実環境におけるマシンビジョン適用技術 ベイジアンネットワークに基づく視聴覚情報の統合を用いた画像から' 電気学会論文誌C Vol.124 No.3 , 20040301 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102324025A (zh) * 2011-09-06 2012-01-18 北京航空航天大学 基于高斯肤色模型和特征分析的人脸检测与跟踪方法
CN102324025B (zh) * 2011-09-06 2013-03-20 北京航空航天大学 基于高斯肤色模型和特征分析的人脸检测与跟踪方法
WO2013089051A1 (ja) * 2011-12-14 2013-06-20 シャープ株式会社 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記憶した記録媒体
JP2016005159A (ja) * 2014-06-18 2016-01-12 東海光学株式会社 着色材料の使用条件の決定方法

Similar Documents

Publication Publication Date Title
US20100021056A1 (en) Skin color model generation device and method, and skin color detection device and method
US10438059B2 (en) Image recognition method, image recognition apparatus, and recording medium
US7715596B2 (en) Method for controlling photographs of people
JP5047005B2 (ja) 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置
Gizatdinova et al. Feature-based detection of facial landmarks from neutral and expressive facial images
US20140050391A1 (en) Image segmentation for large-scale fine-grained recognition
US9053537B2 (en) Classifier for use in generating a diffuse image
JP2017531883A (ja) 画像の主要被写体を抽出する方法とシステム
JP2009187186A (ja) 画像処理装置および方法、並びにプログラム
KR20170006355A (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
US10395091B2 (en) Image processing apparatus, image processing method, and storage medium identifying cell candidate area
JP2008015641A (ja) 人体領域抽出方法および装置並びにプログラム
Wighton et al. A fully automatic random walker segmentation for skin lesions in a supervised setting
CN109934112B (zh) 一种人脸对齐方法和相机
JP2005084980A (ja) 顔画像付きカード用データ生成装置および方法並びにプログラム
JP4619762B2 (ja) 画像処理方法および装置並びにプログラム
JP2019180749A (ja) 画像処理プログラム、画像処理装置、および画像処理方法
JP2010176504A (ja) 画像処理装置、画像処理方法及びプログラム
JP2010033221A (ja) 肌色検出装置および方法並びにプログラム
KR101408344B1 (ko) 얼굴 검출 장치
WO2015131710A1 (zh) 人眼定位方法及装置
CN111539911B (zh) 一种口呼吸面容识别方法、设备和存储介质
JP2006323779A (ja) 画像処理方法、画像処理装置
CN113436735A (zh) 基于人脸结构度量的体重指数预测方法、设备和存储介质
JP2008217494A (ja) 画像処理方法、画像処理プログラムおよび画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110126

RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20110418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20121205