JP2010033220A - Skin color model generation device, method, and program - Google Patents
Skin color model generation device, method, and program Download PDFInfo
- Publication number
- JP2010033220A JP2010033220A JP2008193151A JP2008193151A JP2010033220A JP 2010033220 A JP2010033220 A JP 2010033220A JP 2008193151 A JP2008193151 A JP 2008193151A JP 2008193151 A JP2008193151 A JP 2008193151A JP 2010033220 A JP2010033220 A JP 2010033220A
- Authority
- JP
- Japan
- Prior art keywords
- skin color
- model
- target image
- face
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像から肌色領域を検出するために用いる肌色モデルを作成するための肌色モデル作成装置および方法並びに肌色モデル作成方法をコンピュータに実行させるためのプログラムに関するものである。 The present invention relates to a skin color model creation apparatus and method for creating a skin color model used for detecting a skin color area from an image, and a program for causing a computer to execute the skin color model creation method.
人物が含まれる画像においては、肌色を適切に再現することが重要である。このため、オペレータがマニュアル操作により画像に含まれる肌色領域を指定し、指定した肌色領域に対して適切な画像処理を行うことが考えられる。また、オペレータの負担を軽減するために、画像に含まれる肌色領域を自動で検出するための様々な手法が提案されている。 In an image including a person, it is important to appropriately reproduce the skin color. For this reason, it is conceivable that the operator designates a skin color area included in the image by manual operation and performs appropriate image processing on the designated skin color area. In order to reduce the burden on the operator, various methods for automatically detecting a skin color area included in an image have been proposed.
例えば、画像の色空間を、肌色を定義するモデルを生成しやすいTSL色空間に変換し、肌色分布モデルを作成するための多数のサンプル画像をTSL色空間に変換し、変換後の画像を用いて肌色の分布モデルを作成し、この分布モデルを用いて肌色を検出する手法が提案されている(特許文献1参照)。また、多数のサンプル画像から肌色のサンプルデータを収集し、収集した肌色画像データをHSV変換して肌色の(H,S)データを集め、集めた(H,S)データのヒストグラムをガウス混合モデルにて近似し、ガウス混合モデルのパラメータを得、肌色検出の対象となる対象画像の各画素に対してガウス混合モデルのパラメータを用いて肌色尤度を算出し、算出した肌色尤度をしきい値と比較して、肌色であるか否かを判定する手法も提案されている(特許文献2参照)。また、特許文献2に記載された手法を動画像に適用した手法も提案されている(特許文献3参照)。
上記特許文献1〜3に記載された手法は、多種多様なサンプル画像を用いて、汎用的な肌色を検出するための肌色モデルを作成するものである。しかしながら、肌色検出の対象となる対象画像には様々な人物が含まれ、さらに照明条件も種々異なるものとなるため、肌色モデルを作成する際に使用したサンプル画像と、対象画像に含まれる肌色とは必ずしも一致しないこととなる。したがって、特許文献1〜3に記載された手法により作成した肌色モデルを用いたのでは、肌色を誤認識してしまう可能性が高く、その結果、対象画像から精度良く肌色領域を検出できないおそれがある。
The methods described in
本発明は上記事情に鑑みなされたものであり、対象画像から精度良く肌色領域を検出できる肌色モデルを作成することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to create a skin color model that can accurately detect a skin color region from a target image.
本発明による肌色モデル作成装置は、対象画像から肌色サンプル領域を取得するサンプル取得手段と、
前記肌色サンプル領域から複数の特徴量を抽出する特徴量抽出手段と、
前記複数の特徴量に基づいて、前記対象画像の各画素が肌色であるか否かを判定するための肌色モデルを統計的に作成するモデル作成手段とを備えたことを特徴とするものである。
A skin color model creation device according to the present invention includes a sample acquisition means for acquiring a skin color sample region from a target image,
Feature quantity extraction means for extracting a plurality of feature quantities from the skin color sample area;
Model creation means for statistically creating a skin color model for determining whether or not each pixel of the target image is skin color based on the plurality of feature amounts is provided. .
なお、本発明による肌色モデル作成装置においては、前記モデル作成手段を、前記複数の特徴量の統計的な分布をガウス混合モデルにより近似し、該ガウス混合モデルを用いたEMアルゴリズムにより前記肌色モデルを作成する手段としてもよい。 In the skin color model creation device according to the present invention, the model creation means approximates the statistical distribution of the plurality of feature quantities by a Gaussian mixture model, and the skin color model is obtained by an EM algorithm using the Gaussian mixture model. It is good also as a means to create.
また、本発明による肌色モデル作成装置においては、前記対象画像から顔領域を検出する顔検出手段をさらに備えるものとし、
前記サンプル取得手段を、前記顔検出手段が検出した顔領域に含まれる所定範囲の領域を前記肌色サンプル領域として取得する手段としてもよい。
The skin color model creation device according to the present invention further includes a face detection means for detecting a face area from the target image,
The sample acquisition unit may be a unit that acquires, as the skin color sample region, a region in a predetermined range included in the face region detected by the face detection unit.
また、本発明による肌色モデル作成装置においては、前記対象画像から複数の前記顔領域が検出された場合、前記モデル作成手段を、前記顔領域毎に前記肌色モデルを作成する手段としてもよい。 In the skin color model creation device according to the present invention, when a plurality of face areas are detected from the target image, the model creation means may be means for creating the skin color model for each face area.
本発明による肌色モデル作成方法は、対象画像から肌色サンプル領域を取得し、
前記肌色サンプル領域から複数の特徴量を抽出し、
前記複数の特徴量に基づいて、前記対象画像の各画素が肌色であるか否かを判定するための肌色モデルを統計的に作成することを特徴とするものである。
The skin color model creation method according to the present invention acquires a skin color sample region from a target image,
Extracting a plurality of feature quantities from the skin color sample area;
A skin color model for determining whether or not each pixel of the target image is a skin color based on the plurality of feature amounts is statistically created.
なお、本発明による肌色モデル作成方法をコンピュータに実行させるためのプログラムとして提供してもよい。 In addition, you may provide as a program for making a computer perform the skin color model creation method by this invention.
本発明によれば、対象画像から肌色サンプル領域が取得され、肌色サンプル領域から複数の特徴量が抽出される。そして、複数の特徴量に基づいて、対象画像の各画素が肌色であるか否かを判定するための肌色モデルが統計的に作成される。このため、作成された肌色モデルは対象画像に含まれる肌色に適したものとなり、その結果、作成された肌色モデルを用いることにより、対象画像から肌色領域を精度良く検出することができる。 According to the present invention, the skin color sample region is acquired from the target image, and a plurality of feature amounts are extracted from the skin color sample region. Then, based on the plurality of feature amounts, a skin color model for determining whether or not each pixel of the target image has a skin color is statistically created. Therefore, the created skin color model is suitable for the skin color included in the target image. As a result, the skin color region can be detected from the target image with high accuracy by using the created skin color model.
また、対象画像から顔領域を検出し、検出した顔領域に含まれる所定範囲の領域を肌色サンプル領域として取得することにより、肌色モデルを作成するための特徴量を抽出する肌色サンプル領域を自動で取得することができる。 In addition, by detecting a face area from the target image and acquiring a predetermined range area included in the detected face area as a skin color sample area, a skin color sample area for extracting a feature amount for creating a skin color model is automatically obtained. Can be acquired.
また、対象画像から複数の顔領域が検出された場合、顔領域毎すなわち対象画像に含まれる人物毎に肌色モデルを作成することにより、対象画像に含まれるすべての人物についての肌色領域を精度良く検出することができる。 Further, when a plurality of face areas are detected from the target image, a skin color model is created for each face area, that is, for each person included in the target image, so that the skin color areas for all the persons included in the target image are accurately obtained. Can be detected.
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の実施形態による肌色モデル作成装置を適用した肌色検出装置の構成を示す概略ブロック図である。図1に示すように本実施形態による肌色検出装置1は、肌色領域検出の対象となる対象画像を装置1に入力するための入力部2、対象画像から顔領域を検出する顔検出部3、検出された顔領域から肌色サンプル領域を取得するサンプル取得部4、肌色サンプル領域から複数の特徴量を抽出する特徴量抽出部5、複数の特徴量に基づいて、対象画像の各画素が肌色であるか否かを判定するための肌色モデルを統計的に作成するモデル作成部6、および作成されたモデルを用いて対象画像から肌色領域を検出する検出部7を備える。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a schematic block diagram showing the configuration of a skin color detection device to which a skin color model creation device according to an embodiment of the present invention is applied. As shown in FIG. 1, the skin
また肌色検出装置1は、対象画像を含む各種表示を行う液晶等のモニタ8、装置1に各種入力を行うためのキーボードおよびマウス等からなる操作部9、各種情報を記憶するハードディスク等の記憶部10、各種処理の作業領域となるメモリ11、並びに装置1の各部を制御するCPU12を備える。
Further, the skin
なお、本実施形態においては、対象画像は各画素の画素値がRGBの各色を有するものとする。 In the present embodiment, it is assumed that the target image has each color in which the pixel value of each pixel is RGB.
入力部2は、対象画像が記録された記録メディアから対象画像を読み出したり、ネットワーク経由で対象画像を受信したりする各種インタフェースからなる。
The
顔検出部3は、対象画像から顔領域を検出する。具体的には、テンプレートマッチングによる手法、顔の多数のサンプル画像を用いてマシンラーニング学習により得られた顔判別器を用いる手法等により、対象画像から顔を囲む矩形の顔領域を検出する。なお、顔を検出する手法はこれに限定されるものではなく、例えば画像における顔の輪郭形状をなす領域を顔として検出する手法等、任意の手法を用いることができる。なお、顔検出部3は、検出した顔領域について、あらかじめ定められたサイズとなるように正規化する。また、顔検出部3は、対象画像に複数の人物が含まれる場合、すべての顔領域を検出する。
The
サンプル取得部4は、顔検出部3が検出した顔領域から肌色サンプル領域を取得する。図2は肌色サンプル領域の取得を説明するための対象画像の例を示す図である。図2に示すように対象画像に2名の人物P1,P2が含まれる場合、対象画像からは2つの顔領域F1,F2が検出される。サンプル取得部4は、顔領域F1,F2の中心を対角線の交点とする顔領域F1,F2よりも所定量小さい矩形領域を肌色サンプル領域S1,S2として取得する。例えば、顔領域F1,F2の面積の1/4の面積となる領域を肌色サンプル領域S1,S2として取得する。
The sample acquisition unit 4 acquires a skin color sample region from the face region detected by the
なお、サンプル取得部4は、肌色サンプル領域内に目、鼻および口等の顔の構成部品が含まれる場合、これらを肌色サンプル領域から除去するようにしてもよい。 When the skin color sample area includes facial components such as eyes, nose, and mouth, the sample acquisition unit 4 may remove these from the skin color sample area.
特徴量抽出部5は、肌色サンプル領域に含まれる各画素の特徴量を抽出する。ここで、本実施形態においては、各画素の色相(Hue)、彩度(Saturation)、明度(Value)(以下H,S,Vとする)、エッジ強度および正規化したRGB値の7個の特徴量を抽出する。なお、複数の肌色サンプル領域が取得された場合は、肌色サンプル領域毎に特徴量を抽出する。 The feature amount extraction unit 5 extracts the feature amount of each pixel included in the skin color sample region. Here, in the present embodiment, seven values of hue (Hue), saturation (Saturation), lightness (Value) (hereinafter referred to as H, S, and V), edge intensity, and normalized RGB value of each pixel are used. Extract features. When a plurality of skin color sample areas are acquired, feature amounts are extracted for each skin color sample area.
色相H、彩度Sおよび明度Vのそれぞれの値は下記の式(1)〜(3)により算出する。また、エッジ強度は公知の微分フィルタによるフィルタリング処理を行うことにより算出する。また、正規化したRGB値Rn,Gn,Bnは下記の式(4)〜(6)により算出する。
モデル作成部6は、7個の特徴量のそれぞれについて頻度を表す7個のヒストグラムを作成し、7個のヒストグラムを下記の式(7)によりガウス混合モデルにより近似する。なお、対象画像に複数の人物が含まれる場合、ガウス混合モデルは人物毎に求められる。
なお、mは特徴量の数(ここでは7)、μkは期待値ベクトル、Σkは共分散行列、πkは重み係数である。ここで、p(x;μk,Σk,πk)は、期待値ベクトル、共分散行列および重み係数をパラメータとする正規密度分布となる。 Note that m is the number of feature quantities (here 7), μ k is an expected value vector, Σ k is a covariance matrix, and π k is a weighting coefficient. Here, p (x; μ k , Σ k , π k ) is a normal density distribution that uses an expected value vector, a covariance matrix, and a weighting coefficient as parameters.
次いで、モデル作成部6は、EMアルゴリズムを用いて、パラメータである期待値ベクトルμk、共分散行列Σkおよび重み係数πkを推定する。まず、下記の式(8)に示すように、対数尤度関数L(x,θ)を設定する。なお、θはパラメータμk,Σk,πkである。
但し、nは肌色サンプル領域内の画素数である。 Here, n is the number of pixels in the skin color sample area.
モデル作成部6は、対数尤度関数L(x,θ)を最大とするパラメータをEMアルゴリズムを用いて推定する。EMアルゴリズムは、Eステップ(Expectationステップ)およびMステップ(Maximizationステップ)からなり、まず、Eステップにおいて、パラメータを適当な初期値に設定し、下記の式(9)により条件付き期待値Ekiを算出する。
次いで、Eステップにおいて算出した条件付き期待値Ekiを用いて、Mステップにおいて下記の式(10)〜(12)によりパラメータを推定する。
以上のEステップおよびMステップを繰り返し、L(x,θ)が最大となるパラメータ、すなわち期待値ベクトルμk、共分散行列Σkおよび重み係数πkを決定し、決定したパラメータを式(7)に適用することにより、肌色モデルの作成を終了する。このように作成された肌色モデルは、対象画像の各画素の画素値を入力した場合、その画素が肌色であることの確率を出力するものとなる。作成された肌色モデルは記憶部10に記憶される。なお、対象画像に複数の人物が含まれる場合には、肌色モデルは人物毎に複数作成される。
The above E step and M step are repeated to determine the parameters that maximize L (x, θ), that is, the expected value vector μ k , the covariance matrix Σ k, and the weighting coefficient π k , ) Finishes the creation of the skin color model. When the pixel value of each pixel of the target image is input, the skin color model created in this way outputs the probability that the pixel is skin color. The created skin color model is stored in the
検出部7は、対象画像の各画素に対して肌色モデルを適用し、各画素について肌色であることの確率を算出する。そして、肌色モデル毎に確率マップを作成し、確率マップに基づいて肌色領域を検出する。なお、検出部7が行う処理の詳細については後述する。
The
次いで、本実施形態において行われる処理について説明する。図3は本実施形態において行われる肌色モデル作成処理のフローチャートである。オペレータが操作部9を操作して、肌色モデルの作成の指示を装置1に対して行うことによりCPU12が処理を開始し、入力部2が対象画像を装置1に入力する(ステップST1)。次いで、顔検出部3が対象画像から顔を検出し(ステップST2)、サンプル取得部4が検出されたすべての顔から肌色サンプル領域を取得する(ステップST3)。
Next, processing performed in the present embodiment will be described. FIG. 3 is a flowchart of the skin color model creation process performed in the present embodiment. The operator operates the
そして、肌色モデル作成の対象を最初の顔に設定し(ステップST4)、特徴量抽出部5がその顔から取得した肌色サンプル領域から複数の特徴量を抽出する(ステップST5)。そして、モデル作成部6が、上述したように複数の特徴量に基づいて肌色モデルを作成し(ステップST6)、作成したモデルを記憶部10に記憶する(ステップST7)。次いでCPU12はすべての顔について肌色モデルを作成したか否かを判定し(ステップST8)、ステップST8が否定されると、肌色モデル作成の対象を次の顔に変更し(ステップST9)、ステップST5に戻り、ステップST5以降の処理を繰り返すよう、特徴量抽出部5およびモデル作成部6を制御する。ステップST8が肯定されると処理を終了する。
Then, a skin color model creation target is set to the first face (step ST4), and the feature amount extraction unit 5 extracts a plurality of feature amounts from the skin color sample region acquired from the face (step ST5). Then, the model creation unit 6 creates a skin color model based on the plurality of feature amounts as described above (step ST6), and stores the created model in the storage unit 10 (step ST7). Next, the
次いで、肌色領域の検出について説明する。図4は肌色領域検出処理のフローチャートである。オペレータが操作部9を操作して、肌色領域検出の指示を装置1に対して行うことによりCPU12が処理を開始し、検出部7が最初の肌色モデルを記憶部10から読み出す(ステップST21)。そして、対象画像の各画素を肌色モデルに適用して、その肌色モデルについての対象画像の確率マップを作成する(ステップST22)。確率マップは、対象画像の各画素の画素値を出した確率により表したものである。
Next, detection of the skin color area will be described. FIG. 4 is a flowchart of the skin color area detection process. The operator operates the
次いでCPU12はすべての肌色モデルの確立マップを作成したか否かを判定し(ステップST23)、ステップST23が否定されると、肌色モデルを次の肌色モデルに変更し(ステップST24)、ステップST23が肯定されるまでステップST22の処理を行う。
Next, the
図5は確率マップの作成を説明するための図である。なお、対象画像は図2に示すものを用いるものとする。また、図5においては確率が低くなるほどハッチングを密にして示すものとする。肌色モデルが左側の人物P1に対応するものである場合、確率マップM1においては、左側の人物P1の確率が大きく、右側の人物P1の確率は低くなる。一方、肌色モデルが右側の人物P2に対応するものである場合、確率マップM2においては、右側の人物P2の確率が大きく、左側の人物P1の確率は低くなる。 FIG. 5 is a diagram for explaining creation of a probability map. Note that the target image shown in FIG. 2 is used. In FIG. 5, the hatching is shown densely as the probability decreases. When the skin color model corresponds to the left person P1, the probability of the left person P1 is high and the probability of the right person P1 is low in the probability map M1. On the other hand, when the skin color model corresponds to the right person P2, the probability of the right person P2 is high and the probability of the left person P1 is low in the probability map M2.
次いで、検出部7は確率マップを統合する(ステップST25)。確率マップの統合は、確率マップの互いに対応する画素同士を加算することにより行う。図6は確率マップの統合を説明するための図である。図6に示すように、確率マップM1,M2を統合することにより、左右の人物P1,P2の顔の確率が高い統合確率マップMtが作成される。
Next, the
次いで検出部7は、統合確率マップをしきい値Th1を用いて二値化処理して、統合確率マップを肌色領域とそれ以外の領域とに分離する(ステップST26)。そして、分離した肌色領域および肌色以外の領域における孤立点の除去および穴埋め処理を行うことにより肌色マスクを作成する(ステップST27)。孤立点の除去は、肌色領域以外の領域に含まれる所定サイズよりも小さい肌色領域を除去する処理である。穴埋め処理は、肌色領域に含まれる所定サイズよりも小さい肌色以外の領域を除去する処理である。これにより、図7に示すように肌色マスクM0が作成される。
Next, the
そして、検出部7は、作成した肌色マスクを用いて対象画像から肌色領域を検出し(ステップST28)、処理を終了する。
And the
このように本実施形態においては、対象画像から取得した肌色サンプル領域の特徴量を用いて、対象画像の各画素が肌色であるか否かを判定するための肌色モデルを作成するようにしたため、作成された肌色モデルは対象画像に含まれる肌色に適したものとなる。したがって、作成された肌色モデルを用いることにより、対象画像から肌色領域を精度良く検出することができる。 As described above, in the present embodiment, the skin color model for determining whether each pixel of the target image is the skin color is created using the feature amount of the skin color sample region acquired from the target image. The created skin color model is suitable for the skin color included in the target image. Therefore, by using the created skin color model, the skin color region can be detected from the target image with high accuracy.
また、対象画像から顔領域を検出し、検出した顔領域に含まれる所定範囲の領域を肌色サンプル領域として取得することにより、肌色サンプル領域を自動で取得することができる。 Further, the skin color sample area can be automatically acquired by detecting the face area from the target image and acquiring a predetermined range area included in the detected face area as the skin color sample area.
また、対象画像に複数の人物が含まれる場合、人物毎に肌色モデルを作成することにより、対象画像に含まれるすべての人物についての肌色領域を精度良く検出することができる。 In addition, when a plurality of persons are included in the target image, a skin color model for each person can be created to accurately detect the skin color region for all persons included in the target image.
なお、上記実施形態においては、顔検出部3により対象画像から顔領域を検出しているが、対象画像をモニタ8に表示し、オペレータが操作部9を用いて顔領域を指定するようにしてもよい。
In the above embodiment, the face area is detected from the target image by the
また、上記実施形態においては、サンプル取得部4により顔領域から肌色サンプル領域を取得しているが、対象画像をモニタ8に表示し、オペレータが操作部9を用いて肌色サンプル領域を指定するようにしてもよい。
In the above embodiment, the skin color sample region is acquired from the face region by the sample acquisition unit 4. However, the target image is displayed on the
また、上記実施形態においては、各画素の色相、彩度、明度、エッジ強度および正規化したRGB値の7個の特徴量を用いて肌色モデルを作成しているが、特徴量としてはこれに限定されるものではなく、例えば各画素の色相、彩度および明度のみを特徴量として肌色モデルを作成してもよく、上述した7個の特徴量以外の他の特徴量を用いて肌色モデルを作成してもよい。 In the above embodiment, the skin color model is created using seven feature amounts of the hue, saturation, brightness, edge strength, and normalized RGB value of each pixel. For example, a skin color model may be created using only the hue, saturation, and lightness of each pixel as the feature amount, and the skin color model may be generated using feature amounts other than the seven feature amounts described above. You may create it.
また、上記実施形態においては、作成した肌色モデルを用いて対象画像に含まれるすべての肌色領域を検出しているが、肌色モデル毎に肌色領域をラベリングしてもよい。例えば、図2に示す対象画像の場合、図5に示すように左右の人物P1,P2毎に確率マップM1,M2が作成されるため、確率マップM1,M2のそれぞれにおいて値が高くなる領域(すなわち値が所定のしきい値以上となる領域)を別個にラベリングするようにしてもよい。図2に示す対象画像の場合、右側の人物P1の肌色領域および左側の人物P2の肌色領域がそれぞれ異なるラベリングがなされる。これにより、人物毎に肌色領域を検出することが可能となる。 Moreover, in the said embodiment, although all the skin color area | regions contained in a target image are detected using the created skin color model, you may label a skin color area | region for every skin color model. For example, in the case of the target image shown in FIG. 2, since probability maps M1 and M2 are created for each of the left and right persons P1 and P2 as shown in FIG. That is, the region where the value is equal to or greater than a predetermined threshold value) may be separately labeled. In the case of the target image shown in FIG. 2, the skin color area of the right person P1 and the skin color area of the left person P2 are differently labeled. As a result, it is possible to detect a skin color region for each person.
ここで、確率マップM1の場合、肌色モデルは人物P1の顔領域から取得した肌色サンプル領域を用いて作成されているため、人物P1の顔領域の確率は大きくなる。しかしながら、顔の肌色と手の肌色とは必ずしも一致しないため、人物P1の手については顔領域よりも確率は低くなる。このため、同じ肌色モデルを用いた場合であっても、確率が大きい肌色領域と確率が小さい肌色領域とで異なるラベリングを行うようにしてもよい。例えば、確率を複数のしきい値を用いて分類し、分類した確率の区分からなる領域毎に異なるラベリングを行うようにしてもよい。これにより、顔の肌色領域と顔以外の手等の肌色領域とを別個に検出できることとなる。 Here, in the case of the probability map M1, since the skin color model is created using the skin color sample area acquired from the face area of the person P1, the probability of the face area of the person P1 increases. However, since the skin color of the face does not always match the skin color of the hand, the probability of the hand of the person P1 is lower than that of the face region. For this reason, even when the same skin color model is used, different labeling may be performed for a skin color region having a high probability and a skin color region having a low probability. For example, the probabilities may be classified using a plurality of threshold values, and different labeling may be performed for each region including the classified probability categories. As a result, the skin color area of the face and the skin color area of a hand other than the face can be detected separately.
また、同じ肌色であっても、顔領域と手の領域とではサイズが異なるため、肌色領域のサイズに応じて、異なるラベリングを行うようにしてもよい。 Even if the skin color is the same, the face region and the hand region are different in size, so that different labeling may be performed according to the size of the skin color region.
また、顔に対応する肌色であっても、目および口については、顔におけるその他の部分の肌色とは大きく異なる。このため、肌色マスクを用いて肌色領域を検出した後、再度確率マップM1,M2を適用し、検出した肌色領域における確率が小さい領域(例えば確率がしきい値Th2以下となる領域)と、それ以外の領域とで異なるラベリングを行うようにしてもよい。これにより、目および口等の顔の構成部品を除いた顔の肌色領域を検出することが可能となる。 Moreover, even if the skin color corresponds to the face, the eyes and mouth are greatly different from the skin color of other parts of the face. For this reason, after detecting the skin color region using the skin color mask, the probability maps M1 and M2 are applied again, and the detected skin color region has a small probability (for example, a region where the probability is equal to or less than the threshold Th2) Different labeling may be performed in other areas. As a result, it is possible to detect the skin color area of the face excluding facial components such as eyes and mouth.
以上、本発明の実施形態に係る装置1について説明したが、コンピュータを、上記の入力部2、顔検出部3、サンプル取得部4、特徴量抽出部5、モデル作成部6および検出部7に対応する手段として機能させ、図3,4に示すような処理を行わせるプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も本発明の実施形態の1つである。
Although the
1 肌色検出装置
2 入力部
3 顔検出部
4 サンプル取得部
5 特徴量抽出部
6 モデル作成部
7 検出部
DESCRIPTION OF
Claims (6)
前記肌色サンプル領域から複数の特徴量を抽出する特徴量抽出手段と、
前記複数の特徴量に基づいて、前記対象画像の各画素が肌色であるか否かを判定するための肌色モデルを統計的に作成するモデル作成手段とを備えたことを特徴とする肌色モデル作成装置。 Sample acquisition means for acquiring a skin color sample region from the target image;
Feature quantity extraction means for extracting a plurality of feature quantities from the skin color sample area;
A skin color model creation comprising: a model creation means for statistically creating a skin color model for determining whether each pixel of the target image is a skin color based on the plurality of feature amounts apparatus.
前記サンプル取得手段は、前記顔検出手段が検出した顔領域に含まれる所定範囲の領域を前記肌色サンプル領域として取得する手段であることを特徴とする請求項1または2記載の肌色モデル作成装置。 A face detecting means for detecting a face area from the target image;
3. The skin color model creating apparatus according to claim 1, wherein the sample acquiring unit is a unit that acquires a predetermined range region included in the face region detected by the face detecting unit as the skin color sample region.
前記肌色サンプル領域から複数の特徴量を抽出し、
前記複数の特徴量に基づいて、前記対象画像の各画素が肌色であるか否かを判定するための肌色モデルを統計的に作成することを特徴とする肌色モデル作成方法。 Get the skin color sample area from the target image,
Extracting a plurality of feature quantities from the skin color sample area;
A skin color model creation method that statistically creates a skin color model for determining whether or not each pixel of the target image is a skin color based on the plurality of feature amounts.
前記肌色サンプル領域から複数の特徴量を抽出する手順と、
前記複数の特徴量に基づいて、前記対象画像の各画素が肌色であるか否かを判定するための肌色モデルを統計的に作成する手順とを有することを特徴とする肌色モデル作成方法をコンピュータに実行させるためのプログラム。 The procedure to acquire the skin color sample area from the target image,
A procedure for extracting a plurality of feature amounts from the skin color sample region;
A method of statistically creating a skin color model for determining whether or not each pixel of the target image is a skin color based on the plurality of feature amounts, A program to make it run.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008193151A JP2010033220A (en) | 2008-07-28 | 2008-07-28 | Skin color model generation device, method, and program |
US12/509,661 US20100021056A1 (en) | 2008-07-28 | 2009-07-27 | Skin color model generation device and method, and skin color detection device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008193151A JP2010033220A (en) | 2008-07-28 | 2008-07-28 | Skin color model generation device, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010033220A true JP2010033220A (en) | 2010-02-12 |
Family
ID=41737636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008193151A Abandoned JP2010033220A (en) | 2008-07-28 | 2008-07-28 | Skin color model generation device, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010033220A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10497103B2 (en) | 2015-11-28 | 2019-12-03 | Canon Kabushiki Kaisha | Information processing apparatus, information processing system, information processing method, and recording medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003108980A (en) * | 2001-09-28 | 2003-04-11 | Mitsubishi Electric Corp | Head area extraction device and real-time expression tracing device |
JP2005250712A (en) * | 2004-03-03 | 2005-09-15 | Univ Waseda | Figure attribute identification method and its system |
JP2007272435A (en) * | 2006-03-30 | 2007-10-18 | Univ Of Electro-Communications | Face feature extraction device and face feature extraction method |
-
2008
- 2008-07-28 JP JP2008193151A patent/JP2010033220A/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003108980A (en) * | 2001-09-28 | 2003-04-11 | Mitsubishi Electric Corp | Head area extraction device and real-time expression tracing device |
JP2005250712A (en) * | 2004-03-03 | 2005-09-15 | Univ Waseda | Figure attribute identification method and its system |
JP2007272435A (en) * | 2006-03-30 | 2007-10-18 | Univ Of Electro-Communications | Face feature extraction device and face feature extraction method |
Non-Patent Citations (2)
Title |
---|
CSNG200500406016; '実環境におけるマシンビジョン適用技術 ベイジアンネットワークに基づく視聴覚情報の統合を用いた画像から' 電気学会論文誌C Vol.124 No.3 , 20040301 * |
JPN6012014642; '実環境におけるマシンビジョン適用技術 ベイジアンネットワークに基づく視聴覚情報の統合を用いた画像から' 電気学会論文誌C Vol.124 No.3 , 20040301 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10497103B2 (en) | 2015-11-28 | 2019-12-03 | Canon Kabushiki Kaisha | Information processing apparatus, information processing system, information processing method, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10438059B2 (en) | Image recognition method, image recognition apparatus, and recording medium | |
US20100021056A1 (en) | Skin color model generation device and method, and skin color detection device and method | |
US7715596B2 (en) | Method for controlling photographs of people | |
US8401250B2 (en) | Detecting objects of interest in still images | |
Gizatdinova et al. | Feature-based detection of facial landmarks from neutral and expressive facial images | |
US20140050391A1 (en) | Image segmentation for large-scale fine-grained recognition | |
US9053537B2 (en) | Classifier for use in generating a diffuse image | |
KR20170006355A (en) | Method of motion vector and feature vector based fake face detection and apparatus for the same | |
JP2009211179A (en) | Image processing method, pattern detection method, pattern recognition method, and image processing device | |
US10395091B2 (en) | Image processing apparatus, image processing method, and storage medium identifying cell candidate area | |
EP2980755A1 (en) | Method for partitioning area, and inspection device | |
CN111539911B (en) | Mouth breathing face recognition method, device and storage medium | |
JP2011053953A (en) | Image processing apparatus and program | |
Wighton et al. | A fully automatic random walker segmentation for skin lesions in a supervised setting | |
CN109934112B (en) | Face alignment method and camera | |
JP2005084980A (en) | Data generation unit for card with face image, method and program | |
JP2019180749A (en) | Image processing program, image processing apparatus, and image processing method | |
CN113436735A (en) | Body weight index prediction method, device and storage medium based on face structure measurement | |
JP4619762B2 (en) | Image processing method, apparatus, and program | |
JP2010176504A (en) | Image processor, image processing method, and program | |
JP2010033221A (en) | Skin color detection apparatus, method, and program | |
JP2006323779A (en) | Image processing method and device | |
KR101408344B1 (en) | Apparatus for detecting face | |
WO2015131710A1 (en) | Method and device for positioning human eyes | |
JP2007026308A (en) | Image processing method and image processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110126 |
|
RD15 | Notification of revocation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7435 Effective date: 20110418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120301 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120321 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121016 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20121205 |