JP4076777B2 - Face area extraction device - Google Patents
Face area extraction device Download PDFInfo
- Publication number
- JP4076777B2 JP4076777B2 JP2002060043A JP2002060043A JP4076777B2 JP 4076777 B2 JP4076777 B2 JP 4076777B2 JP 2002060043 A JP2002060043 A JP 2002060043A JP 2002060043 A JP2002060043 A JP 2002060043A JP 4076777 B2 JP4076777 B2 JP 4076777B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- area
- hair
- face
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
この発明は、入力された人物画像から、毛髪領域を含む顔領域を抽出し、更に顔の構成要素である両目、口、鼻位置を画像の座標値として求める装置に関するものである。
【0002】
【従来の技術】
図16は第1の従来例として、例えば、特開平8−153197に示された従来の画像処理装置がある。この装置によれば、入力画像データを色の属性である輝度データ、色相データ、彩度データに変換する座標変換器と、これらの変換した3属性データに基づく肌色画素のヒストグラムを生成するヒストグラム生成器と、抽出した肌色画素に基づいて顔領域を判定する顔領域判定器からなる。
【0003】
次に動作について説明する。
まず、座標変換器において、入力された画像データから輝度データ、色相データ、彩度データの3属性データに変換する。そして、ヒストグラム生成器において変換した3属性データに基づき、画像の水平位置毎に垂直方向の肌色画素の累積ヒストグラムを生成する。最後に顔領域判定器において、肌色画素が密集している領域を顔領域として抽出する。
【0004】
また、第2の従来例として、特開平9−101579に示された顔領域抽出方法および複写条件決定方法がある。この方法によれば、画像から肌色領域を抽出後、エッジ抽出結果を用いて肌色領域を再度分割することにより、肌色と類似した背景の前で撮影した画像に対して、背景と顔が同時に抽出されることを防いでいる。
【0005】
【発明が解決しようとする課題】
上記した第1の従来例である画像処理装置では、肌色に類似した領域が顔の周辺に存在する場合、その領域が顔領域と統合されて抽出されるという課題がある。
一方、第2の従来例である顔領域抽出方法および複写条件決定方法では、肌色領域抽出後、エッジ抽出結果を用いて過少分割部分を補正しているが、一般にエッジ抽出によって得られた輪郭線は欠損を生じている場合が多く、顔領域が輪郭線で囲まれた領域とならず、結局背景領域を除去できないという課題がある。
また、この方法を眼鏡をかけた人物に適用すると、顔領域が眼鏡のフレームで分断されて領域を誤ってしまう。
【0006】
この発明は上記のような課題を解決するためになされたもので、任意の背景の前で撮影された人物画像から頭部領域を正確に抽出し、目、鼻、口の位置を定める。
【0007】
【課題を解決するための手段】
この発明に係る顔領域抽出及び顔構成要素位置判定装置は、入力された人物画像データを解析して顔領域を抽出し、目や鼻等の構成要素の位置を求める装置において、
人物画像データを各画素の色情報に基づいて複数の抽出単位領域に分割する候補領域特定部と、
人物画像データから顔領域を特定する顔領域特定部と、
人物画像データから毛髪部を特定する毛髪領域特定部とを備えて、得られた顔領域を記得られた抽出単位領域と特定した毛髪部で表現し、かつ顔の構成要素の位置を座標値として求めるようにした。
【0008】
また更に、人物画像データをフィルタリングして、その後、標準色をもとに肌色領域候補を抽出し、この抽出した肌色領域候補中の最大領域を抽出する肌色領域抽出部を備えた。
【0009】
また更に、候補領域特定部は、複数の領域特定手段の1つとして輪郭を抽出するエッジ抽出手段を用いた。
【0010】
また更に、顔領域特定部は、肌色領域抽出部の出力を参照して顔領域を推定し、かつこの推定した顔領域中の画像データの欠落を膨張と収縮処理に基づいて補正して、顔領域を特定するようにした。
【0011】
また更に、毛髪領域特定部は、毛髪色データベースを設け、顔領域特定部の出力を参照して毛髪領域探索範囲を設定し、この毛髪領域探索範囲から毛髪色データベースに基づいて毛髪部を特定するようにした。
【0012】
また更に、顔領域特定部の出力に基づいて目、鼻、口位置の探索範囲を設定し、入力された人物画像データの輝度を正規化して上記目、鼻、口位置を定めるようにした。
【0013】
【発明の実施の形態】
実施の形態1.
本発明の主旨は、毛髪部を含めた顔領域の正確な特定にあり、そのために複数の候補領域を組み合わせて確からしい領域を推定抽出する。即ち先ず抽出単位となる領域を細分化する候補領域特定部と、更に眼鏡や、顔の中にある髪の毛や装身具等の影響を除いて顔の最大輪郭を特定する顔領域特定部と、範囲を推定して毛髪部を特定する毛髪特定部を備えて、これらを総合して顔領域を確定する。以下、全体の構成、各部の構成と動作を順に説明する。
図1は、本実施の形態における特徴領域抽出頭部位置判定装置の構成を示す図である。図において、1は画像を入力するための画像入力部、2は入力された画像から頭部領域を抽出するための頭部領域抽出部、3は抽出された頭部領域から両目、口、鼻などの部位の位置を検出するための部位検出部である。
頭部領域抽出部2はさらに、画像から肌色領域を抽出するための肌色領域抽出部5、顔領域および毛髪領域の候補を特定するための候補領域特定部6、肌色領域抽出部5および候補領域特定部6の結果に基づき顔領域を特定するための顔領域特定部7、顔領域特定部7と候補領域特定部6の結果に基づき髪の毛領域を特定するための毛髪領域特定部8から構成される。
【0014】
肌色領域抽出部5はさらに、画像をぼかすためのフィルタリング手段9、肌色画素を抽出するための肌色抽出手段10、肌色抽出手段10で抽出した肌色画素を連結した領域のうち最大の領域を抽出するための最大領域抽出手段11から構成される。
本実施の形態において第1の重要構成要素である、候補領域特定部6はさらに、画像のエッジを抽出するためのエッジ抽出手段12、画像を領域分割するための領域分割手段13、領域分割手段13の結果をエッジ抽出手段12の結果を用いて補正するための領域分割補正手段14から構成される。
同じく第2の重要要素である、顔領域特定部7はさらに、肌色領域抽出部5の結果と候補領域特定部6の結果から顔領域を特定するための顔領域判定手段15、顔領域判定手段15の結果得られた顔領域に発生している穴や亀裂などの欠落を補正するための顔領域補正手段16から構成される。
【0015】
毛髪領域特定部8はさらに、顔領域特定部7の結果に基づいて毛髪領域が含まれる範囲を特定するための毛髪候補領域選定手段17、髪毛色を格納する毛髪色データベース19、候補領域特定部6で得られた領域のうち、毛髪候補領域選定手段17で設定した範囲に含まれる領域の中で、毛髪色データベース19に格納されている毛髪色に類似した領域を毛髪領域として判定するための毛髪領域判定手段18から構成される。
【0016】
部位検出部3はさらに、頭部領域抽出部2の結果から両目、口、鼻領域の探索範囲を設定するための部位領域マスク設定手段20、部位領域マスク設定手段20で設定した各探索範囲の中から部位領域を特定するための部位領域特定手段21から構成される。
【0017】
次に本実施の形態における特徴領域抽出頭部位置判定合成装置の動作をその全体動作フローチャートである図2を用いて説明する。
まず、画像入力手段1において画像を入力する(ステップS1−1)。次に、頭部領域抽出部2において入力画像から人物の頭部領域を抽出する(ステップS1−2)。そして、部位検出部3において、頭部領域抽出部2で抽出した頭部領域から両目、口、鼻の位置を検出する(ステップS1−3)。画像出力を編集する場合は、図示していない画像合成手段において抽出した頭部領域を、任意の背景画像と、背景画像に付随した合成パラメータを用いて合成する(ステップS1−4)。
【0018】
次に頭部領域抽出部2の動作をその動作フローチャートである図3を用いて説明する。
頭部領域抽出部2は、画像入力部1で入力した画像からまず肌色領域抽出部5において肌色領域を抽出する(ステップS2−1)。また、候補領域特定部6において画像を領域分割する(ステップS2−2)。次に、顔領域特定部7において、候補領域特定部6で得られた領域分割結果から、肌色領域抽出部5で抽出した肌色領域と重なる領域を顔領域として抽出し、内部に発生している穴や亀裂等の欠落を補正する(ステップS2−3)。最後に、毛髪領域特定部8において、顔領域特定部7で抽出した顔領域から、髪の毛領域が含まれる範囲を設定し、その範囲に含まれる領域に対して毛髪色DBに格納された毛髪色と類似している領域を毛髪領域として特定する(ステップS2−4)。
【0019】
更に、個別に各要素の動作を説明する。まず肌色領域抽出部5の動作をフローチャート図4および説明用の図5を用いて詳細に説明する。図5は、フィルタリング手段9でぼかし処理を行ったときの処理前および処理後の画像例である。
肌色領域抽出部5は、フィルタリング手段9において画像入力部1で入力された画像をぼかす処理を行う(ステップS3−1)。これは、例えば眼鏡をかけた人物から後述の肌色画素を抽出して顔領域を特定する際、眼鏡で顔領域が分断される場合がある。顔領域を抽出する際には、顔領域が1領域として抽出されることが望ましい。もし、顔領域が分断された場合、どの領域までが顔領域かを判定することが困難となる問題がある。よって、肌色画素を抽出する前にぼかし処理を施すことにより、眼鏡などの画素を肌色と同化させることにより、顔領域が分断されず、一領域として抽出される効果がある。
【0020】
ぼかし処理には、例えば「画像ハンドブック」(高木幹雄,下田陽久監修、東京大学出版会)(文献1)に記載のメディアンフィルタを用いてもよい。メディアンフィルタのフィルタリングサイズを画像の大きさに合わせて調整すると、例えば入力画像が図5(a)の形状26であった場合、その結果は図5(b)の形状27のようになり、眼鏡のエッジ部分がかすれるようになる。よって、後の肌色抽出処理を行った場合、顔領域が眼鏡等によって分断されること無く1領域として抽出される。
フィルタリング手段9で入力画像のぼかし処理を行った後、肌色抽出手段10において肌色画素を抽出する(ステップS3−2)。
【0021】
肌色画素の抽出は、例えば“PicToSeek:Combining Color and Shape Invariant Features forimage Retrieval,”Theo Gerers and Arnold W.M.Smeulders,IEEE Transaction on Image Processing,Vol.9,No.1,(文献2)に記載の肌色モデルを用いて行う。つまり、入力画像の画素値(R,G,B)を肌色抽出のための別の色空間に写像し、肌色が属する範囲に入る画素を抽出する。
【0022】
この方法は具体的には、色空間として、R、G,Bを画素の色データとしたとき、まず次式により色を正規化する。
【0023】
【数1】
【0024】
上記式で正規化した色をさらに次式で変換する。
C1=c2/c1 (式4)
C2=c3/c2 (式5)
肌色領域抽出手段8では、(式4)および(式5)でRGB空間からC1−C2空間に写像した色が、次式で定義した肌色範囲の範疇に入っているか否かを判断して、入力画像から肌色領域を抽出する。
th<C1<th2 (式6)
th3<C2<th4 (式7)
最後に、最大領域抽出手段11において、肌色抽出手段10で抽出した肌色画素を4連結あるいは8連結で連結し領域ごとに分類し、分類した肌色領域の中で最大のものを顔領域として抽出する(ステップS3−4)。
【0025】
次に、第1の重要構成要素である候補領域特定部6の動作をフローチャート図6および説明図の図7を用いて詳細に説明する。図7は、領域分割補正手段14において、領域分割手段13の処理結果をエッジ抽出手段12の結果を用いて補正した結果を示した図である。
まず、領域分割手段13において入力画像を領域分割する(ステップS4−1)。領域分割の手法には様々なものがあるが、例えば、“Color Quantization by Dynamic Programming and Principal Analysis,”Xiaolin Wu,Transaction on Graphics,Vol.11,No.4,1992.(文献3)に記載の色による領域分割を用いる。この手法は、画像の画素値(RGB値)を主成分分析し、第一主成分に直行する平面で色を指定された色数で分類するものである。この手法では、原画像の画素値と分類後の各クラスターの代表色(平均色)との色差が大きくならないようにDynamic Programmingを用いて最適解を求めている。
領域分割手段13では、以上でクラスタリングした各画素を、同じクラスタIDを持つものどおしで4連結あるいは8連結で連結した領域を生成し、生成した領域にユニークなIDを振りなおすことで画像を領域分割する(ステップS4−1)。
なお、領域分割の手法は、別の手法を用いてもよく、いずれにせよ、ひとまず第1の細分化領域を得る。
【0026】
次に、エッジ抽出手段12において、画像からエッジを抽出する(ステップS4−2)。エッジ抽出の手法は、例えば先に引用した(文献1)に記載のCannyエッジ抽出法を用いる。
ここで、領域分割手段13の処理結果が図7の分割28でエッジ抽出手段12の結果が図7の分割29となったと仮定する。
この例では、本来の領域数は4である。しかしながら領域分割結果では領域数は3となっている。このように、領域分割手法による領域分割結果は、画像を大まかに分割するようにパラメータを設定すると過少分割(本来別領域の領域を1領域として分割する)を起こすことがある。そこで、領域分割補正手段14において、領域分割手段13で得られた領域分割結果28に、エッジ抽出手段12で得られたエッジ29に沿って例えばどの領域にも属さないという意味のID=0を設定する。そして過少分割を起こした領域を分断し、領域IDを再設定した後、エッジ画素のIDを、画素に接した領域IDでおき直すことにより図7の分割30に示すように、領域分割手段13で得られた結果を補正する。即ちOR(細分化)効果が得られる。
【0027】
次に、第2の重要構成要素である顔領域特定部7の動作をフローチャートの図8から説明図の図11を用いて詳細に説明する。図9は顔領域判定手段15で得られた顔領域の一例を示す図である。図10は、顔領域補正手段16において、顔領域に発生した亀裂を補正した画像例である。図11は、顔領域補正手段16において、顔領域に発生した穴領域を埋める処理を説明するための図である。
まず、顔領域判定手段15において、候補領域特定部6で得られた領域のうち、肌色領域抽出部5で抽出した肌色領域と重なる領域を求める(ステップS5−1)。このとき、(式8)に示す重なり率を求める。
OR=op/rp (式8)
ここで、ORは重なり率、opは1領域中の画素のうち肌色領域と重なる画素数、rpは領域の画素数である。
【0028】
顔領域判定手段15では、(式8)で求めた重なり率が、ある閾値以上のものを顔領域と判定する。この重なり率を導入することにより肌色領域抽出手段5において、顔領域の周囲にある背景画素を誤って抽出したとしても、その画素が属する領域の重なり率は低くなることから、顔領域判定手段15でそのような背景画素を削除することが可能となる効果がある。
顔領域判定手段15で求めた顔領域には、図9に示すように、穴や亀裂が生じている場合がある。そこで、顔領域補正手段16において、図9に示すような穴や亀裂等の欠落を補正することにより顔領域全体を抽出する(ステップS5−2)。
【0029】
裂け目部分の修復は、肌色領域抽出手段5で抽出した肌色領域の画素を1、それ以外を0とした2値画像に対して図8(b)に示す近傍パターンを用いて、(文献1)に示される膨張と収縮処理を行って修復ができる。即ち膨張処理で近傍パターンに基いて領域をいったん拡大し、その後、収縮処理では別の近傍パターン図5(b)を用いる膨張収縮処理により、図10の29示すような裂け目が修復され30のようになる。また、この処理により微小の穴も埋めることが可能である。
膨張収縮処理により頭部領域に発生した裂け目が修復された後は、頭部領域内の全ての穴を埋めることにより頭部全体を一領域として抽出できる。この穴埋め処理は、図11に示す論理演算処理により行う。
まず図11(a)では、裂け目修復処理(領域の欠落補正)により得られた顔領域31と、画素値が全て1のマスク32との排他的論理和(xor)を求める。その結果、背景領域と頭部領域内の穴が得られる。次に、図11(b)に示すように、得られた画像33から、画像の外辺に接している領域(背景領域)除去し、除去した画像34と元の顔領域画像31と論理和を求めることにより、顔領域全体35を抽出することができる。
【0030】
次に、第3の重要構成要素である、髪の毛領域特定部8の動作をフローチャート図12および説明図図13を用いて説明する。図13は髪の毛領域特定手段8の処理過程を示す図である。
まず、髪の毛候補領域選定手段17において、顔領域特定部7で抽出した顔領域の大きさに基づき、髪の毛領域の探索範囲36を設定する(ステップS6−1)。次に、顔領域を現在の頭部領域として設定し(ステップS6−2)、探索範囲内に処理対象領域が無くなるまで以下の処理を繰り返す(ステップS6−3)。
【0031】
まず、頭部領域に接している全ての領域を対象とする(ステップS6−4)。次に、全ての対象領域に対して以下の処理を繰り返す(ステップS6−5)。
即ち、毛髪色データベース19内に格納されている毛髪色サンプルと、領域の平均色との式差を求め(ステップS6−6)、色差が閾値以下の領域を髪の毛領域とする(ステップS6−7、ステップS6−8)。
ここで、色差とは、例えば(文献1)に記載のL*a*b*色空間におけるユークリッド距離として求めることができる。
以上で求めた髪の毛領域を含めた領域を新たな頭部領域として設定し(ステップS6−10)、ステップS6−3から処理を繰り返すことにより髪の毛領域を抽出することができる。
【0032】
例えば、図13(a)での領域36のように髪の毛領域探索範囲を設定した場合、1回目の処理で図13(b)の領域37に示す領域が抽出され、2回目の処理で図13(c)の領域38に示す領域が抽出される。3回目の処理では、探索範囲内に処理対象となる領域が残らなくなるため、領域38が毛髪領域抽出結果となる。
ここで、単純に毛髪色に類似した領域を抽出した場合、頭部領域に接しない単独な領域が抽出される可能性があるが、顔領域に接する領域から徐々に処理することにより、そのような単独領域をノイズとして除去することが可能となる効果がある。
また、毛髪色DBを用いて髪の毛であるか否かを判定すれば、茶髪や金髪などの様々な髪の毛に対応して適切に髪の毛領域を抽出できる。
【0033】
次に、部位検出部3の動作をフローチャート図14および説明図図15を用いて説明する。図15は、頭部領域抽出部2で抽出した頭部領域に基づき、両目、口、鼻の探索範囲を設定したときの結果を示した説明図である。
まず、頭部領域抽出部2で抽出した頭部領域の幅、高さから、両目、鼻、口の探索範囲39、40、41、42を設定する(ステップS7−1)。
【0034】
次に、“GRAPHICS GEMS IV,”Paul S.Heckbert,Morgan Kaufmann(文献4)に記載の適応型ヒストグラム平均化法を用いて各探索範囲内の画素の輝度を正規化し、閾値以下(暗い)の画素を抽出し、4連結あるいは8連結で連結し領域とする(ステップS7−2)。次に、鼻探索範囲内41の領域に着目し、探索範囲内の領域のうち、探索範囲の中心と領域の中心との距離が最も近い領域を鼻領域として求め、求めた領域の中心座標を鼻位置とする(ステップS7−3)。
次に、左目探索範囲内39の領域のうち、領域の中心と、上記鼻位置との距離が最も近い領域を左目領域とし、その中心を左目位置とする(ステップS7−4)。同様に右目探索範囲内40の領域のうち、領域の中心と鼻位置との距離が最も近い領域を右目領域とし、その中心を右目位置とする(ステップS7−4)。
最後に、口探索範囲内42の領域のうち、領域の中心と、鼻位置との距離が最も近い領域を口領域とし、その中心を口位置とする(ステップS7−5)。
以上のように、抽出した頭部領域の幅、高さから両目、口、鼻が存在するおおよその範囲を限定することにより、同部位位置を的確に求めることが可能となる効果がある。
【0035】
【発明の効果】
以上のようにこの発明によれば、複数の細分化領域を全て抽出単位とする候補領域特定部と、顔領域特定部と、毛髪領域特定部とを備えたので、正確に顔、毛髪領域を抽出できる効果がある。
【0036】
また更に、候補領域中の最大領域を抽出する肌色領域抽出部を備えたので、顔領域の推定が更に正確に行える効果がある。
【0037】
また更に、画像データの欠落を膨張と収縮処理で補正する顔領域特定部としたので、顔領域の推定が更に正確に行える効果がある。
【図面の簡単な説明】
【図1】 この発明の実施の形態1における特徴領域抽出頭部位置判定装置の構成を示す図である。
【図2】 特徴領域抽出頭部位置判定装置が行う全体としての動作フロー図である。
【図3】 頭部領域抽出部の動作フロー図である。
【図4】 肌色領域抽出部の動作フロー図である。
【図5】 肌色領域抽出部が行う動作を説明する図である。
【図6】 候補領域特定部の動作フロー図である。
【図7】 候補領域特定部が行う動作を説明する図である。
【図8】 顔領域特定部の動作フロー図である。
【図9】 顔領域特定部が行う動作を説明する図である。
【図10】 顔領域特定部が行う動作を説明する図である。
【図11】 顔領域特定部が行う動作を説明する図である。
【図12】 毛髪領域特定部の動作フロー図である。
【図13】 毛髪領域特定部が行う動作を説明する図である。
【図14】 部位検出部の動作フロー図である。
【図15】 部位検出部が行う動作を説明する図である。
【図16】 第1の従来例における画像処理装置の構成を示す図である。
【符号の説明】
1 画像入力部、2 頭部領域抽出部、3 部位検出部、5 肌色領域抽出部、6 候補領域特定部、7 顔領域特定部、8 毛髪領域特定部、9 フィルタリング手段、10 肌色抽出手段、11 最大領域抽出手段、12 エッジ抽出手段、13 領域分割手段、14 領域分割補正手段、15 顔領域判定手段、16 顔領域補正手段、17 毛髪候補領域選定手段、18 毛髪領域判定手段、19 毛髪色データベース、20 部位領域マスク設定手段、21 部位領域特定手段。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an apparatus for extracting a face area including a hair area from an inputted person image and further obtaining positions of both eyes, a mouth and a nose which are constituent elements of the face as coordinate values of the image.
[0002]
[Prior art]
FIG. 16 shows a first conventional example, for example, a conventional image processing apparatus disclosed in JP-A-8-153197. According to this apparatus, a coordinate converter that converts input image data into luminance data, hue data, and saturation data that are color attributes, and histogram generation that generates a histogram of skin color pixels based on these converted three attribute data And a face area determination unit that determines a face area based on the extracted skin color pixels.
[0003]
Next, the operation will be described.
First, the coordinate converter converts the input image data into three attribute data of luminance data, hue data, and saturation data. Based on the three attribute data converted by the histogram generator, a cumulative histogram of skin color pixels in the vertical direction is generated for each horizontal position of the image. Finally, in the face area determination unit, an area where skin color pixels are dense is extracted as a face area.
[0004]
As a second conventional example, there is a face area extraction method and a copying condition determination method disclosed in Japanese Patent Laid-Open No. 9-101579. According to this method, after extracting the skin color area from the image, the background and the face are simultaneously extracted from the image photographed in front of the background similar to the skin color by dividing the skin color area again using the edge extraction result. Is being prevented.
[0005]
[Problems to be solved by the invention]
In the image processing apparatus according to the first conventional example described above, when a region similar to the skin color exists around the face, there is a problem that the region is extracted by being integrated with the face region.
On the other hand, in the face area extraction method and the copy condition determination method as the second conventional example, after the skin color area is extracted, the under-divided portion is corrected using the edge extraction result. Generally, the contour line obtained by edge extraction is used. In many cases, there is a defect, and the face area is not an area surrounded by a contour line, and the background area cannot be removed after all.
Moreover, when this method is applied to a person wearing glasses, the face area is divided by the frame of the glasses, and the area is erroneous.
[0006]
The present invention has been made to solve the above-described problems. The head region is accurately extracted from a human image photographed in front of an arbitrary background, and the positions of eyes, nose and mouth are determined.
[0007]
[Means for Solving the Problems]
The face area extraction and face component position determination apparatus according to the present invention is an apparatus that analyzes input human image data to extract a face area and obtains positions of components such as eyes and nose.
A candidate area specifying unit that divides human image data into a plurality of extraction unit areas based on color information of each pixel;
A face area specifying unit for specifying a face area from human image data;
A hair region specifying unit for specifying a hair part from human image data, expressing the obtained face region by the obtained extraction unit region and the specified hair part, and using the position of the face component as a coordinate value I asked for it.
[0008]
Furthermore, the human image data is filtered, and then a skin color area candidate is extracted based on the standard color, and a skin color area extraction unit is provided for extracting the maximum area from the extracted skin color area candidates.
[0009]
Still further, the candidate area specifying unit uses edge extracting means for extracting a contour as one of a plurality of area specifying means.
[0010]
Further, the face area specifying unit estimates the face area with reference to the output of the skin color area extracting unit, and corrects the lack of image data in the estimated face area based on the expansion and contraction processing, thereby The area was specified.
[0011]
Furthermore, the hair region specifying unit provides a hair color database, sets the hair region search range with reference to the output of the face region specifying unit, and specifies the hair portion based on the hair color database from the hair region search range. I did it.
[0012]
Further, the eye, nose, and mouth position search range is set based on the output of the face area specifying unit, and the brightness of the input human image data is normalized to determine the eye, nose, and mouth position.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Embodiment 1 FIG.
The gist of the present invention lies in the accurate identification of the face area including the hair portion. For this purpose, a probable area is estimated and extracted by combining a plurality of candidate areas. That is, first, a candidate area specifying unit that subdivides an area as an extraction unit, a face area specifying unit that specifies the maximum contour of the face excluding the influence of glasses, hair in the face, accessories, etc. A hair specifying part that estimates and specifies the hair part is provided, and these are combined to determine the face area. Hereinafter, the overall configuration and the configuration and operation of each unit will be described in order.
FIG. 1 is a diagram illustrating a configuration of a feature region extraction head position determination device according to the present embodiment. In the figure, 1 is an image input unit for inputting an image, 2 is a head region extracting unit for extracting a head region from the input image, and 3 is both eyes, mouth and nose from the extracted head region. It is a site | part detection part for detecting the position of site | parts, such as.
The head
[0014]
The skin color
The candidate
Similarly, the face
[0015]
The hair
[0016]
The
[0017]
Next, the operation of the feature region extraction head position determination / synthesis apparatus according to the present embodiment will be described with reference to FIG.
First, an image is input by the image input means 1 (step S1-1). Next, the head
[0018]
Next, the operation of the head
The head
[0019]
Further, the operation of each element will be described individually. First, the operation of the skin color
The skin color
[0020]
For the blurring process, for example, a median filter described in “Image Handbook” (supervised by Mikio Takagi, Yoji Shimoda, University of Tokyo Press) (Reference 1) may be used. When the filtering size of the median filter is adjusted in accordance with the size of the image, for example, when the input image has a
After performing the blurring process of the input image by the
[0021]
For example, “Pic To Seek: Combining Color and Shape Invant Features Forage Retrieval,” Theo Gerers and Arnold W. M.M. Smeulders, IEEE Transaction on Image Processing, Vol. 9, no. 1, using the skin color model described in (Reference 2). That is, the pixel values (R, G, B) of the input image are mapped to another color space for skin color extraction, and pixels that fall within the range to which the skin color belongs are extracted.
[0022]
Specifically, in this method, when R, G, and B are pixel color data as a color space, the color is first normalized by the following equation.
[0023]
[Expression 1]
[0024]
The color normalized by the above equation is further converted by the following equation.
C1 = c2 / c1 (Formula 4)
C2 = c3 / c2 (Formula 5)
The skin color
th <C1 <th2 (Formula 6)
th3 <C2 <th4 (Formula 7)
Finally, in the maximum
[0025]
Next, the operation of the candidate
First, the area dividing means 13 divides the input image into areas (step S4-1). There are various methods of area division. For example, “Color Quantification by Dynamic Programming and Principal Analysis,” Xiaolin Wu, Transactions on Graphics, Vol. 11, no. 4, 1992. Region division by color described in (Reference 3) is used. In this method, pixel values (RGB values) of an image are subjected to principal component analysis, and colors are classified by a designated number of colors on a plane orthogonal to the first principal component. In this method, an optimal solution is obtained by using Dynamic Programming so that the color difference between the pixel value of the original image and the representative color (average color) of each cluster after classification does not increase.
The area dividing means 13 generates an area in which the pixels clustered as described above are connected in a 4-connected or 8-connected form having the same cluster ID, and an image is assigned by reassigning a unique ID to the generated area. Is divided into regions (step S4-1).
Note that another method may be used as the region dividing method, and in any case, the first subdivided region is first obtained.
[0026]
Next, the edge extraction means 12 extracts an edge from the image (step S4-2). As an edge extraction method, for example, the Canny edge extraction method described in (Reference 1) cited above is used.
Here, it is assumed that the processing result of the
In this example, the original number of regions is four. However, the number of areas is 3 in the area division result. As described above, the result of area division by the area division method may cause under-division (originally dividing another area as one area) if parameters are set so as to roughly divide the image. Therefore, the area
[0027]
Next, the operation of the face
First, the face
OR = op / rp (Formula 8)
Here, OR is the overlapping rate, op is the number of pixels that overlap the skin color area among the pixels in one area, and rp is the number of pixels in the area.
[0028]
The face
The face area obtained by the face area determination means 15 may have a hole or a crack as shown in FIG. Therefore, the face area correction means 16 extracts the entire face area by correcting the lack of holes and cracks as shown in FIG. 9 (step S5-2).
[0029]
The repair of the fissure portion is performed by using a neighborhood pattern shown in FIG. 8B for a binary image in which the skin color region pixels extracted by the skin color region extraction means 5 are set to 1 and the others are set to 0 (Reference 1). It can be repaired by performing the expansion and contraction process shown in Fig. 1. That is, the expansion process temporarily expands the area based on the neighboring pattern, and then the shrinking process expands and contracts using another neighboring pattern shown in FIG. become. Moreover, it is possible to fill a minute hole by this processing.
After the tear that has occurred in the head region due to the expansion / contraction process is repaired, the entire head can be extracted as one region by filling all the holes in the head region. This hole filling process is performed by the logical operation process shown in FIG.
First, in FIG. 11A, an exclusive OR (xor) of the
[0030]
Next, the operation of the hair
First, the hair candidate region selection means 17 sets a hair
[0031]
First, all the areas in contact with the head area are targeted (step S6-4). Next, the following processing is repeated for all target regions (step S6-5).
That is, an expression difference between the hair color sample stored in the
Here, the color difference can be obtained as, for example, the Euclidean distance in the L * a * b * color space described in (Reference 1).
The region including the hair region obtained as described above is set as a new head region (step S6-10), and the hair region can be extracted by repeating the processing from step S6-3.
[0032]
For example, when the hair region search range is set like the
Here, when a region similar to the hair color is simply extracted, a single region that does not contact the head region may be extracted, but by gradually processing from the region that contacts the face region, such a region is extracted. It is possible to remove a single isolated area as noise.
Moreover, if it is determined whether it is hair using hair color DB, a hair area | region can be extracted appropriately corresponding to various hairs, such as brown hair and blond hair.
[0033]
Next, the operation of the
First, from the width and height of the head region extracted by the head
[0034]
Next, “GRAPHICS GEMS IV,” Paul S. The adaptive histogram averaging method described in Heckbert, Morgan Kaufmann (Reference 4) is used to normalize the brightness of pixels within each search range, extract pixels below the threshold (dark), and connect them in four or eight connections. The region is set to be a region (step S7-2). Next, paying attention to the region within the
Next, among the regions in the left
Finally, among the regions in the
As described above, by limiting the approximate range in which both eyes, mouth, and nose are present from the width and height of the extracted head region, there is an effect that the position of the part can be accurately obtained.
[0035]
【The invention's effect】
As described above, according to the present invention, since the candidate region specifying unit, the face region specifying unit, and the hair region specifying unit, all of which are a plurality of subdivided regions as extraction units, are provided, the face and hair region can be accurately determined. There is an effect that can be extracted.
[0036]
Furthermore, since the skin color area extracting unit for extracting the maximum area in the candidate area is provided, the face area can be estimated more accurately.
[0037]
Furthermore, since the face area specifying unit that corrects the lack of image data by expansion and contraction processing is used, there is an effect that the face area can be estimated more accurately.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of a feature region extraction head position determination device according to a first embodiment of the present invention.
FIG. 2 is an overall operation flow diagram performed by a feature region extraction head position determination device.
FIG. 3 is an operation flow diagram of a head region extraction unit.
FIG. 4 is an operation flow diagram of a skin color area extraction unit.
FIG. 5 is a diagram illustrating an operation performed by a skin color area extracting unit.
FIG. 6 is an operation flowchart of a candidate area specifying unit.
FIG. 7 is a diagram illustrating an operation performed by a candidate area specifying unit.
FIG. 8 is an operation flowchart of the face area specifying unit.
FIG. 9 is a diagram illustrating an operation performed by a face area specifying unit.
FIG. 10 is a diagram illustrating an operation performed by a face area specifying unit.
FIG. 11 is a diagram illustrating an operation performed by a face area specifying unit.
FIG. 12 is an operation flowchart of the hair region specifying unit.
FIG. 13 is a diagram illustrating an operation performed by a hair region specifying unit.
FIG. 14 is an operation flowchart of the part detection unit.
FIG. 15 is a diagram illustrating an operation performed by a part detection unit.
FIG. 16 is a diagram showing a configuration of an image processing apparatus in a first conventional example.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image input part, 2 Head area | region extraction part, 3 site | part detection part, 5 Skin color area extraction part, 6 Candidate area | region identification part, 7 Face area | region identification part, 8 Hair area | region identification part, 9 Filtering means, 10 Skin color extraction means, DESCRIPTION OF
Claims (3)
上記人物の画像を構成する各画素の色情報に基づいて所定の手法で肌色領域を抽出する肌色領域抽出部と、
上記人物の画像を構成する各画素の色情報に基づいて上記手法とは異なる手法で領域を分割し、また該画像が変化するエッジを抽出して、上記分割した領域を該エッジで分断して複数の抽出単位領域を得る候補領域特定部と、
上記人物の画像で上記候補領域特定部が得た各抽出単位領域のうち、上記各肌色領域と所定の割合以上に重なる抽出単位領域、を顔領域として特定する顔領域特定部と、を備えて、
上記特定された顔領域にある顔の構成要素の位置を求めることを特徴とする顔領域抽出判定装置。In the device for analyzing the input image of the person and extracting the face region and obtaining the positions of the components such as eyes, nose and mouth,
A skin color region extraction unit that extracts a skin color region by a predetermined method based on color information of each pixel constituting the person image;
Based on the color information of each pixel constituting the person's image, the region is divided by a method different from the method described above, an edge where the image changes is extracted, and the divided region is divided by the edge. A candidate area specifying unit for obtaining a plurality of extraction unit areas;
A face area specifying unit for specifying, as a face area, an extraction unit area that overlaps each skin color area with a predetermined ratio or more among the extraction unit areas obtained by the candidate area specifying unit in the person image. ,
A face area extraction / determination apparatus characterized in that a position of a face component in the specified face area is obtained.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002060043A JP4076777B2 (en) | 2002-03-06 | 2002-03-06 | Face area extraction device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002060043A JP4076777B2 (en) | 2002-03-06 | 2002-03-06 | Face area extraction device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003256834A JP2003256834A (en) | 2003-09-12 |
JP4076777B2 true JP4076777B2 (en) | 2008-04-16 |
Family
ID=28669515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002060043A Expired - Fee Related JP4076777B2 (en) | 2002-03-06 | 2002-03-06 | Face area extraction device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4076777B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106991360A (en) * | 2016-01-20 | 2017-07-28 | 腾讯科技(深圳)有限公司 | Face identification method and face identification system |
CN108009470A (en) * | 2017-10-20 | 2018-05-08 | 深圳市朗形网络科技有限公司 | A kind of method and apparatus of image zooming-out |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4683200B2 (en) * | 2004-04-30 | 2011-05-11 | 花王株式会社 | Automatic hair region extraction method |
JP2008092297A (en) * | 2006-10-02 | 2008-04-17 | Olympus Corp | Image processor, image processing program, image manufacturing method, and recording medium |
KR100970328B1 (en) * | 2008-04-04 | 2010-07-15 | 엔에이치엔(주) | System and Method for Determining Adult Contents |
JP2010082245A (en) * | 2008-09-30 | 2010-04-15 | Panasonic Electric Works Co Ltd | Hair information measuring method |
JP5399887B2 (en) * | 2009-12-28 | 2014-01-29 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
JP5892588B2 (en) * | 2011-11-24 | 2016-03-23 | 学校法人東京電機大学 | Human guidance robot |
JP5971108B2 (en) * | 2012-12-18 | 2016-08-17 | 富士通株式会社 | Image processing apparatus, image processing method, and image processing program |
JP6604413B1 (en) | 2018-10-09 | 2019-11-13 | 日本電気株式会社 | Image search device, image search system, image search method and program |
CN111507994B (en) * | 2020-04-24 | 2023-10-03 | Oppo广东移动通信有限公司 | Portrait extraction method, portrait extraction device and mobile terminal |
-
2002
- 2002-03-06 JP JP2002060043A patent/JP4076777B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106991360A (en) * | 2016-01-20 | 2017-07-28 | 腾讯科技(深圳)有限公司 | Face identification method and face identification system |
CN106991360B (en) * | 2016-01-20 | 2019-05-07 | 腾讯科技(深圳)有限公司 | Face identification method and face identification system |
CN108009470A (en) * | 2017-10-20 | 2018-05-08 | 深圳市朗形网络科技有限公司 | A kind of method and apparatus of image zooming-out |
CN108009470B (en) * | 2017-10-20 | 2020-06-16 | 深圳市朗形网络科技有限公司 | Image extraction method and device |
Also Published As
Publication number | Publication date |
---|---|
JP2003256834A (en) | 2003-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3549013B2 (en) | Eye position detection method, eye position detection device, and recording medium recording eye position detection program | |
Li et al. | Multi-angle head pose classification when wearing the mask for face recognition under the COVID-19 coronavirus epidemic | |
CN103914699B (en) | A kind of method of the image enhaucament of the automatic lip gloss based on color space | |
US7747071B2 (en) | Detecting and correcting peteye | |
JP4076777B2 (en) | Face area extraction device | |
JPH1115947A (en) | Image processor | |
CN109544464A (en) | A kind of fire video image analysis method based on contours extract | |
US9762773B2 (en) | Image processing apparatus and method for increasing sharpness of images | |
JP2007272435A (en) | Face feature extraction device and face feature extraction method | |
CN110268442B (en) | Computer-implemented method of detecting a foreign object on a background object in an image, device for detecting a foreign object on a background object in an image, and computer program product | |
JP4599110B2 (en) | Image processing apparatus and method, imaging apparatus, and program | |
CN113139557B (en) | Feature extraction method based on two-dimensional multi-element empirical mode decomposition | |
CN114792310A (en) | Mura defect detection method for edge blurring in LCD screen | |
CN114241542A (en) | Face recognition method based on image stitching | |
Arsic et al. | Improved lip detection algorithm based on region segmentation and edge detection | |
CN110458012B (en) | Multi-angle face recognition method and device, storage medium and terminal | |
US10872229B2 (en) | Image processing device, image processing method, and recording medium | |
Priya et al. | A novel approach to the detection of macula in human retinal imagery | |
CN111914585A (en) | Iris identification method and system | |
TWI416433B (en) | Method of detecting red eye image and apparatus thereof | |
CN112488031A (en) | Safety helmet detection method based on color segmentation | |
CN105809628B (en) | Capsule image filtering method based on local curvature flow analysis | |
Li-jie et al. | Automatic Image Segmentation Base on Human Color Perceptions | |
CN110751078B (en) | Method and equipment for determining non-skin color region of three-dimensional face | |
Tribuzy et al. | Vehicle License Plate Preprocessing Techniques Using Graphical Interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20040518 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20041025 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070918 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080130 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110208 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |