JP4076777B2 - Face area extraction device - Google Patents

Face area extraction device Download PDF

Info

Publication number
JP4076777B2
JP4076777B2 JP2002060043A JP2002060043A JP4076777B2 JP 4076777 B2 JP4076777 B2 JP 4076777B2 JP 2002060043 A JP2002060043 A JP 2002060043A JP 2002060043 A JP2002060043 A JP 2002060043A JP 4076777 B2 JP4076777 B2 JP 4076777B2
Authority
JP
Japan
Prior art keywords
region
area
hair
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002060043A
Other languages
Japanese (ja)
Other versions
JP2003256834A (en
Inventor
昭二 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2002060043A priority Critical patent/JP4076777B2/en
Publication of JP2003256834A publication Critical patent/JP2003256834A/en
Application granted granted Critical
Publication of JP4076777B2 publication Critical patent/JP4076777B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、入力された人物画像から、毛髪領域を含む顔領域を抽出し、更に顔の構成要素である両目、口、鼻位置を画像の座標値として求める装置に関するものである。
【0002】
【従来の技術】
図16は第1の従来例として、例えば、特開平8−153197に示された従来の画像処理装置がある。この装置によれば、入力画像データを色の属性である輝度データ、色相データ、彩度データに変換する座標変換器と、これらの変換した3属性データに基づく肌色画素のヒストグラムを生成するヒストグラム生成器と、抽出した肌色画素に基づいて顔領域を判定する顔領域判定器からなる。
【0003】
次に動作について説明する。
まず、座標変換器において、入力された画像データから輝度データ、色相データ、彩度データの3属性データに変換する。そして、ヒストグラム生成器において変換した3属性データに基づき、画像の水平位置毎に垂直方向の肌色画素の累積ヒストグラムを生成する。最後に顔領域判定器において、肌色画素が密集している領域を顔領域として抽出する。
【0004】
また、第2の従来例として、特開平9−101579に示された顔領域抽出方法および複写条件決定方法がある。この方法によれば、画像から肌色領域を抽出後、エッジ抽出結果を用いて肌色領域を再度分割することにより、肌色と類似した背景の前で撮影した画像に対して、背景と顔が同時に抽出されることを防いでいる。
【0005】
【発明が解決しようとする課題】
上記した第1の従来例である画像処理装置では、肌色に類似した領域が顔の周辺に存在する場合、その領域が顔領域と統合されて抽出されるという課題がある。
一方、第2の従来例である顔領域抽出方法および複写条件決定方法では、肌色領域抽出後、エッジ抽出結果を用いて過少分割部分を補正しているが、一般にエッジ抽出によって得られた輪郭線は欠損を生じている場合が多く、顔領域が輪郭線で囲まれた領域とならず、結局背景領域を除去できないという課題がある。
また、この方法を眼鏡をかけた人物に適用すると、顔領域が眼鏡のフレームで分断されて領域を誤ってしまう。
【0006】
この発明は上記のような課題を解決するためになされたもので、任意の背景の前で撮影された人物画像から頭部領域を正確に抽出し、目、鼻、口の位置を定める。
【0007】
【課題を解決するための手段】
この発明に係る顔領域抽出及び顔構成要素位置判定装置は、入力された人物画像データを解析して顔領域を抽出し、目や鼻等の構成要素の位置を求める装置において、
人物画像データを各画素の色情報に基づいて複数の抽出単位領域に分割する候補領域特定部と、
人物画像データから顔領域を特定する顔領域特定部と、
人物画像データから毛髪部を特定する毛髪領域特定部とを備えて、得られた顔領域を記得られた抽出単位領域と特定した毛髪部で表現し、かつ顔の構成要素の位置を座標値として求めるようにした。
【0008】
また更に、人物画像データをフィルタリングして、その後、標準色をもとに肌色領域候補を抽出し、この抽出した肌色領域候補中の最大領域を抽出する肌色領域抽出部を備えた。
【0009】
また更に、候補領域特定部は、複数の領域特定手段の1つとして輪郭を抽出するエッジ抽出手段を用いた。
【0010】
また更に、顔領域特定部は、肌色領域抽出部の出力を参照して顔領域を推定し、かつこの推定した顔領域中の画像データの欠落を膨張と収縮処理に基づいて補正して、顔領域を特定するようにした。
【0011】
また更に、毛髪領域特定部は、毛髪色データベースを設け、顔領域特定部の出力を参照して毛髪領域探索範囲を設定し、この毛髪領域探索範囲から毛髪色データベースに基づいて毛髪部を特定するようにした。
【0012】
また更に、顔領域特定部の出力に基づいて目、鼻、口位置の探索範囲を設定し、入力された人物画像データの輝度を正規化して上記目、鼻、口位置を定めるようにした。
【0013】
【発明の実施の形態】
実施の形態1.
本発明の主旨は、毛髪部を含めた顔領域の正確な特定にあり、そのために複数の候補領域を組み合わせて確からしい領域を推定抽出する。即ち先ず抽出単位となる領域を細分化する候補領域特定部と、更に眼鏡や、顔の中にある髪の毛や装身具等の影響を除いて顔の最大輪郭を特定する顔領域特定部と、範囲を推定して毛髪部を特定する毛髪特定部を備えて、これらを総合して顔領域を確定する。以下、全体の構成、各部の構成と動作を順に説明する。
図1は、本実施の形態における特徴領域抽出頭部位置判定装置の構成を示す図である。図において、1は画像を入力するための画像入力部、2は入力された画像から頭部領域を抽出するための頭部領域抽出部、3は抽出された頭部領域から両目、口、鼻などの部位の位置を検出するための部位検出部である。
頭部領域抽出部2はさらに、画像から肌色領域を抽出するための肌色領域抽出部5、顔領域および毛髪領域の候補を特定するための候補領域特定部6、肌色領域抽出部5および候補領域特定部6の結果に基づき顔領域を特定するための顔領域特定部7、顔領域特定部7と候補領域特定部6の結果に基づき髪の毛領域を特定するための毛髪領域特定部8から構成される。
【0014】
肌色領域抽出部5はさらに、画像をぼかすためのフィルタリング手段9、肌色画素を抽出するための肌色抽出手段10、肌色抽出手段10で抽出した肌色画素を連結した領域のうち最大の領域を抽出するための最大領域抽出手段11から構成される。
本実施の形態において第1の重要構成要素である、候補領域特定部6はさらに、画像のエッジを抽出するためのエッジ抽出手段12、画像を領域分割するための領域分割手段13、領域分割手段13の結果をエッジ抽出手段12の結果を用いて補正するための領域分割補正手段14から構成される。
同じく第2の重要要素である、顔領域特定部7はさらに、肌色領域抽出部5の結果と候補領域特定部6の結果から顔領域を特定するための顔領域判定手段15、顔領域判定手段15の結果得られた顔領域に発生している穴や亀裂などの欠落を補正するための顔領域補正手段16から構成される。
【0015】
毛髪領域特定部8はさらに、顔領域特定部7の結果に基づいて毛髪領域が含まれる範囲を特定するための毛髪候補領域選定手段17、髪毛色を格納する毛髪色データベース19、候補領域特定部6で得られた領域のうち、毛髪候補領域選定手段17で設定した範囲に含まれる領域の中で、毛髪色データベース19に格納されている毛髪色に類似した領域を毛髪領域として判定するための毛髪領域判定手段18から構成される。
【0016】
部位検出部3はさらに、頭部領域抽出部2の結果から両目、口、鼻領域の探索範囲を設定するための部位領域マスク設定手段20、部位領域マスク設定手段20で設定した各探索範囲の中から部位領域を特定するための部位領域特定手段21から構成される。
【0017】
次に本実施の形態における特徴領域抽出頭部位置判定合成装置の動作をその全体動作フローチャートである図2を用いて説明する。
まず、画像入力手段1において画像を入力する(ステップS1−1)。次に、頭部領域抽出部2において入力画像から人物の頭部領域を抽出する(ステップS1−2)。そして、部位検出部3において、頭部領域抽出部2で抽出した頭部領域から両目、口、鼻の位置を検出する(ステップS1−3)。画像出力を編集する場合は、図示していない画像合成手段において抽出した頭部領域を、任意の背景画像と、背景画像に付随した合成パラメータを用いて合成する(ステップS1−4)。
【0018】
次に頭部領域抽出部2の動作をその動作フローチャートである図3を用いて説明する。
頭部領域抽出部2は、画像入力部1で入力した画像からまず肌色領域抽出部5において肌色領域を抽出する(ステップS2−1)。また、候補領域特定部6において画像を領域分割する(ステップS2−2)。次に、顔領域特定部7において、候補領域特定部6で得られた領域分割結果から、肌色領域抽出部5で抽出した肌色領域と重なる領域を顔領域として抽出し、内部に発生している穴や亀裂等の欠落を補正する(ステップS2−3)。最後に、毛髪領域特定部8において、顔領域特定部7で抽出した顔領域から、髪の毛領域が含まれる範囲を設定し、その範囲に含まれる領域に対して毛髪色DBに格納された毛髪色と類似している領域を毛髪領域として特定する(ステップS2−4)。
【0019】
更に、個別に各要素の動作を説明する。まず肌色領域抽出部5の動作をフローチャート図4および説明用の図5を用いて詳細に説明する。図5は、フィルタリング手段9でぼかし処理を行ったときの処理前および処理後の画像例である。
肌色領域抽出部5は、フィルタリング手段9において画像入力部1で入力された画像をぼかす処理を行う(ステップS3−1)。これは、例えば眼鏡をかけた人物から後述の肌色画素を抽出して顔領域を特定する際、眼鏡で顔領域が分断される場合がある。顔領域を抽出する際には、顔領域が1領域として抽出されることが望ましい。もし、顔領域が分断された場合、どの領域までが顔領域かを判定することが困難となる問題がある。よって、肌色画素を抽出する前にぼかし処理を施すことにより、眼鏡などの画素を肌色と同化させることにより、顔領域が分断されず、一領域として抽出される効果がある。
【0020】
ぼかし処理には、例えば「画像ハンドブック」(高木幹雄,下田陽久監修、東京大学出版会)(文献1)に記載のメディアンフィルタを用いてもよい。メディアンフィルタのフィルタリングサイズを画像の大きさに合わせて調整すると、例えば入力画像が図5(a)の形状26であった場合、その結果は図5(b)の形状27のようになり、眼鏡のエッジ部分がかすれるようになる。よって、後の肌色抽出処理を行った場合、顔領域が眼鏡等によって分断されること無く1領域として抽出される。
フィルタリング手段9で入力画像のぼかし処理を行った後、肌色抽出手段10において肌色画素を抽出する(ステップS3−2)。
【0021】
肌色画素の抽出は、例えば“PicToSeek:Combining Color and Shape Invariant Features forimage Retrieval,”Theo Gerers and Arnold W.M.Smeulders,IEEE Transaction on Image Processing,Vol.9,No.1,(文献2)に記載の肌色モデルを用いて行う。つまり、入力画像の画素値(R,G,B)を肌色抽出のための別の色空間に写像し、肌色が属する範囲に入る画素を抽出する。
【0022】
この方法は具体的には、色空間として、R、G,Bを画素の色データとしたとき、まず次式により色を正規化する。
【0023】
【数1】

Figure 0004076777
【0024】
上記式で正規化した色をさらに次式で変換する。
C1=c2/c1 (式4)
C2=c3/c2 (式5)
肌色領域抽出手段8では、(式4)および(式5)でRGB空間からC1−C2空間に写像した色が、次式で定義した肌色範囲の範疇に入っているか否かを判断して、入力画像から肌色領域を抽出する。
th<C1<th2 (式6)
th3<C2<th4 (式7)
最後に、最大領域抽出手段11において、肌色抽出手段10で抽出した肌色画素を4連結あるいは8連結で連結し領域ごとに分類し、分類した肌色領域の中で最大のものを顔領域として抽出する(ステップS3−4)。
【0025】
次に、第1の重要構成要素である候補領域特定部6の動作をフローチャート図6および説明図の図7を用いて詳細に説明する。図7は、領域分割補正手段14において、領域分割手段13の処理結果をエッジ抽出手段12の結果を用いて補正した結果を示した図である。
まず、領域分割手段13において入力画像を領域分割する(ステップS4−1)。領域分割の手法には様々なものがあるが、例えば、“Color Quantization by Dynamic Programming and Principal Analysis,”Xiaolin Wu,Transaction on Graphics,Vol.11,No.4,1992.(文献3)に記載の色による領域分割を用いる。この手法は、画像の画素値(RGB値)を主成分分析し、第一主成分に直行する平面で色を指定された色数で分類するものである。この手法では、原画像の画素値と分類後の各クラスターの代表色(平均色)との色差が大きくならないようにDynamic Programmingを用いて最適解を求めている。
領域分割手段13では、以上でクラスタリングした各画素を、同じクラスタIDを持つものどおしで4連結あるいは8連結で連結した領域を生成し、生成した領域にユニークなIDを振りなおすことで画像を領域分割する(ステップS4−1)。
なお、領域分割の手法は、別の手法を用いてもよく、いずれにせよ、ひとまず第1の細分化領域を得る。
【0026】
次に、エッジ抽出手段12において、画像からエッジを抽出する(ステップS4−2)。エッジ抽出の手法は、例えば先に引用した(文献1)に記載のCannyエッジ抽出法を用いる。
ここで、領域分割手段13の処理結果が図7の分割28でエッジ抽出手段12の結果が図7の分割29となったと仮定する。
この例では、本来の領域数は4である。しかしながら領域分割結果では領域数は3となっている。このように、領域分割手法による領域分割結果は、画像を大まかに分割するようにパラメータを設定すると過少分割(本来別領域の領域を1領域として分割する)を起こすことがある。そこで、領域分割補正手段14において、領域分割手段13で得られた領域分割結果28に、エッジ抽出手段12で得られたエッジ29に沿って例えばどの領域にも属さないという意味のID=0を設定する。そして過少分割を起こした領域を分断し、領域IDを再設定した後、エッジ画素のIDを、画素に接した領域IDでおき直すことにより図7の分割30に示すように、領域分割手段13で得られた結果を補正する。即ちOR(細分化)効果が得られる。
【0027】
次に、第2の重要構成要素である顔領域特定部7の動作をフローチャートの図8から説明図の図11を用いて詳細に説明する。図9は顔領域判定手段15で得られた顔領域の一例を示す図である。図10は、顔領域補正手段16において、顔領域に発生した亀裂を補正した画像例である。図11は、顔領域補正手段16において、顔領域に発生した穴領域を埋める処理を説明するための図である。
まず、顔領域判定手段15において、候補領域特定部6で得られた領域のうち、肌色領域抽出部5で抽出した肌色領域と重なる領域を求める(ステップS5−1)。このとき、(式8)に示す重なり率を求める。
OR=op/rp (式8)
ここで、ORは重なり率、opは1領域中の画素のうち肌色領域と重なる画素数、rpは領域の画素数である。
【0028】
顔領域判定手段15では、(式8)で求めた重なり率が、ある閾値以上のものを顔領域と判定する。この重なり率を導入することにより肌色領域抽出手段5において、顔領域の周囲にある背景画素を誤って抽出したとしても、その画素が属する領域の重なり率は低くなることから、顔領域判定手段15でそのような背景画素を削除することが可能となる効果がある。
顔領域判定手段15で求めた顔領域には、図9に示すように、穴や亀裂が生じている場合がある。そこで、顔領域補正手段16において、図9に示すような穴や亀裂等の欠落を補正することにより顔領域全体を抽出する(ステップS5−2)。
【0029】
裂け目部分の修復は、肌色領域抽出手段5で抽出した肌色領域の画素を1、それ以外を0とした2値画像に対して図8(b)に示す近傍パターンを用いて、(文献1)に示される膨張と収縮処理を行って修復ができる。即ち膨張処理で近傍パターンに基いて領域をいったん拡大し、その後、収縮処理では別の近傍パターン図5(b)を用いる膨張収縮処理により、図10の29示すような裂け目が修復され30のようになる。また、この処理により微小の穴も埋めることが可能である。
膨張収縮処理により頭部領域に発生した裂け目が修復された後は、頭部領域内の全ての穴を埋めることにより頭部全体を一領域として抽出できる。この穴埋め処理は、図11に示す論理演算処理により行う。
まず図11(a)では、裂け目修復処理(領域の欠落補正)により得られた顔領域31と、画素値が全て1のマスク32との排他的論理和(xor)を求める。その結果、背景領域と頭部領域内の穴が得られる。次に、図11(b)に示すように、得られた画像33から、画像の外辺に接している領域(背景領域)除去し、除去した画像34と元の顔領域画像31と論理和を求めることにより、顔領域全体35を抽出することができる。
【0030】
次に、第3の重要構成要素である、髪の毛領域特定部8の動作をフローチャート図12および説明図図13を用いて説明する。図13は髪の毛領域特定手段8の処理過程を示す図である。
まず、髪の毛候補領域選定手段17において、顔領域特定部7で抽出した顔領域の大きさに基づき、髪の毛領域の探索範囲36を設定する(ステップS6−1)。次に、顔領域を現在の頭部領域として設定し(ステップS6−2)、探索範囲内に処理対象領域が無くなるまで以下の処理を繰り返す(ステップS6−3)。
【0031】
まず、頭部領域に接している全ての領域を対象とする(ステップS6−4)。次に、全ての対象領域に対して以下の処理を繰り返す(ステップS6−5)。
即ち、毛髪色データベース19内に格納されている毛髪色サンプルと、領域の平均色との式差を求め(ステップS6−6)、色差が閾値以下の領域を髪の毛領域とする(ステップS6−7、ステップS6−8)。
ここで、色差とは、例えば(文献1)に記載のL*a*b*色空間におけるユークリッド距離として求めることができる。
以上で求めた髪の毛領域を含めた領域を新たな頭部領域として設定し(ステップS6−10)、ステップS6−3から処理を繰り返すことにより髪の毛領域を抽出することができる。
【0032】
例えば、図13(a)での領域36のように髪の毛領域探索範囲を設定した場合、1回目の処理で図13(b)の領域37に示す領域が抽出され、2回目の処理で図13(c)の領域38に示す領域が抽出される。3回目の処理では、探索範囲内に処理対象となる領域が残らなくなるため、領域38が毛髪領域抽出結果となる。
ここで、単純に毛髪色に類似した領域を抽出した場合、頭部領域に接しない単独な領域が抽出される可能性があるが、顔領域に接する領域から徐々に処理することにより、そのような単独領域をノイズとして除去することが可能となる効果がある。
また、毛髪色DBを用いて髪の毛であるか否かを判定すれば、茶髪や金髪などの様々な髪の毛に対応して適切に髪の毛領域を抽出できる。
【0033】
次に、部位検出部3の動作をフローチャート図14および説明図図15を用いて説明する。図15は、頭部領域抽出部2で抽出した頭部領域に基づき、両目、口、鼻の探索範囲を設定したときの結果を示した説明図である。
まず、頭部領域抽出部2で抽出した頭部領域の幅、高さから、両目、鼻、口の探索範囲39、40、41、42を設定する(ステップS7−1)。
【0034】
次に、“GRAPHICS GEMS IV,”Paul S.Heckbert,Morgan Kaufmann(文献4)に記載の適応型ヒストグラム平均化法を用いて各探索範囲内の画素の輝度を正規化し、閾値以下(暗い)の画素を抽出し、4連結あるいは8連結で連結し領域とする(ステップS7−2)。次に、鼻探索範囲内41の領域に着目し、探索範囲内の領域のうち、探索範囲の中心と領域の中心との距離が最も近い領域を鼻領域として求め、求めた領域の中心座標を鼻位置とする(ステップS7−3)。
次に、左目探索範囲内39の領域のうち、領域の中心と、上記鼻位置との距離が最も近い領域を左目領域とし、その中心を左目位置とする(ステップS7−4)。同様に右目探索範囲内40の領域のうち、領域の中心と鼻位置との距離が最も近い領域を右目領域とし、その中心を右目位置とする(ステップS7−4)。
最後に、口探索範囲内42の領域のうち、領域の中心と、鼻位置との距離が最も近い領域を口領域とし、その中心を口位置とする(ステップS7−5)。
以上のように、抽出した頭部領域の幅、高さから両目、口、鼻が存在するおおよその範囲を限定することにより、同部位位置を的確に求めることが可能となる効果がある。
【0035】
【発明の効果】
以上のようにこの発明によれば、複数の細分化領域を全て抽出単位とする候補領域特定部と、顔領域特定部と、毛髪領域特定部とを備えたので、正確に顔、毛髪領域を抽出できる効果がある。
【0036】
また更に、候補領域中の最大領域を抽出する肌色領域抽出部を備えたので、顔領域の推定が更に正確に行える効果がある。
【0037】
また更に、画像データの欠落を膨張と収縮処理で補正する顔領域特定部としたので、顔領域の推定が更に正確に行える効果がある。
【図面の簡単な説明】
【図1】 この発明の実施の形態1における特徴領域抽出頭部位置判定装置の構成を示す図である。
【図2】 特徴領域抽出頭部位置判定装置が行う全体としての動作フロー図である。
【図3】 頭部領域抽出部の動作フロー図である。
【図4】 肌色領域抽出部の動作フロー図である。
【図5】 肌色領域抽出部が行う動作を説明する図である。
【図6】 候補領域特定部の動作フロー図である。
【図7】 候補領域特定部が行う動作を説明する図である。
【図8】 顔領域特定部の動作フロー図である。
【図9】 顔領域特定部が行う動作を説明する図である。
【図10】 顔領域特定部が行う動作を説明する図である。
【図11】 顔領域特定部が行う動作を説明する図である。
【図12】 毛髪領域特定部の動作フロー図である。
【図13】 毛髪領域特定部が行う動作を説明する図である。
【図14】 部位検出部の動作フロー図である。
【図15】 部位検出部が行う動作を説明する図である。
【図16】 第1の従来例における画像処理装置の構成を示す図である。
【符号の説明】
1 画像入力部、2 頭部領域抽出部、3 部位検出部、5 肌色領域抽出部、6 候補領域特定部、7 顔領域特定部、8 毛髪領域特定部、9 フィルタリング手段、10 肌色抽出手段、11 最大領域抽出手段、12 エッジ抽出手段、13 領域分割手段、14 領域分割補正手段、15 顔領域判定手段、16 顔領域補正手段、17 毛髪候補領域選定手段、18 毛髪領域判定手段、19 毛髪色データベース、20 部位領域マスク設定手段、21 部位領域特定手段。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an apparatus for extracting a face area including a hair area from an inputted person image and further obtaining positions of both eyes, a mouth and a nose which are constituent elements of the face as coordinate values of the image.
[0002]
[Prior art]
FIG. 16 shows a first conventional example, for example, a conventional image processing apparatus disclosed in JP-A-8-153197. According to this apparatus, a coordinate converter that converts input image data into luminance data, hue data, and saturation data that are color attributes, and histogram generation that generates a histogram of skin color pixels based on these converted three attribute data And a face area determination unit that determines a face area based on the extracted skin color pixels.
[0003]
Next, the operation will be described.
First, the coordinate converter converts the input image data into three attribute data of luminance data, hue data, and saturation data. Based on the three attribute data converted by the histogram generator, a cumulative histogram of skin color pixels in the vertical direction is generated for each horizontal position of the image. Finally, in the face area determination unit, an area where skin color pixels are dense is extracted as a face area.
[0004]
As a second conventional example, there is a face area extraction method and a copying condition determination method disclosed in Japanese Patent Laid-Open No. 9-101579. According to this method, after extracting the skin color area from the image, the background and the face are simultaneously extracted from the image photographed in front of the background similar to the skin color by dividing the skin color area again using the edge extraction result. Is being prevented.
[0005]
[Problems to be solved by the invention]
In the image processing apparatus according to the first conventional example described above, when a region similar to the skin color exists around the face, there is a problem that the region is extracted by being integrated with the face region.
On the other hand, in the face area extraction method and the copy condition determination method as the second conventional example, after the skin color area is extracted, the under-divided portion is corrected using the edge extraction result. Generally, the contour line obtained by edge extraction is used. In many cases, there is a defect, and the face area is not an area surrounded by a contour line, and the background area cannot be removed after all.
Moreover, when this method is applied to a person wearing glasses, the face area is divided by the frame of the glasses, and the area is erroneous.
[0006]
The present invention has been made to solve the above-described problems. The head region is accurately extracted from a human image photographed in front of an arbitrary background, and the positions of eyes, nose and mouth are determined.
[0007]
[Means for Solving the Problems]
The face area extraction and face component position determination apparatus according to the present invention is an apparatus that analyzes input human image data to extract a face area and obtains positions of components such as eyes and nose.
A candidate area specifying unit that divides human image data into a plurality of extraction unit areas based on color information of each pixel;
A face area specifying unit for specifying a face area from human image data;
A hair region specifying unit for specifying a hair part from human image data, expressing the obtained face region by the obtained extraction unit region and the specified hair part, and using the position of the face component as a coordinate value I asked for it.
[0008]
Furthermore, the human image data is filtered, and then a skin color area candidate is extracted based on the standard color, and a skin color area extraction unit is provided for extracting the maximum area from the extracted skin color area candidates.
[0009]
Still further, the candidate area specifying unit uses edge extracting means for extracting a contour as one of a plurality of area specifying means.
[0010]
Further, the face area specifying unit estimates the face area with reference to the output of the skin color area extracting unit, and corrects the lack of image data in the estimated face area based on the expansion and contraction processing, thereby The area was specified.
[0011]
Furthermore, the hair region specifying unit provides a hair color database, sets the hair region search range with reference to the output of the face region specifying unit, and specifies the hair portion based on the hair color database from the hair region search range. I did it.
[0012]
Further, the eye, nose, and mouth position search range is set based on the output of the face area specifying unit, and the brightness of the input human image data is normalized to determine the eye, nose, and mouth position.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Embodiment 1 FIG.
The gist of the present invention lies in the accurate identification of the face area including the hair portion. For this purpose, a probable area is estimated and extracted by combining a plurality of candidate areas. That is, first, a candidate area specifying unit that subdivides an area as an extraction unit, a face area specifying unit that specifies the maximum contour of the face excluding the influence of glasses, hair in the face, accessories, etc. A hair specifying part that estimates and specifies the hair part is provided, and these are combined to determine the face area. Hereinafter, the overall configuration and the configuration and operation of each unit will be described in order.
FIG. 1 is a diagram illustrating a configuration of a feature region extraction head position determination device according to the present embodiment. In the figure, 1 is an image input unit for inputting an image, 2 is a head region extracting unit for extracting a head region from the input image, and 3 is both eyes, mouth and nose from the extracted head region. It is a site | part detection part for detecting the position of site | parts, such as.
The head region extracting unit 2 further includes a skin color region extracting unit 5 for extracting a skin color region from the image, a candidate region specifying unit 6 for specifying candidates for the face region and the hair region, the skin color region extracting unit 5 and the candidate region. The face region specifying unit 7 for specifying the face region based on the result of the specifying unit 6, and the hair region specifying unit 8 for specifying the hair region based on the results of the face region specifying unit 7 and the candidate region specifying unit 6 are configured. The
[0014]
The skin color area extraction unit 5 further extracts a filtering area 9 for blurring the image, a skin color extraction means 10 for extracting the skin color pixels, and a maximum area among the areas obtained by connecting the skin color pixels extracted by the skin color extraction means 10. The maximum area extraction means 11 for this is comprised.
The candidate area specifying unit 6, which is the first important component in the present embodiment, further includes an edge extracting means 12 for extracting an edge of the image, an area dividing means 13 for dividing the image into areas, and an area dividing means. 13 is composed of a region division correction unit 14 for correcting the result 13 using the result of the edge extraction unit 12.
Similarly, the face region specifying unit 7, which is also a second important element, further includes a face region determining unit 15 and a face region determining unit for specifying a face region from the result of the skin color region extracting unit 5 and the result of the candidate region specifying unit 6. 15 is constituted by face area correction means 16 for correcting omissions such as holes and cracks occurring in the face area obtained as a result of 15.
[0015]
The hair region specifying unit 8 further includes a hair candidate region selecting means 17 for specifying a range in which the hair region is included based on the result of the face region specifying unit 7, a hair color database 19 for storing hair color, and a candidate region specifying unit Among the regions obtained in 6, the region similar to the hair color stored in the hair color database 19 among the regions included in the range set by the hair candidate region selecting means 17 is determined as the hair region. The hair region determination means 18 is configured.
[0016]
The part detection unit 3 further includes a part region mask setting unit 20 for setting a search range for both eyes, mouth, and nose region from the result of the head region extraction unit 2, and each search range set by the part region mask setting unit 20. It consists of a part region specifying means 21 for specifying a part region from the inside.
[0017]
Next, the operation of the feature region extraction head position determination / synthesis apparatus according to the present embodiment will be described with reference to FIG.
First, an image is input by the image input means 1 (step S1-1). Next, the head region extraction unit 2 extracts a human head region from the input image (step S1-2). Then, the part detection unit 3 detects the positions of both eyes, the mouth, and the nose from the head region extracted by the head region extraction unit 2 (step S1-3). When editing the image output, the head region extracted by the image synthesizing unit (not shown) is synthesized using an arbitrary background image and a synthesis parameter attached to the background image (step S1-4).
[0018]
Next, the operation of the head region extracting unit 2 will be described with reference to FIG.
The head region extraction unit 2 first extracts a skin color region from the image input by the image input unit 1 in the skin color region extraction unit 5 (step S2-1). The candidate area specifying unit 6 divides the image into areas (step S2-2). Next, in the face area specifying unit 7, an area overlapping with the skin color area extracted by the skin color area extracting unit 5 is extracted as a face area from the area division result obtained by the candidate area specifying unit 6, and the face area is generated inside. Missing holes and cracks are corrected (step S2-3). Finally, in the hair region specifying unit 8, a range including the hair region is set from the face regions extracted by the face region specifying unit 7, and the hair color stored in the hair color DB for the region included in the range is set. A region similar to that is identified as a hair region (step S2-4).
[0019]
Further, the operation of each element will be described individually. First, the operation of the skin color area extracting unit 5 will be described in detail with reference to the flowchart of FIG. 4 and FIG. 5 for explanation. FIG. 5 is an example of an image before and after the processing when the filtering unit 9 performs the blurring process.
The skin color area extraction unit 5 performs a process of blurring the image input by the image input unit 1 in the filtering unit 9 (step S3-1). This is because, for example, when a face area is specified by extracting skin color pixels described later from a person wearing glasses, the face area may be divided by the glasses. When extracting a face area, it is desirable to extract the face area as one area. If the face area is divided, it is difficult to determine which area is the face area. Therefore, by performing blurring before extracting the skin color pixels, the face area is not divided and extracted as one area by assimilating the pixels such as glasses with the skin color.
[0020]
For the blurring process, for example, a median filter described in “Image Handbook” (supervised by Mikio Takagi, Yoji Shimoda, University of Tokyo Press) (Reference 1) may be used. When the filtering size of the median filter is adjusted in accordance with the size of the image, for example, when the input image has a shape 26 in FIG. 5A, the result becomes a shape 27 in FIG. The edge part of will become faded. Therefore, when the subsequent skin color extraction process is performed, the face area is extracted as one area without being divided by glasses or the like.
After performing the blurring process of the input image by the filtering unit 9, the skin color pixel is extracted by the skin color extracting unit 10 (step S3-2).
[0021]
For example, “Pic To Seek: Combining Color and Shape Invant Features Forage Retrieval,” Theo Gerers and Arnold W. M.M. Smeulders, IEEE Transaction on Image Processing, Vol. 9, no. 1, using the skin color model described in (Reference 2). That is, the pixel values (R, G, B) of the input image are mapped to another color space for skin color extraction, and pixels that fall within the range to which the skin color belongs are extracted.
[0022]
Specifically, in this method, when R, G, and B are pixel color data as a color space, the color is first normalized by the following equation.
[0023]
[Expression 1]
Figure 0004076777
[0024]
The color normalized by the above equation is further converted by the following equation.
C1 = c2 / c1 (Formula 4)
C2 = c3 / c2 (Formula 5)
The skin color area extracting means 8 determines whether the color mapped from the RGB space to the C1-C2 space in (Expression 4) and (Expression 5) falls within the range of the skin color range defined by the following expression: A skin color region is extracted from the input image.
th <C1 <th2 (Formula 6)
th3 <C2 <th4 (Formula 7)
Finally, in the maximum area extraction unit 11, the skin color pixels extracted by the skin color extraction unit 10 are connected by 4-connection or 8-connection and classified for each area, and the largest of the classified skin color areas is extracted as a face area. (Step S3-4).
[0025]
Next, the operation of the candidate area specifying unit 6 that is the first important component will be described in detail with reference to the flowchart of FIG. 6 and FIG. 7 of the explanatory diagram. FIG. 7 is a diagram illustrating a result of correcting the processing result of the region dividing unit 13 using the result of the edge extracting unit 12 in the region dividing correcting unit 14.
First, the area dividing means 13 divides the input image into areas (step S4-1). There are various methods of area division. For example, “Color Quantification by Dynamic Programming and Principal Analysis,” Xiaolin Wu, Transactions on Graphics, Vol. 11, no. 4, 1992. Region division by color described in (Reference 3) is used. In this method, pixel values (RGB values) of an image are subjected to principal component analysis, and colors are classified by a designated number of colors on a plane orthogonal to the first principal component. In this method, an optimal solution is obtained by using Dynamic Programming so that the color difference between the pixel value of the original image and the representative color (average color) of each cluster after classification does not increase.
The area dividing means 13 generates an area in which the pixels clustered as described above are connected in a 4-connected or 8-connected form having the same cluster ID, and an image is assigned by reassigning a unique ID to the generated area. Is divided into regions (step S4-1).
Note that another method may be used as the region dividing method, and in any case, the first subdivided region is first obtained.
[0026]
Next, the edge extraction means 12 extracts an edge from the image (step S4-2). As an edge extraction method, for example, the Canny edge extraction method described in (Reference 1) cited above is used.
Here, it is assumed that the processing result of the region dividing unit 13 is the division 28 in FIG. 7 and the result of the edge extracting unit 12 is the division 29 in FIG.
In this example, the original number of regions is four. However, the number of areas is 3 in the area division result. As described above, the result of area division by the area division method may cause under-division (originally dividing another area as one area) if parameters are set so as to roughly divide the image. Therefore, the area division correction unit 14 sets ID = 0 which means that it does not belong to any area along the edge 29 obtained by the edge extraction unit 12 to the area division result 28 obtained by the area division unit 13. Set. Then, after dividing the region that caused the under-division and resetting the region ID, the ID of the edge pixel is reset by the region ID that is in contact with the pixel, as shown in division 30 in FIG. The result obtained in is corrected. That is, an OR (subdivision) effect is obtained.
[0027]
Next, the operation of the face area specifying unit 7 which is the second important component will be described in detail with reference to FIG. FIG. 9 is a diagram illustrating an example of a face area obtained by the face area determination unit 15. FIG. 10 is an example of an image in which a crack generated in the face area is corrected by the face area correction unit 16. FIG. 11 is a diagram for explaining a process of filling a hole area generated in the face area in the face area correcting unit 16.
First, the face area determination unit 15 obtains an area that overlaps the skin color area extracted by the skin color area extraction unit 5 from the areas obtained by the candidate area specifying unit 6 (step S5-1). At this time, the overlap ratio shown in (Expression 8) is obtained.
OR = op / rp (Formula 8)
Here, OR is the overlapping rate, op is the number of pixels that overlap the skin color area among the pixels in one area, and rp is the number of pixels in the area.
[0028]
The face area determination unit 15 determines that the overlap ratio obtained by (Equation 8) is a certain threshold value or more as a face area. By introducing this overlap ratio, even if the background color surrounding the face area is erroneously extracted in the skin color area extraction means 5, the overlap ratio of the area to which the pixel belongs becomes low. Therefore, the face area determination means 15 Thus, it is possible to delete such background pixels.
The face area obtained by the face area determination means 15 may have a hole or a crack as shown in FIG. Therefore, the face area correction means 16 extracts the entire face area by correcting the lack of holes and cracks as shown in FIG. 9 (step S5-2).
[0029]
The repair of the fissure portion is performed by using a neighborhood pattern shown in FIG. 8B for a binary image in which the skin color region pixels extracted by the skin color region extraction means 5 are set to 1 and the others are set to 0 (Reference 1). It can be repaired by performing the expansion and contraction process shown in Fig. 1. That is, the expansion process temporarily expands the area based on the neighboring pattern, and then the shrinking process expands and contracts using another neighboring pattern shown in FIG. become. Moreover, it is possible to fill a minute hole by this processing.
After the tear that has occurred in the head region due to the expansion / contraction process is repaired, the entire head can be extracted as one region by filling all the holes in the head region. This hole filling process is performed by the logical operation process shown in FIG.
First, in FIG. 11A, an exclusive OR (xor) of the face region 31 obtained by the tear repair processing (region missing correction) and the mask 32 having all pixel values is obtained. As a result, holes in the background region and the head region are obtained. Next, as shown in FIG. 11B, an area (background area) in contact with the outer edge of the image is removed from the obtained image 33, and the removed image 34 and the original face area image 31 are logically ORed. , The entire face area 35 can be extracted.
[0030]
Next, the operation of the hair region specifying unit 8, which is the third important component, will be described with reference to the flowcharts 12 and 13. FIG. 13 is a diagram showing a processing process of the hair region specifying means 8.
First, the hair candidate region selection means 17 sets a hair region search range 36 based on the size of the face region extracted by the face region specifying unit 7 (step S6-1). Next, the face region is set as the current head region (step S6-2), and the following processing is repeated until there is no processing target region in the search range (step S6-3).
[0031]
First, all the areas in contact with the head area are targeted (step S6-4). Next, the following processing is repeated for all target regions (step S6-5).
That is, an expression difference between the hair color sample stored in the hair color database 19 and the average color of the region is obtained (step S6-6), and a region where the color difference is equal to or less than a threshold is set as a hair region (step S6-7). Step S6-8).
Here, the color difference can be obtained as, for example, the Euclidean distance in the L * a * b * color space described in (Reference 1).
The region including the hair region obtained as described above is set as a new head region (step S6-10), and the hair region can be extracted by repeating the processing from step S6-3.
[0032]
For example, when the hair region search range is set like the region 36 in FIG. 13A, the region shown in the region 37 in FIG. 13B is extracted by the first processing, and the region shown in FIG. The area shown in the area 38 of (c) is extracted. In the third processing, the region to be processed does not remain in the search range, so the region 38 becomes the hair region extraction result.
Here, when a region similar to the hair color is simply extracted, a single region that does not contact the head region may be extracted, but by gradually processing from the region that contacts the face region, such a region is extracted. It is possible to remove a single isolated area as noise.
Moreover, if it is determined whether it is hair using hair color DB, a hair area | region can be extracted appropriately corresponding to various hairs, such as brown hair and blond hair.
[0033]
Next, the operation of the part detection unit 3 will be described with reference to the flowcharts FIG. 14 and FIG. FIG. 15 is an explanatory diagram showing the results when the search range for both eyes, mouth, and nose is set based on the head region extracted by the head region extraction unit 2.
First, from the width and height of the head region extracted by the head region extraction unit 2, search ranges 39, 40, 41, and 42 for both eyes, nose, and mouth are set (step S7-1).
[0034]
Next, “GRAPHICS GEMS IV,” Paul S. The adaptive histogram averaging method described in Heckbert, Morgan Kaufmann (Reference 4) is used to normalize the brightness of pixels within each search range, extract pixels below the threshold (dark), and connect them in four or eight connections. The region is set to be a region (step S7-2). Next, paying attention to the region within the nose search range 41, the region within the search range where the distance between the center of the search range and the center of the region is the closest is obtained as the nose region, and the center coordinates of the obtained region are determined. The nose position is set (step S7-3).
Next, among the regions in the left eye search range 39, the region having the closest distance between the center of the region and the nose position is set as the left eye region, and the center is set as the left eye position (step S7-4). Similarly, of the regions in the right eye search range 40, the region having the closest distance between the center of the region and the nose position is set as the right eye region, and the center is set as the right eye position (step S7-4).
Finally, among the regions in the mouth search range 42, the region having the closest distance between the center of the region and the nose position is set as the mouth region, and the center is set as the mouth position (step S7-5).
As described above, by limiting the approximate range in which both eyes, mouth, and nose are present from the width and height of the extracted head region, there is an effect that the position of the part can be accurately obtained.
[0035]
【The invention's effect】
As described above, according to the present invention, since the candidate region specifying unit, the face region specifying unit, and the hair region specifying unit, all of which are a plurality of subdivided regions as extraction units, are provided, the face and hair region can be accurately determined. There is an effect that can be extracted.
[0036]
Furthermore, since the skin color area extracting unit for extracting the maximum area in the candidate area is provided, the face area can be estimated more accurately.
[0037]
Furthermore, since the face area specifying unit that corrects the lack of image data by expansion and contraction processing is used, there is an effect that the face area can be estimated more accurately.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of a feature region extraction head position determination device according to a first embodiment of the present invention.
FIG. 2 is an overall operation flow diagram performed by a feature region extraction head position determination device.
FIG. 3 is an operation flow diagram of a head region extraction unit.
FIG. 4 is an operation flow diagram of a skin color area extraction unit.
FIG. 5 is a diagram illustrating an operation performed by a skin color area extracting unit.
FIG. 6 is an operation flowchart of a candidate area specifying unit.
FIG. 7 is a diagram illustrating an operation performed by a candidate area specifying unit.
FIG. 8 is an operation flowchart of the face area specifying unit.
FIG. 9 is a diagram illustrating an operation performed by a face area specifying unit.
FIG. 10 is a diagram illustrating an operation performed by a face area specifying unit.
FIG. 11 is a diagram illustrating an operation performed by a face area specifying unit.
FIG. 12 is an operation flowchart of the hair region specifying unit.
FIG. 13 is a diagram illustrating an operation performed by a hair region specifying unit.
FIG. 14 is an operation flowchart of the part detection unit.
FIG. 15 is a diagram illustrating an operation performed by a part detection unit.
FIG. 16 is a diagram showing a configuration of an image processing apparatus in a first conventional example.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image input part, 2 Head area | region extraction part, 3 site | part detection part, 5 Skin color area extraction part, 6 Candidate area | region identification part, 7 Face area | region identification part, 8 Hair area | region identification part, 9 Filtering means, 10 Skin color extraction means, DESCRIPTION OF SYMBOLS 11 Maximum area extraction means, 12 Edge extraction means, 13 Area division means, 14 Area division correction means, 15 Face area determination means, 16 Face area correction means, 17 Hair candidate area selection means, 18 Hair area determination means, 19 Hair color Database, 20 part region mask setting means, 21 part region specifying means.

Claims (3)

入力された人物の画像を解析して顔領域を抽出し、目、鼻、口等の構成要素の位置を求める装置において、
上記人物の画像を構成する各画素の色情報に基づいて所定の手法で肌色領域を抽出する肌色領域抽出部と、
上記人物の画像を構成する各画素の色情報に基づいて上記手法とは異なる手法で領域を分割し、また該画像が変化するエッジを抽出して、上記分割した領域を該エッジで分断して複数の抽出単位領域を得る候補領域特定部と、
上記人物の画像で上記候補領域特定部が得た各抽出単位領域のうち、上記各肌色領域と所定の割合以上に重なる抽出単位領域、を顔領域として特定する顔領域特定部と、を備えて、
上記特定された顔領域にある顔の構成要素の位置を求めることを特徴とする顔領域抽出判定装置。
In the device for analyzing the input image of the person and extracting the face region and obtaining the positions of the components such as eyes, nose and mouth,
A skin color region extraction unit that extracts a skin color region by a predetermined method based on color information of each pixel constituting the person image;
Based on the color information of each pixel constituting the person's image, the region is divided by a method different from the method described above, an edge where the image changes is extracted, and the divided region is divided by the edge. A candidate area specifying unit for obtaining a plurality of extraction unit areas;
A face area specifying unit for specifying, as a face area, an extraction unit area that overlaps each skin color area with a predetermined ratio or more among the extraction unit areas obtained by the candidate area specifying unit in the person image. ,
A face area extraction / determination apparatus characterized in that a position of a face component in the specified face area is obtained.
人物の画像から毛髪部を特定する毛髪領域特定部を備えて、該毛髪特定部は、毛髪を探索するための色を記録した毛髪色データベースを設け、顔領域特定部の出力を参照して毛髪領域探索範囲を設定し、該毛髪領域探索範囲から上記毛髪色データベースに基づいて毛髪部を特定するようにしたことを特徴とする請求項1記載の顔領域抽出装置。  A hair region specifying unit for specifying a hair part from an image of a person is provided, the hair specifying unit is provided with a hair color database in which colors for searching for hair are recorded, and the hair is referenced with reference to the output of the face region specifying unit 2. The face region extraction apparatus according to claim 1, wherein a region search range is set, and a hair part is specified based on the hair color database from the hair region search range. 顔領域特定部の出力に基づいて目、鼻、口の位置の探索範囲を設定し、入力された人物の画像の輝度を正規化して上記目、鼻、口の位置を定めるようにしたことを特徴とする請求項1記載の顔領域抽出装置。  Based on the output of the face area specifying unit, the search range of the eye, nose and mouth positions is set, and the brightness of the input person image is normalized to determine the positions of the eyes, nose and mouth. The face area extracting device according to claim 1, wherein
JP2002060043A 2002-03-06 2002-03-06 Face area extraction device Expired - Fee Related JP4076777B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002060043A JP4076777B2 (en) 2002-03-06 2002-03-06 Face area extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002060043A JP4076777B2 (en) 2002-03-06 2002-03-06 Face area extraction device

Publications (2)

Publication Number Publication Date
JP2003256834A JP2003256834A (en) 2003-09-12
JP4076777B2 true JP4076777B2 (en) 2008-04-16

Family

ID=28669515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002060043A Expired - Fee Related JP4076777B2 (en) 2002-03-06 2002-03-06 Face area extraction device

Country Status (1)

Country Link
JP (1) JP4076777B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106991360A (en) * 2016-01-20 2017-07-28 腾讯科技(深圳)有限公司 Face identification method and face identification system
CN108009470A (en) * 2017-10-20 2018-05-08 深圳市朗形网络科技有限公司 A kind of method and apparatus of image zooming-out

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4683200B2 (en) * 2004-04-30 2011-05-11 花王株式会社 Automatic hair region extraction method
JP2008092297A (en) * 2006-10-02 2008-04-17 Olympus Corp Image processor, image processing program, image manufacturing method, and recording medium
KR100970328B1 (en) * 2008-04-04 2010-07-15 엔에이치엔(주) System and Method for Determining Adult Contents
JP2010082245A (en) * 2008-09-30 2010-04-15 Panasonic Electric Works Co Ltd Hair information measuring method
JP5399887B2 (en) * 2009-12-28 2014-01-29 本田技研工業株式会社 Vehicle periphery monitoring device
JP5892588B2 (en) * 2011-11-24 2016-03-23 学校法人東京電機大学 Human guidance robot
JP5971108B2 (en) * 2012-12-18 2016-08-17 富士通株式会社 Image processing apparatus, image processing method, and image processing program
JP6604413B1 (en) 2018-10-09 2019-11-13 日本電気株式会社 Image search device, image search system, image search method and program
CN111507994B (en) * 2020-04-24 2023-10-03 Oppo广东移动通信有限公司 Portrait extraction method, portrait extraction device and mobile terminal

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106991360A (en) * 2016-01-20 2017-07-28 腾讯科技(深圳)有限公司 Face identification method and face identification system
CN106991360B (en) * 2016-01-20 2019-05-07 腾讯科技(深圳)有限公司 Face identification method and face identification system
CN108009470A (en) * 2017-10-20 2018-05-08 深圳市朗形网络科技有限公司 A kind of method and apparatus of image zooming-out
CN108009470B (en) * 2017-10-20 2020-06-16 深圳市朗形网络科技有限公司 Image extraction method and device

Also Published As

Publication number Publication date
JP2003256834A (en) 2003-09-12

Similar Documents

Publication Publication Date Title
JP3549013B2 (en) Eye position detection method, eye position detection device, and recording medium recording eye position detection program
Li et al. Multi-angle head pose classification when wearing the mask for face recognition under the COVID-19 coronavirus epidemic
CN103914699B (en) A kind of method of the image enhaucament of the automatic lip gloss based on color space
US7747071B2 (en) Detecting and correcting peteye
JP4076777B2 (en) Face area extraction device
JPH1115947A (en) Image processor
CN109544464A (en) A kind of fire video image analysis method based on contours extract
US9762773B2 (en) Image processing apparatus and method for increasing sharpness of images
JP2007272435A (en) Face feature extraction device and face feature extraction method
CN110268442B (en) Computer-implemented method of detecting a foreign object on a background object in an image, device for detecting a foreign object on a background object in an image, and computer program product
JP4599110B2 (en) Image processing apparatus and method, imaging apparatus, and program
CN113139557B (en) Feature extraction method based on two-dimensional multi-element empirical mode decomposition
CN114792310A (en) Mura defect detection method for edge blurring in LCD screen
CN114241542A (en) Face recognition method based on image stitching
Arsic et al. Improved lip detection algorithm based on region segmentation and edge detection
CN110458012B (en) Multi-angle face recognition method and device, storage medium and terminal
US10872229B2 (en) Image processing device, image processing method, and recording medium
Priya et al. A novel approach to the detection of macula in human retinal imagery
CN111914585A (en) Iris identification method and system
TWI416433B (en) Method of detecting red eye image and apparatus thereof
CN112488031A (en) Safety helmet detection method based on color segmentation
CN105809628B (en) Capsule image filtering method based on local curvature flow analysis
Li-jie et al. Automatic Image Segmentation Base on Human Color Perceptions
CN110751078B (en) Method and equipment for determining non-skin color region of three-dimensional face
Tribuzy et al. Vehicle License Plate Preprocessing Techniques Using Graphical Interface

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040518

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20041025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080130

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110208

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees