JP4722467B2 - 画像において画素を分類する方法、前記方法を使用して肌を検出する方法、前記方法を使用して導出されたデータを使用し、符号化し、送信し、受信し、または復号するように構成される方法および装置、前記方法を実行するように構成される装置、前記方法をコンピュータに実行させるコンピュータプログラム、ならびにコンピュータプログラムを格納するコンピュータ読取可能記憶媒体 - Google Patents

画像において画素を分類する方法、前記方法を使用して肌を検出する方法、前記方法を使用して導出されたデータを使用し、符号化し、送信し、受信し、または復号するように構成される方法および装置、前記方法を実行するように構成される装置、前記方法をコンピュータに実行させるコンピュータプログラム、ならびにコンピュータプログラムを格納するコンピュータ読取可能記憶媒体 Download PDF

Info

Publication number
JP4722467B2
JP4722467B2 JP2004357222A JP2004357222A JP4722467B2 JP 4722467 B2 JP4722467 B2 JP 4722467B2 JP 2004357222 A JP2004357222 A JP 2004357222A JP 2004357222 A JP2004357222 A JP 2004357222A JP 4722467 B2 JP4722467 B2 JP 4722467B2
Authority
JP
Japan
Prior art keywords
content type
skin
pixel
probability
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004357222A
Other languages
English (en)
Other versions
JP2005190474A5 (ja
JP2005190474A (ja
Inventor
スタヴロス、パスカラキス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric R&D Centre Europe BV Netherlands
Original Assignee
Mitsubishi Electric R&D Centre Europe BV Netherlands
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric R&D Centre Europe BV Netherlands filed Critical Mitsubishi Electric R&D Centre Europe BV Netherlands
Publication of JP2005190474A publication Critical patent/JP2005190474A/ja
Publication of JP2005190474A5 publication Critical patent/JP2005190474A5/ja
Application granted granted Critical
Publication of JP4722467B2 publication Critical patent/JP4722467B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Color Image Communication Systems (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、特に色を使用して、画像中の肌等の特定のコンテンツタイプの領域を検出する方法および装置に関する。本発明は、特に、画像中の第1および第2のコンテンツタイプが、特定の色空間において、または特定の方法を使用する場合において等の特定の条件下で、類似するかまたは区別できない場合に、第1のコンテンツタイプの領域を第2のコンテンツタイプの領域から識別することに関する。本発明は、特に、肌を検出し、目下既知の肌検出システム下で知覚的に類似する毛髪等の他の領域から、肌を識別することに関する。
この明細書では、コンテンツタイプという用語を、独特な画像の特徴または関連する特徴空間における分布により表現されまたは識別可能である、肌、毛髪等の画像の特徴を意味するものとして使用する。たとえば、肌等のコンテンツタイプを、特定の色空間における色分布によって表すことができる。コンテンツタイプはまた、コンテンツタイプのグループ、たとえば同様の分布を有するグループまたはより大きい分布に含まれるグループを含む。画像という用語は、静止画像、またはビデオシーケンス等の画像のシーケンスの一部を形成する画像を含み、かつ、インタレース画像のフレームまたはフィールドを含む。また、画像という用語を、画像の領域を意味するものとして使用してもよい。画像の領域は画素または画素のグループを含み、画素のグループを、いかなる種類の形状に配置してもよく、かつ空間的に結合しても分離してもよい。上記解釈は、特に明記がある場合および文脈から明らかである場合を除き、適用される。
自動的な人間の肌の検出は、さまざまな画像およびビデオ処理用途の分野で一般に使用される方法であり、2つの最も有名なものは、画像分類、たとえば猥褻画像の検出と、顔検出および追跡、たとえば携帯電話または監視システムで有用なものと、である。既知の技法の例は、欧州特許出願公開第1353516号明細書、Fleck, M.、Forsyth, D.、Bregler, C.著の「Finding naked people」(Proceedings of European conference on Computer Vision ECCV'96, 1996, vol.2, pp.593-602)、Yoo、T.W.、Oh、I.S.著の「A Fast Algorithm for Tracking Human Faces Based on Chromatic Histograms」(Pattern Recognition Letters, vol.20, no.10, pp.967-978, October 1999)、Yang, J.、Waibel, A.著の「A Real-Time Face Tracker」(Proceedings of Third IEEE Workshop on Applications of Computer Vision, pp.142-147, 1996)において述べられている。
デジタル画像およびビデオにおける自動的な人間の肌の検出の問題が、さまざまな研究者によって調査されてきた。上に挙げた例に加えて、他の例には、Soriano, M.、Martinkauppi, B.、Huovinen, S.、Laaksonen, M.著の「Skin Detection in Video Under Changing Illumination Conditions」(Proceedings of 15th International Conference on Pattern Recognition ICPR 2000, vol.1, pp.1839-1842, 2000)、Sobottka, K.、Pitas, I.著の「Face Localization and Facial Feature Extraction Based on Shape and Color Information」(Proceedings of IEEE International Conference on Image Processing ICIP'96, pp.483-486, 1996)、Jones, M.J.、Rehg, J.M.著の「Statistical Color Models with Application to Skin Detection」(Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition CVPR'99, pp.274-280, June 1999)がある。報告された解決法には相違があるが、研究者らは、肌検出の最も強力な手がかりは色であるということで意見が一致している。報告された方法の相違は、色表現系(たとえば、RGB、HSL、YC等)の選択、検出に利用される情報(たとえば、3次元フルカラー、2次元クロミナンス等)、採用される肌色モデルのタイプ(たとえば、ヒストグラム、ガウス(Gaussian)または複数のガウスの混合、単純な発見的色値ルール等)等の態様にある。しかしながら、一般に、色ベースの肌検出は、画像の各画素を新たな色空間に変換すること、その色情報の一部またはすべてを肌色モデルとともに利用することにより肌色確率を取得すること、およびこの確率に基づき、当該画素を肌として分類すべきか否かを判断することを含む可能性がある。モデルのタイプ(たとえばガウスまたはヒストグラム)に関わらず、クロミナンスベースの肌色モデル(たとえば、正規化rg、HSLのHS、YCのC等)は、フルカラーモデル(たとえば、フルRGB)より好ましく、文献において優位を占めている。これは、クロミナンスベースのモデルが照明強度(illumination intensity)に対する頑強性特性を有し、また、異なる人および異なる人種(たとえば、アフリカ人、白人、アジア人等)の肌の色は、主に色彩情報自体ではなく強度(intensity)に関して異なるためである。
色ベース、特にクロミナンスベースの、肌検出の一般的な問題は、肌の色は実際には肌に限定されないため、非肌画素(non-skin pixel)が肌であるとして検出されることが多い、ということである。肌として検出される非肌画素は、全般的には低い確率で検出されるため、肌色確率閾値を使用することにより、この問題をある程度まで緩和することができる。誤って検出された非肌領域が完全に除去されない場合であっても、それらは通常、後続する連結成分分析および小領域除去アルゴリズムがそれらを除去することができる程度まで断片化され、一方、空間フィルタリング方法により、閾値処理プロセスの結果として誤って除去された正当な肌画素を再度取り込むことができる。しかしながら、肌に対して略同一のクロミナンスを有するために通常高い肌色確率で検出され、肌に連結されているため空間処理ではほとんど除去することができない、非肌素材がある。この素材は毛髪である。この種の誤検出は、画像またはビデオ処理適用の全体の性能に対して大きく影響を与える可能性がある。たとえば、顔検出および追跡において、このような誤検出は、顔窓(face window)の正しい計算に重大な影響を与える可能性がある。画像分類において、このような誤検出は、重大な分類エラーをもたらす可能性がある。目標が、たとえば特殊効果において、正確な肌検出と後続する色調(tone)変更とである適用では、このような誤検出は悪影響をもたらす可能性がある。
自動肌検出中の誤った毛髪検出の問題は、現在まで広範囲に研究されておらずまた十分に解決されていない。上述したFleck他は、クロミナンスベースの肌検出モデルの性能を補強する、すなわち誤った許容の率(非肌画素が肌として検出される)を低減することに対し総合的な機能強化を提案している。この機能強化は、肌が比較的均一であるということに基づき、テクスチャ強度情報を使用することである。ここで、テクスチャ強度は、元の強度の画像とそのメディアンフィルタリングされたバージョンとの差として定義される。Fleck他によって提案された方法の1つの問題は、テクスチャ画像の計算および処理が、色ベースの肌検出プロセスが含む画素ベースの処理と比較して、計算的に高価であるということである。別の問題は、何らかの局所近傍における肌領域のテクスチャ強度は、画像の空間解像度および雑音レベルが変化することによって変化する、ということである。この手法のさらなる問題は、肌領域の縁に現れる正当な肌画素は、非肌画素として非常に容易に除去される可能性がある、ということである。
上述したJonesおよびRehgもまた、色ベースの肌検出の性能を総合的に向上させる方法を提案している。この方法では、統計的肌色モデルが統計的非肌色モデルとともに使用される。この手法の問題点は、非肌を記述するモデルの作成が、関連するデータの収集という点で極めて困難である、ということである。正しい統計的非肌色モデルをうまく作成することができる場合であっても、かかるモデルは、特定の肌/毛髪混同問題に対して最適な解決法を提供するには一般的すぎるものになる。
欧州特許出願公開第1211638号明細書および欧州特許出願公開第1223550号明細書において、ChenおよびRayは、自動肌検出の際の誤った毛髪検出の問題を直接扱っている。より詳細には、かかる発明者等は、画像肌色検出における金髪画素除去の方法を提示している。この方法では、デジタル画像において肌画素を検出するために、rgベースの肌色モデルが使用される。彼らは、誤って検出された金髪画素から、正しく検出された肌画素を、1次元色相空間(1D Hue space)におけるそれらの値に基づいて分離することを提案している。より詳細には、初期のクロミナンスベースの肌色モデルによって肌として検出された画素は、その色相値が15°未満である場合は肌として保持され、そうでない場合は毛髪として拒否される。それにも関わらず、本発明者による実験では、この手法が、図1において分かるように肌検出プロセスに悪影響をもたらすことが分かった。図1(a)は、1(最小値)から255(最大値)までの範囲の肌色確率閾値θの関数として、FR(誤った拒否(False Rejection)、すなわち、誤って拒否された肌画素)とFA(誤った許容(False Acceptance)、すなわち、誤って許容された毛髪画素)とに関し、rgベースの肌色モデルの性能を示す。図1(b)は、ChenおよびRayが示唆するように、かかる発明者等が後処理ステップとして提案した方法を取り入れた後の同じ統計を示す。肌色モデルは、さまざまな照明下のさまざまな白人の肌の色調を包含するデータから作成された。この評価で使用したデータは、さまざまな照明下でのさまざまな白人/アジア人/アフリカ人の肌の色調と、さまざまな照明下でのさまざまな白人/アジア人/アフリカ人の毛髪の色調とを包含する。これは公正な試験である。なぜなら、(i)クロミナンスベースの肌色モデルは、異なる人種の人々からもたらされる非常に異なる肌の色調に対するのと同様に、照明強度変化に対しても頑強であるように意図されており、(ii)自動肌検出システムでは、画像における被写体の正確な肌の色調、照明状態、毛髪の色等が概して知られていないためである。提案された方法は、FA率を低下させる(最大FAが、図1(a)の〜76.34%から図1(b)の〜22.34%まで低下する)が、FR率には悪影響を及ぼす(最小FRは図1(a)の〜3.16%から図1(b)の〜43.97%まで増大する)、ということが分かる。明らかに、誤った毛髪画素検出をさらに抑制するという点で、かつこの毛髪除去プロセスの結果として正当な肌画素の拒否を最小限にするという点で、大幅な改善が望ましい。
本発明は、デジタル画像またはビデオシーケンスにおける肌検出プロセスの際の誤った毛髪検出の問題に対処する。
本発明は、ChenおよびRayの肌/毛髪分離方法で見られるような、FA抑制のプロセスにおける(すなわち、毛髪画素を除去しようと試みる間)激しいFR劣化(すなわち、正当な肌画素を間違って拒否すること)の問題に対処する。提案する方法は、正当な肌画素を誤って除去することに関する劣化を最低限にして毛髪画素を除去することに大いに成果を上げる。
ChenおよびRayによって提案された方法とは対照的に、本発明は、望ましい分類エラーコストおよび事前の生起確率(prior probabilities of occurrence)を反映することができるように、肌/毛髪分離プロセスを用途特定、画像特定または画像領域特定でカスタマイズすることができるようにする。提案する方法により、毛髪画素を除去する際にこの方法がどの程度緩やか(mild)であるかまたは積極的(aggressive)であるかを定義することができ、それは、肌画素をうまく保持することに影響を与える。
Fleck他によって提案された方法とは対照的に、本発明は、異なる画像スケール下では信頼性が低い可能性がありまた必然的に計算負荷を増大させるテクスチャ情報に頼る必要がない。
本発明の態様を、添付の特許請求の範囲において述べる。
好ましい実施形態では、本発明を、肌を毛髪から識別するために使用する。肌を検出することには非常に成果を上げるが毛髪もまた検出するという点で脆弱な肌検出プロセスXが与えられた場合、本実施形態の特徴は以下の通りである。
肌色モデルY1と毛髪色モデルY2とを作成する。好ましくは、毛髪モデルを、ありとあらゆる毛髪色に対してではなく、初期肌検出プロセスを混乱させる毛髪に対して作成する。それらモデルに対し、各モデルが(a)それぞれの素材をうまく検出し、(b)他方のモデルの素材に対してたいてい(largely)無反応であり、(c)その他の素材に対していかに挙動するかは重要でないように、色空間を選択する。この最後の部分(c)は重要である。なぜなら、それがなければ、(a)と(b)とをともに満足させることが不可能な場合があるためである。これは、初期検出プロセスXが最初に始めなければならない問題である。たとえば、Y1は、肌を検出することに適しており、毛髪には無反応でなければならず、それが他の物質、たとえば木材や砂等もまた検出するか否かは問題とならない。Y2の場合も同様である。初期検出プロセスXによって肌として検出された画素がある場合、確率p Y1 およびp Y2 を割り当てるモデルY1およびY2がその画素を調査する。これらの確率を比較することにより、それが肌であるか毛髪であるかを判断する。たとえば幾分か毛髪を除去するが肌の保持を優先事項とするか、または肌検出にいかに影響するかにかかわらずすべての毛髪を除去しようと試みる等のシステムを作成するために、確率に対する重み係数を導入することができる。Y1およびY2が肌および毛髪以外の素材に対していかに反応するかが重要でない理由は、かかる素材は初期フィルタXによって拒否されるであろうためである。Xが他の「脆弱性」を有する、たとえば肌/木材を混同する場合、Y1およびY2の場合と同じ色空間であってもよい何らかの色空間において肌と木材とに対しモデルZ1およびZ2を作成することによって等、プロセスを繰り返すことができる。
概して、本発明の実施形態を、以下のように表すことができる。素材Aを誤って拒否しないことに非常に成果を上げるが誤った許容もまた行う方法に対し、上記誤った許容を1つまたは複数のグループB、C、D等にグループ化する。Aと少なくとも1つの他のグループとの間の混同を解決する色空間を特定し、該色空間においてモデルを作成する。初期方法の優れた検出特性に対する影響を最低限にしつつ、上記誤った許容を除去する、多重分類子構成において上記モデルを使用する。上記多重分類子構成は、所望の分類エラーコストと事前の生起確率とを反映するようにパラメータ化可能である。
上記において、グループ化は、本明細書で行ったように、たとえば毛髪は1つのグループであり、木材は別のグループである等、概念のグループ化を意味してもよい。グループ化はまた、より形式的な(formal)プロセスであってもよい。たとえば、初期検出プロセスの色空間では、グループを自動的に確定するためにクラスタリングを実行する。これにより、金髪と砂とが1つのグループになり、黒髪と木材とが別のグループになる、等の可能性がある。
本発明の実施形態を、添付図面を参照して説明する。
図2は、本発明の一実施形態を示す。肌画素のデータベースに対し、2次元Cクロミナンス空間における統計的ヒストグラムベースモデルとして、肌色モデルXを作成する。簡単に言えば、データベースの肌画素のすべてを、C空間に変換しヒストグラムに表す。
これらの新しい色座標は、以下の式を用いてRGBから導出される。
Cb=−0.169×R−0.331×G+0.500×B
Cr=+0.500×R−0.419×G−0.081×B
そして、このヒストグラムを、何らかの最大値に正規化する。肌フィルタリングの結果は通常、検査され視覚的に表示されるため、この特定の実施形態の場合のように、ヒストグラムを整数範囲[0…255]で正規化することは一般的である。また、ヒストグラムは、この特定の実施形態では256のビンを有するが、いかなるビンサイズ(bin size)に一般化してもよい。
肌/毛髪分離に適した2次元色空間を特定した。第1の次元は、元のRGB表現のB平面(B plane)である。これは、強度情報に直接的に関連づけられている。第2の次元は、B平面と同じ範囲を有するようにスケーリングされシフトされた、元のRGB表現の差R−Gである。これは、付加的な照明強度変化(明るさ)に対して不変である。本発明者は、単一表現系ではこれら2つの成分の組合せを見出さなかったため、結果としての色表現系を(B,R−G)と呼ぶ。
Xの作成に使用したものと同じデータベースから肌色モデルYを作成する。それは、(B,R−G)空間における統計的ヒストグラムベースモデルである。毛髪色モデルYの場合、毛髪画素データベースを使用する。このデータベースを、最初に肌モデルXによってフィルタリングする。Xによりゼロでない確率が与えられる毛髪画素を、同様に(B,R−G)における統計的ヒストグラムベースモデルの形態をとる毛髪色モデルYの作成に使用する。Xについて、この実施形態では、YおよびYヒストグラムもまた、256のビンを有するが、異なるビンサイズに一般化してもよい。
図2は、単一の「複合」または「多重分類子」フィルタにおけるフィルタX、YおよびYの1つの可能な組合せを示す。
デジタル画像をシステムに入力し、各画素を個々に調査する。画素の色値は、特定の色空間に関して表現されている。この値は、図2に示される段階1に対する入力のためにC空間に、また、図2に示される段階2に対する入力のための(B,R−G)空間に変換される。
下に説明するように、関連する色空間の画素の値を、上述したデータベースを使用して導出されたヒストグラムモデルと比較することにより、確率を確定する。
1.肌検出のプロセスにおいて、デジタル画像の各画素に対し、複合フィルタの段階1、すなわちモデルXにより肌色確率値pを割り当てる。
2.p≠0である場合、
a.段階2を起動して当該画素を調査する。段階2では、その画素に対し、それぞれモデルYおよびYにより確率pY1およびpY2を割り当てる。
b.融合層において、新たな肌色確率p’を計算する。より詳細には、pY1<w・pY2である場合、p’=0である。そうでない場合、p’=pである。
3.p=0である場合、融合層においてp’=0である。
4.判断層において、閾値θとともに最終肌色確率p’を調査し、分類判断を達成する。
この定義において暗黙的なのは、pY1=pY2=0である場合、元の肌色確率は変更されない、という事実である。簡単に言えば、第2のフィルタリング段階において判断を下すことができない場合、それは無視され、第1の段階の出力は保持される。重みwを、所望の分類エラーコストと事前の確率とを反映するように調整してもよい。たとえば、w<1と設定することにより、正しく検出された肌画素に対する悪影響がごくわずかであるかまたは存在することなく、毛髪除去プロセスが次第に緩やかになる。同様に、w>1と設定することにより、毛髪除去プロセスが次第に積極的になる。このため、本実施形態では、正確かつ調整可能な選択的除去が可能になる。値wを、適用実施態様に対して固定してもよいが、異なる用途間で変更してもよく、あるいは、画像レベルで可変であってもよく、あるいは下位画像(sub-image)レベルで可変であってもよい。たとえば、後者に関して、連結成分分析アルゴリズムが、第1のフィルタXの出力に基づいて肌領域を特定してもよく、その後、毛髪分離フィルタを使用して各肌領域を精緻化してもよい。
図3は、提案した方法の性能を示す。より詳細には、基準として、図3(a)は、1(最小値)から255(最大値)までの範囲の肌色確率閾値θの関数としての、FR(誤った拒否、すなわち、誤って拒否された肌画素)とFA(誤った許容、すなわち、誤って許容された毛髪画素)とに関し独立したモデルXの性能を示す。肌色モデルXを、さまざまな照明下でのさまざまな白人の肌の色調を包含するデータから作成した。この評価で使用したデータは、さまざまな照明下でのさまざまな白人/アジア人/アフリカ人の肌の色調と、さまざまな照明下でのさまざまな白人/アジア人/アフリカ人の毛髪の色調と、を包含する。上述したように、これは、公正な試験である。なぜなら、(i)クロミナンスベースの肌色モデルは、異なる人種の人々からもたらされる非常に異なる肌の色調に対するのと同様に、照明強度変化に対しても頑強であるように意図されており、(ii)自動肌検出システムでは、画像の被写体の正確な肌の色調、照明状態、毛髪の色等が概して知られていないためである。複合フィルタに対し、Xに対するデータと同じデータを使用して肌色モデルYを作成した。ゼロでない肌色確率を有する毛髪画素のみが保持されるようにするモデルXによるフィルタリングを行った後に、毛髪色モデルYを、さまざまな照明下でのさまざまな白人の毛髪の色調のデータベースから作成した。図3(b)、図3(c)および図3(d)は、それぞれ0.55、0.75および1.00の重みwを有する複合フィルタに対する同じ評価データに対する同じ統計を示す。複合フィルタが、誤った肌拒否に対する影響を最小限にして誤った毛髪検出を著しく抑制することが分かった。重みwの異なる値に対する異なるFAおよびFR曲線により、誤って検出された毛髪を除去する際のその「積極性(aggressiveness)」に関するフィルタのカスタマイズ可能性もまた、明白に示されている。図4および図5は、いくつかの絵による例を示す。図4(a)は元の画像であり、図4(b)は段階1の出力を示し、図4(c)は複合フィルタの出力を示す。この例では、w=0.80である。同様に、図5(a)は元の画像であり、図5(b)は段階1の出力を示し、図5(c)は複合フィルタの出力を示す(w=0.75)。なお、複合フィルタは、段階1によって肌として検出された、肌でも毛髪でもない領域も除去する。
上記実施形態に対する変形形態および代替形態の例を下に述べる。
ここに提示した実施形態では、各ピクセルについて、モデルによって提供される確率に基づく分類がなされる。代替実施形態では、これらの確率に対して、または元の画像のピクセルに対して、たとえば中央値や平均値といった様々な空間フィルタリング技法を適用し得る。このような拡張は本発明の範囲内である。
確率が使用される場合、これらは2つまたはそれ以上の値を有する離散的なものであってもよく、また連続的なものであってもよい。
代替実施態様では、モデルXは、理論的には任意のタイプであってもよく、任意の次元の任意の色空間にあってもよく、任意の情報内容を有するものであってもよく、任意の色ベース技法(ヒストグラムベース、ガウス等)、またはテクスチャベース技法等の非色技法、もしくはそれらの組合せを含んでもよい。同じことがモデルYに適用され、それらは、必ずしも色ベース技法に限定されない。
(B,R−G)色空間は、肌から毛髪を分離する点において良好な特性を有する色空間の一つである。他の空間(たとえば、(R,B−G))および/または他の色空間次元および/または他の情報内容(たとえば、(I,R−G)等の輝度を直接含む色空間)を使用してもよい。また、ここではヒストグラムベースモデルを使用するが、本発明は、モデルYおよびYがいかなるタイプに従うべきかを指定しない。異なる実施態様(ただし、依然として本発明の範囲内にある)は、モデルYおよびYに対し異なるタイプ(たとえば、ガウス)を想定してもよい。
ここに記載される実施形態は、1つのピクセルに対する新たな確率が、古い確率またはゼロのいずれかになる。しかしながら、代替実施態様は、入力される確率のうちの1つまたは複数もしくはすべての任意の関数から新たな確率を導出してもよい。
1つの素材が別の素材から分離可能である色表現系、たとえば、毛髪から肌を分離するための(B,R−G)を見い出したため、両方の素材に対するモデルを作成する必要がない。たとえば、図2のものに対する代替実施態様は、閾値とともにモデルYのみまたはモデルYのみを使用してもよい。本出願人による実験により、これは複合フィルタの性能を劣化させることが分かったが、関連する計算複雑性が低減される実行可能な代替形態である。また、モデルYおよびYを計算したため、代替実施態様において、モデル自体を融合し(たとえば、図2の確率融合に沿った、モデルの重み付き減算)、その後単一の融合モデルを使用してもよい。
図2のフィルタX自体が、図2に示すような複合フィルタであってもよい。たとえば、新たな複合フィルタでは、段階1は、誤って肌を拒否しないことに大いに成果を上げるが、いくつかの特定の種類の誤った許容がある、何らかの手段であってもよく、後続する段階は、これらの誤った許容の各々に対処する。このため、融合層に達するまで、段階2は、上述したように、誤って検出された毛髪を除去し、段階3は、誤って検出された木材を除去し、段階4は、誤って検出された砂を除去する等、を行う。
図2は、段階1がゼロでない確率をもたらす場合にのみ段階2が起動されるという意味で、逐次トポロジを示す。並列トポロジでは、各画素に対して段階1と段階2の両方が常に動作してもよく、融合層において適当な関数が与えられると、段階2の出力が段階1の出力を、後者がゼロの場合であっても修正することができる。上述した複数の素材に対し、ハイブリッドトポロジを検討することも可能である。
本発明の適用の例には、顔追跡を伴う携帯テレビ電話(mobile videophone)(たとえば、本出願人の同時係属中の欧州特許出願公開1353516号明細書を参照)、もしくは人を検出しかつ/または追跡するため等の監視システム、ビデオ会議等がある。
本発明を、ソフトウェアおよび/またはハードウェアを適切に変更して、たとえばコンピュータシステムで実施してもよい。本発明の態様を、ソフトウェアおよび/またはハードウェア形態で提供してもよく、あるいは、チップ等、特定用途向け装置または特定用途向けモジュールにおいて提供してもよい。
本発明のいくつかの特徴に対し好ましい色空間系を提案したが、所望のコンテンツ抽出のために好ましく選択される任意の適当な色空間を使用してもよい。
(a)および(b)は、従来技術における誤った許容と誤った拒否とを示すグラフである。 本発明の実施形態を説明するブロック図である。 (a)〜(d)は、異なった重み値が与えられた本発明の実施形態の誤った許容と誤った拒否とを示すグラフである。 本発明の実施形態による方法を使用する処理の異なる段階での画像の例である。 本発明の実施形態による方法を使用する処理の異なる段階での画像の例である

Claims (33)

  1. 第1および第2のコンテンツタイプの画素を含む画像であって、さらに他のコンテンツタイプの画素を含む可能性のある画像において、第1のコンテンツタイプの画素を識別するために、画像において画素を分類する方法であって、
    前記各コンテンツタイプは画像の色特徴であり、
    前記各コンテンツタイプは、特有の画像特徴によって、または、関連する色空間における分布によって、表現されるかまたは識別可能であり、
    前記第1のコンテンツタイプは肌コンテンツタイプであり、
    前記方法は、検出プロセスAと、プロセスBとを含み、
    前記検出プロセスAは、第1のモデル(X)を用いて前記肌コンテンツタイプの画素を識別するためのものであり、
    前記プロセスAは第1の色空間において動作し、
    前記プロセスAは、前記第2のコンテンツタイプの画素を、前記肌コンテンツタイプに属するものとして誤って識別する可能性があり、
    前記プロセスBは、別の第2の色空間において、前記肌コンテンツタイプを含むタイプの識別された画素と前記第2のコンテンツタイプを含むタイプの画素とを区別するためのものであり、
    前記プロセスBは、第1のさらなる検出プロセスCおよび第2のさらなる検出プロセスDに基づき、
    前記第1のさらなる検出プロセスCは、第2のモデル(Y1)を用いて、前記肌コンテンツタイプと、前記他のコンテンツタイプを含む可能性のある前記第2のコンテンツタイプを含むコンテンツとを区別するためのものであり、
    前記プロセスCは前記第2の色空間において動作し、
    前記第2のさらなる検出プロセスDは、第3のモデル(Y2)を用いて、前記第2のコンテンツタイプと、前記他のコンテンツタイプを含む可能性のある前記肌コンテンツタイプを含むコンテンツとを区別するためのものであり、
    前記プロセスDは前記第2の色空間において動作する、方法。
  2. 前記第1、第2および第3のモデルは、関連するコンテンツタイプを表すヒストグラムモデルである、請求項1に記載の方法。
  3. 1つまたは複数のコンテンツタイプに対し、コンテンツタイプの既知の例を使用することによりモデルを導出する、たとえばヒストグラムを導出することによりモデルを導出することを含む、請求項2に記載の方法。
  4. プロセスAの結果を使用することにより、プロセスCおよびDを使用するか否かを判断することを含む、請求項1〜3のいずれか一項に記載の方法。
  5. プロセスAの結果と、プロセスCの結果およびプロセスDの結果とを結合することを含む、請求項1〜4のいずれか一項に記載の方法。
  6. ある画素についてプロセスCおよびDの各々によって生じる結果は、ある画素が所与のコンテンツタイプに属するか否かの確率の測度であり、
    前記確率の測度は、少なくとも2つの値の範囲にわたる、請求項1〜5のいずれか一項に記載の方法。
  7. 前記プロセスCおよびDのうちの少なくとも一方は、それが生じる確率値の空間フィルタリングを伴い、前記空間フィルタリングは、ある画素の確率値を任意の近傍における近傍画素の確率値に基づいて、たとえば空間的平滑化プロセス中に修正することを含む、請求項6に記載の方法。
  8. プロセスAによって生じる結果は、プロセスCおよびDのうちの一方または両方によって生じる確率値によって修正される、請求項6または7に記載の方法。
  9. ある画素について、プロセスCによって生じる確率値と、プロセスDによって生じる確率値とを比較することを含み、
    前記比較の結果は、プロセスAによって生じる結果を修正するために用いられる、請求項8に記載の方法。
  10. プロセスCの前記確率値およびプロセスDの前記確率値のうちの少なくとも一方は重み付けされ、各重みは他方に依存しない、請求項9に記載の方法。
  11. 前記重み値は可変であり、かつ/または前記方法の使用者によって指定される、請求項10に記載の方法。
  12. ある画素について、プロセスAによって生じる結果は、次のルール
    (I)wY1・pY1≧wY2・pY2である場合、プロセスAの結果を許容し、
    (II)wY1・pY1<wY2・pY2である場合、プロセスAの結果を拒否する
    に従って修正され、
    Y1およびpY2はそれぞれ、プロセスCおよびDによって生じる確率値であり、
    Y1およびwY2はそれぞれ、pY1およびpY2にかかる重みである、請求項6〜11のいずれか一項に記載の方法。
  13. ある画素についてプロセスA、CおよびDの各々によって生じる結果は、ある画素が所与のコンテンツタイプに属するか否かの確率の測度であり、
    前記確率の測度は、少なくとも2つの値の範囲にわたる、請求項1〜5のいずれか一項に記載の方法。
  14. 前記プロセスA、CおよびDのうちの少なくとも1つは、それが生じる確率値の空間フィルタリングを伴い、前記空間フィルタリングは、ある画素の確率値を任意の近傍における近傍画素の確率値に基づいて、たとえば空間的平滑化プロセス中に修正することを含む、請求項13に記載の方法。
  15. プロセスAによって生じる確率値は、プロセスCおよびDのうちの一方または両方によって生じる確率値によって修正される、請求項13または14に記載の方法。
  16. ある画素について、プロセスCによって生じる確率値と、プロセスDによって生じる確率値とを比較することを含み、
    前記比較の結果は、プロセスAによって生じる確率値を修正するために用いられる、請求項15に記載の方法。
  17. プロセスCおよびDの前記確率値のうちの少なくとも一方は重み付けされ、各重みは他方に依存しない、請求項16に記載の方法。
  18. 前記重み値は可変であり、かつ/または前記方法の使用者によって指定される、請求項17に記載の方法。
  19. ある画素について、プロセスAによって生じる確率値pXは、p’Xとなるように次のルール
    (I)pX≠0である場合、
    (i)wY1・pY1<wY2・pY2である場合にp’X=0であり、
    (ii)wY1・pY1≧wY2・pY2である場合にp’X=pXであり、
    (II)pX=0である場合、p’X=0である
    に従って修正され、
    Y1およびpY2はそれぞれ、プロセスCおよびDによって生じる確率値であり、
    Y1およびwY2はそれぞれ、pY1およびpY2にかかる重みである、請求項13〜18のいずれか一項に記載の方法。
  20. ある画素が前記第1のコンテンツタイプのものである確率を反映する値を導出することを含み、
    前記確率値は、判断を得るために閾値と比較される、請求項1〜19のいずれか一項に記載の方法。
  21. 前記閾値は可変であり、かつ/または前記方法の使用者によって指定される、請求項20に記載の方法。
  22. ある画素が、プロセスA、CおよびDのうちの少なくとも1つのために、別の色空間に変換される、請求項1〜21のいずれか一項に記載の方法。
  23. プロセスCおよびDは2次元以上の次元数の色空間を使用する、請求項1〜22のいずれか一項に記載の方法。
  24. 前記入力値を、照明変化に対して実質的に不変である色空間、たとえば2次元Cbr空間に変換することを含む、請求項1〜23のいずれか一項に記載の方法。
  25. 前記入力値を、照明変化に対して部分的に不変である色空間、たとえば2次元(B,R−G)空間に変換することを含み、
    R、GおよびBはRGB表現の成分を表す、請求項1〜24のいずれか一項に記載の方法。
  26. 前記第2のコンテンツタイプは毛髪または木材または同様のものである、請求項1〜25のいずれか一項に記載の方法。
  27. 第1、第2および第3のコンテンツタイプの画素を含む画像であって、さらに他のコンテンツタイプの画素を含む可能性のある画像において、第1のコンテンツタイプの画素を識別するために、画像において画素を分類する方法であって、
    前記各コンテンツタイプは画像の色特徴であり、
    前記各コンテンツタイプは、特有の画像特徴によって、または、関連する色空間における分布によって、表現されるかまたは識別可能であり、
    前記第1のコンテンツタイプは肌コンテンツタイプであり、
    前記方法は、前記肌コンテンツタイプに属する画素を識別するための請求項1に記載の検出プロセスA2を含み、前記プロセスA2は、前記第3のコンテンツタイプの画素を、前記肌コンテンツタイプに属するものとして誤って識別する可能性があり、
    前記方法は、プロセスB2を含み、前記プロセスB2は、肌コンテンツタイプを含むタイプの識別された画素と前記第3のコンテンツタイプを含むタイプとを区別するためのものであり、
    前記プロセスB2は、さらなる検出プロセスC2およびさらなる検出プロセスD2に基づき、
    前記さらなる検出プロセスC2は、第2のモデル(Y1)を用いて、前記肌コンテンツタイプと、前記他のコンテンツタイプを含む可能性のある前記第3のコンテンツタイプを含むコンテンツとを区別するためのものであり、
    前記プロセスC2は前記第2の色空間において動作し、
    前記さらなる検出プロセスD2は、第3のモデル(Y2)を用いて、前記第3のコンテンツタイプと、前記他のコンテンツタイプを含む可能性のある前記肌コンテンツタイプを含むコンテンツとを区別するためのものであり、
    前記プロセスD2は前記第2の色空間において動作する、方法。
  28. 請求項1〜27のいずれか一項に記載の方法を使用して肌を検出する方法。
  29. 請求項1〜28のいずれか一項に記載の方法を使用して導出されたデータを使用し、符号化し、送信し、受信し、または復号するように構成される方法または装置。
  30. 請求項1〜29のいずれか一項に記載の方法を実行するように構成される装置。
  31. コンピュータシステムである請求項30に記載の装置。
  32. 請求項1〜29のいずれか一項に記載の方法をコンピュータに実行させるコンピュータプログラム。
  33. 請求項32に記載のコンピュータプログラムを格納するコンピュータ読取可能記憶媒体。
JP2004357222A 2003-12-09 2004-12-09 画像において画素を分類する方法、前記方法を使用して肌を検出する方法、前記方法を使用して導出されたデータを使用し、符号化し、送信し、受信し、または復号するように構成される方法および装置、前記方法を実行するように構成される装置、前記方法をコンピュータに実行させるコンピュータプログラム、ならびにコンピュータプログラムを格納するコンピュータ読取可能記憶媒体 Active JP4722467B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP03257736A EP1542150B1 (en) 2003-12-09 2003-12-09 Method and apparatus for separating content types in images
EP03257736.3 2003-12-09

Publications (3)

Publication Number Publication Date
JP2005190474A JP2005190474A (ja) 2005-07-14
JP2005190474A5 JP2005190474A5 (ja) 2006-10-19
JP4722467B2 true JP4722467B2 (ja) 2011-07-13

Family

ID=34486423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004357222A Active JP4722467B2 (ja) 2003-12-09 2004-12-09 画像において画素を分類する方法、前記方法を使用して肌を検出する方法、前記方法を使用して導出されたデータを使用し、符号化し、送信し、受信し、または復号するように構成される方法および装置、前記方法を実行するように構成される装置、前記方法をコンピュータに実行させるコンピュータプログラム、ならびにコンピュータプログラムを格納するコンピュータ読取可能記憶媒体

Country Status (4)

Country Link
US (1) US7444022B2 (ja)
EP (1) EP1542150B1 (ja)
JP (1) JP4722467B2 (ja)
DE (1) DE60330471D1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9143657B2 (en) * 2006-01-24 2015-09-22 Sharp Laboratories Of America, Inc. Color enhancement technique using skin color detection
US8064694B2 (en) * 2006-06-21 2011-11-22 Hewlett-Packard Development Company, L.P. Nonhuman animal integument pixel classification
US7720281B2 (en) * 2006-07-31 2010-05-18 Mavs Lab, Inc. Visual characteristics-based news anchorperson segment detection method
ITVA20060079A1 (it) * 2006-12-19 2008-06-20 St Microelectronics Srl Metodo di classificazione cromatica di pixel e metodo di miglioramento adattativo di un'immagine a colori
US20080159624A1 (en) * 2006-12-27 2008-07-03 Yahoo! Inc. Texture-based pornography detection
US20100278396A1 (en) * 2008-01-18 2010-11-04 Nikon Corporation Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera, and image display program
US8050494B2 (en) * 2008-05-23 2011-11-01 Samsung Electronics Co., Ltd. System and method for human hand motion detection by skin color prediction
US8406482B1 (en) * 2008-08-28 2013-03-26 Adobe Systems Incorporated System and method for automatic skin tone detection in images
US8270682B2 (en) * 2008-11-25 2012-09-18 Eastman Kodak Company Hair segmentation
US8244003B2 (en) * 2010-01-25 2012-08-14 Apple Inc. Image preprocessing
US8244004B2 (en) * 2010-01-25 2012-08-14 Apple Inc. Image preprocessing
US8254646B2 (en) 2010-01-25 2012-08-28 Apple Inc. Image preprocessing
US8358812B2 (en) * 2010-01-25 2013-01-22 Apple Inc. Image Preprocessing
CN101901346B (zh) * 2010-05-06 2012-11-21 复旦大学 一种对彩色数字图像进行不良内容识别的方法
EP2393039A1 (en) 2010-06-03 2011-12-07 Mitsubishi Electric R&D Centre Europe B.V. Method for accurate detection of image content
US9113074B2 (en) * 2010-12-22 2015-08-18 Olympus Corporation Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image
SE538435C2 (en) * 2014-05-14 2016-06-28 Cellavision Ab Method, device and computer program product for determining color transforms between images comprising a plurality of image elements
TW201702937A (zh) 2015-07-02 2017-01-16 Alibaba Group Services Ltd 圖像預處理方法及裝置
GB2541865A (en) * 2015-07-30 2017-03-08 Emerald Medical Applications Ltd Image processing system and method
CN106611429B (zh) 2015-10-26 2019-02-05 腾讯科技(深圳)有限公司 检测皮肤区域的方法和检测皮肤区域的装置
CN110349139A (zh) * 2019-07-02 2019-10-18 芜湖启迪睿视信息技术有限公司 一种基于神经网络分割的包装杂项检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000048184A (ja) * 1998-05-29 2000-02-18 Canon Inc 画像処理方法及び顔領域抽出方法とその装置
JP2001309225A (ja) * 2000-02-28 2001-11-02 Eastman Kodak Co 顔を検出するためのカメラ及び方法
JP2002183729A (ja) * 2000-10-20 2002-06-28 Eastman Kodak Co 画像肌色検出における金髪画素除去方法
JP2002197457A (ja) * 2000-10-20 2002-07-12 Eastman Kodak Co ディジタル画像中の肌色を検出する方法
JP2002203239A (ja) * 2000-12-14 2002-07-19 Eastman Kodak Co ディジタル画像中で人間の姿を検出する画像処理方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3055423B2 (ja) * 1995-03-23 2000-06-26 富士ゼロックス株式会社 領域分割装置
US6141434A (en) * 1998-02-06 2000-10-31 Christian; Andrew Dean Technique for processing images
AU1401401A (en) * 1999-11-16 2001-05-30 At & T Laboratories Cambridge Limited Method of and apparatus for classifying an image
US6754389B1 (en) * 1999-12-01 2004-06-22 Koninklijke Philips Electronics N.V. Program classification using object tracking
US6788818B1 (en) * 2000-04-15 2004-09-07 Microsoft Corporation System and process for optimizing false alarm probability for histogram matching
KR100374791B1 (ko) * 2000-11-22 2003-03-04 삼성전자주식회사 영상의 영역 구분 방법 및 장치
US7171042B2 (en) * 2000-12-04 2007-01-30 Intel Corporation System and method for classification of images and videos
US7280697B2 (en) * 2001-02-01 2007-10-09 California Institute Of Technology Unsupervised learning of object categories from cluttered images
US7327891B2 (en) * 2001-07-17 2008-02-05 Yesvideo, Inc. Automatic selection of a visual image or images from a collection of visual images, based on an evaluation of the quality of the visual images
US6993180B2 (en) * 2001-09-04 2006-01-31 Eastman Kodak Company Method and system for automated grouping of images
US7162073B1 (en) * 2001-11-30 2007-01-09 Cognex Technology And Investment Corporation Methods and apparatuses for detecting classifying and measuring spot defects in an image of an object
US7035467B2 (en) * 2002-01-09 2006-04-25 Eastman Kodak Company Method and system for processing images for themed imaging services
EP1353516A1 (en) 2002-04-08 2003-10-15 Mitsubishi Electric Information Technology Centre Europe B.V. A method and apparatus for detecting and/or tracking one or more colour regions in an image or sequence of images
US7218792B2 (en) * 2003-03-19 2007-05-15 Mitsubishi Electric Research Laboratories, Inc. Stylized imaging using variable controlled illumination
US7245767B2 (en) * 2003-08-21 2007-07-17 Hewlett-Packard Development Company, L.P. Method and apparatus for object identification, classification or verification

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000048184A (ja) * 1998-05-29 2000-02-18 Canon Inc 画像処理方法及び顔領域抽出方法とその装置
JP2001309225A (ja) * 2000-02-28 2001-11-02 Eastman Kodak Co 顔を検出するためのカメラ及び方法
JP2002183729A (ja) * 2000-10-20 2002-06-28 Eastman Kodak Co 画像肌色検出における金髪画素除去方法
JP2002197457A (ja) * 2000-10-20 2002-07-12 Eastman Kodak Co ディジタル画像中の肌色を検出する方法
JP2002203239A (ja) * 2000-12-14 2002-07-19 Eastman Kodak Co ディジタル画像中で人間の姿を検出する画像処理方法

Also Published As

Publication number Publication date
US7444022B2 (en) 2008-10-28
EP1542150A1 (en) 2005-06-15
US20050175227A1 (en) 2005-08-11
DE60330471D1 (de) 2010-01-21
JP2005190474A (ja) 2005-07-14
EP1542150B1 (en) 2009-12-09

Similar Documents

Publication Publication Date Title
JP4722467B2 (ja) 画像において画素を分類する方法、前記方法を使用して肌を検出する方法、前記方法を使用して導出されたデータを使用し、符号化し、送信し、受信し、または復号するように構成される方法および装置、前記方法を実行するように構成される装置、前記方法をコンピュータに実行させるコンピュータプログラム、ならびにコンピュータプログラムを格納するコンピュータ読取可能記憶媒体
Vezhnevets et al. A survey on pixel-based skin color detection techniques
US8358813B2 (en) Image preprocessing
US8660323B2 (en) Image Preprocessing
CN106951869B (zh) 一种活体验证方法及设备
US20110181746A1 (en) Image Preprocessing
EP1211638A2 (en) Method for blond-hair-pixel removal in image skin-color detection
CN108563979B (zh) 一种基于航拍农田图像判别水稻稻瘟病病情的方法
Kristensen et al. Background segmentation beyond RGB
CN111259756A (zh) 基于局部高频次特征和混合度量学习的行人重识别方法
JP2005190474A5 (ja)
Kelly et al. Screening for objectionable images: A review of skin detection techniques
Joshi et al. Edge detection and template matching approaches for human ear detection
Balamurali et al. Multiple parameter algorithm approach for adult image identification
JP3962517B2 (ja) 顔面検出方法及びその装置、コンピュータ可読媒体
Lin et al. Face detection based on skin color segmentation and SVM classification
CN109657544B (zh) 一种人脸检测方法和装置
Phung et al. Skin colour based face detection
Manjare et al. Skin detection for face recognition based on HSV color space
Unnikrishnan et al. Face spoof detection using image distortion analysis and image quality assessment
JP2004272801A (ja) データ分析装置およびデータ認識装置
Subban et al. Rule-based face detection in color images using normalized RGB color space—A comparative study
KR20030091471A (ko) YCrCb 칼라 기반 얼굴 영역 추출 방법
Powar et al. Skin detection for forensic investigation
CN108133204B (zh) 一种手体识别方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060831

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100419

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100422

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100519

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100608

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101125

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20101206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110406

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4722467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250