JP4335565B2 - 画像あるいは一連の画像内の1つあるいは複数の色領域を検出しかつ/または追跡するための方法および装置 - Google Patents

画像あるいは一連の画像内の1つあるいは複数の色領域を検出しかつ/または追跡するための方法および装置 Download PDF

Info

Publication number
JP4335565B2
JP4335565B2 JP2003099347A JP2003099347A JP4335565B2 JP 4335565 B2 JP4335565 B2 JP 4335565B2 JP 2003099347 A JP2003099347 A JP 2003099347A JP 2003099347 A JP2003099347 A JP 2003099347A JP 4335565 B2 JP4335565 B2 JP 4335565B2
Authority
JP
Japan
Prior art keywords
group
image
skin
color
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003099347A
Other languages
English (en)
Other versions
JP2003346145A (ja
Inventor
ジェイムズ・クーパー
ミロスロー・ボバー
スタヴロス・パシャラキス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric R&D Centre Europe BV Netherlands
Original Assignee
Mitsubishi Electric R&D Centre Europe BV Netherlands
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric R&D Centre Europe BV Netherlands filed Critical Mitsubishi Electric R&D Centre Europe BV Netherlands
Publication of JP2003346145A publication Critical patent/JP2003346145A/ja
Application granted granted Critical
Publication of JP4335565B2 publication Critical patent/JP4335565B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/643Hue control means, e.g. flesh tone control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は画像内の1つあるいは複数の色領域を検出するかつ/または追跡するための方法および装置に関する。本発明は主に、画像内の顔領域のような皮膚色領域を特定することに関する。本発明は特に移動テレビ電話において用いることを目的とするが、セキュリティシステムおよびテレビ会議システムのような他の応用形態において用いることもできる。本出願による同時係属の英国特許出願2357650号は、顔検出および追跡を用いる移動テレビ電話の一例を記載する。
【0002】
【従来の技術】
画像内の顔領域を検出するための様々な手法が知られている。これらは、顔の造作に基づく手法、動きに基づく手法および色に基づく手法を含む。顔の造作に基づく手法は、目、鼻および口のようなある特定の顔の造作を検出することにより、ある顔領域を特定しようと試みる。動きに基づく手法は、ある画像において動きのある領域が顔の可能性が高いという原理を基にして動作する。色に基づく手法は、ある画像内の皮膚色領域を探索する。
【0003】
既知の顔検出手法の多くは計算にコストがかかり、それゆえ移動テレビ電話あるいはテレビ会議のようなリアルタイムの応用形態の場合に理想的ではない。そのような応用形態の場合に好ましい手法は色に基づく手法である。
【0004】
簡単に述べると、色に基づく顔検出は、皮膚色に対応する色を有する画像の領域を抽出することを含む。顔検出システムは、アフリカ人、アジア人およびヨーロッパ人のような、ある範囲の皮膚の色調を検出することができ、画像が取得された照明条件のいかんを問わず皮膚色を検出できなければならない。したがって、色に基づく数多くの既知の顔検出方法は、RGBのような第1の色空間からの画素値を第2の色空間に投影することを含み、第2の空間内の画素値は皮膚の色調および照明条件の変動の影響を受けにくい。色相‐彩度、正規化された赤‐緑および対数色空間が種々の皮膚の色調を検出する際に良好な結果を生成すること、およびHSLのようないくつかの色空間が明度成分を色情報から分離することが知られている。
【0005】
米国特許第5,430,809号において提示される方法によれば、皮膚および髪エリアの検出を通して顔検出および追跡が達成される。皮膚検出は、各画素の色相値を人間の皮膚の範囲を表す限度(閾値)と比較することにより実行され、髪検出は、各画素の明度値を人間の髪の明度に対応する限度(閾値)と比較することにより実行される。その後、顔検出は、ヒューリスティックルールと関連付けて皮膚および髪の対を検査することにより実行される。この方法が抱える問題は、色相に基づく閾値判定が大きな範囲の色値を抽出し、結果として、皮膚ではないが、皮膚に類似の領域が皮膚として抽出される可能性があることである。この方法が抱える別の問題は、明度に基づく髪検出によって、その方法が、検出されることになる人の髪の色に敏感に反応するようになるとともに、照明の大きな変化に影響を受けやすくなることである。
【0006】
米国特許第6,148,092号において提示される方法によれば、画像内の画素の正規化された赤および緑値と、正規化された赤緑面の矩形あるいは円形領域として表される所定の領域とを比較することを通して皮膚検出が達成される。その後、顔検出が、皮膚画素を画像軸上に投影することにより達成される。この方法の短所は、1つの画像内の多数の顔を検出するために直に適用することができないことである。
【0007】
米国特許第6,343,141号では、最初にシェープロケータを用いることにより顔検出が達成される。このシェープロケータは、画像内の全ての物体のエッジを特定し、どのエッジが顔を表すものとみなされる所定の形状、すなわち楕円形に近似するかを求める。その後、そのような形状内の画素が検査され、DCTによる技法を用いて、それらの形状が皮膚の信号エネルギー特性を有するか否かに基づいてそれらが皮膚であるか否かが求められる。それが皮膚に該当する場合には、その後、これらの画素のCrおよびCb色値に基づく色パラメータがサンプリングされ、ある範囲の皮膚の色調が作成され、画像全体においてこれらの皮膚の色調が探索され、さらに皮膚領域が特定される。この方法の短所は、シェープロケータに基づく初期の顔位置の特定が視点の変化に影響を受けやすく、たとえば横顔の視点の場合には、もはや顔が所定の形状による特徴を示さない場合がある。
【0008】
米国特許第6,263,113号では、別の顔検出方法が提示される。最初に、皮膚画素を特定するために、画像内の画素の値をYUV色空間内の範囲と比較することにより、色フィルタリングが実行される。この過程は、皮膚および背景エリアの両方を含む場合がある連続した皮膚に類似のエリアを生成し、これらのエリアを断片化するために、エッジ検出および除去が、1組のヒューリスティックルールに基づいて断片化されたエリアが顔のように見えるまで実行される。また、顔は多数の皮膚状の断片によって表される場合もあるので、1組のヒューリステックルールに基づいてさらに顔のようなエリアを特定するために、グラフに基づいてエリア合成も実行される。最後に、誤って顔とされた断片の数を低減するためにさらに別のルールが適用される。この方法の短所は、用いられるヒューリスティックルールが、顔の最大サイズおよび顔が縦向きであることのような、顔の形状に関する推測的な仮定を行うことである。
【0009】
色に基づく皮膚検出によらない他の顔検出方法が提案されている。米国特許第5,280,530号において提示される方法によれば、物体の検出および追跡が、グレースケール画像における大域および局所テンプレートマッチングと、動的に適応するテンプレートを用いることにより行われる。この方法の短所は、顔検出および追跡に成功するために、初期のテンプレートを形成するために追跡されることになる人の協力を必要とすることである。
【0010】
米国特許第4,975,960号では、顔検出および追跡が、グレースケール画像内の鼻孔の検出および追跡を通して達成される。この方法は、適当なカメラの位置決めを含む、自動化された音声認識という最終目標とともに提示されるが、カメラの距離または視点に起因して、鼻孔が明瞭に視認できない場合には適用できないであろう。
【0011】
米国特許第6,028,960号では、鼻孔検出と、色情報を用いることに基づく顔検出および追跡のための方法が提示される。上記の米国特許第4,975,960号の短所がこの方法にも当てはまる。
【0012】
Margaret. M. Fleck等による「Finding Naked People」というタイトルの論文は、元の色値を対数色空間に変換し、その値を皮膚フィルタに入力し、さらにテクスチャ探索アルゴリズムを用いることにより、画像内の皮膚を探索するためのシステムを記載する。検出された皮膚が、その画像のある特定の割合よりも大きな領域を占める場合には、形状解析が実行され、その皮膚領域が体の一部の特徴を示すか否かが確認される。対数色空間による手法は皮膚抽出の場合に適正に動作するが、テクスチャ解析は計算にコストがかかり、そのためリアルタイムの応用形態には特に適していない。
【0013】
Soriano等による論文「Skin detection in video under changing illumination conditions」は、皮膚モデルヒストグラムを利用し、そのヒストグラムの値を画素値に割り当て、その後、閾値判定を行うことを開示する。
【0014】
応用形態によっては、フレーム間で顔領域を追跡することが望ましい場合もある。これは、画像内にいくつかの顔領域あるいは皮膚色領域が存在する場合に困難である可能性がある。また、上記の本出願人による同時係属の英国特許出願第2357650号の場合のように、顔領域が選択的な符号化および表示のようにさらに別の処理のために抽出されることになる場合のようなある特定の応用形態では、皮膚領域の正確な位置およびサイズを求めることも重要である。
【0015】
【発明が解決しようとする課題】
本発明の目的は、画像あるいは一連の画像内の1つあるいは複数の色領域を検出するかつ/または追跡するための方法および装置を提供することである。
【0016】
【課題を解決するための手段】
本発明の態様は添付の請求の範囲に詳述される。
【0017】
【課題を解決するための手段】
たとえば、本発明は、ある画像内の所定の色特性を有する少なくとも1つの領域を検出する方法を提供し、その方法は、
その画像内の画素の色値を第1の色空間から第2の色空間に変換することと、
第2の色空間内の色値を用いて、画素と所定の色特性との間の一致を表す確率値を求めることであって、その確率値は多数の値にわたって変動する、該求めることと、
その確率値を用いて、所定の色特性に少なくとも近い画素を特定することと、
所定の色特性に少なくとも近い連結された画素を特定し、前記連結された画素を、特定された画素から構成される1以上のグループにグループ分けすることと、
グループサイズおよび/またはグループ位置、あるいはパワー、すなわちそのグループ内の画素のための確率の和のような、各グループについての情報を抽出することとを含む。
【0018】
画素のグループ化および/またはグループについての情報の抽出は、多数の異なる確率値を用いることを含む。言い換えると、たとえば、確率値の閾値判定および二値化を用いることなく、グループ化あるいはグループ情報の導出のいずれかにおいて、画像のマルチレベル確率マップが用いられる。これにより、その性能を大きく改善することができる。
【0019】
以下の説明では、本明細書において用語「画素」が参照される場合に、それは必ずしも各事象において同じ画素を意味するとは限らない。たとえば、用語「画素」は、状況に応じて、元の画像内の画素を指す場合があるか、元の画像をダウンサンプリングまたは平均することから導出される画素を指す場合があるか、あるいは画素のブロックを指す場合がある。
【0020】
本発明の結果として、顔領域のような特定の色領域がそのサイズおよび/または位置についての情報とともに特定され、たとえば、特に同時に追跡されている、いくつかの顔のようないくつかの領域が存在するときに、顔領域の追跡、抽出および相関をより簡単に、しかもより正確に行うことができる。また本発明は、顔領域上の「ズーミング」のような機能を簡単に行うことができる。
【0021】
その画像処理は、処理の複雑さを軽減し、その方法を移動体装置のような小型のシステムにさらに適合させるために、ダウンサンプリングフェーズあるいは簡単なセグメンテーションプロセスを含むことが好ましい。
【0022】
色領域の特定は、取得された画像を第1の色空間から第2の色空間に変換することと、色フィルタリングステージにおいて色モデルと比較することとを含むことが好ましい。フィルタリングステージは、ある較正方法を用いて、撮影された人の皮膚色のような個々の色分布に対して調整できることが好ましい。これにより、その方法は、たとえば皮膚に対する木のような、類似の色の画像内の他の領域に対して誤りが生じにくくなる。用いられる第2の色空間は、求められる色あるいは色分布を改善することができるように選択される。
【0023】
【発明の実施の形態】
本発明の実施形態が、添付の図面を参照しながら記載されるであろう。
【0024】
本発明の応用形態の一例は移動テレビ電話通信システムである。そのようなシステムの構成要素が図1にブロック図の形で示される。一般的に言うと、そのシステムは本出願人による同時係属の英国特許出願第2357650号に記載されるようなシステムであり、一連の取得された画像内の顔領域を抽出かつ追跡し、受信機において表示するためにその顔領域のみを符号化し、送信する。
【0025】
移動電話(図示せず)はユーザの画像を取得するためのカメラ2を含む。カメラ2は、移動テレビ電話において用いるための既知のタイプのカメラであり、電話器のハンドセットの一部である。別の実施形態では、カメラは、たとえばリード線によって、あるいは無線通信によって電話器のハンドセットに接続される個別の構成要素である。この実施形態では、カメラはCIF解像度(352×288画素)で画像をデジタル化する。
【0026】
そのカメラは、取得された画像を表す、カメラ2から受信された信号を処理するためのシグナルプロセッサ4に接続される。シグナルプロセッサ4は、図2にさらに詳細に示される。シグナルプロセッサは、取得された画像内の顔あるいは頭のサイズおよび位置を検出するための顔検出モジュール16と、顔が画像内で動くのに応じてその顔を追跡するための顔追跡モジュール18と、画像の特定の領域を選択するためのフレーム領域選択モジュール20と、顔領域抽出モジュール22とを含む。顔検出モジュールおよび顔追跡モジュールは、以下にさらに詳細に記載される。シグナルプロセッサ4は、顔領域を含む画像内の所望の領域を選択し、かつ抽出するように動作し、それが以下にさらに詳細に記載される。
【0027】
シグナルプロセッサ4の出力は、画像信号の抽出された領域を表す信号を符号化するための符号器6に接続される。符号器は、符号化された信号を既知の態様で送信するための送信機8に接続される。
【0028】
そのシステムの受信側は、第2の移動電話(図示せず)の形態の受信端末である。第2の移動電話は、送信された信号を受信するための受信機10と、受信された信号を復号化するために受信機に接続される復号器12と、受信された画像をQCIF形式で表示するための表示装置14とを含む。
【0029】
図には示されないが、第1の移動電話も受信端末の構成要素に対応する構成要素、すなわち受信器、復号器および表示装置を含み、第2の移動電話も第1の移動電話の場合のようなカメラ、シグナルプロセッサ、符号器および送信機を含む。
【0030】
動作時に、カメラ2によって画像が取得され、結果として生成された信号がシグナルプロセッサ4に入力される。その画像は顔検出モジュール16によって解析され、その画像内の顔の位置およびサイズのような情報が求められる。
【0031】
そのような情報は顔検出モジュール16から顔追跡モジュール18およびフレーム領域選択モジュール20に入力され、フレーム領域選択モジュール20は、顔検出モジュール16および顔追跡モジュール18の両方からの情報を用いて、主要な画像から選択されることになるウインドウのサイズおよび位置を求める。この実施形態では、フレーム領域選択モジュール20は、顔を中心とした所定のサイズのウインドウを選択するように構成される。より具体的には、領域選択モジュールは、表示装置と同じ解像度を有するウインドウを選択する。したがって、この場合には、領域選択モジュールは、顔領域を中心にして176×144画素のサイズの領域を選択するように構成される。その中心は、任意の適当な態様で定義され、求められることができる。この実施形態では、顔の中心は肌領域の重心である。
【0032】
顔領域抽出モジュール22は、カメラからの信号および領域選択回路からの信号を受信し、カメラの画像から顔領域を含むウインドウを抽出する。その後、抽出されたウインドウは、ある適当な既知の符号化方法を用いて符号化するために、標準的なQCIFビデオコーダ6に転送される。画像の残りの部分は破棄される。これらのステップは、取得されたビデオ画像のフレーム毎に実行される。
【0033】
符号化された信号は送信され、受信端末によって受信および復号化されて、受信端末において、QCIF形式で顔の画像が表示される。領域の中央に顔を有し、QCIF解像度を有する、取得された画像の領域を選択するプロセスに起因して、表示される画像は中央に顔を有しており、表示装置のための正確な解像度を有する。また顔は、取得された画像内よりも、より大きな部分の画像として表示され、より解像度が高い印象を与える。符号化されたデータは第2の移動電話に送信され、顔領域を含むウインドウが受信され、復号化され、表示される。
【0034】
本発明は主に、顔検出モジュール16および顔追跡モジュール18に関連し、ここでそれがさらに詳細に記載されるであろう。
【0035】
最初に顔検出モジュール16の動作が記載されるであろう。この実施形態では、そのモジュールは、メモリ(図示せず)に接続される、固有にプログラミングされたプロセッサとして実装されるが、他の実装形態も実現可能である。その動作方法は、図3および図4の流れ図を参照しながら記載されるであろう。
【0036】
ある画像フレームがカメラ2によって取得され、RGB形式で顔検出モジュール16に送信される(ステップ100)。次のステップ、すなわちステップ110として、その画像フレームは、処理の複雑さを軽減するためにダウンサンプリングされる。これは、顔検出および顔追跡の処理の実行時の複雑さが、処理される画素の数に直に関連するためである。リアルタイムシステム、および移動電話のような移動体技術を含む数多くの応用形態では、あまり複雑にしないことが特に望ましい。しかしながら、複雑さがクリティカルではない場合には、ダウンサンプリングステージは省略される場合がある。そのような場合には、用語「ダウンサンプリングされた画像」は元の画像を指しており、すなわち1倍でダウンサンプリングすることを意味する。さらに、必ずしもそうではないが、ダウンサンプリングステップは画像の処理の初期段階で実行されることが好ましいことは理解されたい。この方法の他の実施形態では、ダウンサンプリングステップは、画像の処理の後続の時点で実行される場合があるが、これは、画像の処理の複雑さを軽減する際には逆効果の場合がある。
【0037】
画像のサイズを低減するために種々のダウンサンプリング方法が存在する。ダウンサンプリングの例には、限定はしないが、ブロック平均化、インターリーブ平均化、内部ブロック平均化およびランダム画素平均化が含まれる。それらの各例では、最初にフレームが、8×8、16×16あるいは32×32画素のような所定の画素のブロックに分割される。その後、各ブロック内の画素値のうちのいくつかあるいは全てが平均化される。その描画した例が図5(a)〜図5(e)に示される。ここでは、陰影をつけた画素は、平均化される画素を示す。各ブロックに対するブロック平均化の場合(図5(a)を参照されたい)、ブロック内の各画素の色値が合計され、ブロック内の画素の数で割ることにより、そのブロックのための平均値が生成される。インターリーブ平均化の場合(図5(b)および図5(c)を参照されたい)、1つおきの行あるいは列内の画素が平均化される。内部ブロック平均化の場合(図5(d)を参照されたい)、より大きなブロック内のより小さなブロック、たとえば32×32ブロック内の16×16ブロックが平均化される。ランダム画素平均化の場合(図5(e)を参照されたい)、そのブロックのランダムに選択された所定の数の画素が平均化される。別法では、画像のダウンサンプリングが、平均画素値ではなく、中央画素値を計算することにより、先に記載されたように達成される場合もある。
【0038】
次に、顔検出モジュール16は、その色値を、画像が取得された色空間から、皮膚色を検出する際に良好な結果を与えるとともに、画像が取得された皮膚の色調および照明条件の変動に対して影響を受けにくいために選択された第2の色空間に投影することにより、ダウンサンプリングされた画像を処理する。
【0039】
この実施形態における好ましい第2の色空間は対数RGB色空間である。RGBから対数RGBへの変換式は以下の通りである。
1=log(Green+1)
2=log(Red+1)−log(Green+1)
3=log(Blue+1)−(log(Green+1)+log(Red+1))/2
【0040】
本発明では、皮膚の色調が青色をほとんど含まないので、L3成分は用いられない。第2の色空間として用いられる際に良好な結果を生み出す他の色空間は、正規化されたRGB色空間およびHSL色空間を含む。
【0041】
こうして、ステップ120では、ダウンサンプリングされた画像内の画素のRGB値が、上記の式を用いてL1およびL2値に変換される。以下の説明では、この第2の色空間はLogRG空間として記載されるであろう。その後、LogRG空間内の色値は皮膚領域抽出モジュール130に供給され、その第1のステップは、各画素の場合に、それが皮膚領域に属する確率を求めるために、LogRG皮膚確率モデル上にそれらを投影することである。その皮膚領域抽出モジュール130の内部アーキテクチャが図4に示されており、ここでより詳細に検討されるであろう。
【0042】
上記のLogRG皮膚確率モデルは、顔検出モジュール内のメモリに格納され、LogRG空間内の値が皮膚色に対応する確率を含む。皮膚確率モデルは、可能な限り大きな範囲の皮膚の色調を網羅し、可能な限り広い照明条件下で、大きな1組のトレーニング皮膚領域を得ることにより作成される。皮膚領域内の各画素値はLogRG空間内の値に変換され、各LogRG値の事象の数をカウントすることにより、LogRG空間内にヒストグラムが構築される。このヒストグラムの値は、所与の範囲、たとえば0〜1に標準化されることが好ましい。また、そのヒストグラムは、平滑化し、高い周波数成分を除去するために、たとえばメジアンフィルタあるいは平均フィルタでフィルタリングされることが好ましい。また、この実施形態では、LogRG皮膚確率モデルを生成するために、LogRGヒストグラム全体のうちの比較的少数の関連する部分のみが保持されており、この部分に属さない値は最も低い皮膚確率値、たとえば0を自動的に取得し、それによりその実施態様の複雑さおよび記憶要件を低減している。オプションとして、他の実施形態では、皮膚確率モデルを作成するために、必要に応じて、LogRG空間の多数の部分が保持される場合もある。このようにして導出されるLogRG皮膚確率モデルは、LogRG色値が皮膚領域に対応する確率を指示する。LogRG皮膚確率モデルの一例が図6(a)および図6(b)に示される。x軸およびy軸上の点はLogRG空間内の点に対応し、z軸上の点は皮膚確率に対応する。所与のLogRG点に対するz軸値が高くなるのに応じて、その特定の色が皮膚色であるという確率が高くなる。
【0043】
こうして、図4のステップ150では、ダウンサンプリングされた画像内の各画素の場合に、画素値が皮膚色に対応する確率を指示する値を得るために、LogRG値が皮膚確率モデル上に投影される。ダウンサンプリングされた画像の全ての画素に対するこの処理の結果は皮膚確率マップとして知られる。皮膚確率マップの一例が図7に示される。各画素の色調は、それが皮膚色に対応する確率を表しており、画像が薄くなるほど確率が高くなる。明瞭にするために、図7はいくつかの色調値のみを示すが、通常はさらに多くの値が存在するであろう。後続のフィルタリングおよびグループ化とともに、単なる二値の皮膚/非皮膚マップによる代わりにマルチレベル皮膚確率マップを用いることにより、システムの性能が大幅に改善される。
【0044】
LogRG皮膚確率モデルは、ある特定のユーザに対して較正されることができる。たとえば、第1の移動電話のユーザは、そのユーザの皮膚色に適合し、性能を改善するように、皮膚確率モデルを較正することができる。これは、システムを較正モードにすることにより行うことができる。その後、ユーザはカメラ2の焦点を皮膚領域のみに合わせるか、あるいは取得された画像から皮膚領域を手動で抽出し、プロセッサ4が新たなLogRG皮膚確率モデルを生成する。その後、たとえば、平均化あるいは重み付け平均化することにより、以前のモデルが新たなモデルと合成され、以前のモデルに対して新たなモデルの重要度が調整される。別法では、ユーザから取得されたモデルをそのまま用いることができる。
【0045】
その方法の次のステップは、平滑化のための皮膚確率マップのフィルタリングであることが好ましい。このステップ、すなわち図4のステップ160は、特に、大きな値によって元のフレームがダウンサンプリングされ、粗い皮膚確率マップが生成される場合があるときに望ましい。このフィルタリングは平均あるいはメジアンフィルタのようなフィルタを用いることにより達成されることができ、それにより各画素の所与のサイズの近傍、たとえば3×3が検査され、中央の画素が、それぞれ近傍内の全ての画素の平均値あるいは中央値によって置き換えられる。このステップの結果は、平滑化された皮膚確率マップと呼ばれるであろう。一例として、図7の皮膚確率マップにおいて3×3の近傍をマスクする平均フィルタリングの結果が図8に示される。
【0046】
平滑化された皮膚確率マップはさらに処理を行うために保持されるが、このマップは、低い皮膚確率を有する皮膚画素を排除し、その方法における後続の処理を容易にするために、二値皮膚確率マップを生成するための閾値判定において用いられる。言い換えると、ステップ170において、平滑化された皮膚確率マップ内の各画素の値が、固定された閾値、たとえば0.25と比較される。その値がその閾値よりも小さい場合には、その画素は最小皮膚確率値、たとえば0を割り当てられ、そうでない場合には、最大皮膚確率値、たとえば1を割り当てられる。一例として、図8の平滑化された皮膚確率マップ上で実行され、上記の閾値を用いるこのステップの結果が図9に示される。
【0047】
次のステップ、すなわちステップ180は、ノイズ、すなわち孤立した皮膚画素の小領域を排除するための二値皮膚確率マップの空間フィルタリングである。このフィルタリングは、他の画素に対するその配置に照らして、皮膚画素を非皮膚画素に、および/または非皮膚画素を皮膚画素に変換することを含む。この例では、このフィルタリングは、その8つの隣接する画素の中で4つ未満の皮膚画素を有する、確率マップ内の全ての皮膚画素を非皮膚画素に変換し、その8つの隣接する画素の中で8つの皮膚画素を有する全ての非皮膚画素を皮膚画素に変換することにより実行される。その方法の他の実施形態では、異なる値が用いられる場合がある。この処理の結果は、フィルタリングされた二値皮膚確率マップと呼ばれるであろう。一例として、図9の二値皮膚確率マップ上でのこのフィルタリング処理の結果が図10に示される。
【0048】
フィルタリングされた二値皮膚確率マップは、皮膚領域の連結された画素の1つあるいは複数のグループを含む場合がある。次のステップ、すなわち図4のステップ190は連結成分解析、すなわちフィルタリングされた二値皮膚確率マップ内の皮膚画素にラベルを付し、グループ化することを含む。その実施形態では、これは、画素を左上から右下に解析することにより行われる。各皮膚画素はグループ番号を付される。ある皮膚画素が、あるグループ番号を有する皮膚画素に隣接する場合には、その皮膚画素は同じグループ番号を付与される。その皮膚画素があるグループ番号を有する2つ以上の皮膚画素に隣接する場合には、その皮膚画素はこれらのグループ番号のうちの最も小さな番号を取得し、他の皮膚画素も最も小さなグループ番号を取得する。これは第2の解析において行われる場合がある。この処理の結果は、皮膚領域マップと呼ばれるであろう。この処理の一例として、図11(a)は、図10のフィルタリングされた二値皮膚確率マップ上での第1の解析の結果を示しており、結果として3つのグループが存在し、それは番号1〜3によって特定される。その後、図11(b)は図11のマップ上での第2の解析の結果を示しており、2つの隣接するグループが合成される。
【0049】
次のステップ、すなわち図3のステップ140では、各皮膚領域の場合に、ある特定の統計値が計算される。これは、フィルタリングされたマルチレベル皮膚確率マップとともに皮膚領域マップを用いることにより達成される。より具体的には、前者が種々の皮膚領域と、その構成要素である皮膚画素の位置とを指示し、後者はその皮膚画素の皮膚確率を指示する。この実施形態では、両方のマップを用いることにより、各皮膚領域の場合に計算される統計値は、これ以降、その領域の「パワー」と呼ばれることになる、その領域の構成要素の画素の皮膚確率の和と、その領域のパワーを用いて計算されるその領域の重心と、その領域の幅および高さである。最後の2つの値に基づいて、皮膚領域の境界も特定され、各皮膚領域のためのバウンディングボックスが計算される。他の枠形状および/またはパラメータを計算することもできる。一例として、図12は、図11(b)の各領域の場合のバウンディングボックスと、十字によって特定される重心とを示しており、以下の表は格納される領域情報である。
【0050】
【表1】
Figure 0004335565
【0051】
別法では、統計値の計算が、二値皮膚領域マップのみを用いて実行される場合もある。しかしながら、この手法は、皮膚画素の種々の皮膚確率を考慮に入れ損なうことになり、結果として最適下限の性能になる場合がある。単なる二値皮膚/非皮膚マップによる代わりに、マルチレベルの皮膚確率マップを用いる結果としてシステム性能が改善される。
【0052】
さらに、皮膚領域の特定は、閾値判定および二値化を用いることなく、マルチレベル皮膚確率マップのみに基づいて、すなわちマルチレベルマップの適当な空間フィルタリングおよび連結成分解析を通して達成される場合もある。この手法は、システムの性能をさらに改善する可能性を有するが、計算のコストが高くなる。
【0053】
上記のステップの結果として、皮膚である可能性が最も高い画像内の領域が特定される。その後、それらの画素領域の統計値が、上記のように抽出され、格納される。この実施形態は、移動電話のユーザの顔領域を抽出および追跡することに関連するので、次のステップとして、一連のフレーム内の第1のフレームに対して、最も大きなパワーを有する皮膚領域が顔領域として選択される。別法では、その画像の中央部に最も近い皮膚領域を顔領域として選択することができるか、あるいはユーザが対象の顔領域である皮膚領域を手動で選択することもできる。他の応用形態では、皮膚領域のうちの2つ以上の領域が選択される場合もある。
【0054】
顔検出モジュールの出力は顔追跡モジュール18に接続される。顔追跡モジュールは、フレーム毎の皮膚領域についての情報(パワー、重心、バウンディングボックス)を受信し、格納する。追跡モジュールはこの情報を用いて、現在のフレーム内の各領域を先行するフレーム内の顔領域に一致させようと試みる。この実施形態では、この照合は、最小空間距離ルールに基づいて実行され、その場合に空間距離は以下に詳述されるように最大軸距離として定義される。異なる実施形態では、ユークリッド距離のような他の距離指標を用いることができる。以下の式では、(x1,y1)は以前のフレーム内の顔領域の重心を示し、(x2,y2)は現在のフレーム内の皮膚領域の重心を示す。
dx=|x2−x1
dy=|y2−y1
最大軸距離=max(dx,dy)
【0055】
現在のフレームの顔領域が、そのフレームのための皮膚領域の中で最も高いパワーを持たない場合には、ヒステリシス切替え機能が起動される。選択された領域が11フレーム以上にわたって最も高いパワーを持たない場合には、追跡が最も高いパワーの領域に切り替えられる。このヒステリシス機能は皮膚領域間の切替えを安定させ、類似の領域間のちらつきを防ぐ。
【0056】
追跡中に、顔の平均位置が多数のフレームにわたって計算される場合があり、この平均位置は、追跡される顔を表示するために用いることができる。この平均化において用いられるフレームの数は所定の限度内でユーザによって制御され、ユーザが追跡の円滑さおよび速度に影響を及ぼすことができるようになる。オプションでは、追跡される顔の位置が平均位置から所定の変位閾値よりも大きく移動するとき、この平均化はリセットされる。
【0057】
カメラは自動ズーム機能を含む場合があり、その機能によってズームが調整され、追跡される顔領域の寸法が概ね一定に保持されるようになる。ちらつきを避けるために、ズーム機能はヒステリシス機能を含む場合があり、それにより顔領域の寸法の大きな変化が、ある一定の数のフレームにわたって保持される場合にのみズームが調整される。
【0058】
追跡のヒステリシス、追跡の速度および円滑さのユーザ制御による調整および自動ズーミングのような、記載される実施形態の態様は、本発明の独立の態様であるとみなすことができる。
【0059】
上記の実施形態では、本発明は移動テレビ電話の内容に沿って記載されてきた。しかしながら、本発明は、セキュリティシステムおよびテレビ会議システムのような皮膚領域の検出に関連する他の応用形態において用いることができる。たとえば、本発明はセキュリティシステムにおいて用いることができ、その場合には、ビルディングの周囲において個人がリアルタイムに特定され、追跡される人認識システムの一部として、1つあるいは複数の顔が同時に追跡される。別の例として、本発明はテレビ会議システムにおいて実装されることができ、その場合には、数人の顔が確認され、顔の順序が一致するように数フレームにわたって正確に追跡される。たとえば、視野内に3人の顔が存在し、各顔が1つのボタンに割り当てられ、視認者が異なる顔を切り替えられるようにする場合がある。顔間の正確な相関が追跡しながら保持され、顔の順序を一致させておかなければならない。そうでなければ、たとえば、顔3が選択されるとき、その特定の選択と以前に関連付けられたものとは同じ顔でない場合がある。
【0060】
その実施形態は皮膚色領域を検出することに関連するが、本発明は、任意の所定の色あるいは色分布の領域を検出するために用いることができる。
【0061】
上記の実施形態は、移動テレビ電話通信に関連して記載されてきた。本発明は、テレビ会議、およびパーソナルコンピュータに接続されるカメラからのビデオ画像の伝送のような他の応用形態において用いることもできる。その実施形態は、対象物として話者の顔を含むある領域を選択することを記載するが、本発明は、任意の他の対象物に関連して適用されることができる。本発明はCIFおよびQCIFを用いて記載されてきたが、他の形式が用いられる場合もある。ある特定の形式を参照すると、それらの形式の回転のような変更が含まれる。たとえば、QCIF形式は高さよりも幅が大きい(紙上に印刷する際の「横長書式」に類似)。人の顔の場合には、90°だけ回転させたQCIF形式、すなわち幅よりも高さが大きいQCIF形式(「縦長書式」に類似)が好ましく、結果として、顔は選択された領域のうちのより大きな割合を占め、選択された領域のうちの重要度の低い部分は狭い空間が割り当てられるようになる。選択するかつ/または表示される領域が特定の既知の形式に従わない場合であっても、対象物の性質、特に形状に関連して選択するかつ/または表示される領域を選択する際に、同じような配慮がなされる。
【0062】
その実施形態では、画像が第1の色空間としてRGB形式で取得され、第2の異なる色空間としてLogRG色空間に変換される。しかしながら、画像取得の場合に、さらに第2の色空間として他の色空間を用いることもできる。たとえば、YIQ、YUV、RGB、HSI、対数のような任意の色形式を用いることができる。しかしながら、第2の色空間は、求められる色領域に適合し、かつ強めるように選択されることが好ましいであろう。上記の説明のように、HSI、有彩色空間および対数色空間が特に皮膚領域の場合に最適である。
【0063】
【発明の効果】
本発明によれば、画像あるいは一連の画像内の1つあるいは複数の色領域を検出および/または追跡するための方法および装置を実現することができる。
【図面の簡単な説明】
【図1】 移動体映像通信システムのブロック図である。
【図2】 図1の画像処理回路をさらに詳細に示すブロック図である。
【図3】 本発明の一実施形態による方法の流れ図である。
【図4】 図3の皮膚領域抽出ステップをさらに詳細に示す流れ図である。
【図5】 (a)ないし(e)よりなり、それぞれ画像をダウンサンプリングする方法を示す図である。
【図6】 (a)および(b)よりなり、それぞれLogRG皮膚確率モデルの例を示す図である。
【図7】 マルチレベル皮膚確率マップの一例を示す図である。
【図8】 フィルタリング後の図7のマルチレベル皮膚確率マップを示す図である。
【図9】 二値化後の図8のフィルタリングされたマップを示す図である。
【図10】 フィルタリング後の図9の二値マップを示す図である。
【図11】 (a)および(b)よりなり、それぞれ皮膚領域マップを作成するために図10の二値マップにおいて行われる連結成分解析の一例を示す図である。
【図12】 皮膚領域重心およびバウンディングボックスとともに図8の皮膚確率マップを示す図である。
【符号の説明】
2 カメラ、4 シグナルプロセッサ、6 符号器、8 送信機、10 受信機、12 復号器、14 表示装置、16 顔検出モジュール、18 顔追跡モジュール、20 フレーム領域選択モジュール、22 顔領域抽出モジュール。

Claims (36)

  1. ある画像内の所定の色特性を有する少なくとも1つの領域を検出する方法であって、
    前記画像内の画素の色値を第1の色空間から第2の色空間に変換することと、
    該第2の色空間内の前記色値を用いて、画素と前記所定の色特性との間の一致を表し、多数の値にわたって変動する確率値を求めることと、
    前記確率値を用いて、前記所定の色特性に少なくとも近い画素を特定することと、
    前記所定の色特性に少なくとも近い連結された画素を特定し、前記連結された画素を、特定された画素から構成される1以上のグループにグループ分けすることと、
    各グループについての情報を抽出することとを含み、
    前記画素は前記多数の確率値にそれぞれ従って重み付けされ、その重み付けは、前記画素をグループ化する際に、かつ/または、1つのグループについての情報を抽出する際に用いられる方法。
  2. 前記抽出される情報は、1つのグループ内の画素の確率値の和に基づくパワーと、グループエリアと、グループサイズと、グループ位置と、グループ重心と、グループ幅と、グループ高と、グループ境界と、グループバウンディングボックス幅と、グループバウンディングボックス高とのうちの1つあるいは複数を含む請求項1に記載の方法。
  3. 画像の処理中の任意のステージにおいて前記画像をダウンサンプリングすることを含む請求項1もしくは2に記載の方法。
  4. 前記第2の色空間は前記所定の色特性を強め、照明の変化に対して影響を受けにくくする請求項1ないし3のいずれか1項に記載の方法。
  5. 前記第1の色空間は線形な色空間であり、前記第2の色空間は非線形な色空間である請求項1ないし4のいずれか1項に記載の方法。
  6. 前記第2の色空間は対数色空間である請求項1ないし5のいずれか1項に記載の方法。
  7. 1つの画素が前記所定の色特性を有する確率を、前記画素の色値を所定の確率モデルに投影することにより求めることを含み、前記モデルは求められる色特性のヒストグラム全体あるいは該ヒストグラムのうちの1つあるいは複数の領域を含む請求項1ないし6のいずれか1項に記載の方法。
  8. 前記確率モデルは、ユーザによって選択されるサンプル色領域を用いて、既存の確率モデルを置き換えるか、該既存の確率モデルと合成するかのいずれかによって、任意の回数だけ較正される請求項7に記載の方法。
  9. 前記画像内の最も中央に位置し、かつ/または最も高い確率の和を有するグループが表示するために選択される請求項1ないし8のいずれか1項に記載の方法。
  10. 前記画像は一連の画像内にあり、前記所定の色特性を有する画素の少なくとも1つのグループが前記一連の画像内のいくつかの画像において求められる請求項1ないし9のいずれか1項に記載の方法。
  11. 前記画素グループは、前記一連の画像を通して追跡され、かつ/または表示される請求項10に記載の方法。
  12. 種々の画像間の画素グループが、距離および/またはサイズ関数を用いて照合される請求項10もしくは11に記載の方法。
  13. 追跡されるグループの動きが、所定のフレーム数にわたって平均されて、平均位置が生成される請求項10ないし12のいずれか1項に記載の方法。
  14. 前記動きを平均するために用いられるフレーム数は、所定の限度内でユーザによって求められることができる請求項13に記載の方法。
  15. あるグループが所定の限度よりも大きな動きを有する場合に、前記グループのための平均化がリセットされる請求項13もしくは14に記載の方法。
  16. 追跡される各グループは識別タグを割り当てられ、前記追跡されるグループを反復使用するすなわち選択できるようにする請求項10ないし15のいずれか1項に記載の方法。
  17. 追跡するかつ/または表示するための前記グループをユーザが選択する請求項10ないし16のいずれか1項に記載の方法。
  18. 前記画像内の最も中央に位置し、かつ/または最も高い確率の和を有するグループが追跡および/または表示するために選択される請求項10ないし16のいずれか1項に記載の方法。
  19. 前記追跡されるグループが所定の数の連続した画像に対して前記最も高い確率の和を持たないとき、前記追跡および/または表示されるグループは前記最も高い確率の和を有するグループに切り替わる請求項18に記載の方法。
  20. 前記色特性は人間の皮膚の色調に対応する請求項1ないし19のいずれか1項に記載の方法。
  21. 前記領域は人間の顔である請求項1ないし20のいずれか1項に記載の方法。
  22. 前記領域は人間の手である請求項1ないし20のいずれか1項に記載の方法。
  23. 前記確率モデルは対象の画像の領域を抽出することにより較正される請求項7あるいは請求項7に従属する請求項のいずれか1項に記載の方法。
  24. 前記画像内の画素の前記グループのエリアに基づいてズーミングが実行される請求項1ないし23のいずれか1項に記載の方法。
  25. 1組の離散したズームレベルが存在する請求項24に記載の方法。
  26. 時間ヒステリシス関数を用いて、離散したズームレベル間の変化を平滑化することを含む請求項25に記載の方法。
  27. 画像取得手段を含む装置を動作させる方法であって、請求項1ないし26のいずれか1項に記載の方法を用いて、所定の色特性を有する前記取得された画像内の画素のグループを特定することを含む方法。
  28. さらに別の処理を行うために、前記画素のグループを含む1つあるいは複数の領域を抽出することを含む請求項27に記載の方法。
  29. 前記さらに別の処理は、画像表示手段上に表示することを含む請求項28に記載の方法。
  30. 前記装置は画像伝送システムである請求項27ないし29のいずれか1項に記載の方法。
  31. 請求項1ないし30のいずれか1項に記載の方法を実行するためのコンピュータプログラム。
  32. 請求項31に記載のコンピュータプログラムを格納するデータ記憶媒体。
  33. 請求項1ないし32のいずれか1項に記載の方法を実施するように構成される装置。
  34. データ記憶手段と画像データ処理手段とを含む請求項33に記載の装置。
  35. 請求項33もしくは34に記載の装置を含む通信システムのための送信機。
  36. 移動テレビ電話である請求項33ないし35のいずれか1項に記載の装置。
JP2003099347A 2002-04-08 2003-04-02 画像あるいは一連の画像内の1つあるいは複数の色領域を検出しかつ/または追跡するための方法および装置 Expired - Fee Related JP4335565B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP02252516A EP1353516A1 (en) 2002-04-08 2002-04-08 A method and apparatus for detecting and/or tracking one or more colour regions in an image or sequence of images
EP02252516.6 2002-04-08

Publications (2)

Publication Number Publication Date
JP2003346145A JP2003346145A (ja) 2003-12-05
JP4335565B2 true JP4335565B2 (ja) 2009-09-30

Family

ID=28051841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003099347A Expired - Fee Related JP4335565B2 (ja) 2002-04-08 2003-04-02 画像あるいは一連の画像内の1つあるいは複数の色領域を検出しかつ/または追跡するための方法および装置

Country Status (4)

Country Link
US (1) US7236629B2 (ja)
EP (1) EP1353516A1 (ja)
JP (1) JP4335565B2 (ja)
CN (1) CN100393106C (ja)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7397495B2 (en) * 2003-06-20 2008-07-08 Apple Inc. Video conferencing apparatus and method
US7559026B2 (en) * 2003-06-20 2009-07-07 Apple Inc. Video conferencing system having focus control
JP2005094741A (ja) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd 撮像装置及び画像合成方法
KR100682889B1 (ko) * 2003-08-29 2007-02-15 삼성전자주식회사 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
DE60330471D1 (de) 2003-12-09 2010-01-21 Mitsubishi Electric Corp Verfahren und Vorrichtung zum Trennen von Inhalten in Bildern
GB2409030A (en) 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
WO2005057908A1 (ja) 2003-12-11 2005-06-23 Fujitsu Limited 画像処理方法及びプログラム、並びに装置
GB2409028A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
US7126816B2 (en) * 2004-03-12 2006-10-24 Apple Computer, Inc. Camera latch
US7426296B2 (en) * 2004-03-18 2008-09-16 Sony Corporation Human skin tone detection in YCbCr space
US20060007318A1 (en) * 2004-07-09 2006-01-12 Omron Corporation Monitoring system center apparatus, monitoring-system-center program, and recording medium having recorded monitoring-system-center program
US20060007307A1 (en) * 2004-07-12 2006-01-12 Chao-Hung Chang Partial image saving system and method
NO321642B1 (no) * 2004-09-27 2006-06-12 Tandberg Telecom As Fremgangsmate for koding av bildeutsnitt
US8995715B2 (en) * 2010-10-26 2015-03-31 Fotonation Limited Face or other object detection including template matching
JP4822396B2 (ja) * 2005-03-29 2011-11-24 株式会社メガチップス 画像強調装置
US7689016B2 (en) * 2005-05-27 2010-03-30 Stoecker & Associates, A Subsidiary Of The Dermatology Center, Llc Automatic detection of critical dermoscopy features for malignant melanoma diagnosis
JP2006338377A (ja) * 2005-06-02 2006-12-14 Fujifilm Holdings Corp 画像補正方法および装置並びにプログラム
WO2007023425A2 (en) * 2005-08-26 2007-03-01 Koninklijke Philips Electronics N.V. Imaging camera processing unit and method
CN101317185B (zh) * 2005-10-05 2014-03-19 高通股份有限公司 基于视频传感器的自动关注区检测
US8208758B2 (en) 2005-10-05 2012-06-26 Qualcomm Incorporated Video sensor-based automatic region-of-interest detection
US8019170B2 (en) * 2005-10-05 2011-09-13 Qualcomm, Incorporated Video frame motion-based automatic region-of-interest detection
JP4882390B2 (ja) 2006-01-25 2012-02-22 富士ゼロックス株式会社 画像処理装置
US7821490B2 (en) * 2006-02-14 2010-10-26 Research In Motion Limited System and method for adjusting a backlight level for a display on an electronic device
JP4671354B2 (ja) * 2006-03-15 2011-04-13 株式会社リコー 画像圧縮装置および画像圧縮方法
US8031936B2 (en) * 2006-03-20 2011-10-04 Accenture Global Services Limited Image processing system for skin detection and localization
US10614294B1 (en) * 2006-06-16 2020-04-07 Videomining Corporation Method and system for measuring viewership of people for displayed object
TWI328201B (en) * 2006-10-30 2010-08-01 Ind Tech Res Inst Method and system for object detection in an image plane
US7986336B2 (en) * 2006-11-27 2011-07-26 Eastman Kodak Company Image capture apparatus with indicator
WO2008107002A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face searching and detection in a digital image acquisition device
US7983480B2 (en) * 2007-05-17 2011-07-19 Seiko Epson Corporation Two-level scanning for memory saving in image detection systems
US7952596B2 (en) * 2008-02-11 2011-05-31 Sony Ericsson Mobile Communications Ab Electronic devices that pan/zoom displayed sub-area within video frames in response to movement therein
CN101436252A (zh) * 2008-12-22 2009-05-20 北京中星微电子有限公司 一种车辆视频图像中车身颜色识别方法及系统
US8385638B2 (en) * 2009-01-05 2013-02-26 Apple Inc. Detecting skin tone in images
US8284232B2 (en) * 2009-01-30 2012-10-09 Hewlett-Packard Development Company, L.P. Equalization of video streams
JP2010205067A (ja) * 2009-03-04 2010-09-16 Fujifilm Corp 領域抽出装置、領域抽出方法及び領域抽出プログラム
CN102349289B (zh) * 2009-03-11 2015-04-22 惠普开发有限公司 视频信号的色空间匹配
US20130121565A1 (en) * 2009-05-28 2013-05-16 Jue Wang Method and Apparatus for Local Region Selection
US8525847B2 (en) * 2009-06-01 2013-09-03 Apple Inc. Enhancing images using known characteristics of image subjects
TWI397840B (zh) * 2009-07-23 2013-06-01 Ind Tech Res Inst 基於軌跡之控制方法及裝置
BR112012007380B1 (pt) 2009-10-02 2020-02-04 Nat Coatings Corporation sistema de cobertura a frio
JP2011186780A (ja) * 2010-03-09 2011-09-22 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US9053681B2 (en) 2010-07-07 2015-06-09 Fotonation Limited Real-time video frame pre-processing hardware
TW201224955A (en) * 2010-12-15 2012-06-16 Ind Tech Res Inst System and method for face detection using face region location and size predictions and computer program product thereof
EP2469450B1 (en) * 2010-12-24 2017-11-22 OCT Circuit Technologies International Limited Face detection
JP5766986B2 (ja) * 2011-03-16 2015-08-19 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US8736894B2 (en) * 2011-12-20 2014-05-27 Eastman Kodak Company Producing correction data for printer
KR101289087B1 (ko) * 2011-11-03 2013-08-07 인텔 코오퍼레이션 얼굴 검출 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
US8818030B2 (en) * 2011-12-13 2014-08-26 Xerox Corporation Post-processing a multi-spectral image for enhanced object identification
JP6212878B2 (ja) * 2013-02-21 2017-10-18 株式会社リコー 画像処理装置、画像処理システム及びプログラム
US9262690B2 (en) * 2013-08-27 2016-02-16 Htc Corporation Method and device for detecting glare pixels of image
GB2516512B (en) 2013-10-23 2015-10-14 Imagination Tech Ltd Face detection
JP2015180045A (ja) * 2014-02-26 2015-10-08 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
KR102207856B1 (ko) * 2014-05-14 2021-01-26 한국전자통신연구원 사용자의 손 영역을 검출하기 위한 사용자 손 검출 장치 및 그 동작 방법
US9928601B2 (en) 2014-12-01 2018-03-27 Modiface Inc. Automatic segmentation of hair in images
CN104506820A (zh) * 2015-01-06 2015-04-08 成都新舟锐视科技有限公司 一种多目标智能跟踪系统
CN104639914A (zh) * 2015-02-16 2015-05-20 国网安徽省电力公司铜陵供电公司 一种用于高压线绝缘子成像与污秽检测的装置及方法
JP6642970B2 (ja) * 2015-03-05 2020-02-12 キヤノン株式会社 注目領域検出装置、注目領域検出方法及びプログラム
CN105224917B (zh) * 2015-09-10 2019-06-21 成都品果科技有限公司 一种利用颜色空间创建肤色概率图的方法和系统
US9910633B2 (en) * 2016-05-11 2018-03-06 TCL Research America Inc. Scalable storage-loss optimized framework based method and system for color gamut mapping
CN106127738B (zh) * 2016-06-16 2018-12-11 上海荣盛生物药业有限公司 凝集试验判读方法
US10704262B2 (en) 2016-09-26 2020-07-07 U.S. Silica Company Self-cleaning cool roof system
CN109670383B (zh) * 2017-10-16 2021-01-29 杭州海康威视数字技术股份有限公司 视频遮蔽区域选取方法、装置、电子设备及系统
WO2019133980A1 (en) * 2017-12-30 2019-07-04 Wu Yecheng Backdrop color detection
CN108375586B (zh) * 2018-02-08 2020-12-15 湘潭大学 具有多个检测模式的缺陷检测装置及其方法
TWI719409B (zh) * 2019-02-23 2021-02-21 和碩聯合科技股份有限公司 追蹤系統及其方法
JP7354417B2 (ja) * 2019-08-16 2023-10-02 グーグル エルエルシー ビデオ通話用の顔ベースのフレームパッキング

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4975960A (en) 1985-06-03 1990-12-04 Petajan Eric D Electronic facial tracking and detection system and method and apparatus for automated speech recognition
GB9019538D0 (en) 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
JP3298072B2 (ja) 1992-07-10 2002-07-02 ソニー株式会社 ビデオカメラシステム
US5751926A (en) * 1992-12-23 1998-05-12 International Business Machines Corporation Function approximation using a centered cubic packing with tetragonal disphenoid extraction
US6028960A (en) 1996-09-20 2000-02-22 Lucent Technologies Inc. Face feature analysis for automatic lipreading and character animation
US6343141B1 (en) 1996-10-08 2002-01-29 Lucent Technologies Inc. Skin area detection for video image systems
US6151403A (en) * 1997-08-29 2000-11-21 Eastman Kodak Company Method for automatic detection of human eyes in digital images
US6148092A (en) * 1998-01-08 2000-11-14 Sharp Laboratories Of America, Inc System for detecting skin-tone regions within an image
US5995655A (en) * 1998-06-09 1999-11-30 Silicon Graphics, Inc. System and method for coding colors and storing compensation factors used in color space conversion
US6292575B1 (en) * 1998-07-20 2001-09-18 Lau Technologies Real-time facial recognition and verification system
US6263113B1 (en) 1998-12-11 2001-07-17 Philips Electronics North America Corp. Method for detecting a face in a digital image
US6434269B1 (en) * 1999-04-26 2002-08-13 Adobe Systems Incorporated Smart erasure brush
GB2357650A (en) 1999-12-23 2001-06-27 Mitsubishi Electric Inf Tech Method for tracking an area of interest in a video image, and for transmitting said area
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
KR20020031630A (ko) * 2000-10-20 2002-05-03 구자홍 칼라 왜곡 정보를 이용한 얼굴 영역 추출 방법
AUPR541801A0 (en) * 2001-06-01 2001-06-28 Canon Kabushiki Kaisha Face detection in colour images with complex background
US7082211B2 (en) * 2002-05-31 2006-07-25 Eastman Kodak Company Method and system for enhancing portrait images

Also Published As

Publication number Publication date
CN100393106C (zh) 2008-06-04
EP1353516A1 (en) 2003-10-15
JP2003346145A (ja) 2003-12-05
US20040017938A1 (en) 2004-01-29
US7236629B2 (en) 2007-06-26
CN1450796A (zh) 2003-10-22

Similar Documents

Publication Publication Date Title
JP4335565B2 (ja) 画像あるいは一連の画像内の1つあるいは複数の色領域を検出しかつ/または追跡するための方法および装置
CN107730445B (zh) 图像处理方法、装置、存储介质和电子设备
Chai et al. Face segmentation using skin-color map in videophone applications
CN107730444B (zh) 图像处理方法、装置、可读存储介质和计算机设备
Habili et al. Segmentation of the face and hands in sign language video sequences using color and motion cues
US7796822B2 (en) Foreground/background segmentation in digital images
EP1800259B1 (en) Image segmentation method and system
Qian et al. A robust real-time face tracking algorithm
CN107945135B (zh) 图像处理方法、装置、存储介质和电子设备
US8331715B2 (en) Digital image processing using face detection information
US8498446B2 (en) Method of improving orientation and color balance of digital images using face detection information
US20060203108A1 (en) Perfecting the optics within a digital image acquisition device using face detection
CN107993209B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
Shi et al. Automatic image quality improvement for videoconferencing
CN112232204B (zh) 基于红外图像的活体检测方法
CN112712569B (zh) 一种肤色检测方法、装置、移动终端和存储介质
JP2004310475A (ja) 画像処理装置、画像処理を行う携帯電話、および画像処理プログラム
CN112686965A (zh) 一种肤色检测方法、装置、移动终端和存储介质
Rahman et al. Real-time face-priority auto focus for digital and cell-phone cameras
CN112232205B (zh) 移动端cpu实时多功能人脸检测方法
CN114187166A (zh) 图像处理方法、智能终端及存储介质
CN112926367B (zh) 一种活体检测的设备及方法
KR100439377B1 (ko) 이동 통신 환경에서의 사람 영역 추출방법
CN112597911A (zh) 一种磨皮处理方法、装置、移动终端和存储介质
KR100438303B1 (ko) 객체 추출방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090302

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090305

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090402

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090526

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090625

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S631 Written request for registration of reclamation of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313631

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130703

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130703

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees