JP2004086891A - デジタル画像におけるオブジェクト検出方法 - Google Patents

デジタル画像におけるオブジェクト検出方法 Download PDF

Info

Publication number
JP2004086891A
JP2004086891A JP2003208099A JP2003208099A JP2004086891A JP 2004086891 A JP2004086891 A JP 2004086891A JP 2003208099 A JP2003208099 A JP 2003208099A JP 2003208099 A JP2003208099 A JP 2003208099A JP 2004086891 A JP2004086891 A JP 2004086891A
Authority
JP
Japan
Prior art keywords
eye
color
image
red
skin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003208099A
Other languages
English (en)
Inventor
Jiebo Luo
ジエボ ルオ
David J Crandall
デイヴィッド ジェイ クランダル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=31495313&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2004086891(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Publication of JP2004086891A publication Critical patent/JP2004086891A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30216Redeye defect

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】デジタル画像におけるオブジェクトのより高いオブジェクト検出率を達成することを目的とする。特に、赤目不良を有する顔の検出に際し、複数のセグメンテーションマップを利用することにより、入力デジタル画像におけるフェース領域のより正確な検出を行うことによって、より高いオブジェクト検出率を達成することができる。
【解決手段】非オブジェクト特定基準に従ってデジタル画像の第1セグメンテーションマップを生成するステップと、オブジェクト特定基準に従って前記デジタル画像の第2セグメンテーションマップを生成するステップと、前記第1及び第2セグメンテーションマップを利用することにより、前記デジタル画像におけるオブジェクトを検出するステップとにより上記課題を解決する。
【選択図】    図1

Description

【0001】
【発明の属する技術分野】
本発明は、デジタル画像処理に関し、特に、デジタル画像におけるオブジェクト検出方法に関する。
【0002】
【従来の技術】
フラッシュ閃光が画像の取り込みに使用されるとき、画像中の人の瞳は赤く写ることがある。これは、フラッシュ部からの光が瞳に入射し、その入射光が網膜において反射され、瞳から出射されることにより生じる現象である。光は部分的に網膜中の毛細血管に吸収されるので、撮像された画像において瞳は赤く写ってしまう。この現象は「赤目(redeye)」と呼ばれるものである。フラッシュ部がレンズ光軸に接近するほど、赤目になる確率は高くなる。従って、赤目は、フラッシュ部が一体化された小型カメラにより撮影された画像においてよく見られる。
【0003】
米国特許第5,432,863号(1995年7月11日出願のPaul J. Benati, Robert T. Gray, Patrick A. Cosgroveらによる”Automated Detection and Correction of Eye Color Defects Due to flash Illumination”)において、赤目の特徴を有する画像中のオブジェクトを検出するためのユーザ対話型検出方法が開示されている。開示された方法では、形状、色彩及び明るさに基づき、赤目画素の候補が自動的に検出される。この既知の赤目検出方法は良好に機能する一方で、ある欠点を有する。例えば、開示された方法では、その候補となる画素がきちんと顔の中にあるか、あるいは目の一部となっているかを決定することができない。
【0004】
米国特許第6,292,574号(2001年9月18日出願のJay S. Schildkraut, Robert T. Gray, Jiebo Luoらによる”Computer Program Product for Redeye Detection”)において、フラッシュ閃光による画像中の被写体の目の色の不具合を検出する方法が開示されている。この検出方法では、デジタル画像においてスキンカラー領域(skin colored region)が検出され、このスキンカラー領域から赤目不良となる特徴を有する画素群を検出し、検出された赤目不良の位置に基づきこの画素群の色を補正するというものである。この方法の欠点は、画像全体からフェイス領域(face region)を検出することができないということ、より詳細には、スキンカラー領域と別にフェイス領域を検出することができないという点である。
【0005】
【特許文献1】
米国特許第5,432,863号
【特許文献2】
米国特許第6,292,574号
【発明が解決しようとする課題】
上記問題点を解消するデジタル画像における赤目検出方法が必要とされる。
【0006】
本発明は、上記課題を鑑みてなされたものであって、赤目不良を有する顔の検出のため、複数のセグメンテーションマップを利用することにより、入力デジタル画像におけるフェイス領域の正確な検出を実行することができるオブジェクト検出方法の提供を目的とする。
【0007】
【課題を解決するための手段】
上記課題を解決するため、本発明によるデジタル画像におけるオブジェクト検出方法は、請求項1に記載されるように、非オブジェクト特定基準に従ってデジタル画像の第1セグメンテーションマップを生成するステップと、オブジェクト特定基準に従って前記デジタル画像の第2セグメンテーションマップを生成するステップと、前記第1及び第2セグメンテーションマップを利用することにより、前記デジタル画像におけるオブジェクトを検出するステップとからなることを特徴とする。
【0008】
また、本発明によるデジタル画像におけるオブジェクト検出方法は、請求項2に記載されるように、さらに、前記検出するステップの前に、前記第1及び第2セグメンテーションマップを統合し、パターンマッチングを利用することにより前記統合されたセグメンテーションマップにおいてオブジェクトを検出するステップを備えることを特徴とする。
【0009】
また、本発明によるデジタル画像におけるオブジェクト検出方法は、請求項3に記載されるように、さらに、パターンマッチングを利用することにより前記第1及び第2セグメンテーションマップのそれぞれにおいてオブジェクトを検出するステップを備えることを特徴とする。
【0010】
また、本発明によるデジタル画像におけるオブジェクト検出方法は、請求項4に記載されるように、前記非オブジェクト特定基準はカラー同質性基準であり、前記オブジェクト特定基準はオブジェクト特定カラー類似性基準であることを特徴とする。
また、本発明によるデジタル画像におけるオブジェクト検出方法は、請求項5に記載されるように、皮膚領域の検出に際し、前記カラー同質性基準及び前記オブジェクト特定カラー類似性基準の少なくとも一方はスキンカラーに関し、前記検出されたオブジェクトは検出スキンカラー領域であることを特徴とする。
また、本発明によるデジタル画像におけるオブジェクト検出方法は、請求項6に記載されるように、さらに、前記検出スキンカラー領域における赤目を検出するステップを備えることを特徴とする。
【0011】
このようなデジタル画像におけるオブジェクト検出方法では、オブジェクトの検出率を高めることができる。特に、赤目不良を有する顔の検出に際し、複数のセグメンテーションマップを利用することにより、入力デジタル画像におけるフェイス領域のより正確な検出を行うことによって、より高いオブジェクト検出率を達成することができる。
【0012】
【発明の実施の形態】
以下、図面に基づいて本発明の実施の形態を説明する。
【0013】
本発明は、プログラムされたデジタルコンピュータにおいて実現されうる。デジタル画像処理やソフトウェアプログラミングに関する当業者は、以下で与えられる説明からコンピュータにより本発明を実現するためのプログラムを設計することができるであろう。本発明はまた、コンピュータが実行可能なコードを記録するための磁性記憶媒体あるいは光記憶媒体のようなコンピュータが読み取り可能な記憶媒体を備えるコンピュータプログラムプロダクトにおいて実現されてもよい。また、本発明はハードウェアあるいはファームウェアにおいて実現されてもよい。
【0014】
図1を参照するに、本発明によるオブジェクト検出方法によると、別々に生成された2つのセグメンテーションマップ(segmentation map)が統合され、この統合されたセグメンテーションマップを利用して画像中の特定のオブジェクトが検出される。そのようなオブジェクトとして赤目オブジェクトが含まれている。以下では、このようなオブジェクトに関して説明がなされる。しかしながら、本発明によるオブジェクト検出方法は、若干の必要な修正を加えることにより他のオブジェクトの検出にも利用可能であるかもしれない。以下においてさらに詳細に説明されるように、本発明によるオブジェクト検出方法は、部分的に上述の米国特許第6,292,574号による検出方法が利用されている。
【0015】
図1に示される好適な実施例によると、まず検出対象である上述の赤目オブジェクトのような1つ以上のオブジェクトを少なくとも部分的に含むデジタル画像10が入力される。このデジタル画像10は、まずカラーセグメンテーションステージ12において処理される。このカラーセグメンテーションステージ12では、カラーセグメンテーションマップ(color segmentation map)14を生成するため、非オブジェクト特定カラーセグメンテーション処理(non−object specific color segmentation process)が入力されたデジタル画像10に実行される。カラーセグメンテーションステージ12では、上述の米国特許第6,292,574号により開示された方法が利用される。この開示された方法に関しては、以下でさらなる詳細な説明が与えられる。この開示された方法では、非オブジェクト特定基準(non−object specific criterion)、本実施例においてはカラー同質性基準(color homogeneity criterion)、具体的には平均スキンカラー(skin−like
average color)に従ってセグメントが特定される。
【0016】
また入力デジタル画像10は、オブジェクト特定基準(object specific criterion)に従い、オブジェクト特定パス(object−specific path)16において、オブジェクト特定セグメンテーションマップ(object−specific segmentationmap)18を生成するために処理される。オブジェクト特定セグメンテーションマップ18は、カラーセグメンテーションマップ14と交互に利用され、補完情報を与える。本実施例では、オブジェクト特定基準は、オブジェクト特定カラー類似性(object specific color similarity)であり、具体的には、フェイスオブジェクトに関するスキンカラーである。より詳細には、セグメンテーションマップ18は、特定されたスキンオブジェクトの一部としてスキンカラー画素のセグメントを特定するのに使われるスキン特定マップである。
【0017】
オブジェクト特定パス16は、以下のステージから構成される。スキン画素検出ステージ20では、スキンカラー信頼値をデジタル画像10の各画素に割り当てることにより、デジタル画像10のスキンカラー画素が検出される。そして、適応型閾値判別ステージ22では、スキン画素検出ステージ20により生成されたスキンカラー画素を特定するための信頼値にある閾値が適用される。領域抽出ステージ24において、スキンカラー画素に連続する領域が抽出される。領域拡大ステージ26において、抽出された領域は信頼値に関する連続性基準に従いより完備な領域に拡大される。その後、形状分解ステージ28において、拡大された領域は単純な形状パーツに分解され、代替セグメンテーションマップ18が生成される。
【0018】
統合ステージ30において、2つの別々に生成されたセグメンテーションマップ、すなわち、非オブジェクト特定カラーセグメンテーションマップ14とオブジェクト特定代替セグメンテーションマップ18は、オブジェクトの検出とその位置検出のため統合セグメンテーションマップ32に統合される。より詳細には、赤目ペア分類器(redeye pair classifier)34が統合されたセグメンテーションマップ32を使って、赤目ペアの候補を検出する。検出された赤目ペアの候補は、検出赤目リスト38を生成する前に、フェイス検証器(face verifier)36によりチェックされる。赤目ペア分類器34では、以下で詳細に説明される米国特許第6,292,574号により開示されたパターンマッチング手法が利用される。フェイス検証の後、検出赤目リスト38は赤目補正ステージ40に送られ、赤目の画素における色をより望ましい色によりレンダリングすることにより補正される。
【0019】
また、米国特許第6,292,574号によるパターンマッチング手法を非オブジェクト特定カラーセグメンテーションマップ14とオブジェクト特定代替セグメンテーションマップ18のそれぞれに別々に適用し、その後検出されたオブジェクトを統合することにより、非オブジェクト特定カラーセグメンテーションマップ14とオブジェクト特定代替セグメンテーションマップ18から赤目オブジェクトのようなオブジェクトが別々に検出されてもよい。フェイス検証器36によるフェイスの検証後、検出赤目リスト38は赤目補正ステージ40に送られる。
【0020】
図2を参照するに、本発明によるオブジェクト検出方法を実現するためのコンピュータシステム110が示される。コンピュータシステム110は好適な実施例を示すために例示されたものであり、本発明はコンピュータシステム110に限定されるものではない。本発明は、コンピュータ現像、売店での現像、小売の現像、卸売での現像などの任意の電子処理システム、あるいはデジタル画像処理のための他のシステムにおいて利用されてもよい。コンピュータシステム110は、ソフトウェアプログラムの受信及び処理と、他の処理機能を実行するマイクロプロセッサユニット112を備える。コンピュータシステム110は、例えば、Sun Sparc Station(登録商標)であってもよい。ディスプレイ114は、例えば、グラフィカルユーザインターフェイスによりソフトウェアに関するユーザ関連情報を表示するため、マイクロプロセッサユニット112に電子的に接続される。キーボード116は、ユーザがソフトウェアに情報の入力ができるよう、マイクロプロセッサユニット112に接続される。キーボード116の代わりに、マウス118がディスプレイ114上のセレクタ120を移動させ、セレクタ120によりアイテムを選択できるよう既知の技術に従い使用されてもよい。
【0021】
CD−ROM(Compact Disk−Read Only Memory)のためのドライブ装置122が、ソフトウェアプログラムの入力と、ソフトウェアプログラムを有するコンパクトディスク124を介しソフトウェアプログラムやその他の情報をマイクロプロセッサユニット112に与えるため、マイクロプロセッサユニット112に接続される。さらに、フロッピー(登録商標)ディスク126にソフトウェアプログラムが保存され、ソフトウェアプログラムの入力のためフロッピー(登録商標)ディスク126がドライブ装置122を介しマイクロプロセッサユニット112に与えられてもよい。さらに、マイクロプロセッサユニット112は、既知の技術により、ソフトウェアプログラムを内部に保持するようプログラムされていてもよい。マイクロプロセッサユニット112は、LAN(Local Area Network)やインターネットのような外部ネットワークへの接続のため、例えば電話線のようなネットワーク接続127を備えていてもよい。このネットワークは、例えば、大きなデータサイズのデジタル画像を扱えるだけの大容量のLANであってもよい。プリンタ128は、コンピュータシステム110の出力のプリントアウトのために、マイクロプロセッサユニット112に接続される。
【0022】
画像は、PCMCIA(Personal Computer Memory Card International Association)に基づく既知のデジタル画像を保持するためのPC(Personal Computer)カード130を介して、ディスプレイ114に表示されてもよい。PCカード130は、ディスプレイ114上に画像を表示するためドライブ装置132を介しマイクロプロセッサユニット112に与えられる。画像はコンパクトディスク124、フロッピー(登録商標)ディスク126あるいはネットワーク接続127を介して入力されてもよい。PCカード130、フロッピー(登録商標)ディスク126、コンパクトディスク124に記憶されている画像や、ネットワーク接続127を通じて入力された画像は、デジタルカメラ134やスキャナ136のような様々な情報源から、ハロゲン化銀フィルムのような原稿を走査することにより得られる。デジタルカメラ134から通信リンク(例えば、RFリンクやIRリンク)140を介して画像をコンピュータシステム110に取り込んでもよい。本発明によると、統合セグメンテーションマップ32に統合され、オブジェクト検出あるいは赤目オブジェクトのような特定のオブジェクトの検出に使用される2つの別々に生成された非オブジェクト特定マップ14及びオブジェクト特定マップ18を生成するため、本実施例で開示されるオブジェクト検出アルゴリズムは上述の記憶装置のいずれかに記憶される。
【0023】
本実施例において開示されるオブジェクト検出アルゴリズムは、様々なユーザ環境において利用されてもよい。本発明を限定することなく、例えば、(フィルムイン、デジタル処理、プリントアウトのような処理過程に関する)ホールセールデジタル現像、リテールデジタル現像(フィルムイン、デジタル処理、プリントアウト)、ホームプリンティング(家庭で走査されたフィルムやデジタル画像、デジタル処理、プリントアウト)、デスクトップソフトウェア(質の向上や変更のためにデジタルプリントにアルゴリズムを適用するソフトウェア)、デジタルフルフィルメント(digital fulfillment)(メディアやウェブからのデジタル画像取り込み、デジタル処理、メディアのデジタル形式、ウェブのデジタル形式、デジタルまたはハードコピー出力による画像出力)、キオスク(kiosk)(デジタルまたは走査入力、デジタル処理、デジタルまたはハードコピー出力)、携帯装置(処理部、表示部、処理指示を与えるユニットとして利用されるPDAや携帯電話)、WWW(World Wide Web)を介して与えられるサービスを含む。
【0024】
各場合において、アルゴリズムは独立して装備されてもよいし、より大規模なシステムソルーションの一部であってもよい。さらに、アルゴリズムとのインターフェイス、例えば、走査や入力、デジタル処理、(必要であれば)ユーザへの表示、(必要であれば)ユーザリクエストや処理指示の入力、及び出力などは、同一あるいは異なる装置で、そして同一あるいは異なる場所で行われてもよい。装置間の通信は、公共あるいはプライベートのネットワーク接続またはメディアベースの通信を介して行われうる。上述した実施例と対応して、アルゴリズムは完全に自動化されていてもよい。また、アルゴリズムは(完全あるいは部分的に手動で)ユーザ入力を受信してもよい。また、アルゴリズムは結果の承認/拒否のためユーザあるいはオペレータの確認を受けてもよい。また、アルゴリズムは(ユーザあるいはカメラなどの測定装置により与えられた、あるいはアルゴリズムにより決定された)メタデータによる支援を受けてもよい。さらに、アルゴリズムは様々なワークフローユーザインターフェイス手法(workflow user interface scheme)と接続してもよい。
【0025】
図3を参照するに、デジタル画像10の中の連続的なスキンカラー領域を認識するためのカラーセグメンテーションステージ12を実現するための上述の米国特許第6,292,574号に開示されるような方法に関する詳細なフローチャートが示されている。始めに、カラー画像の赤、緑及び青に関する数値が、以下の関係式を用いてLSTカラー空間に変換される(ステップS4a)。
【0026】
【数1】
Figure 2004086891
【0027】
【数2】
Figure 2004086891
【0028】
【数3】
Figure 2004086891
ここで、R, GおよびBは、カラー画像10における画素の赤、緑及び青に関するコード値をそれぞれ表す。
【0029】
次のステップでは、3次元ヒストグラムが構築される。ヒストグラムのサイズを減らすために、まずL, S及びTのコード値がそれぞれ8.0×√3, 2.0及び2.0で除され、量子化される(ステップS4b)。この量子化されたコード値はL’, S’そしてT’として表される。L’, S’及びT’の各組み合わせはヒストグラムの「bin」として表される。ヒストグラムH(L’, S’, T’)の値(ステップS4c)は、量子化コード値L’, S’及びT’を持つ画像中の画素数に等しい。すなわち、ヒストグラムから各binに属する画像中の画素数がわかる。この画素数はbin値と呼ばれる。
【0030】
ヒストグラムは、各bin値を、このbin値とそれに近接したbinのbin値との加重平均により置き換えることによってスムージングされる(ステップS4d)。次に、ヒストグラムのピーク値が検出され(ステップS4e)、ヒストグラムの各bin値にはそれに最も近接したピーク値が割り当てられる(ステップS4f)。最終的に、カラー画像の各画素にヒストグラムのbin値が割り当てられ、各binにはピークが割り当てられることになるので、ピークがカラー画像の各画素に割り当てられる(ステップS4g)。画素コード値が割り当てられているピークの個数に等しい単一の帯域画像がセグメント画像と呼ばれる。
【0031】
同一のコード値を有するセグメント画像における連続領域は、カラー画像中のオブジェクトあるいはその一部に対応している可能性がある。そこで、ある一意的な数値(ラベル)がセグメント画像のそのような領域に割り当てられる(ステップS4h)。その数値は最大画素数をもつ領域に対し1から始まり次々と割り当てられる。コード値が画素が属する領域のラベルに対応する単一の帯域画像は、ラベル画像と呼ばれる。
【0032】
プログラムは、セグメント画像中のどの連続領域が人間の皮膚の色を有するカラー画像の領域に対応しているかを決定する。各領域の平均コード値L, S及びTが計算され、これに基づいて各領域にスコアPskinが割り当てられる(ステップS4i)。Pskinが高いということは、当該領域が人間の皮膚の色を有しているということを意味し、逆にPskinが低いということは、当該領域の色が皮膚の色と異なっているということを意味している。Pskinが0.10の閾値Tskinを上回る領域はスキンカラー領域と呼ばれる(ステップS4j)。
【0033】
最終ステップでは、カラー画像の中の顔が単一のスキンカラー領域に関連付けられる必要がある。上述のプロセスでは、1つの顔が1以上のスキンカラー領域としばしば関連付けられる。これは、顔色や影により、顔の色は一様でないということに起因する。ある2つのスキンカラー領域は、以下の2つの条件がステップS4kにおいて満足されれば、1つのスキンカラー領域に統合される。第1の条件では、この2つのスキンカラー領域が相互に連結していることが求められる。領域iの画素が領域jに連結しているとは、領域iのこの画素の8つの隣接画素の1つが領域jの画素である場合である。領域iとjの画素間の連結数に比例して関数Q(i, j)が求められる。関数Qは、Q(i, i)=1.0になるよう正規化される。Q(i, j)の値が閾値MinMergerFraction(例えば、0.005に設定される)を上回り、かつ第2の条件が満たされていれば、領域iとjは1つの領域に統合される。第2の条件では、
color = {(L − L + (S − S + (T − T1/2
により与えられる領域iとj間のカラーディスタンスDcolorが、40.0に設定されたMaxMergeColorDistance未満であることが求められる。
【0034】
スキンカラー領域を統合するプロセスは小さなサイズの領域から始まり、これら2つの条件が満たされるとき、より大きなサイズの領域に統合される。領域iはより大きな領域jに統合され、領域jはさらに大きな領域kに統合されるかもしれない。このとき、領域i, j及びkは1つの領域に統合される。上述の2つの条件が領域iとkの間で満たされていなくても、領域iとkは領域jを介して統合される。
【0035】
スキンカラーの検出結果は、カラー画像におけるスキンカラー領域のマップにより与えられる(ステップS4l)。スキンカラーでない領域には、コード値0が付される。連続性をもつ個々のスキンカラー領域には、領域サイズに関して降順に1から順に番号付けがなされる。図4は、2人の人間の画像中のスキンカラー領域230aのマップを示す。
【0036】
本発明によると、補完情報を与えるためのオブジェクト特定セグメンテーションマップ18がさらに利用される。このオブジェクト特定あるいはスキン特定セグメンテーションマップは、FIG. 1に関して説明されたステージ20、22、24、26及び28により生成される。以下において、これらのステージに関するさらなる詳細な説明が与えられる。
【0037】
スキン画素検出ステージ20において、画素のカラー強度と所定のスキンカラー強度とのあらかじめ決められたカラー類似度に基づき各画素にスキンカラー信頼値を割り当てることによって、デジタル画像中のスキンカラー画素が検出される。検出結果は、デジタル画像中のすべての画素のスキン確率あるいはスキン信頼値から構成されるスキン確率マップとして与えられる。本実施例では、スコアPskinとカラーディスタンスDcolorを計算プロセスが、連続領域の平均カラーの代わりに、オリジナルのデジタル画像の各画素の色に適用される。
【0038】
スキン画素検出ステージ20によるスキン確率マップからバイナリーマップを生成するため、適応型閾値判別ステージ22における閾値の選択に関するいくつかの方法がある。
【0039】
その中の1つの方法においては、ユニバーサル閾値がトレーニングデータに基づき、ROC(Receiver Operating Characteristic)から得られる。一般に、この閾値は偽陽性率(false positive rate)を最小化する一方、検出率を最大化するようなものが選ばれる。従って、対応する動作点(operating point)は100%の検出率と0%の偽陽性率を示すものに最も近いROCの点が通常選ばれる(E. Saber, A.M. Tekalp, R. Eschbach and K. Knoxらによる”Automatic image annotation using adaptive color classification”, CVGIP, Vol. 58, pp. 115−126, 1996)。さらに、偽陽性エラーと偽陰性エラーに関するコストが含まれうる。与えられた画像に対して、画素の確率が決められた閾値と比較される。ユニバーサル閾値を使用することの最大の短所は、個々の画像における統計量の変動が無視されていることである。集合体としてのトレーニングデータに基づき決定された最適ユニバーサル閾値は、個々の画像に対しては必ずしも最適であるとは限らない。また、トレーニングセット以外のデータに対してはユニバーサル閾値は最適でないかもしれない。また、オブジェクト検出アルゴリズムが閾値に関する処理以外のプロセスを含んでいれば、ユニバーサル閾値の選択は最適であるとは限らない。
【0040】
画像の変動要素に対してある程度の適応性が実現されるよう、まず画像における(量子化)確率のヒストグラムを構築し、続いてこのヒストグラムの低位部において谷間を見つける。これには、非オブジェクト画素はヒストグラムにおいて0の確率に近い分布を形成する一方、オブジェクト画素は高い確率を有する1つ以上の分布を形成するということが前提とされる。複合的な分布から谷間を見つけるには、適切な閾値選択が実行される必要がある。実際、Saberらによる初期の研究ではこのコンセプトが利用されている。しかしながら、彼らの研究では、オブジェクト画素では最大確率の分布が形成されていると仮定し、ヒストグラムの高位において検出された第1の谷間に閾値が設定される。この仮定は、このような閾値操作がオブジェクトの検出を最終的に決定するなら、妥当なものである。しかしながら、実際しばしばこの仮定は成り立たない。例えば、海は曇りの日の海岸における空よりもより空の色に近く見えるし、木製パネルは強い火の近くで撮影された写真の中の顔よりよりスキンカラーに近く見えるかもしれない。Saberらはまた、ユニバーサル閾値として初期的に置かれた想像上のボールが落ちていく谷間を用いることを提案している。Saberらは、より突出したピークやより窪んだ谷間を形成するため、ヒストグラム中の高周波数要素の減衰とこれらピークと谷間のローカリゼーション(localization)との間のトレードオフを実現するよう設計されたカーネル(kernel)を利用している。Saberらはゼロ交差(zero−crossing)を利用しピークと谷間の位置決めを行っている。
【0041】
一般に、偽陽性を抑える一方、すべての候補が保持されるようやや控えめな閾値が本実施例では使用される。確率ヒストグラムにおける谷間の検出はしばしば不適切な閾値を導くということがわかった。一般に、非オブジェクト画素が画像領域の大部分を占めるので、確率が0に近い領域が大部分となる。この非オブジェクト分布はしばしば検索対象の谷間を覆い隠してしまう。そのため、偽陽性を大きく増加させる低い閾値を持たせてしまう傾向がある。
【0042】
ターゲットとなるオブジェクトは雑多な背景とは大きく不連続である境界を形成していると仮定することが妥当である。そのような境界は色や強度に関する不連続性だけでなく、関連した特徴(色やテクスチャなど)を分類することにより生成される確率マップにおける不連続性として存在すべきである。従って、最適な閾値の決定に何が重要かは、閾値が明確な境界をもたらしうるかどうかに依存する。画像中のすべてのサンプルが利用される必要はないということは明らかであろう。言い換えると、より多くのサンプルを使ったとしても、ヒストグラム中にピークや谷間をもたらす信号対ノイズ比を必ずしも増加させない。
【0043】
オブジェクト検出では、「イエス」「ノー」の質問に答える必要がある。言い換えると、ある画素がオブジェクトに属するか、あるいは背景に属するかということである。オブジェクトと背景の間の境界上あるいはその近傍にある画素を考える場合、この決定が必要なすべてであるかもしれない。このとき、ヒストグラムはオブジェクトと背景の相対的な大きさの相違から影響はあまり受けない。さらに、境界の両側でほぼ等しく画素を抽出する(オブジェクトと背景のサンプル数が等しく抽出される)ので、ヒストグラムにはほぼ等しい高さのピークが含まれ、そのピーク間には明確な谷間が形成される。このような明確なピークと谷間を有するヒストグラムを明確なヒストグラムと呼ぶことにする。
【0044】
このようなヒストグラムにおける1つの問題は、それが非常に少ないサンプルから形成されているということである。一般に、画像は疎な不連続性を有するので、確率マップについてはなおさらその傾向が顕著である。このようなヒストグラムが、谷間の存在についてあいまいさを生じさせる多数の空のbinを有することは珍しくない。初期的には、確率範囲[0, 1]がヒストグラムでのカウンティングのため256の離散binに量子化される。明確なヒストグラムにおける希薄さに対処するため、ヒストグラムbinの総数は一様量子化により256から64に減らされる。これにより十分稠密なヒストグラムB2が形成される。所定のスムージング(7ポイント移動平均化)の後、最終的に明確なヒストグラムB3が得られる。図5に示される例では、もとの確率ヒストグラムB1には明確な谷間は見られなかったが、最終的に得られる明確なヒストグラムB3においては明確な谷間B4が現れている。ここで、64のbinをもつ明確なヒストグラムとそれ以上のbinをもつヒストグラムとでは、図の縦軸は異なるスケールを有す。
【0045】
本発明の好適な実施例では、適応型閾値決定は以下のステップにより行われる。
1.確率マップのラプラシアンまたは勾配(gradient)を計算
2.高い勾配あるいはラプラシアン値に基づきマスクを導出
3.マスクに従い勾配の高い画素のみを使ってヒストグラムを構築
4.構築されたヒストグラムをbin数の少ないより稠密なヒストグラム(256binから64bin)に量子化
5.稠密なヒストグラムに移動平均スムージング処理を行い、明確なピークと谷間を有する明確なヒストグラムを生成
6.明確なヒストグラムの中からピークと谷間を検出
7.適当な谷間(例えば、明確なヒストグラムの下方における最初の谷間)に閾値を設定
8.ヒストグラムbin量子化のため閾値を(例えば、ステップ4において用いられた例において、谷間の値に4を乗ずることにより)調整
インデックスi∈{1, 2, …, N}を画像位置とする。iにおける確率をp(i)により表す。閉区間[0, 1]がK(例えば、K=256)個のbinに量子化されるとする。従来技術によるヒストグラムは、
h[k] = h[k] + 1, if p[i] = k, i =1, 2,…, N, k = 0, 1, …, K−1
により計算される。
【0046】
2D関数 f(x, y)のラプラシアンは2階の偏導関数により
【0047】
【数4】
Figure 2004086891
として定義される。
【0048】
デジタル形式において、ラプラシアン演算子は、
【0049】
【数5】
Figure 2004086891
の3×3カーネルにより与えられる。
【0050】
画像 f(x, y) の点 (x, y) における勾配は、
【0051】
【数6】
Figure 2004086891
として定義される。
【0052】
これのデジタル形式は、2つの分離可能なカーネル
【0053】
【数7】
Figure 2004086891
となる。
【0054】
勾配ベクトルの大きさは
【0055】
【数8】
Figure 2004086891
となる。
【0056】
適応型の閾値が決定され、それがスキン確率あるいは信頼値に適用された後、スキン確率マップは「1」によりラベル付けされたスキン画素と「0」によりラベル付けされた非スキン画素を有する2項マップになる。領域抽出ステージ24では、接続された構成要素抽出処理が利用され、スキン画素の隣接領域が抽出される。この処理に関しては、「Image Processing, Analysis and Machine Vision, Sonka, Hlavac and Boyle, Brooks&Cole, 1999」において説明されている。
【0057】
後述の理由により、スキン画素の各抽出領域は、より完全かつしっかりした領域が得られるよう精緻化される必要がある。スキン領域のいくつかの画素の信頼値が閾値以下になることがしばしばあり、これにより不完全なスキンマスクが形成されてしまう。このような不完全なスキンマスクは以下の形状分解処理にとって望ましくない。従来技術によるカラーベース領域の拡大は、たまたまスキン信頼値が閾値以上となる抽出画素の色にある背景画素の色が近ければ、「ブリーディング(bleeding)」や「オーバーグローイング(overgrowing)」が起こりうるという点で注意を要するということがわかる。本発明によると、領域拡張ステージ26において、よりロウバストな領域拡大が信頼値の類似性に基づき実行される。特に、(シード画素(seed pixel)として利用される)抽出スキン領域から始めて、サブ閾値信頼値を持ち、シード画素に空間的に結合している画素が調べられる。もしこの信頼値が確率の最大値1.0の最低限の確率、例えば、0.1より大きく、かつこの信頼値と空間的に結合したシード画素の信頼値の差が所定の閾値以下であれば、これらの画素はシード画素として同一の領域に統合される。信頼値ベースの領域拡大の効果が図6に示される。初期的には不完全なフェイスブロブ(face blob)領域C1が、完全なフェイスブロブ領域C2を得るために精緻化される。
【0058】
候補となるフェイス領域あるいはブロブを検出する問題は、「アンダーセグメンテーション(under segmentation)」として呼ばれ、スキンカラーあるいは類似の色のオブジェクトが顔として同一の領域にセグメント化される。この顔には、互いに突き合わさった2つの顔、顔に接した手、肌色の顔に接したブロンドの髪、顔に接した肩、首や胸、顔に接した家具、顔に接した服などが含まれる。図7に、アンダーセグメンテーション問題の典型例が示される。
【0059】
この問題のために、形状分解ステージ28において、本発明の好適な実施例による形状ベースの構成要素分解が行われ、複雑な形状からなる1つの領域がいくつかの構成要素領域に細分化される。図7には、形状分解の効果が示されている。詳細には、各接続領域に対して、
1.この領域の外形輪郭D1を追跡
2.この輪郭をスムージング処理し、ノイズの除去
3.スムージングされた輪郭に沿って大きな曲率をもつ臨界点D2とD3を検出
4.負の曲率の臨界点(NCP)D2を特定
5.各NCPに対して、他の輪郭点を抽出し、「カット(cut)」D4を形成
6.カットにおける領域を分割し、シンプルなブロブ領域を生成
輪郭追跡の後、各領域の輪郭は (x, y) 座標の順序付けされたリストとして表される。インデックスi∈{1, 2, …, N}をこの座標リストとする。輪郭は、このリストをある固定された任意の基準点 (x’, y’) に関する極座標
【0060】
【数9】
Figure 2004086891
【0061】
【数10】
Figure 2004086891
に変換することによりスムージングされる。
【0062】
輪郭のスムージングのため、ローパスフィルタがリストrとθのそれぞれに対し、(例えば、平均値フィルタ(mean filter)を適用することにより)適用される。本発明の好適な実施例では、「On Critical Point Detection of DigitalShapes(デジタル形状の臨界点検出), P. Zhu and P. Chirlian, IEEE Transactions on Pattern Analysis and Machine Intelligence, 17(8): 737−748, August 1995」において提供されたアルゴリズムを利用して、スムージングされた輪郭の臨界点が検出される。このアルゴリズムでは、曲率と知覚的に重要な局所最大となる輪郭点が特定される。以下でアルゴリズムの概要が説明される。まず、角度または半径関数における局所最大となるすべての画素が特定され、集合Mに置かれる。次に、2つの隣接M点群を結ぶ線分からの距離が局所最大となるすべての点が集合Γに置かれる。集合MとΓは、擬臨界点(pseudocritical point)の集合Cを形成するよう統合される。臨界レベルと呼ばれる擬臨界点の知覚重要度は、ある1点とその隣接擬臨界点とにより形成される三角形の大きさにより定義される。Cのすべての点の臨界レベルが計算され、最小の臨界レベルを有する点が取り除かれる。Cのすべての点がある閾値(例えば、60)以上の臨界レベルとなるまで上記プロセスが繰り返される。最終的に得られる集合Cが臨界点集合(CPS)となる。
【0063】
本発明の変形例として、他の臨界点検出アルゴリズムが利用されてもよい。
【0064】
低い(シャープな)負の曲率を有する曲率点が選ばれ、集合NCPSに置かれる。特に、ある閾値(例えば、−0.05)未満の曲率を有する臨界点が、以下に定義されるCにより選択される。
【0065】
【数11】
Figure 2004086891
ここで、x’(t)とy’(t)は、パラメータtに関する1階導関数であり、x’’(t)とy’’(t)は2階導関数である。離散のケースでは、この関数の評価は、小さな近傍に関して以下の式を計算することにより近似可能である。
【0066】
【数12】
Figure 2004086891
臨界点検出アルゴリズムでは発見的アプローチが利用されるが、集合NCPSの複数の点がある知覚臨界点の近傍にたまたま存在するかもしれない。局所非最大曲率抑制ステップがこの冗長を解消するため使われる。その間にCPSの要素を持たないNCPSの2つ以上の隣接要素のグループを見つけるために、輪郭が走査される。隣接するNCPS間の輪郭距離は、同一のグループの一部とみなされるdist_thresholdの1/2以下となっている。(dist_thresholdは、当該領域の特性に基づき適応的に設定される。例えば、もし領域のフィルファクタ(fill factor)が1/2より大きくなければ、dist_thresholdは領域の最小有界ボックス(minimum bounding box)の最小サイズの1/2に等しくなる。この場合、dist_thresholdは最小有界ボックスの最小サイズの60%に設定される。どちらの場合でも、dist_thresholdは画像の最小サイズの1/3より大きくなることはない。)各グループにおいて局所最小曲率を有するNCPSの要素は取り除かれる。残りの要素は、顕著負曲率輪郭点(salient negative curvature contour point)と呼ばれ、集合SNCPSの要素とされる。
【0067】
次のステップでは、各SNCPに対して潜在的切断の端点を形成する候補のペアが特定される。各SNCPに対して、条件を満たさないペアをの点をフィルタリングするフィルタ系列により他のすべての輪郭点が候補とみなされる。ある点P∈SNCPSを他の輪郭点Pと対にするかどうか考慮していると仮定する。本発明の好適な実施例では、以下のようなフィルタが使用される。
【0068】
1.ユークリッド距離フィルタ:
dist(P, P) > dist_threshold
が成り立つときPは削除される。ただし、distはユークリッド距離関数である。このフィルタでは、あまりに遠く離れすぎて存続可能なペアになれない点が除去される。
【0069】
2.カット顕著フィルタ:
【0070】
【数13】
Figure 2004086891
が成り立つときPは削除される。ただし、Pは削除される。ただし、distはユークリッド関数、Cdistは2点間の輪郭に沿った最小距離である。このフィルタにより、知覚的に顕著でないカットは、そのサイズが形状特徴のサイズより大きいため、削除される。
【0071】
3.接線ベクトルフィルタ:
およびPにおける接線ベクトルが比較され、2つのベクトルのなす角がang_thresholdより小さいとき、Pは削除される。従来は、これら接線ベクトルは輪郭の向きと同じ方向に向いていた。このフィルタは、妥当なカットの両端が常にほぼ反対の接線ベクトルを有するということに基づき動機付けされている。ang_thresholdは通常90°に設定されている。しかしながら、もしPにおける曲率が大きければ、接線角はノイズとなってしまう。従って、もしPにおける曲率がある閾値(例えば、−0.2)以下であれば、ang_thresholdは(例えば、135°まで)引き上げられる。
【0072】
4.法線ベクトルフィルタ:
ベクトルPとPにおける法線ベクトルとのなす角がang_thresh未満であれば、Pは削除される。理想的には2つのベクトルは反対方向を向いていることが望ましい。上述のように、ang_thresholdはPにおける曲率に基づき、自動的に設定される。
【0073】
∈SNCPSに対するフィルタを透過した画素集合をSと呼ぶ。もし
【0074】
【外1】
Figure 2004086891
であれば、Pによりカットは形成されない。一方もし
【0075】
【外2】
Figure 2004086891
であれば、1つ以上の候補となる点がPによるカットを形成するために選ばれる。SNCPSの要素は凸形状を表すので、SNCPSの要素となる候補ペアを選ぶことがしばしばベストである。SNCPの近傍の輪郭点を含む集合Sは以下のように定義される。
【0076】
P∈S ⇔ ∃Q∈SNCP such that Cdist(P, Q) < 5
ただし、Cdistは以前に定義された輪郭距離関数である。そしてユークリッド距離D1=dist(P1, P)を最小にするような点P1∈Sが選ばれる。もし集合Sが非空であれば、ユークリッド距離D2=dist(P2, P)を最小にするような点P2∈Sが選ばれる。
【0077】
【外3】
Figure 2004086891
のとき、P2に最も近いSNCPが最終的なカットペアとして選ばれる。逆にD2 > (1.1)D1のとき、P1が選ばれる。本発明の変形例として、各P∈SNCPに対して、複数の候補点が選ばれうる。
【0078】
候補ペア選択ステップ及びカットペア選択ステップが、領域内のすべてのSNCPSに対して繰り返される。その結果として、カットを特定する0以上の線分のリストが生成される。カットは一意的なコード値を有するセグメンテーションマップのバッファにおいて線分を引き、連結構成要素分析を行うことによりセグメンテーションマップに適用される。
【0079】
図8を参照するに、オリジナルデジタル入力画像E1、非オブジェクト特定セグメンテーションマップE2及びオブジェクト特定セグメンテーションマップE3が示される。被写体の顔はオブジェクト特定セグメンテーションマップE3では大きく2つのセグメントに分けられる。これは欠落した画素の色が肌色と類似していないからである。しかしながら、非オブジェクト特定セグメンテーションマップE2では顔領域に大きなセグメントが残されている。これは顔の中の画素の色は互いに似ているからである。これと反対のことが異なる画像において成り立つかもしれない。すなわち、非オブジェクト特定セグメンテーションマップE2では複数の部分に、オブジェクト特定セグメンテーションマップE3では1つの部分に、顔が分割される。本例では、同一のシーンに対し異なる解釈や補完的な解釈を与える複数のセグメンテーションマップを使用することの必要性を示している。
【0080】
複数のセグメンテーションマップを利用する特別なケースとして、同一のセグメンテーション方法に対し、いくつかの異なるパラメータを設定し複数のセグメンテーションマップを生成するという方法も考えられるであろう。また、利用可能な複数のセグメンテーションアルゴリズムから動的に1つ以上のセグメンテーションアルゴリズムを選択するという方法も考えられるであろう。
【0081】
再び図1を参照するに、非オブジェクト特定セグメンテーションマップ14(例えば、E2)とオブジェクト特定セグメンテーションマップ18(例えば、E3)が、赤目ペア分類器34及びフェース検証器36においてオブジェクト検出と位置検出に利用されるセグメンテーションマップ32に併合される。赤目ペアのオブジェクト検出と位置検出には、以下で詳述される検出された赤目のリスト38を特定する前述の米国特許第6,292,574号により開示される方法が利用される。
【0082】
図9を参照するに、赤目ペア分類器34により赤目のオブジェクト検出及び位置検出を実行するため本発明に適用される米国特許第6,292,574号において利用される方法のフローチャートが示される。図示された処理は、ステップS4において、画像中のすべての分離された連続スキンカラー領域を特定することにより開始される。ステップS4には、非オブジェクト特定セグメンテーションマップ14とオブジェクト特定セグメンテーションマップ18から併合マップ32を生成するための前述の方法が含まれている。ステップS8からS30において、赤目ペア分類器34が実現される。
【0083】
図9及び図10に示されるように、ステップS6においてスキンマップ(図4)からスキン領域のすべてを含む最小の長方形領域を抽出することによりスキンカラー領域のサブマップが形成される。例えば、図10のスキン領域230bは図4のスキン領域230aに対応している。図10は、サブマップとしての各分離した連続スキンカラー領域のマップを示している。サブマップの左上に対応するスキンマップの列と行は、それぞれColcutout、Rowcutoutと呼ばれる。このサブマップにおいて、255のコード値(白)は、画素がスキンカラーとなっている位置にあるということを示している。0のコード値(黒)はスキンカラーでないということを示している。
【0084】
図9及び図11を参照するに、ステップS8において、楕円235がステップS6で検出されたスキンカラーサブマップに適合される。楕円を2値画像に適合する方法は、「Computer and Robot Vision Volume I, Robert M. Haralick and Linda G. Shapiro, Addison−Wesley (1992), pp. 639−658」において紹介されている。人間の顔は楕円として近似することができる。従って、もしスキンカラーサブマップが人間の顔であれば、楕円を使ってスキンカラーマップは良好に適合され、楕円の短軸は顔の幅にほぼ等しくなる。楕円のスキンカラーサブマップへの適合度は以下の式によって与えられる。
【0085】
【数14】
Figure 2004086891
ただし、Nはマップ内のスキンカラー画素数(コード値255)、Noutは楕円外のスキンカラー画素数、Ninは楕円内のスキンカラー画素数、Aは楕円内の画素数を表す。Aは楕円領域と呼ばれる。もしすべてのスキンカラー画素が楕円内にあり、スキンカラー画素数と楕円領域が一致していれば、適合度Fitは1となり、完全に適合される。スキンカラー画素が楕円外にあるか、あるいは楕円領域がその中のスキンカラー画素数より大きいとき、適合度Fitの値は減少する。Fitが0.70に設定された所定の値MinEllipseFitより小さいとき、スキンカラー領域は顔でないと判断でき、ステップS10においてさらなる処理は実行されない。
【0086】
スキンカラーサブマップが顔であるかどうかを示すもう1つの方法では、以下の式により与えられる楕円の縦横比AspectRatioが利用される。
【0087】
【数15】
Figure 2004086891
ただし、Dmajorは楕円の長軸における画素数であり、Dminorは楕円の短軸における画素数である。縦横比AspectRatioが3.0に設定されたMaxAspectRatioより大きければ、スキンカラー領域はあまりに長細いので顔ではないオブジェクトに対応している。スキンカラー領域が顔でないと判断されれば、ステップS10の処理は実行されない。
【0088】
スキンサブマップが楕円に対して受け入れ可能な適合度を有し、かつその楕円が受け入れ可能な縦横比を持てば、そのスキンサブマップは潜在的に顔の位置を示しているとみなしうる。次に、以下の式によるリサイズ係数Sprescaleが求められる。
【0089】
【数16】
Figure 2004086891
ただし、75画素に設定されたAimEyeDistanceは両目の間の望ましい距離であり、2.0に設定されたFaceWidthEyeDistanceRatioは典型的な幅と両目の距離との比を表す。もしSprescaleが0.10のMinPrescaleより小さいか、あるいは1.50のMaxPrescaleより大きければ、このスキンカラー領域にはステップS10は実行されない。ステップS12では、カラー画像からサブマップの位置にちょうど対応したサブカラー画像が抽出される。楕円の短軸が顔の幅にほぼ等しいとき、両目の間の距離はAimEyeDistanceに近似する。図12は、このようにリサイズされたサブカラーマップ240を示す。実際の画像はカラー画像であるが、図12ではグレースケールとして描かれている。図13は、ステップS14においてリサイズされた各サブカラー画像に対応した楕円250を示している。実際、画像が処理されるとき、領域外の画素が処理されないようにリサイズされたサブカラー画像とサブマップの端に行と列が追加されることが望ましい。画像の上下にはPad行が、左右にはPad列が追加される。
【0090】
ここで、顔の形状を有するスキンカラー領域が特定されたとすると、候補となる赤目の位置が図14において詳細に示されるステップS16で特定される必要がある。図14を参照するに、わずかな赤い特徴を特定するために、サブカラー画像240が処理される。ここでの処理は、ステップS16aにおける以下の式で与えられる画素値Xを有する新たな単一のバンド画像を定義することにより開始される。
【0091】
X = R − Max(G, B)
ただし、R, G, Bはそれぞれサブカラー画像の赤、緑、青のコード値を表す。
【0092】
この新たな画像において、赤目は瞳の輝きによる中央部に低いコード値を有する小さな領域を備えた高いコード値の小さな楕円領域として現れる。輝きによる影響は、例えば3×3カーネルのW_close×W_closeカーネルを利用したグレイスケールモルフォロジクロージング(morphological closing)を実行することにより削除される。グレイスケールモルフォロジ演算に関しては、「Image Analysis and Mathematical Morphology, Volume 1, Jean Serra, Academic Press (1982), pp.424−478」に説明されている。
【0093】
次に、ステップ」S16dにおいて、高いコード値を有する小領域が、例えば5×5カーネルのW_open×W_openカーネルを用いたグレイスケールモルフォロジオープニング操作により取り除かれる。ステップS16dにおいて、オープンされた画像がクローズされた画像から差し引かれ、残差画像が形成される。この画像には、オープンされた画像にあったものでクローズされた画像になかったものが示される。すなわち、高いコード値を有する小領域がサブカラー画像のわずかな赤い特徴に対応している。次に、ステップS16eにおいて、残差画像が以下に示されるカーネルを有する線形フィルタによりスムージングされる。
【0094】
【数17】
Figure 2004086891
スムージングされた残差画像の各画素に対し、その画素を中心とする7×7のウィンドウが検討される。ステップS16fにおいて、当該画素のコード値が5に設定された閾値Tpeakを以上で、かつウィンドウ内の他のすべての画素のコード値以上であれば、その画素はピーク(peak)として分類される。図15は、図12のすべてのサブカラー画像に対するピーク237を示す。スムージングされた残差画像においてすべてのピークが検出された後、ステップS16gにおいて各ピークが検討される。ある画素がピークとして分類され、この画素の西、北西あるいは北東方向の隣接画素もまたピークとして分類されれば、当該ピークはステップS16hにおいて削除される。
【0095】
ピークとして分類された画素は赤目の候補となる。しかしながら、ピークの位置は赤目ではなく瞳の中の輝きに一致している可能性がある。このため、ステップS16iにおいてピークからの距離が2のGlintRadus内にある画素が検討される。赤目の候補画素は以下で定義される最大カラースコアPcolorを有する隣接画素にシフトされる。
【0096】
次に、赤目画素候補が類似の色の連続画素領域を拡大するためのシード(seed)として使用される。この画素領域の画素数がMinSizeより小さいか、あるいはMaxSizeより大きいとき、この画素領域は赤目を生じるサイズではなく、赤目画素候補から除かれる。
【0097】
上記処理により、ステップS16kにおいて、各サブカラー画像に対して赤目画素の候補マップが生成される。図13の楕円は潜在的に顔と特定された図12の対応するサブカラー画像における領域の近似マップである。従って、楕円の内部の候補となる赤目画素のみが図16に示される目検出の次の段階で考察される。
【0098】
再び図9を参照するに、目を検出することの目的は、赤目画素の候補が本当に目の一部であるかを決定することにある。ステップS18における目の検出には、カラー画像をモノトーン化したものが必要とされる。次の等式
【0099】
【数18】
Figure 2004086891
を利用した緑画素コード値を変換することによりコントラストが上げられた後、カラー画像の緑バンドが利用される。ただし、Gは緑バンドのコード値、γは2.0に設定されたパラメータである。このカラー画像をモノトーン化したものは、ルミナンス画像(luminance image)と呼ばれる。
【0100】
目検出処理におけるステップS20は、テンプレートマッチング処理に基づく。テンプレートとしては、任意の目の画像あるいは目の画像の任意の組み合わせが利用可能である。図17に示される画像260は左目のテンプレートを示している。また画像270はこのテンプレートのゾーンへの分割を示している。ゾーン1は眉領域、ゾーン2と3はそれぞれ目の左側と右側、ゾーン4は瞳とアイリス(iris)を含んでいる。この目のテンプレートは、両目の間の距離が306画素のTemplateEyeDistanceであって、かつこの両目の傾きがほぼ0である画像から取られたものである。上述のように、リサイズされたカラーサブ画像の赤目のペアは、ほほAimEyeDistance(75画素)だけ離れているべきである。従って、テンプレートを適切なサイズにするために、一方の目が以下の式
【0101】
【数19】
Figure 2004086891
で与えられる係数によりリサイズされる。
【0102】
実際、楕円の短軸から顔の幅を推定することは、常に正確に行われるとは限らない。また目は傾いているかもしれない。このため前述の左目テンプレートとゾーンマップから始めて、ステップS22において様々なサイズや向きをもつ左目、右目(左目のミラーイメージ)及びゾーンマップが生成される。オリジナルのアイテンプレートとゾーンマップは、SStepのインクリメントによりS×NarrowからS×Wideにリサイズされる。Narrow, Wide及びSStepの好適な値はそれぞれ1.5、0.50及び0.05である。各リサイズ係数に対して傾きを調整するために、ステップS22においてTStepの角度のインクリメントで−MaxTilt(時計回りに)MaxTiltの範囲で傾けられたテンプレートやゾーンマップが生成される。MaxTiltの好適な値は30°であり、TStepの好適な値は2.0°である。
【0103】
図16を参照するに、図9のステップS20の詳細なフローチャートが示されている。ステップS20aにおいて左右の赤目ペアに属する赤目画素の候補のペアが検討される。ステップS20bにおいて、オリジナルのアイテンプレートに対する目のスケールは候補となる赤目画素ペア間の距離と以下の等式によって関連付けられる。
【0104】
【数20】
Figure 2004086891
ただし、L(R)は左(右)赤目画素の候補の列、L(R)は左(右)赤目画素の候補の行を表す。(列番号は1から始まり左から右に増えていく。行番号は1から始まり上から下へ増えていく。)赤目画素間の傾きは以下の式により与えられる。
【0105】
【数21】
Figure 2004086891
上述のように、解像度SStepでのS×NarrowからS×Wideの範囲のリサイズ係数と解像度TStepでの−MaxTiltからMaxTiltまでの角度で、アイテンプレートとゾーンマップテンプレートが調整される。候補となる赤目画素のペアに対してSpairとTiltの値に最も近い左目アイテンプレート、右目アイテンプレート及びゾーンマップが以下の相関ステップにおいて利用される。もしSpairとTiltがこの範囲外にあるとき、このペアにはさらなるステップS20cの処理が実行されない。
【0106】
あるアイテンプレートが選択された後、次のステップは赤目画素の周囲の領域が目にマッチしているかどうか判断される。この決定は、ステップS20dにおいてルミナンス画像の候補となる左赤目画素の周囲の領域と左目アイテンプレートの相関と、候補となる右赤目画素の周囲の領域と右目アイテンプレートの相関とを実行することにより行われる。相関プロセスの1つのステップにおいて、テンプレートとルミナンス画像の画素をマッチさせ、それらのコード値の積を計算する。テンプレート画像の中心は、目の中心に対応している。候補となる赤目画素は接近しているが、必ずしも目の中心に位置しないので、この候補となる赤目画素の周囲の長さ3のLookAround距離により画成される正方形の内部のすべての画素にマッチするテンプレートの中心との相互の関連付けを複数回実行する。この相互の関連付けは、テンプレートのゾーン1から4に対して別々に実行される(図17参照)。これらの相関はCz1, Cz2, Cz3及びCz4と呼ぶことにする。さらに、全体の相関がゾーン1から4の和からなる領域に対し計算される。この全体の相関をCと呼ぶことにする。最大の全体相関値Cを有する赤目画素の候補の周囲の正方形内の画素は、その赤目画素の候補を含む目の中心の最良の推定である。この画素をアイセンター画素と呼ぶことにする。左右両方の赤目画素候補がそのアイセンター画素を持っている。
【0107】
相関プロセスが以下で詳述される。テンプレート画像が関数Φ(p, l)により表される。ただし、pは列番号、lは行番号を表す。テンプレートの列数と行数は、それぞれwとhにより表される。アイテンプレートの中心位置は、目の中心にほぼある。テンプレートのゾーンは以下で与えられる積Πを計算することによって、列pと行lにおけるΓ(p, l)によって表されるルミナンス画像と相互に関連付けされる。
【0108】
【数22】
Figure 2004086891
ただし、p∈Zは列pがゾーンZにあるということを意味し、l∈Zは行lがゾーンZにあるということを意味する。またNはゾーン内の画素数を表す。またゾーンZにおけるテンプレートの以下の式で与えられる平均コード値も
【0109】
【数23】
Figure 2004086891
計算される。さらに、ゾーンZにおけるテンプレートの標準偏差もまた以下の式に従って計算される。
【0110】
【数24】
Figure 2004086891
同様にして、
【0111】
【数25】
Figure 2004086891
を使ってゾーンZのルミナンス画像の平均コード値と、
【0112】
【数26】
Figure 2004086891
を使ってその標準偏差が計算される。
【0113】
以上の式に従い計算された値を使って、ルミナンス画像とゾーンZのテンプレートの相関が以下の式により求められる。
【0114】
【数27】
Figure 2004086891
画像とテンプレートのコード値がゾーンZにおいて完全に一致しているとき、Cは1.0となる。一方、画像とテンプレートが完全に相関がないとき、Cは0となる。
【0115】
アイセンター画素に対してC, Cz1, Cz2, Cz3及びCz4の値は、ステップS20eにおける赤目画素ペアの候補がサブカラー画像において赤目の一部となる確率を表すスコアの計算に使われる。各相関は、0.0から1.0までの対応するスコアリング関数の変数として使われる。例えば、pC(C)として表される全体の相関に関するスコアリング関数は、もしあるアイセンター画素に対するCの値が当該画素が実際には目の中心にないということを示していれば、pC(C) = 0.0となる。一方、もしCの値がテンプレートと目に関して典型的な相関関係を示す範囲にあれば、PC(C) = 1.0となる。それ以外では、pC(C)はそれらの中間の値をとる。スコアリング関数と以下で紹介される他のスコアリング関数が図18に示される。
【0116】
候補となる赤目のペアに対する全体のスコアに後で結合されるスコアは、これらのスコアリング関数に基づき定義される。以下の等式により、全体の相関Cに関するスコアPcorrは、
corr = pC(C)
と定義される。
ゾーン相関に関するスコアPzoneは、ゾーン相関スコアリング関数の加重平均である。ゾーン4(瞳)における相関は他のゾーンよりも目の存在を示すより信頼性の高いとして使われる。このため、ゾーン4は他のゾーンよりもより大きなウェイトが置かれる。典型的には、そのウェイトWは6.0に設定される。このときPzoneは以下の式によって与えられる。
【0117】
【数28】
Figure 2004086891
もしアイセンター画素における中心となるルミナンス画像の特徴が実際に目であるとき、全体の相関Cを求める過程において計算されるルミナンス画像の標準偏差
【0118】
【外4】
Figure 2004086891
は適切な指標となる。例えば、もし
【0119】
【外5】
Figure 2004086891
がかなり小さければ、この特徴はあまりに低いコントラストを有するので、目とは判断されない。これにより、
【0120】
【外6】
Figure 2004086891
に関するスコアは以下の式により定義することにする。
【0121】
【数29】
Figure 2004086891
最終的に、候補となる赤目画素の色は実際の赤目を示しているに違いない。この計算のため、候補となる赤目画素の赤、緑および青のコード値が、明度(Lum)、色相(Hue)及び彩度(Sat)の値に変換される。明度は以下のように計算される。
【0122】
【数30】
Figure 2004086891
明度Lumの値は0から可能な最大コード値までの範囲をとる。彩度Satは以下の式により求められる。
【0123】
【数31】
Figure 2004086891
彩度Satは0から100までの範囲をとる。色相については、「Computer Graphics Principles and Practice 2nd ed., Addison−Wesley Publishing Company, page 592」に記載の定義に従う。ここでは、赤が120°の色相角度にシフトされるという点が除かれる。色相Hueの値は、0°から360°の範囲をとってもよい。候補となる赤目画素の色に関するスコアは、
color = pL(Lum)pH(Hue)pS(Sat)
によって定義される。
【0124】
この結果、赤目画素の候補が実際に画像中の赤目の一部になっている確率を示すスコアPeyeが求められる。このスコアは、
eye = Pcorrzonesigmacolor
により定義される。この値は0.0から1.0の範囲をとる。スコアPeyeはペアとなる赤目画素の候補の左右両方に対し計算される。この2つの値の平均は、
【0125】
【数32】
Figure 2004086891
により与えられる。Ppairが最大となる赤目画素の候補ペアを、ステップS20fにおける赤目画素のベストの候補ペアと呼ぶことにする。もしPpairが0.05に設定された閾値MinEyeScoreを上回れば、さらなる処理が実行される。一方、もしPpairが0.05に設定された閾値MinEyeScoreを上回っていなければ、ステップS20gにおいて赤目ペアは当該サブカラー画像には存在しないと判断される。
【0126】
検出された赤目ペアが人間の顔の領域にあることを保証することによって、赤目ペアの偽陽性検出を最小化することが重要である。本発明の好適な実施例では、図1におけるフェース検証36がフェース検出器を検出された赤目ペアの周囲の領域に適用することにより実行される。もしフェース検出器が顔を検出すればこの赤目ペアは確定され、一方もし顔が検出されなければ、検出された赤目ペアは偽と判定され、削除される。人間の顔の検出に関しては、例えば、「”Face Detection in Still Gray Images”, B. Heisele, T. Poggio, M. Pontil, MIT Artificial Intelligence Lab, Memo 1687, May 2000」あるいは米国特許第5,710,833号「”Detection, recognition and coding of complex objects using probabilistic eigenspace analysis”, Moghaddam and Pentland」のような従来技術が知られている。フェース検証36に従い、赤目のリスト38が生成され、赤目補正段階40において赤目リストに関して補正が開始されてもよい。より望ましいかつ美しい瞳の色変換を行うために、黒のようなより自然な色に赤い画素を置き換えることにより補正が実行される。
【0127】
赤目ペアの存在を判断するより計算量の少ない方法では、図9のステップS24において顔を2つに分ける直線に関して人間の顔はほぼ対称になるという事実を利用している。このため、赤目画素のベストな候補ペアを結ぶ直線の傾きが0になるようサブカラー画像が回転される。次に、このペアの中点を中心とする画像がサブカラー画像から抽出される。この画像は、横幅が赤目画素の候補ペア間の距離の1.5倍、縦が横幅の1/4のサイズをもつ。次に、この画像が半分に切断される。この左ハーフ画像はE left(p, l)と、右ハーフ画像はE right(p, l)と呼ばれる。ただし、上付き添え字xはカラー画像のバンドを表す。例えば、E left(p, l)は、画像の赤バンドを表す。右ハーフ画像における列は鏡像になるよう反転される(例えば、第1列が最終列になる)。E left(p, l)とE right(p, l)の相互の関連付けが、まず以下の式のような積の和を計算することにより実行される。
【0128】
【数33】
Figure 2004086891
ただし、pとlはそれぞれハーフ画像の列と行を表し、上式での和はハーフ画像のすべての列と行に関して行われる。またNはハーフ画像中の画素数を表す。このとき相関は以下の式により与えられる。
【0129】
【数34】
Figure 2004086891
ただし、M leftとM rightはハーフ画像のバンドxの平均コード値を、σ leftとσ rightは標準偏差を表す。スコアPsymは対称スコアリング関数pSym(C sym)に基づき、以下のように定義される。
【0130】
sym = pSym(C sym)pSym(C sym)pSym(C sym
最終的なスコアPは、以下で示されるPsymとPpairの積となる。
【0131】
P = Psympair
もし0.0から1.0までの値をとりうるこのスコアが0.05に設定された閾値MinScore以上であれば、ステップS26において候補となる赤目画素ペアはリサイズされたサブカラー画像において赤目不良ペアの位置を表しているとみなされる。
【0132】
最終的にステップS28において、オリジナルカラー画像の左右の赤目不良の位置が、リサイズされたサブカラー画像の左右の赤目画素の候補の位置に基づき、以下の式を使って計算される。
【0133】
【数35】
Figure 2004086891
【0134】
【数36】
Figure 2004086891
ただし、pとlはリサイズされたサブカラー画像における左の候補となる赤目画素の列と行をそれぞれ表し、p’とl’はオリジナルカラー画像における対応する位置を表す。
【0135】
2つの異なるスキンカラー領域は、楕円に適合された後、重なり合ったり、あるいは接近することがある。その結果、同一の赤目ペアが2回検出されたり、あるいは2つの赤目ペアが互いに接近し過ぎて赤目として検出されなかったりすることがある。このため、カラー画像中のすべての赤目ペアの位置が確定された後、任意の2つの赤目ペアが20画素分に設定されたMinInterpairEyeDistance以下しか間隔がないかどうか判定される。もしペア間の間隔がMinInterpairEyeDistance以下しかなければ、ステップS30においてスコアの小さいペアが削除される。
【0136】
本発明は、人間の顔や赤目以外のオブジェクト、例えば、馬の検出に適用可能である。「”Body Plans”, Forsyth and Fleck, Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition, 1997」において、デジタル画像における馬検出システムが提案されている。このシステムは、色とテクスチャ基準を利用して、画像を馬領域の候補にセグメント化し、関連する幾何学的推論をサポートするいわゆる「ボディープラン」を利用して、拡大されたセグメントや領域を組み合わせる。このボディープランは本質的に馬体の位相モデルである。この馬検出システムの検出率は本発明により改善されうる。具体的には、ForsythとFleckにより提案されたシステムでは、オブジェクト特定セグメンテーションマップのみを用いているので、非オブジェクト特定セグメンテーションマップを付け加えることにより、馬に対応する領域が画像から適切に抽出される確率を、言い換えると正確に馬を検出する確率を高めることができる。色とテクスチャ基準を利用した非オブジェクト特定セグメンテーションマップは、色とテクスチャ性質の両方に基づいたセグメンテーション方法を利用して得ることができる(「”Markov Random Filed Models for Unsupervised Segmentation of Textured Color Images”, Panjwani and Healey, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 17, no. 10, October 1995, pp. 939−954」を参照)。顔の検出と同様に、馬の所定のボディープランに対するパターンマッチングのために併合されたセグメンテーションマップが利用されたり、2つのセグメンテーションマップを用いて馬が検出され、馬領域の完全な抽出と余分な検出の削除を行うため検出結果が併合される。
【0137】
本発明は、デジタル画像認識技術に関する。ここでのデジタル認識技術とは、認識すべきデジタル画像のデジタル処理技術を意味するものであり、人間が認識可能なオブジェクト、属性あるいは状態に有用な意味づけが行われる。
【0138】
以上、本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、様々な変形及び変更が可能である。
【図面の簡単な説明】
【図1】図1は、本発明による好適な画像におけるオブジェクト検出技術を示すブロック図である。
【図2】図2は、本発明を実現するためのコンピュータシステムを示した図である。
【図3】図3は、図1に示された連続的なスキンカラー領域から構成されるカラーセグメンテーションマップの生成方法に関する詳細なフローチャートを示す図である。
【図4】図4は、図3に示されたカラーセグメンテーションマップ生成方法に従い生成されたカラーセグメンテーションマップを表した図である。
【図5A】図5Aは、オブジェクト特定セグメンテーションマップを生成するための図1に示されたオブジェクト特定パスにおける適応型閾値の決定例を示す図である。
【図5B】図5Bは、オブジェクト特定セグメンテーションマップを生成するための図1に示されたオブジェクト特定パスにおける適応型閾値の決定例を示す図である。
【図5C】図5Cは、オブジェクト特定セグメンテーションマップを生成するための図1に示されたオブジェクト特定パスにおける適応型閾値の決定例を示す図である。
【図6】図6は、オブジェクト特定セグメンテーションマップを生成するための図1に示されたオブジェクト特定パスにおいて拡大する領域例を示す図である。
【図7】図7は、オブジェクト特定セグメンテーションマップを生成するための図1に示されたオブジェクト特定パスにおける形状分解例を示す図である。
【図8】図8は、デジタル画像、非オブジェクト特定セグメンテーションマップ及びオブジェクト特定セグメンテーションマップの例を示す図である。
【図9】図9は、図1に示された赤目ペア分類器のソフトウェアプログラムのフローチャートを示す図である。
【図10】図10は、図4に示された連続的なカラー領域を詳細に示した図である。
【図11】図11は、図10に示された連続的なカラー領域を適合させた楕円を示す図である。
【図12】図12は、リサイズされたフェース領域の候補を示す図である。
【図13】図13は、図12に示された適合されたフェース領域の候補に対応するリサイズされた楕円を示す図である。
【図14】図14は、図9に示されたフローチャートにおける赤目候補を決定する部分の詳細なフローチャートを示す図である。
【図15】図15は、図12の赤目不良の候補を示す図である。
【図16】図16は、図9に示されたフローチャートにおける赤目を決定する部分の詳細なフローチャートを示す図である。
【図17】図17は、アイテンプレートとゾーンマップを示す図である。
【図18】図18は、図9に示された赤目ペア分類器のスコアリング関数を示す図である。
【符号の説明】
10  入力画像
12  カラーセグメンテーションステージ
14  カラーセグメンテーションマップ
16  オブジェクト特定パス
18  オブジェクト特定セグメンテーションマップ
20  スキン画素検出ステージ
22  適応型判別ステージ
24  領域抽出ステージ
26  領域拡大ステージ
28  形状分解ステージ
30  併合ステージ
32  併合セグメンテーションマップ
34  赤目ペア分類器
36  フェース検証器
38  赤目リスト
40  赤目補正ステージ
110  コンピュータシステム
112  マイクロプロセッサベースユニット
114  ディスプレイ
116  キーボード
118  マウス
120  セレクタ
122、132  ドライブ装置
124  コンパクトディスク
126  フロッピー(登録商標)ディスク
128  プリンタ
130  PCカード
134  デジタルカメラ
136  スキャナ
140  通信リンク

Claims (6)

  1. 非オブジェクト特定基準に従ってデジタル画像の第1セグメンテーションマップを生成するステップ;
    オブジェクト特定基準に従って前記デジタル画像の第2セグメンテーションマップを生成するステップ;及び
    前記第1及び第2セグメンテーションマップを利用することにより、前記デジタル画像におけるオブジェクトを検出するステップ;
    からなることを特徴とするデジタル画像におけるオブジェクト検出方法。
  2. 請求項1記載のオブジェクト検出方法であって、さらに、前記オブジェクトを検出するステップの前に、前記第1及び第2セグメンテーションマップを統合し、パターンマッチングを利用することにより前記統合されたセグメンテーションマップにおいてオブジェクトを検出するステップを備えることを特徴とする方法。
  3. 請求項1記載のオブジェクト検出方法であって、さらに、パターンマッチングを利用することにより前記第1及び第2セグメンテーションマップのそれぞれにおいてオブジェクトを検出するステップを備えることを特徴とする方法。
  4. 請求項1記載のオブジェクト検出方法であって、前記非オブジェクト特定基準はカラー同質性基準であり、前記オブジェクト特定基準はオブジェクト特定カラー類似性基準であることを特徴とする方法。
  5. 請求項4記載のオブジェクト検出方法であって、皮膚領域の検出に際し、前記カラー同質性基準及び前記オブジェクト特定カラー類似性基準の少なくとも一方はスキンカラーに関し、前記検出されたオブジェクトは検出スキンカラー領域であることを特徴とする方法。
  6. 請求項5記載のオブジェクト検出方法であって、さらに、前記検出スキンカラー領域において赤目を検出するステップを備えることを特徴とする方法。
JP2003208099A 2002-08-22 2003-08-20 デジタル画像におけるオブジェクト検出方法 Pending JP2004086891A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/225,720 US7035461B2 (en) 2002-08-22 2002-08-22 Method for detecting objects in digital images

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009281963A Division JP4903854B2 (ja) 2002-08-22 2009-12-11 デジタル画像におけるオブジェクト検出方法

Publications (1)

Publication Number Publication Date
JP2004086891A true JP2004086891A (ja) 2004-03-18

Family

ID=31495313

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2003208099A Pending JP2004086891A (ja) 2002-08-22 2003-08-20 デジタル画像におけるオブジェクト検出方法
JP2009281963A Expired - Lifetime JP4903854B2 (ja) 2002-08-22 2009-12-11 デジタル画像におけるオブジェクト検出方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2009281963A Expired - Lifetime JP4903854B2 (ja) 2002-08-22 2009-12-11 デジタル画像におけるオブジェクト検出方法

Country Status (3)

Country Link
US (1) US7035461B2 (ja)
EP (1) EP1394723A3 (ja)
JP (2) JP2004086891A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285944A (ja) * 2004-08-11 2006-10-19 Fuji Photo Film Co Ltd 被写体の構成要素を検出する装置および方法
JP2006285956A (ja) * 2005-03-11 2006-10-19 Fuji Photo Film Co Ltd 赤目検出方法および装置並びにプログラム
JP2008506199A (ja) * 2004-07-08 2008-02-28 インテル・コーポレーション 表面モデルから抽出される基本フィーチャの組み合わせによる走査ビーム画像のシミュレーション
JP2011503704A (ja) * 2007-11-08 2011-01-27 テセラ テクノロジーズ アイルランド リミテッド デジタル画像の赤目欠陥の検出
JP4819912B2 (ja) * 2006-02-07 2011-11-24 クゥアルコム・インコーポレイテッド マルチモードの関心領域ビデオオブジェクトセグメンテーション
US8295593B2 (en) 2009-01-07 2012-10-23 Seiko Epson Corporation Method of detecting red-eye objects in digital images using color, structural, and geometric characteristics

Families Citing this family (115)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7630006B2 (en) * 1997-10-09 2009-12-08 Fotonation Ireland Limited Detecting red eye filter and apparatus using meta-data
US7042505B1 (en) 1997-10-09 2006-05-09 Fotonation Ireland Ltd. Red-eye filter method and apparatus
US7352394B1 (en) * 1997-10-09 2008-04-01 Fotonation Vision Limited Image modification based on red-eye filter analysis
US7738015B2 (en) 1997-10-09 2010-06-15 Fotonation Vision Limited Red-eye filter method and apparatus
US7277589B2 (en) * 2002-09-24 2007-10-02 Fujifilm Corporation Image retouching method, apparatus, and program storage medium, image correcting method, apparatus, and program storage medium, and eye detecting and correcting method apparatus, and program storage medium
US7421418B2 (en) * 2003-02-19 2008-09-02 Nahava Inc. Method and apparatus for fundamental operations on token sequences: computing similarity, extracting term values, and searching efficiently
US8170294B2 (en) 2006-11-10 2012-05-01 DigitalOptics Corporation Europe Limited Method of detecting redeye in a digital image
US7536036B2 (en) * 2004-10-28 2009-05-19 Fotonation Vision Limited Method and apparatus for red-eye detection in an acquired digital image
US7920723B2 (en) 2005-11-18 2011-04-05 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US8254674B2 (en) 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7689009B2 (en) * 2005-11-18 2010-03-30 Fotonation Vision Ltd. Two stage detection for photographic eye artifacts
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US7587085B2 (en) * 2004-10-28 2009-09-08 Fotonation Vision Limited Method and apparatus for red-eye detection in an acquired digital image
US7970182B2 (en) 2005-11-18 2011-06-28 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US9412007B2 (en) 2003-08-05 2016-08-09 Fotonation Limited Partial face detector red-eye filter method and apparatus
US8520093B2 (en) 2003-08-05 2013-08-27 DigitalOptics Corporation Europe Limited Face tracker and partial face tracker for red-eye filter method and apparatus
US7664322B1 (en) * 2003-08-11 2010-02-16 Adobe Systems Incorporated Feature-based color adjustment
US7454040B2 (en) * 2003-08-29 2008-11-18 Hewlett-Packard Development Company, L.P. Systems and methods of detecting and correcting redeye in an image suitable for embedded applications
JP2005099920A (ja) * 2003-09-22 2005-04-14 Fuji Photo Film Co Ltd 画像処理装置および画像処理方法ならびにプログラム
US7835572B2 (en) * 2003-09-30 2010-11-16 Sharp Laboratories Of America, Inc. Red eye reduction technique
US8068436B2 (en) 2003-10-15 2011-11-29 Microsoft Corporation Methods and systems for estimating network available bandwidth using packet pairs and spatial filtering
US7805003B1 (en) * 2003-11-18 2010-09-28 Adobe Systems Incorporated Identifying one or more objects within an image
GB2409027A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
US20110102643A1 (en) * 2004-02-04 2011-05-05 Tessera Technologies Ireland Limited Partial Face Detector Red-Eye Filter Method and Apparatus
US7684642B2 (en) * 2004-03-03 2010-03-23 Eastman Kodak Company Correction of redeye defects in images of humans
US7852377B2 (en) * 2004-04-16 2010-12-14 Arcsoft, Inc. Automatic red eye removal
US7245285B2 (en) * 2004-04-28 2007-07-17 Hewlett-Packard Development Company, L.P. Pixel device
TWI236901B (en) * 2004-06-11 2005-08-01 Oriental Inst Technology An apparatus and method for identifying surrounding environment by means of image processing and for outputting the resutls
JP2006011685A (ja) * 2004-06-24 2006-01-12 Noritsu Koki Co Ltd 写真画像処理方法及びその装置
JP4574249B2 (ja) * 2004-06-29 2010-11-04 キヤノン株式会社 画像処理装置及びその方法、プログラム、撮像装置
US7589728B2 (en) * 2004-09-15 2009-09-15 Lecroy Corporation Digital oscilloscope display and method for image quality improvement
US7403654B2 (en) * 2004-10-04 2008-07-22 Arcsoft, Inc. Enhanced automatic red eye removal
US7736313B2 (en) * 2004-11-22 2010-06-15 Carestream Health, Inc. Detecting and classifying lesions in ultrasound images
JP4420459B2 (ja) * 2005-06-14 2010-02-24 キヤノン株式会社 画像処理装置およびその方法
US7515745B1 (en) 2005-07-11 2009-04-07 Adobe Systems Incorporated Planar map to process a raster image
US7512265B1 (en) 2005-07-11 2009-03-31 Adobe Systems Incorporated Merge and removal in a planar map of a raster image
US7747071B2 (en) * 2005-10-27 2010-06-29 Hewlett-Packard Development Company, L.P. Detecting and correcting peteye
US7599577B2 (en) 2005-11-18 2009-10-06 Fotonation Vision Limited Method and apparatus of correcting hybrid flash artifacts in digital images
US9143657B2 (en) * 2006-01-24 2015-09-22 Sharp Laboratories Of America, Inc. Color enhancement technique using skin color detection
US8265392B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
JP4643715B2 (ja) 2006-02-14 2011-03-02 テセラ テクノロジーズ アイルランド リミテッド 赤目ではない目の閃光による不良の自動的な検知および補正
JP4549997B2 (ja) * 2006-03-30 2010-09-22 富士フイルム株式会社 赤目検出装置、赤目検出方法、および赤目検出プログラム
JP5354842B2 (ja) * 2006-05-26 2013-11-27 キヤノン株式会社 画像処理方法および画像処理装置
DE602007012246D1 (de) 2006-06-12 2011-03-10 Tessera Tech Ireland Ltd Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern
US8065313B2 (en) * 2006-07-24 2011-11-22 Google Inc. Method and apparatus for automatically annotating images
US7720284B2 (en) * 2006-09-08 2010-05-18 Omron Corporation Method for outlining and aligning a face in face processing of an image
FR2910143B1 (fr) * 2006-12-19 2009-04-03 Eastman Kodak Co Procede pour predire automatiquement des mots dans un texte associe a un message multimedia
US20080170778A1 (en) * 2007-01-15 2008-07-17 Huitao Luo Method and system for detection and removal of redeyes
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
US8134762B2 (en) * 2007-01-29 2012-03-13 Sharp Laboratories Of America, Inc. Methods and systems for characterizing regions of substantially-uniform color in a digital image
JP2010520567A (ja) * 2007-03-05 2010-06-10 フォトネーション ビジョン リミテッド 顔の位置および向きを用いた赤目の誤検出フィルタリング
US9424488B2 (en) * 2007-06-14 2016-08-23 Hewlett-Packard Development Company, L.P. Applying a segmentation engine to different mappings of a digital image
US8503818B2 (en) 2007-09-25 2013-08-06 DigitalOptics Corporation Europe Limited Eye defect detection in international standards organization images
US8212864B2 (en) 2008-01-30 2012-07-03 DigitalOptics Corporation Europe Limited Methods and apparatuses for using image acquisition data to detect and correct image defects
US8433144B2 (en) * 2008-03-27 2013-04-30 Hewlett-Packard Development Company, L.P. Systems and methods for detecting red-eye artifacts
WO2010014067A1 (en) 2008-07-31 2010-02-04 Hewlett-Packard Development Company, L.P. Perceptual segmentation of images
US8081254B2 (en) * 2008-08-14 2011-12-20 DigitalOptics Corporation Europe Limited In-camera based method of detecting defect eye with high accuracy
US8004576B2 (en) * 2008-10-31 2011-08-23 Digimarc Corporation Histogram methods and systems for object recognition
US8682072B2 (en) * 2008-12-30 2014-03-25 Yahoo! Inc. Image segmentation
DE102009009572B3 (de) * 2009-02-19 2010-06-17 Eads Deutschland Gmbh Verfahren zur entropiebasierten Bestimmung von Objektrandkurven
JP5310247B2 (ja) * 2009-05-13 2013-10-09 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8218823B2 (en) * 2009-08-11 2012-07-10 Eastman Kodak Company Determining main objects using range information
JP5402504B2 (ja) * 2009-10-15 2014-01-29 株式会社Jvcケンウッド 擬似立体画像作成装置及び擬似立体画像表示システム
US8300927B2 (en) * 2010-02-11 2012-10-30 Seiko Epson Corporation Mouth removal method for red-eye detection and correction
US8300938B2 (en) * 2010-04-09 2012-10-30 General Electric Company Methods for segmenting objects in images
CN102376095B (zh) * 2010-08-25 2014-01-01 北京中科亚创科技有限责任公司 获取图像闭合区域的方法及装置
US20120050570A1 (en) 2010-08-26 2012-03-01 Jasinski David W Audio processing based on scene type
KR101326230B1 (ko) * 2010-09-17 2013-11-20 한국과학기술원 사용자 동적 기관 제스처 인식 방법 및 인터페이스와, 이를 사용하는 전기 사용 장치
KR101298024B1 (ko) * 2010-09-17 2013-08-26 엘지디스플레이 주식회사 사용자 동적 기관 제스처 인식 방법 및 인터페이스와, 이를 사용하는 전기 사용 장치
TWI441093B (zh) * 2010-10-29 2014-06-11 Altek Corp 立體影像產生方法及立體成像系統
US8687888B2 (en) * 2010-11-18 2014-04-01 Casio Computer Co., Ltd. Region specification method, region specification apparatus, recording medium, server, and system
US8754953B2 (en) 2011-06-24 2014-06-17 Apple Inc. Digital camera providing an extended focus range
US8760527B2 (en) 2011-06-24 2014-06-24 Apple Inc. Extending a digital camera focus range
WO2012177495A1 (en) 2011-06-24 2012-12-27 Eastman Kodak Company Digital camera providing an extended focus range
US9454280B2 (en) 2011-08-29 2016-09-27 Intellectual Ventures Fund 83 Llc Display device providing feedback based on image classification
CN102426649B (zh) * 2011-10-13 2013-08-21 石家庄开发区冀科双实科技有限公司 一种简单的高准确率的钢印数字自动识别方法
JP5777507B2 (ja) * 2011-12-27 2015-09-09 キヤノン株式会社 情報処理装置、情報処理方法、及びそのプログラム
US8838432B2 (en) * 2012-02-06 2014-09-16 Microsoft Corporation Image annotations on web pages
US9439622B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US9439627B2 (en) 2012-05-22 2016-09-13 Covidien Lp Planning system and navigation system for an ablation procedure
US9439623B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical planning system and navigation system
US8750568B2 (en) 2012-05-22 2014-06-10 Covidien Lp System and method for conformal ablation planning
US9498182B2 (en) 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
CN103871028B (zh) * 2012-12-17 2017-12-01 合肥市腾讯信息科技有限公司 图片缺陷调整方法及系统
US9378564B2 (en) * 2013-03-01 2016-06-28 Colormodules Inc. Methods for color correcting digital images and devices thereof
US9552374B2 (en) 2013-08-19 2017-01-24 Kodak Alaris, Inc. Imaging workflow using facial and non-facial features
US20150089446A1 (en) * 2013-09-24 2015-03-26 Google Inc. Providing control points in images
US10319035B2 (en) 2013-10-11 2019-06-11 Ccc Information Services Image capturing and automatic labeling system
CN103544683B (zh) * 2013-10-12 2016-04-20 南京理工大学 一种基于视觉皮层的夜视图像凸显轮廓提取方法
GB2519620B (en) * 2013-10-23 2015-12-30 Imagination Tech Ltd Skin colour probability map
US10114532B2 (en) * 2013-12-06 2018-10-30 Google Llc Editing options for image regions
CN103927719B (zh) * 2014-04-04 2017-05-17 北京猎豹网络科技有限公司 图片处理方法及装置
CN103927718B (zh) * 2014-04-04 2017-02-01 北京金山网络科技有限公司 一种图片处理方法及装置
US9177225B1 (en) 2014-07-03 2015-11-03 Oim Squared Inc. Interactive content generation
CN104778703A (zh) * 2015-04-15 2015-07-15 天津大学 织物图案创意要素自动提取方法
CN105404885B (zh) * 2015-10-28 2019-03-22 北京工业大学 一种二维字符图形验证码复杂背景噪音干扰去除方法
US9858675B2 (en) * 2016-02-11 2018-01-02 Adobe Systems Incorporated Object segmentation, including sky segmentation
US10387744B2 (en) * 2016-06-22 2019-08-20 Abbyy Production Llc Method and system for identifying extended contours within digital images
US10366469B2 (en) 2016-06-28 2019-07-30 Abbyy Production Llc Method and system that efficiently prepares text images for optical-character recognition
RU2628266C1 (ru) 2016-07-15 2017-08-15 Общество с ограниченной ответственностью "Аби Девелопмент" Способ и система подготовки содержащих текст изображений к оптическому распознаванию символов
CN109690554B (zh) * 2016-07-21 2023-12-05 西门子保健有限责任公司 用于基于人工智能的医学图像分割的方法和系统
JP6792364B2 (ja) * 2016-07-22 2020-11-25 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、およびプログラム
CN106156749A (zh) * 2016-07-25 2016-11-23 福建星网锐捷安防科技有限公司 基于选择性搜索的人脸检测方法及装置
US10699684B2 (en) 2017-02-06 2020-06-30 Kodak Alaris Inc. Method for creating audio tracks for accompanying visual imagery
CN106981066B (zh) * 2017-03-06 2019-07-12 武汉嫦娥医学抗衰机器人股份有限公司 一种基于肤色的内脸图像分割方法
US10521691B2 (en) * 2017-03-31 2019-12-31 Ebay Inc. Saliency-based object counting and localization
US10719937B2 (en) 2017-12-22 2020-07-21 ABYY Production LLC Automated detection and trimming of an ambiguous contour of a document in an image
EP3833290A1 (en) 2018-08-10 2021-06-16 Covidien LP Systems for ablation visualization
CN110148121B (zh) * 2019-05-09 2022-11-22 腾讯科技(深圳)有限公司 一种皮肤图像处理方法、装置、电子设备及介质
CN111338545A (zh) * 2020-02-24 2020-06-26 北京字节跳动网络技术有限公司 图像处理方法、组件、电子设备及存储介质
CN113515981A (zh) 2020-05-22 2021-10-19 阿里巴巴集团控股有限公司 识别方法、装置、设备和存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3036285B2 (ja) * 1993-03-05 2000-04-24 ミノルタ株式会社 赤目位置検出装置
US5432863A (en) 1993-07-19 1995-07-11 Eastman Kodak Company Automated detection and correction of eye color defects due to flash illumination
US5710833A (en) 1995-04-20 1998-01-20 Massachusetts Institute Of Technology Detection, recognition and coding of complex objects using probabilistic eigenspace analysis
JP3684017B2 (ja) * 1997-02-19 2005-08-17 キヤノン株式会社 画像処理装置及び方法
US6252976B1 (en) * 1997-08-29 2001-06-26 Eastman Kodak Company Computer program product for redeye detection
US6292574B1 (en) 1997-08-29 2001-09-18 Eastman Kodak Company Computer program product for redeye detection
JP3576025B2 (ja) * 1998-03-02 2004-10-13 富士写真フイルム株式会社 主要被写体抽出方法および装置
JP3506958B2 (ja) * 1998-09-10 2004-03-15 富士写真フイルム株式会社 画像処理方法、画像処理装置及び記録媒体
JP2001067482A (ja) * 1999-08-30 2001-03-16 Atr Media Integration & Communications Res Lab 人物の反応認識装置およびそのためのプログラムを記録したコンピュータ読取可能な記録媒体
EP1229734A1 (en) * 2001-01-31 2002-08-07 GRETAG IMAGING Trading AG Automatic colour defect correction
US6873743B2 (en) * 2001-03-29 2005-03-29 Fotonation Holdings, Llc Method and apparatus for the automatic real-time detection and correction of red-eye defects in batches of digital images or in handheld appliances
US6980691B2 (en) * 2001-07-05 2005-12-27 Corel Corporation Correction of “red-eye” effects in images
EP1293933A1 (de) * 2001-09-03 2003-03-19 Agfa-Gevaert AG Verfahren zum automatischen Erkennen von rote-Augen-Defekten in fotografischen Bilddaten
EP1288859A1 (de) * 2001-09-03 2003-03-05 Agfa-Gevaert AG Verfahren zum automatischen Erkennen von rote-Augen-Defekten in fotografischen Bilddaten
EP1288860A1 (de) * 2001-09-03 2003-03-05 Agfa-Gevaert AG Verfahren zur Verarbeitung digitaler fotografischer Bilddaten, welches ein Verfahren zum automatischen Erkennen von rote-Augen-Defekten umfasst
US7082211B2 (en) * 2002-05-31 2006-07-25 Eastman Kodak Company Method and system for enhancing portrait images

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008506199A (ja) * 2004-07-08 2008-02-28 インテル・コーポレーション 表面モデルから抽出される基本フィーチャの組み合わせによる走査ビーム画像のシミュレーション
JP2006285944A (ja) * 2004-08-11 2006-10-19 Fuji Photo Film Co Ltd 被写体の構成要素を検出する装置および方法
JP2006285956A (ja) * 2005-03-11 2006-10-19 Fuji Photo Film Co Ltd 赤目検出方法および装置並びにプログラム
JP4819912B2 (ja) * 2006-02-07 2011-11-24 クゥアルコム・インコーポレイテッド マルチモードの関心領域ビデオオブジェクトセグメンテーション
JP2011503704A (ja) * 2007-11-08 2011-01-27 テセラ テクノロジーズ アイルランド リミテッド デジタル画像の赤目欠陥の検出
US8290267B2 (en) 2007-11-08 2012-10-16 DigitalOptics Corporation Europe Limited Detecting redeye defects in digital images
KR101330772B1 (ko) 2007-11-08 2013-11-18 디지털옵틱스 코포레이션 유럽 리미티드 디지털 이미지에서의 적목 결함 탐지
US8295593B2 (en) 2009-01-07 2012-10-23 Seiko Epson Corporation Method of detecting red-eye objects in digital images using color, structural, and geometric characteristics

Also Published As

Publication number Publication date
US7035461B2 (en) 2006-04-25
JP2010102725A (ja) 2010-05-06
EP1394723A2 (en) 2004-03-03
EP1394723A3 (en) 2011-04-13
JP4903854B2 (ja) 2012-03-28
US20040037460A1 (en) 2004-02-26

Similar Documents

Publication Publication Date Title
JP4903854B2 (ja) デジタル画像におけるオブジェクト検出方法
JP4755202B2 (ja) 顔特徴の検出方法
US8385609B2 (en) Image segmentation
JP4234381B2 (ja) 顔の特徴を位置確認するための方法及びコンピュータープログラム製品
EP0899680B1 (en) Method for automatic detection of human eyes in digital images
US9042650B2 (en) Rule-based segmentation for objects with frontal view in color images
KR100682889B1 (ko) 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
US7876931B2 (en) Face recognition system and method
US7092554B2 (en) Method for detecting eye and mouth positions in a digital image
US8638993B2 (en) Segmenting human hairs and faces
JP3999964B2 (ja) 目を検出するマルチモードデジタル画像処理方法
US20050147280A1 (en) System and method for face recognition using synthesized images
JP4597391B2 (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
Herodotou et al. Automatic location and tracking of the facial region in color video sequences
JP4098021B2 (ja) シーン識別方法および装置ならびにプログラム
JP2003030667A (ja) イメージ内で目を自動的に位置決めする方法
JP2000048184A (ja) 画像処理方法及び顔領域抽出方法とその装置
Tsai et al. Robust in-plane and out-of-plane face detection algorithm using frontal face detector and symmetry extension
Paschalakis et al. Real-time face detection and tracking for mobile videoconferencing
CN111191549A (zh) 一种两级人脸防伪检测方法
Saber et al. Integration of color, shape, and texture for image annotation and retrieval
Lee et al. Contribution of skin color cue in face detection applications
Bazanov et al. Comparison of gabor wavelet and neural network-based face detection algorithms.
CN112258535A (zh) 超声图像中胼胝体及小脑蚓部的一体化定位及分割方法
Chiu et al. A Face Replacement System Based on Face Pose Estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090617

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090811

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091211