JP2004078912A - デジタルカラー画像において顔を位置付けるための方法 - Google Patents

デジタルカラー画像において顔を位置付けるための方法 Download PDF

Info

Publication number
JP2004078912A
JP2004078912A JP2003194950A JP2003194950A JP2004078912A JP 2004078912 A JP2004078912 A JP 2004078912A JP 2003194950 A JP2003194950 A JP 2003194950A JP 2003194950 A JP2003194950 A JP 2003194950A JP 2004078912 A JP2004078912 A JP 2004078912A
Authority
JP
Japan
Prior art keywords
image
face
grid pattern
average
test
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003194950A
Other languages
English (en)
Inventor
Shoupu Chen
ショウプ チェン
Lawrence A Ray
ローレンス エイ レイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Publication of JP2004078912A publication Critical patent/JP2004078912A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】デジタルカラー画像において顔を位置付けるためのデジタル画像処理方法を提供する。
【解決手段】複数のサンプルの顔画像から平均グリッドパターン要素(MGPe)画像を生成する段階と、デジタルカラー画像から積分画像を生成する段階と、異なる効果的な解像度においてデジタルカラー画像をグリッドパターン要素画像(GPe)に小さくし、且つGPeを用いてMGPeを補正することにより、複数の効果的な解像度において平均グリッドパターン要素(MGPe)画像とデジタルカラー画像との間の補正テストを行うために、積分画像を用いることにより、デジタルカラー画像において顔を位置付ける段階と、から構成される。
【選択図】   図2

Description

【0001】
【発明の属する技術分野】
本発明は、デジタル画像において、人間の顔を自動的に位置決めするためのデジタル画像処理方法に関する。
【0002】
【従来の技術】
デジタル画像処理であって、特に、カメラによる画像捕捉のプロセスをエンハンス及び最適化する目的で行う画像処理において、人間の顔を自動検出することはしばしば有用である。顔の検出の応用は、顔の認識、画像美化、画像シーンバランシング、画像修正、安全監視及び人の識別等を含む。
【0003】
写真撮影者により収集された画像の重要性は、しばしば最も重要な画像の主題となる人間の顔を含む画像にある。画像における顔の存在及び位置、特に、特定の顔の存在及び位置についての知識は、画像捕捉プロセスにおいて多くの有利な改善を行うことを可能にする。それらの一部は先行技術において提案されている。例えば、オートフォーカスカメラ及びセミオートフォーカスカメラは、どこを最良の焦点のために調節するかに関して、しばしば、シーンの一部を選ぶ。カメラがシーンの中に顔を配置する場合、写真撮影者が明らかにその選択を放棄しない限り、焦点を顔に対して最適化することが可能である。1998年10月10日に発行された、Lobo等による米国特許第5,835,616号明細書(特許文献1)において、焦点合わせされた被写体の欠如により低品質がもたらされる、マニュアルによる調整の問題を低減するために、自動化された写真撮影において顔の検出システムが用いられている。
【0004】
更に、シーンにおける顔の検出は、主な被写体の正確な位置の非常に強力な証拠を与える。その点に関連して、米国特許第5,835,616号明細書(特許文献1)において開示されているプロセスは、デジタルカメラにより撮影されたデジタル画像において人間の顔を自動的に見つけ、顔の特徴を調べることにより顔の存在を確認し、次いで、検出された顔上にカメラ撮影の中心を自動的にもつものである。顔の検出はまた、顔及び/又は皮膚の領域に対して適正なカラーバランスの強力な証拠となる。例えば、1998年7月に発行された、Tomitaによる米国特許第5,430,809号明細書(特許文献2)において、ビデオカメラは、自動露出およびオートフォーカスを目的として、顔の被写体に計測フレームを設定するために、顔の被写体を自動的に探知する。更に、一旦、測定フレームが設定されると、自動ホワイトバランスシステムが、顔において最適な皮膚色を得るように色を調節する。その結果、自動ホワイトバランスシステムは自動皮膚色バランスを実施するものといわれる。人間の顔を検出し、次いで顔の部分の色及び/濃度を表すデータを利用して、顔に相当する部分を写真プリンタによって適切にプリントするように、露光量を決定することが開示されている(1997年5月13日に発行された、Kinjoによる米国特許第5,629,752号明細書(特許文献3))。
【0005】
【特許文献1】
米国特許第5,835,616号明細書
【特許文献2】
米国特許第5,430,809号明細書
【特許文献3】
米国特許第5,629,752号明細書
【発明が解決しようとする課題】
多岐に亘って顔の検出技術の提案に関して非常に多くの研究努力が払われてきた。顔の検出は、画像において顔の存在を位置付けることと定義されている。他方、顔の認識は、検出された顔に同一性を与えることと定義されている。顔の検出は、しばしば、顔の認識の予備段階と位置付けられる。一般に、先行技術における顔の検出技術は、特徴ベース又は領域ベースのどちらかとして分類されている。特徴ベースのカテゴリの技術は、先ず、エッジのような低レベルの特徴から得られ、次いで、顔の知識ベースの分析を用いて、画像において顔の候補を見つける。皮膚色及び顔の幾何学的性質のような顔の明らかな特性が、このカテゴリの異なるシステムレベルで利用されている。特徴ベースの方法は、顔の検出においてパターン認識理論を用いることに興味が移行するようになる最近まで、非常に長い間、顔の検出の研究の興味の中心となってきた。特徴ベースの技術において用いられる主な構成要素は、画像の高周波部分から由来するエッジであり、一般に、低周波部分から由来する構成要素と同程度の安定性は備えていない。また、顔の検出のために皮膚色を用いることにおいて、殆どの技術は、非常に低い偽陽性をもつ高い肌の検出正確度を達成するために、注意深くデザインされた皮膚色モデルを用いている。しかしながら、高い正確度の皮膚色モデルは、しばしば、皮膚色モデルが構築されているマジョリティの皮膚色領域の外側にある皮膚色を排除する傾向にある。非マジョリティの皮膚色の排除は、また、顔の検出の失敗をもたらす。
【0006】
近年、パターン認識における進展による恩恵を得て、領域ベースのカテゴリにおける技術は、顔の知識を適用することなく、パターン認識の問題として顔の検出を扱う。このカテゴリにおける方法の性能は、顔を含む種類の画像と顔を含まない種類の画像から学習した例によって練習を積んだ分類器の性能にのみ依存する。練習のプロセスで用いられた顔を含む画像及び顔を含まない画像(又は練習した画像の変化)の数が、分類記の有効性の殆どを決定してしまう。より多くの練習画像により、結果的によりよい分類器が得られる。顔を含む練習画像の数には制約があり得るが、顔を含まない練習画像の数には制約がないとの理解が、一般に受け入れられている。それ故、このカテゴリの技術に対して、練習を繰り返すことは稀ではない。莫大なフットプリント(顔の検出タスクを実行するコンピュータにおける練習済みの分類器の情報を記憶するために必要なメモリ空間)が得られ、限られたコンピュータリソースを用いるアプリケーションに対して問題となり得る。このカテゴリの技術においては、顔の構造的(幾何学的)情報は基本的に用いられないことに、留意する必要がある。
【0007】
顔の検出については画像理解の主題に関連してここ数年に亘って研究されてきたが、強力な顔の検出アルゴリズムを必要とする場合は特に、目覚しい計算要求を満たさなければならない領域が残されている。数多くの方法が考案され、それらは種々の画像化条件の範囲に亘って妥当な性能を示している。例えば、“Human Face Detection in A Complex Background”と題され、Yang等により1994年にPattern Recognition, Vol.27, No.1, pp.53−63において報告された最近の研究論文において、画像において人間の顔を位置付けるための階層的な知識ベースの方法が提案された。そのような方法は、比較的高度の処理能力(携帯型カメラに比較して)を有する写真プリンタのような大型処理装置において十分うまく実施することが可能である。その課題は、メモリリソースが限られており、低いコストのコンピュータを用いるカメラにおいて、適切にこれらの顔の検出方法を実施することである(速い実施)。これがうまく実施される場合、シーンにおける顔の検出は、画像捕捉プロセスにおける数多くの他の改善に対する跳ね板のような役割を果たすこととなる。更に、画像捕捉の後にダウンストリームアクティビティを実施するために、顔を検出することは有用であり、例えば、顔の検出は、後のプリント(例えば、インデックスのプリント)のためのアップ/ダウンオリエンテーション(up/down orientation)の証拠を提供することとなる。
【0008】
したがって、上記の問題を克服するために、改善された顔検出方法に対する要求がある。
【0009】
本発明における、上記及び他の側面、目的、特徴及び優位性は、以下、詳細に説明する本発明に従った好適な実施形態及び請求項が精査され、並びに説明に伴う図を参照されることにより、より明快に理解され、高く評価されることであろう。
【0010】
【課題を解決するための手段】
デジタルカラー画像において顔を位置付けるためのデジタル画像処理方法であって、複数のサンプルの顔画像から平均グリッドパターン要素(MGPe:MeanGrid Pattern element)画像を生成する段階と、デジタルカラー画像から積分画像を生成する段階と、異なる効果的な解像度においてデジタルカラー画像をグリッドパターン要素画像(GPe:Grid Pattern element)に小さくし且つGPeを用いてMGPeを補正することにより複数の効果的な解像度において平均グリッドパターン要素(MGPe)画像とデジタルカラー画像との間の補正テストを行うために、積分画像を用いることによりデジタルカラー画像において顔を位置付ける段階と、から構成される。
【0011】
【発明の実施の形態】
図1は、フィルムスキャナのようなカラーデジタル画像ソース100、又はピクチャーCDをもつコンパクトディスクドライブのようなデジタル画像記憶装置を含む本発明の実施形態を実施することにおいて有用である画像処理システムを示している。デジタル画像ソース100からのデジタル画像は、プログラム可能なパーソナルコンピュータ又はSun Microsystems社のスパークワークステーションのようなデジタル画像処理ワークステーション等の画像プロセッサ102に供給される。画像プロセッサ102を、CRT表示装置104、キーボード106及びマウス108のようなオペレータインタフェースに接続することが可能である。また、画像プロセッサ102をコンピュータ読み取り可能記憶媒体107に接続することが可能である。画像プロセッサ102は出力装置109に処理されたデジタル画像を送る。出力装置109は、ハードコピープリンタ、長期保存装置、他のプロセッサへの接続、又は例えばインターネットに接続される画像通信装置から構成することが可能である。
【0012】
以下の記述において、本発明の好適な実施形態について、方法として説明することとする。しかしながら、他の好適な実施形態においては、本発明は、説明する方法によりデジタル画像において人間の顔を検出するためのコンピュータプログラムプロダクトから構成される。本発明の説明において、本発明のコンピュータプログラムは、図1に示すタイプのパーソナルコンピュータのような、何れかの周知のコンピュータシステムを用いることが可能である。しかしながら、多くの他のタイプのコンピュータシステムを、本発明のコンピュータプログラムを実行するために用いることが可能である。例えば、本発明の方法を、デジタルカメラに備えられたコンピュータにおいて実行することが可能である。したがって、ここでは、コンピュータシステムについてこれ以上詳細に説明することはしない。
【0013】
本発明のコンピュータプログラムプロダクトは、周知の画像操作アルゴリズム及びプロセスを使用することが可能であることを理解されたい。したがって、ここでは、特に、本発明の方法の一部を構成するか又は非常に直接的に関係するアルゴリズム及びプロセスについて説明することにする。したがって、本発明のコンピュータプログラムプロダクトの実施形態は、実施のためには有用であるが、ここでは特に図示したり又は説明したりしないアルゴリズム及びプロセスを具体化することが可能である。そのようなアルゴリズム及びプロセスは、当該技術分野においては従来からのものであり、熟達者には熟知されているものである。
【0014】
そのようなアルゴリズムとシステム、そしてハードウェア及び/又はソフトウェアの他の特徴であって、関連する画像を形成するため、或いは処理するための、又は本発明のコンピュータプログラムプロダクトと連携するための特徴は、当該技術分野における周知のアルゴリズム、システム、ハードウェア、部品及び要素から選択して実現することが可能であるが、ここでは、具体的な図示又は説明は行わない。
【0015】
本発明の方法を実行するためのコンピュータプログラムを、コンピュータ読み取り可能記憶媒体に記憶することが可能である。このような媒体は、例えば、磁気ディスク(ハードディスク又はフロッピー(登録商標)ディスク)又は磁気テープ等の磁気記憶媒体、光ディスク、光テープ又は機械読み取り可能バーコード等の光記憶媒体、ランダムアクセスメモリ(RAM:Random Access Memory)等の個体電子記憶媒体、或いはコンピュータプログラムを記憶するための他の何れかの物理的装置又は媒体から構成されることが可能である。また、インターネット又は他の通信手段により画像プロセッサに接続されるコンピュータ読み取り可能記憶媒体に、本発明の方法を実行するためのコンピュータプログラムを記憶することが可能である。当業者は、そのようなコンピュータプログラムプロダクトと同等なものであれば、ハードウェアにおいて構成されることが可能であることを、容易に理解するであろう。
【0016】
ここで、図2を参照するに、本発明の実施形態に従った方法の概略を示している。図2は、本発明の顔検出方法の一実施形態を示すフローチャートである。図に示した実施形態において、入力カラーデジタル画像は一連のカスケードテストを受ける。これらのテストの各々は、高信頼性の顔ではない被写体を排除し、殆どの顔をそのまま残す。この方法は、全てのカスケードテストにおいて非常に大きい真陽性率を維持し、個々のテストにおいては比較的小さい偽陽性率を維持する。テストはカスケードかされているため、全体的に大きい真陽性率と小さい偽陽性率における実行が達成される。本発明において、顔検出のタスクは異なるタイプのテストに分配されている。この分配されるシステムによる方法は、各々の個々のテストにおける負荷を軽減し、これにより顔検出プロセスの速度を速めることができる。
【0017】
図2に示す実施形態においては、基本的に、4つのカスケードテストがある。色度テスト202は、入力デジタルカラー画像における、高信頼性の非皮膚色画素を排除する。色度テストは、従来の皮膚色の検出方法とは異なっている。顔検出のための色特性を用いて、殆どの皮膚色検出技術は、非常に低い偽陽性である高い皮膚検出精度を達成するために、注意深くデザインされた皮膚色モデルを使用する。しかしながら、高い検出精度をもつ皮膚色モデルは、しばしば、皮膚色モデルが構築されたマジョリティの皮膚色領域の外側に位置する皮膚色を排除する傾向にある。非マジョリティの皮膚色の排除は、また、結果的に顔検出の失敗をもたらす。色度テストは、そうではなくて、高精度である非皮膚色の排除を中心に据えている。例えば、色度テストは、飽和した緑又は飽和した青の画素を排除し(黒に設定し)、全ての色相の皮膚色に近い色をもつ画素をそのままの状態に保つ。したがって、色度テストは、非マジョリティの皮膚色画素を排除しない。
【0018】
色度テスト202の次は幾何学的テスト204である。色度テスト段階202において維持された画素は領域(又は画素のクラスター)にグループ化される。これらの領域は、幾何学的テストに合格するかどうかを判断するためにチェックされる。このテストに合格した領域のみが、次の統計テスト、即ち、全ての他の画素が黒に設定されるグリッドパターンテスト206に移行することができる。幾何学的テスト204は、基本的には、領域の幾何学的形状、大きさ及び位置をチェックする。
【0019】
最初の2つのテスト(色度テスト202と幾何学的テスト204)の後、顔を含む可能性がある領域(又は画素のクラスター)が残されており、顔の実際の位置を特定するために更にチェックされる。グリッドパターンテスト206は、平均グリッドパターン要素画像ジェネレータ212において形成される平均グリッドパターン要素画像の支援を受けて、実際の顔の位置を特定するタスクを実行する。グリッドパターンテスト206は、幾何学的テスト段階204から得られた残りの領域からクロッピングされたサブ画像から変換されたグリッドパターン要素画像と平均グリッドパターン要素画像との間の相関係数を評価することにより、類似性のチェックを行う。グリッドパターンテストを合格したサブ画像は顔の候補として印が付けられる。一部の候補は、幾何学的テスト段階204において廃棄された領域に部分的に属すことが可能である。
【0020】
全ての候補は、次いで、ロケーションテスト208においてチェックされる。幾何学的テスト段階204において廃棄された領域の一部に存在する候補は、ロケーションテスト段階208において印が付けられていない。グリッドパターンテスト206は、ラスタ走査の様式で画像において実施される。ラスタ走査を用いると、同じ顔の位置に関して互いに非常に近い複数の候補が結果的に得られることとなる。非常に接近した複数の候補を、距離測定に基づいて1つの候補に結合するために、テスト後処理210が実行される。
【0021】
ここで、図4を参照するに、本発明の方法について非常に詳細に表している。図4は、図2に示した段階を更に細かい段階に分割して示したフローチャートである。図4に示した実施形態において、先ず、標準的な大きさをもつ入力画像を、画像を小さいサイズに変更する段階402で小さいサイズにサイズ変更することが可能である。この段階はオプションであって、この方法の処理速度を増すことが可能である。代表的な入力画像の標準サイズは384x256である。入力画像のサイズを小さく変更することの目的は、色度テストと幾何学的テストのプロセスの速度を増加させることである。このサイズ変更カラー画像は、非皮膚色画素を消去する段階404において処理され、非皮膚色画素は排除される。非皮膚色カラー画素は黒に設定される。従来の皮膚色検出アルゴリズムと異なり、この色度テストには色空間変換及び皮膚色モデリングはない。本発明において、画素が一連の条件を満足する場合、その画素は非皮膚色画素として印が付けられる。消去手順及び関連する代表的な条件は、式(1)における1つの擬似コードにより表され、ここで、rowsnew及びcolsnewは、それぞれサイズ変更された画像の高さ及び幅であり、r、g及びbは画素の三原色成分であり、Rgratio1、Rbratio1、Rgratio2及びRbratio2は所定の係数である。これらの係数の代表的な値は、Rgratio1=1.1、Rbratio1=1.1、Rgratio2=3.5及びRbratio2=5.0である。これらの係数は、多数のサンプル画像を調べることによって半経験的に決定される。画素が条件を満たす場合、画素は黒に設定される。図12A乃至Dは色度テストの例を示している。図12Aには、強度カラー画像1202がある。図12Bには、式(1)を強度画像1202に適用した後の結果である第1バイナリ画像1212がある。第1バイナリ画像1212において、黒色の画素は強度画像1202における非皮膚色画素を表し、他方、白色の画素は強度画像1202における皮膚色画素を表す。
【0022】
【数1】
Figure 2004078912
ここで、図4に再び戻って参照するに、幾何学的テスト204の実施に寄与する3つの段階(残りの画素を領域にクラスター化する段階406、形態学的処理を行う段階408及び不所望領域を消去する段階410)がある。テスト操作をより分かり易く説明するために、図12B及びCに示した画像の例を参照する。残りの画素を領域にクラスター化する段階(又は、図4に示した非常に詳細なフローチャートにおける非皮膚色画素を消去する段階)への入力画像は、図2における色度テスト202から得られるバイナリ画像である。例としてのバイナリ画像は、図12Bの右上部分に示されている。第1バイナリ画像1212における非ゼロ画素はクラスターにグループ化される。定義によれば、クラスターは、クラスター内の全ての画素はまた、クラスター内の他の画素に対して所定の範囲内にあるという性質をもった、空でない一組の黒色でない画素である。代表的な所定の距離は1である。第1バイナリ画像1212における例としてのクラスターは、クラスターR1(1216)、クラスターR2(1218)及びクラスターR3(1220)である。興味深いことに、クラスターR1(1216)は、殆ど接触する状態の2つのクラスターの組み合わせとなっている。複数の画素からなるクラスターに形態学的プロセス408を適用した後、バイナリ画像1212におけるクラスターR1(1216)は、第2バイナリ画像1232において、2つのクラスターR11(1234)及びR12(1236)に分かれる。好適な形態学的プロセスは閉操作である。
【0023】
幾何学的テスト204の最終段階は、不所望クラスターを消去する段階410である。不所望のクラスターは、次のような条件の1つ又はそれ以上を満足するクラスターである。クラスターの最大幅は所定の最小幅より小さい。クラスターの最大高さは所定の最小高さより小さい。代表的な所定の最小幅は、サイズ変更された画像に対しては3である。代表的な所定の最小高さは、サイズ変更された画像に対しては3である。代表的な所定の最小マージンは、サイズ変更された画像に対しては3である。消去されるクラスターの例は、図12に示した第2のバイナリ画像1232において、クラスターR2(1238)、クラスターR11(1234)及びクラスターR4(1240)である。消去される不所望のクラスター410の結果は、図12に示す第3バイナリ画像1242となる。残りのクラスターの例は、クラスターR3(1244)及びクラスターR12(1246)である。
【0024】
図2を参照するに、幾何学的テスト204の後の段階はグリッドパターンテスト206である。グリッドパターンテスト206は、図4において、パラメータのセットを用いるサブ画像をクロッピングする段階414から始まり、クエリー3の段階430までである。グリッドパターンテスト206において用いられる強度画像は、図4に示すように、グレー画像411に変換する段階においてオリジナルカラー画像から変換されるグレースケール画像である。サブ画像をクロッピングする段階414において用いられるパラメータは、パラメータセットのリストを形成する段階412において生成される。パラメータセットは、矩形状ボックスの幅、高さ及びの左上コーナーの位置を含む。そのボックスの幅は、幾何学的テスト段階204において維持されたクラスターの最大幅である。そのボックスの高さは、幾何学的テスト段階204において維持されたクラスターの最大高さである。図12Dに示すボックス1248はそのようなボックスの例である。ボックスの左上コーナーの位置は、バイナリ画像1242の左上コーナーに関して定義される。これらのパラメータは、サブ画像をクロッピングする段階414においてグレースケール画像からサブ画像をクロッピングするためにそれらが用いられる前に、オリジナル画像の大きさに適合するように再度大きさが変更される。
【0025】
グリッドパターンテスト段階206は、平均グリッドパターン要素画像ジェネレータ212の段階において生成される平均グリッドパターン要素(MGPe)画像を用いる。MGPe画像を生成するためのデザインは2つある。それらのデザイン1は汎用のデザインである。デザイン2はデザイン1の特別な場合である。デザイン1の段階を図3Aに示す。デザイン1における第1段階はサンプルとして顔画像を収集する段階304である。大量のクロッピングされた顔画像がマニュアル的に収集される。平均顔画像を得る段階306において、平均顔画像は、全ての収集された顔画像の2つの眼の位置を合わせること及び全ての画素に対する平均強度を得ることにより、得られる。MGPe画像を生成するために、グリッドセルの大きさと位置が決定される。デザイン1において、セルの大きさは異なっており、それらセルの各々は、顔のクラスターの特定範囲をカバーしている(局所的な顔の特徴をカバーする個々のセルを決定する段階308)。セルデザイン1の例を図5に示す。
【0026】
顔画像502において、額部分をカバーするセル506がある。他のセルデザイン1の例をまた、図5に示している。全てのセルを含む最小ボックスは、全てのセルを含むボックスを決定する段階310において決定される。クラスターの境界を形成する例としてのボックス508を図5に示す。このボックスを用いて、サブ画像をクロッピングする段階312において、平均顔画像のサブ画像を得ることが可能である。セル506の右上コーナーのドット504のような4つのコーナーのドットは、それ故、4つのコーナーの位置を決定する段階314において、サブ画像の左上コーナーに関して計算される。平均グリッドパターン要素画像を計算するための効果的な方法は、積分画像を用いることである。論文、Paul Voila et al.,“Robust Real−time Object Detection”, Second International Workshop on Statistical and Computational Theories of Vision, Julu 13, 2001, pp1−25を参照されたい。積分画像の計算の例を図11A及び11Bに示す。図11Aにおいて、画像A(1102)はグレーレベル強度画像であり、図11Bにおいて、画像B(1122)は画像A(1102)の積分画像である。積分画像の大きさは、平均顔強度画像Aと同じである。積分画像B(1122)における図11Aの画像Aの位置1106に対応する位置1126における画素の計算は次式を用いてなされる。
【0027】
【数2】
Figure 2004078912
ここで、
【0028】
【外1】
Figure 2004078912
は、平均顔画像1102における領域1104を規定する。pは、左上コーナーを原点とする二次元画像平面におけるベクトルである。このような場合、P=P′である。実際には、式(2)は、迅速な計算のためにVioraの論文において導入される一対の漸化式により置き換えられる。
【0029】
クロッピングされたサブ画像を用いて積分画像を生成する段階316において積分画像を得た後、平均グリッドパターン画像は、積分画像におけるセルのコーナーの位置を用いて平均グリッドパターン画像を計算する段階318において計算される。平均グリッドパターン画像は平均グリッドパターン要素画像とは異なることを理解する必要がある。平均グリッドパターン画像は平均顔強度画像と同じ大きさである。平均グリッドパターン要素画像は平均グリッドパターン画像から抽出される320。ここで、図11を再び参照するに、4つのコーナーの点p(1108)、p(1110)、p(1112)及びp(1114)により規定されるセル1116がある。このセルは、平均顔画像の鼻の部分をカバーしている。このセルはまた、平均顔画像から計算される平均グリッドパターン画像における同じパターンのセルを表している。平均グリッドパターン画像のためのこのセル内の画像の計算は何れも次式で表される。
【0030】
【数3】
Figure 2004078912
ここで、Φ[p,p,p,p]はグリッドパターン画像における4つのコーナーの点p(1108)、p(1110)、p(1112)及びp(1114)により定義されるセル、φはセルΦ[p,p,p,p]の何れかの画素であり、B(p′)は積分画像(ここでは、p=p′,p=p′,p=p′及びp=p′)におけるp′(それらは、p′(1128)、p′(1130)、p′(1132)及びp′(1134)である)の画素値であり、mはセルの高さ、そしてnはセルの幅である。セル内の全ての画素は同じ値であるため、平均グリッドパターン要素画像を構成するために、各々のセルについて1つの画素が必要である。デザイン1について、平均グリッドパターン要素画像のフォーマットは一次元画像又は二次元画像とすることが可能である。好適なフォーマットは一次元画像である。平均グリッドパターン画像を構成するために、各々の平均グリッドパターン画像のセルから平均グリッドパターン要素画像における画素に順に単純にコピーする。平均グリッドパターン要素(MGPe)画像における画素数は平均グリッドパターン画像におけるセル数に等しい。この操作のための画素をコピーするプロセスの順序は、グリッドパターンテスト段階206において、デザイン1が選択される場合、テストにおいて画像についてのグリッドパターン要素画像を形成するために 同じ順序を用いることが可能であるように、この操作のための画素をコピーするプロセスの順序は記録される必要がある。
【0031】
平均グリッドパターン要素(MGPe)は各々のセルから画素1つのみを取り込むため、クロッピングされたサブ画像の大きさ(即ち、個々のセルの大きさ)は問題にはならない。MGPe画像は、単に、平均顔の主な特性の統計的測定である。実際的には、MGPe画像を生成するためのクロッピングされたサブ画像についての代表的な大きさは105x105とすることができる。
【0032】
ここで、図3Bを参照するに、MGPe画像を生成するためにデザイン2を説明するフローチャートを示している。大量のクロッピングされた顔画像がマニュアル的に収集される。平均顔画像を得る段階374において、平均顔画像は、すべての収集された顔画像の2つの眼の位置合わせを行い、全ての画素について平均強度を得ることにより得られる。MGPe画像を生成するために、グリッドセルの大きさ及び位置が決定されなければならない。デザイン2において、全てのセルは同じ大きさである。このデザインは、2つの眼の中心間の距離e(図6の顔画像602における608)を計算する段階376において開始される。次いで、中心の位置を計算する段階378において2つの眼の中心間の中心位置c(図7の顔画像702における706)を見つける。距離e(608)及び中心位置c(706)は、mxn画素を有する各々のMxNセルを含む領域を規定するために距離e及び中心位置cを用いる段階380において用いられる。ユニット距離をuで表す。u=e/fと表される。fの好適な値は8である。図7においては、中心c(706)から開始し、それぞれ東、西、北及び南を指し示す4つの矢印(矢印704、矢印708、矢印710及び矢印712)を用いる。矢印の先端は、MGPe画像を計算するためであって平均顔画像をクロッピングするために用いられるボックスの境界を規定する。図7に示すように、上部境界は、中心cから(M−δ)ユニット(u)の距離だけ離れ、下部境界は中心cから(M+δ)ユニット(u)の距離だけ離れており、左の境界は中心cからNユニット(u)だけ離れ、右の境界は中心cからNユニット(u)だけ離れている。ユニットuの物理的長さは平均顔画像の大きさに依存することに留意する必要がある。Mについての代表的値は7であり、Nについては7、δについては2、及びδについては2である。この場合、図8に示すように、顔グリッドパターン画像804のデザインは、サブ画像をクロッピングする段階382(図8において示す平均顔画像からクロッピングされたサブ画像802を参照)において用いられる四角形のクロッピング領域と全て同じ大きさの四角形のセル(セル806のような)を有している。
【0033】
デザイン2に対しては、セル506の4つのコーナーの位置を決定する段階384において、サブ画像の左上部コーナーに関して容易に計算することが可能である。デザイン2の全てのセルについてのコーナーの位置を得た後、それに続く段階(積分画像を生成する段階386、平均グリッドパターン画像を計算する段階388及び平均グリッドパターン要素画像を生成する段階390)はデザイン1の場合と非常によく一致している。
【0034】
平均グリッドパターン要素(MGPe)画像は各々のセルから1つの画素を取り上げることから、統計的に、クロッピングされるサブ画像のサイズ(即ち、個々のセルの大きさ)は問題にする必要がないことを、再び理解されたい。MGPe画像は、単に、平均顔の主な特徴の統計的測定である。実際には、デザイン2のためにクロップされたサブ画像についての代表的サイズは105x105であって、15x15画素を有する各々の7x7セルをもつものである。したがって、平均グリッドパターン要素(MGPe)画像は49要素を有している。
【0035】
図4を再び参照する前に、MGPe画像を用いるためには説明を要する。上述の説明から、MGPe画像は平均顔領域の統計的情報(構造及び強度の情報)を収集することが理解できる。画像において顔を位置付けるために、測定の様式を決定する必要がある。本発明においては、統計データ、即ち2つの変数の補正係数(文献 “The Statistical Analysis of Time Series”, T. W. Anderson, John Wiley & Sons, Inc, 1994, chapter 6, entitled Serial Correlation, pp.254−357を参照されたい)を、顔の被写体又は非顔の被写体を分類するために用いる。ここでの2つの変数は、テストされる画像の平均グリッドパターン要素(MGPe)画像とグリッドパターン要素(GPe)画像である。GPe画像はMGPe画像と同じサイズである必要がある。
【0036】
MGPe画像はΦで表され、GPe画像はΦで表される。これら2つの変数の間の補正係数は次式により表され、
【0037】
【数4】
Figure 2004078912
ここで、
【0038】
【数5】
Figure 2004078912
であり、E{}は期待演算子である。
【0039】
非顔被写体及び顔を分離するための統計的測定として補正係数rを用いるために、平均顔のMGPeと顔のGPeとの間の補正係数及び平均顔のMGPeと非顔被写体のGPeとの間の補正係数の分布を調べる。
【0040】
上記デザイン2(段階376乃至段階390)において説明された方法を用いて、顔グリッドパターン要素(GPe)を生成するために数多くのサンプルの顔を用いる。このとき、GPeは、各々の個々のサンプルの顔画像に対して生成され、平均画像に対して生成されるのではないことに留意されたい。式(4)をMGPe及び各々の個々の顔のGPeに適用した後、数多くの補正係数が得られる。これらの補正係数の例としての分布を、図9に、グラフ902における曲線906に示す。明らかなように、非顔GPeについては、補正係数は0.4乃至1の間に殆ど分布している。同じ手法を数多くの非顔サンプル画像に対して適用することができる。MGPeと非顔GPeとの間の補正係数の例としての分布は、図9に、グラフ902における曲線904により示されている。明らかなように、非顔GPeについては、補正係数は、0.4以下に殆ど分布している。したがって、閾値r908を変化させることにより、バランスの取れた偽陽性(失敗されて分類された顔)対真陽性(正確に分類された顔)パフォーマンスが達成される。図10におけるグラフ1002は、閾値r908の関数として偽陽性対真陽性パフォーマンスを表す曲線1004を示している。例えば、閾値0.3(1006)は、サンプル顔のセットから顔を約97.8%含み、同じ閾値は、非顔のセットから非顔の約6.2%を顔として誤って受け入れる。
【0041】
図2を再び参照するに、グリッドパターンテストの段階206は、図におけるサブ画像をクロッピングする段階414からクエリー3の段階430までの段階により詳細について示されている。
【0042】
サブ画像をクロッピングする段階414において示されるパラメータは、パラメータセットのリストを形成する段階412において生成されることを思い起こすことにする。パラメータのセットは、矩形のボックスの幅、高さ及び左上のコーナーの位置を含む。ボックスの幅は、幾何学的テスト段階204において維持されるクラスターの最大幅である。そのようなボックスの例は、図12に示すボックス1248である。ボックスの左上のコーナーの位置は、バイナリ画像1242の左上のコーナーに関して規定される。これらのパラメータは、サブ画像をクロッピングする段階414においてグレースケール画像からサブ画像をクロッピングするために用いられる前に、オリジナルの画像サイズに適合させるために、これらのパラメータを再度変更することを理解する必要がある。
【0043】
このリストからの各々のパラメータのセットに対して、グレー画像を変換する段階411から得られるグレー画像からサブ画像をクロッピングする。このグレー画像は、ブラックに設定される不所望のクラスターを消去する段階410において維持された画像を除く全部を有することに留意されたい。段階410からのパラメータは、それらが段階411において用いられる前に、再度変更されなければならないことを思い出すことにする。グレー画像は、例としての画像1242において示したような被写体を有することができる。例としてのパラメータのセットは、ボックス1248と同じ大きさであるサブ画像をクロッピングすることができる。このサブ画像はR12(1246)のようなクラスターを有する。このクラスターはグレースケールの画素をもっている。クラスターの外側の画素は黒色である。このサブ画像を用いて、積分画像を計算する段階416において対応する積分画像を計算することができる。
【0044】
クロッピングされたサブ画像において、何れかの顔がある場合、それらの大きさは明らかではない。それ故、顔の調査は、可能である最大のセルの大きさ(適切なグリッドパターンセルの大きさから開始する段階418を参照)を用いて開始し、可能である最小のセルの大きさ(クエリー2の段階428参照)まで行われる。7x7グリッドパターン要素画像(例として806参照)フォーマットが顔検出のために用いられることを考えることとする。可能な最大のセルの大きさは、この場合、10x10である。可能な最小のセルのサイズは所定のもので得ある。7x7グリッドパターン要素画像について、10x10のサイズを有するセルを支持するために70x70の領域が必要であり、2x2のサイズを有するセルを支持するためには14x14の領域があれば済む。70x70のサブ画像に対して、調査の段階のサイズが1であれば、可能な最小のセルの大きさに対して、3249回の調査が必要である。また、所定の可能な最大のセルの大きさがある。代表的な可能な最大のセルの大きさは25x25である。2つの連続したセルのサイズ間の差は、所定の倍率により決定される。代表的な倍率は21/8とすることが可能である。
【0045】
グリッドパターンテストは、基本的には、MGPe画像のタイプをテスト画像から得られるGPe画像に関連付ける。2つのタイプのMGPeがあることを思い出すことにする。それらは、積分MGPe画像(デザイン1から)と標準的MGPe画像(デザイン2から)である。
【0046】
不規則なMGPe画像が選択された場合、可能な最大のセルの大きさから始めて、カレントのサブ画像を走査する段階420は、段階416においてクロッピングされたサブ画像から計算される積分画像のパッチをクロッピングする。次いで、段階420は、グリッドパターン要素(GPe)画像を計算するMGPeを計算するために、積分画像と不規則なグリッドパターンのタイプを用いる。グリッドパターンのテストの段階422において、クロッピングされた積分画像のパッチに対応するサブ画像のパッチがGPeとMGPeの補正係数を評価することにより顔を表すかどうかを確認するために、テストがなされる。クロッピングされた積分画像のパッチから計算されたGPeがグリッドパターンテストを合格した場合(即ち、補正係数が所定の閾値、r908より大きい場合)、カレントのパッチの位置と大きさのパラメータは、状態をチェックする段階424において、顔の候補のリストに保存される。
【0047】
上記のグリッドパターンテストは、クロッピングされたサブ画像(クエリー1の段階426参照)における全ての範囲、全ての適切なセルの大きさ(クエリー2の段階428参照)及び全てのパラメータのセット(クエリー3の段階430参照)について実施される。
【0048】
顔の候補のリストを得た後、位置をテストする段階432は、記憶されたパラメータにより規定される顔の候補の範囲をテストする。前記パラメータのセットにより規定される範囲が段階410内に維持された所定の割合未満のクラスターを含む場合、前記テストは顔の候補からパラメータのセットを取り除く。取り除かれる代表的な候補を図113に示す。候補W1(1306)は部分的に顔の部分をカバーするので、それは候補のリストから取り除かれる。
【0049】
テスト後の処理の最終段階434は、候補の範囲の中心の距離測定に基づいて隣接する候補をマージすることにより、段階432において偏向された顔の候補のパラメータリストを更新する。図13における位置テスト画像1302のクラスターR3(1310)の例としての候補W2(1304)及びW3(1308)は互いに近接しているため、それらはマージすることとなる。例としての距離の測定は、ボックス(候補の範囲)の高さの平均のユークリッド距離である。
【0050】
本発明の主旨は、デジタル画像を理解する技術に関連し、認識するためにデジタル画像をデジタル的に処理する平均技術に対して理解し、それ故、人間が理解可能な被写体、特性又は条件に有用な意味を割り当て、更に、デジタル画像の更なる処理において得られる結果を利用する
【図面の簡単な説明】
【図1】本発明の実施形態の実施において有用な画像処理システムを模式的に示す図である。
【図2】本発明の実施形態の顔検出方法を示すフローチャートである。
【図3A】不規則的グリッドパターンのデザインの方法を示すフローチャートである。
【図3B】規則的グリッドパターンのデザインの方法を示すフローチャートである。
【図4】本発明の実施形態にしたがった顔検出の詳細なプロセスを示すフローチャートである。
【図5】不規則的グリッドパターンを示す図である。
【図6】規則的グリッドパターンデザインのためのキーポジションを示す図である。
【図7】規則的グリッドパターンのデザインのための位置と大きさのパラメータを示す図である。
【図8】強度顔画像と規則的グリッドパターン画像を示す図である。
【図9】顔グリッドパターン画像と平均顔グリッドパターン画像、及び非顔グリッドパターン画像と平均顔グリッドパターン画像のための補正係数の分布を示すグラフである。
【図10】本発明を用いて、閾値の関数として顔検出率と偽陽性率とを示すグラフである。
【図11A】強度画像と関連する積分画像を示す図である。
【図11B】強度画像と関連する積分画像を示す図である。
【図12A】画像の説明に有用な図である。
【図12B】皮膚テストの説明に有用な図である。
【図12C】幾何学的テストの説明に有用な図である。
【図12D】皮膚色クラスターのためのボックスの規定の説明に有用な図である。
【図13】位置のテストとテスト後の処理の説明に有用な図である。
【符号の説明】
100   カラーデジタル画像ソース
102   画像プロセッサ
104   CRT表示装置
106   キーボード
107   コンピュータ読み取り可能記憶媒体
108   マウス
109   出力装置
202   色度テスト
204   幾何学的テスト
206   グリッドパターンテスト
208   位置テスト
210   テスト後処理
212   平均グリッドパターン要素画像ジェネレータ
304   顔画像を収集する段階
306   平均顔画像を得る段階
308   局所的な顔の特徴をカバーする個々のセルを決定する段階
310   全てのセルを含むボックスを決定する段階
312   サブ画像をクロッピングする段階
314   4つのコーナーの位置を決定する段階
316   クロッピングされたサブ画像を用いて積分画像を生成する段階
318   平均グリッドパターン画像を計算する段階
320   平均グリッドパターン要素画像を抽出する段階
372   サンプル顔画像を収集する段階
374   平均顔画像を得る段階
376   2つの眼の中心間の距離eを計算する段階
378   2つの眼の中心間の中心の位置cを計算する段階
380   mxn画素を有する各々のMxNセルを含む領域を規定するために距離e及び中心位置cを用いる段階
382   サブ画像をクロッピングする段階
384   全てのセルの4つのコーナーの位置を決定する段階
386   積分画像を生成する段階
388   平均グリッドパターン画像を計算する段階
390   平均グリッドパターン要素画像を生成する段階
402   画像を小さいサイズに変更する段階
404   非皮膚色画素を消去する段階
406   残りの画素を領域にクラスター化する段階
408   形態学的処理を行う段階
410   不所望領域を消去する段階
411   グレー画像に変換する段階
412   パラメータのセットのリストを形成する段階
414   パラメータのセットを用いるサブ画像をクロッピングする段階
416   積分画像を計算する段階
418   適切なグリッドパターンセルの大きさから開始する段階
420   カレントのサブ画像を走査する段階
422   グリッドパターンのテストの段階
424   状態をチェックする段階
426   クエリー1の段階
428   クエリー2の段階
430   クエリー3の段階
432   位置をテストする段階
434   テスト後の処理の段階
502   顔画像
504   ドット
506   セル
508   ボックス
602   顔画像
608   2つの眼の中心間の距離e
702   顔画像
704   矢印
706   2つの眼の中心間の中心位置c
708   矢印
710   矢印
712   矢印
802   サブ画像
804   顔グリッドパターン画像
806   セル
902   グラフ
904   曲線
906   曲線
908   閾値r
1002  グラフ
1004  曲線
1102  平均顔画像(画像A)
1104  領域
1106  平均顔画像の位置
1108  4つのコーナーのうちの1つの点p
1110  4つのコーナーのうちの1つの点p
1112  4つのコーナーのうちの1つの点p
1114  4つのコーナーのうちの1つの点p
1116  セル
1122  画像Aの積分画像(画像B)
1126  画像Bにおける画像Aの位置1106に対応する位置
1128  画像Bにおけるp=p′である点
1130  画像Bにおけるp=p′である点
1132  画像Bにおけるp=p′である点
1134  画像Bにおけるp=p′である点
1202  強度画像
1212  第1バイナリ画像
1216  クラスターR1
1218  クラスターR2
1220  クラスターR3
1232  第2バイナリ画像
1234  クラスターR11
1236  クラスターR12
1238  クラスターR2
1240  クラスターR4
1242  第3バイナリ画像
1244  クラスターR3
1246  クラスターR12
1248  ボックス
1302  位置テスト画像
1304  候補W2
1306  候補W1
1308  候補W3
1310  クラスターR3

Claims (2)

  1. デジタルカラー画像において顔を位置付けるためのデジタル画像処理方法であって:
    a)複数のサンプル顔画像から平均グリッドパターン要素(MGPe)画像を生成する段階;
    b)デジタルカラー画像から積分画像を生成する段階;並びに
    c)異なる効果的な解像度においてデジタルカラー画像をグリッドパターン要素画像(GPe)に小さくし且つGPeを用いて平均グリッドパターン要素(MGPe)を補正することにより複数の効果的な解像度においてMGPe画像とデジタルカラー画像との間の補正テストを行うために、積分画像を用いることによりデジタルカラー画像において顔を位置付ける段階;
    から構成されることを特徴とする方法。
  2. 請求項1に記載の方法であって、平均グリッドパターン要素(MGPe)画像を生成する段階は:
    a1)サンプル顔画像を収集する段階;
    a2)サンプル顔画像から平均顔画像を生成する段階;
    a3)グリッドパターン(GP)を選択する段階;並びに
    a4)平均化することにより平均顔画像の解像度を選択されたグリッドパターン(GP)の解像度に減少させる段階;
    から構成される、ことを特徴とする方法。
JP2003194950A 2002-08-02 2003-07-10 デジタルカラー画像において顔を位置付けるための方法 Pending JP2004078912A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/211,011 US7110575B2 (en) 2002-08-02 2002-08-02 Method for locating faces in digital color images

Publications (1)

Publication Number Publication Date
JP2004078912A true JP2004078912A (ja) 2004-03-11

Family

ID=31187487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003194950A Pending JP2004078912A (ja) 2002-08-02 2003-07-10 デジタルカラー画像において顔を位置付けるための方法

Country Status (4)

Country Link
US (1) US7110575B2 (ja)
EP (1) EP1391842B1 (ja)
JP (1) JP2004078912A (ja)
DE (1) DE60330299D1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101347573B1 (ko) 2006-02-14 2014-01-03 삼성전자주식회사 디지털 이미지 상에서의 얼굴 검출 방법 및 장치
CN105651713A (zh) * 2015-12-30 2016-06-08 浙江工业大学 一种基于计算机图像分析的青菜叶片叶绿素定量检测方法

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1357515A1 (de) * 2002-04-22 2003-10-29 Agfa-Gevaert AG Verfahren zur Verarbeitung digitaler Bilddaten von fotografischen Bildern
TWI226020B (en) * 2003-05-16 2005-01-01 Benq Corp Device and method to determine exposure setting for image of scene with human-face area
US8189927B2 (en) 2007-03-05 2012-05-29 DigitalOptics Corporation Europe Limited Face categorization and annotation of a mobile phone contact list
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7792335B2 (en) * 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US7574016B2 (en) * 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8553949B2 (en) 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US7440593B1 (en) * 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US7190829B2 (en) * 2003-06-30 2007-03-13 Microsoft Corporation Speedup of face detection in digital images
JP2005084980A (ja) * 2003-09-09 2005-03-31 Fuji Photo Film Co Ltd 顔画像付きカード用データ生成装置および方法並びにプログラム
US7564994B1 (en) 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
FI117265B (fi) 2004-12-29 2006-08-15 Nokia Corp Elektroninen laite ja menetelmä elektronisessa laitteessa kuvadatan prosessoimiseksi
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US7315631B1 (en) * 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7715597B2 (en) 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
JP4750520B2 (ja) * 2005-09-21 2011-08-17 富士フイルム株式会社 人物画像補正装置および方法
JP4718952B2 (ja) * 2005-09-27 2011-07-06 富士フイルム株式会社 画像補正方法および画像補正システム
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
EP2033142B1 (en) 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Advances in extending the aam techniques from grayscale to color images
WO2008015586A2 (en) 2006-08-02 2008-02-07 Fotonation Vision Limited Face recognition with combined pca-based datasets
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
ATE472140T1 (de) * 2007-02-28 2010-07-15 Fotonation Vision Ltd Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
KR101247147B1 (ko) 2007-03-05 2013-03-29 디지털옵틱스 코포레이션 유럽 리미티드 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출
US7916971B2 (en) 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US8934717B2 (en) * 2007-06-05 2015-01-13 Intellectual Ventures Fund 83 Llc Automatic story creation using semantic classifiers for digital assets and associated metadata
US7836093B2 (en) * 2007-12-11 2010-11-16 Eastman Kodak Company Image record trend identification for user profiles
US8180112B2 (en) 2008-01-21 2012-05-15 Eastman Kodak Company Enabling persistent recognition of individuals in images
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
US20090297045A1 (en) 2008-05-29 2009-12-03 Poetker Robert B Evaluating subject interests from digital image records
CN106919911A (zh) 2008-07-30 2017-07-04 快图有限公司 使用脸部检测的自动脸部和皮肤修饰
US20100049585A1 (en) * 2008-08-21 2010-02-25 Eastman Kodak Company Concierge - shopping widget - method for user managed profile and selective transmission thereof
US8028246B2 (en) 2008-08-21 2011-09-27 Eastman Kodak Company Concierge—shopping assistant
WO2010063463A2 (en) 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US20100186234A1 (en) 2009-01-28 2010-07-29 Yehuda Binder Electric shaver with imaging capability
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US8612441B2 (en) 2011-02-04 2013-12-17 Kodak Alaris Inc. Identifying particular images from a collection
US20130120787A1 (en) * 2011-11-14 2013-05-16 Shen Wang Image Processing For Images With Aroma Information
US20130201316A1 (en) 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
US8773543B2 (en) * 2012-01-27 2014-07-08 Nokia Corporation Method and apparatus for image data transfer in digital photographing
WO2015162605A2 (en) 2014-04-22 2015-10-29 Snapaid Ltd System and method for controlling a camera based on processing an image captured by other camera
CN103971098B (zh) * 2014-05-19 2017-05-10 北京明兰网络科技有限公司 户型图中墙体的识别方法及户型图长度比例自动校正方法
US11170037B2 (en) 2014-06-11 2021-11-09 Kodak Alaris Inc. Method for creating view-based representations from multimedia collections
WO2016207875A1 (en) 2015-06-22 2016-12-29 Photomyne Ltd. System and method for detecting objects in an image
CN106447634B (zh) * 2016-09-27 2018-02-27 中国科学院上海微系统与信息技术研究所 一种基于有源毫米波成像的隐私部位定位与保护方法
CN110631499B (zh) * 2019-09-11 2020-11-10 北京大学 基于无网格方法的数字图像变形测量方法及电子设备
CN110633677B (zh) * 2019-09-18 2023-05-26 威盛电子股份有限公司 人脸识别的方法及装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3298072B2 (ja) 1992-07-10 2002-07-02 ソニー株式会社 ビデオカメラシステム
US5835616A (en) 1994-02-18 1998-11-10 University Of Central Florida Face detection using templates
US5629752A (en) 1994-10-28 1997-05-13 Fuji Photo Film Co., Ltd. Method of determining an exposure amount using optical recognition of facial features
JP3279913B2 (ja) 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
WO1999023600A1 (en) 1997-11-04 1999-05-14 The Trustees Of Columbia University In The City Of New York Video signal face region detection
US6421463B1 (en) * 1998-04-01 2002-07-16 Massachusetts Institute Of Technology Trainable system to search for objects in images
US6337927B1 (en) * 1999-06-04 2002-01-08 Hewlett-Packard Company Approximated invariant method for pattern detection
JP2001168160A (ja) * 1999-12-07 2001-06-22 Sony Corp 半導体ウェハの検査システム
JP2001216515A (ja) * 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US7050607B2 (en) * 2001-12-08 2006-05-23 Microsoft Corp. System and method for multi-view face detection
US7020337B2 (en) * 2002-07-22 2006-03-28 Mitsubishi Electric Research Laboratories, Inc. System and method for detecting objects in images
US7194114B2 (en) * 2002-10-07 2007-03-20 Carnegie Mellon University Object finder for two-dimensional images, and system for determining a set of sub-classifiers composing an object finder
US7689033B2 (en) * 2003-07-16 2010-03-30 Microsoft Corporation Robust multi-view face detection methods and apparatuses

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101347573B1 (ko) 2006-02-14 2014-01-03 삼성전자주식회사 디지털 이미지 상에서의 얼굴 검출 방법 및 장치
CN105651713A (zh) * 2015-12-30 2016-06-08 浙江工业大学 一种基于计算机图像分析的青菜叶片叶绿素定量检测方法

Also Published As

Publication number Publication date
US7110575B2 (en) 2006-09-19
EP1391842A2 (en) 2004-02-25
EP1391842B1 (en) 2009-12-02
EP1391842A3 (en) 2006-02-01
US20040022423A1 (en) 2004-02-05
DE60330299D1 (de) 2010-01-14

Similar Documents

Publication Publication Date Title
JP2004078912A (ja) デジタルカラー画像において顔を位置付けるための方法
US7120279B2 (en) Method for face orientation determination in digital color images
US7885477B2 (en) Image processing method, apparatus, and computer readable recording medium including program therefor
US8977056B2 (en) Face detection using division-generated Haar-like features for illumination invariance
US8605955B2 (en) Methods and apparatuses for half-face detection
JP4772839B2 (ja) 画像識別方法および撮像装置
US7756343B2 (en) Image processing method, image processing apparatus, and computer-readable recording medium storing image processing program
US7454040B2 (en) Systems and methods of detecting and correcting redeye in an image suitable for embedded applications
US7894689B2 (en) Image stitching
US7343028B2 (en) Method and apparatus for red-eye detection
US7848588B2 (en) Method and apparatus for judging direction of blur and computer-readable recording medium storing a program therefor
US20070041638A1 (en) Systems and methods for real-time object recognition
JP2001309225A (ja) 顔を検出するためのカメラ及び方法
JP2004357277A (ja) デジタル画像処理方法
JP2004265407A (ja) デジタル画像におけるカラーオブジェクトの検出方法
US8842889B1 (en) System and method for automatic face recognition
JP2003323622A (ja) 画像認識システム及びその認識方法並びにプログラム
JP2007047965A (ja) デジタル画像の対象物検出方法および装置並びにプログラム
CN113362221A (zh) 用于门禁的人脸识别系统与人脸识别方法
JP4496005B2 (ja) 画像処理方法および画像処理装置
US20080310715A1 (en) Applying a segmentation engine to different mappings of a digital image
US20080199073A1 (en) Red eye detection in digital images
CN114973384A (zh) 基于关键点和视觉显著目标检测的电子人脸照片采集方法
JP5283267B2 (ja) コンテンツ識別方法及び装置
Rahman et al. Real-time face-based auto-focus for digital still and cell-phone cameras