JP2009525517A - 眼鏡を自動的に検出し、削除する方法、及び装置 - Google Patents

眼鏡を自動的に検出し、削除する方法、及び装置 Download PDF

Info

Publication number
JP2009525517A
JP2009525517A JP2008552036A JP2008552036A JP2009525517A JP 2009525517 A JP2009525517 A JP 2009525517A JP 2008552036 A JP2008552036 A JP 2008552036A JP 2008552036 A JP2008552036 A JP 2008552036A JP 2009525517 A JP2009525517 A JP 2009525517A
Authority
JP
Japan
Prior art keywords
image
face
glasses
unit
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008552036A
Other languages
English (en)
Other versions
JP4778072B2 (ja
Inventor
グー クンロン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2009525517A publication Critical patent/JP2009525517A/ja
Application granted granted Critical
Publication of JP4778072B2 publication Critical patent/JP4778072B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】方法および装置によって、画像から眼鏡を自動的に検出し、削除する。
【解決手段】一実施形態に係る方法では、顔を含む画像を表すデジタル画像データにアクセスし、画像内の眼鏡の有無についてのレポートを生成するために画像内の眼鏡を検出し、正規化画像を取得するために画像の照明を正規化し、眼鏡がない顔画像を得るために正規化画像から眼鏡を削除する。
【選択図】図1

Description

本発明は、デジタル画像処理技術に関し、より具体的にはデジタル画像から眼鏡を検出し、削除する方法および装置に関する。
この非仮出願は、本非仮出願と同時に出願された「Method and Apparatus for Automatic Eyeglasses Detection Using a Nose Ridge Mask」と題された同時係属中の非仮出願に関連し、この同時係属中の非仮出願の内容全体は参照により本明細書に援用される。
顔認識は、人間の顔の研究に関するデジタル画像処理技術において重要な役割を担っている。良好な顔認識システムには、人間の顔の画像内に現れる遮蔽物に対するロバスト性が強く要求される。眼鏡は、顔を遮蔽するありふれた物のうちの一つである。画像中に眼鏡が含まれると、顔認識システムの性能に大きな影響を与える可能性がある。顔画像中の照明条件のばらつきによって、眼鏡および顔の検出はさらに困難になる。
遮蔽された顔領域が顔認識に与える影響について研究した出版物がいくつかある。そのような技術の1つは、「Target Object Detecting Method,Apparatus,and Program」と題された米国特許出願公開第2005/0190963(A1)号(特許文献1)に記載されている。この文書に記載の方法は、眼鏡などの遮蔽物を含む顔を検出する。しかし、この方法は顔の検出に関し、確かに顔の中の眼鏡を検出するか、削除するか、または置き換える。また、この方法は、顔画像の照明条件の変動によって生じる問題に対応していない。
米国特許出願公開第2005/0190963(A1)号
本願の開示する実施形態は、自動眼鏡検出および削除方法、並びに装置を利用することによってこれらのおよびその他の問題に対応する。この方法および装置は、眼鏡を自動的に検出および削除し、眼鏡によって遮蔽されていた顔領域を再構築して眼鏡がない顔画像を生成する。
本発明は、画像から眼鏡を自動的に検出し、削除する方法および装置を対象とする。本発明の第1の態様によれば、画像から眼鏡を自動的に検出し、削除する方法は、顔を含む画像を表すデジタル画像データにアクセスすること、前記画像内の眼鏡を検出して、前記画像内の眼鏡の有無についてのレポートを生成すること、前記画像の照明を正規化して、正規化画像を得ること、及び前記正規化画像から眼鏡を削除して、眼鏡がない顔画像を得ることを含む。
本発明の第2の態様によれば、画像から眼鏡を自動的に検出し、削除するための装置は、顔を含む画像を表すデジタル画像データを与える画像データ・ユニット、前記画像内の眼鏡を検出して、前記画像内の眼鏡の有無についてのレポートを生成する眼鏡検出ユニット、前記画像の照明を正規化して、正規化画像を取得する照明正規化ユニット、及び前記正規化画像から眼鏡を削除して、眼鏡がない顔画像を得る眼鏡削除ユニットを備える。
本発明のさらなる態様および利点は、添付の図面と併せて以下の詳細な説明から明確である。
本発明の態様について、添付の図を参照しつつ付随する説明においてより具体的に述べる。図1は、本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニットを備えるシステムの構成図である。図1に示すシステム100は、以下のコンポーネント、すなわち、画像供給デバイス30、画像処理ユニット40、ディスプレイ50、画像出力ユニット55、ユーザ入力ユニット70、及び印刷ユニット60を備える。以下、図1のシステム100の動作について明確に説明する。
画像供給デバイス30はデジタル画像データを提供する。デジタル画像データは人間の顔の画像を含む。デジタル画像データの画像は、人間の顔に加えて他に被写体や胴体を含んでもよい。画像供給デバイス30は、フィルムに記録された白黒またはカラー画像をスキャンするためのスキャナ、デジタル・カメラ、CD−R、フロッピー(登録商標)・ディスク、USBドライブなどの記録媒体、画像を記憶するデータベース・システム、ネットワーク接続、画像を処理するコンピュータ・アプリケーションなどのデジタル・データを処理する画像処理システムなどの、デジタル画像データを提供する様々なデバイスのうちの1つ、またはそれ以上であってもよい。
画像処理ユニット40は、画像供給デバイス30からデジタル画像データを受信し、以下で詳細に説明する方法で眼鏡の検出および削除を実行する。ユーザは、ディスプレイ50を介して眼鏡の検出および削除の中間結果を含む画像処理ユニット40の出力を見ることができ、ユーザ入力ユニット70を介して画像処理ユニット40に命令を入力することができる。図1に示す実施形態において、ユーザ入力ユニット70はキーボード73およびマウス75を含む。本発明の実施形態に係る自動眼鏡検出および削除を実行することに加えて、画像処理ユニット40は、ユーザ入力ユニット70から受けた命令に従ってさらなる画像処理機能を実行することとしてもよい。画像処理ユニット40からの処理済みの画像データを、例えば、ポータブルの記録媒体を介して、またはネットワーク(図示せず)を介して画像ファイルとして返すこととしても良い。画像処理ユニット40の出力を、様々な目的で画像データに対してさらなる操作を行うことが可能な画像出力ユニット55に送ることとしても良い。画像出力ユニット55は、画像データに更なる処理を行うモジュール、画像を収集し、比較するデータベースなどであっても良い。
図2は、図1に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニット40の構成図である。図2に示すように、この実施形態に係る画像処理ユニット40は、訓練ユニット43、前処理ユニット45、及び操作ユニット47を含む。画像処理ユニット40の動作は、大きく2つのステージ、すなわち、(1)訓練、ならびに(2)自動眼鏡検出および削除に分けることができる。次に、画像処理ユニット40に含まれるコンポーネントの動作と、本発明の実装のために、訓練ステージならびに眼鏡検出および削除ステージに関連する原理について図3から8を参照しつつ説明する。
大まかに、図2に示す画像処理ユニット40に関する要素の構成は、デジタル画像データの前処理と、デジタル画像データからの眼鏡の検出および削除の訓練と、眼鏡の検出および削除とを実行する。前処理ユニット45は、画像供給デバイス30からデジタル画像データを受け、デジタル画像データに前処理操作を行う。デジタル画像データの前処理操作は、サイズ変更、トリミング、圧縮、色補正などを含んでも良い。訓練ステージにおいて、前処理ユニット45は前処理済みのデジタル画像データを訓練ユニット43に送り、その訓練ユニット43は眼鏡検出および削除の訓練を行い、訓練知識を蓄積する。
前処理ユニット45は、自動眼鏡検出および削除ステージ中、前処理済みのデジタル画像データを操作ユニット47に送る。操作ユニット47は、訓練知識を使用して自動眼鏡検出および削除を行う。操作ユニット47は、デジタル画像データを画像出力ユニット55、印刷ユニット60、および/またはディスプレイ50に出力することとしても良い。
図3は、図2に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニット40の態様をより詳細に示す構成図である。図3の種々のコンポーネントは別個の要素として示されるが、そのような図示は説明を容易にするためであり、種々のコンポーネントの特定の動作は同じ物理デバイス、例えば1つまたは複数のマイクロプロセッサによって実行されることができることを認識されたい。
自動眼鏡検出および削除のための画像処理ユニット40は、以下のコンポーネント、すなわち、顔検出およびトリミング・ユニット130、顔登録ユニット140、照明正規化ユニット150、眼鏡検出学習ユニット110、眼鏡削除学習ユニット120、眼鏡検出ユニット160、眼鏡削除ユニット170、及びオプションの眼鏡位置検出ユニット144とを備える。顔検出およびトリミング・ユニット130、顔登録ユニット140、照明正規化ユニット150、及びオプションの眼鏡位置検出ユニット144は前処理ユニット45に含まれる。眼鏡検出学習ユニット110および眼鏡削除学習ユニット120は訓練ユニット43に含まれる。眼鏡検出ユニット160および眼鏡削除ユニット170は操作ユニット47に含まれる。
顔検出およびトリミング・ユニット130は、画像供給デバイス30からデジタル画像データを受けとる。デジタル画像データは顔を有する原画像を含む。顔検出およびトリミング・ユニット130は、デジタル画像データ内の顔を検出し、個々の顔画像をトリミングする。顔検出およびトリミング・ユニット130は、参照により本明細書に援用される2003年12月15日に出願され、「Method and Apparatus for Object Recognition Using Probability Models」と題する米国特許出願第10/734,258号に記載の方法を使用して顔の検出およびトリミングを実行することとしても良い。
顔登録ユニット140は、顔検出およびトリミング・ユニット130から顔画像を受け取り、顔を登録する。顔登録ユニット140は、参照により本明細書に援用される2003年12月15日に出願され、「Method and Apparatus for Object Recognition Using Probability Models」と題する、上記で参照する米国特許出願第10/734,258号に記載の方法を使用して顔登録を実行することとしても良い。顔登録ユニット140は登録済みの顔画像を出力する。顔登録ユニット140は、眼鏡検出学習ユニット110、眼鏡検出ユニット160、照明正規化ユニット150、及びオプションの眼鏡位置検出ユニット144に入力を出す。
訓練ステージにおいて、訓練用顔画像が、顔登録ユニット140によって眼鏡検出学習ユニット110に送られる。眼鏡検出学習ユニット110は、顔画像内の眼鏡の検出の訓練を行う。眼鏡検出学習ユニット110は、「Method and Apparatus for Automatic Eyeglasses Detection Using a Nose Ridge Mask」と題する、相互参照しており、その内容全体が参照により本明細書に援用されている関連米国特許出願に記載の方法を使用して眼鏡の検出の訓練を行うこととしても良い。上記出願に記載の方法によれば、様々な照明条件の下で撮影された顔の訓練用画像が眼鏡検出学習ユニット110に入力される。訓練用画像は、眼鏡の有無の状態が既知である。鼻筋マスクは、訓練用画像内の訓練用の顔の鼻筋領域内に位置する画素を抽出する。2つのクラス、すなわち、眼鏡がない画像のクラスと眼鏡がある画像のクラスを区別するために最適な線形射影の基準を決定するため、線形判別分析を使用する。2つのクラスの平均および分散が得られる。
自動眼鏡検出および削除ステージにおいて、眼鏡検出ユニット160は、顔登録ユニット140から眼鏡の状態が未知である顔画像を受けとり、当該顔画像に対して自動眼鏡検出を実行する。眼鏡検出ユニット160は、「Method and Apparatus for Automatic Eyeglasses Detection Using a Nose Ridge Mask」と題する、相互参照しており、その内容全体が参照により本明細書に援用されている関連米国特許出願に記載の方法を使用して眼鏡を検出することとしても良い。上記出願に記載の方法によれば、各入力顔画像に対してスコアが計算される。スコアは、顔画像が、眼鏡がない画像のクラスに属する尤度と、眼鏡がある画像のクラスに属する尤度との比である。スコアは、眼鏡の検出の訓練ステージ中に決定された閾値と比較される。その比較に基づいて、顔画像内の眼鏡の有無についての判定が眼鏡削除ユニット170に出力され、オプションで眼鏡位置検出ユニット144に出力される。
顔登録ユニット140は、照明正規化ユニット150にも顔画像の形式で入力データを与える。照明正規化ユニット150は、その顔画像の照明の正規化を行い、眼鏡削除学習ユニット120および眼鏡削除ユニット170に入力を与える。照明正規化ユニット150は、参照により本明細書に援用される2003年12月15日に出願された「Method and Apparatus for Object Recognition Using Probability Models」と題する上記で参照された米国特許出願第10/734,258号に記載の方法を使用して照明の正規化を実行することとしても良い。照明正規化ユニット150の動作の詳細について、図5Aから5Bを参照して説明する。
訓練ステージ中、訓練用顔画像が、照明正規化ユニット150によって眼鏡削除学習ユニット120に送られる。眼鏡削除学習ユニット120は、顔画像からの眼鏡を削除する訓練を行う。眼鏡削除学習ユニット120は、参照により本明細書に援用される、C.Wuらの「Automatic Eyeglasses Removal from Face Images」、IEEE、Transactions on Pattern Analysis and Machine Intelligence、Vol.26、No.3、2004年3月発行に記載の方法を使用して眼鏡の削除の訓練を行うこととしてもよい。上記の出版物に記載の方法によれば、全ての訓練用顔画像によって張られる固有空間において、眼鏡のある訓練用顔画像と眼鏡のない訓練用顔画像の結合分布をモデル化するために主成分分析および最大事後確率推定が使用される。眼鏡がある目の周りの顔領域と、眼鏡がない目の周りの顔領域との間の変換を記述する射影行列が得られる。眼鏡の削除の訓練プロセスの詳細について、図6Aを参照して説明する。
自動眼鏡検出および削除ステージにおいて、眼鏡削除ユニット170は、眼鏡がある顔画像を受け取り、自動眼鏡削除および顔画像の再構築を行う。眼鏡がある画像は、照明正規化ユニット150を介して顔登録ユニット140から眼鏡削除ユニット170に到達する。眼鏡位置検出ユニット144が存在する場合、眼鏡位置検出ユニット144は、眼鏡がある画像内の眼鏡の位置を検出し、位置検出された眼鏡がある画像を照明正規化ユニット150に送ることとしても良い。次に、照明正規化ユニット150は、位置検出された眼鏡がある画像を眼鏡削除ユニット170に送る。オプションの眼鏡位置検出ユニット144は、参照により本明細書に援用される、C.Wuらによる「Automatic Eyeglasses Removal from Face Images」と題され、上記で参照した出版物に記載の方法を使用して顔画像内の眼鏡の位置を検出することとしても良い。眼鏡削除ユニット170は、参照により本明細書に援用される、C.Wuらによる「Automatic Eyeglasses Removal from Face Images」と題された参照された同出版物に記載の方法を使用して眼鏡を削除し、眼鏡がない顔領域を再構築することとしても良い。C.Wuらによる「Automatic Eyeglasses Removal from Face Images」に記載の方法によれば、眼鏡の削除の訓練ステージ中に得られた射影行列を使用して、眼鏡がある画像から眼鏡がない画像が推定される。眼鏡の削除プロセスの詳細について、図6Bを参照して説明する。眼鏡削除ユニット170は眼鏡がない顔画像を出力する。眼鏡がない顔画像は、ディスプレイ50、画像出力ユニット55、および/または印刷ユニット60に出力されることとしても良い。
顔検出およびトリミング・ユニット130、顔登録ユニット140、照明正規化ユニット150、眼鏡検出学習ユニット110、眼鏡削除学習ユニット120、眼鏡検出ユニット160、眼鏡削除ユニット170、及びオプションの眼鏡位置検出ユニット144はソフトウェアアプリケーションである。
図4Aは、図3に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニット40によって実行される動作を示す流れ図である。図4Aは、画像処理ユニット40の自動眼鏡検出および削除ステージ中に実行される動作を示す。このステージにおいて、眼鏡が顔画像から自動的に検出および削除され、眼鏡がある顔領域が、眼鏡がない顔領域によって置き換えられる。
顔検出およびトリミング・ユニット130は、画像供給デバイス30から人物を含む原画像を受け取る(S210)。顔検出およびトリミング・ユニット130は、原画像内の顔を検出し、顔を有する画像をトリミングする(S212)。顔登録ユニット140は、トリミングされた顔画像を受け取り、顔登録を行い、登録済み画像を出力する(S214)。眼鏡検出ユニット160および照明正規化ユニット150の両方は、顔登録ユニット140から登録済み画像を受けとる。照明正規化ユニット150は、登録済み画像を正規化し、正規化画像を出力する(S220)。正規化画像は眼鏡削除ユニット170に送られる(S221)。
顔登録ユニット140から登録済み画像を同様に受信した眼鏡検出ユニット160は、登録済み画像内の眼鏡の有無を検出する(S225)。次に、眼鏡が検出されたか否かを判定するテストが行われる(S227)。眼鏡が検出されなかった場合、眼鏡削除ユニット170は、顔画像内に眼鏡がないとのレポートを受け取る(S228)。その結果、眼鏡削除ユニット170は、照明正規化ユニット150から受け取った登録済み画像に対応する正規化画像を処理しない(S229)。
登録済み画像内に眼鏡が検出された場合、眼鏡削除ユニット170は、顔画像内に眼鏡があるとのレポートを受け取る(S232)。次に、眼鏡削除ユニット170は、照明正規化ユニット150から受け取った登録済み画像に対応する正規化画像から眼鏡を削除する(S234)。眼鏡を削除しながら、眼鏡削除ユニット170は、顔の眼鏡がある領域を眼鏡がない領域によって置き換える。
図4Bは、図3に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニット40によって実行される動作を示す、別の流れ図である。図4Bは、画像処理ユニット40の自動眼鏡検出および削除ステージ中に実行される別の動作を示す。図4Bでは、眼鏡位置検出ユニット144が眼鏡の位置検出を実行する。したがって、眼鏡削除ユニット170が受け取る顔画像は位置検出された眼鏡を含む。次に、眼鏡が、眼鏡削除ユニット170によって顔画像から自動的に削除される。そのとき、眼鏡がある顔領域が、眼鏡がない領域によって置き換えられる。
顔検出およびトリミング・ユニット130は、画像供給デバイス30から人物を含む原画像を受け取る(S241)。顔検出およびトリミング・ユニット130は、原画像内の顔を検出し、顔を有する画像をトリミングする(S243)。顔登録ユニット140は、トリミングされた顔画像を受け取り、顔登録を行い、登録済み画像を出力する(S245)。眼鏡位置検出ユニット144は登録済み画像を受け取る(S277)。眼鏡検出ユニット160は、顔登録ユニット140から登録済み画像を同様に受け取り、登録済み画像内の眼鏡の有無を検出する(S247)。次に、眼鏡が検出されたか否かを判定するテストが行われる(S249)。眼鏡が検出されなかった場合、眼鏡削除ユニット170は、顔画像内に眼鏡がないとのレポートを受け取る(S261)。眼鏡がない顔画像についての処理はこれで終了する(S263)。
登録済み画像内に眼鏡が検出された場合、眼鏡削除ユニット170は顔画像内に眼鏡があるとのレポートを受け取り(S285)、眼鏡位置検出ユニット144は、眼鏡が顔画像内に存在するため、眼鏡の位置検出を実行するようコマンドを受け取る(S279)。眼鏡位置検出ユニット144は顔画像内の眼鏡の位置を検出し(S281)、次に、位置検出された眼鏡がある画像を照明正規化ユニット150に送る(S283)。照明正規化ユニット150は、位置検出された眼鏡がある画像を正規化し、正規化画像を出力する(S255)。位置検出された眼鏡を有する正規化画像は眼鏡削除ユニット170に送られる(S257)。次に、眼鏡削除ユニット170は、照明正規化ユニット150から受けとった正規化画像から眼鏡を削除する(S259)。眼鏡の削除プロセスの間に、眼鏡削除ユニット170は、顔の眼鏡がある領域を眼鏡がない領域によって置き換え、眼鏡がない顔画像を出力する。
図5Aは、図3に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニット40に含まれる照明正規化ユニット150によって訓練ステージ中に実行される動作を示す流れ図である。照明正規化ユニット150は、様々な照明条件の下で撮影された画像に対してヒストグラムに基づく正規化手順を使用することとしても良い。
訓練ステージにおいて、照明正規化ユニット150は、顔登録ユニット140から同一人物の眼鏡がある顔画像と眼鏡がない顔画像の対を受け取る。顔画像は、多くの様々な照明条件の下で撮影されたものである(S301)。照明条件は、異なる光の方向、異なる光の強度などを含む。訓練用画像について数多くの照明条件を使用することとしても良い。実装形態の例として、50の異なる照明条件を訓練用画像について使用した。50の照明条件は、いくつかの要素を組み合せて得ることができる。例えば、光の方向が10方向可能な場合、5つの光の強度と組み合わせて5×10=50の異なる照明条件を得ることができる。50を超える照明条件を使用することとしても良い。
眼鏡がある訓練用画像および眼鏡がない訓練用画像の集合を以下に示す。ここで、同じID値は同一人物を指す。2画像の組は、全て、同一人物についての眼鏡がある画像および眼鏡がない画像を含む。以下に列挙する訓練用画像の集合は、照明条件Aの下で撮影された第1の人物の眼鏡ありと眼鏡なしの2画像と、照明条件Bの下で撮影された第1の人物の眼鏡ありと眼鏡なしの更なる2画像と、照明条件Cの下で撮影された第2の人物の眼鏡ありと眼鏡なしの2画像と、照明条件Dの下で撮影された第2の人物の眼鏡ありと眼鏡なしの更なる2画像とを含む。
照明正規化ユニット150は、以下に示すように、顔画像の照明条件(「I」で表す)が同じとなるように、全ての訓練用顔画像についての照明条件を正規化する(S303)。
次に、照明正規化ユニット150は、同一の照明条件の眼鏡がある訓練用顔画像と眼鏡がない訓練用顔画像との対を出力する(S305)。眼鏡削除学習ユニット120は、同じ照明条件の眼鏡がある顔画像と眼鏡がない顔画像の訓練用の対を受け取り(S307)、それらの対を眼鏡の削除の訓練に使用する。
図5Bは、図3に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニット40に含まれる照明正規化ユニット150によって自動眼鏡検出および削除ステージで実行される動作を示す流れ図である。自動眼鏡検出および削除ステージにおいて、照明正規化ユニット150は、顔登録ユニット140から顔画像を受け取る(S321)。画像は、以下に示すように任意の照明条件の下で撮影されたものである。

ID=2;照明条件=A、またはB、またはC、またはD、またはEなど

照明正規化ユニット150は、顔画像についての照明条件を訓練ステージで使用された共通の照明条件「I」に正規化する(S323)。

ID=2;照明条件〜I

照明正規化ユニット150は、照明条件を正規化済みの顔画像を出力する(S325)。眼鏡削除ユニット170は、照明条件を正規化済みの顔画像を受け取り(S327)、その顔画像から眼鏡を自動的に削除する。
図6Aは、図3に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニット40に含まれる眼鏡削除学習ユニット120によって訓練ステージにおいて実行される動作を示す流れ図である。眼鏡の削除および置き換えに関する訓練は、参照により本明細書に援用されるC.Wuらの「Automatic Eyeglasses Removal from Face Images」、IEEE Transactions on Pattern Analysis and Machine Intelligence、Vol.26、No.3、pp.322〜335、2004年3月に記載の方法を使用する最大事後確率(MAP)に基づく方法を使用して実行される。眼鏡ありと眼鏡なしの人物の訓練用顔画像の対が、眼鏡の削除の訓練に使用される。訓練用画像の対は同一の環境条件で撮影された同一人物の2画像を含み、そのうちの1画像は眼鏡があり、残る1画像は眼鏡がないものである。1対の画像について同一の環境条件は、例えば同一人物を数秒間隔で撮影すると、得ることができる。
訓練用画像において目および眼鏡の位置が検出され、眼鏡がある顔領域および眼鏡がない顔領域が訓練用顔画像から抽出される。眼鏡がある顔領域は眼鏡を含む矩形領域である。眼鏡がない顔領域は眼を含む矩形領域である。
訓練用の眼鏡がある顔領域はIと表され、訓練用の眼鏡がない顔領域はIと表される。条件付き確率p(I,I)に対する推定値として確率モデルを生成するためにMAPに基づく方法が使用される。MAPの基準に基づいて、Iは、Iから
によって推測することができる。結合分布p(I,I)は、
となるように隠れ変数Vを導入することによって推定される。隠れ変数VはIおよびIの主成分として設定される。
4つのサブ・ステージ、すなわち、(1)対データの生成、(2)主成分分析、(3)雑音の強さの計算、および(4)MAP射影行列の計算が眼鏡の削除の訓練に含まれる。
第1のサブ・ステージ、すなわち、対データの生成のサブ・ステージでは、眼鏡があるおよび眼鏡がない同じ照明条件下の人物の訓練用顔画像が照明正規化ユニット150から取得される(S412)。目の周辺の眼鏡がある領域の画像および眼鏡がない領域の画像が訓練用顔画像から抽出される(S413)。眼鏡がある画像と眼鏡がない画像とが1つのベクトルに結合される(S414)。
ここで、Yは結合されたベクトルである。そのとき、訓練用集合は以下のように表現できる。
ここで、Mは訓練サンプル数である。
第2のサブ・ステージ中、主成分分析(PCA)が訓練用集合{Y(i),i=1,...,M}に使用される。PCA分解は、眼鏡がある画像が顔成分Iと、眼鏡成分Iと、雑音成分nとの合計である加法モデルに基づく。
PCAは、主成分行列
、固有値
および平均μを計算する。ここで、hは訓練用集合{Y(i),i=1,...,M}の主成分の数である(S416)。隠れ変数Vは、
であるような主成分の係数の集合である。ここで、V=Ψ(Y−μ)、V〜N(0,Λ)、およびεはガウス雑音である。
PCAから得られる全てのベクトルおよび行列は、式(9)に示すように、上部と下部とに分けることができ、それぞれ眼鏡ありのパラメータおよび眼鏡なしのパラメータに対応する(S418)。
第3のサブ・ステージ、つまり雑音の強さの計算のサブ・ステージにおいて、PCAの雑音の残差が式(10)および(11)を使用して計算される(S420)。
雑音の項は以下のようにモデル化される。
および
ここで、
および
は雑音の強さである。雑音の強さの推定値は、観測された雑音値の2乗平均値である。
第4のサブ・ステージにおいて、MAP射影行列が計算される(S422)。MAP射影行列により、眼鏡がない顔領域と眼鏡がある顔領域の関係が得られる。MAP射影行列は、
を求めることによって計算される。関係(14)は式(3)および(4)を使用して導出される。式(14)は、
に等しい。式(15)の右の項を最小化する閉形式解は、
である。射影行列(WMAP)は、
によって与えられる。ここで、
である。
図6Bは、図3に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニット40に含まれる眼鏡削除ユニット170によって自動眼鏡検出および削除ステージにおいて実行される動作を示す流れ図である。自動眼鏡検出および削除ステージにおいて、眼鏡削除ユニット170は、照明正規化ユニット150から眼鏡がある顔画像を受け取る(S435)。目の周辺に位置する眼鏡がある顔領域Iの画像が顔画像から抽出される(S437)。オプションで、さらに顔画像内で眼鏡の位置も検出される。眼鏡がある顔領域Iの画像は、眼鏡を含む目の周辺の矩形領域である。眼鏡がない顔領域
が、訓練ステージにおいて導出されたMAP射影行列WMAPを使用して眼鏡がある顔領域Iから推定される(S439)。
ここで、μおよびμは、訓練ステージ中に得られた訓練用集合の平均の眼鏡ありの成分および眼鏡なしの成分である。最後に、眼鏡がない顔領域
が顔画像上に貼り付けされる(S441)。
図7は、図6Aから6Bに示す眼鏡の削除の訓練ステージ、ならびに自動眼鏡検出および削除段階において使用される最大事後確率法に関する直感的な説明を示す。訓練ステージ中、眼鏡があるおよび眼鏡がない同一人物の眼鏡がある顔領域の画像I640および目の領域の画像I641は、平均画像I642およびI643、第1の主成分(PC)画像I644およびI645、第2の主成分画像I646およびI647、並びに第3の主成分画像I648およびI649を抽出され、眼鏡削除学習ユニット120において分析される。精度を向上するため、さらなる成分を抽出することとしても良い。
自動眼鏡検出および削除ステージにおいて、眼鏡削除ユニット170は、眼鏡が検出された顔画像を受け取る。眼鏡削除ユニット170は、その顔画像について眼鏡がある顔領域I670を抽出する。平均画像I672、ならびに第1、第2、および第3の主成分画像I673、I674、およびI675が、眼鏡がある顔領域I670から抽出される。精度を向上のため、さらなる成分を抽出することとしても良い。MAP射影行列を使用して、眼鏡がない対応する目の領域についての平均画像I682、ならびに第1、第2、および第3の主成分画像I683、I684、およびI685が生成される。画像I682、I683、I684、およびI685を、それぞれの固有値(これら固有値は眼鏡がある画像I670の固有値と同じである)で乗算したものを合計することにより、出力画像I690が得られる。出力画像I690は、眼鏡がない以外は、入力画像I670の顔領域と同じ顔領域を示す。
図8は、図3に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニット40の出力例を示す。眼鏡をかけた3人の異なる人物の原顔画像I701、I711、およびI721を示す。眼鏡の削除および置き換え後に画像処理ユニット40から出力された顔画像が2列目に示す。2列目の顔I703、I713、およびI723は眼鏡を含まない。
図9Aは、本発明の第2の実施形態に係る図1に示すシステムに含まれる顔認識のための画像処理ユニット40Aの構成図である。図9Aに示す画像処理ユニット40Aは、2つの照明正規化を使用して顔の分類を含む顔認識を行う。図9Aに示すように、画像処理ユニット40Aは、以下の要素、すなわち、顔検出およびトリミング・ユニット130A、顔登録ユニット140A、照明正規化ユニット150A、眼鏡検出学習ユニット110A、眼鏡削除学習ユニット120A、眼鏡検出ユニット160A、眼鏡削除ユニット170A、及び顔認識ユニット181を備える。顔検出およびトリミング・ユニット130A、顔登録ユニット140A、及び照明正規化ユニット150Aは前処理ユニット45Aに含まれる。眼鏡検出学習ユニット110Aおよび眼鏡削除学習ユニット120Aは訓練ユニット43Aに含まれる。眼鏡検出ユニット160A、眼鏡削除ユニット170A、及び顔認識ユニット181は操作ユニット47Aに含まれる。
本発明の第2の実施形態によれば、顔検出およびトリミング・ユニット130A、顔登録ユニット140A、照明正規化ユニット150A、眼鏡検出学習ユニット110A、眼鏡削除学習ユニット120A、眼鏡検出ユニット160A、及び眼鏡削除ユニット170Aは、第1の実施形態の対応する要素と同様に機能することができる。
図9Aに示す第2の実施形態によれば、顔認識ユニット181は顔画像の顔の分類を実行する。眼鏡がある顔画像および眼鏡がない顔画像が、顔検出およびトリミング・ユニット130Aに入力される。図4Aの流れ図において説明されたステップと同様の動作を行って、顔画像から眼鏡を自動的に検出し、削除する。眼鏡がない顔画像が眼鏡削除ユニット170Aによって出力される。眼鏡がない顔画像は照明正規化ユニット150Aに返される。照明正規化ユニット150Aは、眼鏡削除ユニット170Aから受け取った眼鏡がない画像について第2の照明正規化を行う。第2の照明正規化は、眼鏡の削除でもたらされたアーティファクトを取り除くために実行される。第2の照明正規化は、第1の照明正規化と同じアルゴリズムを使用する。第2の照明正規化の後、照明正規化ユニット150Aは正規化画像を顔認識ユニット181に送る。顔認識ユニット181は、眼鏡がない画像を様々な人物に分類する。その分類の結果および顔画像を、印刷ユニット60、ディスプレイ50、および/または画像出力ユニット55に出力することとしても良い。
図9Bは、図9Aに示す本発明の一実施形態に係る顔認識のための画像処理ユニット40Aの態様をより詳細に示す構成図である。図9Bは、照明正規化ユニット150Aと、自動眼鏡検出および削除においてその照明正規化ユニット150Aが画像データを与えるユニットとを共に示す。画像データは、照明正規化ユニット150Aを経て(経路P1上の)眼鏡削除ユニット170Aに到達し、その後(経路P2上の)照明正規化ユニット150Aに戻り、次に顔認識ユニット181に達する。
図10Aは、本発明の第3の実施形態に係る図1に示すシステムに含まれる顔認識のための画像処理ユニット40Bの構成図である。図10Aに示す画像処理ユニット40Bは、2つの顔登録を使用して顔の分類を実行する。図10Aに示すように、画像処理ユニット40Bは、以下の要素、すなわち、顔検出およびトリミング・ユニット130B、顔登録ユニット140B、照明正規化ユニット150B、眼鏡検出学習ユニット110B、眼鏡削除学習ユニット120B、眼鏡検出ユニット160B、眼鏡削除ユニット170B、及び顔認識ユニット182を含む。顔検出およびトリミング・ユニット130B、顔登録ユニット140B、及び照明正規化ユニット150Bは前処理ユニット45Bに含まれる。眼鏡検出学習ユニット110Bおよび眼鏡削除学習ユニット120Bは訓練ユニット43Bに含まれる。眼鏡検出ユニット160B、眼鏡削除ユニット170B、及び顔認識ユニット182は操作ユニット47Bに含まれる。
本発明のこの第3の実施形態によれば、顔検出およびトリミング・ユニット130B、顔登録ユニット140B、照明正規化ユニット150B、眼鏡検出学習ユニット110B、眼鏡削除学習ユニット120B、眼鏡検出ユニット160B、及び眼鏡削除ユニット170Bは、第1の実施形態の対応する要素と同様に機能することができる。
図10Aに示す第3の実施形態によれば、顔認識ユニット182は顔画像の顔の分類を実行する。眼鏡がある顔画像および眼鏡がない顔画像が、顔検出およびトリミング・ユニット130Bに入力される。図4Aの流れ図において説明されたステップと同様の動作を行って、顔画像から眼鏡を自動的に検出し、削除する。ステップS214と同様の顔登録ステップは、眼鏡の検出および削除を向上させ、そのステップは目に関係する特徴を使用して行われる。眼鏡がない顔画像は眼鏡削除ユニット170Bから出力される。
眼鏡がない顔画像は顔登録ユニット140Bに返される。顔登録ユニット140は、眼鏡削除ユニット170Bから受け取った眼鏡がない画像について第2の顔登録を行う。第2の顔登録は、第1の顔登録と同じアルゴリズムに基づくが、目に関する特徴だけでなく利用可能な全ての顔の特徴を使用する。第2の顔登録の後、顔登録ユニット140Bは、眼鏡がない顔画像を顔認識ユニット182に送る。顔認識ユニット182は、眼鏡がない画像を様々な人物に分類する。その分類の結果を、印刷ユニット60、ディスプレイ50、および/または画像出力ユニット55に出力することとしても良い。
オプションで、第2の照明正規化を第2の顔登録の後に行うこととしても良い。この場合、顔登録ユニット140Bは、第2の顔登録の後に顔画像を照明正規化ユニット150Bに送る。照明正規化ユニット150Bは、顔画像の第2の照明正規化を行い、結果として得られる顔画像を顔認識ユニット182に送る。次に、顔認識ユニット182は、眼鏡がない画像を様々な人物に分類する。その分類の結果を、印刷ユニット60、ディスプレイ50、および/または画像出力ユニット55に出力することとしても良い。
図10Bは、図10Aに示す本発明の第3の実施形態に係る顔認識のための画像処理ユニット40Bの態様をより詳細に示す構成図である。図10Bは、顔登録ユニット140Bを、その顔登録ユニット140Bから自動眼鏡削除および顔の分類のための画像データを与えるユニットと共に示す。画像データは、顔登録ユニット140Bに含まれる目関連特徴登録サブユニット142を経て(経路P4上の)眼鏡削除ユニット170Bに到達し、その後(経路P5上の)全特徴登録サブユニット146を経て顔登録ユニット140Bに戻り、次に経路P6上の顔認識ユニット182に出て行く。オプションで、全特徴登録サブユニット146から出力された画像データを、経路P7上の照明正規化ユニット150Bに返すこととしても良い。画像データは、照明正規化ユニット150Bによって2度目の正規化をされ、次に経路P8上の顔認識ユニット182に送られる。第1の顔登録は眼鏡の削除および検出を向上させる。目関連特徴登録サブユニット142は、アイ・ブリッジ・マスク(eye bridge mask)を使用することとしてもよい。アイ・ブリッジ・マスクの大きさは、ロバストな結果が得られるように変更してもよい。
本願に記載の眼鏡検出および削除ならびに顔の分類のための実施形態の全体的性能を、訓練用データおよび試験用データを使用してテストした。訓練用データは、顔の分類用の950人の人物からの13000の画像、眼鏡検出用の870の画像、及び眼鏡削除用の100人の人物からの10000対の画像を含んでいた。
顔の分類のための試験用データは750人の人物を含んでいた。以下の表にテスト結果をまとめる。AEGDRは、本願に記載された自動眼鏡検出および削除を意味する。「AEGDRなし」と題されたデータの列は、試験用データに対して眼鏡の検出および削除が実行されなかったときの、眼鏡がある画像および眼鏡がない画像における顔の分類の等価エラー率を示す。「AEGDRあり」と題されたデータの列は、顔の分類の前に、本願に記載された眼鏡がある顔画像および眼鏡がない顔画像における自動眼鏡検出および削除が実行された場合の眼鏡がある画像および眼鏡がない画像の顔の分類の等価エラー率を示す。下の表から分かるように、等価エラー率は、顔の分類の前に本願に記載された自動眼鏡検出および削除が実行された場合のほうが小さい。
本発明の詳細な実施形態および実装について上記で説明されたが、本発明の精神および範囲を逸脱することなく様々な変更が可能であることは明らかである。
本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニットを備えるシステムの構成図である。 図1に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニットの構成図である。 図2に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニットの態様をより詳細に示す構成図である。 図3に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニットによって実行される動作を示す流れ図である。 図3に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニットによって実行される動作を示す別の流れ図である。 図3に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニットに含まれる照明正規化ユニットによって訓練ステージ中に実行される動作を示す流れ図である。 図3に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニットに含まれる照明正規化ユニットによって自動眼鏡検出および削除段階中に実行される動作を示す流れ図である。 図3に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニットに含まれる眼鏡削除学習ユニットによって訓練ステージ中に実行される動作を示す流れ図である。 図3に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニットに含まれる眼鏡削除ユニットによって自動眼鏡検出および削除段階中に実行される動作を示す流れ図である。 図6A〜6Bに示すような眼鏡の削除の訓練ステージ、ならびに自動眼鏡検出および削除段階において使用される最大事後確率法に関する直感的な説明を示す図である。 図3に示す本発明の一実施形態に係る自動眼鏡検出および削除のための画像処理ユニットの出力例を示す図である。 本発明の第2の実施形態に係る図1に示すシステムに含まれる顔認識のための画像処理ユニットの構成図である。 図9Aに示す本発明の第2の実施形態に係る顔認識のための画像処理ユニットの態様をより詳細に示す構成図である。 本発明の第3の実施形態に係る図1に示すシステムに含まれる顔認識のための画像処理ユニットの構成図である。 図10Aに示す本発明の第3の実施形態に係る顔認識のための画像処理ユニットの態様をより詳細に示す構成図である。

Claims (20)

  1. 画像から眼鏡を自動的に検出し、削除する方法であって、
    顔を含む画像を表すデジタル画像データにアクセスすること、
    前記画像内の眼鏡を検出して、前記画像内の眼鏡の有無についてのレポートを生成すること、
    前記画像の照明を正規化して、正規化画像を得ること、及び
    前記正規化画像から眼鏡を削除して、眼鏡がない顔画像を得ること
    を含む方法。
  2. 前記画像内の前記顔を検出し、前記画像をトリミングすることにより前記デジタル画像データを前処理し、前記眼鏡を検出するステップで使用すべき前記顔を含むトリミング済み画像を得ること
    をさらに含む、請求項1に記載の画像から眼鏡を自動的に検出し、削除する方法。
  3. 前記検出するステップおよび前記正規化するステップの前に前記顔を含む前記トリミング済み画像の顔登録を行うこと
    をさらに含む、請求項2に記載の画像から眼鏡を自動的に検出し、削除する方法。
  4. 眼鏡がない前記顔画像の顔の分類を含む顔認識を行うこと
    をさらに含む、請求項1に記載の画像から眼鏡を自動的に検出し、削除する方法。
  5. 前記検出するステップおよび前記正規化するステップの前に前記顔を含む前記トリミング済み画像の第1の顔登録を行うこと、
    目に関連する特徴およびその他の特徴を使用して眼鏡がない前記顔画像の第2の顔登録を行うこと、及び
    前記第2の顔登録を行うステップの後で顔の分類を含む顔認識を行うこと
    をさらに含む、請求項2に記載の画像から眼鏡を自動的に検出し、削除する方法。
  6. 眼鏡がない前記顔画像の照明を正規化して、正規化済みの眼鏡がない画像を得ること、及び
    前記正規化済みの眼鏡がない画像について顔の分類を含む顔認識を行うこと
    をさらに含む、請求項1に記載の画像から眼鏡を自動的に検出し、削除する方法。
  7. 眼鏡がある顔および眼鏡がない顔を含む訓練用画像の対を使用して眼鏡の検出を学習すること
    をさらに含む、請求項1に記載の画像から眼鏡を自動的に検出し、削除する方法。
  8. 眼鏡がある訓練用顔画像および眼鏡がない訓練用顔画像を含む訓練用顔画像の対を使用して眼鏡の削除を学習すること
    をさらに含む、請求項1に記載の画像から眼鏡を自動的に検出し、削除する方法。
  9. 前記眼鏡の削除を学習するステップは、
    訓練用顔画像の前記対からの画素を1つのベクトルに結合すること、
    主成分分析を使用して前記ベクトルの主成分、平均、および固有値を求めること、
    前記主成分および前記平均を、前記眼鏡がある訓練用顔画像に関する主成分および平均と、前記眼鏡がない訓練用顔画像に関する主成分および平均とに分けること、及び
    前記固有値と、前記眼鏡がある訓練用顔画像に関する前記主成分および前記平均と、前記眼鏡がない訓練用顔画像に関する前記主成分および前記平均とを使用して最大事後確率射影行列を計算すること
    を含む、請求項8に記載の画像から眼鏡を自動的に検出し、削除する方法。
  10. 前記正規化画像から前記眼鏡を削除するステップは、
    前記眼鏡の削除を学習するステップからの前記最大事後確率射影行列を使用して眼鏡がない前記顔画像を推定すること
    を含む、請求項9に記載の画像から眼鏡を自動的に検出し、削除する方法。
  11. 画像から眼鏡を自動的に検出し、削除する装置であって、
    顔を含む画像を表すデジタル画像データを与える画像データ・ユニット、
    前記画像内の眼鏡を検出して、前記画像内の眼鏡の有無についてのレポートを生成する眼鏡検出ユニット、
    前記画像の照明を正規化して、正規化画像を取得する照明正規化ユニット、及び
    前記正規化画像から眼鏡を削除して、眼鏡がない顔画像を得る眼鏡削除ユニット
    を備える装置。
  12. 前記画像内の前記顔を検出し、前記画像をトリミングして前記顔を含むトリミング済み画像を取得し、前記トリミング済み画像を前記眼鏡検出ユニットおよび前記照明正規化ユニットに送る顔検出およびトリミング・ユニット
    をさらに備える、請求項11に記載の装置。
  13. 前記顔を含む前記トリミング済み画像の第1の顔登録を実行し、前記トリミング済み画像を前記照明正規化ユニットおよび前記眼鏡検出ユニットに送る顔登録ユニット
    をさらに備える、請求項12に記載の装置。
  14. 眼鏡がない前記顔画像の顔の分類を含む顔認識を実行する顔認識ユニット
    をさらに備える、請求項13に記載の装置。
  15. 前記顔登録ユニットは、目に関連する特徴およびその他の特徴を使用して、眼鏡がない前記顔画像の第2の顔登録を実行し、前記顔認識ユニットは、前記第2の顔登録の後で眼鏡がない前記顔画像の顔の分類を含む顔認識を実行する、
    請求項14に記載の装置。
  16. 前記照明正規化ユニットは、眼鏡がない前記顔画像の照明を正規化して、正規化済みの眼鏡がない画像を取得し、前記顔認識ユニットは、前記正規化済みの眼鏡がない画像に対して顔の分類を含む顔認識を実行する、
    請求項14に記載の装置。
  17. 眼鏡がある顔および眼鏡がない顔を含む訓練用画像の対を使用して眼鏡の検出を学習する眼鏡学習ユニット
    をさらに備える、請求項11に記載の装置。
  18. 眼鏡がある訓練用顔画像および眼鏡がない訓練用顔画像を含む訓練用顔画像の対を使用して眼鏡の削除を学習する眼鏡削除学習ユニット
    をさらに備える、請求項11に記載の装置。
  19. 前記眼鏡削除学習ユニットは、
    訓練用顔画像の前記対からの画素を1つのベクトルに結合すること、
    主成分分析を使用して前記ベクトルの主成分、平均、および固有値を求めること、
    前記主成分および前記平均を、前記x訓練用顔画像に関する主成分および平均と、前記眼鏡がない訓練用顔画像に関する主成分および平均とに分けること、及び
    前記固有値と、前記眼鏡がある訓練用顔画像に関する前記主成分および前記平均と、前記眼鏡がない訓練用顔画像に関する前記主成分および前記平均とを使用して最大事後確率射影行列を計算すること
    によって眼鏡の削除を学習する請求項18に記載の装置。
  20. 前記眼鏡削除ユニットは、
    前記眼鏡削除学習ユニットによって取得された前記最大事後確率射影行列を使用して眼鏡がない前記顔画像を推定すること
    によって前記正規化画像から眼鏡を削除する請求項19に記載の装置。
JP2008552036A 2006-01-31 2007-01-31 眼鏡を自動的に検出し、削除する方法、及び装置 Active JP4778072B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/342,582 US7653221B2 (en) 2006-01-31 2006-01-31 Method and apparatus for automatic eyeglasses detection and removal
US11/342,582 2006-01-31
PCT/JP2007/052062 WO2007089020A1 (en) 2006-01-31 2007-01-31 Method and apparatus for automatic eyeglasses detection and removal

Publications (2)

Publication Number Publication Date
JP2009525517A true JP2009525517A (ja) 2009-07-09
JP4778072B2 JP4778072B2 (ja) 2011-09-21

Family

ID=38322147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008552036A Active JP4778072B2 (ja) 2006-01-31 2007-01-31 眼鏡を自動的に検出し、削除する方法、及び装置

Country Status (3)

Country Link
US (1) US7653221B2 (ja)
JP (1) JP4778072B2 (ja)
WO (1) WO2007089020A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101373274B1 (ko) * 2012-11-08 2014-03-11 주식회사 크라스아이디 안경 제거를 통한 얼굴 인식 방법 및 상기 안경 제거를 통한 얼굴 인식 방법을 이용한 얼굴 인식 장치
JP2019527410A (ja) * 2016-06-30 2019-09-26 フィッティングボックス 画像又はビデオ内の物体を隠す方法及び関連する拡張現実方法
JP2020095364A (ja) * 2018-12-11 2020-06-18 株式会社日立製作所 機械学習システム、ドメイン変換装置、及び機械学習方法
JP2020098422A (ja) * 2018-12-17 2020-06-25 株式会社東芝 画像処理装置、方法及びプログラム
JP2021151522A (ja) * 2018-08-30 2021-09-30 株式会社トプコン 多変量及び多解像度網膜画像異常検出システム

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012058954A (ja) * 2010-09-08 2012-03-22 Sony Corp 情報処理装置、情報処理方法、およびプログラム
CN102163289B (zh) * 2011-04-06 2016-08-24 北京中星微电子有限公司 人脸图像中眼镜的去除方法和装置、佩戴方法和装置
BR112017002426A2 (pt) 2014-08-04 2021-10-05 Facebook, Inc. Método e sistema para reconstruir porções faciais obstruídas para ambiente de realidade virtual
CN105184253B (zh) * 2015-09-01 2020-04-24 北京旷视科技有限公司 一种人脸识别方法和人脸识别系统
CN106778453B (zh) * 2015-11-25 2020-05-12 腾讯科技(深圳)有限公司 人脸图像中检测眼镜佩戴的方法及装置
WO2017134275A1 (en) 2016-02-05 2017-08-10 Eidgenossische Technische Hochschule Zurich Methods and systems for determining an optical axis and/or physical properties of a lens and use of the same in virtual imaging and head-mounted displays
JP6872742B2 (ja) * 2016-06-30 2021-05-19 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
CN106407912B (zh) * 2016-08-31 2019-04-02 腾讯科技(深圳)有限公司 一种人脸验证的方法及装置
US10679428B1 (en) 2017-05-26 2020-06-09 Snap Inc. Neural network-based image stream modification
CN107844742B (zh) * 2017-09-26 2019-01-04 平安科技(深圳)有限公司 人脸图像眼镜去除方法、装置及存储介质
CN107862270B (zh) * 2017-10-31 2020-07-21 深圳云天励飞技术有限公司 人脸分类器训练方法、人脸检测方法及装置、电子设备
WO2019100511A1 (en) * 2017-11-22 2019-05-31 Zhejiang Dahua Technology Co., Ltd. An image processing method and system
US11275819B2 (en) 2018-12-05 2022-03-15 Bank Of America Corporation Generative adversarial network training and feature extraction for biometric authentication
KR20210059060A (ko) * 2019-11-13 2021-05-25 삼성디스플레이 주식회사 검출 장치
US11587288B2 (en) * 2021-03-15 2023-02-21 Tencent America LLC Methods and systems for constructing facial position map
US11928783B2 (en) 2021-12-30 2024-03-12 Snap Inc. AR position and orientation along a plane
US11887260B2 (en) 2021-12-30 2024-01-30 Snap Inc. AR position indicator
US11954762B2 (en) 2022-01-19 2024-04-09 Snap Inc. Object replacement system
EP4224432A1 (en) 2022-02-04 2023-08-09 Carl Zeiss Vision International GmbH Device, system and method for spectacle frame identification

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132339A (ja) * 2001-10-19 2003-05-09 Alpine Electronics Inc 顔画像認識装置および方法
JP2005149506A (ja) * 2003-11-14 2005-06-09 Fuji Photo Film Co Ltd 対象物自動認識照合方法および装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI278782B (en) * 2001-08-24 2007-04-11 Toshiba Corp Personal recognition apparatus
AU2003235202A1 (en) * 2002-10-31 2004-05-25 Korea Institute Of Science And Technology Image processing method for removing glasses from color facial images
JP2005242640A (ja) * 2004-02-26 2005-09-08 Fuji Photo Film Co Ltd 対象物検出方法および装置並びにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132339A (ja) * 2001-10-19 2003-05-09 Alpine Electronics Inc 顔画像認識装置および方法
JP2005149506A (ja) * 2003-11-14 2005-06-09 Fuji Photo Film Co Ltd 対象物自動認識照合方法および装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101373274B1 (ko) * 2012-11-08 2014-03-11 주식회사 크라스아이디 안경 제거를 통한 얼굴 인식 방법 및 상기 안경 제거를 통한 얼굴 인식 방법을 이용한 얼굴 인식 장치
JP2019527410A (ja) * 2016-06-30 2019-09-26 フィッティングボックス 画像又はビデオ内の物体を隠す方法及び関連する拡張現実方法
JP7112336B2 (ja) 2016-06-30 2022-08-03 フィッティングボックス 画像又はビデオ内の物体を隠す方法及び関連する拡張現実方法
JP2021151522A (ja) * 2018-08-30 2021-09-30 株式会社トプコン 多変量及び多解像度網膜画像異常検出システム
JP7096406B2 (ja) 2018-08-30 2022-07-05 株式会社トプコン 多変量及び多解像度網膜画像異常検出システム
JP2020095364A (ja) * 2018-12-11 2020-06-18 株式会社日立製作所 機械学習システム、ドメイン変換装置、及び機械学習方法
JP7046786B2 (ja) 2018-12-11 2022-04-04 株式会社日立製作所 機械学習システム、ドメイン変換装置、及び機械学習方法
JP2020098422A (ja) * 2018-12-17 2020-06-25 株式会社東芝 画像処理装置、方法及びプログラム

Also Published As

Publication number Publication date
US20070177793A1 (en) 2007-08-02
JP4778072B2 (ja) 2011-09-21
US7653221B2 (en) 2010-01-26
WO2007089020A1 (en) 2007-08-09

Similar Documents

Publication Publication Date Title
JP4778072B2 (ja) 眼鏡を自動的に検出し、削除する方法、及び装置
Guo et al. Eyes tell all: Irregular pupil shapes reveal gan-generated faces
JP5064413B2 (ja) 鼻筋マスクを使用した眼鏡の自動検出方法および装置
Wang et al. Deep eye fixation map learning for calibration-free eye gaze tracking
Li et al. Visual tracking via incremental log-euclidean riemannian subspace learning
US9020209B2 (en) Face identification device
JP5008269B2 (ja) 情報処理装置、情報処理方法
Demir et al. Where do deep fakes look? synthetic face detection via gaze tracking
TWI318108B (en) A real-time face detection under complex backgrounds
JPH11175246A (ja) 視線検出装置及びその方法
Rigas et al. Eye movement-driven defense against iris print-attacks
KR102554391B1 (ko) 홍채 인식 기반 사용자 인증 장치 및 방법
Singh et al. An Iris Recognition System Using CNN & VGG16 Technique
KR20200119425A (ko) 도메인 적응 기반 객체 인식 장치 및 그 방법
Cimmino et al. M2FRED: Mobile masked face REcognition through periocular dynamics analysis
Kouzani Locating human faces within images
Maureira et al. Synthetic periocular iris pai from a small set of near-infrared-images
JPH10340342A (ja) 個体識別装置
Nawaz et al. Faceswap based deepfakes detection.
JP2006209582A (ja) 開眼度推定装置および開眼度推定方法
Shekhar et al. An ensemble model for face liveness detection
Bharadwaj et al. Biometric quality: from assessment to multibiometrics
Abboud et al. Quality based approach for adaptive face recognition
Mallauran et al. Online face detection and user authentication
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100924

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110216

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110630

R150 Certificate of patent or registration of utility model

Ref document number: 4778072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250