JP2009525519A - 鼻筋マスクを使用した眼鏡の自動検出方法および装置 - Google Patents

鼻筋マスクを使用した眼鏡の自動検出方法および装置 Download PDF

Info

Publication number
JP2009525519A
JP2009525519A JP2008552039A JP2008552039A JP2009525519A JP 2009525519 A JP2009525519 A JP 2009525519A JP 2008552039 A JP2008552039 A JP 2008552039A JP 2008552039 A JP2008552039 A JP 2008552039A JP 2009525519 A JP2009525519 A JP 2009525519A
Authority
JP
Japan
Prior art keywords
image
glasses
unit
face
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008552039A
Other languages
English (en)
Other versions
JP5064413B2 (ja
Inventor
グー クンロン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2009525519A publication Critical patent/JP2009525519A/ja
Application granted granted Critical
Publication of JP5064413B2 publication Critical patent/JP5064413B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】方法および装置により、画像内の眼鏡を自動的に検出する。
【解決手段】一実施形態に係る方法では、顔を含む画像を表すデジタル画像データにアクセスし、鼻筋マスクを使用することによってその画像内の眼鏡を検出し、その画像内の眼鏡の有無についての判定を出力する。
【選択図】 図4

Description

本発明は、デジタル画像処理技術に関し、より具体的にはデジタル画像中の眼鏡を検出するための方法および装置に関する。
この非仮出願は、この非仮出願と同時に出願された「Method and Apparatus for Automatic Eyeglasses Detection and Removal」と題された同時係属中の非仮出願に関連し、この同時係属中の非仮出願の内容全体は参照により本明細書に援用される。
顔認識は、人間の顔画像の研究および処理に関するデジタル画像処理技術において重要な役割を担っている。良好な顔認識システムには、顔画像内に現れる遮蔽物に対するそのシステムのロバスト性が強く要求される。眼鏡は、顔を遮蔽するありふれた物のうちの一つである。画像中に眼鏡が含まれると、顔認識システムの性能に大きな影響を与える可能性がある。顔画像中の照明条件のばらつきによって、眼鏡および顔の検出はさらに困難になる。
遮蔽された顔領域が顔認識に与える影響について研究した出版物がいくつかある。そのような技術の1つは、「Target Object Detecting Method,Apparatus,and Program」と題された米国特許出願公開第2005/0190963(A1)号(特許文献1)に記載されている。この文書に記載の方法は、眼鏡などの遮蔽物が原因となって検出に問題が生じる顔を検出する。しかし、この方法は顔の検出に関しており、顔の中の眼鏡を自動的に検出するのではない。また、この方法は、顔画像の様々な照明条件によって引き起こされる問題に対応していない。
米国特許出願公開第2005/0190963(A1)号
本願で開示する実施形態は、鼻筋マスクを使用して顔画像内の眼鏡を自動的に検出する方法および装置を利用することによって、これらのおよびその他の問題に対応することである。
本発明は、画像内の眼鏡を自動的に検出するための方法および装置を対象とする。本発明の第1の態様によれば、画像内の眼鏡の自動検出方法は、顔を含む画像を表すデジタル画像データにアクセスすること、鼻筋マスクを使用することによって画像内の眼鏡を検出すること、及び画像内の眼鏡の有無についての判定を出力することを含む。
本発明の第2の態様によれば、画像内の眼鏡の自動検出装置は、顔を含む画像を表すデジタル画像データを提供する画像データ・ユニット、鼻筋マスクを使用することによって画像内の眼鏡を検出する眼鏡検出ユニット、及び画像内の眼鏡の有無についての判定を出力する判定ユニットを含む。
本発明のさらなる態様および利点は、添付の図面と併せて以下の詳細な説明を読むと明らかになるであろう。
本発明の態様について、添付の図を参照しつつ付随する説明においてより具体的に述べる。図1は、本発明の一実施形態に係る鼻筋マスクを使用して眼鏡を自動的に検出する画像処理ユニットを備えるシステムの構成図である。図1に示されたシステム101は、以下のコンポーネント、すなわち、画像入力ユニット31、画像処理ユニット41、ディスプレイ51、画像出力ユニット56、ユーザ入力ユニット71及び印刷ユニット61を含む。図1のシステム101の動作は、以下の検討から明らかになるであろう。
画像入力ユニット31はデジタル画像データを与える。デジタル画像データは人間の顔を含む画像である。画像入力ユニット31はデジタル画像データを提供するデバイスであり、例えば、フィルムに記録された白黒またはカラー画像をスキャンするためのスキャナ、デジタル・カメラ、CD−R、フロッピー(登録商標)・ディスク、USBドライブなどの記録媒体、画像を記憶するデータベース・システム、ネットワーク接続、画像を処理するコンピュータ・アプリケーションなどのデジタル・データを出力する画像処理システムなどのうちの1つまたはそれ以上であってもよい。
画像処理ユニット41は、画像入力ユニット31から顔画像を含むデジタル画像データを受け取り、以下で詳細に検討される方法で鼻筋マスクを使用した眼鏡検出を行う。ユーザは、ディスプレイ51を介して眼鏡検出の中間結果を含む画像処理ユニット41の出力を見ることができ、ユーザ入力ユニット71を介して画像処理ユニット41に命令を入力することができる。図1に示された実施形態において、ユーザ入力ユニット71はキーボード74およびマウス76を含む。本発明の実施形態に係る自動的な眼鏡検出を実行するとともに、画像処理ユニット41は、ユーザ入力ユニット71から受けた命令に従ってさらなる画像処理機能を実行することとしてもよい。画像処理ユニット41の出力を、様々な目的に応じて画像データを更に処理する画像出力ユニット56に送ることとしてもよい。画像出力ユニット56は、画像データを更に処理するモジュール、画像を収集して比較するデータベースなどであってもよい。
図2は、図1に示す本発明の一実施形態に係る鼻筋マスクを使用して自動的に眼鏡を検出する画像処理ユニット41の構成図である。
顔画像内の眼鏡は、概して2つの独特な特徴、すなわち、フレームとレンズの反射とを有する。レンズの反射と比較して、フレームは様々な画像において、より明確であり、且つ一定している。さらに、フレームは、エッジ強調フィルタによって強調することができる。したがって、眼鏡フレームは、眼鏡検出において有望な特徴である。しかし、レンズの厚さおよびサイズなどの眼鏡フレームの特徴によって、非常にバラツキが生じる。このことが、眼鏡フレームを眼鏡検出のための特徴として使用する場合に難題となっている。
通常、眼鏡は同じ顔領域、すなわち目の領域に現れるので、眼鏡を検出することは、その顔領域の中で更に小さな決まった領域内で眼鏡フレームの一部を検出することに等しい。通常、人の鼻筋の上にある2枚のレンズの間のブリッジは様々な種類のフレームに渡って共通しているので、ブリッジは検出に役に立つ特徴である。さらに、鼻筋領域は、元の顔画像の中でごく小さな部分しか占めない。したがって、鼻筋領域を使用して眼鏡を検出すると、元の眼鏡検出で問題となる範囲を狭くし、ひいては、必要となる訓練用データの量をより減少させることになる。
図2に示すように、本実施形態に係る画像処理ユニット41は、顔画像操作ユニット122、鼻筋マスク・ユニット124、分析および検出ユニット126及びオプション顔登録ユニット117を含む。図2の種々のコンポーネントは別個の要素として示されているが、そのような図示は説明を容易にするためであり、種々のコンポーネントの特定の動作は同じ物理デバイス、例えば1つまたは複数のマイクロプロセッサによって実行することは当然可能である。
概して、図2に示す画像処理ユニット41の構成要素の配置により、デジタル画像データの前処理と、デジタル画像データ内の眼鏡の検出の訓練と、眼鏡の検出とを行う。画像入力ユニット31からのデジタル画像データは、顔画像操作ユニット122に送られる。デジタル画像データは顔を含む原画像であってもよい。顔画像操作ユニット122は、デジタル画像データを受け取り、デジタル画像データ内の顔を検出し、デジタル画像データから顔画像を抽出し、抽出された顔画像に対する処理操作を実行する。画像に対する処理操作は、特徴の強調、サイズ変更、トリミング、圧縮、色補正などを含んでも良い。顔登録ユニット117は、顔画像操作ユニット122から受け取った顔画像内の顔の顔登録を行うことによって眼鏡検出を改善することができる。顔画像操作ユニット122および顔登録ユニット117は、参照により本明細書に援用される2003年12月15日に出願された「Method and Apparatus for Object Recognition Using Probability Models」と題された米国特許出願第10/734,258号に記載の方法を使用して顔検出および顔登録を行うこととしても良い。
顔登録ユニット117は、登録済みの顔画像を顔画像操作ユニット122に返すか、または鼻筋マスク・ユニット124に送る。顔画像操作ユニット122は、未登録または登録済みの顔画像を鼻筋マスク・ユニット124に送る。鼻筋マスク・ユニット124は、顔画像内の鼻筋領域を検出する。次に、鼻筋マスク・ユニット124は、デジタル・データを分析および検出ユニット126に送る。分析および検出ユニット126は、画像データを分析し、顔画像が眼鏡を含むか否かを検出する。分析および検出ユニット126の出力は、顔画像内の眼鏡の有無についての判定である。顔画像内の眼鏡の有無についての判定を、顔画像と共に画像出力ユニット56、印刷ユニット61、および/またはディスプレイ51に出力することとしても良い。次に、図2に示す画像処理ユニット41に含まれるコンポーネントの動作について、図3から7を参照して説明する。顔画像操作ユニット122、鼻筋マスク・ユニット124、分析および検出ユニット126、及び顔登録ユニット117はソフトウェア・アプリケーションである。
図3は、図2に示す本発明の一実施形態に係る鼻筋マスクを使用した自動眼鏡検出を行う画像処理ユニット41によって実行される処理を示す流れ図である。顔画像操作ユニット122は、顔を含む画像を受け取り、画像から顔を検出およびトリミングし、顔画像を出力する(S201)。次に、顔画像操作ユニット122は、眼鏡に関連する特徴の強調、サイズ変更などの顔画像に対する処理操作を実行する(S202)。顔登録ユニット117が存在しない場合、ステップS202の後でステップS207が実行される。存在する場合、顔登録ユニット117は、顔画像操作ユニット122から顔画像を受け取り、顔を登録し、登録済みの顔画像を出力する(S203)。顔登録(ステップS203)は、ステップS201とステップS202の間か、またはステップS202の後で行うこととしても良い。
鼻筋マスク・ユニット124は、登録済みまたは未登録の顔画像を受け取り、顔画像内の顔の鼻筋領域に位置する画像領域を抽出し、領域の画像を出力する(S207)。鼻筋領域に位置する画像領域は顔全体よりも画素が大幅に少ないため、ステップS207以降で処理されるデータ量が削減される。また、鼻筋領域内の眼鏡のレンズの間にあるブリッジは、様々な種類の眼鏡でいつも共通している。さらに、眼鏡がある画像内の鼻筋は、眼鏡がない画像内の鼻筋とは異なる特徴を呈する。分析および検出ユニット126は、眼鏡の有無に関して領域の画像を分析する(S212)。最後に、分析および検出ユニット126は、顔画像内の眼鏡の有無に関する判定を出力する(S216)。
図4は、図2に示す本発明の一実施形態に係る鼻筋マスクを使用した自動眼鏡検出のための画像処理ユニット41の構成図の一例である。画像処理ユニット41は、以下のコンポーネント、すなわち、顔検出およびトリミング・ユニット395、エッジ強調ユニット401、画像サイズ縮小ユニット403、オプション顔登録ユニット117、鼻筋マスク・ユニット124、特徴ベクトル・ユニット415、ベクトル射影モジュール419、線形判別分析ユニット405、統計分析ユニット407、及び判定ユニット409を含む。顔検出およびトリミング・ユニット395、エッジ強調ユニット401、及び画像サイズ縮小ユニット403は、顔画像操作ユニット122に含まれる。特徴ベクトル・ユニット415、線形判別分析ユニット405、ベクトル射影モジュール419、統計分析ユニット407、及び判定ユニット409は、分析および検出ユニット126に含まれる。
画像処理ユニット41の動作は、概して2つのステージ、すなわち、(1)眼鏡検出の学習、および(2)眼鏡の実際の検出に分けることができる。本発明の実施のために、これらのステージの両方に係る原理について図5および6で説明する。
眼鏡検出の学習ステージおよび眼鏡の実際の検出ステージの両方において、画像データは、エッジ強調ユニット401、画像サイズ縮小ユニット403、鼻筋マスク・ユニット124、及び特徴ベクトル・ユニット415を経る。顔検出およびトリミング・ユニット395は顔画像をトリミングする。エッジ強調ユニット401は、顔画像内のエッジを強調し、エッジ・マップを出力する。エッジ・マップ画像のサイズは、画像サイズ縮小ユニット403によって変更される。鼻筋マスク・ユニット124は、画像サイズ縮小ユニット403からエッジ・マップを受け取り、エッジ・マップ内に示される顔の鼻筋領域に位置する画像領域を抽出する。特徴ベクトル・ユニット415は、鼻筋マスク・ユニット124から出力された鼻筋画像領域から特徴ベクトルを抽出する。
図4の破線および実線の太い矢印は、眼鏡検出の学習ステージ中のデータの流れを示す。線形判別分析ユニット405は、特徴ベクトル・ユニット415から特徴ベクトルを受け取り、線形判別分析を使用して眼鏡検出の訓練を行う。ベクトル射影モジュール419は、線形判別分析ユニットの後でベクトルの射影を行うために学習ステージで使用することができる。統計分析ユニット407は、線形判別分析ユニット405およびベクトル射影モジュール419から訓練分析結果を受け取り、眼鏡検出で使用すべき学習パラメータを記憶する。
眼鏡の実際の検出ステージ中、ベクトル射影モジュール419は、学習ステージからの結果を使用してベクトル射影を行う。次に、統計分析ユニット407は、鼻筋領域から抽出された特徴ベクトルに関連するスカラに対するスコアを計算する。そのとき、判定ユニット409は、眼鏡が顔画像内に存在するか否かについて判定を行う。判定ユニット409は、その判定を画像出力ユニット56、印刷ユニット61、および/またはディスプレイ51に出力することとしても良い。
顔検出およびトリミング・ユニット395、エッジ強調ユニット401、画像サイズ縮小ユニット403、顔登録ユニット117、鼻筋マスク・ユニット124、特徴ベクトル・ユニット415、ベクトル射影モジュール419、線形判別分析ユニット405、統計分析ユニット407、及び判定ユニット409は、ソフトウェア・アプリケーションである。
図5は、図4に示す本発明の一実施形態に係る鼻筋マスクを使用した自動眼鏡検出のための画像処理ユニット41によって実行される眼鏡検出の学習に関する動作を示す流れ図である。エッジ強調ユニット401は、様々な照明条件での、眼鏡あり/眼鏡なしの状態が既知である訓練用顔画像を受け取る(S452)。画像処理ユニット41が眼鏡検出を訓練する元になる顔の多様性を大きくするために、訓練用画像には、様々な照明条件が使用される。照明条件は、光の強度および照明の方向のばらつきを含む。種々な照明条件の顔画像を、様々な照明条件の下で様々な人のデジタル画像を撮影することによって画像入力ユニット31で生成することとしても良い。
エッジ強調ユニット401は、様々な入力画像の照明に対してロバストなソーベル・フィルタを使用して画像のエッジを強調する(S454)。その他のフィルタまたはエッジ強調技術を使用することとしても良い。ソーベル・フィルタを使用する場合、入力画像は、以下の式に示す標準的なソーベル・フィルタによって水平方向および垂直方向の両方にフィルタリングされる。
ここで、(*)は2次元の畳み込みであり、Iは入力画像であり、Iedgeは出力エッジ・マップであり、SおよびSはそれぞれ水平および垂直ソーベル・フィルタのカーネルである。結果として、元の画像の全方向エッジ・マップが得られる。実装態様の一例として、Iのサイズは160×160ピクセルである。次に、エッジ強調ユニット401は、訓練顔画像のエッジ・マップを出力する(S456)。画像サイズ縮小ユニット403は、エッジ・マップ画像を受け取り、エッジ・マップ画像のサイズを正規化し、正規化されたエッジ・マップ画像を出力する(S458)。ステップS458において、エッジ・マップ画像は、例えば80×80ピクセルのサイズまで縮小される(Ishrink)範囲を小さくためである。鼻筋マスク・ユニット124は、正規化されたエッジ・マップ画像を受け取り、マスク・システムを使用して、正規化されたエッジ・マップ画像の鼻筋領域内に位置する画素を抽出する(S460)。特徴ベクトル・ユニット415は、鼻筋領域からの画素を用いて特徴ベクトルxを生成する(S462)。眼鏡検出の学習プロセスにおいて当該特徴ベクトルが使用される。特徴ベクトル・ユニット415は、特徴ベクトルを線形判別分析ユニット405に送る。線形判別分析は、2つのクラス、すなわち、眼鏡がない画像のクラス(H)と眼鏡がある画像のクラス(H)とを区別するための最適な線形射影の基準を得るために使用される。検出は2クラス分類問題であるため、単一の射影の基準(b)が訓練ステージで生成され、射影の後にスカラ(x=x・b)が生成される。ここで、・は内積である(S464、S466、S468)。ステップS466を実行するために、線形判別分析ユニット405は、2クラス分類問題に関連する判別関数を決定することができる。ステップS468において、鼻筋領域からの画素を有する特徴ベクトルが、線形判別分析により決定された最適な線形射影によってベクトル射影モジュール419において射影され、スカラを生成する。統計分析ユニット407はそのスカラを受け取り、そのスカラをガウス確率変数としてモデル化する(S470)。次に、統計分析ユニット407はそのスカラを使用して、眼鏡がない画像のクラスHおよび眼鏡がある画像のクラスHの特徴の平均
および分散
をそれぞれ推定する(S472)。統計分析ユニット407は、決定した特徴の平均および分散を使用して顔画像内の眼鏡の有無に関する閾値を定義する(S474)。その他の統計モデルを使用することもできる。これで眼鏡検出の学習ステージを完了する。
図6は、図4に示す本発明の一実施形態に係る鼻筋マスクを使用した自動眼鏡検出のための画像処理ユニット41によって実行される眼鏡検出に関する動作を示す流れ図である。顔検出およびトリミング・ユニット395は、顔を含む画像を受け取り、顔を検出およびトリミングし、顔画像を出力する(S501)。顔画像が眼鏡を有するかどうかは分かっていない。顔登録ユニット117が存在する場合、顔登録ユニット117は顔画像を登録し、登録済みの顔画像を出力する(S503)。エッジ強調ユニット401は、未登録または登録済みの顔画像を受け取り(S502)、学習ステージ中に使用したエッジ強調方法と同じエッジ強調方法を使用して顔画像のエッジを強調する(S504)。エッジ強調にソーベル・フィルタを使用する場合、眼鏡検出の学習にも使用された式(1)に示すような標準的なソーベル・フィルタによって水平方向および垂直方向の両方に、顔画像をフィルタリングする。
ここで、Iは入力画像であり、Iedgeは出力エッジ・マップであり、SおよびSνはそれぞれ水平および垂直ソーベル・フィルタのカーネルである。元の画像の全方向エッジ・マップが結果として得られる。実装態様の一例として、Iのサイズは160×160画素である。エッジ強調ユニット401は、顔画像のエッジ・マップ画像を出力する(S506)。画像サイズ縮小ユニット403は、エッジ・マップ画像を受け取り、エッジ・マップ画像のサイズを正規化し、正規化されたエッジ・マップ画像を出力する(S508)。ステップS508において、エッジ・マップ画像は、例えば80×80ピクセルのサイズまで縮小される(Ishrink)。範囲を小さくするためである。鼻筋マスク・ユニット124は、正規化されたエッジ・マップ画像を受け取り、正規化されたエッジ・マップ画像の鼻筋領域内に位置する画素を抽出する(S510)。鼻筋領域のサイズは、顔画像のサイズよりも小さい。特徴ベクトル・ユニット415は、正規化されたエッジ・マップ画像の鼻筋領域からの画素を用いて特徴ベクトルxを生成する(S512)。次に、特徴ベクトルは、最適な線形射影によってベクトル射影モジュール419において射影されてスカラを生成する(S513)。最適な線形射影は、学習ステージ中に実行された線形判別分析の結果を使用して行う。統計分析ユニット407はそのスカラを受け取る(S514)。次に、統計分析ユニット407は、特徴ベクトルが、眼鏡がない画像クラスHに属する尤度と、眼鏡がある画像クラスHに属する尤度とを計算する(S518)。尤度を計算するために、統計分析ユニット407は、学習ステージで決定された、眼鏡がない画像クラスHおよび眼鏡がある画像クラスHの特徴の平均および分散
および
をそれぞれ使用する。統計分析ユニット407は、眼鏡の状態が未知の顔画像の特徴ベクトルに関連するスカラを使用し、当該特徴ベクトルに対する尤度比
を計算する(S520)。この比において、
は特徴ベクトルが、眼鏡がない画像クラスHに属する尤度であり、
は特徴ベクトルが、眼鏡がある画像クラスHに属する尤度である。次に、統計分析ユニット407は、尤度比を学習ステージ中に決定された閾値と比較する(S522)。
である場合、判定ユニット409は、特徴ベクトルが、眼鏡がないクラスHに属すると判定する。
である場合、判定ユニット409は、特徴ベクトルが、眼鏡があるクラスHに属すると判定する(S524)。最後に、判定ユニット409は、特徴ベクトルに関連する顔画像内の眼鏡の有無に関する判定を出力する(S526)。実装態様の一例として、判定は、例えば、眼鏡が存在するときに「はい」を、眼鏡が存在しないときに「いいえ」を表す2値である。
図7は、図4に示す本発明の一実施形態に係る鼻筋マスクを使用した自動眼鏡検出のための画像処理ユニット41に含まれるユニットの出力の一例を示す。顔画像I901がエッジ強調ユニット401に入力され、エッジ強調ユニット401はソーベル・フィルタを使用してエッジ画像I903を得る。エッジ画像I903は画像サイズ縮小ユニット403に送られ、画像サイズ縮小ユニット403はエッジ画像を縮小し、サイズ調整されたエッジ画像I905を出力する。鼻筋マスク・ユニット124はマスクI907を使用し、画像I905内の顔の鼻の領域に位置する画素を選択する。鼻筋の画素にを有する鼻筋画像I909が鼻筋マスク・ユニット124から出力される。鼻筋画像I909は、特徴ベクトル・ユニット415、ベクトル射影モジュール419、統計分析ユニット407、及び判定ユニット409によってさらに処理される。画像I901が眼鏡を含むことを示すレポートが出力される。
本発明の詳細な実施形態および実装態様を説明したが、本発明の精神および範囲を逸脱することなく様々な改良が当然可能である。
本発明の一実施形態に係る鼻筋マスクを使用した自動眼鏡検出のための画像処理ユニットを備えるシステムの構成図である。 図1に示す本発明の一実施形態に係る鼻筋マスクを使用した自動眼鏡検出のための画像処理ユニットの構成図である。 図2に示す本発明の一実施形態に係る鼻筋マスクを使用した自動眼鏡検出のための画像処理ユニットによって実行される動作を示す流れ図である。 図2に示す本発明の一実施形態に係る鼻筋マスクを使用した自動眼鏡検出のための画像処理ユニットの一例を示す構成図である。 図4に示す本発明の一実施形態に係る鼻筋マスクを使用した自動眼鏡検出のための画像処理ユニットによって実行される眼鏡検出の学習に関する動作を示す流れ図である。 図4に示す本発明の一実施形態に係る鼻筋マスクを使用した自動眼鏡検出のための画像処理ユニットによって実行される眼鏡検出に関する動作を示す流れ図である。 図4に示す本発明の一実施形態に係る鼻筋マスクを使用した自動眼鏡検出のための画像処理ユニットの一例に含まれるユニットの出力の例を示す図である。

Claims (20)

  1. 画像内の眼鏡の自動検出方法であって、
    顔を含む画像を表すデジタル画像データにアクセスすること、
    鼻筋マスクを使用することによって前記画像内の眼鏡を検出すること、及び
    前記画像内の眼鏡の有無についての判定を出力すること、
    を含む方法。
  2. 鼻筋マスクを使用することによって前記画像内の眼鏡を検出する前記ステップは、
    鼻筋マスクを使用することによって前記顔の鼻筋領域に位置する画素を抽出すること、
    を含む請求項1に記載の画像内の眼鏡の自動検出方法。
  3. エッジ・マップを生成するために前記画像のエッジを強調すること、
    をさらに含む請求項2に記載の画像内の眼鏡の自動検出方法。
  4. 前記顔を含む前記画像の顔登録を実行することによって前記画像を前処理すること、
    をさらに含む請求項2に記載の画像内の眼鏡の自動検出方法。
  5. 訓練用画像を使用して眼鏡検出に関する訓練を行うこと、
    をさらに含む請求項2に記載の画像内の眼鏡の自動検出方法。
  6. 前記訓練用画像は様々な照明条件の下で作成される、
    請求項5に記載の画像内の眼鏡の自動検出方法。
  7. 前記照明条件は光の強度および照明の方向を含む、
    請求項6に記載の画像内の眼鏡の自動検出方法。
  8. 前記訓練用画像は、同一人物の眼鏡がある画像と眼鏡がない画像との対を含む、
    請求項5に記載の画像内の眼鏡の自動検出方法。
  9. 前記訓練ステップは、
    前記鼻筋マスクを使用して前記訓練用画像の鼻筋領域から抽出された画素に対して線形判別分析を使用することによって眼鏡がある画像のクラスと眼鏡がない画像のクラスとを区別することを訓練すること、及び
    眼鏡がある画像の前記クラスに関する平均および分散ならびに眼鏡がない画像の前記クラスに関する平均および分散を含む統計パラメータを推定すること
    によって実行される、
    請求項8に記載の画像内の眼鏡の自動検出方法。
  10. 鼻筋マスクを使用することによって前記画像内の眼鏡を検出する前記ステップは、
    前記訓練ステップ中に推定された前記統計パラメータに基づいて、前記鼻筋マスクを使用して前記画像内の前記顔の前記鼻筋領域から抽出された画素に対してスコアを計算すること、及び
    前記スコアを所定の閾値と比較すること、
    を含む請求項9に記載の画像内の眼鏡の自動検出方法。
  11. 画像中の眼鏡の自動検出装置であって、
    顔を含む画像を表すデジタル画像データを提供する画像データ・ユニット、
    鼻筋マスクを使用することによって前記画像内の眼鏡を検出する眼鏡検出ユニット、及び
    前記画像内の眼鏡の有無についての判定を出力する判定ユニット
    を備える自動検出装置。
  12. 前記眼鏡検出ユニットは、前記鼻筋マスクを使用することによって前記顔の鼻筋領域に位置する画素を抽出する、
    請求項11に記載の装置。
  13. エッジ・マップを生成するために前記画像のエッジを強調するエッジ強調ユニット
    をさらに備える請求項12に記載の装置。
  14. 前記顔を含む前記画像の顔登録を実行する顔登録ユニット
    をさらに備える請求項12に記載の装置。
  15. 訓練用画像を使用して眼鏡検出の訓練を行う訓練ユニット
    をさらに備える請求項12に記載の装置。
  16. 前記訓練ユニットによって使用される前記訓練用画像は様々な照明条件の下で作成される、
    請求項15に記載の装置。
  17. 前記照明条件は光の強度および照明の方向を含む、
    請求項16に記載の装置。
  18. 前記訓練用画像は、同一人物の眼鏡がある画像と眼鏡がない画像との対を含む、
    請求項15に記載の装置。
  19. 前記訓練ユニットは、
    前記鼻筋マスクを使用して前記訓練用画像内の顔の鼻筋領域から抽出された画素に対して線形判別分析を使用することによって眼鏡がある画像のクラスと眼鏡がない画像のクラスとを区別することを訓練すること、及び
    眼鏡がある画像の前記クラスに関する平均および分散ならびに眼鏡がない画像の前記クラスに関する平均および分散を含む統計パラメータを推定すること、
    によって眼鏡検出の訓練を行う、
    請求項18に記載の装置。
  20. 前記眼鏡検出ユニットは、
    前記訓練ユニットによって推定された前記統計パラメータ、および前記鼻筋マスクを使用して前記画像内の前記顔の前記鼻筋領域から抽出された画素を使用してスコアを計算すること、及び
    前記スコアを所定の閾値と比較すること、
    によって眼鏡検出を実行する、
    請求項19に記載の装置。
JP2008552039A 2006-01-31 2007-01-31 鼻筋マスクを使用した眼鏡の自動検出方法および装置 Active JP5064413B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/342,588 2006-01-31
US11/342,588 US7657086B2 (en) 2006-01-31 2006-01-31 Method and apparatus for automatic eyeglasses detection using a nose ridge mask
PCT/JP2007/052072 WO2007089027A1 (en) 2006-01-31 2007-01-31 Method and apparatus for automatic eyeglasses detection using a nose ridge mask

Publications (2)

Publication Number Publication Date
JP2009525519A true JP2009525519A (ja) 2009-07-09
JP5064413B2 JP5064413B2 (ja) 2012-10-31

Family

ID=38322148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008552039A Active JP5064413B2 (ja) 2006-01-31 2007-01-31 鼻筋マスクを使用した眼鏡の自動検出方法および装置

Country Status (3)

Country Link
US (1) US7657086B2 (ja)
JP (1) JP5064413B2 (ja)
WO (1) WO2007089027A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101414348A (zh) * 2007-10-19 2009-04-22 三星电子株式会社 多角度人脸识别方法和系统
JP5127583B2 (ja) * 2008-06-20 2013-01-23 株式会社豊田中央研究所 対象物判定装置及びプログラム
CN106919911A (zh) * 2008-07-30 2017-07-04 快图有限公司 使用脸部检测的自动脸部和皮肤修饰
US8554005B1 (en) * 2009-04-02 2013-10-08 Hewlett-Packard Development Company, L.P. Digital image enhancement method and system that embolden or thin image features
US8526684B2 (en) * 2009-12-14 2013-09-03 Microsoft Corporation Flexible image comparison and face matching application
US8644563B2 (en) * 2009-12-14 2014-02-04 Microsoft Corporation Recognition of faces using prior behavior
US8411907B2 (en) 2010-06-15 2013-04-02 International Business Machines Corporation Device function modification method and system
JP5000781B1 (ja) * 2011-11-09 2012-08-15 楽天株式会社 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体
US8670723B2 (en) * 2012-03-08 2014-03-11 Empire Technology Development Llc Measuring quality of experience associated with a mobile device
US8254647B1 (en) * 2012-04-16 2012-08-28 Google Inc. Facial image quality assessment
CN105335695A (zh) * 2015-08-19 2016-02-17 华南理工大学 一种基于眼镜检测的眼睛定位方法
CN106778453B (zh) * 2015-11-25 2020-05-12 腾讯科技(深圳)有限公司 人脸图像中检测眼镜佩戴的方法及装置
CN107844742B (zh) * 2017-09-26 2019-01-04 平安科技(深圳)有限公司 人脸图像眼镜去除方法、装置及存储介质
CN109753850B (zh) * 2017-11-03 2022-10-25 富士通株式会社 面部识别模型的训练方法和训练设备
EP3699808B1 (en) * 2017-11-14 2023-10-25 Huawei Technologies Co., Ltd. Facial image detection method and terminal device
CN110633677B (zh) * 2019-09-18 2023-05-26 威盛电子股份有限公司 人脸识别的方法及装置
EP4224432A1 (en) 2022-02-04 2023-08-09 Carl Zeiss Vision International GmbH Device, system and method for spectacle frame identification

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883341A (ja) * 1994-09-12 1996-03-26 Nippon Telegr & Teleph Corp <Ntt> 物体領域抽出方法とその装置及び物体認識装置
JP2002251617A (ja) * 2001-02-22 2002-09-06 Toyota Central Res & Dev Lab Inc 鼻位置検出装置
JP2005141437A (ja) * 2003-11-05 2005-06-02 Toshiba Corp パターン認識装置及びその方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714665B1 (en) * 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
JP2001216515A (ja) * 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置
US7596247B2 (en) * 2003-11-14 2009-09-29 Fujifilm Corporation Method and apparatus for object recognition using probability models
JP2005242640A (ja) * 2004-02-26 2005-09-08 Fuji Photo Film Co Ltd 対象物検出方法および装置並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883341A (ja) * 1994-09-12 1996-03-26 Nippon Telegr & Teleph Corp <Ntt> 物体領域抽出方法とその装置及び物体認識装置
JP2002251617A (ja) * 2001-02-22 2002-09-06 Toyota Central Res & Dev Lab Inc 鼻位置検出装置
JP2005141437A (ja) * 2003-11-05 2005-06-02 Toshiba Corp パターン認識装置及びその方法

Also Published As

Publication number Publication date
US7657086B2 (en) 2010-02-02
WO2007089027A1 (en) 2007-08-09
JP5064413B2 (ja) 2012-10-31
US20070177794A1 (en) 2007-08-02

Similar Documents

Publication Publication Date Title
JP5064413B2 (ja) 鼻筋マスクを使用した眼鏡の自動検出方法および装置
JP4778072B2 (ja) 眼鏡を自動的に検出し、削除する方法、及び装置
CN108491784B (zh) 面向大型直播场景的单人特写实时识别与自动截图方法
JP6719457B2 (ja) 画像の主要被写体を抽出する方法とシステム
WO2017036160A1 (zh) 人脸识别的眼镜消除方法
CN106557726B (zh) 一种带静默式活体检测的人脸身份认证系统及其方法
US8000505B2 (en) Determining the age of a human subject in a digital image
CN107368806B (zh) 图像矫正方法、装置、计算机可读存储介质和计算机设备
EP1229493A2 (en) Multi-mode digital image processing method for detecting eyes
JP6256165B2 (ja) 視線検出装置、視線検出プログラム及び視線検出方法
JP2002342756A (ja) デジタル画像において目と口の位置を検出する方法
US20120093362A1 (en) Device and method for detecting specific object in sequence of images and video camera device
CN110287791B (zh) 一种用于人脸图片的筛选方法和系统
JP2003030667A (ja) イメージ内で目を自動的に位置決めする方法
JP2008530701A (ja) 顔特徴の検出方法
MX2013002904A (es) Aparato de proceso de imagenes de personas y metodo para procesar imagenes de personas.
KR20050111186A (ko) 영상의 문자 추출 장치 및 방법
US20060269128A1 (en) Image correction method and apparatus
WO2022110917A1 (zh) 驾驶员的驾驶状态确定方法、计算机存储介质及电子设备
KR20200119425A (ko) 도메인 적응 기반 객체 인식 장치 및 그 방법
JPH10222678A (ja) 物体検出装置および物体検出方法
CN111163332A (zh) 视频色情度检测方法、终端及介质
Hemdan et al. Facial features-based method for human tracking
JP5283267B2 (ja) コンテンツ識別方法及び装置
Viitaniemi et al. Detecting hand-head occlusions in sign language video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120727

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120808

R150 Certificate of patent or registration of utility model

Ref document number: 5064413

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150817

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250