JP2004054956A - 顔/類似顔映像で学習されたパターン分類器を利用した顔検出方法及びシステム - Google Patents

顔/類似顔映像で学習されたパターン分類器を利用した顔検出方法及びシステム Download PDF

Info

Publication number
JP2004054956A
JP2004054956A JP2003276745A JP2003276745A JP2004054956A JP 2004054956 A JP2004054956 A JP 2004054956A JP 2003276745 A JP2003276745 A JP 2003276745A JP 2003276745 A JP2003276745 A JP 2003276745A JP 2004054956 A JP2004054956 A JP 2004054956A
Authority
JP
Japan
Prior art keywords
face
feature vector
vector
similar
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2003276745A
Other languages
English (en)
Inventor
Tae Kyun Kim
金 泰 均
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2004054956A publication Critical patent/JP2004054956A/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 顔映像及び類似顔映像を利用してパターン分類器を学習し、それを利用して顔を検出するシステム及び方法を提供する。
【解決手段】 複数の顔映像及び複数の類似顔映像を入力され、顔映像を表現する複数の顔基底ベクトル及び類似顔映像を表現する複数の類似顔基底ベクトルを抽出する基底ベクトル抽出部と、顔映像及び類似顔映像を基底ベクトルに投影して顔特徴ベクトル及び類似顔特徴ベクトルを抽出し、顔検出のための入力映像を基底ベクトルに投影して入力映像特徴ベクトルを抽出する特徴ベクトル抽出部と、顔特徴ベクトルと類似顔特徴ベクトルとを所定のサブクラスに分類し、サブクラスのうち入力映像特徴ベクトルが属するサブクラス番号を出力するクラスタリング部と、各サブクラスに属する顔特徴ベクトル及び類似顔特徴ベクトルを利用し、サブクラスに該当するパターン分類器を学習するパターン分類器学習部と、入力映像特徴ベクトルを入力映像特徴ベクトルの属するサブクラスのパターン分類器に印加し、入力映像が顔であるか否かを判定する顔判定部とを含む。
【選択図】 図1A


Description

 本発明は、顔映像及び類似顔映像を利用して学習されたパターン分類器を利用して顔を検出する方法及びシステムに関する。
 顔検出技術は顔認識のための前段階としてだけではなく、ヒューマンコンピュータインタフェース、ビデオ監視システム、顔を利用した映像検索などの多様な応用分野が近年生じてきており、その重要性がますます大きくなっている。最近、顔検出技術についての多くの研究がなされているが、実際生活に適用されるにはまだアルゴリズムの信頼性が低くて速度も満足なものではない。
 かかる問題を解決するために、顔サンプルパターンから決定境界(decision boundary)を学習させて顔検出に利用する方法が研究されている。その代表的な方法としては、MLP(Multi Layer Perception)とSVM(Support Vector Machine)とがある。
 従来のMLPの一つは、local receptive fieldを顔映像に適用した。従来の方法は、多数のPCA(Principle Component Analysis)空間に映像パターンを投影し、空間に対する距離をMLPの入力として使用した。
 しかし、MLPを介した学習法は与えられたサンプルデータからのエラーだけを最小化させるので、学習されたデータについてはよく動作するが、学習されていない新しいデータについてはうまく動作することを保証できない。特に、照明、表情、及びポーズの要因による顔映像の多様な変化を考慮する時、MLPに基づいた方法はサンプルデータの数が多数でなければ信頼性が落ちる。
 これに反し、SVMは与えられたデータのエラーを最小化させるだけではなく、全体システムのマージンを同時に最大化させるために、MLPに比べて新しいパターンについての一般化能力にすぐれる。従来の技術は、SVMを顔映像にそのまま適用し、ある程度信頼性ある顔検出結果を得ていたが、実生活に適用されるにはまだ満足できない。他の従来技術は顔映像をそのまま使用せずに、独立成分分析法(ICA:Independent Component Analysis)を介して特徴を抽出し、SVMを適用することにより顔検出の信頼性が多少向上した。しかし、かかる従来の技術は信頼性ある顔検出性能を得るために一般的に非線形SVMを使用するが、それは演算量が多くてアルゴリズムの実行速度が遅いという問題点がある。
 本発明の目的は、顔検出のためのパターン分類器の信頼性を高めるために、顔及び類似顔パターンを利用してパターン分類器を学習させる方法、ならびにそれを利用した顔検出方法及びシステムを提供することである。
 本発明の他の目的は、顔検出の速度を改善するために、複数の並列のパターン分類器を学習させる方法、ならびにそれを利用した顔検出方法及びシステムを提供することである。
 前述の最初の目的を達成するため、本発明の顔/類似顔映像で学習されたパターン分類器を利用した顔検出システムは、複数の顔映像及び複数の類似顔映像を入力され、顔映像を表現する複数の顔基底ベクトル及び複数の類似顔映像を表現する複数の類似顔基底ベクトルを抽出する基底ベクトル抽出部と、顔映像及び類似顔映像を顔/類似顔特徴ベクトルに投影して顔特徴ベクトル及び類似顔特徴ベクトルを抽出し、顔検出のための入力映像を基底ベクトルに投影して入力映像特徴ベクトルを抽出する特徴ベクトル抽出部と、顔特徴ベクトル及び類似顔特徴ベクトルを利用してパターン分類器を学習させるパターン分類器学習部と、入力映像特徴ベクトルをパターン分類器に印加(入力)し、入力映像が顔映像であるか否かを判定する顔判定部とを含む。
 また、前述の最初の目的を達成するための顔/類似顔映像で学習されたパターン分類器を利用した顔検出方法は、(a)複数の顔映像及び複数の類似顔映像を入力され、顔映像を表現する複数の顔基底ベクトル及び類似顔映像を表現する複数の類似顔基底ベクトルを抽出する段階と、(b)顔映像及び類似顔映像を顔及び類似顔基底ベクトルに投影して顔特徴ベクトル及び類似顔特徴ベクトルを抽出する段階と、(c)顔特徴ベクトル及び類似顔特徴ベクトルを利用してパターン分類器を学習させる段階と、(d)顔検出のための入力映像を基底ベクトルに投影して入力映像の特徴ベクトルを抽出し、入力映像の特徴ベクトルをパターン分類器に印加し、パターン分類器で入力映像が顔映像であるか否かを判定する段階とを含む。
 一方、前述の本発明の最初及び次の目的を同時に達成するための顔/類似顔映像で学習されたパターン分類器を利用した顔検出システムは、複数の顔映像及び複数の類似顔映像を入力され、顔映像を表現する複数の顔基底ベクトル及び類似顔映像を表現する複数の類似顔基底ベクトルを抽出する基底ベクトル抽出部と、顔映像及び類似顔映像をそれぞれの基底ベクトルに投影して顔特徴ベクトル及び類似顔特徴ベクトルを抽出し、顔検出のための入力映像を基底ベクトルに投影して入力映像特徴ベクトルを抽出する特徴ベクトル抽出部と、顔特徴ベクトルと類似顔特徴ベクトルとを所定のサブクラスに分類し、サブクラスのうち入力映像特徴ベクトルの属するサブクラス番号を出力するクラスタリング部と、各サブクラスに属する顔特徴ベクトル及び類似顔特徴ベクトルを利用し、サブクラスに該当するパターン分類器を学習するパターン分類器学習部と、入力映像特徴ベクトルを入力映像特徴ベクトルの属するサブクラスのパターン分類器に印加し、入力映像が顔であるか否かを判定する顔判定部とを含む。
 また、前述の本発明の最初及び次の目的を同時に達成するための、顔/類似顔映像で学習されたパターン分類器を利用した顔検出方法は、(a)複数の顔映像及び複数の類似顔映像を入力され、顔映像を表現する複数の顔基底ベクトル及び類似顔映像を表現する複数の類似顔基底ベクトルを抽出する段階と、(b)顔映像及び類似顔映像をそれぞれの基底ベクトルに投影して顔特徴ベクトル及び類似顔特徴ベクトルを抽出する段階と、(c)顔特徴ベクトルと類似顔特徴ベクトルとを所定のサブクラスに分類する段階と、(d)各サブクラスに属する顔特徴ベクトル及び類似顔特徴ベクトルを利用してサブクラスに該当するパターン分類器を学習する段階と、(e)顔検出のための入力映像の特徴ベクトルを抽出し、入力映像特徴ベクトルを入力映像特徴ベクトルが属するサブクラスのパターン分類器に印加し、入力映像が顔であるか否かを判定する段階とを含む。
 また、前記(e)段階は(e1)顔検出のための入力映像を基底ベクトルに投影して入力映像特徴値を得、前記特徴値を利用して入力映像特徴ベクトルを抽出する段階と、(e2)サブクラスのうち入力映像特徴ベクトルの属するサブクラスを決定する段階と、(e3)入力映像特徴ベクトルを入力映像特徴ベクトルの属するサブクラスのパターン分類器に印加し、入力映像が顔であるか否かを判定する段階とを含むことが望ましい。
 本発明は顔映像だけではなく、類似顔映像を学習データとして利用して顔パターン分類器に学習させることにより、照明や表情などが学習されたデータとは異なる顔映像が入れば顔ではないと判断するか、顔ではないが顔とある程度類似したパターンを顔であると判断する従来技術の誤りを大きく減らせる。
 併せて、本発明は顔パターン分類器の学習に既存に多用されるPCAの代わりに、PCAとICAとを結合して使用することにより最終的な検出性能を向上させられるだけではなく、顔及び類似顔の特徴を表現する特徴値として残余誤差値を利用することにより顔学習及び顔検出性能を大きく向上させられる。
 また、本発明は既存の特徴ベクトルを単一の顔パターン分類器に学習させたものとは異なり、顔パターン分類器を並列化することにより、少数のサポートベクトルで効果的に決定バウンダリーを表現でき、大きいマージンを得ることができる。その結果、高い信頼性が保証され、正確性だけではなく決定バウンダリーの演算量を大きく減らして新しいパターンが入力された時に判断速度を大きく向上させられる。
 以下、添付した図面を参照して本発明の望ましい実施例を説明する。
 本発明の望ましい実施例はパターン分類器としてSVM(Support Vector Machine)を利用し、以下本明細書及び添付された図面はSVMをパターン分類器と同じ意味に使用した。
 図1Aは本発明の望ましい実施例による顔検出システムのパターン分類器学習システムの構成を示したブロック図である。
 本発明のパターン分類器学習システムは、顔映像を貯蔵した顔データベース(DB)100、顔と類似したパターンの映像を貯蔵した類似顔DB105、顔DB100及び類似顔DB105から複数の映像をそれぞれ入力されて映像を表現する複数の基底ベクトルを抽出する基底ベクトル抽出部110、顔DB100及び類似顔DB105に貯蔵された顔映像及び類似顔映像を複数の基底ベクトルに投影して、各特徴ベクトル及び残余誤差値を出力する特徴抽出部120、特徴抽出部120から受信された特徴ベクトルを所定のサブクラスに分類するクラスタリング部130a、各サブクラス別に特徴ベクトルを貯蔵する特徴クラスDB140、各サブクラス別にSVMを学習させるSVM学習部150を含む。
 以下、本発明の望ましい実施例による顔検出方法を説明するフローチャートである図3Aを参照して本発明のパターン分類器の学習過程及び顔検出過程を説明する。
 本発明はパターン分類器を学習させるために、多様な表情と照明とが反映されたさまざまな人の顔映像を顔DB100に構築し、顔映像とパターン距離が類似した多数の映像を類似顔DB105に構築する(S300)。
 顔ではないパターンはその種類があまりにも多様であってモデリングに大きな意味がなく、またモデリングも困難である。そのため、顔ではないパターンであるが、顔と似ていて誤りを起こしうるパターンを類似顔サンプルとして収集する。類似顔サンプルを収集する方法は多様である。本発明では、平均顔映像パターンとのユークリッド距離が一定値以下の映像パターンを収集して初期の類似顔DB105を構築した。また、パターン分類器を設計してから顔検出を実施した後で誤りが検出された顔ではないパターンを類似顔サンプルとして収集して類似顔DB105に貯蔵して学習を反復した。
 顔DB100及び類似顔DB105に貯蔵された映像は基底ベクトル抽出部110に出力されて基底ベクトルが抽出される(S310,S320)。図1Bを参照して基底ベクトル抽出部110の構成を説明すれば、基底ベクトル抽出部110は、入力された映像にPCA(Principle Component Analysis)を行ってPCA基底ベクトルを抽出するPCA基底ベクトル抽出部112と、PCA基底ベクトル抽出部112から入力されたPCA基底ベクトルを貯蔵していて出力する第1顔基底ベクトルDB114及び第1類似顔基底ベクトルDB115と、基底ベクトルDB114,115から入力された基底ベクトルにICA(Independent Component Analysis)を行ってICA基底ベクトルを出力するICA基底ベクトル抽出部116と、顔映像についてのICA基底ベクトルを貯蔵する第2顔基底ベクトルDB118及び第2類似顔基底ベクトルDB119とを含む。
 顔DB100から出力された顔映像は基底ベクトル抽出部110のPCA基底ベクトル抽出部112に入力され、PCA基底ベクトル抽出部112は入力された映像についてPCAを行ってPCA基底ベクトルを抽出する(S310)。
 PCA基底ベクトル抽出部112は顔DB100から入力された顔映像の目の座標を利用し、顔映像の位置と大きさとを正規化する。その後、PCAを行って顔空間をよく表現できるPCA基底ベクトルを抽出する。類似顔DB105から入力された類似顔映像についてもPCAを行い、類似顔空間の基底ベクトルを抽出する。
 図4Aは30個の顔映像についてのPCA基底ベクトルを映像に表現した図面であり、図4Bは30個の類似顔映像についてのPCA基底ベクトルを映像に表現した図面である。
 このように抽出されたPCA基底ベクトルのうち顔映像についての基底ベクトルは第1顔基底ベクトルDB114に、類似顔映像についての基底ベクトルは第1類似顔基底ベクトルDB115にそれぞれ貯蔵される。各DB別に貯蔵された基底ベクトルのうち固有値の大きいN個の基底ベクトルがICA基底ベクトル抽出部116に出力される。併せて、PCA基底ベクトルをDB114,115に貯蔵せずにPCA基底ベクトル抽出部112からICA基底ベクトル抽出部116に直接出力できることはもちろんである。
 ICA基底ベクトル抽出部116は入力された顔及び類似顔PCA基底ベクトルについてICAを行ってICA基底ベクトルを抽出する(S320)。
 従来のパターン分類器学習システム及び方法は、映像の隣接画素間の2次元的関係を考慮するPCAだけを使用してパターン分類器を学習したが、本発明は、隣接していない画素間の関係までも表現することにより映像の高次元的表現が可能なように、PCA基底ベクトルについてICAを行ってICA基底ベクトルを抽出し、かように抽出されたICA基底ベクトルはPCAベクトルに比べて優れた顔の表現性能を示す。
 図4Cは、30個の顔映像についてのICA基底ベクトルを映像に表現した図面であり、図4Dは、30個の類似顔映像についてのICA基底ベクトルを映像に表現した図面である。
 前述のごとく基底ベクトル抽出部110にて抽出された顔映像及び類似顔映像の基底ベクトルは特徴抽出部120に出力されて顔映像及び類似顔映像の特徴ベクトル抽出に利用される。
 図1Cを参照すれば、特徴抽出部120は顔映像及び顔類似映像の特徴ベクトルを抽出する特徴ベクトル抽出部122と、顔特徴ベクトルを貯蔵する顔特徴ベクトルDB124と、類似顔特徴ベクトルを貯蔵する類似顔特徴ベクトルDB126とを含む。
 特徴ベクトル抽出部122は、基底ベクトル抽出部110から出力された顔基底ベクトル及び類似顔基底ベクトルに、顔DB100及び類似顔DB105に貯蔵された顔映像及び類似顔映像をそれぞれ投影し、各ベクトルについての係数及び残余誤差値より構成される顔特徴ベクトル及び類似顔特徴ベクトルを抽出する(S330)。
 特徴ベクトル抽出部122は、まず1つの顔映像を顔映像から抽出されたN個の顔基底ベクトルに投影してN個の特徴値(投影係数)を抽出し、同映像を類似顔映像から得られたN個の類似顔基底ベクトルに投影してN個の特徴値を抽出し、その結果、全体で2N個の特徴値を得る。
 同様に、特徴ベクトル抽出部122は1つの類似顔映像を顔映像の場合と同じ方法で顔基底ベクトルに投影してN個の特徴値(投影係数)を得、類似顔基底ベクトルに投影してN個の特徴値を得、類似顔映像一つについて全体で2N個の特徴値を得る。
 一方、特徴ベクトル抽出部122は前述の特徴値(投影係数)以外に、パターン分類器を学習させるための特徴値として残余誤差値を計算する(S340)。
 残余誤差値というのは、各映像をN個の基底ベクトルに投影して得られた特徴値(投影係数)を前記基底ベクトルにかけ合わせて映像を復元した時、復元された映像のベクトルと投影前映像の実際ベクトル間の距離を示すものである。顔映像を顔基底ベクトルN個を利用して復元する場合には残余誤差値が小さいが、類似顔映像を顔基底ベクトルN個を利用して復元する場合は残余誤差値が大きい。反対に、顔映像を類似顔基底ベクトルN個を利用して復元する場合には残余誤差値が大きいが、類似顔映像を類似顔基底ベクトルN個を利用し復元する場合には残余誤差値が小さくなる。
 図5は、学習に使用した顔と類似顔映像の残余誤差値を示したグラフである。図5に示されたように、顔映像と類似顔映像の残余誤差値を同時に使用する時、二つの残余誤差値だけでも概略的にクラスを区分できることを確認できる。従って、本発明はパターン分類器の信頼性を高めるために顔と類似顔とを区分する特徴ベクトルを抽出するための値として前述の2N個の特徴値及び二つの残余誤差値を使用する。
 特徴ベクトル抽出部122は1つの映像について得られた2N+2つの特徴値を利用して1つの特徴ベクトルを抽出し、顔映像についての特徴ベクトルは顔特徴ベクトルDB124に、類似顔映像についての特徴ベクトルは類似顔特徴ベクトルDB126にそれぞれ貯蔵された後、クラスタリング部130aに出力される。
 クラスタリング部130aはまず、入力された顔特徴ベクトルを所定のサブクラスに分類し、各サブクラスを代表する中心顔特徴ベクトルを選定する(S350)。
 本発明は、顔特徴ベクトルを「k-means clustering」アルゴリズムを使用して、複数のサブクラスに分類し、この時サブクラスの数は可変的でありうる。クラスタリング部130aは k-means clusteringアルゴリズムにより顔映像特徴ベクトル間のユークリッド距離を測定し、ユークリッド距離が近いもの同士をまとめて所定のサブクラスに顔特徴ベクトルを分類して特徴クラスDB140に貯蔵する。その後、各サブクラスに貯蔵された顔特徴ベクトルのベクトル平均に最も近接な顔特徴ベクトルを各サブクラスを代表する中心顔特徴ベクトルとして選定する。
 図6は顔特徴ベクトルを10個のサブクラスに分類した時、各サブクラスの中心顔特徴ベクトルを映像に表現した図面である。各映像に大きい差はないが、照明、表情、角度によって少しずつ異なって現れる。
 クラスタリング部130aは顔特徴ベクトルを所定のサブクラスに分類した後、類似顔特徴ベクトルを同じサブクラスに分類する(S360)。
 クラスタリング部130aは全ての類似顔特徴ベクトルとサブクラスの中心顔ベクトル間のユークリッド距離を測定し、ユークリッド距離が最も近いサブクラスに類似顔特徴ベクトルを割り当てる。従って、顔特徴ベクトル及び類似顔特徴ベクトルを含む所定のサブクラスが得られる。
 特徴ベクトルが所定のサブクラスに分類された後、パターン分類器学習部150は各サブクラスの顔特徴ベクトル及び類似顔特徴ベクトルを利用し、サブクラス別にパターン分類器を学習させる(S370)。
 図7を参照すれば、クラス1は顔特徴ベクトルを、クラス2は類似顔特徴ベクトルをそれぞれ示す。図7に示されたように顔や類似顔クラスのように特徴ベクトルの数が多くて多様な変化を有する場合は、その分布が1つの中心と分散とでは容易に表現されず、多様な形態で特徴ベクトルが分布する。従って、複雑なクラスを1つの決定バウンダリーに区分しなければならない場合には演算がかなり複雑であって長時間がかかり、SVMを学習させて信頼できる決定バウンダリーを得ることもまた容易ではない。
 従って、本発明は図7の右上と右下とに示されたように、全体クラスを前述のような所定のサブクラスに分類した後に、各サブクラス別に顔特徴ベクトル及び類似顔特徴ベクトルを利用してSVMを学習させることにより、学習に必要な演算量を大幅に減少させて迅速でかつ信頼性あるバウンダリー決定が可能になる。
 前述のような過程を介して本発明のパターン分類器が学習されて顔検出のための映像が入力されれば、学習されたパターン分類器を利用して顔を検出する(S380)。
 以下、本発明の顔検出システムの構成を簡略に示したブロック図である図2及び第S380段階の詳細フローチャートである図3Bを参照して顔検出過程を説明する。
 まず、顔検出のための映像は特徴ベクトル抽出部122に入力される(S381)。
 図2の特徴ベクトル抽出部122は図1Cに示された特徴ベクトル抽出部122とその機能が同一である。すなわち、特徴ベクトル抽出部122は、入力映像を基底ベクトル抽出部110から入力されたN個の顔基底ベクトル及び類似顔基底ベクトルにそれぞれ投影して2N個の特徴値を得る(S383)。
 一方、特徴ベクトル抽出部122は、入力映像について前述の第S340段階と同じ方法で残余誤差値を計算し、2N個の特徴値(投影係数)と2つの残余誤差値を利用して1つの特徴ベクトルを抽出してクラスタリング部130bに出力する(S385)。
 クラスタリング部130bは、入力映像の特徴ベクトルと前述の学習段階にて分類されたサブクラスの中心顔特徴ベクトル間のユークリッド距離を測定し、ユークリッド距離が最も近い中心顔特徴ベクトルの属するサブクラスを入力映像が属するサブクラスに決定して前記サブクラス番号を顔判定部160に出力する(S387)。
 顔判定部160は、入力されたサブクラス番号に該当するパターン分類器に、顔検出のための入力映像の特徴ベクトルを入力し、入力映像に表現されたパターンが顔であるか否かを判断する(S389)。
 前述の方法及びシステムにより学習されたパターン分類器を利用して顔検出を行った実験データを表1及び図8に図示した。
 本実験のために類似顔映像は、最初に学習段階で顔の平均テンプレートをマッチングさせることにより選定され、ブートストラップ技法により拡大された。一方、本発明の顔検出性能実験のために、顔検出用入力映像に2つの白黒イメージ集合が使われた。集合AはオリベッティイメージDBから抽出された、映像ごとに1つの顔が込められた400枚の高画質映像より構成されて、集合Bは ローリ(Rowley)イメージDBから抽出された全体172名の顔映像が含まれた多様な画質の36個の映像より構成される。
 入力映像から顔を検出するために、本発明のパターン分類器はできる限り全ての位置及びスケールの探索窓について顔があるかを判定した。
 表1の従来技術は、顔映像から50個のICA特徴値を抽出して学習したパターン分類器を利用して顔検出を行い、本発明は、顔映像及び類似顔映像からそれぞれ抽出された50個ずつの特徴値と2つの残余誤差値とを利用して学習したパターン分類器を利用して顔検出を行った。前記表1及び集合Bについての検出率を表した図8に示すように、顔検出率が大きく向上したことが分かる。
 一方、顔及び類似顔特徴ベクトルを単一パターン分類器に学習させた場合と顔及び類似顔特徴ベクトルを所定のサブクラスに分類して各サブクラス別にパターン分類器に学習させた場合、すなわちパターン分類器を並列化した場合の前述の集合Bについての顔検出性能実験結果を下の表2に表した。
 前記表2にて示されたように、同じ検出率を示す単一分類器に比べて並列化されたパターン分類器はさらに大きいマージンを有するので、検出誤差の確率がさらに低い。そして、一層少ないサポートベクトル(SV)を有するので、単一分類器より約3.7倍速い検出速度を示すことが分かる。
 本発明はまたコンピュータにて読み込みうる記録媒体にコンピュータが読み込めるコードでもって具現できる。コンピュータの読み込める記録媒体はコンピュータシステムにより読み込めるデータが貯蔵される全種の記録装置を含む。コンピュータが読み込める記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フレキシブルディスク、光データ貯蔵装置などがあり、またキャリアウエーブ(例えばインターネットを介した伝送)の形態で具現されるものも含む。また、コンピュータが読み込める記録媒体はネットワークに連結されたコンピュータシステムに分散され、分散方式でコンピュータが読み込めるコードが貯蔵されて実行されうる。
 これまで本発明についてその望ましい実施例を中心に説明した。本発明が属する技術分野にて当業者は本発明が本発明の本質的な特性を外れない範囲にて変形された形態に具現できることを理解するであろう。従って、開示された実施例は限定的な観点ではなくして説明的な観点から考慮されなければならない。本発明の範囲は前述した説明ではなく特許請求の範囲に示されており、それと同等な範囲内にある全ての差異点は本発明に含まれたものと解釈されるものである。
本発明の望ましい実施例による顔検出システムのパターン分類器学習システムの構成を示したブロック図である。 図1Aに示された基底ベクトル抽出部の詳細ブロック図である。 図1Aに示された特徴抽出部の詳細ブロック図である。 本発明の顔検出システムの構成を簡略に示したブロック図である。 本発明の望ましい実施例による顔検出方法を説明するフローチャートである。 図3Aに示したS380段階の詳細フローチャートである。 30個の顔映像についてのPCA基底ベクトルを映像に表現した図面である。 30個の類似顔映像についてのPCA基底ベクトルを映像に表現した図面である。 30個の顔映像についてのICA基底ベクトルを映像に表現した図面である。 30個の類似顔映像についてのICA基底ベクトルを映像に表現した図面である。 本発明の望ましい実施例により計算された残余誤差値を示した図面である。 本発明の望ましい実施例によるサブクラスの中心顔特徴ベクトルを示した図面である。 本発明の望ましい実施例によるパターン分類器の学習過程を説明する図面である。 本発明のパターン分類器による検出率を示した図面である。
符号の説明
 100 顔DB
 105 類似顔DB
 110 基底ベクトル抽出器
 120 特徴抽出部
 130a クラスタリング部
 140 特徴クラスDB
 150 SVM学習部

Claims (20)

  1.  顔/類似顔映像で学習されたパターン分類器を利用した顔検出法であり、
     (a)複数の顔映像及び複数の類似顔映像を入力され、前記顔映像を表現する複数の顔基底ベクトル及び前記類似顔映像を表現する複数の類似顔基底ベクトルを抽出する段階と、
     (b)前記顔映像及び前記類似顔映像を前記顔及び類似顔基底ベクトルに投影して顔特徴ベクトル及び類似顔特徴ベクトルを抽出する段階と、
     (c)前記顔特徴ベクトルと前記類似顔特徴ベクトルとを所定のサブクラスに分類する段階と、
     (d)前記各サブクラスに属する顔特徴ベクトル及び類似顔特徴ベクトルを利用して前記サブクラスに該当するパターン分類器を学習させる段階と、
     (e)顔検出のための入力映像の特徴ベクトルを抽出し、前記入力映像特徴ベクトルを前記入力映像特徴ベクトルが属するサブクラスのパターン分類器に印加し、入力映像が顔であるか否かを判定する段階とを含むことを特徴とする顔検出法。
  2.  前記(e)段階は、
     (e1)顔検出のための入力映像を前記基底ベクトルに投影して入力映像の特徴値を得、前記特徴値を利用して入力映像特徴ベクトルを抽出する段階と、
     (e2)前記サブクラスのうち入力映像特徴ベクトルの属するサブクラスを決定する段階と、
     (e3)前記入力映像特徴ベクトルを前記入力映像特徴ベクトルの属するサブクラスのパターン分類器に印加し、入力映像が顔であるか否かを判定する段階とを含むことを特徴とする請求項1に記載の顔検出法。
  3.  顔/類似顔映像で学習されたパターン分類器を利用した顔検出法であり、
     (a)複数の顔映像及び複数の類似顔映像を入力され、前記顔映像を表現する複数の顔基底ベクトル及び前記類似顔映像を表現する複数の類似顔基底ベクトルを抽出する段階と、
     (b)前記顔映像及び前記類似顔映像を前記顔及び類似顔基底ベクトルに投影して顔特徴ベクトル及び類似顔特徴ベクトルを抽出する段階と、
     (c)前記顔特徴ベクトル及び類似顔特徴ベクトルを利用してパターン分類器を学習する段階と、
     (d)顔検出のための入力映像を前記基底ベクトルに投影して入力映像の特徴ベクトルを抽出し、前記入力映像の特徴ベクトルを前記パターン分類器に印加して前記入力映像が顔映像であるか否かを判定する段階とを含むことを特徴とする顔検出法。
  4.  前記(a)段階は、
     (a1)入力された複数の顔映像及び複数の類似顔映像それぞれに主成分分析法(PCA)を行い、前記顔映像についてのPCA基底ベクトル及び前記類似顔映像についてのPCA基底ベクトルを抽出する段階と、
     (a2)入力された前記各PCA基底ベクトルについて独立成分分析法(ICA)を行い、ICA基底ベクトルを前記顔基底ベクトル及び前記類似顔基底ベクトルとして出力する段階とを含むことを特徴とする請求項1ないし3のうちいずれの1項に記載の顔検出法。
  5.  前記(a)段階は、
     前記顔基底ベクトル及び前記類似顔基底ベクトルを貯蔵する段階をさらに含むことを特徴とする請求項4に記載の顔検出法。
  6.  前記(b)段階は、
     (b1)前記顔映像及び前記類似顔映像を前記基底ベクトルに投影して投影係数を求める段階と、
     (b2)前記投影係数を前記基底ベクトルにかけ合わせて復元した値と、前記顔映像及び前記類似顔映像のそれぞれとの差である残余誤差値を計算する段階と、
     (b3)前記投影係数値及び残余誤差値を利用して顔映像及び類似顔映像の特徴ベクトルを抽出する段階とを含むことを特徴とする請求項1ないし3のうちいずれか1項に記載の顔検出法。
  7.  前記(c)段階は、
     (c1)前記顔特徴ベクトルの各ユークリッド距離を測定し、前記距離が近い特徴ベクトルごとに所定のサブクラスに分類する段階と、
     (c2)前記各サブクラスに含まれた顔特徴ベクトルのベクトル平均により中心顔特徴ベクトルを選定する段階とを含むことを特徴とする請求項1あるいは2に記載の顔検出法。
  8.  前記(c)段階は、
     前記類似顔特徴ベクトルと前記中心顔ベクトルとのユークリッド距離を測定し、前記類似顔特徴ベクトルをユークリッド距離が最も近い中心顔ベクトルの属するサブクラスに分類する段階をさらに含むことを特徴とする請求項7に記載の顔検出法。
  9.  前記(c)段階は、
     k−meansクラスタリングアルゴリズムを使用して顔特徴ベクトルを所定のサブクラスに分類することを特徴とする請求項1あるいは2に記載の顔検出法。
  10.  前記(e1)段階は、
     前記入力映像を前記顔基底ベクトル及び前記類似顔基底ベクトルに投影して計算された投影係数を前記基底ベクトルにかけ合わせて復元した値と、前記入力映像との差である残余誤差値とを計算する段階を含み、前記入力映像特徴ベクトルは前記投影係数値及び前記残余誤差値を利用して抽出されることを特徴とする請求項2に記載の顔検出法。
  11.  請求項1ないし3のうちいずれか1項の方法をコンピュータにて実行可能なプログラムコードで記録した記録媒体。
  12.  顔/類似顔映像で学習されたパターン分類器を利用した顔検出システムであり、
     複数の顔映像及び複数の類似顔映像を入力され、前記顔映像を表現する複数の顔基底ベクトル及び前記類似顔映像を表現する複数の類似顔基底ベクトルを抽出する基底ベクトル抽出部と、
     前記顔映像及び前記類似顔映像を前記顔及び類似顔基底ベクトルに投影して顔特徴ベクトル及び類似顔特徴ベクトルを抽出し、顔検出のための入力映像を前記基底ベクトルに投影して入力映像特徴ベクトルを抽出する特徴ベクトル抽出部と、
     前記顔特徴ベクトルと前記類似顔特徴ベクトルとを所定のサブクラスに分類し、前記サブクラスのうち入力映像特徴ベクトルが属するサブクラス番号を出力するクラスタリング部と、
     前記各サブクラスに属する顔特徴ベクトル及び類似顔特徴ベクトルを利用し、前記サブクラスに該当するパターン分類器を学習するパターン分類器学習部と、
     前記入力映像特徴ベクトルを前記入力映像特徴ベクトルの属するサブクラスのパターン分類器に印加し、入力映像が顔であるか否かを判定する顔判定部とを含むことを特徴とする顔検出システム。
  13.  顔/類似顔映像で学習されたパターン分類器を利用した顔検出システムであり、
     複数の顔映像及び複数の類似顔映像を入力され、前記顔映像を表現する複数の顔基底ベクトル及び前記複数の類似顔映像を表現する複数の類似顔基底ベクトルを抽出する基底ベクトル抽出部と、
     前記顔映像及び前記類似顔映像を前記顔及び類似顔特徴ベクトルに投影して顔特徴ベクトル及び類似顔特徴ベクトルを抽出し、顔検出のための入力映像を前記基底ベクトルに投影して入力映像特徴ベクトルを抽出する特徴ベクトル抽出部と、
     前記顔特徴ベクトル及び類似顔特徴ベクトルを利用してパターン分類器を学習するパターン分類器学習部と、
     前記入力映像特徴ベクトルを前記パターン分類器に印加して前記入力映像が顔映像であるか否かを判定する顔判定部とを含むことを特徴とする顔検出システム。
  14.  前記基底ベクトル抽出部は、
     入力された複数の顔映像及び複数の類似顔映像それぞれにPCAを行い、前記顔映像についてのPCA基底ベクトル及び前記類似顔映像についてのPCA基底ベクトルを抽出するPCA基底ベクトル抽出部と、
     入力された前記各PCA基底ベクトルについてICAを行い、前記顔基底ベクトル及び前記類似顔基底ベクトルを出力するICA基底ベクトル抽出部とを含むことを特徴とする請求項12あるいは13に記載の顔検出システム。
  15.  前記基底ベクトル抽出部は、
     前記顔基底ベクトルを貯蔵する顔基底ベクトル貯蔵部と、
     前記類似顔基底ベクトルを貯蔵する類似顔基底ベクトル貯蔵部とを含むことを特徴とする請求項14記載の顔検出システム。
  16.  前記特徴ベクトル抽出部は、
     前記顔映像、前記類似顔映像、及び前記入力映像を前記顔基底ベクトル及び前記類似顔基底ベクトルに投影して投影係数を求め、前記投影係数を前記基底ベクトルにかけ合わせて復元した値と、前記顔映像、前記類似顔映像及び前記入力映像との差である残余誤差値を求め、前記投影係数及び前記誤差値を利用して顔特徴ベクトル、類似顔特徴ベクトル及び入力映像特徴ベクトルを抽出することを特徴とする請求項12あるいは13に記載の顔検出システム。
  17.  前記クラスタリング部は、
     前記顔特徴ベクトルのユークリッド距離を測定し、前記距離が近い特徴ベクトルごとに所定のサブクラスに分類し、前記各サブクラスに含まれた顔特徴ベクトルのベクトル平均により中心顔特徴ベクトルを選定することを特徴とする請求項12に記載の顔検出システム。
  18.  前記クラスタリング部は、
     前記類似顔特徴ベクトルと前記中心顔特徴ベクトルとのユークリッド距離を測定し、前記類似顔特徴ベクトルをユークリッド距離が最も近い中心顔特徴ベクトルの属するサブクラスに分類することを特徴とする請求項17に記載の顔検出システム。
  19.  前記クラスタリング部は、
     前記入力映像の特徴ベクトルと前記各サブクラスの中心顔特徴ベクトルとのユークリッド距離を測定し、前記距離が最も近いサブクラスに前記入力映像の特徴ベクトルを分類することを特徴とする請求項17に記載の顔検出システム。
  20.  前記クラスタリング部は k−meansクラスタリングアルゴリズムを使用して顔特徴ベクトルを所定のサブクラスに分類することを特徴とする請求項17ないし19のうちいずれか1項に記載の顔検出システム。
JP2003276745A 2002-07-19 2003-07-18 顔/類似顔映像で学習されたパターン分類器を利用した顔検出方法及びシステム Ceased JP2004054956A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0042486A KR100442834B1 (ko) 2002-07-19 2002-07-19 얼굴/유사얼굴 영상으로 학습된 패턴 분류기를 이용한얼굴 검출 방법 및 시스템

Publications (1)

Publication Number Publication Date
JP2004054956A true JP2004054956A (ja) 2004-02-19

Family

ID=30439357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003276745A Ceased JP2004054956A (ja) 2002-07-19 2003-07-18 顔/類似顔映像で学習されたパターン分類器を利用した顔検出方法及びシステム

Country Status (4)

Country Link
US (1) US7447338B2 (ja)
EP (1) EP1388804A3 (ja)
JP (1) JP2004054956A (ja)
KR (1) KR100442834B1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099565A (ja) * 2004-09-30 2006-04-13 Kddi Corp コンテンツ識別装置
WO2006129551A1 (ja) * 2005-05-31 2006-12-07 Nec Corporation パタン照合方法、パタン照合システム及びパタン照合プログラム
JP2010191564A (ja) * 2009-02-17 2010-09-02 Sharp Corp 特性解析方法および装置、特性分類方法および装置、上記特性解析方法または特性分類方法をコンピュータに実行させるためのプログラム、上記プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2016103245A (ja) * 2014-11-28 2016-06-02 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005114557A2 (en) * 2004-05-13 2005-12-01 Proximex Multimodal high-dimensional data fusion for classification and identification
WO2006026688A2 (en) * 2004-08-27 2006-03-09 Sarnoff Corporation Method and apparatus for classifying an object
US7956890B2 (en) * 2004-09-17 2011-06-07 Proximex Corporation Adaptive multi-modal integrated biometric identification detection and surveillance systems
KR100716422B1 (ko) * 2005-01-06 2007-05-08 에스케이 텔레콤주식회사 패턴인식을 이용한 매칭 서비스 시스템 및 방법
US20080192991A1 (en) * 2005-03-18 2008-08-14 Koninklijke Philips Electronics, N.V. Magnetic Resonance Imaging at Several Rf Frequencies
US7548637B2 (en) * 2005-04-07 2009-06-16 The Board Of Trustees Of The University Of Illinois Method for detecting objects in an image using pair-wise pixel discriminative features
US8306277B2 (en) 2005-07-27 2012-11-06 Canon Kabushiki Kaisha Image processing apparatus and image processing method, and computer program for causing computer to execute control method of image processing apparatus
KR100814793B1 (ko) * 2005-12-08 2008-03-19 한국전자통신연구원 특정 클래스 정보를 갖는 선형투영기반 ica를 이용한얼굴인식 방법 및 그 시스템
US7697752B2 (en) * 2005-12-20 2010-04-13 General Instrument Corporation Method and apparatus for performing object detection
US7860317B2 (en) * 2006-04-04 2010-12-28 Microsoft Corporation Generating search results based on duplicate image detection
WO2008022341A2 (en) * 2006-08-18 2008-02-21 The Regents Of The University Of California Seeding method for k-means clustering and other clustering algorithms
US8031914B2 (en) * 2006-10-11 2011-10-04 Hewlett-Packard Development Company, L.P. Face-based image clustering
KR100825756B1 (ko) 2006-12-05 2008-04-29 한국전자통신연구원 얼굴 특징 추출 방법 및 그 장치
US7777783B1 (en) 2007-03-23 2010-08-17 Proximex Corporation Multi-video navigation
US9544563B1 (en) 2007-03-23 2017-01-10 Proximex Corporation Multi-video navigation system
KR100886557B1 (ko) 2007-05-03 2009-03-02 삼성전자주식회사 적응형 학습에 기반한 얼굴 인식 시스템 및 방법
RU2007119908A (ru) * 2007-05-29 2008-12-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко. Адаптивный к галерее способ и система распознавания лиц
JP2009042876A (ja) * 2007-08-07 2009-02-26 Toshiba Corp 画像処理装置及びその方法
KR100981832B1 (ko) * 2008-06-12 2010-09-13 인하대학교 산학협력단 Boosting 알고리즘 및 특징벡터분할 기법을 이용한얼굴특징 선택방법 및 장치
US8345932B2 (en) * 2008-11-24 2013-01-01 International Business Machines Corporation Support vector machine for biometric data processing
KR101014506B1 (ko) * 2009-02-13 2011-02-14 인하대학교 산학협력단 퍼지 및 부스팅 기법을 통한 얼굴 특징 선택 방법 및 장치
US8321422B1 (en) 2009-04-23 2012-11-27 Google Inc. Fast covariance matrix generation
US8611695B1 (en) 2009-04-27 2013-12-17 Google Inc. Large scale patch search
US8396325B1 (en) 2009-04-27 2013-03-12 Google Inc. Image enhancement through discrete patch optimization
US8391634B1 (en) 2009-04-28 2013-03-05 Google Inc. Illumination estimation for images
US8385662B1 (en) * 2009-04-30 2013-02-26 Google Inc. Principal component analysis based seed generation for clustering analysis
US9465993B2 (en) 2010-03-01 2016-10-11 Microsoft Technology Licensing, Llc Ranking clusters based on facial image analysis
JP5753966B2 (ja) * 2010-08-05 2015-07-22 パナソニックIpマネジメント株式会社 顔画像登録装置および方法
US8798393B2 (en) 2010-12-01 2014-08-05 Google Inc. Removing illumination variation from images
US8873840B2 (en) 2010-12-03 2014-10-28 Microsoft Corporation Reducing false detection rate using local pattern based post-filter
US8737747B2 (en) * 2011-02-14 2014-05-27 Xerox Corporation Method for automated tire detection and recognition
US8805018B2 (en) * 2011-04-11 2014-08-12 Intel Corporation Method of detecting facial attributes
US8655099B2 (en) * 2011-06-10 2014-02-18 Tandent Vision Science, Inc. Relationship maintenance in an image process
KR101233843B1 (ko) * 2011-06-29 2013-02-15 포항공과대학교 산학협력단 부피 특징 벡터와 3차원 하르-유사 필터를 이용한 물체 검출 방법 및 장치
KR101877981B1 (ko) * 2011-12-21 2018-07-12 한국전자통신연구원 가버 특징과 svm 분류기를 이용하여 위변조 얼굴을 인식하기 위한 시스템 및 그 방법
US9075824B2 (en) * 2012-04-27 2015-07-07 Xerox Corporation Retrieval system and method leveraging category-level labels
US8938119B1 (en) 2012-05-01 2015-01-20 Google Inc. Facade illumination removal
CN104252628B (zh) * 2013-06-28 2020-04-10 广州华多网络科技有限公司 人脸图像标注方法和系统
CN104915351B (zh) 2014-03-12 2018-08-21 华为技术有限公司 图片排序方法及终端
WO2015197029A1 (zh) * 2014-06-27 2015-12-30 北京奇虎科技有限公司 一种人脸相似度识别方法和系统
KR102024867B1 (ko) 2014-09-16 2019-09-24 삼성전자주식회사 예제 피라미드에 기초하여 입력 영상의 특징을 추출하는 방법 및 얼굴 인식 장치
US10489637B2 (en) * 2014-12-23 2019-11-26 Beijing Qihoo Technology Company Limited Method and device for obtaining similar face images and face image information
CN107944020B (zh) * 2017-12-11 2019-12-17 深圳云天励飞技术有限公司 人脸图像查找方法及装置、计算机装置和存储介质
CN108932321B (zh) * 2018-06-29 2020-10-23 金蝶软件(中国)有限公司 人脸图像检索方法、装置、计算机设备及存储介质
KR102276216B1 (ko) * 2018-11-27 2021-07-12 에스케이텔레콤 주식회사 표정 기반 컨텐츠 추천 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR102156899B1 (ko) * 2019-11-14 2020-09-16 한국광기술원 디자인 생성장치 및 방법
EP4022534A4 (en) * 2020-11-06 2022-11-30 Visenze Pte Ltd SYSTEM AND METHOD FOR GENERATING AN IMAGE RECOGNITION MODEL AND CLASSIFYING AN INPUT IMAGE

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100285587B1 (ko) * 1997-09-26 2001-04-02 전주범 퍼지뉴러얼굴인식방법
JP3468108B2 (ja) * 1998-07-15 2003-11-17 松下電器産業株式会社 顔画像照合方法及び顔画像照合装置
US6944319B1 (en) * 1999-09-13 2005-09-13 Microsoft Corporation Pose-invariant face recognition system and process
KR20000023915A (ko) * 1999-09-22 2000-05-06 이칠기 표정변화와 주변환경에 독립적인 얼굴인식을 위한 학습 및인식방법.
JP4092059B2 (ja) * 2000-03-03 2008-05-28 日本放送協会 画像認識装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099565A (ja) * 2004-09-30 2006-04-13 Kddi Corp コンテンツ識別装置
JP4553300B2 (ja) * 2004-09-30 2010-09-29 Kddi株式会社 コンテンツ識別装置
WO2006129551A1 (ja) * 2005-05-31 2006-12-07 Nec Corporation パタン照合方法、パタン照合システム及びパタン照合プログラム
JP2010191564A (ja) * 2009-02-17 2010-09-02 Sharp Corp 特性解析方法および装置、特性分類方法および装置、上記特性解析方法または特性分類方法をコンピュータに実行させるためのプログラム、上記プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2016103245A (ja) * 2014-11-28 2016-06-02 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Also Published As

Publication number Publication date
US20040022442A1 (en) 2004-02-05
KR20040008792A (ko) 2004-01-31
EP1388804A2 (en) 2004-02-11
EP1388804A3 (en) 2005-04-06
US7447338B2 (en) 2008-11-04
KR100442834B1 (ko) 2004-08-02

Similar Documents

Publication Publication Date Title
JP2004054956A (ja) 顔/類似顔映像で学習されたパターン分類器を利用した顔検出方法及びシステム
CN108805170B (zh) 形成用于全监督式学习的数据集
US10002290B2 (en) Learning device and learning method for object detection
JP4767595B2 (ja) 対象物検出装置及びその学習装置
JP2020119543A (ja) 分類モデルを訓練する装置及び方法
US8606022B2 (en) Information processing apparatus, method and program
Gong et al. Kernelized temporal cut for online temporal segmentation and recognition
JP2008310796A (ja) コンピュータにより実施される、訓練データから分類器を構築し、前記分類器を用いてテストデータ中の移動物体を検出する方法
Masood et al. Measuring and reducing observational latency when recognizing actions
Nandakumar et al. A multi-modal gesture recognition system using audio, video, and skeletal joint data
Fang et al. Real-time hand posture recognition using hand geometric features and fisher vector
US11380133B2 (en) Domain adaptation-based object recognition apparatus and method
JP2019220014A (ja) 画像解析装置、画像解析方法及びプログラム
Karahan et al. Age and gender classification from facial features and object detection with machine learning
JP4749884B2 (ja) 顔判別装置の学習方法、顔判別方法および装置並びにプログラム
Choudhury et al. An adaptive thresholding-based movement epenthesis detection technique using hybrid feature set for continuous fingerspelling recognition
JP2004178569A (ja) データ分類装置、物体認識装置、データ分類方法及び物体認識方法
Mahdi et al. 3D facial matching by spiral convolutional metric learning and a biometric fusion-net of demographic properties
Keskin et al. STARS: Sign tracking and recognition system using input–output HMMs
CN108229552B (zh) 一种模型处理方法、装置及存储介质
WO2022267387A1 (zh) 图像识别方法、装置、电子设备和存储介质
Axyonov et al. Method of multi-modal video analysis of hand movements for automatic recognition of isolated signs of Russian sign language
Dalara et al. Entity Recognition in Indian Sculpture using CLAHE and machine learning
JP2006244385A (ja) 顔判別装置およびプログラム並びに顔判別装置の学習方法
JP2008250886A (ja) 多様体自己組織化装置、多様体自己組織化方法、及び、多様体自己組織化プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051012

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061026

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090203

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20090623