JP2008152789A - 顔映像の類似度の算出方法及び装置とこれを利用した顔映像の検索方法及び装置、並びに顔合成方法 - Google Patents

顔映像の類似度の算出方法及び装置とこれを利用した顔映像の検索方法及び装置、並びに顔合成方法 Download PDF

Info

Publication number
JP2008152789A
JP2008152789A JP2007325232A JP2007325232A JP2008152789A JP 2008152789 A JP2008152789 A JP 2008152789A JP 2007325232 A JP2007325232 A JP 2007325232A JP 2007325232 A JP2007325232 A JP 2007325232A JP 2008152789 A JP2008152789 A JP 2008152789A
Authority
JP
Japan
Prior art keywords
face image
feature vector
similarity
training
basis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007325232A
Other languages
English (en)
Inventor
Won-Jun Hwang
元 俊 黄
Eui-Hyeon Hwang
義 賢 黄
Young-Su Moon
永 秀 文
Keitai Boku
奎 泰 朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2008152789A publication Critical patent/JP2008152789A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 顔映像の類似度の算出方法及び装置と、これを利用した顔映像の検索方法及び装置、並びに顔合成方法を提供する。
【解決手段】 顔映像の全体特徴による顔映像の全体的な類似度と顔映像の局部特徴による顔映像の局部的な類似度とをそれぞれ別途に計算し、計算された類似度結果を加重値によって合算して対応する顔映像の類似度を計算することによって、顔の全体的な特徴と局部的な特徴とがいずれも考慮された顔類似度計算結果を得ることができ、顔映像類似度計算の信頼性を向上させることができ、複雑性を低減させることできる顔映像の類似度の算出方法。
【選択図】 図2

Description

本発明は、顔映像類似度の算出方法及び装置とこれを利用した顔映像の検索方法及び装置、並びに顔合成方法に係り、特に、顔映像から全体特徴ベクトル及び局部特徴ベクトルを抽出して顔映像間の類似度を算出する方法及び装置に関する。本発明の顔映像類似度の算出方法及び装置は、顔映像間の類似程度を計算する顔類似度計算システムと顔映像検索システムなどに使われる。
近来、テロや情報盗難事件が頻繁に発生するにつれて、これを抑制するための一つの手段である顔認識システムの重要性はさらに高まりつつある。顔映像間の類似度を計算する効率的なアルゴリズムは、顔認識システムにおいて最も重要な問題のうち一つである。
顔類似度を計算するための従来の方法としては、重要成分分析(Principal Components Analysis:PCA)技法がある。PCA技法は、顔全体特徴を利用して顔全体の類似度を比較する方法である。PCA技法を利用する場合、類似度計算結果がヘアスタイルや顔の輪郭によって変わるという限界があった。
線形判別分析技法は、集団間の特性差を極大化させうる変数の線形結合を導出し、このような線形結合により新たな変数上に集団がどのように配列されるかを考慮して、各変数に付与された加重値を再調整することによって2つまたは2つ以上のクラスを最もよく分類できる特徴の組み合わせを探す方法である。このような線形判別分析を利用して顔映像間の類似度を計算する場合、線形判別分析方法の特性上、異種のクラスに属する顔映像間の類似度値は非常に低い値に集中した分布を持つために、他のクラスに属する顔映像間の類似程度を把握するために活用し難いという問題がある。
本発明が解決しようとする技術的課題は、顔映像の全体的な特徴と局部的な特徴とが類似度結果にいずれも反映されることによって、顔映像類似度計算の信頼性を向上させ、複雑性を低める顔映像類似度の判断方法及び装置と、これを利用した顔映像の検索方法及び装置、並びに顔映像の合成方法を提供するところにある。
前記技術的課題を達成するための本発明による顔類似度の算出方法は、トレーニング顔映像セットから抽出された顔全体領域に対する第1ベーシスに入力顔映像を投影して、入力顔映像の全体特徴ベクトルを生成するステップと、前記トレーニング顔映像セットから抽出された顔局部領域に対する第2ベーシスに前記入力顔映像を投影して、入力顔映像の局部特徴ベクトルを生成するステップと、前記トレーニング顔映像セットから選択されたいずれか一つのトレーニング顔映像による全体特徴ベクトル及び局部特徴ベクトルと、前記入力顔映像の全体特徴ベクトル及び局部特徴ベクトルとを利用して、前記選択されたトレーニング顔映像と入力顔映像との類似度を算出するステップとを含む。
前記他の技術的課題を達成するための本発明による顔類似度の算出方法は、トレーニング顔映像セットから顔全体領域に対する第1ベーシスを抽出するステップと、前記トレーニング顔映像セットから顔局部領域に対する第2ベーシスを抽出するステップと、入力顔映像を前記第1ベーシスに投影して入力顔映像の全体特徴ベクトルを生成するステップと、前記入力顔映像を前記第2ベーシスに投影して入力顔映像の局部特徴ベクトルを生成するステップと、前記トレーニング顔映像セットから選択されたいずれか一つのトレーニング顔映像を前記第1ベーシスに投影して、前記選択されたトレーニング顔映像の全体特徴ベクトルを生成するステップと、前記選択されたトレーニング顔映像を前記第2ベーシスに投影して、前記選択されたトレーニング顔映像の局部特徴ベクトルを生成するステップと、前記入力顔映像と前記選択されたトレーニング顔映像との全体特徴ベクトルを比較するステップと、前記入力顔映像と前記選択されたトレーニング顔映像との局部特徴ベクトルを比較するステップと、前記比較結果を利用して前記入力顔映像と前記選択されたトレーニング顔映像との類似度を算出するステップとを含む。
前記技術的課題を達成するために本発明は、本発明の顔映像類似度の算出方法を実行できるプログラムが記録されたコンピュータで読み取り可能な記録媒体を提供する。
前記技術的課題を解決するための本発明による顔映像の類似度の算出装置は、入力顔映像を受信する受信部と、トレーニング顔映像セットから抽出された顔全体領域に対する第1ベーシスに入力顔映像を投影して、入力顔映像の全体特徴ベクトルを生成する全体特徴生成部と、前記トレーニング顔映像セットから抽出された顔局部領域に対する第2ベーシスに入力顔映像を投影して、入力顔局部特徴ベクトルを生成する局部特徴生成部と、前記トレーニング顔映像セットから選択されたいずれか一つのトレーニング顔映像による全体特徴ベクトル及び局部特徴ベクトルと、前記入力顔映像による全体特徴ベクトル及び局部特徴ベクトルとを利用して、前記選択されたトレーニング顔映像と入力顔映像との類似度を算出する類似度算出部とを備える。
前記技術的課題を解決するための本発明による顔映像の検索方法は、トレーニング顔映像セットから抽出された顔全体領域に対する第1ベーシスに入力顔映像を投影して入力顔映像の全体特徴ベクトルを生成するステップと、前記トレーニング顔映像セットから抽出された顔局部領域に対する第2ベーシスに前記入力顔映像を投影して入力顔映像の局部特徴ベクトルを生成するステップと、前記生成された全体特徴ベクトル及び局部特徴ベクトルを利用して、前記入力顔映像と所定の類似度を持つ顔映像を前記トレーニング顔映像セットで検索するステップとを含む。
前記技術的課題を解決するための本発明による顔映像検索装置は、入力顔映像を受信する受信部と、トレーニング顔映像セットから抽出された顔全体領域に対する第1ベーシスに入力顔映像を投影して入力顔映像の全体特徴ベクトルを生成する全体特徴生成部と、前記トレーニング顔映像セットから抽出された顔局部領域に対する第2ベーシスに前記入力顔映像を投影して、入力顔映像の局部特徴ベクトルを生成する局部特徴生成部と、前記入力顔映像による全体特徴ベクトルと局部映像ベクトルとを利用して、前記入力顔映像と所定の類似度を持つ顔映像を前記トレーニング顔映像セットで検索する検索部とを備える。
前記技術的課題を解決するための本発明による顔映像の合成方法は、顔合成のための2つ以上の顔映像を選択するステップと、前記選択されたそれぞれの顔映像から全体特徴ベクトル及び局部特徴ベクトルを抽出するステップと、前記選択されたそれぞれの顔映像から抽出された全体特徴ベクトルを利用して全体特徴による顔映像ベクトルを復元するステップと、前記選択されたそれぞれの顔映像から抽出された局部特徴ベクトルを利用して局部特徴による顔映像ベクトルを復元するステップと、前記復元された顔映像ベクトルを合成するステップとを含む。
本発明によれば、顔映像の全体特徴による顔映像の全体的な類似度と顔映像の局部特徴による顔映像の局部的な類似度とをそれぞれ別途に計算し、計算された類似度結果を加重値によって合算して、対比される顔映像の類似度を計算することによって、顔の全体的な特徴と局部的な特徴とがいずれも考慮された顔類似度計算結果を得ることができ、顔映像類似度計算の信頼性を向上させることができ、複雑性を低減させることできる。
以下では、本発明の図面及び実施形態を参照して、本発明の顔映像類似度の算出方法及び装置について詳細に説明する。
図1は、本発明の一実施形態による顔映像の類似度の算出装置1を示すブロック図である。本実施形態による顔映像の類似度の算出装置は、受信部10、トレーニング顔映像保存部20、全体特徴ベクトル生成部30、局部特徴ベクトル生成部40、全体特徴類似度計算部50、局部特徴類似度計算部60、加重値選択部70及び最終類似度算出部80を備える。
受信部10は、顔映像の類似度算出のための入力顔映像を受信する。前記受信された入力顔映像は、顔映像を獲得できるカメラ、カムコーダなどの映像獲得装置を通じて獲得できる。
受信部10を通じて獲得された入力顔映像は所定の前処理部(図示せず)を通じて正規化することが望ましい。入力顔映像に対する正規化プロセスは、入力された顔映像から背景映像を除去し、ガウス低域通過フィルタを通じて顔イメージをフィルタリングした後、フィルタリングされたイメージから眼領域を探して眼の位置を基準としてイメージを正規化させ、照明を変化させて照明の分散を除去するステップを含む。
トレーニング顔映像保存部20は、トレーニング顔映像セットについての情報を保存する。前記トレーニング顔映像セットは複数のトレーニング顔映像で形成される。本実施形態は、後述する全体特徴ベクトル生成部30及び局部特徴ベクトル生成部40を通じてトレーニング顔映像に対する全体特徴ベクトル及び局部特徴ベクトルを抽出する例を開示する。本実施形態とは異なって、トレーニング顔映像に対するPCAと局部特徴分析(Local Feature Analysis:LFA)とを事前に行うことによって、これを通じて抽出されたそれぞれのトレーニング顔映像による全体特徴ベクトル及び局部特徴ベクトルのデータベースをあらかじめ構築することで、トレーニング顔映像らから特徴ベクトルを抽出するプロセスが不要になるようにシステムを構成することもできる。
全体特徴ベクトル生成部30は、入力顔映像とトレーニング顔映像とをそれぞれPCAベーシス(第1ベーシス)に投影して、顔全体特徴に対する全体特徴ベクトルをそれぞれ生成する。
ここでPCAベーシスは、顔全体領域に対する固有ベクトルであり、トレーニング顔映像に対してPCAを行うことによって生成される。PCAを行う方法とPCAベーシスを得る方法については後述する。
局部特徴ベクトル生成部40は、入力顔映像とトレーニング顔映像とをそれぞれLFAベーシス(第2ベーシス)に投影して顔局部特徴(local facial features)に対する局部特徴ベクトルをそれぞれ生成する。ここでLFAベーシスは、トレーニング顔映像に対してLFAを行うことによって生成される。LFAベーシスは、顔局部領域による特徴を抽出するためのベクトルであり、LFAを行う方法及びLFAベーシスを得る方法については後述する。
局部特徴ベクトル生成部40を通じて生成される局部特徴ベクトルは、顔の特定領域による特徴を反映する特徴ベクトルである。本実施形態で顔の局部領域は、眼を中心とする領域、鼻を中心とする領域、口を中心とする領域を意味する。ここで局部特徴ベクトルは、眼、鼻、口のように選択された特定領域に相対的に大きい加重値を付与して、顔全体領域から抽出される特徴ベクトルを意味するものであり、選択された特定領域のみから抽出された特徴ベクトルを意味するものではない。
局部特徴ベクトル生成部40は、第1局部特徴ベクトル生成部41、第2局部特徴ベクトル生成部42及び第3局部特徴ベクトル生成部43を備える。
第1局部特徴ベクトル生成部41は、眼領域から特徴ベクトル抽出のためのLFA基底ベクトルに入力顔映像を投影することによって、眼領域の特徴を主に反映する第1局部特徴ベクトルを生成する。第2局部特徴ベクトル生成部42は、鼻領域を中心とする第2局部特徴ベクトルを生成し、第3局部特徴ベクトル生成部43は口の領域を中心とする第3局部特徴ベクトルを生成する。
全体特徴類似度計算部50は、全体特徴ベクトル生成部30で生成された入力顔映像の全体特徴ベクトルと、トレーニング顔映像保存部20に保存されたトレーニング顔映像の全体特徴ベクトルとの類似度を計算する。
局部特徴類似度計算部60は、局部特徴ベクトル生成部40で生成された入力顔映像の局部特徴ベクトルと、トレーニング顔映像保存部20に保存されたトレーニング顔映像の局部特徴ベクトルとの類似度を計算する。
第1局部特徴類似度計算部61は、第1局部ベクトル特徴生成部41で生成された入力顔映像の第1局部特徴ベクトルと、トレーニング顔映像の第1局部特徴ベクトルとの類似度を計算する。同様に、第2局部特徴類似度計算部62及び第3局部特徴類似度計算部63は、第2局部特徴ベクトル間の類似度と第3局部特徴ベクトル間の類似度とをそれぞれ計算する。
局部特徴類似度合算部64は、第1ないし第3局部特徴類似度計算部を通じて計算された類似度値を、加重値選択部70を通じて特定された加重値によって合算して統合された部分類似度値を計算する。
加重値選択部70は、顔領域を特定領域に分割し、分割された領域にそれぞれ異なる加重値を付与する。例えば、眼、鼻、口の領域による局部特徴ベクトル間の類似度を計算し、前記計算されたそれぞれの類似度を合算するときに、眼領域にさらに大きい加重値を付与することによって、統合された類似度を得ることができる。顔の局部領域による加重値はユーザインターフェースを通じて容易に特定でき、顔映像間の類似程度を把握しようとするユーザの志向を反映でき、多角的な観点での類似程度測定ができるという長所がある。
また、加重値選択部70は、全体特徴類似度計算部50を通じて計算された類似度及び局部特徴類似度計算部60を通じて計算された類似度値を最終類似度結果に反映するための所定の加重値を付与する。全体特徴ベクトル間の類似度値に加重値が大きく付与される場合、最終類似度計算において局部特徴ベクトル間の相異の比重は相対的に低くなる。
最終類似度算出部80は、全体特徴類似度計算部50及び局部特徴類似度計算部60を通じて計算された全体特徴類似度値と局部特徴類似度値とを、加重値選択部70を通じて特定された加重値によって合算し、合算された結果をディスプレイまたは音声送出などの方式を利用して出力する。
図2は、本発明の一実施形態による顔映像類似度の算出方法を示すフローチャートである。本実施形態による顔映像類似度の算出方法は、顔映像類似度の算出装置1で時系列的に処理される次のようなステップを含む。
110ステップで受信部10は、顔映像の類似度算出のための入力顔映像を受信する。
120ステップで全体特徴ベクトル生成部30は、受信された入力顔映像を第1ベーシス(PCAベーシス)に投影して入力顔映像の全体特徴ベクトルを生成し、トレーニング顔映像セットから選択された一つのトレーニング顔映像を第1ベーシスに投影して、前記選択されたトレーニング顔映像の全体特徴ベクトルを生成する。
図3は、図2に示す120ステップについての詳細フローチャートである。図3は、PCAベーシスを計算する方法、入力顔映像及びトレーニング顔映像から全体特徴ベクトルを生成する方法についての詳細図である。本実施形態とは異なって、トレーニング顔映像セットに含まれているあらゆるトレーニング顔映像に対してPCA学習をあらかじめ行った場合には、PCAベーシスを計算するステップが別途に必要ない。
121ステップでベーシス生成部(図示せず)は、トレーニング顔映像が保存されたトレーニング顔映像セットに保存されたM個のトレーニング顔映像
の平均値を下記式(1)によって計算する。
ここで、
は、それぞれのトレーニング顔映像ベクトルを表し、Mは、トレーニング顔映像の数を表す。
122ステップでベーシス生成部(図示せず)は、トレーニング顔映像と平均値との差xを下記の式(2)によって計算する。
123ステップでベーシス生成部は、行列
を利用して下記式(3)によって共分散行列を計算する。
124ステップでベーシス生成部は、下記式(4)を利用して固有ベクトル行列Uと固有値行列Λとを計算する。
前記式(4)を通じて計算された固有ベクトル行列Uは、本実施形態で顔類似度計算のためのPCAベーシスとして使われる。
図4は、図3によるPCAベーシスの例を示すものである。図4で左側上段の固有顔は分散度が最も大きく、右側または下側へ行くほど固有顔の分散度は小さくなる。
125ステップでベーシス生成部(図示せず)は、124ステップを通じて生成された固有ベクトル行列U、すなわち、PCAベーシスと121ステップを通じて生成された平均ベクトルmとを利用して、下記式(5)によってPCAプロジェクションを行う。
ここで
は、入力顔映像ベクトルであり、yは、入力顔映像の全体特徴ベクトルである。これと同様に、トレーニング顔映像の全体特徴ベクトルは、トレーニング顔映像ベクトルを
に代入させることによって計算できる。
130ステップで全体特徴類似度計算部50は、入力顔映像とトレーニング顔映像との全体特徴ベクトル間の類似度を計算する。全体特徴ベクトル間の類似度はそれぞれの全体特徴ベクトル間のコサイン距離、ユークリッド距離、マハラノビス距離などを利用して計算できる。例えば、加重値基盤ユークリッド距離(Weighted Euclidean Distance)を利用した類似度は、下記式(6)によって計算できる。
ここで、
とはそれぞれ比較しようとする顔映像による全体特徴ベクトルであり、kは、PCAベーシスのうち固有分散度が高い順に選択されたn個を意味し、
は、顔類似度計算のために既設定の全体特徴ベクトルによる加重値である。
140ステップで局部特徴ベクトル生成部40は、受信された入力顔映像を第2ベーシス(LFAベーシス)に投影して、入力顔映像の局部特徴ベクトルを生成する。また、局部特徴ベクトル生成部40は、トレーニング顔映像セットから選択された一つのトレーニング顔映像を第2ベーシスに投影して、前記選択されたトレーニング顔映像の局部特徴ベクトルを生成する。他の局部領域による局部特徴ベクトルを追加で生成しようとする場合、140ステップは、前記他の局部領域による第3ベーシスに前記それぞれの顔映像を投影するステップをさらに含む。
図5は、図2に示す140ステップについての詳細フローチャートである。図3は、LFAベーシスを計算するステップを含み、入力顔映像とトレーニング顔映像とから全体特徴ベクトルを生成する方法についての詳細図である。図2には、LFAベーシス(第2ベーシス)を生成するステップが図示されていない。トレーニング顔映像セットに含まれているあらゆるトレーニング顔映像についてLFA学習をあらかじめ行った場合、LFAベーシスを計算するステップは必要ない。
141ステップでベーシス生成部(図示せず)は、124ステップを通じて計算された固有値行列ΛからLFA固有値行列を下記式(7)または(8)によって計算する。
ここで
は、固有値行列Λを構成する各固有値成分であり、diag()は、対角行列関数である。
ここで、
であり、nは、ノイズ除去のために設定された一種のLow−Pass Filter(F)のパラメータである。
142ステップで、124ステップを通じて生成された固有ベクトル行列Uと141ステップを通じて生成された固有値行列
とを利用して、下記の式(9)によってカーネル行列
を計算する。
前記カーネル行列は、本実施形態で顔映像の局部特徴による類似度を計算するためのLFAベーシスとして使われる。
図6は、図5によるLFAベーシスの例を示すものである。暗い部分は、類似度計算において比重の低い領域を表し、明るい部分は、比重の高い領域を表す。
143ステップでベーシス生成部(図示せず)は、142ステップを通じて生成されたカーネル行列、すなわち、LFAベーシスと121ステップを通じて生成された平均ベクトルmとを利用して、下記式(10)によってLFAプロジェクションを行う。
ここで、
は、入力顔映像ベクトルであり、yは、入力顔映像の局部特徴ベクトルである。これと同様に、トレーニング顔映像の局部特徴ベクトルは、トレーニング顔映像ベクトルを
に代入させることによって計算できる。
150ステップで局部特徴類似度計算部60は、入力顔映像とトレーニング顔映像との局部特徴ベクトル間の類似度を計算する。顔映像から複数の局部特徴ベクトルを抽出した場合、例えば眼、鼻、口によるそれぞれの局部特徴ベクトルを抽出した場合、局部特徴類似度はそれぞれの領域によって別途に計算され、加重値選択部70によって付与された所定の加重値によって合算される。
局部領域、すなわち、眼、鼻、口の領域から抽出された局部特徴ベクトル間の類似度は、下記式(11)のユークリッド距離関数を利用して計算できる。
ここで、(i,j)は、所定の領域(region)に属する映像座標を表す。
図7Aは、顔領域のうち眼領域を局部領域として選択する一例を示し、図7Bは、各ピクセルによる加重値の例を示す。図7Aで、ボックス領域は眼に対する局部領域であり、式(11)で(i,j)は、ボックス領域に属する映像座標を表す。局部特徴ベクトルの類似度は、各映像座標による局部領域特徴値である
とのユークリッド距離で表すことができる。このような局部映像の類似度を求める時にあらかじめ設定された領域加重値を使用できるが、この値は式(12)を通じて得ることができる。
式(12)は、同一人の顔変化による分散の和、すなわち、それぞれのクラスに属する顔映像の変化による分散の和を各ピクセル別に計算したものである。
ここで、
は、j番目人物のi番目映像を意味し、
はj番目人物の平均顔映像を意味する。このように求められた人物の各ピクセル分散度は図7Bの通りである。図7Bは、局部領域による加重値の例示であり、この時に明るい色は同一人の映像で分散度が低いことを意味し、黒い色は分散度が高いことを意味する。分散度が高いという意味は、同一人の写真でも表情やポーズ変化によってピクセル値の変化が大きいという意味となる。結局、加重値
と同じ意味となる。
下記の式(13)は、局部領域別加重値を考慮して局部特徴類似度を統合するための関数である。
ここで、
は局部領域
による最終加重値である。この値は、ユーザの意図や応用プログラムによって異なる値が設定される。
160ステップで最終類似度算出部80は、130ステップを通じて計算された全体特徴ベクトルの類似度値と150ステップを通じて計算された局部特徴ベクトルの類似度値とを合算するが、加重値選択部70によって付与された所定の加重値によって類似度値を合算することによって最終類似度を計算する。
ここで、wは、全体特徴ベクトル間の類似度に対する加重値であり、wは、局部特徴ベクトルの類似度に対する加重値である。
以下では、本発明の図面及び実施形態を参照して本発明の顔映像検索装置及び方法について詳細に説明する。
図8は、本発明の一実施形態による顔映像検索装置を示すブロック図である。
本実施形態による顔映像検索装置200は、受信部210、トレーニング顔映像保存部220、全体特徴ベクトル生成部230、局部特徴ベクトル生成部240、全体特徴類似度計算部250、局部特徴類似度計算部260、第1比較部270、加重値選択部280、最終類似度算出部290及び第2比較部295を備える。本実施形態の顔映像検索装置200は、図1に示す顔映像類似度の算出装置1と多くの構成要素が共通するので、以下、共通の説明は省略する。
受信部210は、検索しようとする顔映像についての情報を受信する。
トレーニング顔映像保存部220は、複数のトレーニング顔映像を保存する。顔映像の検索は、トレーニング顔映像保存部220に保存されたトレーニング顔映像に対して行われる。
全体特徴ベクトル生成部230は、入力顔映像とトレーニング顔映像とをそれぞれPCAベーシスに投影し、それぞれの顔映像による全体特徴ベクトルを生成する。全体特徴類似度計算部250は、全体特徴ベクトル生成部230を通じて生成された全体特徴ベクトルの類似度を計算する。
第1比較部270は、前記類似度と所定の基準値とを比較する。比較結果、前記類似度が所定の基準値より大きい場合、局部特徴ベクトル生成部240は、入力顔映像とトレーニング顔映像とによる局部特徴ベクトルを生成する。前記類似度が所定の基準値より小さな場合、現在のトレーニング顔映像は入力顔映像と非類似度が大きいことを意味し、この場合、現在のトレーニング顔映像に対する局部特徴ベクトルが不要である。この場合、第1比較部270の判断結果によってトレーニング顔映像保存部220は、さらに一つのトレーニング顔映像についてのデータを全体特徴ベクトル生成部230に伝達し、全体特徴ベクトル生成部230は、新たなトレーニング顔映像に対する全体特徴ベクトルを生成し、類似度を計算し、所定の基準値と比較するプロセスを行う。本実施形態で全体特徴ベクトル生成部230、全体特徴類似度計算部250、第1比較部270は、トレーニング顔映像保存部に保存されたあらゆるトレーニング顔映像に対して、それぞれの類似如何を判断するまで前記プロセスを反復して行う。
局部特徴ベクトル生成部240は、入力顔映像とトレーニング顔映像とをLFAベーシスに投影してそれぞれの顔映像による局部特徴ベクトルを生成する。第1局部特徴ベクトル生成部241は、眼を中心とする領域から第1局部特徴ベクトルを抽出し、第2局部特徴ベクトル生成部242は、鼻を中心とする領域から第2局部特徴ベクトルを抽出し、第3局部特徴ベクトル生成部243は、口を中心とする領域から第3局部特徴ベクトルを抽出する。
第1ないし第3局部特徴類似度計算部261〜263は、第1ないし第3局部特徴ベクトル生成部241〜243で生成された入力顔映像とトレーニング顔映像とから抽出された局部特徴ベクトル間の類似度をそれぞれ計算する。
局部特徴類似度合算部264は、加重値選択部280を通じて特定される所定の加重値によって前記計算された類似度値を合算する。
最終類似度算出部290は、全体特徴と部分特徴との類似度値を所定の加重値によって合算する。
第2比較部295は、最終類似度値を所定の基準値と比較して、最終類似度値が基準値より大きい場合、現在のトレーニング顔映像を検索結果として出力する。
図9A及び図9Bは、本発明の一実施形態による顔映像の検索方法を示すフローチャートである。本実施形態の顔映像の検索方法は、顔映像検索装置200で時系列的に処理される次のステップを含む。
310ステップは、入力顔映像を受信して、受信された入力顔映像とトレーニング顔映像保存部220に保存されたトレーニング顔映像との全体類似度を計算するステップであって、311ないし314ステップを含む。
311ステップで受信部210は、検索しようとする入力顔映像情報を受信する。
312ステップで全体特徴ベクトル生成部230は、受信された入力顔映像をPCAベーシスに投影して入力顔映像の全体特徴ベクトルを生成する。
313ステップで全体特徴ベクトル生成部230は、トレーニング顔映像をPCAベーシスに投影して、(n番目)トレーニング顔映像の全体特徴ベクトルを生成する。ここで(n番目)トレーニング顔映像は、トレーニング顔映像セットから選択された一つのトレーニング顔映像であって、現在ステップで入力顔映像と類似しているかどうかを判断している現在のトレーニング顔映像を意味する。
314ステップで全体特徴類似度計算部250は、入力顔映像とトレーニング顔映像との類似度を計算する。
315ステップで第1比較部270は、全体特徴ベクトルの類似度値が所定の基準値より大きいかどうかを判断する。本ステップの判断結果、類似度値が所定の基準値より大きい場合には以後のステップが行われ、所定の基準値より小さな場合には、次の(n+1番目)トレーニング顔映像をトレーニング顔映像保存部220からフェッチするステップ(360ステップ)が行われる。全体特徴生成部230は、360ステップを通じてフェッチしたトレーニング顔映像をPCAベクトルベーシスに投影して、全体特徴ベクトルを生成する。
320ステップは、受信された入力顔映像とトレーニング顔映像保存部220に保存されたトレーニング顔映像との局部的な類似度を計算するステップであり、321ないし323ステップを含む。
321ステップで局部特徴ベクトル生成部240は、入力顔映像をLFAベーシスに投影して、入力顔映像の局部特徴ベクトルを生成する。本実施形態の局部特徴ベクトル生成部240は、第1ないし第3局部特徴生成部241〜243を備え、図1に示す局部特徴生成部と同様に眼、鼻、口の領域から局部特徴ベクトルを生成する。
322ステップで局部特徴ベクトル生成部240は、トレーニング顔映像をLFAベーシスに投影してトレーニング顔映像の局部特徴ベクトルを生成する。
323ステップで局部特徴類似度計算部260は、入力顔映像とトレーニング顔映像とから抽出された局部特徴ベクトルの類似度を計算する。本実施形態の局部特徴類似度計算部260は第1ないし第3局部特徴類似度計算部261〜263を備え、加重値選択部280により特定された加重値によって、それぞれの局部特徴による類似度値を合算する局部特徴類似度合算部264を備える。
330ステップは、最終類似度を計算し、計算された最終類似度を所定の基準値と比較するステップであり、331ステップと332ステップとを含む。
331ステップで最終類似度算出部290は、315ステップで計算された全体特徴ベクトルの類似度と323ステップで計算された局部特徴ベクトルの類似度とを、加重値選択部280による加重値によって合算する。
332ステップで第2比較部295は、最終類似度値と所定の基準値とを比較する。本ステップの判断結果、類似度値が所定の基準値より大きい場合には、現在のトレーニング顔映像を検索結果として出力する。
340ステップで結果出力部(図示せず)は、ユーザに現在のトレーニング顔映像と類似度結果についての情報とを検索結果として示す。
350ステップで第2比較部295は、あらゆるトレーニング顔映像について類似度を判断したかどうかを判断する。類似度を判断していないトレーニング顔映像がそれ以上ない場合には、本プロセスは終了する。
360ステップで全体特徴ベクトル生成部230は、他のトレーニング顔映像(n+1番目トレーニング顔映像)についてのデータをトレーニング顔映像保存部220から読み出す。313ステップないし350ステップは再び行われ、あらゆるトレーニング顔映像と入力顔映像との類似度計算を行うまで反復される。
以下では、本発明の図面及び実施形態を参照して、本発明の顔映像合成装置及び方法について詳細に説明する。
図10は、本発明の一実施形態による顔映像合成装置を示すブロック図である。本実施形態の顔映像合成装置400は、第1顔映像選択部411、第2顔映像選択部412、全体特徴ベクトル抽出部421、423、局部特徴ベクトル抽出部422、424、第1加重値選択部431、第2加重値選択部432、全体特徴ベクトル生成部441、局部特徴ベクトル選択部442、全体特徴ベクトルによる顔映像復元部451、局部特徴ベクトルによる顔映像復元部452及び顔映像合成部460を備える。
第1顔映像選択部411及び2顔映像選択部412は、ユーザインターフェースを通じて2個の顔映像についての情報を受信する。
全体特徴ベクトル抽出部421は第1顔映像から全体特徴ベクトルを抽出し、局部特徴ベクトル抽出部422は、第1顔映像から局部特徴ベクトルを抽出する。本実施形態は選択された顔映像に対する特徴ベクトル抽出部を備えるが、トレーニング顔映像に対するPCA、LFA学習をあらかじめ行って、これをデータベースとして構築した場合、別途の特徴ベクトル抽出部は不要である。
第1加重値選択部431は、全体特徴ベクトル抽出部421、423から抽出された全体特徴ベクトルに所定の加重値を付与する。ここで所定の加重値は、最終結果物である合成された顔映像で第1顔映像及び第2顔映像が占める比重を反映するものであり、ユーザの好みによって多様に調節できる。
全体特徴ベクトル生成部441は、前記加重値によって第1顔映像と第2顔映像との全体特徴ベクトルを合算する。
全体特徴ベクトルによる顔映像復元部451は、合算された全体特徴ベクトル値と式(6)とを利用して顔映像ベクトルを復元する。
同様に、第2加重値選択部432は、局部特徴ベクトル抽出部422、424から抽出された局部特徴ベクトルに所定の加重値を付与する。局部特徴ベクトル選択部442は、前記加重値によって第1顔映像と第2顔映像との局部特徴ベクトルを合算する。局部特徴ベクトルによる顔映像復元部452は、合算された局部特徴ベクトル値と式(10)を利用して顔映像ベクトル
を復元する。
顔映像合成部460は、顔映像復元部451、452を通じて復元されたそれぞれの顔映像ベクトルを合算する。
図10に図示されていないが、顔映像合成部460を通じて合算された顔映像ベクトルは、ユーザが視覚的に認識できる信号の形態に変更され、別途のディスプレイ部(図示せず)を通じてディスプレイされるように備えられる。
図11は、本発明の一実施形態による顔映像の合成方法を示すフローチャートである。本実施形態の顔映像の合成方法は、顔映像合成装置400で時系列的に処理される次のステップを含む。
510ステップで第1顔映像選択部411及び第2顔映像選択部412は、顔映像合成のための2個の顔映像を選択する。
520ステップは、第1顔映像と第2顔映像との組み合わせによる全体特徴ベクトルを生成するステップである。521ステップは、第1顔映像と第2顔映像から全体特徴ベクトルを抽出するステップで、522ステップは、それぞれの全体特徴ベクトルに加重値を付与するステップであり、523ステップは、所定の加重値によって全体特徴ベクトルを合算して、新たな全体特徴ベクトルを生成するステップである。
530ステップは、第1顔映像と第2顔映像との組み合わせによる局部特徴ベクトルを生成するステップである。531ステップは、第1顔映像と第2顔映像から局部特徴ベクトルを抽出するステップで、532ステップは、それぞれの局部特徴ベクトルに加重値を付与するステップであり、533ステップは、所定の加重値によって局部特徴ベクトルを合算して、新たな局部特徴ベクトルを生成するステップである。
540ステップで顔映像復元部451、452は、520ステップ及び530ステップを通じて生成された全体特徴ベクトル及び局部特徴ベクトルを利用して、顔映像ベクトルを復元する。
最後に、550ステップで顔映像合成部460は、顔映像復元部451、452を通じて復元されたそれぞれの顔映像ベクトルを合算する。図10には図示されていないが、前記合算された顔映像ベクトルをユーザが視覚的に認識するように、ディスプレイするステップをさらに含むことができる。
本発明の図面には図示されていないが、本発明による顔映像の類似度の算出方法、類似映像の検索方法及び顔映像の合成方法は複雑性が低いために、モバイル端末を通じて具現できる。特に、トレーニング顔映像についての事前学習を通じて抽出された全体特徴ベクトル及び局部特徴ベクトルについてのデータベースをあらかじめ構築することで、顔映像の類似度計算速度を向上させることができる。
また、本発明は、入力顔映像の受信または加重値入力のみ行うモバイル端末、顔映像の類似度判断サービスを提供する別途のサーバ、前記サーバ側に構築されているトレーニング顔映像についてのデータベースを含む類似した顔を検索するシステムの形態で使われうる。
本発明はコンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードで具現できる。コンピュータで読み取り可能な記録媒体はコンピュータシステムによって読み取られるデータが保存されるあらゆる種類の記録装置を含む。
コンピュータで読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがあり、またキャリアウェーブ(例えば、インターネットを通じた伝送)の形態で具現するものを含む。また、コンピュータで読み取り可能な記録媒体はネットワークに連結されたコンピュータシステムに分散され、分散方式でコンピュータで読み取り可能なコードが保存されて実行される。そして、本発明を具現するための機能的なプログラム、コード及びコードセグメントは、本発明が属する技術分野のプログラマーによって容易に推論される。
これまで本発明について望ましい実施形態を中心に説明した。当業者ならば本発明の本質的な特性から逸脱しない範囲で変形された形態で本発明を具現できるということを理解できるであろう。したがって、前記開示された実施形態は限定的な観点ではなく説明的な観点で考慮されねばならない。本発明の範囲は、前述した説明ではなく特許請求の範囲に現れており、それと同等な範囲内にあるあらゆる差異点は本発明に含まれていると解釈されねばならない。
本発明の顔映像類似度の算出方法及び装置は、セキュリティー関連の技術分野に好適に適用可能である。
本発明の一実施形態による顔映像類似度の算出装置を示すブロック図である。 本発明の一実施形態による顔映像類似度の算出方法を示すフローチャートである。 図2に示す120ステップに対する詳細フローチャートである。 図3の固有ベクトル行列による映像の例を示す写真である。 図2に示す140ステップについての詳細フローチャートである。 図5のカーネル行列による映像の例を示す図である。 顔領域のうち、眼領域を局部領域として選択する一例を示す写真である。 顔領域のうち、各ピクセルによる加重値の例を示す写真である。 本発明の一実施形態による顔映像検索装置を示すブロック図である。 本発明の一実施形態による顔映像の検索方法を示すフローチャートである。 本発明の一実施形態による顔映像の検索方法を示すフローチャートである。 本発明の一実施形態による顔映像合成装置を示すブロック図である。 本発明の一実施形態による顔映像の合成方法を示すフローチャートである。
符号の説明
1 顔映像類似度の算出装置
10、210 受信部
20、220 トレーニング顔映像保存部
30、230 全体特徴ベクトル生成部
40、240 局部特徴ベクトル生成部
41、241 第1局部特徴ベクトル生成部
42、242 第2局部特徴ベクトル生成部
43、243 第3局部特徴ベクトル生成部
50、250 全体特徴類似度計算部
60、260 局部特徴類似度計算部
61、261 第1局部特徴類似度計算部
62、262 第2局部特徴類似度計算部
63、263 第3局部特徴類似度計算部
64、264 局部特徴類似度合算部
70、280 加重値選択部
80、290 最終類似度算出部
270 第1比較部
295 第2比較部
400 顔映像合成装置
411 第1顔映像選択部
412 第2顔映像選択部
421、423 全体特徴ベクトル抽出部
422、424 局部特徴ベクトル抽出部
431 第1加重値選択部
432 第2加重値選択部
441 全体特徴ベクトル生成部
442 局部特徴ベクトル選択部
451 全体特徴ベクトルによる顔映像復元部
452 局部特徴ベクトルによる顔映像復元部
460 顔映像合成部

Claims (19)

  1. (a)トレーニング顔映像セットから抽出された顔全体領域に対する第1ベーシスに入力顔映像を投影して、入力顔映像の全体特徴ベクトルを生成するステップと、
    (b)前記トレーニング顔映像セットから抽出された顔局部領域に対する第2ベーシスに前記入力顔映像を投影して、入力顔映像の局部特徴ベクトルを生成するステップと、
    (c)前記トレーニング顔映像セットから選択されたいずれか一つのトレーニング顔映像による全体特徴ベクトル及び局部特徴ベクトルと、前記(a)ステップと(b)ステップとを通じて生成された全体特徴ベクトル及び局部特徴ベクトルとを利用して、前記選択されたトレーニング顔映像と入力顔映像との類似度を算出するステップと、を含む顔映像の類似度の算出方法。
  2. 前記(c)ステップは、
    (c1)前記トレーニング顔映像セットから選択されたいずれか一つのトレーニング顔映像による全体特徴ベクトルと前記入力顔映像による全体特徴ベクトルとの類似度を計算するステップと、
    (c2)前記選択されたトレーニング顔映像による局部特徴ベクトルと前記入力顔映像による局部特徴ベクトルとの類似度を計算するステップと、
    (c3)前記(c1)及び(c2)で計算された類似度に所定の加重値を付与し、前記選択されたトレーニング顔映像と入力顔映像との類似度を算出するステップと、を含むことを特徴とする請求項1に記載の顔映像の類似度の算出方法。
  3. 前記第1ベーシスは、前記トレーニング顔映像セットに対するPCAを行って生成することを特徴とする請求項1に記載の顔映像の類似度の算出方法。
  4. 前記第2ベーシスは、トレーニング顔映像セットに対してLFAを行って生成することを特徴とする請求項1に記載の顔映像の類似度の算出方法。
  5. 前記PCAを行うことは、
    前記トレーニング顔映像セットによる顔映像平均ベクトルを計算するステップと、
    前記トレーニング顔映像セットに属するそれぞれのトレーニング顔映像ベクトルと前記顔映像平均ベクトルとの差による行列を生成するステップと、
    前記生成された行列の共分散行列を生成するステップと、
    前記生成された共分散行列に対する固有分析を行って固有ベクトル行列を生成するステップと、を含み、
    前記第1ベーシスは、前記固有ベクトル行列であることを特徴とする請求項3に記載の顔映像の類似度の算出方法。
  6. 前記LFAを行うことは、
    前記生成された共分散行列に対する固有値をさらに生成するステップと、
    前記生成された固有値を利用して第1局部領域による低域通過行列を生成するステップと、
    前記生成された低域通過行列と前記第1ベーシスベクトルとを利用して第2ベーシスを生成するステップと、を含むことを特徴とする請求項5に記載の顔映像の類似度の算出方法。
  7. 前記低域通過行列及び前記第2ベーシスは、下記の数式によって生成することを特徴とする請求項6に記載の顔映像の類似度の算出方法:
    ここで、
    は、低域通過行列であり、
    であり、
    は、前記共分散行列による固有値であり、nは、低域通過フィルタの幅定数であり、Uは、前記第1ベーシス行列であり、
    は、第2ベーシス行列である。
  8. 前記生成された固有値を利用して前記所定の局部領域と同一でない第2局部領域による低域通過行列を生成し、前記生成された低域通過行列及び前記第1ベーシスを利用して第3ベーシスを生成するステップをさらに含み、
    前記(b)ステップは、前記第3ベーシスに前記入力顔映像を投影して入力顔映像の局部特徴ベクトルを生成するステップをさらに含み、
    前記(c)ステップで前記トレーニング顔映像と入力顔映像との類似度を算出することは、前記第3ベーシスに前記入力顔映像を投影することによって生成された局部特徴ベクトルと、前記第3ベーシスに前記選択されたトレーニング顔映像を投影することによって生成された局部特徴ベクトルとをさらに利用して算出することを特徴とする請求項1に記載の顔映像類似度の算出方法。
  9. 前記第2ベーシスは、2つ以上の局部領域に対する複数の局部ベーシスで形成され、
    前記(c2)ステップは、前記局部領域による所定の加重値をさらに考慮して局部特徴ベクトルの類似度を計算することを特徴とする請求項2に記載の顔映像類似度の算出方法。
  10. 前記入力顔映像及び前記選択されたトレーニング顔映像は、
    ガウス低域通過フィルタを利用して顔映像をフィルタリングするステップと、
    前記フィルタリングされた顔イメージで眼領域を探すステップと、
    前記眼領域を基準として顔映像を正規化させるステップと、
    照明の分散を除去するために照明を変化させるステップと、を通じて正規化されたことを特徴とする請求項4に記載の顔映像類似度の算出方法。
  11. 請求項1ないし10のうちいずれか一項に記載の顔映像類似度の算出方法を実行できるプログラムが記録されたコンピュータで読み取り可能な記録媒体。
  12. (a)トレーニング顔映像セットから顔全体領域に対する第1ベーシスを抽出するステップと、
    (b)前記トレーニング顔映像セットから顔局部領域に対する第2ベーシスを抽出するステップと、
    (c)入力顔映像を前記第1ベーシスに投影して入力顔映像の全体特徴ベクトルを生成するステップと、
    (d)前記入力顔映像を前記第2ベーシスに投影して入力顔映像の局部特徴ベクトルを生成するステップと、
    (e)前記トレーニング顔映像セットから選択されたいずれか一つのトレーニング顔映像を前記第1ベーシスに投影して、前記選択されたトレーニング顔映像の全体特徴ベクトルを生成するステップと、
    (f)前記選択されたトレーニング顔映像を前記第2ベーシスに投影して、前記選択されたトレーニング顔映像の局部特徴ベクトルを生成するステップと、
    (g)前記入力顔映像と前記選択されたトレーニング顔映像との全体特徴ベクトルを比較するステップと、
    (h)前記入力顔映像と前記選択されたトレーニング顔映像との局部特徴ベクトルを比較するステップと、
    (i)前記比較結果を利用して、前記入力顔映像と前記選択されたトレーニング顔映像との類似度を算出するステップと、を含む顔映像類似度の算出方法。
  13. 入力顔映像を受信する受信部と、
    トレーニング顔映像セットから抽出された顔全体領域に対する第1ベーシスに入力顔映像を投影して、入力顔映像の全体特徴ベクトルを生成する全体特徴生成部と、
    前記トレーニング顔映像セットから抽出された顔局部領域に対する第2ベーシスに入力顔映像を投影して、入力顔局部特徴ベクトルを生成する局部特徴生成部と、
    前記トレーニング顔映像セットから選択されたいずれか一つのトレーニング顔映像による全体特徴ベクトル及び局部特徴ベクトルと、前記入力顔映像による全体特徴ベクトル及び局部特徴ベクトルとを利用して、前記選択されたトレーニング顔映像と入力顔映像との類似度を算出する類似度算出部と、を備える顔映像の類似度の算出装置。
  14. 前記トレーニング顔映像セットに対するPCAを行って前記第1ベーシスを生成するPCAベーシス生成部をさらに備えることを特徴とする請求項13に記載の顔映像類似度の算出装置。
  15. 前記トレーニング顔映像セットに対するLFAを行って前記第2ベーシスを生成するLFAベーシス生成部をさらに備えることを特徴とする請求項13に記載の顔映像類似度の算出装置。
  16. 前記類似度算出部は、
    前記選択されたトレーニング顔映像による全体特徴ベクトルと前記入力顔映像による全体特徴ベクトルとの類似度を計算する第1類似度計算部と、
    前記選択されたトレーニング顔映像による局部特徴ベクトルと前記入力顔映像による局部特徴ベクトルとの類似度を計算する第2類似度計算部と、をさらに備え、
    前記類似度算出部は、前記第1及び第2類似度計算部を通じて計算されたそれぞれの類似度値を利用して、前記選択されたトレーニング顔映像と入力顔映像との類似度を算出することを特徴とする請求項13に記載の顔類似度の算出装置。
  17. 顔映像の検索方法において、
    (a)トレーニング顔映像セットから抽出された顔全体領域に対する第1ベーシスに入力顔映像を投影して、入力顔映像の全体特徴ベクトルを生成するステップと、
    (b)前記トレーニング顔映像セットから抽出された顔局部領域に対する第2ベーシスに前記入力顔映像を投影して、入力顔映像の局部特徴ベクトルを生成するステップと、
    (c)前記(a)ステップ及び(b)ステップを通じて生成された全体特徴ベクトル及び局部特徴ベクトルを利用して、前記入力顔映像と所定の類似度を持つ顔映像を前記トレーニング顔映像セットで検索するステップと、を含むことを特徴とする顔映像の検索方法。
  18. 入力顔映像を受信する受信部と、
    トレーニング顔映像セットから抽出された顔全体領域に対する第1ベーシスに入力顔映像を投影して、入力顔映像の全体特徴ベクトルを生成する全体特徴生成部と、
    前記トレーニング顔映像セットから抽出された顔局部領域に対する第2ベーシスに前記入力顔映像を投影して、入力顔映像の局部特徴ベクトルを生成する局部特徴生成部と、
    前記入力顔映像による全体特徴ベクトルと局部映像ベクトルとを利用して、前記入力顔映像と所定の類似度を持つ顔映像を前記トレーニング顔映像セットで検索する検索部と、を備えることを特徴とする顔映像検索装置。
  19. (a)顔合成のための2つ以上の顔映像を選択するステップと、
    (b)前記選択されたそれぞれの顔映像から全体特徴ベクトル及び局部特徴ベクトルを抽出するステップと、
    (c)前記選択されたそれぞれの顔映像から抽出された全体特徴ベクトルを利用して、全体特徴による顔映像ベクトルを復元するステップと、
    (d)前記選択されたそれぞれの顔映像から抽出された局部特徴ベクトルを利用して、局部特徴による顔映像ベクトルを復元するステップと、
    (e)前記(c)ステップ及び(d)ステップを通じて復元された顔映像ベクトルを合成するステップと、を含むことを特徴とする顔映像の合成方法。
JP2007325232A 2006-12-18 2007-12-17 顔映像の類似度の算出方法及び装置とこれを利用した顔映像の検索方法及び装置、並びに顔合成方法 Withdrawn JP2008152789A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060129680A KR100860989B1 (ko) 2006-12-18 2006-12-18 얼굴 영상의 유사도 산출 방법 및 장치와 이를 이용한 얼굴영상 검색 방법 및 장치 그리고 얼굴 합성 방법

Publications (1)

Publication Number Publication Date
JP2008152789A true JP2008152789A (ja) 2008-07-03

Family

ID=39527274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007325232A Withdrawn JP2008152789A (ja) 2006-12-18 2007-12-17 顔映像の類似度の算出方法及び装置とこれを利用した顔映像の検索方法及び装置、並びに顔合成方法

Country Status (3)

Country Link
US (1) US20080144891A1 (ja)
JP (1) JP2008152789A (ja)
KR (1) KR100860989B1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221061A (ja) * 2011-04-05 2012-11-12 Canon Inc 画像認識装置、画像認識方法、及びプログラム
JP2012226616A (ja) * 2011-04-20 2012-11-15 Canon Inc パターン認識装置、パターン認識方法及びプログラム
JP2013232093A (ja) * 2012-04-27 2013-11-14 Rakuten Inc 情報処理装置、情報処理方法及び情報処理プログラム
US8958609B2 (en) 2009-04-22 2015-02-17 Nec Corporation Method and device for computing degree of similarly between data sets
JP2017531330A (ja) * 2015-07-31 2017-10-19 小米科技有限責任公司Xiaomi Inc. ピクチャ処理方法および装置

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101414348A (zh) * 2007-10-19 2009-04-22 三星电子株式会社 多角度人脸识别方法和系统
JP5408128B2 (ja) * 2008-05-15 2014-02-05 株式会社ニコン 画像処理装置、画像処理方法、処理装置、およびプログラム
US9066054B2 (en) * 2008-05-27 2015-06-23 Xerox Corporation Image indexed rendering of images for tuning images from single or multiple print engines
JP5127067B2 (ja) * 2009-03-06 2013-01-23 パナソニック株式会社 画像検索装置及び画像検索方法
CN101840514B (zh) * 2009-03-19 2014-12-31 株式会社理光 图像对象分类装置及方法
JP5554984B2 (ja) * 2009-12-24 2014-07-23 キヤノン株式会社 パターン認識方法およびパターン認識装置
US8903198B2 (en) * 2011-06-03 2014-12-02 International Business Machines Corporation Image ranking based on attribute correlation
KR101130817B1 (ko) * 2011-09-27 2012-04-16 (주)올라웍스 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
US9158996B2 (en) * 2013-09-12 2015-10-13 Kabushiki Kaisha Toshiba Learning image collection apparatus, learning apparatus, and target object detection apparatus
FR3028064B1 (fr) * 2014-11-05 2016-11-04 Morpho Procede de comparaison de donnees ameliore
US10628593B2 (en) * 2015-04-17 2020-04-21 Dropbox, Inc. Collection folder for collecting file submissions and recording associated activities
US10546185B2 (en) * 2015-12-01 2020-01-28 Casio Computer Co., Ltd. Image processing apparatus for performing image processing according to privacy level
US10713966B2 (en) 2015-12-31 2020-07-14 Dropbox, Inc. Assignments for classrooms
WO2018096661A1 (ja) 2016-11-25 2018-05-31 日本電気株式会社 画像生成装置、顔照合装置、画像生成方法、およびプログラムを記憶した記憶媒体
KR102387570B1 (ko) 2016-12-16 2022-04-18 삼성전자주식회사 표정 생성 방법, 표정 생성 장치 및 표정 생성을 위한 학습 방법
US10860841B2 (en) 2016-12-29 2020-12-08 Samsung Electronics Co., Ltd. Facial expression image processing method and apparatus
CN109389015A (zh) * 2017-08-10 2019-02-26 丽宝大数据股份有限公司 脸部相似度评估方法与电子装置
CN107944497A (zh) * 2017-12-06 2018-04-20 天津大学 基于主成分分析的图像块相似性度量方法
CN109359570A (zh) * 2018-09-30 2019-02-19 广东司法警官职业学院 一种视频人物鉴定的方法
US10970953B2 (en) * 2019-03-21 2021-04-06 Techolution LLC Face authentication based smart access control system
CN111580553A (zh) * 2020-05-11 2020-08-25 桂林电子科技大学 一种无人机飞行控制器、无人机防疫监管系统和方法
KR102519229B1 (ko) * 2020-11-24 2023-04-10 한국전력공사 얼굴 인식 장치 및 방법
CN113449708B (zh) * 2021-08-31 2022-01-07 深圳市爱深盈通信息技术有限公司 人脸识别方法、装置、设备终端和可读存储介质
CN114937293B (zh) * 2022-04-06 2023-07-04 江苏商贸职业学院 基于gis的农业服务管理方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259814A (ja) * 1999-03-11 2000-09-22 Toshiba Corp 画像処理装置及びその方法
JP4743823B2 (ja) 2003-07-18 2011-08-10 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法
KR100543707B1 (ko) * 2003-12-04 2006-01-20 삼성전자주식회사 서브그룹별 pca 학습을 이용한 얼굴인식방법 및 장치
KR100608595B1 (ko) * 2004-11-16 2006-08-03 삼성전자주식회사 얼굴 인식 방법 및 장치
CN1797420A (zh) * 2004-12-30 2006-07-05 中国科学院自动化研究所 一种基于统计纹理分析的人脸识别方法
KR100723406B1 (ko) * 2005-06-20 2007-05-30 삼성전자주식회사 국부이진패턴 구별 방법을 이용한 얼굴 검증 방법 및 장치

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8958609B2 (en) 2009-04-22 2015-02-17 Nec Corporation Method and device for computing degree of similarly between data sets
JP2012221061A (ja) * 2011-04-05 2012-11-12 Canon Inc 画像認識装置、画像認識方法、及びプログラム
JP2012226616A (ja) * 2011-04-20 2012-11-15 Canon Inc パターン認識装置、パターン認識方法及びプログラム
JP2013232093A (ja) * 2012-04-27 2013-11-14 Rakuten Inc 情報処理装置、情報処理方法及び情報処理プログラム
US9449215B2 (en) 2012-04-27 2016-09-20 Rakuten, Inc. Information processing apparatus, information processing method and information processing program
JP2017531330A (ja) * 2015-07-31 2017-10-19 小米科技有限責任公司Xiaomi Inc. ピクチャ処理方法および装置

Also Published As

Publication number Publication date
KR20080056591A (ko) 2008-06-23
KR100860989B1 (ko) 2008-09-30
US20080144891A1 (en) 2008-06-19

Similar Documents

Publication Publication Date Title
JP2008152789A (ja) 顔映像の類似度の算出方法及び装置とこれを利用した顔映像の検索方法及び装置、並びに顔合成方法
Rahmouni et al. Distinguishing computer graphics from natural images using convolution neural networks
KR101381439B1 (ko) 얼굴 인식 장치 및 얼굴 인식 방법
US8184914B2 (en) Method and system of person identification by facial image
JP4505733B2 (ja) テクストンを用いる対象物認識方法及び装置
US6959099B2 (en) Method and apparatus for automatic face blurring
Krishna et al. A wearable face recognition system for individuals with visual impairments
US7369687B2 (en) Method for extracting face position, program for causing computer to execute the method for extracting face position and apparatus for extracting face position
JP5127067B2 (ja) 画像検索装置及び画像検索方法
Tuzel et al. Global-local face upsampling network
KR101781358B1 (ko) 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법
Wimmer et al. Low-level fusion of audio and video feature for multi-modal emotion recognition
JP2004192637A (ja) 顔検出
JP6207210B2 (ja) 情報処理装置およびその方法
MX2013002904A (es) Aparato de proceso de imagenes de personas y metodo para procesar imagenes de personas.
JP7419080B2 (ja) コンピュータシステムおよびプログラム
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
JP2017033372A (ja) 人物認識装置及びそのプログラム
JP4708835B2 (ja) 顔検出装置、顔検出方法、及び顔検出プログラム
JPH1185988A (ja) 顔画像認識システム
JP2002208011A (ja) 画像照合処理システムおよび画像照合方法
Pande et al. Parallel processing for multi face detection and recognition
JP4994174B2 (ja) データ処理装置及びデータ処理方法
JP2011018199A (ja) 画像処理装置および方法、並びにプログラム
Dai et al. Efficient face recognition with variant pose and illumination in video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101208

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110921