JP6603548B2 - 改善されたデータ比較方法 - Google Patents

改善されたデータ比較方法 Download PDF

Info

Publication number
JP6603548B2
JP6603548B2 JP2015216665A JP2015216665A JP6603548B2 JP 6603548 B2 JP6603548 B2 JP 6603548B2 JP 2015216665 A JP2015216665 A JP 2015216665A JP 2015216665 A JP2015216665 A JP 2015216665A JP 6603548 B2 JP6603548 B2 JP 6603548B2
Authority
JP
Japan
Prior art keywords
vector
data
covariance matrix
feature
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015216665A
Other languages
English (en)
Other versions
JP2016091566A (ja
Inventor
ジュリアン・ボーネ
ステファーヌ・ジェントリック
Original Assignee
モルフォ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by モルフォ filed Critical モルフォ
Publication of JP2016091566A publication Critical patent/JP2016091566A/ja
Application granted granted Critical
Publication of JP6603548B2 publication Critical patent/JP6603548B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、データ間の類似率を決定するために、センサまたはインターフェースから取得されたデータを比較するための方法に関する。さらに詳しくは、本発明は、マシン学習を経由してのデータ比較方法に関する。
コンピュータビジョン(またはデジタルビジョン)の分野において実装される多数のタスクは、たとえば、画像などの複雑なデータの比較を要求するが、これは、そのようなデータ間の類似性スコアを取得するためである。
たとえば、生体認証の分野では、それらの画像が同一の人間から取得されたものかどうかを決定するために、個人の顔の画像が比較される。
このタイプの問題を処理するためには、比較されるデータからの特徴の抽出を実行し、特徴の抽出によって、比較されるデータを特徴ベクトルに変換し、その後で、特徴ベクトル間の類似性関数を計算することが知られている。
計算された類似性関数は、一般的に、アプリオリには知られていないパラメータを含む。これらのパラメータは、マシン学習により、決定され、徐々に最適化される。そうするために、処理ユニットが、データベースからの既知のデータの組に対してデータ比較動作を実行し、類似性関数によって与えられた結果を現実の結果と比較し、それに従い、より信頼性の高い結果を求めて類似性関数のパラメータを最適化する。
たとえば、D. Chen、X. Cao、L. Wang、F. WenおよびJ. Sunによる出版物である「Bayesian Face Revisited: A Joint Formulation」、ECCV、2012年から、データ間の類似性関数のための学習方法が知られており、その学習方法では、2つの独立ガウス変数:すなわち、あるデータが属するクラスの平均とその平均に対するデータの変動との加算によって、データがモデル化される。
たとえば、データが顔の画像である場合には、クラスは対象者の識別子に対応し、したがって、クラスの平均に対する変動は、対象者の平均的な顔画像と異なる状況の下で撮られた画像との間で生じ得るすべての変化に対応するが、ここで、異なる状況とは:
− 画像上の照明、陰影、
− 画像における顔のポーズ、
− 表情、
− 局所的ぼやけなどである。
しかし、マシン学習の結果として生じる比較のパフォーマンスレベルにおける改善は、品質が変動するデータがデータベースにおいて考慮されている、という事実による限度を有する。結果的に、決定された類似性関数は劣化したパフォーマンスを示し、よって、比較に関して劣化した品質を示す。提案されている比較方法は、したがって、全面的に信頼できるものではない。
仏国特許出願公開第2998402号明細書
D. Chen、X. Cao、L. Wang、F. WenおよびJ. Sun、「Bayesian Face Revisited: A Joint Formulation」、ECCV、2012年 PfenningおよびKirchner、「Spectral Methods to Determine the Exact Scaling Factor of Resampled Digital Images」、ISCCP、2012年 Chenら、「Blessing of Dimensionality: High−dimensional Feature and Its Efficient Compression for Face Verification」、VCPR、2013年 Rappら、「Blessing of Dimensionality: Multiple kernel learning SVM and statistical validation for facial landmark detection」、Automatic Face & Gesture Recognition、2011年 Dantoneら、「Real−time Facial Feature Detection using Conditional Regression Forests」、CVPR、2012年
従来技術と比較してパフォーマンスが改善されているデータ比較方法を提案することが本発明の目的である。
この点において、本発明の主題は、センサまたはインターフェースから得られた2つのコンピュータデータアイテムを比較する方法であって、処理ユニットの処理手段によって実行され、比較されるデータの2つの特徴ベクトル間の類似性関数の計算を含む、比較する方法において、
データの各特徴ベクトルが、
− ベクトルが属するクラスの平均、
− 固有偏差、および
− ベクトルの観測ノイズ
を含むガウス変数の加算としてモデル化されており、
各特徴ベクトルが、特徴ベクトルの観測ノイズに関する情報を含む品質ベクトルと関連し、
類似性関数が、特徴ベクトルと、関連する品質ベクトルとから計算されることを特徴とする、方法である。
有利には、しかしオプションとして、本発明の方法は、さらに、下記の特徴の少なくとも1つを含み得るのであり、すなわち:
− 類似性関数が、ベクトルが1つの同じクラスに属する特徴ベクトルの確率密度である
Figure 0006603548
とベクトルが2つの異なるクラスに属する特徴ベクトルの確率密度である
Figure 0006603548
との間の比の対数である。
− 類似性関数が、特徴ベクトルの成分の共分散行列の関数としても計算され、各特徴ベクトルの観測ノイズの共分散行列が、関連する品質ベクトルの関数として得られる。
− この方法が、さらに、ベクトルが属するクラスの平均とクラス平均に対するベクトルの偏差との共分散行列を決定するために、学習アルゴリズムの実装を含む。
− 学習アルゴリズムが、期待値最大化タイプのアルゴリズムであり、
− 類似性関数が、数式:
Figure 0006603548
によって与えられ、ここで、
Figure 0006603548
であり、
ここで、Sμがクラスの平均の共分散行列(クラス間の共分散行列)であり、Sωが平均に対する偏差の共分散行列(クラス内の共分散行列)であり、
Figure 0006603548
がベクトルxおよびyそれぞれの観測ノイズの共分散行列であり、
− センサまたはインターフェースから導かれたコンピュータデータが物理的対象または物理的大きさを表すデータであり、
− センサまたはインターフェースから導かれたコンピュータデータが画像であり、特徴ベクトルが少なくとも1つのフィルタを画像に適用することによって得られ、
− 品質ベクトルの成分が、データのタイプと特徴ベクトルを形成する特徴のタイプとの関数として生成され、
− 本発明の方法が、さらに、データが共通のクラスに属するかどうかを決定するために、計算された類似性関数(LR)の結果とスレショルドとの比較を含む。
本発明のさらなる主題は、処理ユニットの処理手段によって実行された時に前述の説明による方法を実装するためのコード命令を含むコンピュータプログラム製品である。
本発明のさらなる主題は、
− 複数のいわゆるラベルありのデータを含むデータベースと、
− データ取得ユニットと、
− 2つの特徴ベクトルと2つの関連する品質ベクトルとを2つのデータアイテムから構築するように構成された処理手段を備えており、また、前述の説明による比較方法を実装することによりデータを比較するように構成されている処理ユニットと、
を備えるシステムである。
提案される方法によると、データ間の類似性関数を計算するときに、データの品質を考慮することが可能になる。これにより、よい品質のデータとそれよりも確実性が劣るデータとの間で、可変的な重み付けを用いることが可能になる。
たとえば、本発明の方法が画像の比較に適用されるときは、画像の陰影またはぼやけた領域は、類似性関数によって、明瞭に見えて明瞭に区別できる領域と同じ重みづけをつけては考慮されない。
こうして、データ比較に関するパフォーマンスの改善が、得られる。
追加的に、マシン学習により、類似性関数のパラメータの最適化と、したがって、比較方法のパフォーマンスの改善とが可能になる。
本発明の他の特徴、目的および効果は、例証のためだけに与えられており次の添付の図面との関係で読まれるべきである以下の非限定的な説明から、明らかになるであろう。
比較方法を実装するように構成されたシステムの一例の図解である。 本発明のある実施形態によるデータ比較方法の主なステップの図解である。
図1を参照すると、処理ユニット10を備えたシステム1が図解されており、処理ユニット10は、以下で説明されるコンピュータデータ比較方法を実装するための処理手段11を備えている。
処理ユニット10は、たとえば集積回路であり得るし、処理手段は、プロセッサであり得る。
有利には、システム1は、さらに、オプションであるが遠隔的なデータベース20を備えており、このデータベース20は、以下で説明されるように、マシン学習を実行するために処理ユニット10によって用いられる複数のデータを、メモリに記憶する。
最後に、システム1は、データ取得ユニット30を備えているか、または、データ取得ユニット30がシステムと独立である場合には、そのようなユニットと通信するように構成されたインターフェース(図示せず)を備えている。このようにして、システム1は、特に、以下で説明される方法を用いてその比較をするために、データbを受け取り処理することができる。
以下で説明される方法において比較されるデータのタイプに応じて、データ取得ユニットは、たとえば、光センサ(写真カメラ、ビデオカメラ、スキャナ)、音響センサ、指紋センサ、運動センサなど、どのようなタイプにもなり得る。それはまた、テキストや図形など、オペレータによって入力されるデータを記録するためのマンマシンインターフェース(キーパッド、タッチスクリーンインターフェース付きのタブレット)でもあり得る。
コンピュータデータbは、取得ユニット30によって得られ、したがって、センサまたはたとえばマンマシンインターフェースなどのインターフェースから導かれる。それは、たとえば、画像、概略図、記録、説明書など、物理的対象を表すデータであり得るし、または、たとえばセンサによって記録されたデータなど、物理的大きさ(電気的、機械的、熱的、音響的など)を表すデータであり得る。
処理ユニットの処理手段11は、有利には、適切なプログラムを実行することによって以下で説明されるデータ比較方法を実行するように構成されている。
この方法を実装するため、処理手段11は、また、有利には、特徴抽出モジュール12を備えており、この特徴抽出モジュール12は、データ取得ユニット30によって通信された入力コンピュータデータbから、特徴の抽出を生成して、データと関連する特徴ベクトルxと、特徴ベクトルと関連するデータの品質ベクトルqxとを生成するように構成されている。
品質ベクトルqxは、特徴ベクトルと同じサイズのベクトルであり得るのであって、その各要素は、特徴ベクトルxの対応する要素に含まれる情報の品質を示す。あるいは、品質ベクトルqxは、任意のサイズでもあり得る。その生成は、データbのタイプに依存する。
たとえば、特徴抽出は、この目的のために設計された1つまたは複数のフィルタをデータbに適用することによって、そして次に、ただしこれはオプションであるが、フィルタリング結果を処理すること(たとえば、ヒストグラムの計算など)によって、実行され得る。
品質ベクトルの生成は、データbのタイプと、特徴ベクトルxの特徴のタイプすなわちベクトルxの成分要素とに依存する。品質ベクトルの各要素は、特徴ベクトルの特定の特徴と関連する固有データ関係情報を考慮する。
たとえば、信号処理または画像処理の分野では、データがセンサによって取得された代表信号の画像または取得であるときには、データの周波数表現(たとえば、フーリエ変換)または空間−周波数表現(たとえば、ウェーブレット変換)を、特徴ベクトルxとして用いることが頻繁になされる。特徴ベクトルの各成分は、よって、何らかの周波数帯域に依存する。
そのような場合、データの高周波成分は、低周波成分よりも識別力が高いが、ノイズの存在または信号解像度の欠如などの現象に対してより敏感であることが判明することがあり得る。
データにおけるノイズの量は、そのデータがセンサによって取得された信号である場合にはそのエネルギースペクトルを解析することによって、または、そのデータが画像である場合にはその固有解像度を解析することによって、決定され得る。たとえば、画像の解像度の決定について、PfenningおよびKirchnerによる「Spectral Methods to Determine the Exact Scaling Factor of Resampled Digital Images」、ISCCP、2012年という論文が、知られている。
次に、特徴ベクトルxとデータの固有品質との関数として生成される品質ベクトルqxは、次のように構築され得る:
− データの低周波成分に敏感な特徴ベクトルの成分には、高品質という属性が付され、
− データの高周波成分に敏感であって、ノイズレベルが低いおよび/または解像度が高い特徴ベクトルの成分には、高品質という属性が付され、
− 高周波成分に敏感であって、ノイズレベルが高いおよび/または解像度が低い特徴ベクトルの成分には、低品質という属性が付される。
ノイズレベルまたは解像度に対して属性として付される品質値およびスレショルドは、比較方法のパフォーマンスを検証ベースで最適化するように、経験的に決定され得る。
別の例によると、データは顔の画像である。
この例によると、特徴ベクトルは、顔の特定のセマンティックポイント(たとえば、鼻の先端、口角、目など)の近傍において抽出された局所的記述子を連結することにより、Chenらによる論文である「Blessing of Dimensionality: High−dimensional Feature and Its Efficient Compression for Face Verification」、VCPR、2013年において示されているように取得され得る。
この表現は、規則的なグリッド上の記述子を抽出する方法よりも、ポーズの変動に対してより堅固である、という長所を有する。
しかし、これらの特徴の抽出は、これらの点を検出するステップを含む。このステップを通じて、検出器が用いられ得るのであるが、これは、画像における顔の各点の最もありえそうな位置を提供することに加えて、検出精度の信頼性レベルを変換する情報も提供する。
測定値は、たとえば、Rappらによる論文である「Blessing of Dimensionality: Multiple kernel learning SVM and statistical validation for facial landmark detection」、Automatic Face & Gesture Recognition,2011年から知られているが、この論文では、サポートベクターマシン(SVM)に基づく検出器を用いるときに、分離超平面までの距離を測定している。
別の例が、Dantoneらによる論文「Real−time Facial Feature Detection using Conditional Regression Forests」、CVPR、2012年において与えられているが、この論文では、信頼性の測定値は、回帰ツリーを用いた検出器によって決定される複数の票決によって与えられる。
この信頼性情報は、特徴ベクトルの各成分と関連する品質を生じさせるために、それが対応する顔のセマンティックポイントの検出の品質をそれに属性として付することによって、用いられ得る。
さらなる例によると、顔の画像が、たとえば、フランス特許出願公開第2998402号に記載されている方法を適用することによって、顔の前面画像ではない画像から生成された顔の画像であるときには、品質ベクトルは信頼性インデックスであり得るのであって、このインデックスは、元の画像で生じる顔の点に対しては比較的高く、元の画像では生じておらず外挿によって再構築された顔の点に対しては比較的低くなる。
より一般的には、データが画像であるときには、品質ベクトルは、ぼやけの局所的な測定によって取得され得る。
あるいは、特徴抽出モジュールは、取得ユニット30の中のモジュールであって、取得ユニットが処理手段11との間で特徴ベクトルと関連する品質ベクトルとを直接的に通信することを可能にするものである。
データ比較方法
図2を参照して、処理ユニットの処理手段11によって実装されるデータ比較方法に関する説明を行う。
この方法は、データからそれぞれ取得され同じサイズである2つの特徴ベクトルxおよびyの間の類似性関数を計算する(100)ことにより、そして、データベース上のその類似性関数のパラメータのマシン学習を実行する(200)ことにより、2つのデータアイテムを比較することを含む。
この方法では、各特徴ベクトルは、以下の3つの独立なガウス変数の加算としてモデル化される:すなわち、x=μ+ω+εであり、ここで、
− μは、ベクトルxが属するクラスの平均であり、
− ωは、平均からのベクトルxの固有偏差であり、
− εは、観測ノイズである。
クラスとは、類似すると考えられる特徴ベクトルの集合である。2つの特徴ベクトルは、類似性関数によるそれらの比較がスレショルドよりも高い結果を生じる場合に類似すると考えられるのであるが、このスレショルドは経験的に決定される。
たとえば、データが顔の画像である場合には、クラスは、有利には、個人に対応する。複数のデータの2つの特徴ベクトルを比較することにより、それらが同じ個人から生じている場合には、データは類似すると考えられる。
既に説明されたモデルに戻ると、1つの同じクラスに属する2つの特徴ベクトルは、したがって、同一の値μを有するが、ωおよびεに関しては異なる値を有する。
特徴ベクトルが異なるクラスに属する場合には、これらの3つの変数は、完全に独立である。
これらの3つの変数は、ゼロを中心とする多変量正規分布に従い、それぞれの共分散行列は、Sμ、Sω、およびSεと書かれる。Sμはクラス間共分散行列と称され、Sωはクラス内共分散行列と称され、Sεは観測ノイズ共分散行列と称される。
μおよびSωは、すべての特徴ベクトルに共通して未知である。
一方で、Sεは既知であるが、その理由は、これが、特徴ベクトルと関連する品質ベクトルから、特徴抽出モジュールによって得られるからである。これは、関連の特徴ベクトルと同じサイズである。
たとえば、観測ノイズが相互に相関しないと仮定すると、Sεは、対角行列によって、十分に近似され得る。
この対角行列の要素は、品質ベクトルの成分の分散に対応するのであって、このベクトルから取得され得る。
たとえば、分散は、品質ベクトルqxの成分にf(q)=1/eaqx+bのタイプのシグモイド関数を適用することによって、制限され得る。係数aおよびbは、決定された分散レベルを品質レベルと関連させるように選択され得る。
たとえば、高い品質はゼロの分散と関連させることが可能であり、非常に低い品質は最大の分散と関連させることが可能であり、中間的な分散は中間的な品質と対応する。
一般に、品質ベクトルと特徴ベクトルとはデータのタイプに依存し、品質ベクトルをノイズ共分散行列に変換する伝達関数は、関連する品質ベクトルおよび特徴ベクトルに特定的である。
本明細書の残りでは、
Figure 0006603548
は、品質ベクトルqxから得られたベクトルxの背景ノイズの共分散行列を表し、
Figure 0006603548
は、品質ベクトルqyから得られたベクトルyの背景ノイズの共分散行列である。
simは、2つの特徴ベクトルがひとつの同じクラスに属する、すなわち、対応するデータが類似と考えられるという仮説を表し、Hdisは、それらの特徴ベクトルが異なるクラスに属し、対応するデータが非類似と考えられるという逆の仮説を表す。
背景ノイズのそれらのそれぞれの共分散行列が既知であるとして、仮説Hsimを考慮した、xおよびyを発生する結合確率は、
Figure 0006603548
と書かれる。この確率は、中心がゼロであり共分散行列がSsimであるガウスの法則:
Figure 0006603548
に従う。
背景ノイズのそれらのそれぞれの共分散行列が既知であるとして、仮説Hdisを考慮した、xおよびyを発生する結合確率は、
Figure 0006603548
と書かれる。この確率は、中心がゼロであり共分散行列がSdisであるガウスの法則:
Figure 0006603548
に従う。
行列SsimおよびSdisは、下記:
Figure 0006603548
として定義される。
既知の態様それ自体での確率密度
Figure 0006603548

Figure 0006603548
であり、ここで、|Ssim|はSsimの行列式であり、Nは特徴ベクトルの次元である。
同じ表現が、確率密度
Figure 0006603548
に必要な変更を加えて適用される。
ベクトルxおよびyに対応する2つのデータを比較するために計算された類似性関数は、ベクトルがひとつの同じクラスに属する特徴ベクトルの確率密度と、ベクトルが2つの異なるクラスに属する特徴ベクトルの確率密度との間の比率の対数である。
したがって、類似性関数は、次のように表現される:
Figure 0006603548
上に示された確率密度の表現を用いるとき、そして、行列SsimおよびSdisの逆行列を求めるためにブロック反転公式を用いて関数を展開するときには、得られる類似性関数は、次のように表現される:
Figure 0006603548
この表現において、A、BおよびCは、Ssimのブロック反転の結果として生じる項であり、それぞれが、次のように表現される:
Figure 0006603548
定数は、x、y、
Figure 0006603548
には依存せず、したがって、無視され得る。
したがって、類似性関数LRは、xおよびyの観測ノイズの共分散行列である
Figure 0006603548
を考慮し、よって、各特徴ベクトルと関連する品質ベクトルを考慮するということが、わかる。
したがって、比較の結果は、特徴ベクトルと関連する品質、すなわち信頼性によって影響され、それにより、低いすなわち不確実な品質を有すると考えられる特徴に関してはより軽い重み付けが、そして、優れた品質すなわちより高い信頼性を有する特徴に関してはより大きな重み付けが、可能となる。
本明細書の残りにおいて見られるように、この類似性関数は、また、マシン学習によってパラメータ化される。特徴ベクトルと関連する品質を考慮することによって、関数のパラメータ化に対する低品質のデータの影響が、最小化され得る。
比較方法は、したがって、より信頼性が高い。
図2に戻ると、比較の結果が、次に、ステップ110において決定されたスレショルドと比較される。
このスレショルドは、有利には、多数の比較を、(ひとつの同じクラスに属するまたは属さないことが知られている)データベースにおける既知の特徴ベクトルに適用することによって、経験的に決定される。
xおよびyに適用された類似性関数の結果が決定されたスレショルドよりも高い場合には、対応するデータは類似すると考えられる。そうでない場合には、データは、非類似であると考えられる。
既に示された類似性関数LRの式は、この関数が共分散行列Sμ、Sωによってパラメータ化されることを示しているが、これらは未知である。
したがって、この方法は、マシン学習によって前記行列を決定するために、ステップ200を含む。
この方法は、期待値最大化(EM)アルゴリズムを用いて行われるのが有利であり、データベース20に格納されているデータの集合に対して実行されるが、このデータは「ラベルあり」と称されるのであって、すなわち、そのデータが属するそれぞれのクラスは既知である。
個の特徴ベクトルが属するクラスはcで示され、
Figure 0006603548
は、そのクラスの特徴ベクトルの連結を示し、
Figure 0006603548
は、観測ノイズのそれらのそれぞれの共分散行列を示す。
潜在変数である
Figure 0006603548
が、各μがクラス平均である各クラスcに対して定義され、したがって、これはただひとつだけ存在し、各ωc,iはこのクラスにおける特徴ベクトルのこの平均からの偏差である(したがって、特徴ベクトルごとに1つ存在する)。
EMアルゴリズムによって推定されるパラメータは、Θ={Sμ,Sω}である。
期待値最大化アルゴリズムは、潜在変数の分布
Figure 0006603548
のパラメータを推定するための第1のステップ210を含む反復的アルゴリズムであり、ここで
Figure 0006603548
は、パラメータの先行する推定である。
この方法の初期設定では、
Figure 0006603548
は、パラメータの第1の経験的推定である。
パラメータSμの初期設定は、有利には、各クラスcに対し、そのクラスの経験的平均を計算し、次に、その平均値の共分散行列を決定することによって、得られる。
パラメータSωの初期設定は、各クラスに対し、クラス平均が減算された(すなわち、平均に対する特徴ベクトルの差)特徴ベクトルの共分散行列を計算し、次に、すべてのクラスに関して平均共分散行列を計算することによって、得られ得る。
このアルゴリズムは、次に、潜在変数Zに対する期待対数尤度:
Figure 0006603548
のΘを追いこむ最大化ステップ220を含む。
このステップを適切に行うためには、そして、計算時間を最小化するためには、潜在変数ωc,iが、
Figure 0006603548
を、下記のように因数分解することによって固定されるμと条件付きで独立であるという事実が考慮される:
Figure 0006603548
ステップ220における
Figure 0006603548
の最適化は、パラメータの確率分布
Figure 0006603548
および
Figure 0006603548
を計算することを要求する。これらの計算の詳細は、下記の通りである:
Figure 0006603548
ここで、
Figure 0006603548
および
Figure 0006603548
である。
方程式(1)と
Figure 0006603548
が確率分布であるという事実とを組み合わせると、
Figure 0006603548
が示される。
さらに、
Figure 0006603548
であるが、ここで
Figure 0006603548
であり、ここで、
Figure 0006603548
および
Figure 0006603548
である。
したがって、ステップ220は、次のように、SμおよびSωに関する最大化を伴う:
Figure 0006603548
これは、勾配を計算して
Figure 0006603548
を解くこと、すなわち、
Figure 0006603548
Figure 0006603548
を解き、さらには、
Figure 0006603548
を解くことによって得られる。
期待値最大化アルゴリズムは、ステップ210において、変数である
Figure 0006603548
および
Figure 0006603548
を連続的に計算し、ステップ220において、SμおよびSωの値すなわち
Figure 0006603548
の値を収束するまで適合させることによって、反復的に実行される。ステップ210におけるそれぞれ新たな反復では、先行するステップ220において得られた新たな値である
Figure 0006603548
が再使用される。
10 処理ユニット
11 処理手段
12 特徴抽出モジュール
20 データベース
30 データ取得ユニット

Claims (11)

  1. センサまたはインターフェース(30)から得られた2つのデータを比較する方法であって、処理ユニット(10)の処理手段(11)によって実装され、比較されるデータの2つの特徴ベクトル(x,y)間の類似性関数を計算するステップ(100)を含む、比較する方法において、
    データの各特徴ベクトルが、ベクトルが属するクラスの平均μ、固有偏差ω、およびベクトルの観測ノイズεという3つの独立ガウス変数の加算μ+ω+εとしてモデル化されており、
    各特徴ベクトルxが、特徴ベクトルの観測ノイズに関する情報を含む品質ベクトルqxと関連し、品質ベクトルの成分は、特徴ベクトルを形成するデータのタイプと特徴のタイプとの関数として生成され、
    類似性関数が、特徴ベクトルの成分の共分散行列である
    Figure 0006603548
    の関数として、特徴ベクトル(x,y)と、関連する品質ベクトル(qx,qy)とから計算され、各特徴ベクトルの観測ノイズ共分散行列である
    Figure 0006603548
    が、関連する品質ベクトルの関数として得られることを特徴とする、方法。
  2. 特徴ベクトルの成分の共分散行列が、それぞれがクラス間共分散行列(Sμ)と称されるベクトルが属するクラスの平均の共分散行列とクラス内共分散行列(Sω)と称されるクラス平均からのベクトル偏差の共分散行列とである共分散行列を含む、請求項1に記載の比較方法。
  3. 類似性関数(LR)が、ベクトルが1つの同じクラスに属する特徴ベクトルの確率密度である
    Figure 0006603548
    とベクトルが2つの異なるクラスに属する特徴ベクトルの確率密度である
    Figure 0006603548
    との間の比の対数である、請求項1または2に記載の比較方法。
  4. ベクトルが属するクラスの平均とクラス平均からのベクトルの偏差との共分散行列(Sμ,Sω)を決定するために、学習アルゴリズムを適用するステップ(200)をさらに含む、請求項1から3のいずれか一項に記載の比較方法。
  5. 学習アルゴリズムが期待値最大化タイプのアルゴリズムである、請求項4に記載の比較方法。
  6. 類似性関数が数式
    Figure 0006603548
    によって与えられ、ここで
    Figure 0006603548
    であり、Sμがクラスの平均の共分散行列であり、Sωが平均からの偏差の共分散行列であり、
    Figure 0006603548
    がベクトルxおよびyそれぞれの観測ノイズの共分散行列である、請求項1から5のいずれか一項に記載の比較方法。
  7. センサまたはインターフェースから導かれたコンピュータデータが物理的対象または物理的大きさを表すデータである、請求項1から6のいずれか一項に記載の比較方法。
  8. センサまたはインターフェースから導かれたコンピュータデータが画像であり、特徴ベクトルが少なくとも1つのフィルタを画像に適用することによって得られる、請求項7に記載の比較方法。
  9. データが共通のクラスに属するかどうかを決定するために、計算された類似性関数(LR)の結果とスレショルドとを比較するステップ(110)をさらに含む、請求項1から8のいずれか一項に記載の比較方法。
  10. 処理ユニット(10)の処理手段(11)によって実行された時に請求項1から9のいずれか一項に記載の方法を実行するためのコード命令を含む、コンピュータプログラム製品。
  11. 複数のいわゆるラベルありのデータを含むデータベース(20)と、
    データ取得ユニット(30)と、
    2つの特徴ベクトル(x,y)と2つの関連する品質ベクトル(qx,qy)とを2つのデータアイテムから構築するように構成された処理手段(11)を備えており、さらに、請求項1から9のいずれか一項に記載の方法を実装することによりデータを比較するように構成されている処理ユニット(10)と、
    を備えるシステム(1)。
JP2015216665A 2014-11-05 2015-11-04 改善されたデータ比較方法 Active JP6603548B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1460690 2014-11-05
FR1460690A FR3028064B1 (fr) 2014-11-05 2014-11-05 Procede de comparaison de donnees ameliore

Publications (2)

Publication Number Publication Date
JP2016091566A JP2016091566A (ja) 2016-05-23
JP6603548B2 true JP6603548B2 (ja) 2019-11-06

Family

ID=52737190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015216665A Active JP6603548B2 (ja) 2014-11-05 2015-11-04 改善されたデータ比較方法

Country Status (6)

Country Link
US (1) US10332016B2 (ja)
EP (1) EP3018615B1 (ja)
JP (1) JP6603548B2 (ja)
KR (1) KR102399025B1 (ja)
CN (1) CN105590020B (ja)
FR (1) FR3028064B1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9405965B2 (en) * 2014-11-07 2016-08-02 Noblis, Inc. Vector-based face recognition algorithm and image search system
CN106803054B (zh) 2015-11-26 2019-04-23 腾讯科技(深圳)有限公司 人脸模型矩阵训练方法和装置
US10255703B2 (en) * 2015-12-18 2019-04-09 Ebay Inc. Original image generation system
US11120069B2 (en) * 2016-07-21 2021-09-14 International Business Machines Corporation Graph-based online image queries
US10482336B2 (en) 2016-10-07 2019-11-19 Noblis, Inc. Face recognition and image search system using sparse feature vectors, compact binary vectors, and sub-linear search
JP6477943B1 (ja) * 2018-02-27 2019-03-06 オムロン株式会社 メタデータ生成装置、メタデータ生成方法及びプログラム
CN109325059A (zh) * 2018-12-03 2019-02-12 枘熠集成电路(上海)有限公司 一种数据比较方法及装置
WO2021125616A1 (ko) * 2019-12-19 2021-06-24 이향룡 Ai의 학습 및 적용을 위한 개체 데이터를 검출하는 방법 및 이의 시스템

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6424960B1 (en) * 1999-10-14 2002-07-23 The Salk Institute For Biological Studies Unsupervised adaptation and classification of multiple classes and sources in blind signal separation
US6782362B1 (en) * 2000-04-27 2004-08-24 Microsoft Corporation Speech recognition method and apparatus utilizing segment models
US8463718B2 (en) * 2000-08-07 2013-06-11 Health Discovery Corporation Support vector machine-based method for analysis of spectral data
KR100445800B1 (ko) * 2001-01-05 2004-08-25 학교법인 인하학원 상관관계를 이용한 유사도 측정의 얼굴 인증 방법
US7171356B2 (en) * 2002-06-28 2007-01-30 Intel Corporation Low-power noise characterization over a distributed speech recognition channel
US8868555B2 (en) * 2006-07-31 2014-10-21 Ricoh Co., Ltd. Computation of a recongnizability score (quality predictor) for image retrieval
US7822605B2 (en) * 2006-10-19 2010-10-26 Nice Systems Ltd. Method and apparatus for large population speaker identification in telephone interactions
KR100846500B1 (ko) * 2006-11-08 2008-07-17 삼성전자주식회사 확장된 가보 웨이브렛 특징 들을 이용한 얼굴 인식 방법 및장치
KR100860989B1 (ko) * 2006-12-18 2008-09-30 삼성전자주식회사 얼굴 영상의 유사도 산출 방법 및 장치와 이를 이용한 얼굴영상 검색 방법 및 장치 그리고 얼굴 합성 방법
US8126197B2 (en) * 2007-11-29 2012-02-28 Certifi-Media Inc. Method for image quality assessment using quality vectors
US7885794B2 (en) * 2007-11-30 2011-02-08 Xerox Corporation Object comparison, retrieval, and categorization methods and apparatuses
CN102236788B (zh) * 2010-04-20 2015-09-02 荣科科技股份有限公司 电力电能表图像自动识别方法
CN102354389B (zh) * 2011-09-23 2013-07-31 河海大学 基于视觉显著性的图像零水印算法及图像版权认证方法
US8548497B2 (en) * 2011-12-16 2013-10-01 Microsoft Corporation Indoor localization using commercial frequency-modulated signals
JP2013156680A (ja) * 2012-01-26 2013-08-15 Kumamoto Univ フェーストラッキング方法、フェーストラッカおよび車両
CN102693321A (zh) * 2012-06-04 2012-09-26 常州南京大学高新技术研究院 一种跨媒体间信息分析与检索的方法
JP2013254254A (ja) * 2012-06-05 2013-12-19 Canon Inc 識別装置、その制御方法及びプログラム
CN102880861B (zh) * 2012-09-05 2015-05-27 西安电子科技大学 基于线性预测倒谱系数的高光谱图像分类方法
US20140107521A1 (en) * 2012-10-12 2014-04-17 Case Western Reserve University Functional brain connectivity and background noise as biomarkers for cognitive impairment and epilepsy
FR2998402B1 (fr) 2012-11-20 2014-11-14 Morpho Procede de generation d'un modele de visage en trois dimensions
KR101254181B1 (ko) * 2012-12-13 2013-04-19 위아코퍼레이션 주식회사 하이브리드 방식의 영상 데이터 전처리 기법 및 방사형 기저함수 기반 신경회로망을 이용한 얼굴 인식 방법
EP2924543B1 (en) * 2014-03-24 2019-12-04 Tata Consultancy Services Limited Action based activity determination system and method
CN103886106B (zh) * 2014-04-14 2017-02-22 北京工业大学 一种基于光谱特征保护的遥感图像安全检索方法

Also Published As

Publication number Publication date
JP2016091566A (ja) 2016-05-23
CN105590020A (zh) 2016-05-18
US20160125308A1 (en) 2016-05-05
US10332016B2 (en) 2019-06-25
FR3028064B1 (fr) 2016-11-04
KR20160053833A (ko) 2016-05-13
EP3018615A1 (fr) 2016-05-11
FR3028064A1 (fr) 2016-05-06
KR102399025B1 (ko) 2022-05-17
EP3018615B1 (fr) 2019-02-27
CN105590020B (zh) 2021-04-20

Similar Documents

Publication Publication Date Title
JP6603548B2 (ja) 改善されたデータ比較方法
JP6041996B2 (ja) 視覚的属性を修正する装置、システム及び方法
EP2893491B1 (en) Image processing apparatus and method for fitting a deformable shape model to an image using random forest regression voting
Raghavendra et al. Novel image fusion scheme based on dependency measure for robust multispectral palmprint recognition
US9235751B2 (en) Method and apparatus for image detection and correction
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
Esmaeili et al. Fast-at: Fast automatic thumbnail generation using deep neural networks
KR102010378B1 (ko) 객체를 포함하는 영상의 특징을 추출하는 방법 및 장치
Díaz et al. An algorithm for an accurate detection of anomalies in hyperspectral images with a low computational complexity
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP2007072620A (ja) 画像認識装置及びその方法
JP4858612B2 (ja) 物体認識システム、物体認識方法および物体認識用プログラム
US20140241625A1 (en) Image processing method, image processing apparatus, and computer program product
WO2008001942A1 (en) Method and apparatus for model based anisotropic diffusion
Bera et al. Finger contour profile based hand biometric recognition
CN116823694B (zh) 基于多聚焦信息整合的红外与可见光图像融合方法及系统
Hou et al. A variational formulation for fingerprint orientation modeling
JP6393495B2 (ja) 画像処理装置および物体認識方法
JP6098498B2 (ja) 情報処理装置、情報処理方法、並びにプログラム
Bouchemha et al. Multispectral palmprint recognition methodology based on multiscale representation
Solanke et al. “Biometrics—Iris recognition system” A study of promising approaches for secured authentication
JP6453618B2 (ja) 算出装置、方法及びプログラム
US20230222782A1 (en) Adversarial example detection device, adversarial example detection method, and program
Umasankari et al. Performance evaluation of biometric authentication and classification using deep learning approach
Marwa et al. Classifiers Combination for Efficient Masked Face Recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191011

R150 Certificate of patent or registration of utility model

Ref document number: 6603548

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250