JP2011034177A - 情報処理装置および情報処理方法、並びにプログラム - Google Patents

情報処理装置および情報処理方法、並びにプログラム Download PDF

Info

Publication number
JP2011034177A
JP2011034177A JP2009177580A JP2009177580A JP2011034177A JP 2011034177 A JP2011034177 A JP 2011034177A JP 2009177580 A JP2009177580 A JP 2009177580A JP 2009177580 A JP2009177580 A JP 2009177580A JP 2011034177 A JP2011034177 A JP 2011034177A
Authority
JP
Japan
Prior art keywords
mixed
mixed model
model function
function
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009177580A
Other languages
English (en)
Inventor
Hidefumi Yamada
英史 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009177580A priority Critical patent/JP2011034177A/ja
Priority to US12/845,968 priority patent/US20110029469A1/en
Publication of JP2011034177A publication Critical patent/JP2011034177A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Operations Research (AREA)
  • General Health & Medical Sciences (AREA)
  • Algebra (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】最適な成分数の混合モデルを構成できるようにする。
【解決手段】入力データサンプル取得部11は、いずれも多次元である第1のデータサンプル、および第2のデータサンプルを取得する。初期ガウス混合モデル生成部12は、第1のデータサンプルに基づいて、混合モデル関数を生成する。ガウス混合モデル関数適合度計算部13は、第2のデータサンプルを用いて、混合モデル関数の適合度を計算する。ガウス混合モデル更新部15は、混合モデル関数適合度に基づいて、混合モデル関数により表現されている混合モデルに混合されているモデルの成分数を調整するように混合モデル関数を更新する。本発明は、ガウス混合モデル算出装置に適用することができる。
【選択図】図1

Description

本発明は、情報処理装置および情報処理方法、並びにプログラムに関し、特に、ガウス混合モデルによりデータを分類する際に設定されるガウス混合モデルに含まれるモデルの混合数を最適なものにできるようにした情報処理装置および情報処理方法、並びにプログラムに関する。
一般に、与えられた訓練データに基づいて、数学的なモデルを構築し、新しいデータが与えられた時に、そのモデルに基づいて、その新しいデータを分類できるようにする処理を教師付き学習処理と呼んでいる。
この教師付き学習処理を構築するモデルは、新たなデータを分類する際に、訓練データに対して誤差が少ないことが好ましいのは当然である。そこで、例えば、モデルとしてガウス混合モデルを扱うような場合、混合するガウス関数の個数を増やせば、誤差は低減させることが可能となる。
ここで、この混合するモデル(ガウス関数)の個数については、訓練データに対してガウス混合モデルの混合成分数が最適値よりも少ないとフィッティング・エラーが大きくなる可能性が高くなる。逆に、混合成分数が最適値よりも多い場合、オーバフィッティングとなって新しいデータに対する汎化性能が悪くなる。
したがって、訓練データに対して許容範囲内のフィッティング・エラーを持ち、適当な汎化性能を備えたガウス混合モデルを構築するアルゴリズムであることが望ましい。
ガウス混合モデルの構築においてはEM(Expectation-Maximization)法を用いて計算する例が知られている(非特許文献1参照)。この場合、入力パラメータとして固定のガウス混合成分数を事前に与えることで、混合モデルを調整することができる。
また、簡易な方法として、二分木量子化法(Binary Tree quantization)がある(非特許文献2参照)。この方法では、サンプルデータに対応する1つの成分からなるガウス混合モデルが初期モデルとして与えられ、サンプルデータが複数のクラスタへと分割されることで、ガウス混合モデルが更新される。すなわち、混合モデルの成分とクラスタは1対1に対応し、最大の固有値を持つクラスタが二分されて、ガウス関数が計算され、これが所定の個数になるまで繰り返される。
一方で、確率モデルの良否を判定する方法に最小記述長(Minimum Description Length)が知られている(非特許文献3参照)。この計算法では、識別規則の訓練サンプル集合に対する誤識別を記述するのに必要なビット長と、モデル(識別規則)自身の複雑さを記述するビット長の和が評価されることにより、モデルの良否が判断される。
Pattern Recognition and Machine Learning (Information Science and Statistics), Springer, ISBN 0387310738
ORCHARD, M. T., AND BOUMAN, C. A. 1991. Color Quantizationof Images. IEEE Transactions on Signal Processing 39, 12,2677-2690.
J. Rissanen, Modelling by Shortest Data Description, Automatica,Vol. 14, pp.465.471, 1978
しかしながら、非特許文献1に記載の方法ではフィッティング・エラーや汎化性能を保つようにガウス関数の個数を注意深く選択しておかなければならない。また、この方法では、E(Expectation)-stepとM(Maximization)-stepという2つのステップでガウス関数の適合度が計算され、ガウス関数の更新が繰り返されてガウス混合モデルが構築される。このため、初期値の選択によって構築されるガウス混合モデルが変動したり、収束するまでに相当数の繰り返し計算が必要とされる。
また、非特許文献2,3に記載の方法では、モデルの評価が事後的に行われることにより、最適な成分数を知る指標となるが、入力サンプルデータだけから最適な個数を知ることはできない。
本発明はこのような状況に鑑みてなされたものであり、特に、2つのクラスタのサンプルデータから高精度の混合モデルを高速に構成できるようにするものである。
本発明の一側面の情報処理装置は、モデルの混合成分数を適応的に調整し、混合モデルを表現する混合モデル関数を設定する情報処理装置であって、いずれも多次元である第1のデータサンプル、および第2のデータサンプルを取得する取得手段と、前記第1のデータサンプルに基づいて、混合モデル関数を生成する混合モデル関数生成手段と、前記第2のデータサンプルを用いて、前記混合モデル関数の適合度を計算する混合モデル関数適合度計算手段と、前記混合モデル関数適合度に基づいて、前記混合モデル関数により表現されている混合モデルに混合されているモデルの成分数を調整するように混合モデル関数を更新する混合モデル関数更新手段とを含む。
前記混合モデル関数更新手段により更新された混合モデル関数の適合度と、更新前の混合モデル関数の適合度との比較により更新された混合モデル関数の適合度が許容範囲内であるか否かを判定する適合度判定手段をさらに含ませるようにすることができ、前記適合度判定手段により適合度が許容範囲内ではない場合、前記混合モデル関数更新手段は、前記混合モデル関数を更新させるようにすることができる。
前記混合モデル関数生成手段には、前記第1のデータサンプルに対する混合モデル関数に加えて、前記第2のデータサンプルに対する混合モデル関数を生成させ、前記混合モデル関数適合度計算手段は、前記第1のデータサンプルおよび前記第2のデータサンプルのそれぞれの混合モデル関数の尤度に基づいて、前記適合度を計算させるようにすることができる。
前記混合モデル関数更新手段には、前記混合モデル関数により表現されている混合モデルに混合されているモデルのうち、固有値の最も大きなモデルを構成するデータを分割することにより、成分数を調整するように混合モデル関数を更新させるようにすることができる。
前記第1のデータサンプルのうち、前記混合モデル関数により表現されている混合モデルに混合されているモデルであって、固有値の最も大きなモデルを構成する各データと、前記固有値の最も大きなモデルを構成する各データの固有ベクトルとの内積によりデータ内積を算出するデータ内積算出手段と、前記第1のデータサンプルのうち、前記混合モデル関数により表現されている混合モデルに混合されているモデルであって、固有値の最も大きなモデルを構成する各データにより求められる平均ベクトルと、前記固有値の最も大きなモデルを構成する各データの固有ベクトルとの内積により平均内積を算出する平均内積算出手段とをさらに含ませるようにすることができ、前記混合モデル関数更新手段には、前記データ内積と前記平均内積との大小関係により前記データを分割することで、前記固有値の最も大きなモデルを構成する各データを2分割することで、成分数を調整するように混合モデル関数を更新させるようにすることができる。
前記混合モデル関数適合度計算手段は、前記適合度を混合モデル関数を構成する成分毎のモデル関数で計算させ、前記混合モデル関数更新部には、成分ごとの適合度のうち、適合度の低い成分のモデル関数について調整させるようにすることができる。
本発明の一側面の情報処理方法は、モデルの混合成分数を適応的に調整し、混合モデルを表現する混合モデル関数を設定する情報処理装置の情報処理方法であって、いずれも多次元である第1のデータサンプル、および第2のデータサンプルを取得する取得ステップと、前記第1のデータサンプルに基づいて、混合モデル関数を生成する混合モデル関数生成ステップと、前記第2のデータサンプルを用いて、前記混合モデル関数の適合度を計算する混合モデル関数適合度計算ステップと、前記混合モデル関数適合度に基づいて、前記混合モデル関数により表現されている混合モデルに混合されているモデルの成分数を調整するように混合モデル関数を更新する混合モデル関数更新ステップとを含む。
本発明の一側面のプログラムは、モデルの混合成分数を適応的に調整し、混合モデルを表現する混合モデル関数を設定する情報処理装置を制御するコンピュータに、いずれも多次元である第1のデータサンプル、および第2のデータサンプルを取得する取得ステップと、前記第1のデータサンプルに基づいて、混合モデル関数を生成する混合モデル関数生成ステップと、前記第2のデータサンプルを用いて、前記混合モデル関数の適合度を計算する混合モデル関数適合度計算ステップと、前記混合モデル関数適合度に基づいて、前記混合モデル関数により表現されている混合モデルに混合されているモデルの成分数を調整するように混合モデル関数を更新する混合モデル関数更新ステップとを含む処理をコンピュータに実行させる。
本発明の一側面においては、いずれも多次元である第1のデータサンプル、および第2のデータサンプルが取得され、前記第1のデータサンプルに基づいて、混合モデル関数が生成され、前記第2のデータサンプルが用いられて、前記混合モデル関数の適合度が計算され、前記混合モデル関数適合度に基づいて、前記混合モデル関数により表現されている混合モデルに混合されているモデルの成分数が調整されるように混合モデル関数が更新される。
本発明によれば、2つのクラスタのサンプルデータから最適な成分数の混合モデルを構成することが可能となる。
本発明を適用したガウス混合モデル算出装置の一実施の形態の構成例を示す図である。 図1のガウス混合モデル更新部の構成例を示す図である。 ガウス混合モデル生成処理を説明するフローチャートである。 ガウス混合モデル更新処理を説明するフローチャートである。 ガウス混合モデル更新処理を説明する図である。 汎用のパーソナルコンピュータの構成例を示す図である。
[ガウス混合モデル算出装置の構成例]
図1は本発明を適用した一実施の形態の構成例を示すガウス混合モデル算出装置である。
図1のガウス混合モデル算出装置1は、2つのクラスの入力データサンプルに対して、最適な混合成分数(モデル数)に調整して、ガウス混合モデルを表現する関数を生成するものである。ガウス混合モデルを表現する関数は、混合成分に対応するモデル毎に設定されるガウス関数が、モデル数分だけ線形結合されることにより構成されるものである。
そこで、以降においては、ガウス混合モデル関数については、単にガウス混合モデルとも称するものとし、混合成分である各モデルを表現するガウス関数についても単にモデルとも称するものとする。したがって、ガウス混合モデルが生成されるとは、ガウス混合モデル関数を特定するパラメータが設定され、ガウス混合モデル関数が確定されることである。また、このガウス混合モデル関数を特定するパラメータは、例えば、共分散行列、平均ベクトル、固有値、および固有ベクトルであり、以降において、これらをガウスパラメータと称するものとする。
ガウス混合モデル算出装置1は、入力データサンプル取得部11、初期ガウス混合モデル生成部12、ガウス混合モデル適合度計算部13、適合度判定部14、ガウス混合モデル更新部15、および出力部16を備えている。
入力データサンプル取得部11は、求めたい混合モデルの入力データとなる第1のデータサンプルとそれとは別のクラスに分類したいデータとなる第2のデータサンプルを取得し、初期ガウス混合モデル生成部12に供給する。この第1のデータサンプル、および第2のデータサンプルとしては、例えば、オブジェクト画像(前景画像)および背景画像からなるデータサンプルとすることができる。尚、以降においては、第1のデータサンプルとしてオブジェクト画像を、第2のデータサンプルとして背景画像をそれぞれ用いた場合における処理について説明していくが、当然のことながら、それ以外のデータであってもよいものである。
初期ガウス混合モデル生成部12は、平均ベクトル算出部21、および共分散行列生成部22を備えている。初期ガウス混合モデル生成部12は、平均ベクトル算出部21を制御して、入力データサンプル取得部11より供給されてきた第1のデータサンプルを1のクラスタとして、平均ベクトルを算出させる。また、初期ガウス混合モデル生成部12は、共分散行列生成部22を制御して、入力データサンプル取得部11より供給されてきた第1のデータサンプルを1のクラスタとして、共分散行列を算出させる。そして、初期ガウス混合モデル生成部12は、算出された平均ベクトルおよび共分散行列に基づいて、第1のデータサンプルの初期的なガウス混合モデルp(x)を生成する。さらに、初期ガウス混合モデル生成部12は、生成したガウス混合モデルp(x)、第1のデータサンプル、および第2のデータサンプル、並びにクラスタ群の情報をガウス混合モデル適合度計算部13に供給する。
尚、以降において、このガウス混合モデルの関数p(x)を単にガウス混合モデルp(x)とも称するものとする。
ガウス混合モデル適合度計算部13は、初期ガウス混合モデル生成部12またはガウス混合モデル更新部15より供給されてきたガウス混合モデルの適合度を計算して、その適合度と共に第1および第2のデータサンプルを適合度判定部14へ供給する。このとき、ガウス混合モデル適合度計算部13は、第1のデータサンプル、および第2のデータサンプル、並びにクラスタ群の情報も合わせて適合度判定部14に供給する。
適合度判定部14は、ガウス混合モデル適合度計算部13より供給された今現在の適合度eを記憶すると共に、ガウス混合モデルが更新される前の適合度e(t−1)との差分絶対値を求め閾値と比較して、ガウス混合モデルの更新の要否を判定する。そして、ガウス混合モデルの更新前後で、適合度eに変化がない場合、適合度判定部14は、そのときのガウス混合モデルp(x)を出力部16に出力する。また、ガウス混合モデルの更新前後で適合度eに変化があり、ガウス混合モデルp(x)に更新が必要な場合、適合度判定部14は、ガウス混合モデル更新部15にガウス混合モデルp(x)を供給すると共に、ガウス混合モデルp(x)の更新を指示する。このとき、適合度判定部14は、第1のデータサンプル、および第2のデータサンプル、並びにクラスタ群の情報も合わせてガウス混合モデル更新部15に供給する。
ガウス混合モデル更新部15は、適合度判定部14より供給されたガウス混合モデルp(x)およびクラスタ群のそれぞれから、特定の1つのモデルに対応するガウス関数、およびクラスタを選択する。さらに、ガウス混合モデル更新部15は、選択したガウス関数、およびクラスタをそれぞれ2つに分離し、選択したガウス関数、およびクラスタと置換することで、ガウス混合モデルを更新する。そして、ガウス混合モデル更新部15は、更新されたガウス混合モデルとクラスタ群をガウス混合モデル適合度計算部13に提供する。
より詳細には、まず、ガウス混合モデル更新部15は、所定の条件でモデルを構成するガウス関数N(x)の1つを選択し、そのガウス関数N(x)に対応するクラスタを2分割する。ここで、mは、選択されたモデルを識別する係数である。さらに、ガウス混合モデル更新部15は、2分割されたクラスタのそれぞれについてガウス関数Nm1(x),Nm2(x)を新たに求め、選択されたガウス関数を2つのガウス関数で置換することで、ガウス混合モデルp(t+1)(x)を更新する。そして、ガウス混合モデル更新部15は、このときガウス関数に関するクラスタも2分割して更新する。ここで、m1,m2は、それぞれモデルmで表現されるクラスタが2分割されたときの、それぞれのクラスタを識別する係数である。
[ガウス混合モデル更新部について]
次に、図2を参照して、ガウス混合モデル更新部15の構成例について説明する。
ガウス混合モデル更新部15は、固有値固有ベクトル生成部31、分割クラスタ選択部32、クラスタ分割部33、およびガウスパラメータ計算部34を備えている。
固有値固有ベクトル生成部31は、共分散行列生成部41、固有値生成部42、固有ベクトル生成部43、および平均ベクトル生成部44を備えている。
固有値固有ベクトル生成部31は、共分散行列生成部41を制御して、適合度判定部14より供給されたクラスタ単位で共分散行列を生成させる。固有値固有ベクトル生成部31は、固有値生成部42、および固有ベクトル生成部43を制御して、クラスタ毎の共分散行列より固有値、および固有ベクトルを生成させる。また、固有値固有ベクトル生成部31は、平均ベクトル生成部44を制御して、第1のデータサンプルについて、クラスタ毎の平均ベクトルを生成させる。
固有値固有ベクトル生成部31は、クラスタ毎に共分散行列、平均ベクトル、固有値、および固有ベクトルを計算して分割クラスタ選択部32へ供給する。このとき、固有値固有ベクトル生成部31は、多次元の場合、D次元の数だけ固有値が求まるので、それらのうち最大のものを選択して各クラスタの固有値とする。
分割クラスタ選択部32は、固有値固有ベクトル生成部31から供給された固有値のうち最大値を持つものを選択し、その固有値に対応するクラスタを選択して、クラスタとそのクラスタに対応する固有ベクトルおよび平均ベクトルをクラスタ分割部33に提供する。
クラスタ分割部33は、データ内積演算部51、平均内積算出部52、および内積比較部53を備えている。クラスタ分割部33は、分割クラスタ選択部32から提供されたクラスタ、平均ベクトル、および固有ベクトルから、クラスタを構成するサンプルデータを2分割して2つのクラスタへ分離し、ガウスパラメータ計算部34に出力する。
ガウスパラメータ計算部34は、クラスタ分割部33から供給された2つのクラスタのそれぞれのガウスパラメータ(μ、Σ)と重みGを計算して、更新されたガウス混合モデルとクラスタ群を出力する。ここで、μは平均ベクトルであり、Σは共分散行列である。重みGは、例えば、クラスタ毎のサンプルデータ数の全データサンプル数に対する割合を計算して用いる。
出力部16は、適合度判定部14より供給されたガウス混合モデルを処理結果として出力する。
[ガウス混合モデル生成処理について]
次に、図3のフローチャートを参照して、ガウス混合モデル生成処理について説明する。
ステップS1において、入力データサンプル取得部11は、第1のデータサンプルとしてオブジェクトの画像のサンプルデータを取得し、第2のデータサンプルとして、オブジェクト以外のものからなる画像、すなわち、背景画像のサンプルデータを取得する。そして、入力データサンプル取得部11は、取得したオブジェクトの画像のサンプルデータと、背景画像のサンプルデータとを初期ガウス混合モデル生成部12に供給する。
ステップS2において、初期ガウス混合モデル生成部12は、平均ベクトル算出部21を制御して、入力データサンプル取得部11より供給されてきた第1のデータサンプルを1のクラスタとして、平均ベクトルを算出させる。また、初期ガウス混合モデル生成部12は、共分散行列生成部22を制御して、入力データサンプル取得部11より供給されてきた第1のデータサンプルを1のクラスタとして、共分散行列を算出させる。そして、初期ガウス混合モデル生成部12は、算出された平均ベクトルおよび共分散行列に基づいて、第1のデータサンプルのガウス混合モデルp(x)を生成する。
ここで、ガウス混合モデルの関数p(x)は、以下の式(1)で示されるように、D次元のデータxが与えられたときに、その尤度を表す関数である。より具体的には、ガウス混合モデルの関数p(x)は、K個のD次元ガウス関数N(x|μk,Σ)(係数k:k=1,2,・・・K)に重みGを乗じたものの総和である。
Figure 2011034177
ここで、ガウス関数N(x)は、以下の式(2)で示されるように、係数kで分類されるD次元のデータxが与えられたときに、平均ベクトルμと、その共分散行列Σの逆行列Σ -1と共分散行列Σの行列式|Σ|を使って、係数kで分類されるD次元のデータxのガウスモデルの尤度を表す関数である。
Figure 2011034177
ステップS3において、ガウス混合モデル適合度計算部13は、図示せぬ適合度繰り返しカウンタtを初期化する。
ステップS4において、ガウス混合モデル適合度計算部13は、初期ガウス混合モデル生成部12、またはガウス混合モデル更新部15より供給されてきたガウス混合モデルp(x)に、第1のサンプルデータを与えたときの尤度と、第2のサンプルデータを与えたときの尤度とから適合度eを計算して、その適合度eを適合度判定部14へ供給する。より詳細には、ガウス混合モデル適合度計算部13は、以下の式(3)を用いて、適合度eを求める。
Figure 2011034177
すなわち、適合度eは、第1のデータサンプルxでガウス混合モデルを適用したときの第1の尤度の合計値と、第2のデータサンプルyでガウス混合モデルを適用したときの第2の尤度の合計値との割合からなる指標である。したがって、この適合度eは、どの程度正しくデータサンプルを分類できるかを示す指標である。ここで、カウンタtはガウス混合モデルp(x)の更新を繰り返した回数を示すインデックスである。
ステップS5において、適合度判定部14は、今現在の適合度と直前の適合度との差分絶対値を求め、ステップS6において、所定の閾値との比較により適合度が収束し、ガウス混合モデルp(x)の更新が必要ないか否かを判定する。
より詳細には、適合度判定部14は、式(4)で示されるように、現在のガウス混合モデルp(x)の適合度eと直前の適合度e(t-1)との変化量(|e−e(t-1)|)が、所定の閾値より小さいか否かにより、十分にガウス混合モデルが収束したか否かを判定する。
Figure 2011034177
尚、最初の処理においては、直前の適合度が存在しないため、計算の便宜上、例えば、適合度の最低値などを直前の適合度として設定する。
ステップS6において、変化量が、所定の閾値よりも小さくない場合、処理は、ステップS7に進む。ステップS7において、適合度判定部14は、ガウス混合モデルp(x)と共に、ガウス混合モデル更新部15に対してガウス混合モデルp(x)をガウス混合モデルp(t+1)(x)に更新させる。このとき、適合度判定部14は、ガウス混合モデルp(x)を記憶する。これに応じて、ガウス混合モデル更新部15は、ガウス混合モデル更新処理を実行して、現状の、すなわち、カウンタtに対応するt回目のガウス混合モデルp(x)を更新して、ガウス混合モデルp(t+1)(x)とする。
[ガウス混合モデル更新処理について]
ここで、図4のフローチャートを参照して、ガウス混合モデル更新処理について説明する。
ステップS21において、固有値固有ベクトル生成部31は、共分散行列生成部41を制御して、全てのクラスタについて共分散行列を生成させる。
ステップS22において、固有値固有ベクトル生成部31は、固有値生成部42を制御して、クラスタ毎に共分散行列から固有値を生成させる。さらに、固有値固有ベクトル生成部31は、固有ベクトル生成部43を制御して、生成された固有値に基づいて、クラスタ毎に固有ベクトルを生成させる。
ステップS23において、固有値固有ベクトル生成部31は、平均ベクトル生成部44を制御して、クラスタ毎に共分散行列の平均ベクトルを生成させる。
ステップS24において、固有値固有ベクトル生成部31は、クラスタ毎に求められた共分散行列、固有値、固有ベクトル、および平均ベクトルを分割クラスタ選択部32に供給する。分割クラスタ選択部32は、クラスタ毎に求められた共分散行列、固有値、固有ベクトル、および平均ベクトルのうち、固有値が最も大きなクラスタの共分散行列、固有値、固有ベクトル、および平均ベクトルを選択する。そして、固有値固有ベクトル生成部31は、選択した固有値が最も大きなクラスタの共分散行列、固有値、固有ベクトル、および平均ベクトルを抽出し、選択されたクラスタのサンプルデータと共に分割クラスタ選択部32に供給する。
ステップS25において、クラスタ分割部33は、平均内積算出部52を制御して、平均ベクトルμと、固有ベクトルeigの内積である平均内積eig・μを算出させる。この平均ベクトルμ、固有ベクトルeig、および平均内積eig・μは、図5の左上部で示されるような関係となる。すなわち、平均内積eig・μは、点線の楕円で示される、固有値が最大であるとして選択されたクラスタの中の平均ベクトルμの、固有ベクトルeigに対して平行移動された点線方向の成分が、固有ベクトルに対して何倍であるのかを示す。
ステップS26において、クラスタ分割部33は、分割クラスタ選択部32より供給されてきたクラスタのサンプルデータのうち、未処理のサンプルデータを処理対象のデータxに設定する。
ステップS27において、クラスタ分割部33は、データ内積算出部51を制御して、データxと、固有ベクトルeigの内積であるデータ内積eig・xを算出させる。このデータx、固有ベクトルeig、およびデータ内積eig・xは、図5の左上部で示されるような関係となる。すなわち、データ内積eig・xは、点線の楕円で示される、固有値が最大であるとして選択されたクラスタの中のデータxで示されるベクトルの、固有ベクトルeigに対して平行移動された点線方向の成分が、固有ベクトルに対して何倍であるのかを示す。
ステップS28において、クラスタ分割部33は、内積比較部53を制御して、データ内積と、平均内積との大小関係を以下の式(5)を演算することにより比較する。
Figure 2011034177
ステップS29において、クラスタ分割部33は、内積比較部53の比較結果に基づいて、データ内積が平均内積よりも大きいか否かを判定し、例えば、データ内積が平均内積よりも大きい場合、ステップS30において、そのデータxを第1のクラスタに分類し、処理は、ステップS32に進む。
一方、ステップS29において、データ内積が平均内積よりも大きくない場合、ステップS31において、クラスタ分割部33は、そのデータxを第2のクラスタに分類する。
ステップS32において、クラスタ分割部33は、未処理のデータが存在するか否かを判定し、未処理のデータが存在すると判定された場合、処理は、ステップS26に戻る。すなわち、未処理のデータがないと判定されるまで、ステップS26乃至S32の処理が繰り返される。そして、ステップS32において、未処理のデータがないと判定された場合、処理は、ステップS33に進む。
概念としては、図5の左上部で示されるように、クラスタを構成するサンプルデータのうち平均ベクトルμの終点位置を通り固有ベクトルeigと直交する直線Lよりも原点に近い位置のデータ内積は、平均内積の方がよりも小さく、データは第2のクラスタとなる。逆に、直線Lよりも原点から遠いサンプルデータについては、データ内積が平均内積よりも大きくなるので、第1クラスタとなる。この結果、選択されたクラスタは、図5の右下部で示されるように、直線Lにより分割されて、それぞれ原点位置より遠い範囲のデータが第1のクラスタに分割され、残りの原点に近い範囲が第2のクラスタに分割される。
ステップS33において、クラスタ分割部33は、求められた第1のクラスタと第2のクラスタとをガウスパラメータ計算部34に供給する。
ステップS34において、ガウスパラメータ計算部34は、第1のクラスタと第2のクラスタとのサンプルデータに基づいて、ガウス関数を生成し、それらのガウスパラメータを計算する。
ステップS35において、ガウスパラメータ計算部34は、求められた2つのクラスタのガウスパラメータによりガウス混合モデルを更新する。すなわち、ガウスパラメータ計算部34は、固有値が最大となるクラスタとして選択されたクラスタに代えて、そのクラスタが2分割された2つのクラスタのガウスモデルを混合し、ガウス混合モデルを更新する。
ステップS36において、ガウスパラメータ計算部34は、更新されたガウス混合モデルをガウス混合モデル適合度計算部13に供給する。
すなわち、ガウス混合モデル更新処理においては、クラスタ単位で固有値が求められ、最大値となるクラスタについて、サンプルデータが2分割され、さらに、2分割されたクラスタのそれぞれのガウスモデルにより、ガウス混合モデルが更新される。各クラスタの固有値は、クラスタにおけるデータのばらつきの大きさを示し、固有ベクトルは、ばらつきの方向を示すものである。従って、固有値が最も大きなクラスタを、固有ベクトルの方向に対して2分割して新たなクラスタを設定し、それぞれのガウスモデルを計算し、置換することで、ガウス混合モデルを構成する要素となるガウスモデルを最適化していくことができる。
ここで、図3のフローチャートに戻る。
ステップS7において、ガウス混合モデル更新処理が実行されると、ステップS8において、ガウス混合モデル適合度計算部13は、図示せぬ適合度繰り返しカウンタtを1インクリメントし、処理は、ステップS4に戻る。
ステップS4において、ガウス混合モデル適合度計算部13は、更新されたガウス混合モデルp(x)に、第1のサンプルデータを与えたときの尤度と、第2のサンプルデータを与えたときの尤度とから上述した式(3)を計算することで適合度e(t+1)を計算して、その適合度e(t+1)を適合度判定部14へ供給する。
ステップS5において、適合度判定部14は、今現在の適合度e(t+1)と直前の適合度eとの差分絶対値を求め、所定の閾値との比較により適合度が収束し、ガウス混合モデルp(x)の更新が必要ないか否かを判定する。今現在の適合度と直前の適合度との差分が所定の閾値よりも小さくない場合、差分が所定の閾値よりも小さくなるまで、ステップS4乃至S8の処理が繰り返される。ステップS4乃至S8の処理が繰り返される度に、すなわち、更新が繰り返される度に、クラスタが1個増えることになるので、適合度は、クラスタが1個増える毎に求められることになる。そして、ステップS6において、今現在の適合度と直前の適合度との差分が所定の閾値よりも小さくなり、これ以上多くの成分数とする必要がない、すなわち、これ以上多くのクラスタからなるガウス混合モデルとする必要がない場合、処理は、ステップS9に進む。
ステップS9において、適合度判定部14は、そのときのガウス混合モデルを構成する関数を出力部16に出力する。出力部16は、ガウス混合モデルを構成する関数を出力する。
以上の処理により、固有値が大きなクラスタについては順次クラスタを分割してガウス関数の個数を増やしながらガウス混合モデルを設定できるので、フィッティングエラーを防止できるようにすることが可能となる。
また、第1のサンプルデータと、それ以外の第2のサンプルデータとのそれぞれの尤度からガウス混合モデルの適合度を設定し、ガウス関数を増やすごとに、直前の適合度との差分絶対値から適合度の変化が小さくなるときガウス関数の付加を停止させるようにした。この結果、過剰にガウス関数を増やさずに、すなわち、汎化性能をある程度維持しつつ、混合性分数を増やしていくことが可能となる。
いずれにおいても、結果として、最適なガウス混合モデルを高速に、設定することが可能となる。
尚、以上においては、適合度を直前のものと比較して収束したか否かを判定する構成となっていたが、適合度は程度の値となればよいものであるので、今現在の適合度そのものが所定の閾値よりも小さいか否かにより判定するようにしてもよい。
また、ガウスモデルの成分数、すなわち、クラスタ数に制限を設けることが目的であるので、適合度の判定とは別に、成分数の上限値や下限値を与え、ガウス混合モデルの更新の要否を判定するようにしても良い。
さらに、以上においては、2つのクラスの問題を例として説明してきたが、それ以上の多クラスのデータを受信する方法にも適用することができる。すなわち、入力データサンプル取得部11は多クラスの入力データサンプルを受信して、第1のデータサンプルとそれ以外のデータサンプルを第2のデータサンプルとして同じ手順で処理するようにしてもよいものである。
また、本実施例では2クラスのデータサンプルから1つのガウス混合モデルを生成する方法を提示しているが、2つの混合モデルを同時に求めても良い。
すなわち、第1のデータサンプルと第2のデータサンプルを入れ替えるだけで、同じ手順で2つの混合モデルを求めることが可能である。
さらに、2つの混合モデルから計算する2つの適合度の組を適合度判定部14でバッファしておいて、ガウス混合モデルの更新の要否を判定しても良い。この場合、式(3)で表される適合度の値が大きい方の混合モデルを選択し、その1つの混合モデルだけを更新するという処理にしてもよい。また、それぞれの適合度から、ガウス混合モデルの更新の要否を判断するのではなく、2つの適合度の合計と閾値との比較から、一括してガウス混合モデルの更新の要否を判定するようにしてもよい。
また、本実施例では、ガウス混合モデル更新部15は、いわゆる二分木量子化法でガウス混合モデルを更新しているが、これを上述したEM法に基づいた手法により更新するようにしてもよい。すなわち、この場合、収束までの時間がかかるが、成分数を増加させて、ガウス混合モデルを計算することで、より精度の高いガウス混合モデルを設定することができる。
さらに、以上においては、固有値が最大となるクラスタを分割すべきクラスタに選択するようにしてきたが、ガウス混合モデルの成分であるガウス関数ごとの適合度によって分割するべきクラスタを選択するようにしてもよい。すなわち、ガウス混合モデルのガウス関数ごとに適合度を求めておいて、より適合度の悪いガウス関数を優先して分割および更新することでガウス混合モデルの精度を上げることができる。この手法により、多少入力データサンプルの分布からずれたガウス混合モデルができたとしても、分離性能をよりよく向上させることが可能となる。
また、入力データサンプル取得部11において、受信した2クラスのデータサンプルを副標本してガウス混合モデルの計算を行うようにしてもよい。すなわち、データサンプルを副標本することで処理するデータ量が減り処理の高速化や省メモリ化を実現することができる。
さらに、式(3)で示されるような適合度計算ではなく、最小記述長(MDL)(非特許文献3参照)やAIC(Akaike's Information Criteria)( Akaike, Hirotugu (1974). "A new look at the statistical model identification". IEEE Transactions on Automatic Control 19 (6): 716?723. doi:10.1109/TAC.1974.1100705. MR0423716参照)]といったよく知られた評価方法で適合度を計算しても良く、さらに判定精度を向上させることが可能となる。
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図6は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
尚、本明細書において、処理工程を記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。
11 入力データサンプル取得部, 12 初期ガウス混合モデル生成部, 13 ガウス混合モデル適合度計算部, 14 適合度判定部, 15 ガウス混合モデル更新部, 16 出力部, 21 平均ベクトル算出部, 22 共分散行列生成部, 31 固有値固有ベクトル生成部, 32 分割クラスタ選択部, 33 クラスタ分割部, 34 ガウスパラメータ計算部34

Claims (8)

  1. モデルの混合成分数を適応的に調整し、混合モデルを表現する混合モデル関数を設定する情報処理装置であって、
    いずれも多次元である第1のデータサンプル、および第2のデータサンプルを取得する取得手段と、
    前記第1のデータサンプルに基づいて、混合モデル関数を生成する混合モデル関数生成手段と、
    前記第2のデータサンプルを用いて、前記混合モデル関数の適合度を計算する混合モデル関数適合度計算手段と、
    前記混合モデル関数適合度に基づいて、前記混合モデル関数により表現されている混合モデルに混合されているモデルの成分数を調整するように混合モデル関数を更新する混合モデル関数更新手段と
    を含む情報処理装置。
  2. 前記混合モデル関数更新手段により更新された混合モデル関数の適合度と、更新前の混合モデル関数の適合度との比較により更新された混合モデル関数の適合度が許容範囲内であるか否かを判定する適合度判定手段をさらに含み、
    前記適合度判定手段により適合度が許容範囲内ではない場合、前記混合モデル関数更新手段は、前記混合モデル関数を更新する
    請求項1に記載の情報処理装置。
  3. 前記混合モデル関数生成手段は、前記第1のデータサンプルに対する混合モデル関数に加えて、前記第2のデータサンプルに対する混合モデル関数を生成し、
    前記混合モデル関数適合度計算手段は、前記第1のデータサンプルおよび前記第2のデータサンプルのそれぞれの混合モデル関数の尤度に基づいて、前記適合度を計算する
    請求項1に記載の情報処理装置。
  4. 前記混合モデル関数更新手段は、前記混合モデル関数により表現されている混合モデルに混合されているモデルのうち、固有値の最も大きなモデルを構成するデータを分割することにより、成分数を調整するように混合モデル関数を更新する
    請求項1に記載の情報処理装置。
  5. 前記第1のデータサンプルのうち、前記混合モデル関数により表現されている混合モデルに混合されているモデルであって、固有値の最も大きなモデルを構成する各データと、前記固有値の最も大きなモデルを構成する各データの固有ベクトルとの内積によりデータ内積を算出するデータ内積算出手段と、
    前記第1のデータサンプルのうち、前記混合モデル関数により表現されている混合モデルに混合されているモデルであって、固有値の最も大きなモデルを構成する各データにより求められる平均ベクトルと、前記固有値の最も大きなモデルを構成する各データの固有ベクトルとの内積により平均内積を算出する平均内積算出手段とをさらに含み、
    前記混合モデル関数更新手段は、
    前記データ内積と前記平均内積との大小関係により前記データを分割することで、前記固有値の最も大きなモデルを構成する各データを2分割することで、成分数を調整するように混合モデル関数を更新する
    請求項4に記載の情報処理装置。
  6. 前記混合モデル関数適合度計算手段は、前記適合度を混合モデル関数を構成する成分毎のモデル関数で計算し、
    前記混合モデル関数更新部は、成分ごとの適合度のうち、適合度の低い成分のモデル関数について調整する
    請求項1に記載の情報処理装置。
  7. モデルの混合成分数を適応的に調整し、混合モデルを表現する混合モデル関数を設定する情報処理装置の情報処理方法であって、
    いずれも多次元である第1のデータサンプル、および第2のデータサンプルを取得する取得ステップと、
    前記第1のデータサンプルに基づいて、混合モデル関数を生成する混合モデル関数生成ステップと、
    前記第2のデータサンプルを用いて、前記混合モデル関数の適合度を計算する混合モデル関数適合度計算ステップと、
    前記混合モデル関数適合度に基づいて、前記混合モデル関数により表現されている混合モデルに混合されているモデルの成分数を調整するように混合モデル関数を更新する混合モデル関数更新ステップと
    を含む情報処理方法。
  8. モデルの混合成分数を適応的に調整し、混合モデルを表現する混合モデル関数を設定する情報処理装置を制御するコンピュータに、
    いずれも多次元である第1のデータサンプル、および第2のデータサンプルを取得する取得ステップと、
    前記第1のデータサンプルに基づいて、混合モデル関数を生成する混合モデル関数生成ステップと、
    前記第2のデータサンプルを用いて、前記混合モデル関数の適合度を計算する混合モデル関数適合度計算ステップと、
    前記混合モデル関数適合度に基づいて、前記混合モデル関数により表現されている混合モデルに混合されているモデルの成分数を調整するように混合モデル関数を更新する混合モデル関数更新ステップと
    を含む処理をコンピュータに実行させるプログラム。
JP2009177580A 2009-07-30 2009-07-30 情報処理装置および情報処理方法、並びにプログラム Withdrawn JP2011034177A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009177580A JP2011034177A (ja) 2009-07-30 2009-07-30 情報処理装置および情報処理方法、並びにプログラム
US12/845,968 US20110029469A1 (en) 2009-07-30 2010-07-29 Information processing apparatus, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009177580A JP2011034177A (ja) 2009-07-30 2009-07-30 情報処理装置および情報処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2011034177A true JP2011034177A (ja) 2011-02-17

Family

ID=43527924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009177580A Withdrawn JP2011034177A (ja) 2009-07-30 2009-07-30 情報処理装置および情報処理方法、並びにプログラム

Country Status (2)

Country Link
US (1) US20110029469A1 (ja)
JP (1) JP2011034177A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017016626A (ja) * 2015-06-30 2017-01-19 安一恒通(北京)科技有限公司 悪質な脆弱性のあるファイルを検出する方法、装置及び端末

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7933890B2 (en) * 2006-03-31 2011-04-26 Google Inc. Propagating useful information among related web pages, such as web pages of a website
US20110166029A1 (en) * 2009-09-08 2011-07-07 David Michael Margulies Compositions And Methods For Diagnosing Autism Spectrum Disorders
US8458172B2 (en) * 2009-12-24 2013-06-04 At&T Intellectual Property I, L.P. Method and apparatus for automated end to end content tracking in peer to peer environments
US20120053951A1 (en) * 2010-08-26 2012-03-01 Twenty-Ten, Inc. System and method for identifying a targeted prospect
US9171158B2 (en) 2011-12-12 2015-10-27 International Business Machines Corporation Dynamic anomaly, association and clustering detection
US9141623B2 (en) * 2012-08-03 2015-09-22 International Business Machines Corporation System for on-line archiving of content in an object store
US8943110B2 (en) * 2012-10-25 2015-01-27 Blackberry Limited Method and system for managing data storage and access on a client device
US9165006B2 (en) 2012-10-25 2015-10-20 Blackberry Limited Method and system for managing data storage and access on a client device
US8930328B2 (en) * 2012-11-13 2015-01-06 Hitachi, Ltd. Storage system, storage system control method, and storage control device
EP3063595A1 (en) * 2013-10-30 2016-09-07 GE Aviation Systems Limited Method of construction and selection of probalistic graphical models
JP6554900B2 (ja) * 2015-04-28 2019-08-07 オムロン株式会社 テンプレート作成装置及びテンプレート作成方法
US10056076B2 (en) * 2015-09-06 2018-08-21 International Business Machines Corporation Covariance matrix estimation with structural-based priors for speech processing
US11218879B2 (en) * 2018-12-05 2022-01-04 At&T Intellectual Property I, L.P. Providing security through characterizing internet protocol traffic to detect outliers
CN111551803A (zh) * 2020-05-06 2020-08-18 南京能瑞电力科技有限公司 一种充电桩的诊断方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6581058B1 (en) * 1998-05-22 2003-06-17 Microsoft Corporation Scalable system for clustering of large databases having mixed data attributes
US20050149462A1 (en) * 1999-10-14 2005-07-07 The Salk Institute For Biological Studies System and method of separating signals
US20020129038A1 (en) * 2000-12-18 2002-09-12 Cunningham Scott Woodroofe Gaussian mixture models in a data mining system
US6496834B1 (en) * 2000-12-22 2002-12-17 Ncr Corporation Method for performing clustering in very large databases
US20030154181A1 (en) * 2002-01-25 2003-08-14 Nec Usa, Inc. Document clustering with cluster refinement and model selection capabilities
US20030225719A1 (en) * 2002-05-31 2003-12-04 Lucent Technologies, Inc. Methods and apparatus for fast and robust model training for object classification
US7474997B2 (en) * 2003-04-16 2009-01-06 Sony Corporation Construction and selection of a finite mixture model for use in clustering and vector quantization
US20050286767A1 (en) * 2004-06-23 2005-12-29 Hager Gregory D System and method for 3D object recognition using range and intensity
US7565262B2 (en) * 2006-10-05 2009-07-21 Siemens Corporate Research, Inc. Bayesian sensor estimation for machine condition monitoring

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017016626A (ja) * 2015-06-30 2017-01-19 安一恒通(北京)科技有限公司 悪質な脆弱性のあるファイルを検出する方法、装置及び端末

Also Published As

Publication number Publication date
US20110029469A1 (en) 2011-02-03

Similar Documents

Publication Publication Date Title
JP2011034177A (ja) 情報処理装置および情報処理方法、並びにプログラム
JP7315748B2 (ja) データ識別器訓練方法、データ識別器訓練装置、プログラム及び訓練方法
US20180240031A1 (en) Active learning system
KR20160143548A (ko) 인공 신경 네트워크를 자동으로 조정하는 방법 및 장치
US11537869B2 (en) Difference metric for machine learning-based processing systems
US9563822B2 (en) Learning apparatus, density measuring apparatus, learning method, computer program product, and density measuring system
US20110288835A1 (en) Data processing device, data processing method and program
KR20190068255A (ko) 고정 소수점 뉴럴 네트워크를 생성하는 방법 및 장치
US9111388B2 (en) Information processing apparatus, control method, and recording medium
JP5429940B2 (ja) マルチレベル分類モデルを構築する方法とシステム
JP7095599B2 (ja) 辞書学習装置、辞書学習方法、データ認識方法およびコンピュータプログラム
JP2019197355A (ja) クラスタリング装置、クラスタリング方法およびプログラム
CN108154186B (zh) 一种模式识别方法和装置
KR20190043720A (ko) 전문화에 기반한 신뢰성 높은 딥러닝 앙상블 방법 및 장치
CN113723438A (zh) 分类模型校准
CN111667016A (zh) 一种基于prototype的增量式信息分类方法
Min et al. Development of Pareto-based evolutionary model integrated with dynamic goal programming and successive linear objective reduction
JP6692272B2 (ja) 信号調整装置、信号生成学習装置、方法、及びプログラム
KR101556603B1 (ko) 랭크 정보를 이용한 영상 분리 장치 및 그 방법
JP6606849B2 (ja) 識別器生成装置、識別器生成方法、推定装置、推定方法、およびプログラム
Gupta et al. Scalable unidirectional Pareto optimality for multi-task learning with constraints
JP4902378B2 (ja) 混合モデル初期値算出装置及び混合モデル初期値算出プログラム
WO2022162839A1 (ja) 学習装置、学習方法、及び、記録媒体
JP5255484B2 (ja) クラスタリング距離学習装置およびそのプログラム、ならびに、クラスタリング装置
Zenkov Estimating the Probability of a Class at a Point by the Approximation of one Discriminant Function

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121002