JP2007317185A - スパース線形判別分析(sparselineardiscriminantanalysis)のためのスペクトル法 - Google Patents

スパース線形判別分析(sparselineardiscriminantanalysis)のためのスペクトル法 Download PDF

Info

Publication number
JP2007317185A
JP2007317185A JP2007126896A JP2007126896A JP2007317185A JP 2007317185 A JP2007317185 A JP 2007317185A JP 2007126896 A JP2007126896 A JP 2007126896A JP 2007126896 A JP2007126896 A JP 2007126896A JP 2007317185 A JP2007317185 A JP 2007317185A
Authority
JP
Japan
Prior art keywords
sparse
optimization problem
radix
linear discriminant
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007126896A
Other languages
English (en)
Inventor
Baback Moghaddam
ババック・モグハッダム
Yair Weiss
イェア・ワイス
Shmuel Avidan
シュミュエル・アビダン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/440,825 external-priority patent/US20070122041A1/en
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2007317185A publication Critical patent/JP2007317185A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Complex Calculations (AREA)

Abstract

【課題】コンピュータによって実施される方法は、スパース線形判別分析の基数制約あり組み合わせ最適化問題に対する候補解を最大にする。
【解決手段】kの非ゼロ要素を有する候補スパース解ベクトルxは、分類される2値入力データのクラス間共分散及びクラス内共分散を測定する共分散行列の対A,B、最終解ベクトルの所望の基数を示すスパーシティパラメータkと共に入力される。候補解ベクトルxの変分再正規化は、共分散行列の対A,B及びスパーシティパラメータkに関して実施されて、スパーシティパラメータk及び候補スパース解ベクトルxのゼロパターンについて局所的に最適であり、スパース線形判別分析最適化問題についての最終解ベクトルである基数kを有する分散最大化判別固有ベクトルxハットが得られる。
【選択図】図1

Description

本発明は、包括的には線形判別分析(LDA)に関し、より詳細には、遺伝子選択、ポートフォリオ最適化、センサネットワーク、資源割り振り、並びに、機械学習及びパターン認識における一般的特徴又は変数部分集合(variable subset)の選択等の、実用的なアプリケーションにスパースLDAを適用することに関する。
[関連出願]
本出願は、2005年11月29日にMoghaddam他によって出願された、米国特許出願第11/289,343号「Spectral Method for Sparse Principal Component Analysis」の一部継続出願である。
次元削減(dimensionality reduction)及びデータ分類のための2つの古典的な技法は、主成分分析(PCA)及び(フィッシャーの)線形判別分析(LDA)である。PCAは、最も少ない数の成分内で最大のデータ分散を捕捉しながら、新しく導出された成分は相関がないように、入力特徴(測定値)の線形結合又は射影(projection)のセットを見出す。
LDAは、データを2つのクラスに最もよく分離する特徴の線形結合を見出そうとする。線形結合は、PCAの場合と同様であるが、しかし、異なる目的で、すなわち、最大の分散の捕捉と対照的に最良の分類精度のために、分類する前に、次元削減のために使用される。
言い換えると、スパースPCAは、教師なし学習(unsupervised learning)のためのものであり、共分散行列Aが与えられると、最大固有値(レイリー商)を最大にするスパース固有ベクトルを確定する。スパースLDAは、教師あり学習のためのものであり、共分散行列の対A及びBが与えられると、一般化最大固有値又は一般化レイリー商を最大にする一般化固有ベクトルを確定する。
PCAは、視覚化及びデータ圧縮にも使用される(元の変数の線形結合による)或るタイプの特徴抽出と見なすことができる。一方、LDAは、データクラスタリング及び分類により適している(LDAは、元の変数の線形結合によっても得られる)。PCAは、入力データ情報(エントロピー)を最大限に保持し、それによって、再構成が可能である。しかしながら、一方、LDAは、変換された空間内においてクラス分離性(separability)を高めることに配慮するだけであり、その後、分類についての決定境界を計算するタスクを単純化する。PCAと違って、元のデータをそのLDA表現から再構成することはできない。したがって、LDAは、データ圧縮には使用することができないが、依然として、視覚化に使用することができる。
関連出願において述べられた教師なしの場合についてのスパースPCA法の一般的な考えを、スパースLDAの教師ありの場合に拡張することが望まれており、それは、従来から、一般化固有値問題Ax=λBxとして捉えられている。しかし、ここではスパース形態で計算される。ここで、xは入力データを表し、A及びBは、それぞれクラス間共分散行列及びクラス内共分散行列であり、λは固有値である。クラス内共分散行列Bが、単位行列Iに完全に等しいという特別な場合、提案される拡張は、スパースPCAの先の関連出願と等価になる。すなわち、この一部継続出願は、関連出願を拡張すると共に、関連出願を包含し、関連出願を特別な場合として含む。
特徴選択は、ほとんどの自動化分類プロセスにとって重要なタスクである。一般に、3つのタイプの特徴選択法、すなわち、フィルタ、ラッパ、及び埋め込み式技法が存在する。フィルタ法では、特徴選択は独立であり、因果的に分類の段階に先行する。ラッパ法では、特徴選択は、分類器の出力に基づいて反復的に改良される。埋め込み式方法では、特徴選択は分類器トレーニングに必須の要素である。
スパースネスは、本来、Lノルムペナルティ項及び/又は関連する従来の確率を有する連続最適化によって通常組み込まれる1つのタイプの特徴選択メカニズムを構成する。代表的な例は、関連出願に記載されるように、それぞれ、スパース回帰並びにスパースPCA(SPCA)(教師ありドメインと教師なしドメインの両方からの)を含む。
教師あり学習では、分類タスクは、同じ分布を有するラベリングされていない試験が正しく分類されるように、所定の関数クラスF及びラベリングされたトレーニングデータ対(x,y)の未知の分布から写像関数(mapping function)f(x):R→{±1}を「学習」することである。
最も単純な関数クラスは、線形パーセプトロン:f(x)=sign(wx+b)である。線形パーセプトロンについて、スパーシティ(sparsity)は、多くのゼロ要素を有する重みベクトルwに相当し、それにより、変数xのうちのわずかな変数しか実際に決定ルールf(x)に寄与しないことが示される。得られる低次元部分空間において、選択される変数部分集合は、線形超平面を形成し、線形超平面は、次に、2つのクラスを判別する。
フィッシャーの線形判別の定式化は、Mika他著「A mathematical programming approach to the kernel fisher algorithm」(Advances in Neural Information Processing Systems 13,pp.591‐597,2001)によって述べられる。その定式化は、埋め込み式変数選択技法のよい例である。一般的に、それは、以下の非線形最適化問題として定式化される。
min ‖w‖ +C‖ζ‖ ・・・(1)
(w+b)=1−ζを条件とする
ここで、Cは調整(regularization)(誤差トレードオフ)パラメータであり、w及びbは、線形パーセプトロンf(x)の重みベクトル及びバイアスであり、指数p及びqは、それぞれ、重み及びスパースベクトルξの「サイズ」をペナライズ(penalize)するのに使用されるノルムを定義する。p=q=2の場合は、調整された形態である。p=1に設定することによって、スパースフィッシャー判別(SFD)を得ることができる。不等式制約が等式で置換され、スパースベクトルξに正値性(positivity)が強制されるサポートベクトルマシン(SVM)の定式化に対する類似に留意されたい。
SVMトレーニングは、広い余裕についてw(p=2)のLノルムを最小にする。その間に、カルーシュ・キューン・タッカー(Karush‐Kuhn‐Tucker)(KKT)相補性(complementarity)がスパースベクトルξをもたらし、スパースベクトルξは、通常、Lノルム(q=1)でペナライズされる。1つの重要な違いは、分類の観点から、SVMは最小余裕を最大にし、一方、LDAに基づく判別は平均余裕を最大にする傾向があることである。
教師なし学習において、PCAは、データのモデリング及び表現にとって必須のツールである。そのパワーと人気にもかかわらず、重要な欠点は、スパースネスの欠如である。すなわち、因子負荷は、入力変数全ての線形結合である。スパース表現は、理解を容易にさせる、たとえば、遺伝子発現データの場合、計算コストを減らし、よりよい一般化をさらに促進することができるため、一般に望ましい。機械学習において、入力スパースネスは変数選択及び自動関連判定(automatic relevance determination)に密接に関連している。
正則な(regular)主成分に関するLペナライズされた回帰についてのスパースPCA法は、Zou,H.,Hastie,T.及びTibshirani,R.著「Sparse principal component analysis」(Technical Report,Statistics Department,Stanford University,2004)によって述べられる。
別の方法は、「困難な(hard)」基数制約を緩和する(d’Aspremont,A.,Ghaoui,L.E.,Jordan,M.I.及びLanckriet,G.R.G.著「A direct formulation for sparse PCA using semi‐definite programming」Advances in Neural Information Processing Systems 17,pp.803‐809、2004)。その方法は、DSPCAと呼ばれるより「直接的な」定式化のために、半定値プログラミング(SDP)を使用した、より単純な凸近似を使用する。
対照的に、代替的な離散スペクトル枠組みは、Moghaddam,B.,Weiss,Y.及びAvidan,S.著「Spectral Bounds for Sparse PCA:Exact&Greedy Algorithms」(Advances in Neural Information Processing Systems 18,pp.915‐922,2006)によって述べられている。親出願も参照されたい。その方法は、包含原理(inclusion principle)によって定義される共分散「部分スペクトル(sub‐spectrum)」に関して変分固有値限界(variational eigenvalue bound)を使用し、包含原理は、単純欲張り技法(GSPCA)を使用してかなりの性能利得をもたらす。さらに、分枝限定探索に基づく完全最適アルゴリズム(exact optimal algorithm)(ESPCA)は、親出願において完全に詳細に述べられる。
PCAの方法を、スパースLDAの教師ありの場合に拡張することが望まれており、それは、一般化固有値問題Ax=λBxとして捉えられている。しかし、ここではスパース形態で計算される。
本発明の実施の形態は、一般化レイリー商の、スパース解又は基数制約あり(cardinality‐constrained)解のための、離散スペクトル枠組みを提供する。このNP困難な組み合わせ最適化問題は、スパースLDA、特徴選択、及び分類のための関連ランキング等の教師あり学習タスクの中心となる。
本発明の実施の形態は、変分限界のための固有値包含原理(IP)の新規な一般化形態を提供し、分枝限定探索を使用した完全且つ最適なスパース線形判別をもたらす。近似結果をもたらす効率的な欲張り探索(greedy search)技法もまた提供される。
本方法は、(フィッシャーの)線形判別分析(LDA)に必要とされる2次統計量(共分散)のみを使用して新規な特徴選択フィルタを提供する。本方法は、基数制約あり部分空間(変数部分集合)に特に適合するように、固有値最大化のために、クーラント−フィッシャーの(Courant‐Fischer)「Min−Max」理論の変分形態に基づく離散スペクトル定式化(discrete spectral formulation)を提供する。
この手法は、変分固有値限界を使用した特許出願に記載されるスパースPCAについての、前の枠組みの論理的(教師あり)拡張とみなされ、それにより、より一般的な定式化を構成する。すなわち、スパースLDA法は、スパースPCA法をスパースLDAの特別な場合として包含する。
上述したように、離散定式化は、その最適性に限界を設けながら、任意の適切な解を改善するための単純な後処理再正規化ステップを表す。より重要なことには、離散手法は、分枝限定探索を使用して完全且つおそらく最適な解をもたらす。欲張り及び完全スパースLDA法は、実世界データセットに適用される。
本発明の実施の形態は、不可欠な固有値限界及び2つの離散プロセス、すなわち、高速且つ有効な欲張り探索(GSLDA)及び効率は低いが最適な方法(ESLDA)を備えたスパースLDAを実施する方法を提供する。さらに、本発明は、任意の連続近似(緩和)のために再正規化「フィックス」を提供する。実際に、単純閾値処理(ST)の「ストローマン(straw‐man)」は、本来、フィックスされると適切であるように見えるが、常に信頼性があるわけではない。2値分類は、ランク1 A行列に帰着するため、連続近似の性能を支配するのは、ほとんど、クラス内B行列の固有構造であることに留意されたい。離散法は、小さな調整項が数値的安定のために付加される限り、それほど影響を受けない。スパースLDAは、2値分類に限定されないことが留意されるべきである。
一般化レイリー商の複数因子形態は、因子の行列Xによって、たとえば、固有値の総和として一般化包含原理を使用して限界を設けられることもできるトレース基準をもたらす可能性がある。実際に、固有値だけで、たとえば、エントロピーベース基準用のログ判別で定式化することができる任意の対象は、本質的に同じプロセスを使用して、離散形態で解くことができる。
GSLDAの顕著な有効性は、組み合わせ最適化における実験による観察によって裏付けられ、モジュール式関数及び単調コスト関数(monotonic cost function)を用いた欲張り探索は、優れた結果を生じることが非常に多い。
GSLDAは一貫して、単純閾値処理(ST)等の連続プロセス及び相関による変数ランク付けより優れている。計算上の負担はこうした単純な技法より大きいが、この方法は、SVMのような強力な連続アルゴリズムと比べて遜色がない。それでも、n=O(1014)である次元の非常に高いデータセットを処理することは、一般に、専用の数値計算技法がなければ、行列ベースのプロセスでは到底できない。
本発明のモジュール性及び教師あり領域(スパースLDA)から教師なし領域(スパースPCA)への移行の容易さ、B=Iのデフォルトの場合。実際に、導出又は実施において、ほとんど修正が必要とされない。その結果、スパースLDAは、スパースPCAの教師なしの場合を自動的に包含する。
実施の形態1.
本発明の実施の形態1は、スペクトル限界を使用して、スパース線形判別分析(LDA)をデータに実施する方法を提供する。スパースLDAは、実用的な組み合わせ最適化問題に対する解を見出すのに使用することができる。
従来技術と対照的に、本発明は、変分固有値限界に基づく離散定式化を使用する。方法は、近似解用に欲張り探索を、完全解用に分枝限定探索を使用して最適スパース判別成分を確定する。
最大化された候補解
図1を使用して、ここで、本発明の実施の形態1によるスパースLDAの実用的な組み合わせ最適化問題に対して予め得られた候補解101を改善する方法100が述べられる。方法に対する入力は、問題の候補解である要素のデータベクトルx101、共分散行列の対A及びB103、並びに、スパースパラメータkである。スパースパラメータkは、最終解ベクトルxハット104の非ゼロ要素又は「基数」の最大の所望の数を示す。
たとえば、データベクトルxの要素は、近似スパースソナー信号、大気信号、生物医学的データ信号、又は投資データ等に相当する。行列A及び行列Bは、それぞれ、クラス間共分散行列及びクラス内共分散行列である。
変分再正規化(variational renormalization)200は、最大化された解ベクトルxハット104を確定するために、入力に従って実施される。図2に示すように、変分再正規化200は、入力データベクトルx101の、最も大きなk個の要素102又は「負荷」を、最も大きな一般化最大固有値201(一般化レイリー商)を有する、対応するk×k主部分行列A及びB203の主固有ベクトルu(A、B)202のk個の要素と置換する。
欲張り探索解
図3は、スパースLDA最適化問題に対する欲張り探索解のステップ300を示す。方法に対する入力は、2つの共分散行列103及びスパーシティパラメータk102である。入れ子式順方向探索400及び逆方向探索500は、基数k、101’〜101’’を有する候補解(複数可)を得るために適用される。これらの2つの候補解から、より大きな分散(最大一般化固有値)を有する解が、最良のもの310と考えられ、出力スパース固有ベクトル(最終解ベクトル)xハット104として選択される。
順方向探索及び逆方向探索
図4は、順方向探索400のステップを示す。この探索において、候補指数(xの要素)のリストは、最初は空であり、「最良の」又は最大極大分散(largest maximum variance)を有する指数が、k指数の設定されたサイズまで、1つずつ付加される。対応する逆方向探索500は、候補指数リストが一杯になった状態で始まり、指数が1つずつ削除される。
完全最適解
図6は、スパースLDA問題に対する完全解600についてのメカニズムを示す。最初に、双方向欲張り法300は、前と同様に、共分散行列103及び所望のスパーシティパラメータk102を提供される。欲張り探索300の出力解は、初期候補解xハット104を提供し、以下でより詳細に述べるように、その分散を、共分散行列103を使用して、分枝限定組み合わせ探索(branch‐and‐bound combinatorial search)610と共に後で使用するための初期上方限界及び固有値限界611として有する。こうして、分枝限定610は、終了すると、完全最適解x601を見出すことを保証される。
本発明の実施の形態を、以下に詳細に述べる。
一般化EVDとしてのスパースLDA
古典的なフィッシャーの判別分析又は線形判別分析(LDA)は、一般化固有値分解(EVD)として定式化することができ、ここで、一対の対称な半正定値行列A,B∈S が与えられ、それぞれ、クラス間共分散行列及びクラス内共分散行列に対応する。
一般化レイリー商:R(x;A,B)=(xAx)/(xBx)(x∈Rで、且つ、Bが正定値である)によって表されるクラス分離性基準を最大にしようとする。この商は、xの大きさに対して不変であるため、2次制約あり2次問題(quadratically constrained quadratic problem)(QCQP)によって問題を再定式化することができる。
max xAx ・・・(2)
Bx=1を条件とする
幸いにも、この問題は、対応するラグランジュ乗数を分化する(differentiate)ことによって得られる閉じた形態の解を有し、行列式特性方程式det(A−λB)=0であるAx=λBxをもたらす。そのため、最適なxは、λの得られる特性多項式の最大ルート(largest root)に相当する固有ベクトル、又は、等価的に、B−1Aの最大固有値である。以降で、固有値ランクが大きさの昇順で示され、したがって、λmin=λ且つλmax=λである。
以下の基数制約ありQCQP、すなわち、
スパースLDA: max xAx ・・・(3)
Bx=1、card(x)=kを条件とする
によってスパースLDA最適化を定義することができる。
ここで、解は、kの非ゼロ要素を有するスパースベクトルx∈Rであり、card(x)は、そのLノルムである。しかし、この最適化問題は非凸であり、NP困難であり、また、一般に手に負えない。
B=Iの特別な場合は、デフォルトで、スパースPCAに等価な標準的な最大分散基数制約ありQPになることに留意されたい。したがって、式(3)のスパースLDAについての本発明者等の戦略は、スパースPCAをも解く。
この等価性を明白にするために、双単射(bijection)y=B1/2xによって誘導された非特異に(non‐singularly)変換された空間内で、この一般化EVDを通常の固有値問題と見なすことは、十分であり、また、有益である。1対1(単射的(injective))と、上に(全射的(surjective))との間に1対1対応が存在する場合で、またその場合にのみ、関数は双単射である。
max yCy ・・・(4)
y=1、card(B−1/2y)=kを条件とする
ここで、C=B−1/2AB−1/2である。基数制約を除いて、これは、新しい対称行列Cによる標準的なレイリー商であり、B−1Aとして同じ固有値を有するが、同じ固有ベクトルを有さない。基数制約がない状態で、この標準的なレイリー商は、解析限界
λmin(C)≦yCy/yy≦λmax(C)
に従う。ここで、B−1Aと違って、新しい行列Cは、構造が対称である(symmetric by construction)。
−1/2yに関する奇の基数制約(odd cardinality constraint)にもかかわらず、上記再定式化は、スパース判別因子を見出すために、従来のスパースPCA法、たとえば、Zou他によるSPCA又はd’Aspremont他によるDSPCAを適合させる有用な方法を提供することができる。本発明者が知る限りでは、この再定式化は過去に述べられていない。
別の、また、おそらくより単純な代替法は、適切にスケーリングされた出力ラベルに関して、フィッシャーの線形判別の等価物を最小2乗回帰に適用し、Lノルムペナルティ項を付加することである。
対照的に、本発明者等は、一般化レイリー商によって定義された最適性を有する、完全且つ最適な判別を見出すという目標によって動機付けられた親出願においてMoghaddam他によって述べられた、同じ離散変分枠組みを使用してスパースLDAに対処する。本発明者等は、行列Cのスペクトル、及び等価的に、逆行列B−1Aのスペクトルが、完全且つ最適なスパースLDA法の設計においてどれほど重要な役割を果たすかを述べる。
最適性条件
最初に、最適解に達するために、真でなければならない条件が考えられる。基数kを有するスパースデータベクトルx∈Rは、最大目標値Rをもたらす。これは、必ず、
Figure 2007317185
であることを意味する。ここで、z∈Rは、ベクトルx内にk個の非ゼロ要素を含み、行列(A,B)は、ベクトルxのゼロ指数に相当する行及び列を削除することによって得られる(A,B)のk×k主部分行列である。これは、非ゼロ指数の行及び列を抽出することと等価である。ベクトルzのk次元2次形態は、標準的な制約なし一般化レイリー商と等価である。この部分問題(sub‐problem)の最大目標値は、λmax(A,B)である。したがって、これは、最適目標値Rでなければならない。本発明者等は、この重要な観測結果を以下の命題において要約する。
命題1
式(3)におけるスパースLDA最適化問題の最適値Rは、λmax(C )に等しい。ここで、
Figure 2007317185
はk×kであり、C は、特に、最大極大一般化固有値を有する1つの部分行列の対である。さらに、最適xの非ゼロ部分ベクトルzは、C の主固有ベクトルνの逆双射に等しい。
=B−1/2 ν、 ν ν=λmax(C ) ・・・(6)
これは、スパースLDAの真の組み合わせ的性質及び等価な基数制約あり最適化問題を表し、最適解を求めることは、本来、k個の指数についての離散探索であり、部分問題(A,B)のλmaxを最大にする。
最適性についてのこうした完全な定義は、例示であり、最適部分問題を実際に見出す効率的な方法が示唆されておらず、全数検索が不足している。全数検索は、候補部分行列が指数関数的に増大するため、n>30については非実用的である。それでも、全数検索は、小さなnについて実行可能な方法であり、小さな実世界データセットについて最適性を保証し、したがって、最適性ギャップによって近似の品質を較正する。さらに、他の方法、たとえば、SVMによって得られる近似因子を改善するための、単純であるが有効な「フィックス(fix)」が示唆される。
命題2
xチルダは、任意の方法によって見出された近似基数kを有する候補解であるとする。zチルダは、xチルダの非ゼロの部分ベクトルであり、νは、xチルダの非ゼロの指数で索引付けされた、(A,B)の主一般化固有ベクトルであるとする。zチルダが、ν(A,B)に等しくない場合、xチルダは最適ではない。しかし、xチルダの非ゼロの要素を、式(6)のνと置換することによって、R(xチルダ,A,B)の増加が保証される。
この変分再正規化は、連続解は、より小さい制約なし部分問題(A,B)を解くためのスパーシティパターンを提供するときにしか役立たないことを示唆する。事実上、因子負荷は、必要であるのに比べてさらに一層最適状態に及ばず、置換されるべきである。実際に、スパースPCAについての「単純閾値処理(simple thresholding)」(ST)の一般的なアドホック技法、すなわち、主固有ベクトルの最も小さな絶対値負荷をゼロにセットし、それを単位ノルムに再正規化することは、この「フィックス」を適用することによって強化されることができる。
スパースLDA用の一般化スペクトル限界
変分固有値限界
Ax=λBxの一般化固有値は、所与の基数kのスパースLDA因子を、主部分行列(A,B)に関連する一般化固有値として定義するときに基本的な役割を果たす。2つの固有値スペクトルは、以下の結果によって関連付けることができる。
理論1 一般化包含原理
行列(A,B)は、一般化スペクトルλ(A,B)を有し、行列Bが正定値であるn×n対称行列であるとする。(A,B)は、k×k主部分行列(A,B)の対応する対であり、k≦nについて、一般化固有値λ(A,B)を有するとする。よって、1≦i≦kについて、
λ(A,B)≦λ(A,B)≦λi+1(A,B) ・・・(7)
である。
後述する付録Aに証明が与えられる。証明は、クーラント−フィッシャーの「Min−Max」理論の変分形態で、基数kのスパーシティパターンを、付加的な部分空間直交制約として課すことによって導出されるオリジナルの非一般化固有値包含原理についてのより基本的な証明の拡張である。
換言すれば、(A,B)の一般化固有値は、全ての主部分行列(A,B)の一般化固有値について上方限界及び下方限界を形成する。したがって、(A,B)及び(Am+1,Bm+1)のスペクトルは、互いにインタレースし、より大きな行列対の固有値は、より小さい行列対の固有値を「ブラケット表示する(bracketing)」。よく知られている固有値「インタレーシング」特性は、k=n−1である基本包含原理から生じる。
正定値対称行列(共分散)について、新しい変数を付加することによってAをAm+1に拡大させることは、常にスペクトル範囲を拡大する。すなわち、λminを減少させ、λmaxを増加させる。この単調性特性は、以下で述べるように、欲張り且つ、完全な組み合わせプロセスにとって、理論的であると共に実用的な重要な結果を有する。スパースLDAの解は、一般化レイリー商を最大にしようとするため、式(7)の関連不等式はi=kとなり、したがって、包含限界
λ(A,B)≦λmax(A,B)≦λn(A,B) ・・・(8)
をもたらし、包含限界が示すところでは、(A,B)のk番目の最も小さい一般化固有値は、基数kを有するスパースLDAのクラス分離性基準について下方限界である。固有値限界λ(A,B)はまた、種々の予測的枝刈り技法(predictive pruning technique)によって分枝限定探索を迅速化するのに役立つ。
式(8)の右側不等式は、全てのkについての、一定の、緩いことが多い、上方限界λmax(A,B)であることに留意する。しかし、分枝限定プロセスは概して、中間部分問題と協働し、探索木のほとんどの枝を最終的に推測する(fathom)、より厳密な限界を有するより小さな部分行列に必ず遭遇することになる。
組み合わせ最適化
離散定式化及び一般化包含原理を考慮すると、分枝限定等の、従来の2値整数計画(binary integer programming)(IP)技法は、スパースLDAに理想的に適している。
変数減少のような欲張り技法もまた、連続的な入れ子式の部分行列及びその「ブラケット表示する」固有値の単調な性質を利用することができる。
全指数セットI={1,2,…,n}で始めて、k個の要素だけが残るまで、最大λmax(A/j,B/j)をもたらす変数jを順次削除する。小さい基数k≪nの場合、逆方向探索の計算コストは、ほぼ最大計算量(complexity)≒O(n)まで増大する可能性がある。そのため、変数増加が好ましいことが多い。ゼロ指数セットI={}で始めて、k個の要素が選択されるまで、最大λmax(A+j,B+j)をもたらす変数jを順次付加する。順方向探索は、最悪の場合、計算量<O(n)となる。強力な欲張り戦略は、双方向探索である。すなわち、前向きパスを1からnまで実施し、次に、第2の独立した後向きパスをnから1まで実施し、各kにおいて、よりよい解を選択する。本発明者等は、この2重パスアルゴリズムを、欲張りスパースLDA又はGSLDAと呼ぶ。
準最適な欲張り探索の有用性にもかかわらず、小さな最適性ギャップでさえもが損失の大きい診断の失敗をもたらす可能性がある。生物情報学のような重要な応用領域において、スパースLDA問題がある場合には特に、最適解戦略を提供することがやはり価値がある。本発明者等の分枝限定は、縦型探索用のFIFOキュー内の全ての能動的部分問題について、計算に効率的な限界、本発明者等の場合、べき乗法によって計算可能な式(8)の上方限界によるものである。式(8)の下方限界は、より効率的な最良優先探索について、キューをソートするのに使用することができる。ESLDAと呼ぶ、本発明者等の完全スパースLDA法は、最適判別で終了することが保証される。
本来、全探索時間は、分枝限定初期化における開始候補の品質に依存する。本発明者等の2重パス欲張り探索(GSLDA)によって見出された解は、その一般化レイリー商が通常、準最適であるため、ESLDAを初期化するのに理想的である。実際のやり方では、一般化固有値限界(generalized eigenvalue bound)に基づくプリセットされた閾値を、所望の解での初期の、また、早期の終了について使用することができる。
スパースLDA用の一般化スペクトル限界
詳しい評価の後、本発明者等が見出したところでは、最も費用効果的な戦略は、最初に、GSLDA、又は少なくとも前向きパスを実施し、次に、その準最適判別で我慢するか、そうでなければ、この判別を使用して、最適判別を求めて分枝限定探索のためにESLDAを初期化することである。全GSLDAは、全ての基数について準最適解を与えるというさらなる利益を持っており、実行時間は通常、最も連続的な方法、たとえばSVMによって単一のk近似を見出すのに比べて要求の厳しさがずっと低い。
本発明は、好ましい実施の形態の例によって述べられたが、本発明の精神及び範囲内で、種々の他の適応及び修正が行われてもよいことが理解される。したがって、本発明の真の精神及び範囲内に入る全てのこうした変形及び修正を包含することが、添付特許請求の範囲の目的である。
付録A
本発明は、標準的な固有値包含原理の基本証明を、クーラント−フィッシャーの「Min−Max」理論を使用したAx=λBxの一般化EVDに拡張し、一般化EVDは、代わりに一般化レイリー商(xAx=xBx)に適用される。
対称行列の対A,Bが与えられる場合、λ(A,B)(j=1,…,n)が、昇順でランク付けされた一般化固有値であるとする。主要な結果は、以下の固有値不等式を確立する。
λ(A,B)≦λ(A,B)≦λj+n−k(A,B) ・・・(9)
ここで、λ(A,B)は、(A,B)の対応する主部分行列の一般化固有値である。クーラント−フィッシャーの「Min−Max」理論によって、(A,B)の一般化固有値は、変分形態
Figure 2007317185
を満たす。ここで、S は、Rの任意のj次元部分空間を示す。同じ変分形態は、(A,B)の一般化固有値について独立に成り立つ。
Figure 2007317185
ここで、S は、Rの任意のj次元部分空間を示す。次に、直和
Figure 2007317185
によって形成される「スパースな」j次元部分空間S が定義される。「スパースな」j次元部分空間S は、定義によれば、
Figure 2007317185
によって与えられる全てのベクトルxを含む。
ここで、式(9)のl.h.s.不等式が導出される。式(10)の変分等式から始まる(A,B)の固有値についての下方限界は、
Figure 2007317185
である。ここで、第2行では、x∈S の部分空間は、x∈S ∩S に限定され、制約の付加によって、最小化式をさらに減らすことができないため不等式が得られる。第3行は、S の先行(leading)k次元部分ベクトルとしてのzの定義によって導かれ、最後の行は、式(11)から導かれる。
λ(A,B)に関する上方限界、式(9)のr.h.s.は、レイリー商の否定に関して、この同じ完全導出を使用することによって見出される。証明は、固有値が、指数の置換に対して不変であることを示すことによって終了する。したがって、導出された限界は、先行部分行列だけではなく(A,B)のあらゆる主部分行列に当てはまる。
本発明の実施の形態1によるスパースLDAを使用する組み合わせ最適化問題に対する最大化された候補解のブロック図である。 本発明の実施の形態1によるスパースLDA用の変分正規化手順のブロック図である。 本発明の実施の形態1による組み合わせ最適化問題に対する欲張り解のブロック図である。 本発明の実施の形態1による欲張り解についての順方向探索のブロック図である。 本発明の実施の形態1による欲張り解についての逆方向探索のブロック図である。 本発明の実施の形態1による組み合わせ最適化問題に対する完全解のブロック図である。

Claims (13)

  1. スパース線形判別分析の基数制約あり組み合わせ最適化問題に対する候補解を最大にする、コンピュータによって実施される方法であって、
    kの非ゼロ要素を有する候補スパース解ベクトルx、分類される入力データのクラス間共分散及びクラス内共分散を測定する共分散行列の対A,B、最終解ベクトルの所望の基数を示すスパーシティパラメータkを入力するステップと、
    前記共分散行列の対A,B及び前記スパーシティパラメータkに関して、前記候補スパース解ベクトルxの変分再正規化を実施するステップであって、それによって、前記スパーシティパラメータk及び前記候補スパース解ベクトルxのゼロパターンについて局所的に最適であり、前記スパース線形判別分析の最適化問題についての最終解ベクトルである、基数kを有する分散最大化判別固有ベクトルxハットを得る、実施するステップと
    を含む、スパース線形判別分析の基数制約あり組み合わせ最適化問題に対する候補解を最大にする、コンピュータによって実施される方法。
  2. 前記変分再正規化は、
    前記候補スパース解ベクトルxの最も大きなkの要素を、前記共分散行列の対A,Bの対応する対のk×k主部分行列A,Bの主一般化固有ベクトルu(A,B)のkの要素と置換すること、及び
    前記候補スパース解ベクトルxの全ての他の要素をゼロにセットすることであって、それによって、k−スパースの前記分散最大化判別固有ベクトルxハットを得る、セットすること
    を含む、請求項1に記載のスパース線形判別分析の基数制約あり組み合わせ最適化問題に対する候補解を最大にする、コンピュータによって実施される方法。
  3. 前記共分散行列の対A,Bの行及び列から、前記k×k主部分行列A,Bを抽出することをさらに含む、請求項2に記載のスパース線形判別分析の基数制約あり組み合わせ最適化問題に対する候補解を最大にする、コンピュータによって実施される方法。
  4. k−スパースの前記分散最大化判別固有ベクトルxハットのkの非ゼロ値は、前記k×k主部分行列A,Bの最大固有値に相当する、主一般化固有ベクトルu のkのエントリに完全に等しい、請求項2に記載のスパース線形判別分析の基数制約あり組み合わせ最適化問題に対する候補解を最大にする、コンピュータによって実施される方法。
  5. 前記要素は、前記入力データの実質的に大きなプールから選択された比較的小さい数の前記入力データである、請求項1に記載のスパース線形判別分析の基数制約あり組み合わせ最適化問題に対する候補解を最大にする、コンピュータによって実施される方法。
  6. 前記スパーシティパラメータkは、一般化されたk−スパースの前記分散最大化判別固有ベクトルxハットについて、最小要求一般化レイリー商に大きさが最も近い、前記共分散行列の対A,Bの一般化固有値のランクに少なくとも等しい、請求項1に記載のスパース線形判別分析の基数制約あり組み合わせ最適化問題に対する候補解を最大にする、コンピュータによって実施される方法。
  7. スパース線形判別分析の基数制約あり組み合わせ最適化問題を解くためのコンピュータによって実施される方法であって、
    スパース線形判別分析最適化問題について、データのクラス間共分散及びクラス内共分散を測定する共分散行列の対A,B、及びスパーシティパラメータkを入力するステップと、
    欲張り探索を実施するステップであって、それによって、最終解ベクトルを得る、実施するステップと
    を含む、スパース線形判別分析の基数制約あり組み合わせ最適化問題を解くためのコンピュータによって実施される方法。
  8. 前記欲張り探索は、順方向探索及び独立した逆方向探索を含む双方向入れ子式探索を含み、前記方法は、前記スパーシティパラメータkについて、分散最大化k−スパース固有ベクトルとして前記順方向探索又は前記逆方向探索のいずれかから最良スパース固有ベクトルを別々に選択することをさらに含む、請求項7に記載のスパース線形判別分析の基数制約あり組み合わせ最適化問題を解くためのコンピュータによって実施される方法。
  9. スパース線形判別分析の基数制約あり組み合わせ最適化問題を解くためのコンピュータによって実施される方法であって、
    スパース線形判別分析最適化問題について、入力データのクラス間共分散及びクラス内共分散を測定する共分散行列の対A,B、及びスパーシティパラメータkを入力するステップと、
    要素の候補解ベクトルxを提供するステップと、
    前記候補解ベクトルxを使用して、分枝限定組み合わせ探索を適用するステップであって、それによって、前記共分散行列の対A,B、及び前記スパーシティパラメータkによって定義される前記基数制約あり組み合わせ最適化問題について、大局的に最適且つ完全な解ベクトルxを得る、適用するステップと
    を含む、スパース線形判別分析の基数制約あり組み合わせ最適化問題を解くためのコンピュータによって実施される方法。
  10. 前記候補解は、欲張り探索の結果であり、前記欲張り探索についての前記入力データは、前記共分散行列の対A、B及び前記スパーシティパラメータkである、請求項9に記載のスパース線形判別分析の基数制約あり組み合わせ最適化問題を解くためのコンピュータによって実施される方法。
  11. 前記分枝限定組み合わせ探索は、探索木において、部分問題分岐経路の枝刈りをするための一般化固有値限界を使用する、請求項9に記載のスパース線形判別分析の基数制約あり組み合わせ最適化問題を解くためのコンピュータによって実施される方法。
  12. 前記スパーシティパラメータkは、最大化k−スパース一般化固有ベクトルxハットについて、最小要求分散に大きさが最も近い、前記共分散行列の対A,Bの一般化固有値のランクに少なくとも等しい、請求項9に記載のスパース線形判別分析の基数制約あり組み合わせ最適化問題を解くためのコンピュータによって実施される方法。
  13. 前記行列Bは、主成分分析を実施するための単位行列である、請求項1に記載のスパース線形判別分析の基数制約あり組み合わせ最適化問題に対する候補解を最大にする、コンピュータによって実施される方法。
JP2007126896A 2006-05-25 2007-05-11 スパース線形判別分析(sparselineardiscriminantanalysis)のためのスペクトル法 Pending JP2007317185A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/440,825 US20070122041A1 (en) 2005-11-29 2006-05-25 Spectral method for sparse linear discriminant analysis

Publications (1)

Publication Number Publication Date
JP2007317185A true JP2007317185A (ja) 2007-12-06

Family

ID=38850949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007126896A Pending JP2007317185A (ja) 2006-05-25 2007-05-11 スパース線形判別分析(sparselineardiscriminantanalysis)のためのスペクトル法

Country Status (1)

Country Link
JP (1) JP2007317185A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010191564A (ja) * 2009-02-17 2010-09-02 Sharp Corp 特性解析方法および装置、特性分類方法および装置、上記特性解析方法または特性分類方法をコンピュータに実行させるためのプログラム、上記プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2011097570A (ja) * 2009-10-30 2011-05-12 Mitsubishi Electric Research Laboratories Inc 欲張り探索を使用して符号測定値からスパース信号を再構築する方法
JP2013506919A (ja) * 2009-10-02 2013-02-28 クゥアルコム・インコーポレイテッド オクルージョン耐性のある顔認識のための方法およびシステム
WO2019181347A1 (ja) * 2018-03-22 2019-09-26 日本電信電話株式会社 最適解探索装置、最適解探索方法及びプログラム
CN113541650A (zh) * 2021-06-23 2021-10-22 苏州大学 稀疏线性约束递归最大相关熵自适应滤波器
EP3968240A1 (en) 2020-09-11 2022-03-16 Fujitsu Limited Information processing system, information processing method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010191564A (ja) * 2009-02-17 2010-09-02 Sharp Corp 特性解析方法および装置、特性分類方法および装置、上記特性解析方法または特性分類方法をコンピュータに実行させるためのプログラム、上記プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2013506919A (ja) * 2009-10-02 2013-02-28 クゥアルコム・インコーポレイテッド オクルージョン耐性のある顔認識のための方法およびシステム
JP2011097570A (ja) * 2009-10-30 2011-05-12 Mitsubishi Electric Research Laboratories Inc 欲張り探索を使用して符号測定値からスパース信号を再構築する方法
WO2019181347A1 (ja) * 2018-03-22 2019-09-26 日本電信電話株式会社 最適解探索装置、最適解探索方法及びプログラム
EP3968240A1 (en) 2020-09-11 2022-03-16 Fujitsu Limited Information processing system, information processing method, and program
CN113541650A (zh) * 2021-06-23 2021-10-22 苏州大学 稀疏线性约束递归最大相关熵自适应滤波器
CN113541650B (zh) * 2021-06-23 2024-03-15 苏州大学 稀疏线性约束递归最大相关熵自适应滤波器

Similar Documents

Publication Publication Date Title
Zhou et al. Regularized matrix regression
Guyon et al. Model selection: beyond the bayesian/frequentist divide.
US20070122041A1 (en) Spectral method for sparse linear discriminant analysis
Joachims Transductive learning via spectral graph partitioning
Bermejo et al. Oriented principal component analysis for large margin classifiers
EP1393196A1 (en) Kernels and methods for selecting kernels for use in learning machines
US20070156471A1 (en) Spectral method for sparse principal component analysis
Trendafilov et al. DALASS: Variable selection in discriminant analysis via the LASSO
Reza et al. ICA and PCA integrated feature extraction for classification
Ding et al. Tensor sliced inverse regression
Rozza et al. Novel Fisher discriminant classifiers
JP2007317185A (ja) スパース線形判別分析(sparselineardiscriminantanalysis)のためのスペクトル法
Han et al. l0-norm based structural sparse least square regression for feature selection
Diaf et al. Non-parametric Fisher’s discriminant analysis with kernels for data classification
Araújo et al. Self-organizing subspace clustering for high-dimensional and multi-view data
Shi et al. Personalized pca: Decoupling shared and unique features
Gao et al. LinCDE: conditional density estimation via Lindsey's method
Bozorgtabar et al. Comparison of different PCA based face recognition algorithms using genetic programming
Bouveyron et al. Probabilistic Fisher discriminant analysis: A robust and flexible alternative to Fisher discriminant analysis
Li et al. Deep manifold transformation for nonlinear dimensionality reduction
Qin et al. Distribution preserving-based deep semi-NMF for data representation
Xu et al. Semi-supervised feature selection by mutual information based on kernel density estimation
Zhao et al. Distance metric learning based on the class center and nearest neighbor relationship
Huang et al. RETRACTED ARTICLE: Sparse tensor CCA for color face recognition
He et al. Kernel conditional clustering