JP2010176368A - コンデンスドsvm - Google Patents

コンデンスドsvm Download PDF

Info

Publication number
JP2010176368A
JP2010176368A JP2009018011A JP2009018011A JP2010176368A JP 2010176368 A JP2010176368 A JP 2010176368A JP 2009018011 A JP2009018011 A JP 2009018011A JP 2009018011 A JP2009018011 A JP 2009018011A JP 2010176368 A JP2010176368 A JP 2010176368A
Authority
JP
Japan
Prior art keywords
training data
svm
training
stage
condensed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009018011A
Other languages
English (en)
Other versions
JP5291478B2 (ja
Inventor
Duc Dung Nguyen
ズンデュック グエン
Kazunori Matsumoto
一則 松本
Yasuhiro Takishima
康弘 滝嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2009018011A priority Critical patent/JP5291478B2/ja
Priority to US12/692,965 priority patent/US8521660B2/en
Publication of JP2010176368A publication Critical patent/JP2010176368A/ja
Application granted granted Critical
Publication of JP5291478B2 publication Critical patent/JP5291478B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Complex Calculations (AREA)

Abstract

【課題】大量の訓練データを用い、かつ高速で学習できるコンデンスドSVMを提供する。
【解決手段】第1ステージWS選択部3は、訓練データDB1から複数個の訓練データをサンプリングし、その中の最適訓練ベクトルxを選択し、WS管理部5に出力する。第2ステージWS選択部4は、第1ステージの終了後、前記訓練DB1から訓練データを1個ずつ取り出し、最適性を満足する訓練データxを選択してWS管理部5に出力する。SVM最適化処理部6は、WS管理部5で管理されているWS中から前記第1、第2ステージWS選択部3,4で選択された訓練データxに最も近い距離の訓練データを抽出し、該距離が予め定められた値より小さい場合に該第1、第2の2個の訓練データを1個の訓練データに凝縮(コンデンス)する。
【選択図】図1

Description

本発明は多くの対象物をそれらの多数の特徴に基づいて分類するSVM(サポートベクトルマシン)に関し、特に収集された大量のデータを用いて高速で訓練するコンデンスドSVM(Condensed SVM)に関する。
SVMを学習する主要なタスクは、−1と+1のラベルyをもつ訓練用データx(ここに、i=1,2,・・・,I)が与えられた場合に、次の(1)式の制約二次計画問題(QP問題)を解くことである。
Figure 2010176368
ここに、K(x,x)は、ある特徴空間上の二つのベクトルxとx間の内積を計算するカーネル関数であり、C(i=1,2,・・・,I)は前記与えられた訓練用データ中のノイズの入った訓練用データにペナルティを課すパラメータである。
さて、上記の問題を解くことは、前記訓練用データの数Iが大きくなると、次のような問題が起きてくる。
1)カーネルマトリックスKij=K(x,x)、(ここに、i,j=1,2,・・・,I)を蓄積するメモリの容量の問題。カーネルマトリックスのデータ量は、通常のコンピュータのメモリ容量を直ぐに超えてしまうという問題がある。
2)カーネル値Kij(i,j=1,2,・・・,I)をコンピュータで計算するのが複雑であるという問題。
3)QP問題をコンピュータで解くのが複雑であるという問題。
テストフェーズでは、SVMの決定関数f(x)は(2)式で表され、サポートベクトル(SV)と呼ばれるNs個の訓練用データx(i=1,2,・・・,Ns)から構成される。
Figure 2010176368
前記SVMの決定関数f(x)の複雑度は、サポートベクトルの個数Nsが増えると共に線形的に増大する。この個数が大きくなると、テストフェーズでのSVMの速度は、カーネル値K(x,x)(i=1,2,・・・,Ns)の計算量が増大するために遅くなる。
そこで、従来から、訓練及びテスト両フェーズにおけるサポートベクトル学習の拡張性を改善するために、次の種々の方式が提案されている。
1.分解アルゴリズム(Decomposition Algorithms)(下記の非特許文献2,3,4および5)
分解方法は、当初のQPを一連のはるかに小さいQPに分解し、その後、これらのサブ問題を最適化する。訓練用データは能動ベクトル群と非能動ベクトル群の2つに分けられる。能動ベクトル群又はワーキングセットでは、係数αが更新されることができる。一方、非能動ベクトル群では、係数αは一時的に固定される。最適化アルゴリズムは、全データでなく少数の仕事用データで作動する。このため、メモリ容量が2乗で増加し、コンピュータの複雑さが3乗で増すという問題は回避される。各最適化ループにおいて、仕事用データは新しいSVM解を見つけるために更新される。処理の訓練(学習)は、最適の条件が満たされると終了する。
2.並行方式(Parallelization)(下記の非特許文献6および7)
SVMの訓練速度は並列コンピュータで動作する並列アルゴリズムを用いて効果的に改善することができる。
3.データサンプリング(下記の非特許文献8,9および10)
重要な訓練データを選択するための色々な方式が最適化問題(1)のサイズを低減するために提案されている。少量のデータから学習されたSVMは多くのケースにおいて良好な成果を果たすことができる。
4.SVM簡単化のための低減セット方法(下記の非特許文献11および12)
テストフェーズでのSVMを高速化するために、低減セット方法は、Ns個のSVを有するSVM決定関数(2式参照)を、低減ベクトルと呼ばれるNz個のベクトル(Nz<<Ns)からなる簡単化されたSVM決定関数で置換する。この低減セット方法は、従来のSVMと同様の成果を果たす簡単化されたSVMを生成できることが実際に示されている。
C. Cortes and V. Vapnik, "Supportvector networks," Machine Learning, vol. 20, pp. 273-297, 1995. E. Osuna, R. Freund, and F.Girosi, "An improved training algorithm for support vector machines,"in Neural Networks for Signal Processing VII - Proceedings of the 1997 IEEEWorkshop, N. M. J. Principe, L. Gile and E. Wilson, Eds., New York, pp.276-285, 1997. T. Joachims, "Makinglarge-scale support vector machine learning practical," in Advances inKernel Methods: Support Vector Machines, A. S. B. Scholkopf, C. Burges, Ed.,MIT Press, Cambridge, MA, 1998 J. Platt, "Fast training ofsupport vector machines using sequential minimal optimization," inAdvances in Kernel Methods - Support Vector Learning, B. Scholkopf, C. J. C.Burges, and A. J. Smola, Eds., Cambridge, MA: MIT Press, 1999. Duc Dung Nguyen; Matsumoto, K.;Takishima, Y.; Hashimoto, K.; Terabe, M., "Two-stage incremental workingset selection for fast support vector training on large datasets," Research,Innovation and Vision for the Future, 2008. RIVF 2008. IEEE InternationalConference on , vol., no., pp.221-226, 13-17 July 2008. R. Collobert, S. Bengio, and Y.Bengio, "A parallel mixture of svms for very large scale problems,"Neural Computation, vol. 14, no. 5, pp. 1105 1114, 2002. G. H. Peter, C. Eric, B. L eon,D. Igor, and V. Vladimir, "Parallel support vector machines: The CascadeSVM," in Advances in Neural Information Processing Systems, L. Saul, Y.Weiss, and L. Bottou, Eds., vol. 17. MIT Press, 2005. Y.-J. Lee and O. L. Mangasarian,"Rsvm: Reduced support vector machines," in Proceedings of the FirstSIAM International Conference on Data Mining. Morgan Kaufmann, San Francisco,CA, 2001. A. Bordes, S. Ertekin, J. Weston,and L. Bottou, "Fast kernel classifiers with online and activelearning," Journal of Machine Learning Research, vol. 6, pp. 1579 1619,2005. I. W. Tsang, J. T. Kwok, andP.-M. Cheung, "Core vector machines: Fast svm training on very large datasets," J. Mach. Learn. Res., vol. 6, pp. 363 392, 2005. C. J. C. Burges,"Simplified support vector decision rules," in Proc. 13thInternational Conference on Machine Learning, San Mateo, CA, 1996, pp. 71 77. Nguyen, D.D., Ho, T.B.. ABottom-up Method for Simplifying Support Vector Solutions, IEEE Transactions onNeural Networks, Vol.17, No. 3, 792-796, 2006.
前記の各方式には、次のような課題がある。
1.分解アルゴリズム
大量のデータ(例えば、100,000個より多い訓練データ)で動作すると、収束速度が遅くなる。コンピュータの複雑さはサポートベクトル数の3乗で増加し、また、メモリ容量はサポートベクトル数の2乗で増大する。
2.並列処理
通信コストが適当になるようにアルゴリズムを設計すると、コンピュータの計算力とカーネル処理にまだ問題がある。さらに、並行化による最適化の速度を改良することは、計算ステップ間の依存性のために困難である。
3.データサンプリング
この処理の最大の問題は、限定された情報(訓練データ)のみが最適化に使われるために、訓練されたSVMに劣化が生じることである。さらに、実使用時に適当なサンプリング方式を選択するのが困難である。
4.SVM簡単化のための低減セット方法
低減セット方法はSVMが訓練アルゴリズムによって既に訓練されており、そのタスクはそのマシンを再訓練するという仮定の下で動作する。さらに、簡単化されたSVMを再訓練することおよび(d+1)Nz変数(dは訓練ベクトルの次数)の関数を最小化することが要求される。これは、特に低減ベクトルNzの個数が大きいときには、簡単なタスクではない。
本発明の目的は、大量の訓練データを用い、かつ高速で学習できるコンデンスドSVMを提供することにある。
前記した目的を達成するために、本発明は、多数の訓練データを有する訓練データベースと、該訓練データベースから複数個の訓練データを選択し、その中から1個の最適訓練ベクトルを求める手順を繰り返し行う第1ステージワーキングセット(WS)選択部と、第1ステージの終了後、前記訓練データベース中の訓練データを1個ずつ取り出し、最適性を満足する訓練データを選択する第2ステージワーキングセット(WS)選択部と、前記第1、第2ステージWS選択部で選択された訓練データを管理するワーキングセット(WS)管理部と、前記第1、第2ステージWS選択部で選択された第1の訓練データに最も近い距離の第2の訓練データを、前記WS管理部で管理されているWS中から抽出し、前記第1、第2の訓練データの距離が予め定められた値より小さい場合に該第1、第2の2個の訓練データを1個の訓練データに凝縮する手段を有するSVM最適化処理部とを具備した点に第1の特徴がある。
また、本発明は、前記SVM最適化処理部は、さらに、前記第1、第2の訓練データの距離が前記予め定められた値より大きい場合に、前記WS中に非サポートデータが存在するかどうかを検査し、存在する場合には該非サポートデータを削除する点に第2の特徴がある。
さらに、本発明は、前記SVM最適化処理部は、さらに、前記WS中に非サポートデータが存在しない場合に、該WSに前記第1の訓練データを加える点に第3の特徴がある。
本発明によれば、距離の最も近い2個の訓練データは1個の訓練データに凝縮(統合)されるので、訓練データの個数が増加しても、サポートベクトルの個数は大して増加しない。よって、少量のサポートベクトルでSVMを学習させることができるので、大量の訓練データを用いても高速で学習できるコンデンスドSVMを提供することができる。
また、前記距離の最も近い2個の訓練データが予め定められた値より大きい場合には、WS中に非サポートベクトルがあるかどうかを検査し、非サポートベクトルがある場合には該非サポートベクトルをWSから削除するので、WSが大して増大しない。よって、大量の訓練データを用いても、高速でSVMを学習させることができる。
また、サポートベクトルの個数やWSが大して増大しないので、SVMのメモリ容量を大きくすることなく大量の訓練データを用いてSVMを学習させることができる。
以下に、図面を参照して、本発明を詳細に説明する。図1は、本発明のコンデンスド(凝縮)SVMの概略の構成を示すブロック図である。
図示されているように、コンデンスドSVMは、訓練データ(又は、事例)DB(データベース)1と、SVM解の初期化部2と、第1ステージWS(ワーキングセット)選択部3と、第2ステージWS(ワーキングセット)選択部4と、WS管理部5と、SVM最適化処理部(SVM Optimizer)6とから構成される。
前記訓練データDB1は、好ましくは正解事例の訓練データからなる。初期化部2では、SVM解が初期化される。
第1ステージWS選択部3では、図2のフローチャートに示す機能が行われる。ステップS1では、訓練データDB1からm個の訓練データx(k=1,2,・・・,m)をサンプリングし、該サンプリングしたm個の訓練データxから訓練データ集合Sを形成する。ステップS2では、該訓練データ集合Sの中から一時SVM解(temporal SVMsolution)に関しての最適訓練データ(ベクトル)xを求める。最適訓練データ(ベクトル)xは次の式から求めることができる。
Figure 2010176368
上記式中のyは+1または−1のラベル値を示し、f(x)は訓練データxのSVM解を示す。
次いで、ステップS3に進み、前記最適訓練データxの最適性を、最適訓練データxが条件{y−f(x)}>0を満たすかどうかによりチェックする。この条件が満たされればステップS4に進んで該最適訓練データxをWS管理部5に出力する。一方、該条件が満たされなければ、ステップS1に戻って、訓練データDB1から新たなm個の訓練データx(k=1,2,・・・,m)をサンプリングし、前記したのと同じ動作を繰り返す。以上のように、第1ステージWS選択部3からは、最適訓練データ(ベクトル)xが1個ずつ出力される。
次に、WS管理部5は第1、第2ステージWS選択部3,4から、最適性をチェックされた最適訓練データ(ベクトル)xを受け取り、一時WS(temporal working set)を更新する。なお、第2ステージWS選択部4の動作は後述する。
次に、更新された一時WSは、SVM最適化処理部6に送られる。該SVM最適化処理部6の機能を、図3のフローチャートを参照して説明する。
ステップS11では、WS管理部5から、新訓練ベクトルxと一時ワーキングセットB(以下、単にBと記す)とを受け取る。ここにBは、図1の装置が継続されて動作したことにより得られた訓練ベクトルxの集積である。ステップS12では、Bの中から新訓練ベクトルxと最も距離の近いベクトルxを見つける。ステップS13では、ベクトルxがコンデンス(凝縮)基準を満たしているかどうかの判定をする。具体的には、ベクトルxとベクトルxとの距離が予め定めた値θより小さいかどうかの判定がなされる。この判定が肯定の場合にはステップS14に進んで、ベクトルxがベクトルxに凝縮(統合)される。この結果、Bのサイズは増加することはないので、変化しない。
前記凝縮(統合)の仕方の一具体例を図5を参照して説明する。いま、ベクトルxをxに凝縮して凝縮ベクトルzを生成する場合を考えると、この凝縮によりベクトルxとxに対するSVMの決定関数f(x)、f(x)の係数α、αはβに、前記パラメータC,CはDに変えられる。前記凝縮ベクトルz、係数β、およびパラメータDは、次の式により得ることができる。なお、凝縮されないベクトルz〜zはx〜xに等しく、β〜βはα〜αに等しく、D〜DはC〜Cに等しい。
Figure 2010176368
数4の凝縮の式を一般化すると、次の式のように書くことができる。
Figure 2010176368
前記ステップS13が否定の時には、ステップS15に進んで、Bの中に非サポートベクトル(SV)xが存在するか否かの判断がなされる。この判断が肯定の場合にはステップS16に進んで、Bから非サポートベクトルxが除去され、新訓練ベクトルxが加えられる。この結果、Bのサイズは増加することはないので、変化しない。一方、前記判断が否定の時にはステップS17に進んで、Bに新訓練ベクトルxが加えられる。この結果、Bは1個の新訓練ベクトルxだけ増加する。ステップS18では、最適化処理後のワーキングセットBt+1が出力される。また、該ワーキングセットBt+1は、第1、第2ステージWS選択部3,4へフィードバックされる。
上記の一連の動作、つまり第1ステージの動作の概要は、図6のように表すことができる。図6中のTは訓練ベクトルの総数、つまりT={(x,y)}、y=±1,(i=1,2,・・・・,l)である。
図6から明らかなように、該第1ステージでは、ワーキングセットBは最小の値から始めて漸増的に作成される。各最適化ループにおいて、一つの訓練ベクトルがBを更新するために選ばれ、新しいSVM解ft+1が見つけられる。この新しいSVM解は、一つの新しい訓練ベクトルを選択するために、次のサイクルで使用される。
の漸増の構成は、最適化アルゴリズムが重要な訓練ベクトル上でのみ働くことを可能にする。このため、カーネルマトリックスを蓄積するためのメモリ要求を最小にし、カーネルマトリックスと最適化を計算するための計算量を最小にする。
次に、第1ステージWS選択部3は、次の(1)〜(3)の条件の内の1つでも当てはまると、第1ステージWS選択部3の動作は終了し、第2ステージWS選択部4の動作に移行する。
(1)非能動のベクトル(inactive vectors)が空になった場合、つまり図6の「Nt+1」が0になった場合、
(2)現在のワーキングセットBのサイズが予め定められた値より大きくなった場合、
(3)訓練データDB1中の全ての訓練ベクトルが、1回以上第1ステージ選択部3によって選択された場合、
次に、第2ステージWS選択部4の動作を図4のフローチャートを参照して説明する。
ステップS21では、訓練データDB1から1個の訓練ベクトルxを選択する。ステップS22では、前記訓練ベクトルxの最適性を、最適訓練データxが条件{y−f(x)}>0を満たすかどうかによりチェックする。そして、この条件が満たされれば訓練ベクトルxをWS管理部5に出力する。一方、満たされなければステップS21に戻って、次の1個の訓練ベクトルxを選択する。
この第2ステージWS選択部4の動作は、第1ステージで選択されなかったベクトルの全てが1回以上選択され、ステップS22で1回以上チェックされた場合は終了する。
以上のように、本実施形態は2段階方式を採用しており、第1段階では、前記ステップS1でサンプリングされたm個の訓練ベクトルの内の最良のものが選択される。この選択方法は、合理的なコストで良好な準最適SVM解を得ることを目的としている。
第2段階では、全ての訓練データが一つずつ試される。一時的なSVM解に関して最適条件を満たす訓練ベクトルはワーキングセットBを更新するために選択され、最適条件を満たさない訓練ベクトルは廃棄される。この段階は、SVM解を精査し重要でない訓練データを廃棄することを目的とする。
すなわち、第1段階は準最適解を高速に求め、第2段階は該準最適解が存在することを前提にした、高速に解を改善する手法を示すものである。なお、前記第1段階を行わずに最初から第2段階のように、準最適解がない状態から始めると、適切な解に終息する保証が無くなって、通常、学習で得られるSVMのモデルの性能が悪くなる。以上のように、この発明によれば、SVMの訓練時間を短縮することができる。
本発明者が、本発明の効果を確認するために行った実験結果の一例を図7に示す。図7のグラフの横軸は、いずれも訓練データの個数を示す。上段の3つのグラフは、最適化のパラメータ(g、C、θ)を図示のように変えた場合のサポートベクトルSVの個数(number of SV)の変化、中段の3つのグラフは分類性能(test accuracy(%))の変化、および下段の3つのグラフは訓練時間(trainingtime (s))の変化を示す。なお、前記パラメータ(g、C、θ)のgは前記数1の(1)式のカーネル関数K(x,x)として、ガンマカーネル[K(x,x)=exp{−g・(x−x}]を利用する時のパラメータgである。また、Cは前記数1のCであり、θは図3のステップS13のθである。
上段のグラフから、訓練データの個数が増えると、従来方式ではSVの個数が増加するのに対して、本発明方式では殆ど増加しないことが分かる。中段のグラフからは、本発明方式では前記のようにSVの個数が殆ど増加しないにも拘わらず分類性能が従来方式と殆ど同じであることが分かる。また、下段のグラフからは、訓練データの個数が増えると、従来方式では訓練時間が増大するのに対して、本発明方式では殆ど増加しないことが分かる。
本発明のコンデンスドSVMの概略の構成を示すフローチャートである。 図1の第1ステージWS選択部の機能を示すフローチャートである。 図1のSVM最適化処理部の機能を示すフローチャートである。 図1の第2ステージWS選択部の機能を示すフローチャートである。 SVM最適化処理部における訓練ベクトルの凝縮動作の説明図である。 第1ステージの動作の概要を示す説明図である。 本発明方式と従来方式との効果の違いを説明するためのグラフである。
1・・・訓練データDB、2・・・初期化部、3・・・第1ステージWS選択部、4・・・第2ステージWS選択部、5・・・WS管理部、6・・・SVM最適化処理部。

Claims (5)

  1. 多数の訓練データを有する訓練データベースと、
    該訓練データベースから複数個の訓練データを選択し、その中から1個の最適訓練ベクトルを求める手順を繰り返し行う第1ステージワーキングセット(WS)選択部と、
    第1ステージの終了後、前記訓練データベース中の訓練データを1個ずつ取り出し、最適性を満足する訓練データを選択する第2ステージワーキングセット(WS)選択部と、
    前記第1、第2ステージWS選択部で選択された訓練データを管理するワーキングセット(WS)管理部と、
    前記第1、第2ステージWS選択部で選択された第1の訓練データに最も近い距離の第2の訓練データを、前記WS管理部で管理されているWS中から抽出し、前記第1、第2の訓練データの距離が予め定められた値より小さい場合に該第1、第2の2個の訓練データを1個の訓練データに凝縮する手段を有するSVM最適化処理部とを具備してなるコンデンスドSVM。
  2. 請求項1に記載のコンデンスドSVMにおいて、
    前記SVM最適化処理部は、さらに、前記第1、第2の訓練データの距離が前記予め定められた値より大きい場合に、前記WS中に非サポートデータが存在するかどうかを検査し、存在する場合には該非サポートデータを削除することを特徴とするコンデンスドSVM。
  3. 請求項2に記載のコンデンスドSVMにおいて、
    前記SVM最適化処理部は、さらに、前記WS中に非サポートデータが存在しない場合に、該WSに前記第1の訓練データを加えることを特徴とするコンデンスドSVM。
  4. 請求項1ないし3のいずれかに記載のコンデンスドSVMにおいて、
    (1)非能動のベクトル(inactive vectors)が空になった場合、
    (2)現在のワーキングセットBのサイズが予め定められた値より大きくなった場合、
    (3)訓練データDB1中の全ての訓練ベクトルが1回以上第1ステージ選択部3によって選択された場合、
    の内のいずれかの場合に、前記第1ステージWS選択部から第2ステージWS選択部へ移行することを特徴とするコンデンスドSVM。
  5. 請求項1ないし4のいずれかに記載のコンデンスドSVMにおいて、
    前記第1、第2の2個の訓練データを1個の訓練データに凝縮する手段は、該第1、第2の訓練データをx,x、係数をα,αおよびパラメータをC,Cとするとき、凝縮ベクトルz、係数β、およびパラメータDは、次の式で求められることを特徴とするコンデンスドSVM。ここに、Kは、カーネル関数である。
    Figure 2010176368
JP2009018011A 2009-01-29 2009-01-29 コンデンスドsvm Active JP5291478B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009018011A JP5291478B2 (ja) 2009-01-29 2009-01-29 コンデンスドsvm
US12/692,965 US8521660B2 (en) 2009-01-29 2010-01-25 Condensed SVM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009018011A JP5291478B2 (ja) 2009-01-29 2009-01-29 コンデンスドsvm

Publications (2)

Publication Number Publication Date
JP2010176368A true JP2010176368A (ja) 2010-08-12
JP5291478B2 JP5291478B2 (ja) 2013-09-18

Family

ID=42354951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009018011A Active JP5291478B2 (ja) 2009-01-29 2009-01-29 コンデンスドsvm

Country Status (2)

Country Link
US (1) US8521660B2 (ja)
JP (1) JP5291478B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013105377A (ja) * 2011-11-15 2013-05-30 Kddi Corp 学習装置、学習方法、プログラム
JP2013167964A (ja) * 2012-02-14 2013-08-29 Kddi Corp 情報処理装置、情報処理方法、プログラム
JP2014006795A (ja) * 2012-06-26 2014-01-16 Honda Motor Co Ltd 記録可否判定装置、記録可否判定方法、及びプログラム
US9323886B2 (en) 2012-06-26 2016-04-26 Honda Motor Co., Ltd. Performance predicting apparatus, performance predicting method, and program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8538898B2 (en) 2011-05-28 2013-09-17 Microsoft Corporation Interactive framework for name disambiguation
US9489598B2 (en) * 2014-08-26 2016-11-08 Qualcomm Incorporated Systems and methods for object classification, object detection and memory management
US9600231B1 (en) * 2015-03-13 2017-03-21 Amazon Technologies, Inc. Model shrinking for embedded keyword spotting
CN108197396A (zh) * 2018-01-09 2018-06-22 国网福建省电力有限公司 一种基于pso-svm的高压隔离开关过热状态预测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7490071B2 (en) * 2003-08-29 2009-02-10 Oracle Corporation Support vector machines processing system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200800588011; ズン デュック グエン, 他4名: '大規模SVM学習のための2段式逐次ワーキングセット選択手法' Journal of the DBSJ 第7巻, 第1号, 20080627, p.61-66, 日本データベース学会 *
JPN6013009107; ズン デュック グエン, 他4名: '大規模SVM学習のための2段式逐次ワーキングセット選択手法' Journal of the DBSJ 第7巻, 第1号, 20080627, p.61-66, 日本データベース学会 *
JPN6013009109; DucDung Nguyen, et al.: 'A Bottom-Up Method for Simplifying Support Vector Solutions' Neural Networks, IEEE Transactions on vol.17, no.3, 200605, p.792-796 *
JPN6013009111; Tom Downs, et al.: 'Exact Simplification of Support Vector Solutions' Journal of Machine Learning Research vol.2, 200112, p.293-297 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013105377A (ja) * 2011-11-15 2013-05-30 Kddi Corp 学習装置、学習方法、プログラム
JP2013167964A (ja) * 2012-02-14 2013-08-29 Kddi Corp 情報処理装置、情報処理方法、プログラム
JP2014006795A (ja) * 2012-06-26 2014-01-16 Honda Motor Co Ltd 記録可否判定装置、記録可否判定方法、及びプログラム
US9323886B2 (en) 2012-06-26 2016-04-26 Honda Motor Co., Ltd. Performance predicting apparatus, performance predicting method, and program

Also Published As

Publication number Publication date
JP5291478B2 (ja) 2013-09-18
US20100191683A1 (en) 2010-07-29
US8521660B2 (en) 2013-08-27

Similar Documents

Publication Publication Date Title
JP5291478B2 (ja) コンデンスドsvm
Meng et al. A communication-efficient parallel algorithm for decision tree
Wang et al. Neural pruning via growing regularization
Hadian et al. High performance parallel k-means clustering for disk-resident datasets on multi-core CPUs
US11164093B1 (en) Artificial intelligence system incorporating automatic model switching based on model parameter confidence sets
CN104408034B (zh) 一种面向文本大数据的中文分词方法
He et al. Parallel implementation of classification algorithms based on MapReduce
Zhang et al. Autoassist: A framework to accelerate training of deep neural networks
Derakhshan et al. Continuous Deployment of Machine Learning Pipelines.
Cheng et al. Few-shot learning with meta metric learners
Yang et al. Computational intelligence and metaheuristic algorithms with applications
Kauschke et al. Batchwise patching of classifiers
CN109710926A (zh) 电网调度专业语言语义关系抽取方法、装置及电子设备
Trotter et al. Forecasting a storm: Divining optimal configurations using genetic algorithms and supervised learning
Han et al. SlimML: Removing non-critical input data in large-scale iterative machine learning
Alcalde-Barros et al. DPASF: a flink library for streaming data preprocessing
Wang et al. Distributed classification for imbalanced big data in distributed environments
JPWO2012111235A1 (ja) 情報処理装置、情報処理方法及び記憶媒体
CN104698838B (zh) 基于论域动态划分和学习的模糊调度规则挖掘方法
WO2019234802A1 (en) Information processing apparatus, method, and program
Zhan et al. Efficient online hyperparameter optimization for kernel ridge regression with applications to traffic time series prediction
KR102097724B1 (ko) 영상 인식용 cnn에서의 최악망각현상의 완화 방법 및 장치
US20150356455A1 (en) Systems and methods associated with an auto-tuning support vector machine
Song et al. ChainsFormer: A chain latency-aware resource provisioning approach for microservices cluster
Kumar et al. Machine learning solutions for investigating streams data using distributed frameworks: Literature review

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130607

R150 Certificate of patent or registration of utility model

Ref document number: 5291478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150