JP5905734B2 - Method and apparatus for building a support vector machine - Google Patents

Method and apparatus for building a support vector machine Download PDF

Info

Publication number
JP5905734B2
JP5905734B2 JP2012033237A JP2012033237A JP5905734B2 JP 5905734 B2 JP5905734 B2 JP 5905734B2 JP 2012033237 A JP2012033237 A JP 2012033237A JP 2012033237 A JP2012033237 A JP 2012033237A JP 5905734 B2 JP5905734 B2 JP 5905734B2
Authority
JP
Japan
Prior art keywords
learning
support vector
vector machine
common case
case
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012033237A
Other languages
Japanese (ja)
Other versions
JP2013171327A (en
Inventor
一則 松本
一則 松本
小野 智弘
智弘 小野
服部 元
元 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2012033237A priority Critical patent/JP5905734B2/en
Publication of JP2013171327A publication Critical patent/JP2013171327A/en
Application granted granted Critical
Publication of JP5905734B2 publication Critical patent/JP5905734B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)

Description

本発明は複数の判断基準に従って判定を行うサポートベクトルマシン群を効率良く作成する方法及び装置に関し、特に各判定基準が似通っている場合おいて、各判断基準が一致する学習事例から得た初期解を用いて各判断基準を学習することで各判断基準を学習するサポートベクトルマシンを構築する際の演算量の削減を図ることができる方法及び装置に関する。   The present invention relates to a method and apparatus for efficiently creating a support vector machine group that performs a determination according to a plurality of determination criteria, and in particular, when each determination criterion is similar, an initial solution obtained from a learning example in which each determination criterion matches. It is related with the method and apparatus which can aim at reduction of the amount of calculations at the time of constructing | assembling the support vector machine which learns each judgment standard by learning each judgment standard using.

非線形識別の能力を持つサポートベクトルマシン(SVM)は、学習を用いた主として2値分類問題に対応するデータ分類方法である。SVMは未学習データに対する高い汎化性能を持つことから、音声、文字、図形及びパターンの認識といったような種々の判別問題に適用されている。   A support vector machine (SVM) having the capability of nonlinear discrimination is a data classification method mainly corresponding to a binary classification problem using learning. Since SVM has high generalization performance for unlearned data, it is applied to various discrimination problems such as speech, character, figure, and pattern recognition.

非特許文献1や2では、インターネット上にある大量のコンテンツの中から違法・有害な情報を見つけ出すシステムにSVMが応用されている。しかし、判定精度を向上させようとして大量のデータ(例えば、100,000個より多い訓練データ)でSVMを学習すると、大量のメモリを消費したり、収束速度が遅くなる。   In Non-Patent Documents 1 and 2, SVM is applied to a system that finds illegal and harmful information from a large amount of content on the Internet. However, when learning SVM with a large amount of data (for example, more than 100,000 pieces of training data) in an attempt to improve the determination accuracy, a large amount of memory is consumed and the convergence speed is slowed down.

このため、非特許文献3-6といった取り組みでは、精度をできるだけ落とさずにメモリ使用量や処理時間の増加を抑えるための工夫が提案されている。これらの工夫は、2-class 判定問題に対して、SVM学習を効率化することを主眼が置かれている。一方、複数の基準で判定を行うシステムは、2-class判定問題を扱う複数のSVMの組み合わせで実現できることは知られている。   For this reason, in an approach such as Non-Patent Document 3-6, a device for suppressing an increase in memory usage and processing time without reducing accuracy as much as possible has been proposed. These ideas focus on improving the efficiency of SVM learning for the 2-class decision problem. On the other hand, it is known that a system that performs determination based on a plurality of criteria can be realized by a combination of a plurality of SVMs that handle a 2-class determination problem.

K. Ikeda, T. Yanagihara, G. Hattori, K. Matsumoto, and Y. Takishima. Hazardous document detection based on dependency relations and thesaurus. In Australasian Conference on Artificial Intelligence, pages 455-565, 2010.K. Ikeda, T. Yanagihara, G. Hattori, K. Matsumoto, and Y. Takishima. Hazardous document detection based on dependency relations and thesaurus.In Australasian Conference on Artificial Intelligence, pages 455-565, 2010. 松葉達明, 桝井文人, 河合敦夫, 井須尚紀, 里見尚宏, 学校非公式サイトにおける有害情報検出,電子情報通信学会技術研究報告. NLC, 言語理解とコミュニケーション 109(142), 93-98, 2009-07-15Tatsuaki Matsuba, Fumito Sakurai, Ikuo Kawai, Naoki Isu, Naohiro Satomi, Harmful Information Detection in School Informal Sites, IEICE Technical Report. NLC, Language Understanding and Communication 109 (142), 93-98, 2009- 07-15 E. Osuna, R. Freund, and F.Girosi, "An improved training algorithm for support vector machines,"in Neural Networks for Signal Processing VII - Proceedings of the 1997 IEEEWorkshop, N. M. J. Principe, L. Gile and E. Wilson, Eds., New York, pp.276-285, 1997.E. Osuna, R. Freund, and F. Girosi, "An improved training algorithm for support vector machines," in Neural Networks for Signal Processing VII-Proceedings of the 1997 IEEEWorkshop, NMJ Principe, L. Gile and E. Wilson, Eds ., New York, pp.276-285, 1997. T. Joachims, "Makinglarge-scale support vector machine learning practical," in Advances in Kernel Methods: Support Vector Machines, A. S. B. Scholkopf, C. Burges, Ed.,MIT Press, Cambridge, MA, 1998T. Joachims, "Makinglarge-scale support vector machine learning practical," in Advances in Kernel Methods: Support Vector Machines, A. S. B. Scholkopf, C. Burges, Ed., MIT Press, Cambridge, MA, 1998 J. Platt, "Fast training ofsupport vector machines using sequential minimal optimization," inAdvances in Kernel Methods - Support Vector Learning, B. Scholkopf, C. J. C.Burges, and A. J. Smola, Eds., Cambridge, MA: MIT Press, 1999.J. Platt, "Fast training of support vector machines using sequential minimal optimization," inAdvances in Kernel Methods-Support Vector Learning, B. Scholkopf, C. J. C. Burges, and A. J. Smola, Eds., Cambridge, MA: MIT Press, 1999. Duc Dung Nguyen; Matsumoto, K.;Takishima, Y.; Hashimoto, K.; Terabe, M., "Two-stage incremental workingset selection for fast support vector training on large datasets," Research, Innovation and Vision for the Future, 2008. RIVF 2008. IEEE International Conference on , vol., no., pp.221-226, 13-17 July 2008Duc Dung Nguyen; Matsumoto, K.; Takishima, Y .; Hashimoto, K .; Terabe, M., "Two-stage incremental workingset selection for fast support vector training on large datasets," Research, Innovation and Vision for the Future, 2008. RIVF 2008. IEEE International Conference on, vol., No., Pp.221-226, 13-17 July 2008

個々の判断基準に対応する2-class 判定用SVMを組み合わせて、所望の判断基準での判定を得ることができるSVM群を構築する場合、システム構築に必要な学習時間は、個々のSVMの学習時間の総和になる。   When constructing SVM groups that can obtain judgments based on the desired judgment criteria by combining 2-class judgment SVMs corresponding to individual judgment criteria, the learning time required for system construction is the learning time for each SVM. Total time.

非特許文献3−6にあるように個々のSVM学習を効率化することはできる。しかしながら、個々のSVM学習時間の総和より短い時間で、複数の判断基準で判定できるように複数のSVM群をより効率良く構築することは、従来技術では実現できない。   As described in Non-Patent Documents 3-6, individual SVM learning can be made efficient. However, it is not possible with the conventional technology to construct a plurality of SVM groups more efficiently so that the determination can be made with a plurality of determination criteria in a time shorter than the sum of the individual SVM learning times.

上記課題に鑑みて本発明は、各判断基準がある程度似通っている時、複数の判断基準で判定できるように複数のサポートベクトルマシン群を効率良く構築できる、サポートベクトルマシンを構築する方法及び装置を提供することを目的とする。   In view of the above problems, the present invention provides a method and apparatus for constructing a support vector machine capable of efficiently constructing a plurality of support vector machines so that judgments can be made with a plurality of judgment criteria when the judgment criteria are somewhat similar. The purpose is to provide.

上記目的を達成するため本発明は、所与のデータに対するラベル付与において共通事例を有する複数の判断基準につきサポートベクトルマシンを構築する方法であって、前記複数の判断基準のうちの一部分における共通事例でサポートベクトルマシンを学習して当該共通事例に対応する決定関数の係数を求める第一のステップと、前記共通事例につき求められた決定関数の係数を初期値に利用してサポートベクトルマシンを学習することで、前記複数の判断基準のうちの一部分に含まれる判断基準のサポートベクトルマシンを構築する第二のステップと、前記複数の判断基準につき順次前記第一及び第二のステップを繰り返し実行して、前記複数の判断基準の各々に対応するサポートベクトルマシンを構築する第三のステップとを備えることを特徴とする。   To achieve the above object, the present invention provides a method for constructing a support vector machine for a plurality of criteria having a common case in labeling given data, the common case being a part of the plurality of criteria. Learning a support vector machine and learning a support vector machine by using the coefficient of the decision function obtained for the common case as an initial value. A second step of constructing a support vector machine for the judgment criteria included in a part of the plurality of judgment criteria, and the first and second steps are repeatedly executed sequentially for the plurality of judgment criteria. And a third step of constructing a support vector machine corresponding to each of the plurality of determination criteria And features.

また上記目的を達成するため本発明は、所与のデータに対するラベル付与において共通事例を有する複数の判断基準につきサポートベクトルマシンを構築する装置であって、前記複数の判断基準のうちの一部分における共通事例でサポートベクトルマシンを学習して当該共通事例に対応する決定関数の係数を求める共通事例学習部と、前記共通事例につき求められた決定関数の係数を初期値に利用してサポートベクトルマシンを学習することで、前記複数の判断基準のうちの一部分に含まれる判断基準のサポートベクトルマシンを構築する差分事例学習部と、共通事例に基づいて前記複数の判断基準の所定の学習順を設定する学習順設定部とを備え、前記学習順設定部により設定された学習順に従って順次、前記共通事例学習部及び差分事例学習部を適用して、前記複数の判断基準の各々に対応するサポートベクトルマシンを構築することを特徴とする。   In order to achieve the above object, the present invention is an apparatus for constructing a support vector machine for a plurality of judgment criteria having a common case in labeling given data, wherein a common part of the plurality of judgment criteria is shared. Learning a support vector machine in a case and finding a coefficient of a decision function corresponding to the common case, and learning a support vector machine using a coefficient of the decision function obtained for the common case as an initial value A differential case learning unit for constructing a support vector machine for a determination criterion included in a part of the plurality of determination criteria, and learning for setting a predetermined learning order of the plurality of determination criteria based on a common case The common case learning unit and the difference case sequentially according to the learning order set by the learning order setting unit. By applying 習部, characterized by constructing the support vector machine corresponding to each of the plurality of criteria.

本発明によれば、複数の判断基準の間の共通事例に対してサポートベクトルマシンを学習してその決定関数の係数を求めておき、各判断基準に対応するサポートベクトルマシンを構築する際には当該係数を初期値に利用して学習が行われる。この際、当該初期値が構築対象のサポートベクトルマシンの係数に近いために、学習における計算量が削減され、複数のサポートベクトルマシンを構築する際の全体としての計算量が削減される。   According to the present invention, when learning a support vector machine for a common case among a plurality of judgment criteria and obtaining a coefficient of the decision function, and constructing a support vector machine corresponding to each judgment criteria, Learning is performed using the coefficient as an initial value. At this time, since the initial value is close to the coefficient of the support vector machine to be constructed, the amount of calculation in learning is reduced, and the amount of computation as a whole when constructing a plurality of support vector machines is reduced.

本発明の一実施形態に係るサポートベクトルマシンを構築する装置の機能ブロック図である。It is a functional block diagram of an apparatus for constructing a support vector machine according to an embodiment of the present invention. 本発明を例を用いて概念的に説明する図である。It is a figure which illustrates the present invention conceptually using an example. 本発明の一実施形態に係るサポートベクトルマシンを構築する方法のフローチャートである。4 is a flowchart of a method for constructing a support vector machine according to an embodiment of the present invention. 本発明の一実施例を説明するための図である。It is a figure for demonstrating one Example of this invention. 本発明の一実施例を説明するための図である。It is a figure for demonstrating one Example of this invention. 本発明の一実施例を説明するための図である。It is a figure for demonstrating one Example of this invention. 本発明の一実施例を説明するための図である。It is a figure for demonstrating one Example of this invention. 本発明によるSVM構築の処理時間削減の実例を示す図である。It is a figure which shows the actual example of the processing time reduction of SVM construction by this invention. 本発明によるSVM構築の処理時間削減の実例を示す図である。It is a figure which shows the actual example of the processing time reduction of SVM construction by this invention.

図1は、本発明の一実施形態に係るサポートベクトルマシンを構築する装置の機能ブロック図である。サポートベクトルマシンを構築する装置1は、共通事例学習部2、差分事例学習部3及び学習順設定部4を備える。   FIG. 1 is a functional block diagram of an apparatus for constructing a support vector machine according to an embodiment of the present invention. An apparatus 1 for constructing a support vector machine includes a common case learning unit 2, a difference case learning unit 3, and a learning order setting unit 4.

サポートベクトルマシンを構築する装置1は、所定の複数のM個の判断基準を学習するための各学習用データを T1, T2, T3,…,TMとすると、当該各判断基準に対応するM個のサポートベクトルマシンSVM_1,SVM_2,SVM_3,…,SVM_Mを構築する。当該構築されたSVM群によって、任意の入力データにつき当該M個の判断基準の全てにおける判断結果が得られるようになる。当該学習用データは以下の(数1)と表すことができる。 The apparatus 1 for constructing a support vector machine has T 1 , T 2 , T 3 ,..., T M as learning data for learning a predetermined plurality of M judgment criteria. Corresponding M support vector machines SVM_1, SVM_2, SVM_3,..., SVM_M are constructed. The constructed SVM group can obtain the judgment results for all the M judgment criteria for arbitrary input data. The learning data can be expressed as (Equation 1) below.

すなわち、各学習用データTu(u=1,2,…M)は、互いに共通する所与のデータxi(i=1,…l)に対して各判断基準uに対応する2値{−1, +1}のラベルyi uを付与したものとして与えられる。例えば、共通のデータxiは共通のウェブページ群における各ウェブページi(i=1,…l)の所定の特徴量(文書ベクトル等)であって、各判断基準uはそれぞれのウェブページi(i=1,…l)が何らかのジャンルに該当するか否かの基準である。 That is, each learning data Tu (u = 1, 2,... M) is a binary {corresponding to each judgment criterion u with respect to given data x i (i = 1,... L) common to each other. −1, +1} are given as labels y i u . For example, the common data x i is a predetermined feature amount (document vector or the like) of each web page i (i = 1,... L) in the common web page group, and each judgment criterion u is the respective web page i. This is a criterion for determining whether (i = 1,... l) corresponds to any genre.

本発明は各判断基準が似通っている場合、すなわち各判断基準のラベル付与に所定割合で共通事例が存在する場合(例えば、ウェブページの内容がスポーツであるか否かの判断基準とレジャーであるか否かの判断基準となど)に、全てのM個の判断基準を学習する際の計算量削減効果を有する。   In the present invention, when each criterion is similar, that is, when there is a common case at a predetermined rate for labeling each criterion (for example, whether the content of the web page is a sport and leisure) And so on), it has an effect of reducing the amount of calculation when learning all M judgment criteria.

なお、TuとTvとの共通事例(判断基準uと判断基準vとの共通事例)とはTu∩Tv、すなわちTuとTvとの間でを付与ラベルが共通している学習用データである。3つ以上の共通事例でも同様であり、例えばTuとTvとTwの共通事例はTu∩Tv∩Twである。 Incidentally, T u and T v and the common case (criterion u a criterion v and the common case) The T u ∩T v, i.e. grant labels between T u and T v are common It is data for learning. The same applies in three or more common case, for example, the common case of T u and T v and T w is T u ∩T v ∩T w.

また、各判断基準を学習することは、各学習データから下記(数2)及び(数3)の決定関数fu(x)(=判定のための識別面を定義する)を求める最適化の過程である。当該最適化により決定関数の係数αu iが定まることで、決定関数が求まる。 In addition, learning each criterion is an optimization for obtaining the following decision function f u (x) (= defining an identification plane for determination) from each learning data. It is a process. By determining the coefficient α u i of the decision function by the optimization, the decision function is obtained.

なお、(数3)においてKはカーネル関数であり、Cはパラメータである。   In (Equation 3), K is a kernel function, and C is a parameter.

本発明では、この最適化の過程は、既知の方法(例えば、Chih-Chung Chang and Chih-Jen Lin, LIBSVM : a library for support vector machines. ACM Transactions on Intelligent Systems and Technology, 2:27:1--27:27, 2011)を利用することができる。本発明は、各学習用データT1, T2, T3, ・・・・,TMを個別に学習する代わりに、共通事例と残りの差分事例とに分けて有利な初期値を設定したうえで学習することに特徴を有する。 In the present invention, this optimization process is performed by a known method (for example, Chih-Chung Chang and Chih-Jen Lin, LIBSVM: a library for support vector machines. ACM Transactions on Intelligent Systems and Technology, 2: 27: 1- -27: 27, 2011). In the present invention, instead of learning each learning data T 1 , T 2 , T 3 ,..., T M individually, advantageous initial values are set for the common case and the remaining difference cases. It is characterized by learning above.

図2は、本発明を例を用いて概念的に説明する図である。ここでは、5個の白丸、1個の灰色の丸(灰丸)及び5個の黒丸で示される合計11個からなる学習用データに対して、ラベル付与が似通った2つの判断基準(基準-1及び基準-2と略称し、それぞれの学習用データをT-1及びT-2と呼ぶこととする)を学習する場合の例が示されている。   FIG. 2 is a diagram conceptually illustrating the present invention using an example. Here, for the training data consisting of 5 white circles, 1 gray circle (gray circle) and 5 black circles, a total of 11 learning criteria, two judgment criteria with similar labeling (standard- In this example, the learning data is abbreviated as “1” and “reference-2”, and the respective learning data are referred to as “T-1” and “T-2”.

図示するように、基準-1では5個の白丸が正例であり、1個の灰丸及び5個の黒丸が負例である。基準-2では5個の白丸及び1個の灰丸が正例であり、5個の黒丸が負例である。すなわち、基準-1及び基準-2の共通事例(C0と呼ぶこととする)は5個の白丸の正例及び5個の黒丸の負例として構成され、11個中の10個という大きな割合で共通している。   As shown in the figure, in the reference-1, five white circles are positive examples, and one gray circle and five black circles are negative examples. In Criterion-2, 5 white circles and 1 gray circle are positive examples, and 5 black circles are negative examples. That is, the common case of Criteria-1 and Criteria-2 (referred to as C0) is composed of 5 positive examples of white circles and 5 negative examples of black circles, with a large ratio of 10 out of 11 It is common.

従来手法では、基準-1及び基準-2をそれぞれT-1及びT-2によって個別に学習して、SVM-1及びSVM-2がそれぞれ実線及び点線として概念的に図示するように、境界面として得られる。本発明においては、個別学習と同一のSVM-1及びSVM-2が得られるが、手順が異なり、且つ計算量が削減される。   In the conventional method, the boundary surface is such that SVM-1 and SVM-2 are conceptually illustrated as a solid line and a dotted line, respectively, by learning Standard-1 and Standard-2 individually by T-1 and T-2, respectively. As obtained. In the present invention, the same SVM-1 and SVM-2 as in individual learning are obtained, but the procedure is different and the amount of calculation is reduced.

本発明では最初に共通事例C0を学習して、決定関数の係数を求めることでSVM-0を得る。そして、SVM-0を上記(数2)及び(数3)の最適化における初期解として、T-1及びT-2を学習することによって、SVM-1及びSVM-2を得る。この際、灰丸で示される事例、すなわち、共通事例C0とT-1及びT-2との差分事例に対応する決定関数の係数には所定値を付与して、初期解とする。   In the present invention, SVM-0 is obtained by first learning the common case C0 and obtaining the coefficient of the decision function. Then, SVM-1 and SVM-2 are obtained by learning T-1 and T-2 using SVM-0 as an initial solution in the optimization of (Expression 2) and (Expression 3). At this time, a predetermined value is assigned to the coefficient of the decision function corresponding to the case indicated by the gray circles, that is, the difference case between the common case C0 and T-1 and T-2, and is set as the initial solution.

当該初期解としてのSVM-0はSVM-1及びSVM-2の両者に近いため、計算量削減に有効に機能する。そして、T-1及びT-2の学習の両者において計算量削減の効果が得られるため、個別に学習した場合(個別SVM1+個別SVM2の2回を学習)と比べて、全体(共通SVM-0の学習+差分SVM-1の学習+差分SVM-2の3回を学習)としての計算量が削減される。   Since SVM-0 as the initial solution is close to both SVM-1 and SVM-2, it functions effectively to reduce the amount of calculation. And since both T-1 and T-2 learning have the effect of reducing the amount of calculation, compared to the case of learning individually (learning 2 times of individual SVM1 + individual SVM2), the whole (common SVM-0 Learning + difference SVM-1 learning + difference SVM-2 three times of learning) is reduced.

図3は、本発明の一実施形態に係るサポートベクトルマシンを構築する方法のフローチャートである。図3を参照して、当該フローをサポートベクトルマシンを構築する装置1(図1)の各部の機能と共に説明する。   FIG. 3 is a flowchart of a method for constructing a support vector machine according to an embodiment of the present invention. With reference to FIG. 3, the flow will be described together with the functions of the respective parts of the apparatus 1 (FIG. 1) for constructing the support vector machine.

ステップS0でフローが開始されると、ステップS1にて学習順設定部4が、以降のステップS3,S4,S5及びS7のループにおいて順次、共通事例学習部2及び差分事例学習部3が学習する対象及びその順番を設定する。具体的には、カウンタi(i=1,2,…)にて順序が定められた共通事例(i)及び差分事例(i)と、当該カウンタiの終了値すなわち共通事例及び差分事例の設定個数と、共通事例(i)及び差分事例(i)によってどの判断基準のSVMをどの順序iにて構築するかが、設定される。   When the flow is started in step S0, the learning order setting unit 4 learns in step S1, and the common case learning unit 2 and the difference case learning unit 3 sequentially learn in subsequent loops of steps S3, S4, S5, and S7. Set the target and its order. Specifically, the common case (i) and the difference case (i) whose order is determined by the counter i (i = 1, 2,...) And the end value of the counter i, that is, the common case and the difference case are set. It is set in which order i which SVM is to be constructed based on the number, common case (i), and difference case (i).

当該詳細は図4〜図7などを参照して後述するが、各種の設定が可能であり、それらの中からユーザのマニュアル選択等によって予め所定の設定を利用するようにしておき、ステップS1にて学習順設定部4は当該所定の設定を読み込む。この際、学習データ同士の共通事例に基づく所定の設定としてもよい。当該設定は図2の例では、iの終了値は1(=初期値)であり、共通事例(1)はC0であり、差分事例(1)は灰丸の事例(学習データ)であって、基準-1に対して負例、基準-2に対して正例である。   The details will be described later with reference to FIGS. 4 to 7 and the like. Various settings are possible, and a predetermined setting is used in advance by manual selection or the like by the user. Then, the learning order setting unit 4 reads the predetermined setting. At this time, a predetermined setting based on a common case between learning data may be used. In the example of Fig. 2, the end value of i is 1 (= initial value), the common case (1) is C0, and the difference case (1) is the ash circle case (learning data). A negative example with respect to criterion-1 and a positive example with reference-2.

ステップS2では、カウンタiが初期値の1に設定される。ステップS3では、共通事例学習部2が、共通事例(i)を学習し、当該共通事例(i)に対応する決定関数の係数を求める。   In step S2, the counter i is set to an initial value of 1. In step S3, the common case learning unit 2 learns the common case (i) and obtains a coefficient of a decision function corresponding to the common case (i).

なおステップS3では、i=1の場合には共通事例(1)を既知の手法(単一のSVMを学習する手法)でそのまま学習するが、繰り返しループの2巡目以降すなわちi≧2の場合には共通事例(i)を次に説明するステップS4と同様に、既に学習された事例における係数を利用して学習する。この際、共通事例(i)と差分事例(i)とを組み合わせた事例を使うステップS4と異なり、ステップS3では当該学習対象の共通事例(i)よりも過去に既に学習済みの共通事例(i−k)を用いる。ここで、k>0でありi−k<iである。   In step S3, if i = 1, the common case (1) is learned as it is with a known method (a method for learning a single SVM), but in the second and subsequent rounds of the iterative loop, that is, i ≧ 2 The common case (i) is learned by using the coefficient in the already learned case as in step S4 described below. At this time, unlike step S4, which uses a combination of common case (i) and difference case (i), in step S3, common case (i -K) is used. Here, k> 0 and i−k <i.

ステップS4では、差分事例学習部3が、共通事例(i)と差分事例(i)とを和集合「共通事例(i)∪差分事例(i)」として組み合わせて得られる事例(=SVM構築対象の各判断基準の学習データのいずれか)によって学習し、構築対象のSVMのいずれかを構築する。この際、ステップS3にて算出済みの共通事例(i)に対応する決定関数の係数を利用して初期値を設定し、SVMを学習する。   In step S4, the difference case learning unit 3 combines the common case (i) and the difference case (i) as a union "common case (i) ∪ difference case (i)" (= SVM construction target) 1) learning data of each criterion, and constructing one of the construction target SVMs. At this time, the SVM is learned by setting an initial value using the coefficient of the decision function corresponding to the common case (i) calculated in step S3.

ここで、ステップS3で共通事例(i)に対して算出済みの決定関数の係数を{α1,α2,…,αim}とし、共通事例(i)に対応する決定関数の係数の初期値には当該算出済みの係数を用いる。また、組み合わせた事例の初期値において、差分事例(i)に対応する決定関数の係数には所定値としてゼロを設定する。すなわち、差分事例(i)に対応する係数を後方に表記すると、初期値は{α1,α2,…,αim,0,…,0}となる。差分事例(i)に対応する初期値はゼロ以外の所定値を用いてもよい。 Here, the coefficient of the decision function calculated for the common case (i) in step S3 is {α1, α2,..., Αi m }, and the initial value of the coefficient of the decision function corresponding to the common case (i) is Uses the calculated coefficient. Further, in the initial value of the combined case, zero is set as a predetermined value for the coefficient of the decision function corresponding to the difference case (i). That is, when the coefficient corresponding to the difference example (i) is written backward, the initial value is {α1, α2,..., Αi m , 0,. A predetermined value other than zero may be used as the initial value corresponding to the difference example (i).

なお、共通事例(i)は1つであるが、差分事例(i)は一般に各iにつき1つ以上存在してもよいので、当該ステップS4でのSVMの学習は共通事例(i)と各々の差分事例(i)との全ての組み合わせについて行われ、対応する判断基準のSVMが構築される。当該差分事例(i)を組み合わせて学習する順序は任意でよい。なおまた、学習順設定部4における学習設定によっては、所定のiに対してステップS4がスキップ(省略)される場合もある。   In addition, although there is one common case (i), since there may generally be one or more difference cases (i) for each i, the SVM learning in step S4 is the same as the common case (i). This is performed for all combinations with the difference example (i), and the SVM of the corresponding criterion is constructed. The order of learning by combining the difference example (i) may be arbitrary. Depending on the learning setting in the learning order setting unit 4, step S4 may be skipped (omitted) for a predetermined i.

一般に、差分事例(i)=「当該ステップS4にてSVMを構築しようとする判断基準の学習データ\共通事例(i)」であるので、共通事例(i)とSVM構築対象の判断基準とを設定することによって差分事例(i)は自ずと定まる。「\」は後述するように差集合を表す。   In general, the difference case (i) = “learning data of the judgment criteria for constructing the SVM at the step S4 \ common case (i)”, so the common case (i) and the judgment criteria for the SVM construction target are The difference example (i) is automatically determined by setting. “\” Represents a difference set as described later.

なお、前述のi≧2におけるステップS3では、共通事例学習部2は初期値の設定を次の[1]又は[2]のようにして、学習を行う。[1]学習対象の共通事例(i)が過去の共通事例(i−k)と何らかの事例との組み合わせ、すなわち和集合「共通事例(i−k)∪何らかの事例」として構成されているときは、上記同様に、算出済みの共通事例(i−k)の係数と、当該何らかの事例に対応する係数をゼロ等に設定したものとを初期値として用いる。   In step S3 in the case of i ≧ 2 described above, the common case learning unit 2 performs learning by setting initial values as in the following [1] or [2]. [1] When the common case (i) to be learned is configured as a combination of the past common case (i−k) and some case, that is, the union “common case (i−k) ∪some case” Similarly to the above, the coefficient of the calculated common case (i−k) and the coefficient corresponding to the case are set to zero or the like as the initial value.

[2]また、i≧2におけるステップS3にて、当該学習対象の共通事例(i)が初期値を利用する共通事例(i−k)の一部分として構成されている(「共通事例(i−k)⊃共通事例(i)」の関係がある)ときは、算出済みの共通事例(i−k)の係数のうち、共通事例(i)に対応する部分の係数のみを抜粋したものを初期値として用いる。   [2] Further, in step S3 when i ≧ 2, the common case (i) of the learning target is configured as a part of the common case (i−k) using the initial value (“common case (i− k) ⊃ common case (i) ”), the extracted coefficients of the common case (i−k) are extracted from the coefficients corresponding to the common case (i). Use as a value.

ステップS3及びS4の学習においては前述の通り、libSVM等で実装される既知の方法による最適化を行えばよい。   In the learning in steps S3 and S4, as described above, optimization by a known method implemented by libSVM or the like may be performed.

当該ステップS3及びS4の詳細は後述するが、図2の例では次の通りである。ステップS3では、共通事例(1)=C0を学習して、SVM-0が決定関数の係数として得られる。ステップS4では、差分事例(1)の1つとして基準-1における負例としての灰丸と、SVM-0として算出済みの共通事例(1)=C0と、を組み合わせた事例(=T-1)について初期値を設定し学習することで、SVM-1が得られる。また、差分事例(1)のもう1つとして基準-2における正例としての灰丸と、SVM-0として算出済みの共通事例(1)=C0と、を組み合わせた事例(=T-2)について初期値を設定し学習することで、SVM-2が得られる。   Details of steps S3 and S4 will be described later, but in the example of FIG. In step S3, common case (1) = C0 is learned, and SVM-0 is obtained as a coefficient of the decision function. In step S4, as one of the difference cases (1), a gray case as a negative example in criterion-1 and a common case (1) = C0 calculated as SVM-0 are combined (= T-1 SVM-1 can be obtained by setting and learning an initial value for). In addition, another example of difference (1) is a combination of gray circle as a positive example in Standard-2 and common case (1) = C0 calculated as SVM-0 (= T-2) SVM-2 can be obtained by setting and learning the initial value of.

なお、本発明では図2においても説明したように、ステップS4において共通事例(i)につき算出済みの決定関数の係数を初期値に利用することにより、また、i≧2のステップS3にて過去の共通事例(i−k)につき算出済みの決定関数の係数を初期値に利用することにより、計算量の削減効果が得られる。   In the present invention, as described with reference to FIG. 2, the coefficient of the decision function calculated for the common case (i) in step S4 is used as an initial value, and the past in step S3 where i ≧ 2. By using the coefficient of the decision function that has already been calculated for the common case (i−k) as the initial value, the amount of calculation can be reduced.

ステップS5では、全ての判断基準に対応するSVMが構築済みであるかが確認され、構築済みであればステップS6へ進んでフローは終了し、未構築のSVMがあればステップS7へ進み、カウンタiを1だけ増分して、以降の共通事例(i)及び差分事例(i)を対象としてステップS3及びS4が繰り返される。   In step S5, it is confirmed whether or not SVMs corresponding to all the judgment criteria have been constructed. If they have been constructed, the process proceeds to step S6, and the flow ends. If there is an unconstructed SVM, the process proceeds to step S7. i is incremented by 1, and steps S3 and S4 are repeated for the subsequent common case (i) and difference case (i).

図2の例であれば、i=1におけるステップS4において構築対象のSVM-1及びSVM-2が全て構築済みであるので、繰り返しを経ることなくフローは終了する。   In the example of FIG. 2, since all the SVM-1 and SVM-2 to be constructed have been constructed in step S4 when i = 1, the flow ends without repeating.

図4〜図7は、図3のフローの詳細を補足説明するための図であり、ステップS1での学習順設定部4による共通事例(i)及び差分事例(i)の所定の設定と、当該設定のもとでのステップS3での共通事例学習部2による学習及びステップS4での差分事例学習部3による所定の学習の各実施例を示している。   FIGS. 4 to 7 are diagrams for supplementary explanation of the details of the flow of FIG. 3, and predetermined setting of the common case (i) and the difference case (i) by the learning order setting unit 4 in step S1, Each example of learning by the common case learning unit 2 in step S3 and predetermined learning by the difference case learning unit 3 in step S4 under the setting is shown.

図4〜図7では全て、判断基準が5個の例であって、その学習用データをTa,Tb,Tc,Td及びTeとしているが、一般の個数n(n≧2)についても全く同様に所定方式を定めて、本発明を適用することができる。当該学習用データTa,Tb,Tc,Td及びTeより構築されるサポートベクトルマシンをSVM-a,SVM-b,SVM-c,SVM-d及びSVM-eと呼ぶこととする。   4 to 7 are all examples in which the criterion is five, and the learning data is Ta, Tb, Tc, Td and Te, but the general number n (n ≧ 2) is exactly the same. The present invention can be applied to a predetermined method. The support vector machines constructed from the learning data Ta, Tb, Tc, Td, and Te are referred to as SVM-a, SVM-b, SVM-c, SVM-d, and SVM-e.

図4〜図7では、各学習用データから共通事例を構成する関係を、各学習用データに対応する線同士の結合として表記している。また、ステップS3の共通事例の学習処理を点線枠ブロックにて、ステップS4の判断基準の構築処理を実線枠ブロックにて表記している。当該ステップS3及びS4の処理は共にSVMの「学習」であるが、ステップS4は最終的に求める対象である各判断基準のSVMが順次完成するという意味にて「構築」と呼ぶこととする。   In FIGS. 4 to 7, the relationship constituting the common case from each learning data is represented as a combination of lines corresponding to each learning data. Further, the learning process of the common case in step S3 is indicated by a dotted line frame block, and the construction process of the judgment criterion in step S4 is indicated by a solid line frame block. The processes in steps S3 and S4 are both “learning” of the SVM, but step S4 is called “construction” in the sense that the SVMs of the respective determination criteria that are finally obtained are sequentially completed.

図4の実施例では図示するように、4個の共通事例(i)(i=1〜4)が各巡におけるステップS3で順次学習される。それぞれ、共通事例(1)=Ta∩Tb, 共通事例(2)=Ta∩Tb∩Tc, 共通事例(3)=Ta∩Tb∩Tc∩Td, 共通事例(4)=Ta∩Tb∩Tc∩Td∩Teである。それぞれの共通事例(i)の学習と、ステップS4における対応する差分事例(i)を組み合わせての学習は次の通りである。   In the embodiment of FIG. 4, as shown in the figure, four common cases (i) (i = 1 to 4) are sequentially learned in step S3 in each round. Common case (1) = Ta∩Tb, Common case (2) = Ta∩Tb∩Tc, Common case (3) = Ta∩Tb∩Tc∩Td, Common case (4) = Ta∩Tb∩Tc∩ Td∩Te. Learning by combining each common case (i) and the corresponding difference case (i) in step S4 is as follows.

i=1のステップS3にて、共通事例(1)が既知の単一SVMの方法に従って学習され、係数が求まる。i=1のステップS4にて、共通事例(1)と2つの差分事例(1)とを組み合わせて学習して、SVM-a及びSVM-bが構築される。ここで、SVM-aは差分事例(1)の1つである「Ta\共通事例(1)」を用いて、SVM-bは差分事例(1)のもう1つである「Tb\共通事例(1)」を用いて構築される。   In step S3 with i = 1, the common case (1) is learned according to the known single SVM method, and the coefficient is obtained. In step S4 of i = 1, learning is performed by combining the common case (1) and the two difference cases (1) to construct SVM-a and SVM-b. Here, SVM-a uses "Ta \ common case (1)" which is one of the differential cases (1), and SVM-b uses "Tb \ common case" which is another of the differential cases (1). (1) ".

なおここで、記号「\」は差集合を表す。例えば「Ta\共通事例(1)」は学習データTaの中から共通事例(1)に属するデータを除外したものである。以下同様に当該記号表記を利用する。   Here, the symbol “\” represents a difference set. For example, “Ta \ common case (1)” is obtained by excluding data belonging to the common case (1) from the learning data Ta. Hereinafter, the symbol notation is used in the same manner.

i=2のステップS3にて、共通事例(2)が係数算出済みの共通事例(1)を初期値に利用して学習される。この際、共通事例(1)の一部分として共通事例(2)が構成されている(「共通事例(1)⊃共通事例(2)」である)ので、共通事例(1)の係数のうちの対応する一部分を抜粋したものが初期値となる。i=2のステップS4にて、共通事例(2)と1つの差分事例(2)とを組み合わせて学習して、SVM-cが構築される。当該差分事例(2)は「Tc\共通事例(2)」である。   In step S3 of i = 2, the common case (2) is learned by using the common case (1) whose coefficient has been calculated as an initial value. At this time, the common case (2) is configured as a part of the common case (1) ("common case (1) ⊃ common case (2)"). The initial value is extracted from the corresponding part. In step S4 with i = 2, learning is performed by combining the common case (2) and one difference case (2), and SVM-c is constructed. The difference case (2) is “Tc \ common case (2)”.

i=3,4のステップS3及びS4もi=2の場合と同様の学習・構築が繰り返される。i=3のステップS3では共通事例(3)が共通事例(2)を初期値に利用(係数の一部分を利用)して学習される。i=3のステップS4では共通事例(3)と1つの差分事例(3)=「Td\共通事例(3)」とを組み合わせて学習してSVM-dが構築される。i=4のステップS3では共通事例(4)が共通事例(3)を初期値に利用(係数の一部分を利用)して学習される。i=4のステップS4では共通事例(4)と1つの差分事例(4)=「Te\共通事例(4)」とを組み合わせて学習してSVM-eが構築され、全てのSVMの構築が完了する。   In steps S3 and S4 where i = 3, 4, learning and construction similar to the case where i = 2 are repeated. In step S3 where i = 3, the common case (3) is learned using the common case (2) as an initial value (using a part of the coefficient). In step S4 where i = 3, SVM-d is constructed by learning by combining the common case (3) and one difference case (3) = “Td \ common case (3)”. In step S3 of i = 4, the common case (4) is learned using the common case (3) as an initial value (using a part of the coefficient). In step S4 with i = 4, SVM-e is constructed by learning by combining the common case (4) and one difference case (4) = "Te \ common case (4)", and all SVMs are built. Complete.

図5の実施例では図示するように、1つの共通事例(1)のみが学習され、i=1でループは終了する。共通事例(1)=「Ta∩Tb∩Tc∩Td∩Te」である。すなわち、共通事例(1)は全ての学習用データの共通事例である。   In the embodiment of FIG. 5, as shown in the figure, only one common case (1) is learned, and the loop ends when i = 1. Common case (1) = “Ta∩Tb∩Tc∩Td∩Te”. That is, the common case (1) is a common case of all learning data.

i=1のステップS3にて、共通事例(1)が単一SVMとして学習される。i=1のステップS4にて、共通事例(1)と5つの差分事例(1)とをそれぞれ組み合わせて学習して、構築対象の全てのSVMが構築され、i=2以降のフローは実行されずに終了する。例えばSVM-aは、共通事例(1)と1つの差分事例(1)=「Ta\共通事例(1)」とを組み合わせて学習して構築される。残りのSVM-b〜SVM-eについても同様に、各学習データTb〜Teから共通事例(1)を引いた各差分事例(1)と共通事例(1)とを組み合わせての学習によって構築される。   In step S3 with i = 1, the common case (1) is learned as a single SVM. In step S4 with i = 1, learning is performed by combining the common case (1) and the five difference cases (1), and all SVMs to be built are built, and the flow after i = 2 is executed. Quit without For example, SVM-a is constructed by learning by combining the common case (1) and one difference case (1) = “Ta \ common case (1)”. Similarly, the remaining SVM-b to SVM-e are constructed by learning by combining each difference case (1) obtained by subtracting the common case (1) from each learning data Tb to Te and the common case (1). The

図6の実施例では図示するようにまず、5個の判断基準をその類似度に基づいてボトムアップクラスタリングを行い、判断基準同士を類似性の関係で結びつける。類似度は、共通事例が全データのうちに占める割合の大きさで定める。なお、クラスタ化(統合)された後も、当初の統合を一切していない際の全データ数を分母として共通事例が占める割合を定める。また、その他の基準で類似度を定めてもよい。   In the embodiment of FIG. 6, first, bottom-up clustering is performed on the five determination criteria based on their similarities, and the determination criteria are connected by a similarity relationship. The similarity is determined by the size of the ratio of the common cases to the total data. After clustering (integration), the ratio of the common cases is determined using the total number of data when the initial integration is not performed at all as the denominator. Further, the similarity may be determined based on other criteria.

ここでは次の順でクラスタリングが行われている。[1]TaとTbとを90%共通で統合しTa∩Tbとなす。[2]TcとTdとを80%共通で統合しTc∩Tdとなす。[3]「Ta∩Tb」と「Tc∩Td」とを70%共通で統合し「Ta∩Tb∩Tc∩Td」となす。[4]「Ta∩Tb∩Tc∩Td」とTeを60%共通で統合し「Ta∩Tb∩Tc∩Td∩Te」となす。各共通事例(i)は図示するように、当該統合されたクラスタを統合された順の逆に定められ、学習の順序も同様に定められる。   Here, clustering is performed in the following order. [1] Ta and Tb are integrated 90% in common to make Ta∩Tb. [2] Tc and Td are integrated 80% in common to make Tc∩Td. [3] “Ta∩Tb” and “Tc∩Td” will be integrated by 70% in common and become “Ta∩Tb∩Tc∩Td”. [4] "Ta ∩ Tb ∩ Tc ∩ Td" and Te are integrated 60% in common and become "Ta ∩ Tb ∩ Tc ∩ Td ∩ Te" As shown in the figure, each common case (i) is determined in the reverse order of the integrated cluster, and the learning order is also determined in the same manner.

i=1のステップS3では、共通事例(1)=「Ta∩Tb∩Tc∩Td∩Te」が単一SVMとして学習される。i=1のステップS4では、共通事例(1)と1つの差分事例(1)=「Te\共通事例(1)」とを組み合わせて学習して、SVM-eが構築される。   In step S3 where i = 1, the common case (1) = “Ta∩Tb∩Tc∩Td∩Te” is learned as a single SVM. In step S4 with i = 1, SVM-e is constructed by learning by combining the common case (1) and one difference case (1) = “Te \ common case (1)”.

i=2のステップS3では、共通事例(1)を初期値に利用して共通事例(2)=「Ta∩Tb∩Tc∩Td」が学習される。ここで、共通事例(2)=「共通事例(1)∪何らかの事例」として構成されるので、対応する係数はゼロに設定して初期値が得られる。i=2のステップS4は、構築対象のSVMが設定されていないので、スキップされる。よって、差分事例(2)も設定する必要はない。   In step S3 of i = 2, the common case (2) = “Ta∩Tb∩Tc∩Td” is learned using the common case (1) as an initial value. Here, since it is configured as common case (2) = “common case (1) 事例 some case”, the corresponding coefficient is set to zero and an initial value is obtained. Step S4 with i = 2 is skipped because the construction target SVM is not set. Therefore, it is not necessary to set the differential case (2).

i=3のステップS3では、共通事例(3)=「共通事例(2)∪何らかの事例」であるので、対応係数をゼロに設定すると共に共通事例(2)を初期値に利用して共通事例(3)=「Tc∩Td」が学習される。i=3のステップS4では、共通事例(3)と2つの差分事例(3)とをそれぞれ組み合わせて学習して、SVM-c及びSVM-dが構築される。SVM-cは1つの差分事例(3)=「Tc\共通事例(3)」にて、SVM-dは1つの差分事例(3)=「Td\共通事例(3)」にて構築される。   In step S3 with i = 3, common case (3) = "common case (2) ∪ some case", so set the corresponding coefficient to zero and use common case (2) as the initial value. (3) = “Tc∩Td” is learned. In step S4 with i = 3, the common case (3) and the two difference cases (3) are learned in combination to construct SVM-c and SVM-d. SVM-c is constructed with one difference case (3) = "Tc \ common case (3)", SVM-d is built with one difference case (3) = "Td \ common case (3)" .

i=4のステップS4では、共通事例(4)=「共通事例(2)∪何らかの事例」であるので、対応係数をゼロに設定すると共に共通事例(2)を初期値に利用して共通事例(4)=「Ta∩Tb」が学習される。i=4のステップS4では、共通事例(4)と2つの差分事例(4)とをそれぞれ組み合わせて学習して、SVM-a及びSVM-bが構築され、全SVMの構築が完了する。SVM-aは1つの差分事例(4)=「Ta\共通事例(4)」にて、SVM-bは1つの差分事例(4)=「Tb\共通事例(4)」にて構築される。   In step S4 with i = 4, common case (4) = "common case (2) ∪ some case", so set the corresponding coefficient to zero and use the common case (2) as the initial value. (4) = “Ta∩Tb” is learned. In step S4 where i = 4, the common case (4) and the two difference cases (4) are learned in combination, SVM-a and SVM-b are built, and the construction of all SVMs is completed. SVM-a is constructed with one difference case (4) = "Ta \ common case (4)", and SVM-b is built with one difference case (4) = "Tb \ common case (4)" .

図7の実施例は、図4〜図6の実施例と組み合わせて適用することができる。図7では、図6と同様のボトムアップクラスタリングの結果が示されている。ここで類似度に所定の閾値を設け、例えば75%以下の共通割合に対してクラスタリングを打ち切ると、図示するような複数のクラスタとして、クラスタ1(Ta及びTb)、クラスタ2(Tc及びTd)、クラスタ3(Te)が得られる。当該実施例では、当該クラスタ毎に個別に図4〜図6の実施例を適用する。   The embodiment of FIG. 7 can be applied in combination with the embodiments of FIGS. FIG. 7 shows the result of bottom-up clustering similar to FIG. Here, when a predetermined threshold is set for the similarity, and clustering is terminated for a common ratio of 75% or less, for example, a cluster 1 (Ta and Tb) and a cluster 2 (Tc and Td) are obtained as a plurality of clusters as illustrated. Cluster 3 (Te) is obtained. In this embodiment, the embodiments of FIGS. 4 to 6 are applied to each cluster individually.

なお、ボトムアップクラスタリングによる図7の実施例の代わりに、より一般に、SVM構築対象の複数の判断基準を判断基準同士の類似度に基づいて所定のグループに分けて、当該各グループ毎に個別に図4〜図6の実施例を適用するようにしてもよい。この際、各グループに属する判断基準の数に所定の上限を設けてもよい。本発明は判断基準同士がある程度似ていることを想定しているので、ある程度類似度の高い判断基準のグループ内で個別に本発明を適用することで、より確実に全体としての計算量が削減される。   In addition, instead of the embodiment of FIG. 7 by bottom-up clustering, more generally, a plurality of judgment criteria for SVM construction are divided into predetermined groups based on the similarity between judgment criteria, and each group is individually The embodiments of FIGS. 4 to 6 may be applied. At this time, a predetermined upper limit may be provided for the number of determination criteria belonging to each group. Since the present invention assumes that judgment criteria are somewhat similar, applying the present invention individually within a group of judgment criteria having a certain degree of similarity reduces the amount of calculation as a whole more reliably. Is done.

また、図4の実施例では、Ta〜Teの並びを特に限定していなかったが、5つの判断基準の中で最も類似度が高いものをTa及びTbに、「Ta∩Tb」との類似度が残りの3つの判断基準の中で最も高いものをTcに、「Ta∩Tb∩Tc」との類似度が残りの2つの判断基準の中で最も高いものをTdに、定めるようにしてもよい。   In the example of FIG. 4, the order of Ta to Te was not particularly limited, but the highest similarity among the five judgment criteria is Ta and Tb, and the similarity to “Ta∩Tb” Tc is the highest of the remaining three criteria, and Td is the highest of the remaining two criteria, which is similar to Ta∩Tb∩Tc. Also good.

また、図4〜図6の実施例を適宜組み合わせてもよい。例えば、図4の実施例における共通事例(1)及び差分事例(1)を設定して、共通事例(2)及び差分事例(2)に図5の方式を採用してもよい。すなわち、共通事例(2)=「Ta∩Tb∩Tc∩Td∩Te」、差分事例(2)=「Tc\共通事例(2)」、「Td\共通事例(2)」及び「Te\共通事例(2)」として、i=1,2で全SVMが構築されるようにしてもよい。   Moreover, you may combine the Example of FIGS. 4-6 suitably. For example, the common case (1) and the difference case (1) in the embodiment of FIG. 4 may be set, and the method of FIG. 5 may be adopted for the common case (2) and the difference case (2). That is, common case (2) = "Ta∩Tb∩Tc∩Td∩Te", difference case (2) = "Tc \ common case (2)", "Td \ common case (2)" and "Te \ common As example (2), all SVMs may be constructed with i = 1,2.

図8及び図9は、本発明を適用した効果の実例を従来技術との対比によって示すグラフである。共に、3つの判断基準に従う学習データprivate1,pravate2,pravate3のSVMを構築する場合を示しており、本発明は図4の手法にて適用され、i=1における共通事例として予め学習されるcommon1=「private1∩private2」を用いてprivate1及びprivate2が構築され、i=2における共通事例として予めcommon1を利用して学習されるcommon2=「private1∩private2∩private3」を用いて、private3が構築される。   8 and 9 are graphs showing an example of the effect of applying the present invention in comparison with the prior art. Both show the case of constructing an SVM of learning data private1, private2, and private3 according to three criteria, and the present invention is applied by the method of FIG. 4 and is pre-learned as a common case at i = 1. Private1 and private2 are constructed using “private1∩private2”, and private3 is constructed using common2 = “private1∩private2∩private3” learned in advance using common1 as a common case in i = 2.

図8及び図9では従来技術における個別学習の時間( private1+private2+private3 )が LibSVM の項目名で示され、本発明による学習の時間 (common1+common2+private1+private2+private3 )がPerSVM(Personal SVM)の項目名で示されると共に総合的な処理時間の削減度合い(PerSVMの処理時間÷LibSVMの処理時間)が併記されている。   8 and 9, the individual learning time (private1 + private2 + private3) in the prior art is indicated by the item name of LibSVM, and the learning time according to the present invention (common1 + common2 + private1 + private2 + private3) is indicated by the item name of PerSVM (Personal SVM). The degree of reduction in processing time (PerSVM processing time ÷ LibSVM processing time) is also shown.

図8及び図9ではLibSVM及びPerSVMの各項目を左右に並べ、学習用データ数を50,000〜250,000と変化させたものを表示してある。各判断基準の似通う度合いを示す指標として、全学習データの中で判断基準の違いからラベルが異なる割合を採用した時、異なり度合いが5%の時の例及び10%の時の例がそれぞれ図8及び図9である。   8 and 9, the items of LibSVM and PerSVM are arranged on the left and right and the learning data number is changed from 50,000 to 250,000. As an index showing the degree of similarity of each judgment criterion, when the ratio of different labels is adopted due to the difference in judgment criteria in all learning data, the example when the degree of difference is 5% and the example when it is 10%, respectively FIG. 8 and FIG.

図8及び図9によれば、本発明の手法(PerSVM)の方が常に左隣の従来手法(LibSVM)より学習に要する時間が短くて済むのが分かる。また、異なり度合いが5%の方が10%の時より、処理時間の短縮度合いは大きいことが分かる。このことから、判断基準が似通っていれば、本発明が効果的であることが分かる。   8 and 9, it can be seen that the method of the present invention (PerSVM) always requires less time for learning than the conventional method on the left (LibSVM). In addition, it can be seen that the degree of reduction in processing time is larger when the degree of difference is 5% than when it is 10%. From this, it can be seen that the present invention is effective if the judgment criteria are similar.

以上のように、本発明によれば、似通った複数の判断基準を学習する場合、従来手法より短い時間で、複数個のSVMの全ての学習を完了させることができる。   As described above, according to the present invention, when learning a plurality of similar determination criteria, all of the learning of a plurality of SVMs can be completed in a shorter time than the conventional method.

1…サポートベクトルマシンを構築する装置、2…共通事例学習部、3…差分事例学習部、4…学習順設定部 1 ... Device for constructing a support vector machine, 2 ... Common case learning unit, 3 ... Difference case learning unit, 4 ... Learning order setting unit

Claims (5)

所与のデータに対するラベル付与において互いに共通事例を有する複数の学習用データにそれぞれ対応している複数の判断基準につきサポートベクトルマシンを構築する方法であって、
前記複数の判断基準にそれぞれ対応する複数の学習用データのうちの一部分における共通事例でサポートベクトルマシンを学習して当該共通事例に対応する決定関数の係数を求める第一のステップと、
前記共通事例につき求められた決定関数の係数を初期値に利用してサポートベクトルマシンを学習することで、前記複数の判断基準のうちの一部分に含まれる判断基準のサポートベクトルマシンを構築する第二のステップと、
前記複数の判断基準につき順次前記第一及び第二のステップを繰り返し実行して、前記複数の判断基準の各々に対応するサポートベクトルマシンを構築する第三のステップとを備えることを特徴とするサポートベクトルマシンを構築する方法。
A method of constructing a plurality of criteria per support vector machine respectively correspond to a plurality of learning data having mutually common case in the label application to the given data,
A first step of learning a support vector machine with a common case in a part of a plurality of learning data corresponding to each of the plurality of determination criteria to obtain a coefficient of a decision function corresponding to the common case;
A second support vector machine is constructed by learning a support vector machine by using a coefficient of a decision function obtained for the common case as an initial value, so as to be included in a part of the plurality of judgment criteria. And the steps
And a third step of constructing a support vector machine corresponding to each of the plurality of determination criteria by repeatedly executing the first and second steps sequentially for the plurality of determination criteria. How to build a vector machine.
前記第三のステップにおいてサポートベクトルマシンが未構築の判断基準を対象として順次前記第一及び第二のステップを繰り返し実行するに際して、前記第一のステップでは既に決定関数の係数が求められた共通事例における係数を初期値に利用して、前記決定関数の係数を求め、前記第二のステップでは当該未構築の判断基準に対応するサポートベクトルマシンを構築することを特徴とする請求項1に記載のサポートベクトルマシンを構築する方法。   In the third step, when the support vector machine repeatedly executes the first and second steps sequentially for the unestablished criterion, the common example in which the coefficient of the decision function has already been obtained in the first step 2. The coefficient of the decision function is obtained as an initial value by using a coefficient in step (2), and a support vector machine corresponding to the unbuilt criterion is constructed in the second step. How to build a support vector machine. 前記第三のステップでは前記複数の判断基準につき、判断基準同士の類似度に基づく所定の順番によって順次、前記第一及び第二のステップを繰り返し実行することを特徴とする請求項1または2に記載のサポートベクトルマシンを構築する方法。   3. The method according to claim 1, wherein, in the third step, the first and second steps are repeatedly executed sequentially in a predetermined order based on the similarity between the determination criteria for the plurality of determination criteria. How to build the described support vector machine. 前記第三のステップが、前記複数の判断基準を判断基準同士の類似度に基づいて分けた所定のグループ毎に個別に実行されることを特徴とする請求項1ないし3のいずれかに記載のサポートベクトルマシンを構築する方法。   4. The method according to claim 1, wherein the third step is individually executed for each predetermined group obtained by dividing the plurality of determination criteria based on the similarity between the determination criteria. 5. How to build a support vector machine. 所与のデータに対するラベル付与において互いに共通事例を有する複数の学習用データにそれぞれ対応している複数の判断基準につきサポートベクトルマシンを構築する装置であって、
前記複数の判断基準にそれぞれ対応する複数の学習用データのうちの一部分における共通事例でサポートベクトルマシンを学習して当該共通事例に対応する決定関数の係数を求める共通事例学習部と、
前記共通事例につき求められた決定関数の係数を初期値に利用してサポートベクトルマシンを学習することで、前記複数の判断基準のうちの一部分に含まれる判断基準のサポートベクトルマシンを構築する差分事例学習部と、
共通事例に基づいて前記複数の判断基準の所定の学習順を設定する学習順設定部とを備え、
前記学習順設定部により設定された学習順に従って順次、前記共通事例学習部及び差分事例学習部を適用して、前記複数の判断基準の各々に対応するサポートベクトルマシンを構築することを特徴とするサポートベクトルマシンを構築する装置。
An apparatus for constructing a support vector machine for a plurality of judgment criteria respectively corresponding to a plurality of learning data having mutually common cases in labeling for given data,
A common case learning unit that learns a support vector machine in a common case in a part of a plurality of learning data respectively corresponding to the plurality of determination criteria and obtains a coefficient of a decision function corresponding to the common case;
A differential case that constructs a support vector machine of a judgment criterion included in a part of the plurality of judgment criteria by learning a support vector machine by using a coefficient of a decision function obtained for the common case as an initial value The learning department,
A learning order setting unit that sets a predetermined learning order of the plurality of determination criteria based on a common case;
A support vector machine corresponding to each of the plurality of determination criteria is constructed by sequentially applying the common case learning unit and the difference case learning unit according to the learning order set by the learning order setting unit. A device to build a support vector machine.
JP2012033237A 2012-02-17 2012-02-17 Method and apparatus for building a support vector machine Active JP5905734B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012033237A JP5905734B2 (en) 2012-02-17 2012-02-17 Method and apparatus for building a support vector machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012033237A JP5905734B2 (en) 2012-02-17 2012-02-17 Method and apparatus for building a support vector machine

Publications (2)

Publication Number Publication Date
JP2013171327A JP2013171327A (en) 2013-09-02
JP5905734B2 true JP5905734B2 (en) 2016-04-20

Family

ID=49265237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012033237A Active JP5905734B2 (en) 2012-02-17 2012-02-17 Method and apparatus for building a support vector machine

Country Status (1)

Country Link
JP (1) JP5905734B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017037859A1 (en) * 2015-08-31 2017-03-09 株式会社日立製作所 Information processing device and method
KR20190055610A (en) 2017-11-15 2019-05-23 삼성전자주식회사 Neural network system for single processing common operation group of neural network models, application processor including same, and operation method of neural network system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5207870B2 (en) * 2008-08-05 2013-06-12 日立コンピュータ機器株式会社 Dimension reduction method, pattern recognition dictionary generation device, and pattern recognition device
JP5353443B2 (en) * 2009-05-25 2013-11-27 株式会社Jvcケンウッド Data classifier creation device, data classifier, data classifier creation method, data classification method, data classifier creation program, data classification program
JP5506569B2 (en) * 2010-06-29 2014-05-28 株式会社Kddi研究所 Support vector machine relearning method and apparatus

Also Published As

Publication number Publication date
JP2013171327A (en) 2013-09-02

Similar Documents

Publication Publication Date Title
CN107273438B (en) Recommendation method, device, equipment and storage medium
Makhzani et al. Adversarial autoencoders
Wang et al. Robust and flexible discrete hashing for cross-modal similarity search
Niculae et al. A regularized framework for sparse and structured neural attention
Cao et al. Collective deep quantization for efficient cross-modal retrieval
Zhang et al. Embedding label structures for fine-grained feature representation
Song et al. Training deep neural networks via direct loss minimization
Duan et al. Domain adaptation from multiple sources: A domain-dependent regularization approach
Chapelle et al. Boosted multi-task learning
Zhang et al. A k-nearest neighbor based algorithm for multi-label classification
Hariharan et al. Efficient max-margin multi-label classification with applications to zero-shot learning
Pujol et al. An incremental node embedding technique for error correcting output codes
Xu et al. DCPE co-training for classification
Bouguila et al. A discrete mixture-based kernel for SVMs: application to spam and image categorization
CN109960732B (en) Deep discrete hash cross-modal retrieval method and system based on robust supervision
Yang et al. Mutual quantization for cross-modal search with noisy labels
Duan et al. Improving spectral clustering with deep embedding and cluster estimation
Leng et al. Employing unlabeled data to improve the classification performance of SVM, and its application in audio event classification
Ding et al. Discriminative dual-stream deep hashing for large-scale image retrieval
JP5905734B2 (en) Method and apparatus for building a support vector machine
Pu et al. Spatial-temporal knowledge-embedded transformer for video scene graph generation
Liu et al. Improved stacking model fusion based on weak classifier and word2vec
Hong et al. A generalized mixture framework for multi-label classification
Zhao et al. Multi-view multi-label active learning with conditional Bernoulli mixtures
Liu et al. Online multi-label learning with cost-sensitive budgeted SVM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160317

R150 Certificate of patent or registration of utility model

Ref document number: 5905734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150