JP3889663B2 - 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体 - Google Patents

分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP3889663B2
JP3889663B2 JP2002136536A JP2002136536A JP3889663B2 JP 3889663 B2 JP3889663 B2 JP 3889663B2 JP 2002136536 A JP2002136536 A JP 2002136536A JP 2002136536 A JP2002136536 A JP 2002136536A JP 3889663 B2 JP3889663 B2 JP 3889663B2
Authority
JP
Japan
Prior art keywords
input vector
classification
value
polynomial
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002136536A
Other languages
English (en)
Other versions
JP2003331254A (ja
Inventor
秀樹 磯崎
秀人 賀沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002136536A priority Critical patent/JP3889663B2/ja
Publication of JP2003331254A publication Critical patent/JP2003331254A/ja
Application granted granted Critical
Publication of JP3889663B2 publication Critical patent/JP3889663B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、入力ベクトルと学習用データにより得られた定数ベクトルとの内積の関数となる多項式の値を算出することで、入力ベクトルの属するクラスを判定する分類方法及びその装置と、その分類方法の実現に用いられる分類プログラム及びそのプログラムを記録した記録媒体とに関する。
【0002】
【従来の技術】
自然言語処理システムや画像処理システムや音声認識システムなどにおいて、あらかじめ正解の分かっている学習用データからデータの分類の仕方を自動的に学習する教師あり学習では、サポート・ベクトル・マシン(V.N.Vapnik:The Nature of Statistical Learning Theory,Springer,1995) などのカーネル関数を用いた学習手法が、決定木や決定リストなどの他の学習手法に比べて高性能であることが知られている。
【0003】
このカーネル関数としては内積を用いたものが主流である。しかし、内積に基づくカーネル関数を用いた場合、分類にかかる時間が従来手法に比べてきわめて遅いことが知られている。
【0004】
これは、ひとつのデータの分類に、数千回から数十万回という膨大な回数の内積計算が必要なためである。
【0005】
そこで、0でない成分同士だけを記録し比較することによって、内積計算を高速にするなどの方法が取られている。それでも、従来手法に比べて実行速度は1桁〜3桁程度遅い。
【0006】
【発明が解決しようとする課題】
サポート・ベクトル・マシンなどのカーネル関数に基づく手法は、従来手法と比べて処理時間が遅いため、大量のデータを短時間で処理しなければならないような分野ではほとんど利用されていないのが実情である。
【0007】
このような分野では、人間が分類プログラムを作成したり、決定木などのような精度は低いが実行の速い従来の学習手法が用いられている。
【0008】
しかしながら、サポート・ベクトル・マシンなどのカーネル関数に基づく手法は高性能であり、大量のデータを短時間で処理しなければならないような分野でも用いることができるようにしていくことが望まれている。
【0009】
本発明はかかる事情に鑑みてなされたものであって、入力ベクトルと学習用データにより得られた定数ベクトルとの内積の関数となる多項式の値を算出することで、入力ベクトルの属するクラスを判定するときにあって、その判定に要する計算時間を大幅に削減できるようにする新たな分類技術の提供を目的とする。
【0010】
【課題を解決するための手段】
この目的を達成するために、本発明の分類装置は、入力ベクトルと学習用データにより得られた定数ベクトルとの内積の関数となる多項式の値を算出することで、入力ベクトルの属するクラスを判定するときにあって、▲1▼多項式を入力ベクトルの成分ごとに展開するときの各成分の係数値を記憶する記憶手段と、▲2▼多項式を入力ベクトルの成分ごとに展開したときの各成分の係数値を算出して、記憶手段に保存する算出手段と、▲3▼記憶手段を検索することで、入力ベクトルの持つ非ゼロ値成分の指す係数値を取得する取得手段と、▲4▼取得手段の取得した係数値を使って多項式の値を算出することで、入力ベクトルの属するクラスを判定する判定手段とを備えるように構成する。
【0011】
そして、この構成を採るときにあって、算出手段は、係数値を算出して記憶手段に保存する処理を行うときにあって、算出した係数値の大きさを評価することで不要な成分を削除する削除手段を備えて、その削除手段により不要な成分の削除された係数値を記憶手段に保存するように処理することがある。
【0012】
そして、この構成を採るときにあって、算出手段の算出した係数値の大きさを評価することで、不要な成分を削除する削除手段と、不要な成分の削除された学習用データを使って多項式を再学習する再学習手段とを備えることがある。
【0013】
以上の各処理手段により実現される本発明の分類方法はコンピュータプログラムで実現できるものであり、このコンピュータプログラムは、半導体メモリなどような適当な記録媒体に記録して提供することができる。
【0014】
このように構成される本発明の分類装置では、学習用データにより得られた多項式g(x)を入力ベクトルの成分ごとに展開するときの各成分の係数値を算出して、記憶手段に保存した後、分類対象の入力ベクトルが与えられると、記憶手段を検索することで、その入力ベクトルの持つ非ゼロ値成分の指す係数値を取得して、その取得した係数値を使って多項式g(x)の値を算出することで、入力ベクトルの属するクラスを判定する。
【0015】
このとき、記憶手段として大規模なものを用意しなくても済むようにするために、算出した係数値の大きさを評価することで不要な成分を削除し、その不要な成分を削除した係数値を記憶手段に保存するように処理することがある。
【0016】
そして、分類精度の向上や処理速度の向上を図るために、算出した係数値の大きさを評価することで、不要な成分を削除し、その不要な成分の削除された学習用データを使って多項式を再学習するように処理することがある。
【0017】
このようにして、本発明では、入力ベクトルと学習用データにより得られた定数ベクトルとの内積の関数となる多項式の値を算出する場合に、従来技術に従うと膨大な数の内積計算が必要になるのに対して、入力ベクトルの持つ非ゼロ値成分の個数がそれほど多くないことを考慮して、あらかじめ各成分の係数値を算出して保存しておいて、その中から、入力ベクトルの持つ非ゼロ値成分の指す係数値を取得することでわずかな積和計算や加算により多項式の値を算出するように処理することから、入力ベクトルの属するクラスを判定するときにあって、その判定に要する計算時間を大幅に削減できるようになる。
【0018】
そして、本発明では、この構成を採るときにあって、係数の小さい属性を削除することで、メモリを削減したり、分類精度を向上させたり、処理速度をさらに向上させることができるようになる。
【0019】
【発明の実施の形態】
以下、実施の形態に従って本発明を詳細に説明する。
【0020】
図1に本発明の一実施形態例を図示する。
【0021】
図中、1は学習用データファイル、2は分類データファイル、3は分類結果ファイル、10は学習手段、11は算出手段、12は削除手段、13は記憶手段、14は再学習手段、15は判定手段、16は取得手段である。
【0022】
この学習用データファイル1は、学習用のデータを格納する。分類データファイル2は、分類対象となる入力ベクトルを格納する。分類結果ファイル3は、分類結果を格納する。
【0023】
学習手段10は、学習用データファイル1に格納される学習用データを使って、入力ベクトルと定数ベクトルとの内積の関数となる多項式g(x)を学習する。
【0024】
算出手段11は、学習手段10の学習した多項式g(x)を入力ベクトルの成分(属性)ごとに展開するときの各成分の係数値を算出して、記憶手段13に保存する。
【0025】
削除手段12は、算出手段11の算出した係数値の大きさを評価することで、不要な成分を削除する。この削除手段12が設けられるときには、算出手段11は、不要な成分の削除された係数値を記憶手段13に保存することになる。
【0026】
再学習手段14は、削除手段12により不要な成分の削除された学習用データを使って多項式を再学習することで、多項式g(x)を再学習する。
【0027】
判定手段15は、分類データファイル2に格納される入力ベクトルの属するクラスを判定して、分類結果ファイル3に格納する。
【0028】
取得手段16は、例えば判定手段15に備えられて、記憶手段13を検索することで、入力ベクトルの持つ非ゼロ値成分の指す係数値を取得する。
【0029】
サポート・ベクトル・マシンなど、カーネル関数を用いて分類する場合、以下の決定関数(上述の多項式)を計算することによってデータが分類される。
【0030】
g(x)=Σωi K(x,zi )+b
但し、Σはi=1〜mの総和
ここで、xは入力ベクトルであり、g(x)の符号によりxが分類される。zi は定数ベクトルであり、サポート・ベクトル・マシンの場合にはサポート・ベクトルと呼ばれる訓練データの代表である。mは定数ベクトルzi の数である。ωi は定数である。
【0031】
但し、サポート・ベクトル以外の定数ベクトルを使う方法も提案されており、必ずしもzi がサポート・ベクトルである必要はないし、これらの定数ベクトルがサポート・ベクトル・マシンの学習手法で求められる必要もなく、要するに決定関数が上記の形式をしていればよい。
【0032】
現実のデータを精度よく分類しようとすると、定数ベクトルの数mが数千から数十万になることは珍しくない。すると、入力ベクトルxをこの式に従って分類するためには、数千から数十万の内積計算を実行しなければならない。これが計算時間のネックとなっている。
【0033】
しかし、多くの応用分野において、各入力ベクトルxを特徴づける属性(成分)は、実際には数十個程度におさまることが多い。ベクトル表現をする都合上、次元が数万〜数十万次元になるだけであり、各入力ベクトルxは、実質的には数個から数十個の属性の値で表されることが多い。
【0034】
たとえば、文中の英単語をいくつかのクラス(たとえば品詞)に分類するという課題を考える。英単語は「report」のようにまったく同じ形でも、前後の文脈によって動詞になったり名詞になったりする。
【0035】
単語は数万〜数十万あるので、単語ごとに数値軸を設けてベクトル表現すると、数万〜数十万次元になってしまう。品詞分類で前後の文脈を考慮するため、分類したい単語の直前、直後の単語もその単語の属性として考慮すると、ベクトルの次元数はこの3倍になる。
【0036】
見かけ上は次元が多いが、実際に利用している属性は、3単語、つまり3つにすぎない。つまり、g(x)は3つの属性の関数にすぎず、この点に着目すると、処理速度を大幅に向上させることができる。
【0037】
以下では、2次の多項式カーネルK(x,zi
K(x,zi )=(c0 +c1 x・zi 2
但し、c0,c1 は定数
を考える。
【0038】
図1に示した算出手段11は、この多項式カーネルを成分ごとに展開して各成分(属性)の係数を求める処理を行う。
【0039】
入力ベクトルxを、
x=(x〔1〕, ....,x〔D〕)
であるとし、定数ベクトルzi を、
i =(zi 〔1],....,zi [D])
であるとすると、この多項式カーネルは、
Figure 0003889663
のように展開できる。
【0040】
ここで、
x・zi =Σx〔h〕zi 〔h]
但し、Σはh=1〜Dの総和
を考慮すると、g(x)は、
【0041】
【数1】
Figure 0003889663
【0042】
のように変形できる。
【0043】
但し、W0 , W1 〔h〕, W2 〔h〕, W3 〔h,k〕は、
【0044】
【数2】
Figure 0003889663
【0045】
を表している。
【0046】
この式を用いれば、ゼロでないx[h]の数が数個から数十個程度のとき、ゼロでないx[h]x[k]の数も数個からせいぜい数百個程度であり、その係数との積和を計算するだけで判定ができるため、数千から数十万の内積計算が必要となるもとの計算方法に比べて、大幅な処理時間の圧縮が望める。
【0047】
さらに、すべてのベクトルの成分が0と1しか取らない場合には、x[h]x[k]、zi [h]zi [k]を計算する必要もないので、g(x)は、
【0048】
【数3】
Figure 0003889663
【0049】
のように変形できる。
【0050】
但し、W1 ' 〔h〕, W3 〔h,k〕は、
【0051】
【数4】
Figure 0003889663
【0052】
を表している。
【0053】
つまり、数個からせいぜい数百個の定数を足して行くだけで決定関数g(x)を計算できるようになる。
【0054】
ここで、ほとんどがゼロのベクトルをコンパクトに表すために、
i =(0.1,0,0.4,0,0,0,0.2)

i ={1:0.1,3:0.4,7:0.2}
と表したり、
i =(1,0,1,0,0,0,1)

i ={1,3,7}
と表すというように、非ゼロ要素の成分番号と値とのペアを使ってベクトルを表現するようにしている。
【0055】
算出手段11の処理について具体的に説明するならば、算出手段11は、すべてのベクトルの成分が0と1しか取らない場合には、図2の係数計算アルゴリズムに従って、すべてのzi を調べて、上述の〔数4〕式に従って、W1 ' 〔h〕とW3 〔h,k〕とをあらかじめ計算し、〔h〕や〔h,k〕が指定されたときに、対応する係数が直ちに取り出せるようにと、図1に示す記憶手段13に保存しておく。
【0056】
ここで、図2に示す係数計算アルゴリズムでは、c0,c1 がともに1であることを仮定しており、c0,c1 が1以外のときには、この計算結果を定数倍することになる。
【0057】
この記憶手段13に記憶される係数を受けて、図1に示した判定手段15は、入力ベクトルxが与えられる度に、必要な係数を記憶手段13から取り出してg(x)を計算する。
【0058】
例えば、入力ベクトルxが「x={1,3,8}」の場合には、図3及び図4に示すように、
Figure 0003889663
によりg(x)が求められることになるので、判定手段15は、この式に含まれる7個の係数を記憶手段13から読み出して、その総和を算出することで、g(x)を直ちに計算することができるようになる。
【0059】
一方、算出手段11は、非ゼロ要素に1以外の値がある場合には、図5の係数計算アルゴリズムに従って、すべてのzi を調べて、上述の〔数2〕式に従って、W0 とW1 〔h〕とW2 〔h〕とW3 〔h,k〕とをあらかじめ計算し、〔h〕や〔h,k〕が指定されたときに、対応する係数が直ちに取り出せるようにと記憶手段13に保存しておく。
【0060】
ここで、図5に示す係数計算アルゴリズムでは、c0,c1 がともに1であることを仮定しており、c0,c1 が1以外のときには、この計算結果を定数倍することになる。
【0061】
この記憶手段13に記憶される係数を受けて、判定手段15は、入力ベクトルxが与えられる度に、必要な係数を記憶手段13から取り出してg(x)を計算する。
【0062】
例えば、入力ベクトルxが「x={1:0.3,3:0.5,8:−0.2}」の場合には、
Figure 0003889663
によりg(x)が求められることになるので、判定手段15は、この式に含まれる10個の係数を記憶手段13から読み出し、「x〔1〕=0.3,x〔3〕=0.5,x〔8〕=−0.2」として、この式の計算を行うことで、g(x)を直ちに計算することができるようになる。
【0063】
図6に、本実施形態例の処理フローを図示する。図中の左側に示す処理フローが算出手段11の実行する処理を示しており、図中の右側に示す処理フローが判定手段15の実行する処理を示している。
【0064】
ここで、この処理フローでは、すべてのベクトルの成分が0と1しか取らないことを想定している。
【0065】
この処理フローに示すように、算出手段11は、分類処理に入る前の前処理要求が発行されると、図4中の左側の処理フローに示すように、すべてのzi を調べて、上述の〔数4〕式に従って、W1 ' 〔h〕とW3 〔h,k〕とをあらかじめ計算し、〔h〕や〔h,k〕が指定されたときに、対応する係数が直ちに取り出せるようにと記憶手段13に保存する処理を行う。
【0066】
一方、判定手段15は、分類要求が発行されると、図4中の右側の処理フローに示すように、先ず最初に、ステップ10で、分類要求の入力ベクトルを受け取り、続くステップ11で、記憶手段13から、入力ベクトルの持つ非ゼロ要素の指す係数を取り出す。
【0067】
続いて、ステップ12で、その取り出した係数に従って決定関数g(x)を計算し、続くステップ13で、その計算した決定関数g(x)の値の符号に従って、入力ベクトルの属するクラスを決定して、分類結果ファイル3にその決定結果を格納して、処理を終了する。
【0068】
このようにして、本実施形態例に従う場合、分類要求の入力ベクトルが与えられると、数個からせいぜい数百個の定数を足して行くだけで決定関数g(x)を計算できるようになることから、きわめて高速に入力ベクトルの属するクラスを決定できるようになる。
【0069】
以上に説明した例では、2次の多項式カーネルを想定したが、3次以上の多項式カーネルの場合にも、同様に式を成分ごとに展開して各属性および属性の積に対する係数を求めることができることは言うまでもない。
【0070】
上述したように、算出手段11は、定数ベクトルzi と定数ωi と定数bとから各属性の係数Wi を計算する。しかし、この方法では、内積を含む式を成分ごとに展開するため、係数の表が膨大な数にのぼり、大規模な記憶装置(記憶手段13)を必要とするという問題が発生する。
【0071】
図1に示す削除手段12は、この問題を緩和するために用意されるものである。
【0072】
すなわち、削除手段12は、すべてのベクトルの成分が0と1しか取らない場合で説明するならば、各属性hについて、x[h]にかかわる係数W1 ' 〔h〕、W3 [h,k]、W3 [k,h]の大きさを評価する関数E(h)を用いて、この属性を採用するのか削除してよいのかを判断する。たとえば、この関数E(h)として、W1 ' [h]、W3 [h,k]、W3 [k,h]の絶対値の最大値や、絶対値の和、あるいは、二乗和などを利用することができる。
【0073】
そして、削除手段12は、E(h)がある閾値θ未満の属性をすべてg(x)から削除した場合に、どの程度成績が下がるのかを調べる。たとえば、学習用データに対する成績が低下しない範囲でθをできる限り大きくすることで、沢山の属性を削除することが可能である。
【0074】
このようにして、削除手段12を備えるようにすると、算出手段11の算出した係数の中に含まれる不要な係数を削除することができるようになることで、記憶手段13の規模を小さなものにできるようになる。
【0075】
図1に示した再学習手段14は、削除手段12が不要な属性を削除したあとに、選ばれた属性だけを用いてもう一度決定関数g(x)を学習するのに用いられる。
【0076】
再学習に用いる装置は、最初の学習に用いた装置と同じでも、違っていてもかまわない。たとえば、最初の学習では2次のカーネルを用い、再学習ではガウシアン・カーネルを用いてもよいのである。
【0077】
余分な属性が削除されることにより、最初の属性での学習結果を上回る成績が上がることがある。また、すべての属性を用いた場合と比べて、定数ベクトルの数が少なくてすむことが多い。特にガウシアン・カーネルや高次の多項式などのように、成分による展開が困難なカーネルの場合、もとの定義式にしたがって計算するしかないが、この場合、定数ベクトルの数が減れば、それに比例して計算時間が短縮されるため、とくに有効である。
【0078】
【実施例】
図7に、本発明の一実施例を図示する。
【0079】
図中、1は図1に示した学習用データファイル、2は図1に示した分類データファイル、3は図1に示した分類結果ファイル、100は学習装置、200は係数決定装置、300は不要属性削除装置、400は記憶装置、500は再学習装置、600は判定処理装置である。
【0080】
学習用データファイル1に格納される学習用データには、学習に用いるデータの特徴ベクトルxi と、その正しい分類yi =±1とが与えられている。この学習用データをサポート・ベクトル・マシンなどの学習装置100に与えることにより、まず、オリジナルの決定関数g(x)が得られる。
【0081】
学習装置100に、たとえば2次のカーネルを用いると、係数決定装置200は、決定関数g(x)をxの成分で展開したときの係数Wi を出力する。この時点で実行に必要なメモリなどに問題がなければ、判定処理装置600は、展開して得られた係数をそのまま用いることになる。
【0082】
一方、メモリ不足などで記憶装置400に係数をすべて保存しておくことができない場合などには、不要属性削除装置300により、判定に与える影響の少ない属性を削除していく。このとき、展開した決定関数g(x)の各属性(成分)x[h]は一般に複数の項に含まれるため、それらすべての係数を考慮して判断しなければならない。
【0083】
ひとつの方法として、それらの係数の絶対値の最大値を基準とする方法を用いる。これ以外にも、たとえば、係数の絶対値の和や平方和など、いくつもの評価関数を利用することが考えられる。
【0084】
いずれにせよ、その評価関数の値が小さい属性から順に削除していって、学習用データに対する判定結果が変化しない限り属性を削除していくことにより、結果に影響を与えない単純化が可能になる。
【0085】
実行環境次第では、成績が若干低下しても、メモリを削減する必要がある場合もあるので、学習用データに対する成績とメモリ使用量との二つの評価基準を合わせて評価し、両方の要求を適度に満たすところで打ち切ってもよい。
【0086】
実際には、少しずつ削っていく方法は効率が悪いので、2分法など、適当な高速探索方法でどれくらいの値までの属性を捨てるかを決定することが可能である。
【0087】
これで成績に影響の少ない属性を削除し、使用メモリ量を削減することができるようになる。使用メモリ量の削減に加えて、計算に必要な属性の数が減ることで、処理速度がさらに向上する。この段階で、判定処理装置600に処理を渡してもよい。
【0088】
以上により、不要な属性が分かったので、これで再学習装置500により再学習を行なうこともできる。サポート・ベクトル・マシンは、不要な属性がかなり多い場合でも従来手法に比べれば良好な成績を納めているが、データ次第では、余分な属性のせいで成績が下がっている場合がある。そのようなケースでは、有効な属性だけに絞って再学習することによって、成績が向上する場合がある。
【0089】
その場合は、再学習の結果を判定処理装置600で利用する方が好ましい。再学習を再度2次のカーネルで行なった場合などには、係数決定以降の処理をもう一度行なうことができる。
【0090】
再学習にガウシアン・カーネルのように展開の困難なカーネル関数を用いても、すべての属性を用いた場合に比べて定数ベクトルの数mが減る効果がある。属性の削減と再学習とを交互に繰り返すことにより、場合によっては大幅に属性や定数ベクトルの数、処理時間を減らすことができる。
【0091】
【発明の効果】
以上説明したように、本発明によれば、自然言語処理システム、画像処理システム、音声認識システムなどにおいて、単語列、画像、音声などを複数のクラスに分類する場合に、実行時に何十万もの内積計算を行なうのではなく、ごくわずかの積和計算あるいは単なる足し算で等価な計算を行なうことができるようになる。
【0092】
さらに、係数の小さい属性を削除することで、メモリを削減したり、分類精度を向上させたり、処理速度をさらに向上させることができるようになる。
【図面の簡単な説明】
【図1】本発明の一実施形態例である。
【図2】係数計算アルゴリズムの説明図である。
【図3】決定関数の算出処理の説明図である。
【図4】決定関数の算出処理の説明図である。
【図5】係数計算アルゴリズムの説明図である。
【図6】本発明の実行する処理フローの一実施形態例である。
【図7】本発明の一実施例である。
【符号の説明】
1 学習用データファイル
2 分類データファイル
3 分類結果ファイル
10 学習手段
11 算出手段
12 削除手段
13 記憶手段
14 再学習手段
15 判定手段
16 取得手段

Claims (5)

  1. 入力ベクトルと学習用データにより得られた定数ベクトルとの内積の関数となる多項式の値を算出することで、入力ベクトルの属するクラスを判定する分類装置において、
    上記多項式を入力ベクトルの成分ごとに展開するときの各成分の係数値を記憶する記憶手段と、
    上記記憶手段を検索することで、入力ベクトルの持つ非ゼロ値成分の指す係数値を取得する取得手段と、
    上記取得手段の取得した係数値を使って上記多項式の値を算出することで、入力ベクトルの属するクラスを判定する判定手段とを備えることを、
    特徴とする分類装置。
  2. 請求項1記載の分類装置において、
    上記多項式を入力ベクトルの成分ごとに展開するときの各成分の係数値を算出して、上記記憶手段に保存する算出手段を備えることを、
    特徴とする分類装置。
  3. 入力ベクトルと学習用データにより得られた定数ベクトルとの内積を変数に持つ多項式の値を算出することで、入力ベクトルの属するクラスを判定する分類方法において、
    上記多項式を入力ベクトルの成分ごとに展開するときの各成分の係数値を算出して、記憶装置に保存する過程と、
    上記記憶装置を検索することで、入力ベクトルの持つ非ゼロ値成分の指す係数値を取得する過程と、
    上記取得した係数値を使って上記多項式の値を算出することで、入力ベクトルの属するクラスを判定する過程とを備えることを、
    特徴とする分類方法。
  4. 請求項3に記載の分類方法の実現に用いられる処理をコンピュータに実行させるための分類プログラム。
  5. 請求項3に記載の分類方法の実現に用いられる処理をコンピュータに実行させるためのプログラムを記録した分類プログラムの記録媒体。
JP2002136536A 2002-05-13 2002-05-13 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体 Expired - Lifetime JP3889663B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002136536A JP3889663B2 (ja) 2002-05-13 2002-05-13 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002136536A JP3889663B2 (ja) 2002-05-13 2002-05-13 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2003331254A JP2003331254A (ja) 2003-11-21
JP3889663B2 true JP3889663B2 (ja) 2007-03-07

Family

ID=29698526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002136536A Expired - Lifetime JP3889663B2 (ja) 2002-05-13 2002-05-13 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP3889663B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2007007247A (es) * 2004-12-17 2007-09-04 Univ Queensland Metodo para la reduccion de caracteristicas para maquinas de decision.
JP5552023B2 (ja) 2010-10-27 2014-07-16 インターナショナル・ビジネス・マシーンズ・コーポレーション クラスタリング・システム、方法及びプログラム
JP6700843B2 (ja) * 2016-02-22 2020-05-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US20200057959A1 (en) * 2018-08-15 2020-02-20 Salesforce.Com, Inc. Reducing instances of inclusion of data associated with hindsight bias in a training set of data for a machine learning system

Also Published As

Publication number Publication date
JP2003331254A (ja) 2003-11-21

Similar Documents

Publication Publication Date Title
CN108388651B (zh) 一种基于图核和卷积神经网络的文本分类方法
JP3726263B2 (ja) 文書分類方法及び装置
JP2940501B2 (ja) ドキュメント分類装置及び方法
US20190318256A1 (en) Method, apparatus and system for estimating causality among observed variables
CN111444320A (zh) 文本检索方法、装置、计算机设备和存储介质
JP2005158010A (ja) 分類評価装置・方法及びプログラム
CN114841257B (zh) 一种基于自监督对比约束下的小样本目标检测方法
CN110674865B (zh) 面向软件缺陷类分布不平衡的规则学习分类器集成方法
JP6816481B2 (ja) 削減条件特定方法、削減条件特定プログラム及び削減条件特定装置
CN112000783B (zh) 基于文本相似性分析的专利推荐方法、装置、设备及存储介质
JP2009059323A (ja) 知識生成システム
WO2022121163A1 (zh) 用户行为倾向识别方法、装置、设备及存储介质
CN110019653B (zh) 一种融合文本和标签网络的社交内容表征方法和系统
JP6291443B2 (ja) 接続関係推定装置、方法、及びプログラム
CN110134852B (zh) 一种文档的去重方法、设备及可读介质
US20010003817A1 (en) Knowledge finding method
US6697769B1 (en) Method and apparatus for fast machine training
JP2019086979A (ja) 情報処理装置、情報処理方法及びプログラム
CN107665221A (zh) 关键词的分类方法和装置
CN111967258A (zh) 一种构建共指消解模型的方法、共指消解的方法和介质
US11829722B2 (en) Parameter learning apparatus, parameter learning method, and computer readable recording medium
CN113780418B (zh) 一种数据的筛选方法、系统、设备和存储介质
US20220222442A1 (en) Parameter learning apparatus, parameter learning method, and computer readable recording medium
JP3889663B2 (ja) 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体
JP3472032B2 (ja) 情報フィルタ装置及び情報フィルタ方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060913

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061130

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3889663

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101208

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101208

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111208

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111208

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121208

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121208

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131208

Year of fee payment: 7

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term