JP2003331254A - 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体 - Google Patents

分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体

Info

Publication number
JP2003331254A
JP2003331254A JP2002136536A JP2002136536A JP2003331254A JP 2003331254 A JP2003331254 A JP 2003331254A JP 2002136536 A JP2002136536 A JP 2002136536A JP 2002136536 A JP2002136536 A JP 2002136536A JP 2003331254 A JP2003331254 A JP 2003331254A
Authority
JP
Japan
Prior art keywords
input vector
component
coefficient value
learning
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002136536A
Other languages
English (en)
Other versions
JP3889663B2 (ja
Inventor
Hideki Isozaki
秀樹 磯崎
Hideto Kazawa
秀人 賀沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002136536A priority Critical patent/JP3889663B2/ja
Publication of JP2003331254A publication Critical patent/JP2003331254A/ja
Application granted granted Critical
Publication of JP3889663B2 publication Critical patent/JP3889663B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 【課題】本発明は、入力ベクトルと学習用データにより
得られた定数ベクトルとの内積の関数となる多項式の値
を算出することで、入力ベクトルの属するクラスを判定
するときにあって、その判定に要する計算時間を大幅に
削減できるようにする新たな分類技術の提供を目的とす
る。 【解決手段】多項式の値を算出する場合に、従来技術に
従うと膨大な数の内積計算が必要になるのに対して、入
力ベクトルの持つ非ゼロ値成分の個数がそれほど多くな
いことを考慮して、あらかじめ各成分の係数値を算出し
て保存しておいて、その中から、入力ベクトルの持つ非
ゼロ値成分の指す係数値を取得することでわずかな積和
計算や加算により多項式の値を算出するように処理す
る。これにより、入力ベクトルの属するクラスを判定す
るときにあって、その判定に要する計算時間を大幅に削
減できるようになる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、入力ベクトルと学
習用データにより得られた定数ベクトルとの内積の関数
となる多項式の値を算出することで、入力ベクトルの属
するクラスを判定する分類方法及びその装置と、その分
類方法の実現に用いられる分類プログラム及びそのプロ
グラムを記録した記録媒体とに関する。
【0002】
【従来の技術】自然言語処理システムや画像処理システ
ムや音声認識システムなどにおいて、あらかじめ正解の
分かっている学習用データからデータの分類の仕方を自
動的に学習する教師あり学習では、サポート・ベクトル
・マシン(V.N.Vapnik:The Nature of Statistical Lea
rning Theory,Springer,1995) などのカーネル関数を用
いた学習手法が、決定木や決定リストなどの他の学習手
法に比べて高性能であることが知られている。
【0003】このカーネル関数としては内積を用いたも
のが主流である。しかし、内積に基づくカーネル関数を
用いた場合、分類にかかる時間が従来手法に比べてきわ
めて遅いことが知られている。
【0004】これは、ひとつのデータの分類に、数千回
から数十万回という膨大な回数の内積計算が必要なため
である。
【0005】そこで、0でない成分同士だけを記録し比
較することによって、内積計算を高速にするなどの方法
が取られている。それでも、従来手法に比べて実行速度
は1桁〜3桁程度遅い。
【0006】
【発明が解決しようとする課題】サポート・ベクトル・
マシンなどのカーネル関数に基づく手法は、従来手法と
比べて処理時間が遅いため、大量のデータを短時間で処
理しなければならないような分野ではほとんど利用され
ていないのが実情である。
【0007】このような分野では、人間が分類プログラ
ムを作成したり、決定木などのような精度は低いが実行
の速い従来の学習手法が用いられている。
【0008】しかしながら、サポート・ベクトル・マシ
ンなどのカーネル関数に基づく手法は高性能であり、大
量のデータを短時間で処理しなければならないような分
野でも用いることができるようにしていくことが望まれ
ている。
【0009】本発明はかかる事情に鑑みてなされたもの
であって、入力ベクトルと学習用データにより得られた
定数ベクトルとの内積の関数となる多項式の値を算出す
ることで、入力ベクトルの属するクラスを判定するとき
にあって、その判定に要する計算時間を大幅に削減でき
るようにする新たな分類技術の提供を目的とする。
【0010】
【課題を解決するための手段】この目的を達成するため
に、本発明の分類装置は、入力ベクトルと学習用データ
により得られた定数ベクトルとの内積の関数となる多項
式の値を算出することで、入力ベクトルの属するクラス
を判定するときにあって、多項式を入力ベクトルの成
分ごとに展開するときの各成分の係数値を記憶する記憶
手段と、多項式を入力ベクトルの成分ごとに展開した
ときの各成分の係数値を算出して、記憶手段に保存する
算出手段と、記憶手段を検索することで、入力ベクト
ルの持つ非ゼロ値成分の指す係数値を取得する取得手段
と、取得手段の取得した係数値を使って多項式の値を
算出することで、入力ベクトルの属するクラスを判定す
る判定手段とを備えるように構成する。
【0011】そして、この構成を採るときにあって、算
出手段は、係数値を算出して記憶手段に保存する処理を
行うときにあって、算出した係数値の大きさを評価する
ことで不要な成分を削除する削除手段を備えて、その削
除手段により不要な成分の削除された係数値を記憶手段
に保存するように処理することがある。
【0012】そして、この構成を採るときにあって、算
出手段の算出した係数値の大きさを評価することで、不
要な成分を削除する削除手段と、不要な成分の削除され
た学習用データを使って多項式を再学習する再学習手段
とを備えることがある。
【0013】以上の各処理手段により実現される本発明
の分類方法はコンピュータプログラムで実現できるもの
であり、このコンピュータプログラムは、半導体メモリ
などような適当な記録媒体に記録して提供することがで
きる。
【0014】このように構成される本発明の分類装置で
は、学習用データにより得られた多項式g(x)を入力
ベクトルの成分ごとに展開するときの各成分の係数値を
算出して、記憶手段に保存した後、分類対象の入力ベク
トルが与えられると、記憶手段を検索することで、その
入力ベクトルの持つ非ゼロ値成分の指す係数値を取得し
て、その取得した係数値を使って多項式g(x)の値を
算出することで、入力ベクトルの属するクラスを判定す
る。
【0015】このとき、記憶手段として大規模なものを
用意しなくても済むようにするために、算出した係数値
の大きさを評価することで不要な成分を削除し、その不
要な成分を削除した係数値を記憶手段に保存するように
処理することがある。
【0016】そして、分類精度の向上や処理速度の向上
を図るために、算出した係数値の大きさを評価すること
で、不要な成分を削除し、その不要な成分の削除された
学習用データを使って多項式を再学習するように処理す
ることがある。
【0017】このようにして、本発明では、入力ベクト
ルと学習用データにより得られた定数ベクトルとの内積
の関数となる多項式の値を算出する場合に、従来技術に
従うと膨大な数の内積計算が必要になるのに対して、入
力ベクトルの持つ非ゼロ値成分の個数がそれほど多くな
いことを考慮して、あらかじめ各成分の係数値を算出し
て保存しておいて、その中から、入力ベクトルの持つ非
ゼロ値成分の指す係数値を取得することでわずかな積和
計算や加算により多項式の値を算出するように処理する
ことから、入力ベクトルの属するクラスを判定するとき
にあって、その判定に要する計算時間を大幅に削減でき
るようになる。
【0018】そして、本発明では、この構成を採るとき
にあって、係数の小さい属性を削除することで、メモリ
を削減したり、分類精度を向上させたり、処理速度をさ
らに向上させることができるようになる。
【0019】
【発明の実施の形態】以下、実施の形態に従って本発明
を詳細に説明する。
【0020】図1に本発明の一実施形態例を図示する。
【0021】図中、1は学習用データファイル、2は分
類データファイル、3は分類結果ファイル、10は学習
手段、11は算出手段、12は削除手段、13は記憶手
段、14は再学習手段、15は判定手段、16は取得手
段である。
【0022】この学習用データファイル1は、学習用の
データを格納する。分類データファイル2は、分類対象
となる入力ベクトルを格納する。分類結果ファイル3
は、分類結果を格納する。
【0023】学習手段10は、学習用データファイル1
に格納される学習用データを使って、入力ベクトルと定
数ベクトルとの内積の関数となる多項式g(x)を学習
する。
【0024】算出手段11は、学習手段10の学習した
多項式g(x)を入力ベクトルの成分(属性)ごとに展
開するときの各成分の係数値を算出して、記憶手段13
に保存する。
【0025】削除手段12は、算出手段11の算出した
係数値の大きさを評価することで、不要な成分を削除す
る。この削除手段12が設けられるときには、算出手段
11は、不要な成分の削除された係数値を記憶手段13
に保存することになる。
【0026】再学習手段14は、削除手段12により不
要な成分の削除された学習用データを使って多項式を再
学習することで、多項式g(x)を再学習する。
【0027】判定手段15は、分類データファイル2に
格納される入力ベクトルの属するクラスを判定して、分
類結果ファイル3に格納する。
【0028】取得手段16は、例えば判定手段15に備
えられて、記憶手段13を検索することで、入力ベクト
ルの持つ非ゼロ値成分の指す係数値を取得する。
【0029】サポート・ベクトル・マシンなど、カーネ
ル関数を用いて分類する場合、以下の決定関数(上述の
多項式)を計算することによってデータが分類される。
【0030】g(x)=Σωi K(x,zi )+b 但し、Σはi=1〜mの総和 ここで、xは入力ベクトルであり、g(x)の符号によ
りxが分類される。z i は定数ベクトルであり、サポー
ト・ベクトル・マシンの場合にはサポート・ベクトルと
呼ばれる訓練データの代表である。mは定数ベクトルz
i の数である。ωi は定数である。
【0031】但し、サポート・ベクトル以外の定数ベク
トルを使う方法も提案されており、必ずしもzi がサポ
ート・ベクトルである必要はないし、これらの定数ベク
トルがサポート・ベクトル・マシンの学習手法で求めら
れる必要もなく、要するに決定関数が上記の形式をして
いればよい。
【0032】現実のデータを精度よく分類しようとする
と、定数ベクトルの数mが数千から数十万になることは
珍しくない。すると、入力ベクトルxをこの式に従って
分類するためには、数千から数十万の内積計算を実行し
なければならない。これが計算時間のネックとなってい
る。
【0033】しかし、多くの応用分野において、各入力
ベクトルxを特徴づける属性(成分)は、実際には数十
個程度におさまることが多い。ベクトル表現をする都合
上、次元が数万〜数十万次元になるだけであり、各入力
ベクトルxは、実質的には数個から数十個の属性の値で
表されることが多い。
【0034】たとえば、文中の英単語をいくつかのクラ
ス(たとえば品詞)に分類するという課題を考える。英
単語は「report」のようにまったく同じ形でも、前後の
文脈によって動詞になったり名詞になったりする。
【0035】単語は数万〜数十万あるので、単語ごとに
数値軸を設けてベクトル表現すると、数万〜数十万次元
になってしまう。品詞分類で前後の文脈を考慮するた
め、分類したい単語の直前、直後の単語もその単語の属
性として考慮すると、ベクトルの次元数はこの3倍にな
る。
【0036】見かけ上は次元が多いが、実際に利用して
いる属性は、3単語、つまり3つにすぎない。つまり、
g(x)は3つの属性の関数にすぎず、この点に着目す
ると、処理速度を大幅に向上させることができる。
【0037】以下では、2次の多項式カーネルK(x,
i ) K(x,zi )=(c0 +c1 x・zi 2 但し、c0,c1 は定数 を考える。
【0038】図1に示した算出手段11は、この多項式
カーネルを成分ごとに展開して各成分(属性)の係数を
求める処理を行う。
【0039】入力ベクトルxを、 x=(x〔1〕, ....,x〔D〕) であるとし、定数ベクトルzi を、 zi =(zi 〔1],....,zi [D]) であるとすると、この多項式カーネルは、 K(x,zi )=(c0 +c1 x・zi 2 =c0 2+2c0 1 x・zi +c1 2(x・zi 2 のように展開できる。
【0040】ここで、 x・zi =Σx〔h〕zi 〔h] 但し、Σはh=1〜Dの総和 を考慮すると、g(x)は、
【0041】
【数1】
【0042】のように変形できる。
【0043】但し、W0 , W1 〔h〕, W2 〔h〕, W
3 〔h,k〕は、
【0044】
【数2】
【0045】を表している。
【0046】この式を用いれば、ゼロでないx[h]の
数が数個から数十個程度のとき、ゼロでないx[h]x
[k]の数も数個からせいぜい数百個程度であり、その
係数との積和を計算するだけで判定ができるため、数千
から数十万の内積計算が必要となるもとの計算方法に比
べて、大幅な処理時間の圧縮が望める。
【0047】さらに、すべてのベクトルの成分が0と1
しか取らない場合には、x[h]x[k]、zi [h]
i [k]を計算する必要もないので、g(x)は、
【0048】
【数3】
【0049】のように変形できる。
【0050】但し、W1 ' 〔h〕, W3 〔h,k〕は、
【0051】
【数4】
【0052】を表している。
【0053】つまり、数個からせいぜい数百個の定数を
足して行くだけで決定関数g(x)を計算できるように
なる。
【0054】ここで、ほとんどがゼロのベクトルをコン
パクトに表すために、 zi =(0.1,0,0.4,0,0,0,0.2) を zi ={1:0.1,3:0.4,7:0.2} と表したり、 zi =(1,0,1,0,0,0,1) を zi ={1,3,7} と表すというように、非ゼロ要素の成分番号と値とのペ
アを使ってベクトルを表現するようにしている。
【0055】算出手段11の処理について具体的に説明
するならば、算出手段11は、すべてのベクトルの成分
が0と1しか取らない場合には、図2の係数計算アルゴ
リズムに従って、すべてのzi を調べて、上述の〔数
4〕式に従って、W1 ' 〔h〕とW3 〔h,k〕とをあ
らかじめ計算し、〔h〕や〔h,k〕が指定されたとき
に、対応する係数が直ちに取り出せるようにと、図1に
示す記憶手段13に保存しておく。
【0056】ここで、図2に示す係数計算アルゴリズム
では、c0,c1 がともに1であることを仮定しており、
0,c1 が1以外のときには、この計算結果を定数倍す
ることになる。
【0057】この記憶手段13に記憶される係数を受け
て、図1に示した判定手段15は、入力ベクトルxが与
えられる度に、必要な係数を記憶手段13から取り出し
てg(x)を計算する。
【0058】例えば、入力ベクトルxが「x={1,
3,8}」の場合には、図3及び図4に示すように、 g(x)=W0 +W1 ' 〔1〕+W1 ' 〔3〕+W1 '
〔8〕+W3 〔1,3〕+W3 〔1,8〕+W3 〔3,
8〕 によりg(x)が求められることになるので、判定手段
15は、この式に含まれる7個の係数を記憶手段13か
ら読み出して、その総和を算出することで、g(x)を
直ちに計算することができるようになる。
【0059】一方、算出手段11は、非ゼロ要素に1以
外の値がある場合には、図5の係数計算アルゴリズムに
従って、すべてのzi を調べて、上述の〔数2〕式に従
って、W0 とW1 〔h〕とW2 〔h〕とW3 〔h,k〕
とをあらかじめ計算し、〔h〕や〔h,k〕が指定され
たときに、対応する係数が直ちに取り出せるようにと記
憶手段13に保存しておく。
【0060】ここで、図5に示す係数計算アルゴリズム
では、c0,c1 がともに1であることを仮定しており、
0,c1 が1以外のときには、この計算結果を定数倍す
ることになる。
【0061】この記憶手段13に記憶される係数を受け
て、判定手段15は、入力ベクトルxが与えられる度
に、必要な係数を記憶手段13から取り出してg(x)
を計算する。
【0062】例えば、入力ベクトルxが「x={1:
0.3,3:0.5,8:−0.2}」の場合には、 g(x)=W0+(W1 〔1〕*x〔1〕+W2 〔1〕
*x〔1〕*x〔1〕)+(W1 〔3〕*x〔3〕+W
2 〔3〕*x〔3〕*x〔3〕)+(W1 〔8〕*x
〔8〕+W2 〔8〕*x〔8〕*x〔8〕)+W3
〔1,3〕*x〔1〕*x〔3〕+W3 〔1,8〕*x
〔1〕*x〔8〕+W3 〔3,8〕*x〔3〕*x
〔8〕 によりg(x)が求められることになるので、判定手段
15は、この式に含まれる10個の係数を記憶手段13
から読み出し、「x〔1〕=0.3,x〔3〕=0.5,x
〔8〕=−0.2」として、この式の計算を行うことで、
g(x)を直ちに計算することができるようになる。
【0063】図6に、本実施形態例の処理フローを図示
する。図中の左側に示す処理フローが算出手段11の実
行する処理を示しており、図中の右側に示す処理フロー
が判定手段15の実行する処理を示している。
【0064】ここで、この処理フローでは、すべてのベ
クトルの成分が0と1しか取らないことを想定してい
る。
【0065】この処理フローに示すように、算出手段1
1は、分類処理に入る前の前処理要求が発行されると、
図4中の左側の処理フローに示すように、すべてのzi
を調べて、上述の〔数4〕式に従って、W1 ' 〔h〕と
3 〔h,k〕とをあらかじめ計算し、〔h〕や〔h,
k〕が指定されたときに、対応する係数が直ちに取り出
せるようにと記憶手段13に保存する処理を行う。
【0066】一方、判定手段15は、分類要求が発行さ
れると、図4中の右側の処理フローに示すように、先ず
最初に、ステップ10で、分類要求の入力ベクトルを受
け取り、続くステップ11で、記憶手段13から、入力
ベクトルの持つ非ゼロ要素の指す係数を取り出す。
【0067】続いて、ステップ12で、その取り出した
係数に従って決定関数g(x)を計算し、続くステップ
13で、その計算した決定関数g(x)の値の符号に従
って、入力ベクトルの属するクラスを決定して、分類結
果ファイル3にその決定結果を格納して、処理を終了す
る。
【0068】このようにして、本実施形態例に従う場
合、分類要求の入力ベクトルが与えられると、数個から
せいぜい数百個の定数を足して行くだけで決定関数g
(x)を計算できるようになることから、きわめて高速
に入力ベクトルの属するクラスを決定できるようにな
る。
【0069】以上に説明した例では、2次の多項式カー
ネルを想定したが、3次以上の多項式カーネルの場合に
も、同様に式を成分ごとに展開して各属性および属性の
積に対する係数を求めることができることは言うまでも
ない。
【0070】上述したように、算出手段11は、定数ベ
クトルzi と定数ωi と定数bとから各属性の係数Wi
を計算する。しかし、この方法では、内積を含む式を成
分ごとに展開するため、係数の表が膨大な数にのぼり、
大規模な記憶装置(記憶手段13)を必要とするという
問題が発生する。
【0071】図1に示す削除手段12は、この問題を緩
和するために用意されるものである。
【0072】すなわち、削除手段12は、すべてのベク
トルの成分が0と1しか取らない場合で説明するなら
ば、各属性hについて、x[h]にかかわる係数W1 '
〔h〕、W3 [h,k]、W3 [k,h]の大きさを評
価する関数E(h)を用いて、この属性を採用するのか
削除してよいのかを判断する。たとえば、この関数E
(h)として、W1 ' [h]、W3 [h,k]、W
3 [k,h]の絶対値の最大値や、絶対値の和、あるい
は、二乗和などを利用することができる。
【0073】そして、削除手段12は、E(h)がある
閾値θ未満の属性をすべてg(x)から削除した場合
に、どの程度成績が下がるのかを調べる。たとえば、学
習用データに対する成績が低下しない範囲でθをできる
限り大きくすることで、沢山の属性を削除することが可
能である。
【0074】このようにして、削除手段12を備えるよ
うにすると、算出手段11の算出した係数の中に含まれ
る不要な係数を削除することができるようになること
で、記憶手段13の規模を小さなものにできるようにな
る。
【0075】図1に示した再学習手段14は、削除手段
12が不要な属性を削除したあとに、選ばれた属性だけ
を用いてもう一度決定関数g(x)を学習するのに用い
られる。
【0076】再学習に用いる装置は、最初の学習に用い
た装置と同じでも、違っていてもかまわない。たとえ
ば、最初の学習では2次のカーネルを用い、再学習では
ガウシアン・カーネルを用いてもよいのである。
【0077】余分な属性が削除されることにより、最初
の属性での学習結果を上回る成績が上がることがある。
また、すべての属性を用いた場合と比べて、定数ベクト
ルの数が少なくてすむことが多い。特にガウシアン・カ
ーネルや高次の多項式などのように、成分による展開が
困難なカーネルの場合、もとの定義式にしたがって計算
するしかないが、この場合、定数ベクトルの数が減れ
ば、それに比例して計算時間が短縮されるため、とくに
有効である。
【0078】
【実施例】図7に、本発明の一実施例を図示する。
【0079】図中、1は図1に示した学習用データファ
イル、2は図1に示した分類データファイル、3は図1
に示した分類結果ファイル、100は学習装置、200
は係数決定装置、300は不要属性削除装置、400は
記憶装置、500は再学習装置、600は判定処理装置
である。
【0080】学習用データファイル1に格納される学習
用データには、学習に用いるデータの特徴ベクトルxi
と、その正しい分類yi =±1とが与えられている。こ
の学習用データをサポート・ベクトル・マシンなどの学
習装置100に与えることにより、まず、オリジナルの
決定関数g(x)が得られる。
【0081】学習装置100に、たとえば2次のカーネ
ルを用いると、係数決定装置200は、決定関数g
(x)をxの成分で展開したときの係数Wi を出力す
る。この時点で実行に必要なメモリなどに問題がなけれ
ば、判定処理装置600は、展開して得られた係数をそ
のまま用いることになる。
【0082】一方、メモリ不足などで記憶装置400に
係数をすべて保存しておくことができない場合などに
は、不要属性削除装置300により、判定に与える影響
の少ない属性を削除していく。このとき、展開した決定
関数g(x)の各属性(成分)x[h]は一般に複数の
項に含まれるため、それらすべての係数を考慮して判断
しなければならない。
【0083】ひとつの方法として、それらの係数の絶対
値の最大値を基準とする方法を用いる。これ以外にも、
たとえば、係数の絶対値の和や平方和など、いくつもの
評価関数を利用することが考えられる。
【0084】いずれにせよ、その評価関数の値が小さい
属性から順に削除していって、学習用データに対する判
定結果が変化しない限り属性を削除していくことによ
り、結果に影響を与えない単純化が可能になる。
【0085】実行環境次第では、成績が若干低下して
も、メモリを削減する必要がある場合もあるので、学習
用データに対する成績とメモリ使用量との二つの評価基
準を合わせて評価し、両方の要求を適度に満たすところ
で打ち切ってもよい。
【0086】実際には、少しずつ削っていく方法は効率
が悪いので、2分法など、適当な高速探索方法でどれく
らいの値までの属性を捨てるかを決定することが可能で
ある。
【0087】これで成績に影響の少ない属性を削除し、
使用メモリ量を削減することができるようになる。使用
メモリ量の削減に加えて、計算に必要な属性の数が減る
ことで、処理速度がさらに向上する。この段階で、判定
処理装置600に処理を渡してもよい。
【0088】以上により、不要な属性が分かったので、
これで再学習装置500により再学習を行なうこともで
きる。サポート・ベクトル・マシンは、不要な属性がか
なり多い場合でも従来手法に比べれば良好な成績を納め
ているが、データ次第では、余分な属性のせいで成績が
下がっている場合がある。そのようなケースでは、有効
な属性だけに絞って再学習することによって、成績が向
上する場合がある。
【0089】その場合は、再学習の結果を判定処理装置
600で利用する方が好ましい。再学習を再度2次のカ
ーネルで行なった場合などには、係数決定以降の処理を
もう一度行なうことができる。
【0090】再学習にガウシアン・カーネルのように展
開の困難なカーネル関数を用いても、すべての属性を用
いた場合に比べて定数ベクトルの数mが減る効果があ
る。属性の削減と再学習とを交互に繰り返すことによ
り、場合によっては大幅に属性や定数ベクトルの数、処
理時間を減らすことができる。
【0091】
【発明の効果】以上説明したように、本発明によれば、
自然言語処理システム、画像処理システム、音声認識シ
ステムなどにおいて、単語列、画像、音声などを複数の
クラスに分類する場合に、実行時に何十万もの内積計算
を行なうのではなく、ごくわずかの積和計算あるいは単
なる足し算で等価な計算を行なうことができるようにな
る。
【0092】さらに、係数の小さい属性を削除すること
で、メモリを削減したり、分類精度を向上させたり、処
理速度をさらに向上させることができるようになる。
【図面の簡単な説明】
【図1】本発明の一実施形態例である。
【図2】係数計算アルゴリズムの説明図である。
【図3】決定関数の算出処理の説明図である。
【図4】決定関数の算出処理の説明図である。
【図5】係数計算アルゴリズムの説明図である。
【図6】本発明の実行する処理フローの一実施形態例で
ある。
【図7】本発明の一実施例である。
【符号の説明】
1 学習用データファイル 2 分類データファイル 3 分類結果ファイル 10 学習手段 11 算出手段 12 削除手段 13 記憶手段 14 再学習手段 15 判定手段 16 取得手段

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】 入力ベクトルと学習用データにより得ら
    れた定数ベクトルとの内積の関数となる多項式の値を算
    出することで、入力ベクトルの属するクラスを判定する
    分類装置において、 上記多項式を入力ベクトルの成分ごとに展開するときの
    各成分の係数値を記憶する記憶手段と、 上記記憶手段を検索することで、入力ベクトルの持つ非
    ゼロ値成分の指す係数値を取得する取得手段と、 上記取得手段の取得した係数値を使って上記多項式の値
    を算出することで、入力ベクトルの属するクラスを判定
    する判定手段とを備えることを、 特徴とする分類装置。
  2. 【請求項2】 請求項1記載の分類装置において、 上記多項式を入力ベクトルの成分ごとに展開するときの
    各成分の係数値を算出して、上記記憶手段に保存する算
    出手段を備えることを、 特徴とする分類装置。
  3. 【請求項3】 請求項2記載の分類装置において、 上記算出手段の算出した係数値の大きさを評価すること
    で、不要な成分を削除する削除手段を備えることを、 特徴とする分類装置。
  4. 【請求項4】 請求項2記載の分類装置において、 上記算出手段の算出した係数値の大きさを評価すること
    で、不要な成分を削除する削除手段と、 上記不要な成分の削除された学習用データを使って上記
    多項式を再学習する再学習手段とを備えることを、 特徴とする分類装置。
  5. 【請求項5】 入力ベクトルと学習用データにより得ら
    れた定数ベクトルとの内積を変数に持つ多項式の値を算
    出することで、入力ベクトルの属するクラスを判定する
    分類方法において、 上記多項式を入力ベクトルの成分ごとに展開するときの
    各成分の係数値を算出して、記憶装置に保存する過程
    と、 上記記憶装置を検索することで、入力ベクトルの持つ非
    ゼロ値成分の指す係数値を取得する過程と、 上記取得した係数値を使って上記多項式の値を算出する
    ことで、入力ベクトルの属するクラスを判定する過程と
    を備えることを、 特徴とする分類方法。
  6. 【請求項6】 請求項5記載の分類方法において、 上記保存する過程では、算出した係数値の大きさを評価
    することで不要な成分を削除し、その不要な成分を削除
    した係数値を上記記憶装置に保存することを、 特徴とする分類方法。
  7. 【請求項7】 請求項5記載の分類方法において、 上記算出した係数値の大きさを評価することで、不要な
    成分を削除する過程と、 上記不要な成分の削除された学習用データを使って上記
    多項式を再学習する過程とを備えることを、 特徴とする分類方法。
  8. 【請求項8】 請求項5ないし7のいずれか1項に記載
    の分類方法の実現に用いられる処理をコンピュータに実
    行させるための分類プログラム。
  9. 【請求項9】 請求項5ないし7のいずれか1項に記載
    の分類方法の実現に用いられる処理をコンピュータに実
    行させるためのプログラムを記録した分類プログラムの
    記録媒体。
JP2002136536A 2002-05-13 2002-05-13 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体 Expired - Lifetime JP3889663B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002136536A JP3889663B2 (ja) 2002-05-13 2002-05-13 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002136536A JP3889663B2 (ja) 2002-05-13 2002-05-13 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2003331254A true JP2003331254A (ja) 2003-11-21
JP3889663B2 JP3889663B2 (ja) 2007-03-07

Family

ID=29698526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002136536A Expired - Lifetime JP3889663B2 (ja) 2002-05-13 2002-05-13 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP3889663B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008524675A (ja) * 2004-12-17 2008-07-10 ザ ユニバーシティー オブ クイーンズランド 判別器のための特徴削減方法
JP2012093976A (ja) * 2010-10-27 2012-05-17 Internatl Business Mach Corp <Ibm> クラスタリング・システム、方法及びプログラム
JP7361759B2 (ja) 2018-08-15 2023-10-16 セールスフォース インコーポレイテッド 機械学習システムのためのデータのトレーニングセットでの後知恵バイアスに関連付けられているデータの包含のインスタンスの削減

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008524675A (ja) * 2004-12-17 2008-07-10 ザ ユニバーシティー オブ クイーンズランド 判別器のための特徴削減方法
JP2012093976A (ja) * 2010-10-27 2012-05-17 Internatl Business Mach Corp <Ibm> クラスタリング・システム、方法及びプログラム
US8805841B2 (en) 2010-10-27 2014-08-12 International Business Machines Corporation Clustering system, method and program
JP7361759B2 (ja) 2018-08-15 2023-10-16 セールスフォース インコーポレイテッド 機械学習システムのためのデータのトレーニングセットでの後知恵バイアスに関連付けられているデータの包含のインスタンスの削減

Also Published As

Publication number Publication date
JP3889663B2 (ja) 2007-03-07

Similar Documents

Publication Publication Date Title
CN108388651B (zh) 一种基于图核和卷积神经网络的文本分类方法
CN109189925B (zh) 基于点互信息的词向量模型和基于cnn的文本分类方法
JP5744228B2 (ja) インターネットにおける有害情報の遮断方法と装置
JPH10187754A (ja) ドキュメント分類装置及び方法
JP2005158010A (ja) 分類評価装置・方法及びプログラム
CN111832282B (zh) 融合外部知识的bert模型的微调方法、装置及计算机设备
CN110688452B (zh) 一种文本语义相似度评估方法、系统、介质和设备
JP6816481B2 (ja) 削減条件特定方法、削減条件特定プログラム及び削減条件特定装置
CN110210028A (zh) 针对语音转译文本的领域特征词提取方法、装置、设备及介质
JP6738769B2 (ja) 文ペア分類装置、文ペア分類学習装置、方法、及びプログラム
WO2020199595A1 (zh) 基于词袋模型的长文本分类方法、装置、计算机设备及存储介质
CN110532388B (zh) 文本聚类的方法、设备和存储介质
CN112632984A (zh) 基于描述文本词频的图模型移动应用分类方法
CN112231482A (zh) 基于可伸缩表示学习的长短文本分类方法
Niyozmatova et al. Classification based on decision trees and neural networks
CN111723203A (zh) 一种基于终生学习的文本分类方法
CN110347853B (zh) 一种基于循环神经网络的图像哈希码生成方法
CN110619046A (zh) 一种基于故障跟踪表的故障识别方法
CN111091001B (zh) 一种词语的词向量的生成方法、装置及设备
CN111737467B (zh) 一种基于分段卷积神经网络的对象级情感分类方法
AU2021279033A1 (en) Method, non-transitory computer-readable storage medium, and apparatus for searching an image database
CN112765357A (zh) 文本分类方法、装置和电子设备
CN112445914A (zh) 文本分类方法、装置、计算机设备和介质
CN111767724A (zh) 一种文本相似度计算方法及系统
JP3178406B2 (ja) 階層型文章分類装置およびプログラムを記録した機械読み取り可能な記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060913

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061130

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3889663

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101208

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101208

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111208

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111208

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121208

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121208

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131208

Year of fee payment: 7

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term