JP2003331254A - 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体 - Google Patents
分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体Info
- Publication number
- JP2003331254A JP2003331254A JP2002136536A JP2002136536A JP2003331254A JP 2003331254 A JP2003331254 A JP 2003331254A JP 2002136536 A JP2002136536 A JP 2002136536A JP 2002136536 A JP2002136536 A JP 2002136536A JP 2003331254 A JP2003331254 A JP 2003331254A
- Authority
- JP
- Japan
- Prior art keywords
- input vector
- component
- coefficient value
- learning
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
得られた定数ベクトルとの内積の関数となる多項式の値
を算出することで、入力ベクトルの属するクラスを判定
するときにあって、その判定に要する計算時間を大幅に
削減できるようにする新たな分類技術の提供を目的とす
る。 【解決手段】多項式の値を算出する場合に、従来技術に
従うと膨大な数の内積計算が必要になるのに対して、入
力ベクトルの持つ非ゼロ値成分の個数がそれほど多くな
いことを考慮して、あらかじめ各成分の係数値を算出し
て保存しておいて、その中から、入力ベクトルの持つ非
ゼロ値成分の指す係数値を取得することでわずかな積和
計算や加算により多項式の値を算出するように処理す
る。これにより、入力ベクトルの属するクラスを判定す
るときにあって、その判定に要する計算時間を大幅に削
減できるようになる。
Description
習用データにより得られた定数ベクトルとの内積の関数
となる多項式の値を算出することで、入力ベクトルの属
するクラスを判定する分類方法及びその装置と、その分
類方法の実現に用いられる分類プログラム及びそのプロ
グラムを記録した記録媒体とに関する。
ムや音声認識システムなどにおいて、あらかじめ正解の
分かっている学習用データからデータの分類の仕方を自
動的に学習する教師あり学習では、サポート・ベクトル
・マシン(V.N.Vapnik:The Nature of Statistical Lea
rning Theory,Springer,1995) などのカーネル関数を用
いた学習手法が、決定木や決定リストなどの他の学習手
法に比べて高性能であることが知られている。
のが主流である。しかし、内積に基づくカーネル関数を
用いた場合、分類にかかる時間が従来手法に比べてきわ
めて遅いことが知られている。
から数十万回という膨大な回数の内積計算が必要なため
である。
較することによって、内積計算を高速にするなどの方法
が取られている。それでも、従来手法に比べて実行速度
は1桁〜3桁程度遅い。
マシンなどのカーネル関数に基づく手法は、従来手法と
比べて処理時間が遅いため、大量のデータを短時間で処
理しなければならないような分野ではほとんど利用され
ていないのが実情である。
ムを作成したり、決定木などのような精度は低いが実行
の速い従来の学習手法が用いられている。
ンなどのカーネル関数に基づく手法は高性能であり、大
量のデータを短時間で処理しなければならないような分
野でも用いることができるようにしていくことが望まれ
ている。
であって、入力ベクトルと学習用データにより得られた
定数ベクトルとの内積の関数となる多項式の値を算出す
ることで、入力ベクトルの属するクラスを判定するとき
にあって、その判定に要する計算時間を大幅に削減でき
るようにする新たな分類技術の提供を目的とする。
に、本発明の分類装置は、入力ベクトルと学習用データ
により得られた定数ベクトルとの内積の関数となる多項
式の値を算出することで、入力ベクトルの属するクラス
を判定するときにあって、多項式を入力ベクトルの成
分ごとに展開するときの各成分の係数値を記憶する記憶
手段と、多項式を入力ベクトルの成分ごとに展開した
ときの各成分の係数値を算出して、記憶手段に保存する
算出手段と、記憶手段を検索することで、入力ベクト
ルの持つ非ゼロ値成分の指す係数値を取得する取得手段
と、取得手段の取得した係数値を使って多項式の値を
算出することで、入力ベクトルの属するクラスを判定す
る判定手段とを備えるように構成する。
出手段は、係数値を算出して記憶手段に保存する処理を
行うときにあって、算出した係数値の大きさを評価する
ことで不要な成分を削除する削除手段を備えて、その削
除手段により不要な成分の削除された係数値を記憶手段
に保存するように処理することがある。
出手段の算出した係数値の大きさを評価することで、不
要な成分を削除する削除手段と、不要な成分の削除され
た学習用データを使って多項式を再学習する再学習手段
とを備えることがある。
の分類方法はコンピュータプログラムで実現できるもの
であり、このコンピュータプログラムは、半導体メモリ
などような適当な記録媒体に記録して提供することがで
きる。
は、学習用データにより得られた多項式g(x)を入力
ベクトルの成分ごとに展開するときの各成分の係数値を
算出して、記憶手段に保存した後、分類対象の入力ベク
トルが与えられると、記憶手段を検索することで、その
入力ベクトルの持つ非ゼロ値成分の指す係数値を取得し
て、その取得した係数値を使って多項式g(x)の値を
算出することで、入力ベクトルの属するクラスを判定す
る。
用意しなくても済むようにするために、算出した係数値
の大きさを評価することで不要な成分を削除し、その不
要な成分を削除した係数値を記憶手段に保存するように
処理することがある。
を図るために、算出した係数値の大きさを評価すること
で、不要な成分を削除し、その不要な成分の削除された
学習用データを使って多項式を再学習するように処理す
ることがある。
ルと学習用データにより得られた定数ベクトルとの内積
の関数となる多項式の値を算出する場合に、従来技術に
従うと膨大な数の内積計算が必要になるのに対して、入
力ベクトルの持つ非ゼロ値成分の個数がそれほど多くな
いことを考慮して、あらかじめ各成分の係数値を算出し
て保存しておいて、その中から、入力ベクトルの持つ非
ゼロ値成分の指す係数値を取得することでわずかな積和
計算や加算により多項式の値を算出するように処理する
ことから、入力ベクトルの属するクラスを判定するとき
にあって、その判定に要する計算時間を大幅に削減でき
るようになる。
にあって、係数の小さい属性を削除することで、メモリ
を削減したり、分類精度を向上させたり、処理速度をさ
らに向上させることができるようになる。
を詳細に説明する。
類データファイル、3は分類結果ファイル、10は学習
手段、11は算出手段、12は削除手段、13は記憶手
段、14は再学習手段、15は判定手段、16は取得手
段である。
データを格納する。分類データファイル2は、分類対象
となる入力ベクトルを格納する。分類結果ファイル3
は、分類結果を格納する。
に格納される学習用データを使って、入力ベクトルと定
数ベクトルとの内積の関数となる多項式g(x)を学習
する。
多項式g(x)を入力ベクトルの成分(属性)ごとに展
開するときの各成分の係数値を算出して、記憶手段13
に保存する。
係数値の大きさを評価することで、不要な成分を削除す
る。この削除手段12が設けられるときには、算出手段
11は、不要な成分の削除された係数値を記憶手段13
に保存することになる。
要な成分の削除された学習用データを使って多項式を再
学習することで、多項式g(x)を再学習する。
格納される入力ベクトルの属するクラスを判定して、分
類結果ファイル3に格納する。
えられて、記憶手段13を検索することで、入力ベクト
ルの持つ非ゼロ値成分の指す係数値を取得する。
ル関数を用いて分類する場合、以下の決定関数(上述の
多項式)を計算することによってデータが分類される。
りxが分類される。z i は定数ベクトルであり、サポー
ト・ベクトル・マシンの場合にはサポート・ベクトルと
呼ばれる訓練データの代表である。mは定数ベクトルz
i の数である。ωi は定数である。
トルを使う方法も提案されており、必ずしもzi がサポ
ート・ベクトルである必要はないし、これらの定数ベク
トルがサポート・ベクトル・マシンの学習手法で求めら
れる必要もなく、要するに決定関数が上記の形式をして
いればよい。
と、定数ベクトルの数mが数千から数十万になることは
珍しくない。すると、入力ベクトルxをこの式に従って
分類するためには、数千から数十万の内積計算を実行し
なければならない。これが計算時間のネックとなってい
る。
ベクトルxを特徴づける属性(成分)は、実際には数十
個程度におさまることが多い。ベクトル表現をする都合
上、次元が数万〜数十万次元になるだけであり、各入力
ベクトルxは、実質的には数個から数十個の属性の値で
表されることが多い。
ス(たとえば品詞)に分類するという課題を考える。英
単語は「report」のようにまったく同じ形でも、前後の
文脈によって動詞になったり名詞になったりする。
数値軸を設けてベクトル表現すると、数万〜数十万次元
になってしまう。品詞分類で前後の文脈を考慮するた
め、分類したい単語の直前、直後の単語もその単語の属
性として考慮すると、ベクトルの次元数はこの3倍にな
る。
いる属性は、3単語、つまり3つにすぎない。つまり、
g(x)は3つの属性の関数にすぎず、この点に着目す
ると、処理速度を大幅に向上させることができる。
zi ) K(x,zi )=(c0 +c1 x・zi )2 但し、c0,c1 は定数 を考える。
カーネルを成分ごとに展開して各成分(属性)の係数を
求める処理を行う。
3 〔h,k〕は、
数が数個から数十個程度のとき、ゼロでないx[h]x
[k]の数も数個からせいぜい数百個程度であり、その
係数との積和を計算するだけで判定ができるため、数千
から数十万の内積計算が必要となるもとの計算方法に比
べて、大幅な処理時間の圧縮が望める。
しか取らない場合には、x[h]x[k]、zi [h]
zi [k]を計算する必要もないので、g(x)は、
足して行くだけで決定関数g(x)を計算できるように
なる。
パクトに表すために、 zi =(0.1,0,0.4,0,0,0,0.2) を zi ={1:0.1,3:0.4,7:0.2} と表したり、 zi =(1,0,1,0,0,0,1) を zi ={1,3,7} と表すというように、非ゼロ要素の成分番号と値とのペ
アを使ってベクトルを表現するようにしている。
するならば、算出手段11は、すべてのベクトルの成分
が0と1しか取らない場合には、図2の係数計算アルゴ
リズムに従って、すべてのzi を調べて、上述の〔数
4〕式に従って、W1 ' 〔h〕とW3 〔h,k〕とをあ
らかじめ計算し、〔h〕や〔h,k〕が指定されたとき
に、対応する係数が直ちに取り出せるようにと、図1に
示す記憶手段13に保存しておく。
では、c0,c1 がともに1であることを仮定しており、
c0,c1 が1以外のときには、この計算結果を定数倍す
ることになる。
て、図1に示した判定手段15は、入力ベクトルxが与
えられる度に、必要な係数を記憶手段13から取り出し
てg(x)を計算する。
3,8}」の場合には、図3及び図4に示すように、 g(x)=W0 +W1 ' 〔1〕+W1 ' 〔3〕+W1 '
〔8〕+W3 〔1,3〕+W3 〔1,8〕+W3 〔3,
8〕 によりg(x)が求められることになるので、判定手段
15は、この式に含まれる7個の係数を記憶手段13か
ら読み出して、その総和を算出することで、g(x)を
直ちに計算することができるようになる。
外の値がある場合には、図5の係数計算アルゴリズムに
従って、すべてのzi を調べて、上述の〔数2〕式に従
って、W0 とW1 〔h〕とW2 〔h〕とW3 〔h,k〕
とをあらかじめ計算し、〔h〕や〔h,k〕が指定され
たときに、対応する係数が直ちに取り出せるようにと記
憶手段13に保存しておく。
では、c0,c1 がともに1であることを仮定しており、
c0,c1 が1以外のときには、この計算結果を定数倍す
ることになる。
て、判定手段15は、入力ベクトルxが与えられる度
に、必要な係数を記憶手段13から取り出してg(x)
を計算する。
0.3,3:0.5,8:−0.2}」の場合には、 g(x)=W0+(W1 〔1〕*x〔1〕+W2 〔1〕
*x〔1〕*x〔1〕)+(W1 〔3〕*x〔3〕+W
2 〔3〕*x〔3〕*x〔3〕)+(W1 〔8〕*x
〔8〕+W2 〔8〕*x〔8〕*x〔8〕)+W3
〔1,3〕*x〔1〕*x〔3〕+W3 〔1,8〕*x
〔1〕*x〔8〕+W3 〔3,8〕*x〔3〕*x
〔8〕 によりg(x)が求められることになるので、判定手段
15は、この式に含まれる10個の係数を記憶手段13
から読み出し、「x〔1〕=0.3,x〔3〕=0.5,x
〔8〕=−0.2」として、この式の計算を行うことで、
g(x)を直ちに計算することができるようになる。
する。図中の左側に示す処理フローが算出手段11の実
行する処理を示しており、図中の右側に示す処理フロー
が判定手段15の実行する処理を示している。
クトルの成分が0と1しか取らないことを想定してい
る。
1は、分類処理に入る前の前処理要求が発行されると、
図4中の左側の処理フローに示すように、すべてのzi
を調べて、上述の〔数4〕式に従って、W1 ' 〔h〕と
W3 〔h,k〕とをあらかじめ計算し、〔h〕や〔h,
k〕が指定されたときに、対応する係数が直ちに取り出
せるようにと記憶手段13に保存する処理を行う。
れると、図4中の右側の処理フローに示すように、先ず
最初に、ステップ10で、分類要求の入力ベクトルを受
け取り、続くステップ11で、記憶手段13から、入力
ベクトルの持つ非ゼロ要素の指す係数を取り出す。
係数に従って決定関数g(x)を計算し、続くステップ
13で、その計算した決定関数g(x)の値の符号に従
って、入力ベクトルの属するクラスを決定して、分類結
果ファイル3にその決定結果を格納して、処理を終了す
る。
合、分類要求の入力ベクトルが与えられると、数個から
せいぜい数百個の定数を足して行くだけで決定関数g
(x)を計算できるようになることから、きわめて高速
に入力ベクトルの属するクラスを決定できるようにな
る。
ネルを想定したが、3次以上の多項式カーネルの場合に
も、同様に式を成分ごとに展開して各属性および属性の
積に対する係数を求めることができることは言うまでも
ない。
クトルzi と定数ωi と定数bとから各属性の係数Wi
を計算する。しかし、この方法では、内積を含む式を成
分ごとに展開するため、係数の表が膨大な数にのぼり、
大規模な記憶装置(記憶手段13)を必要とするという
問題が発生する。
和するために用意されるものである。
トルの成分が0と1しか取らない場合で説明するなら
ば、各属性hについて、x[h]にかかわる係数W1 '
〔h〕、W3 [h,k]、W3 [k,h]の大きさを評
価する関数E(h)を用いて、この属性を採用するのか
削除してよいのかを判断する。たとえば、この関数E
(h)として、W1 ' [h]、W3 [h,k]、W
3 [k,h]の絶対値の最大値や、絶対値の和、あるい
は、二乗和などを利用することができる。
閾値θ未満の属性をすべてg(x)から削除した場合
に、どの程度成績が下がるのかを調べる。たとえば、学
習用データに対する成績が低下しない範囲でθをできる
限り大きくすることで、沢山の属性を削除することが可
能である。
うにすると、算出手段11の算出した係数の中に含まれ
る不要な係数を削除することができるようになること
で、記憶手段13の規模を小さなものにできるようにな
る。
12が不要な属性を削除したあとに、選ばれた属性だけ
を用いてもう一度決定関数g(x)を学習するのに用い
られる。
た装置と同じでも、違っていてもかまわない。たとえ
ば、最初の学習では2次のカーネルを用い、再学習では
ガウシアン・カーネルを用いてもよいのである。
の属性での学習結果を上回る成績が上がることがある。
また、すべての属性を用いた場合と比べて、定数ベクト
ルの数が少なくてすむことが多い。特にガウシアン・カ
ーネルや高次の多項式などのように、成分による展開が
困難なカーネルの場合、もとの定義式にしたがって計算
するしかないが、この場合、定数ベクトルの数が減れ
ば、それに比例して計算時間が短縮されるため、とくに
有効である。
イル、2は図1に示した分類データファイル、3は図1
に示した分類結果ファイル、100は学習装置、200
は係数決定装置、300は不要属性削除装置、400は
記憶装置、500は再学習装置、600は判定処理装置
である。
用データには、学習に用いるデータの特徴ベクトルxi
と、その正しい分類yi =±1とが与えられている。こ
の学習用データをサポート・ベクトル・マシンなどの学
習装置100に与えることにより、まず、オリジナルの
決定関数g(x)が得られる。
ルを用いると、係数決定装置200は、決定関数g
(x)をxの成分で展開したときの係数Wi を出力す
る。この時点で実行に必要なメモリなどに問題がなけれ
ば、判定処理装置600は、展開して得られた係数をそ
のまま用いることになる。
係数をすべて保存しておくことができない場合などに
は、不要属性削除装置300により、判定に与える影響
の少ない属性を削除していく。このとき、展開した決定
関数g(x)の各属性(成分)x[h]は一般に複数の
項に含まれるため、それらすべての係数を考慮して判断
しなければならない。
値の最大値を基準とする方法を用いる。これ以外にも、
たとえば、係数の絶対値の和や平方和など、いくつもの
評価関数を利用することが考えられる。
属性から順に削除していって、学習用データに対する判
定結果が変化しない限り属性を削除していくことによ
り、結果に影響を与えない単純化が可能になる。
も、メモリを削減する必要がある場合もあるので、学習
用データに対する成績とメモリ使用量との二つの評価基
準を合わせて評価し、両方の要求を適度に満たすところ
で打ち切ってもよい。
が悪いので、2分法など、適当な高速探索方法でどれく
らいの値までの属性を捨てるかを決定することが可能で
ある。
使用メモリ量を削減することができるようになる。使用
メモリ量の削減に加えて、計算に必要な属性の数が減る
ことで、処理速度がさらに向上する。この段階で、判定
処理装置600に処理を渡してもよい。
これで再学習装置500により再学習を行なうこともで
きる。サポート・ベクトル・マシンは、不要な属性がか
なり多い場合でも従来手法に比べれば良好な成績を納め
ているが、データ次第では、余分な属性のせいで成績が
下がっている場合がある。そのようなケースでは、有効
な属性だけに絞って再学習することによって、成績が向
上する場合がある。
600で利用する方が好ましい。再学習を再度2次のカ
ーネルで行なった場合などには、係数決定以降の処理を
もう一度行なうことができる。
開の困難なカーネル関数を用いても、すべての属性を用
いた場合に比べて定数ベクトルの数mが減る効果があ
る。属性の削減と再学習とを交互に繰り返すことによ
り、場合によっては大幅に属性や定数ベクトルの数、処
理時間を減らすことができる。
自然言語処理システム、画像処理システム、音声認識シ
ステムなどにおいて、単語列、画像、音声などを複数の
クラスに分類する場合に、実行時に何十万もの内積計算
を行なうのではなく、ごくわずかの積和計算あるいは単
なる足し算で等価な計算を行なうことができるようにな
る。
で、メモリを削減したり、分類精度を向上させたり、処
理速度をさらに向上させることができるようになる。
ある。
Claims (9)
- 【請求項1】 入力ベクトルと学習用データにより得ら
れた定数ベクトルとの内積の関数となる多項式の値を算
出することで、入力ベクトルの属するクラスを判定する
分類装置において、 上記多項式を入力ベクトルの成分ごとに展開するときの
各成分の係数値を記憶する記憶手段と、 上記記憶手段を検索することで、入力ベクトルの持つ非
ゼロ値成分の指す係数値を取得する取得手段と、 上記取得手段の取得した係数値を使って上記多項式の値
を算出することで、入力ベクトルの属するクラスを判定
する判定手段とを備えることを、 特徴とする分類装置。 - 【請求項2】 請求項1記載の分類装置において、 上記多項式を入力ベクトルの成分ごとに展開するときの
各成分の係数値を算出して、上記記憶手段に保存する算
出手段を備えることを、 特徴とする分類装置。 - 【請求項3】 請求項2記載の分類装置において、 上記算出手段の算出した係数値の大きさを評価すること
で、不要な成分を削除する削除手段を備えることを、 特徴とする分類装置。 - 【請求項4】 請求項2記載の分類装置において、 上記算出手段の算出した係数値の大きさを評価すること
で、不要な成分を削除する削除手段と、 上記不要な成分の削除された学習用データを使って上記
多項式を再学習する再学習手段とを備えることを、 特徴とする分類装置。 - 【請求項5】 入力ベクトルと学習用データにより得ら
れた定数ベクトルとの内積を変数に持つ多項式の値を算
出することで、入力ベクトルの属するクラスを判定する
分類方法において、 上記多項式を入力ベクトルの成分ごとに展開するときの
各成分の係数値を算出して、記憶装置に保存する過程
と、 上記記憶装置を検索することで、入力ベクトルの持つ非
ゼロ値成分の指す係数値を取得する過程と、 上記取得した係数値を使って上記多項式の値を算出する
ことで、入力ベクトルの属するクラスを判定する過程と
を備えることを、 特徴とする分類方法。 - 【請求項6】 請求項5記載の分類方法において、 上記保存する過程では、算出した係数値の大きさを評価
することで不要な成分を削除し、その不要な成分を削除
した係数値を上記記憶装置に保存することを、 特徴とする分類方法。 - 【請求項7】 請求項5記載の分類方法において、 上記算出した係数値の大きさを評価することで、不要な
成分を削除する過程と、 上記不要な成分の削除された学習用データを使って上記
多項式を再学習する過程とを備えることを、 特徴とする分類方法。 - 【請求項8】 請求項5ないし7のいずれか1項に記載
の分類方法の実現に用いられる処理をコンピュータに実
行させるための分類プログラム。 - 【請求項9】 請求項5ないし7のいずれか1項に記載
の分類方法の実現に用いられる処理をコンピュータに実
行させるためのプログラムを記録した分類プログラムの
記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002136536A JP3889663B2 (ja) | 2002-05-13 | 2002-05-13 | 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002136536A JP3889663B2 (ja) | 2002-05-13 | 2002-05-13 | 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003331254A true JP2003331254A (ja) | 2003-11-21 |
JP3889663B2 JP3889663B2 (ja) | 2007-03-07 |
Family
ID=29698526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002136536A Expired - Lifetime JP3889663B2 (ja) | 2002-05-13 | 2002-05-13 | 分類装置、分類方法、分類プログラム及びそのプログラムを記録した記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3889663B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008524675A (ja) * | 2004-12-17 | 2008-07-10 | ザ ユニバーシティー オブ クイーンズランド | 判別器のための特徴削減方法 |
JP2012093976A (ja) * | 2010-10-27 | 2012-05-17 | Internatl Business Mach Corp <Ibm> | クラスタリング・システム、方法及びプログラム |
JP7361759B2 (ja) | 2018-08-15 | 2023-10-16 | セールスフォース インコーポレイテッド | 機械学習システムのためのデータのトレーニングセットでの後知恵バイアスに関連付けられているデータの包含のインスタンスの削減 |
-
2002
- 2002-05-13 JP JP2002136536A patent/JP3889663B2/ja not_active Expired - Lifetime
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008524675A (ja) * | 2004-12-17 | 2008-07-10 | ザ ユニバーシティー オブ クイーンズランド | 判別器のための特徴削減方法 |
JP2012093976A (ja) * | 2010-10-27 | 2012-05-17 | Internatl Business Mach Corp <Ibm> | クラスタリング・システム、方法及びプログラム |
US8805841B2 (en) | 2010-10-27 | 2014-08-12 | International Business Machines Corporation | Clustering system, method and program |
JP7361759B2 (ja) | 2018-08-15 | 2023-10-16 | セールスフォース インコーポレイテッド | 機械学習システムのためのデータのトレーニングセットでの後知恵バイアスに関連付けられているデータの包含のインスタンスの削減 |
Also Published As
Publication number | Publication date |
---|---|
JP3889663B2 (ja) | 2007-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108388651B (zh) | 一种基于图核和卷积神经网络的文本分类方法 | |
CN109189925B (zh) | 基于点互信息的词向量模型和基于cnn的文本分类方法 | |
JP5744228B2 (ja) | インターネットにおける有害情報の遮断方法と装置 | |
JPH10187754A (ja) | ドキュメント分類装置及び方法 | |
JP2005158010A (ja) | 分類評価装置・方法及びプログラム | |
CN111832282B (zh) | 融合外部知识的bert模型的微调方法、装置及计算机设备 | |
CN110688452B (zh) | 一种文本语义相似度评估方法、系统、介质和设备 | |
JP6816481B2 (ja) | 削減条件特定方法、削減条件特定プログラム及び削減条件特定装置 | |
CN110210028A (zh) | 针对语音转译文本的领域特征词提取方法、装置、设备及介质 | |
JP6738769B2 (ja) | 文ペア分類装置、文ペア分類学習装置、方法、及びプログラム | |
WO2020199595A1 (zh) | 基于词袋模型的长文本分类方法、装置、计算机设备及存储介质 | |
CN110532388B (zh) | 文本聚类的方法、设备和存储介质 | |
CN112632984A (zh) | 基于描述文本词频的图模型移动应用分类方法 | |
CN112231482A (zh) | 基于可伸缩表示学习的长短文本分类方法 | |
Niyozmatova et al. | Classification based on decision trees and neural networks | |
CN111723203A (zh) | 一种基于终生学习的文本分类方法 | |
CN110347853B (zh) | 一种基于循环神经网络的图像哈希码生成方法 | |
CN110619046A (zh) | 一种基于故障跟踪表的故障识别方法 | |
CN111091001B (zh) | 一种词语的词向量的生成方法、装置及设备 | |
CN111737467B (zh) | 一种基于分段卷积神经网络的对象级情感分类方法 | |
AU2021279033A1 (en) | Method, non-transitory computer-readable storage medium, and apparatus for searching an image database | |
CN112765357A (zh) | 文本分类方法、装置和电子设备 | |
CN112445914A (zh) | 文本分类方法、装置、计算机设备和介质 | |
CN111767724A (zh) | 一种文本相似度计算方法及系统 | |
JP3178406B2 (ja) | 階層型文章分類装置およびプログラムを記録した機械読み取り可能な記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060913 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061130 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3889663 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101208 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101208 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111208 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111208 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121208 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121208 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131208 Year of fee payment: 7 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |