JP7186591B2 - テキスト分類装置、学習装置、およびプログラム - Google Patents
テキスト分類装置、学習装置、およびプログラム Download PDFInfo
- Publication number
- JP7186591B2 JP7186591B2 JP2018226795A JP2018226795A JP7186591B2 JP 7186591 B2 JP7186591 B2 JP 7186591B2 JP 2018226795 A JP2018226795 A JP 2018226795A JP 2018226795 A JP2018226795 A JP 2018226795A JP 7186591 B2 JP7186591 B2 JP 7186591B2
- Authority
- JP
- Japan
- Prior art keywords
- text
- processing
- error
- classification
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
図1は、本実施形態によるテキスト分類装置(後述するように、「学習装置」でもある)の概略機能構成を示すブロック図である。図示するように、テキスト分類装置1は、入力部11と、系列処理部12と、分類部13と、出力部14と、オートエンコーダー部21と、ファストテキスト分類部22と、制御部31とを含んで構成される。
第1に、テキスト分類装置1によるテキストの分類処理では、畳み込みニューラルネットワークを用いる。畳み込みニューラルネットワークを用いることにより、学習時間を短縮することが可能となる。学習時間の短縮により、投稿テキストの分類結果をフィードバックすることによってモデルを更新することが容易になる。
第2に、テキスト分類装置1による機械学習処理では、教師なし学習のサブタスクによるマルチタスク学習を行う。より具体的には、テキスト分類装置1は、マルチタスク学習の教師なしサブタスクとして、オートエンコーダー(auto-encoder)、および単語分散表現による教師なしクラスタリング結果を正例とする分類タスク、の2手法を実行する。これにより、機械学習の精度の向上を期待できる。
なお、系列処理部12は、内部にニューラルネットワークを有している。
なお、分類部13は、内部にニューラルネットワークを有している。テキスト分類装置1が学習モードで動作する場合には、分類部13は、分類処理の結果と正解との誤差の値lossout(分類処理誤差)を出力する。
なお、オートエンコーダー部21は、内部にニューラルネットワークを有している。テキスト分類装置1が学習モードで動作する場合にのみ、オートエンコーダー部21はオートエンコーダー処理を行う。オートエンコーダー部21は、オートエンコーダー処理の結果と、入力された元の投稿テキストとの誤差の値lossAE(オートエンコーダー誤差)を出力する。
具体的には、ファストテキスト分類部22は、次の処理を行う。
ファストテキスト分類部22は、インターネット上の事典サイト(一例として、ウィキペディア)からダンプ出力したデータおよび本システムにおける学習データ(投稿テキストの集合)を足し合わせたデータを、形態素解析器であるMeCabにより単語分割する。そして、ファストテキスト分類部22は、fastTextを用いて教師なし学習を行い、単語分散表現を生成する。そして、ファストテキスト分類部22は、学習データに含まれる投稿テキストごとに、全単語の分散表現を平均したベクトルを入力として、K-meansにより教師なしで100クラスにクラスタリングする。ファストテキスト分類部22は、100クラスの出力を持つ順伝搬型ニューラルネットワーク(FFNN,Feed-Forward Neural Network)を出力層として有する。順伝搬型ニューラルネットワークは、順方向のみに伝搬する(逆方向への伝搬を持たない)ニューラルネットワークである。ファストテキスト分類部22は、この出力層からの出力にsoftmax関数を適用して最終出力とする。
なお、ファストテキスト分類部22は、内部にニューラルネットワークを有している。テキスト分類装置1が学習モードで動作する場合にのみ、ファストテキスト分類部22はファストテキスト分類処理を行う。ファストテキスト分類部22は、ファストテキスト分類処理の結果と、入力された投稿テキストの正解であるクラスとの誤差の値lossclass(ファストテキスト分類誤差)を出力する。
つまり、制御部31による制御に応じて、テキスト分類装置1は、内部の学習モデルの学習処理を行う学習装置としても機能する。
なお、順伝搬型ニューラルネットワークを「FFNN」と表す場合がある。また、畳み込みニューラルネットワークを「CNN」と表す場合がある。また、再帰型ニューラルネットワークを「RNN」と表す場合がある。
図2は、本実施形態の第1変形例によるテキスト分類装置(学習装置)の概略機能構成を示すブロック図である。図示するように、本変形例によるテキスト分類装置2は、入力部11と、系列処理部12と、分類部13と、出力部14と、ファストテキスト分類部22と、制御部31とを含んで構成される。つまり、テキスト分類装置2は、テキスト分類装置1には含まれていたオートエンコーダー部21を持たない。
上記の構成を有するテキスト分類装置2は、機械学習時には、分類部13から出力される誤差lossoutと、ファストテキスト分類部22から出力されるlossclassとのみに基づいて、全体の誤差lossMTを算出する。テキスト分類装置2は、このような誤差lossMTに基づいて誤差逆伝搬法を実行することにより機械学習を行う。
上記の構成を有するテキスト分類装置3は、機械学習時には、分類部13から出力される誤差lossoutと、オートエンコーダー部21から出力されるlossAEとのみに基づいて、全体の誤差lossMTを算出する。テキスト分類装置3は、このような誤差lossMTに基づいて誤差逆伝搬法を実行することにより機械学習を行う。
上記の構成を有するテキスト分類装置4は、機械学習時には、分類部13から出力される誤差lossoutのみに基づいて、全体の誤差lossMTを算出する。テキスト分類装置4は、このような誤差lossMTに基づいて誤差逆伝搬法を実行することにより機械学習を行う。
図5は、テキスト分類装置1,2,3,4を実現するための機能構成の一例を示す概略図である。図示するように、本実施形態によるテキスト分類装置は、系列処理(CNN)112と、分類処理(ニュース性抽出処理)113と、オートエンコーダー処理(AE)121と、ファストテキスト分類処理(Class)122と、スイッチ401と、スイッチ402と、加算処理411と、乗算処理412と、加算処理413とを組み合わせることにより実現可能である。ここに列挙した各構成要素の機能は、次に説明する通りである。
分類処理113(ニュース性抽出処理)は、系列処理112の出力を基に、入力に対応するクラスを推定する。つまり、分類処理113は、入力された投稿テキストを複数のクラスに分類する。言い換えれば、分類処理113は、入力された投稿テキストからニュース性を抽出する処理を行う。機械学習時には、分類処理113は、誤差lossoutを出力する。
オートエンコーダー処理(AE)121は、内部のニューラルネットワークのパラメーターの状態に依存して、系列処理112の出力を基に、元の入力系列を出力しようとする処理を行う。オートエンコーダー処理121は、機械学習時にのみ実行される。オートエンコーダー処理121は、オートエンコーダー処理の結果として得られる系列と元の入力系列との誤差であるlossAEを出力する。
ファストテキスト分類処理(Class)122は、系列処理112の出力を基に、単語の分散表現に基づいて、元の入力系列をクラスに分類する。ファストテキスト分類処理122は、機械学習時にのみ実行される。ファストテキスト分類処理122は、ファストテキスト分類処理の結果として得られるクラスの情報と、正解のクラスの情報との誤差であるlossclassを出力する。
スイッチ402は、ファストテキスト分類部22が実行するファストテキスト分類処理122によって出力される誤差を、テキスト分類装置全体の学習処理における誤差に反映させるか否かを切り替えるものである。スイッチ402がオン(接続)のとき、ファストテキスト分類処理122から出力される誤差は全体の学習処理における誤差に反映される。スイッチ402がオフ(非接続)のとき、ファストテキスト分類処理122から出力される誤差は全体の学習処理における誤差に反映されない。スイッチ402の状態(オンまたはオフ)は変数tclassの値に対応する。スイッチ402がオフのときtclass=0である。スイッチ402がオンのときtclass=1である。
つまり、スイッチ401がオンのときにのみオートエンコーダー処理121の出力が学習処理に用いられる。スイッチ401がオフのときにはオートエンコーダー処理121の出力が学習処理に用いられない。スイッチ401がオフのときにはオートエンコーダー処理121そのものが稼働しないように制御してもよい。
また、スイッチ402がオンのときにのみファストテキスト分類処理122の出力が学習処理に用いられる。スイッチ402がオフのときにはファストテキスト分類処理122の出力が学習処理に用いられない。スイッチ402がオフのときにはファストテキスト分類処理122そのものが稼働しないように制御してもよい。
つまり、スイッチ401および402のオン/オフの組み合わせに応じて、図5に示す処理構成は、テキスト分類装置1,2,3,4のいずれかを実現する。具体的には、次の通りである。
スイッチ401がオフ(tAE=0)、且つスイッチ402がオフ(tclass=0)のとき、図5に示す処理構成はテキスト分類装置4(図4)を実現する。
スイッチ401がオン(tAE=1)、且つスイッチ402がオフ(tclass=0)のとき、図5に示す処理構成はテキスト分類装置3(図3)を実現する。
スイッチ401がオフ(tAE=0)、且つスイッチ402がオン(tclass=1)のとき、図5に示す処理構成はテキスト分類装置2(図2)を実現する。
スイッチ401がオン(tAE=1)、且つスイッチ402がオン(tclass=1)のとき、図5に示す処理構成はテキスト分類装置1(図1)を実現する。
ただし、スイッチ401がオンのときのみ、オートエンコーダー処理121から出力される誤差lossAEから出力される誤差lossAEが加算処理411に入力される。スイッチ401がオフのときには、誤差lossAEの代わりに、ゼロが加算処理411に入力される。
また、スイッチ402がオンのときのみ、ファストテキスト分類処理122から出力される誤差lossclassから出力される誤差lossclassが加算処理411に入力される。スイッチ402がオフのときには、誤差lossclassの代わりに、ゼロが加算処理411に入力される。
テキスト分類装置は、このlossMTの値を最適化(局所最適化を含む)するように機械学習処理を行う。機械学習処理の詳細については、後で説明する。
入力層1122は、順伝搬型ニューラルネットワーク(FFNN)であり、ワンホットベクトル化処理1121から出力される{xt}を入力し、{ht in}を出力する。
中間層(畳み込み層)1123は、畳み込みニューラルネットワーク(CNN)であり、入力層1122から出力される{ht in}を入力し、{{ht CNN}p}を出力する。ここで、pは、フィルターの種類を指標する添え字である。系列処理は複数のフィルターの処理を有する。複数のフィルターのサイズは異なっていてよい。
プーリング層1124は、中間層1123から出力される{{ht CNN}p}を入力し、プーリング処理(例えば、マックスプーリング処理)を行う。プーリング層1124は、{hp pool}を出力する。
中間層1125は、順伝搬型ニューラルネットワークであり、プーリング層1124から出力される{hp pool}を入力し、hintを出力する。
系列処理112については既に説明した通りである。
中間層(パディング)1212は、中間層1211からの出力であるhDe_intを入力し、フィルターの種類(p=0,1,2,3,4,5)ごとにゼロパディングしたベクトルである{{ht De_pool}p}を出力する。
中間層(逆畳み込み)1213は、中間層1212からの出力である{{ht De_pool}p}を入力し、逆畳み込み処理を行う。中間層(逆畳み込み)1213は、逆畳み込み処理の結果である{{ht Deconv}p}を出力する。
中間層(FFNN)1214は、中間層1213からの出力である{{ht Deconv}p}を入力し、複数のフィルターの出力を結合し、hDe-inを出力する。
出力層(FFNN)1215は、中間層1214からの出力であるhDe-inを入力し、hAEoutを出力する。このhAEoutは、softmax関数を適用することによって、入力されたワンホットベクトル系列である{xt}に近い値となることを期待されるものである。機械学習処理によりオートエンコーダー処理の出力と、元の入力系列との誤差が0に近づくことが期待される。
系列処理112については既に説明した通りである。
[処理L1 系列処理(112)]
系列処理部12による系列処理(図6)は、次の通りである。
系列処理112に入力されるのは、系列数n(nは正整数)の文字系列である。
処理L1-1: ワンホットベクトル化処理1121は、入力される投稿テキストの文字系列を、一文字ずつ分割する。
処理L1-2: ワンホットベクトル化処理1121は、分割された系列の各文字をワンホットベクトル化する。ワンホットベクトルは、全要素のうちの1個だけの値が「1」であり、それ以外のすべての要素の値が「0」であるベクトルである。ワンホットベクトル化処理1121は、ワンホットベクトル系列{xt}={x1,x2,・・・}を出力する。ここで、xtは、1文字に対応するワンホットベクトルである。添え字tは、系列内の位置を表す。系列長がnであるので、例えば、t=0,1,・・・,(n-1)とする。
処理L1-3: 入力層1122の順伝搬型ニューラルネットワーク(FFNN)は、系列{xt}に含まれるベクトルを順次1個ずつ入力し、系列{ht in}={h0 in,h2 in,・・・}を出力する。ht inは、入力層1122からの出力であり、入力系列における1文字に対応する。
処理L1-5: プーリング層1124は、中間層1123から出力される{{ht CNN}p}を入力する。そして、プーリング層1124は、{{ht CNN}p}に含まれるフィルターごとにマックスプーリング(max pooling)を行う。マックスプーリングは、領域ごとにその領域に含まれる要素の最大値をとることによって情報を圧縮する処理である。つまり、プーリング層1124は、pごとに、{ht CNN}の最大値をとり、その結果として得られる{hp pool}(プーリング層出力)を出力する。
中間層1123は畳み込みニューラルネットワークを有しており、入力される系列のデータを畳み込む。また、プーリング層1124は、例えばマックスプーリングを行うことにより、圧縮された情報を出力する。中間層1123とプーリング層1124は、複数のフィルターを有する。各フィルターのサイズが異なってもよい。図7で例示するフィルターのサイズは2である。図示するように、中間層1123への入力は、入力層1122から出力される長さsの系列h0 in,h1 in,・・・,hs-1 inである。例えば、長さsの「新宿駅西口バスターミナル付近で火事11月15日」という文字系列が入力される。なお、図中において[0]と示している入力にはゼロが入力される。つまり、中間層1123への入力はゼロパディングされている。中間層1123は、長さnの系列h0 CNN,0,h1 CNN,0,・・・,hn-1 CNN,0を出力する。ここで、上付の添え字「CNN,0」は、第0番目のフィルター(p=0)の畳み込みニューラルネットワークからの出力であることを表す。プーリング層1124は、中間層1123から出力される上記の系列を入力し、プーリング処理することにより、hpool,0を出力する。
分類部13による分類処理(図8)は、次の通りである。
系列処理112については既に説明した通りである。系列処理112から、hintが出力される。
処理L2-1: 分類処理113の出力層(順伝搬型ニューラルネットワーク)は、hintを入力し、houtを出力する。
処理L2-2: 分類処理113は、出力層から出力されるhoutにsoftmax関数を適用する。なお、softmax関数は、機械学習技術の分野で用いられる既知の関数である。softmax関数の出力は、元の投稿テキストが複数のクラスの各々に属する確率を要素とするベクトルである。これにより、分類処理113は、元の投稿テキストを、マルチクラス(本実施形態では、ニュース性ありの各分野の24クラスと、ニュース性なしの1クラスとの、合計25クラス)に分類する。
処理L2-3: 分類処理113は、分類処理の結果として得られたベクトル(上記のsoftmax関数の出力)クラスと、学習データが持つ正解クラスに基づくベクトル(正解のクラスのみが1であり、他のクラスが0であるベクトル)とに交差関数を適用することにより、分類処理113における誤差lossoutを算出する。このlossoutは、テキスト分類装置全体の誤差であるlossMTを算出するために用いられる。
オートエンコーダー部21によるオートエンコーダー処理(図9)は、次の通りである。なお、スイッチ401(図5)をオフにする場合には、オートエンコーダー処理を実行しないようにしてもよい。
系列処理112については既に説明した通りである。系列処理112から、hintが出力される。
処理L3-1: 中間層1211の順伝搬型ニューラルネットワークは、系列処理112から出力されるhintを入力し、hDe_int(オートエンコーダー中間層出力)を出力する。
処理L3-5: 出力層1215の順伝搬型ニューラルネットワークは、中間層1214から出力されるhDe-inを入力し、hAEoutを出力する。
処理L3-6: オートエンコーダー部21は、上記のhAEoutにsoftmax関数を適用し、その関数値をオートエンコーダー処理の出力とする。そして、オートエンコーダー部21は、オートエンコーダー処理の出力(softmax関数の出力)と、元のワンホットベクトル系列である{xt}と交差関数を適用し、オートエンコーダー処理の誤差であるlossAEを算出する。このlossAEは、テキスト分類装置全体の誤差であるlossMTを算出するために用いられる。
ファストテキスト分類部22によるファストテキスト分類処理(図10)は、次の通りである。なお、スイッチ402(図5)をオフにする場合には、ファストテキスト分類処理を実行しないようにしてもよい。
系列処理112については既に説明した通りである。系列処理112から、hintが出力される。
処理L4-1: ファストテキスト分類処理122における出力層の順伝搬型ニューラルネットワークは、系列処理112から出力されるhintを入力し、houtを出力する。ファストテキスト分類部22によるファストテキスト分類処理122の内容は既に説明した通りである。ファストテキスト分類処理122は、外部の言語資源(事典サイト等)から得られた大量のテキストと、学習データの投稿テキストとを、それぞれ単語分割し、fastTextにより単語分散表現を生成する。そして、ファストテキスト分類処理122は、K-meansにより、教師なしで投稿テキストを100クラスにクラスタリングする。ファストテキスト分類処理122に含まれる出力層の順伝搬型ニューラルネットワークは、投稿テキストが属するクラスの情報として上記のhoutを出力する。
処理L4-3: ファストテキスト分類部22は、ファストテキスト分類処理によって得られたベクトル(上記のsoftmax関数の出力)と学習データとして与えられた正解のクラスを表すベクトルとに、交差関数を適用することによって誤差lossclassを算出する。
マルチタスク学習処理において、制御部31は、次のような制御を行う。
処理L5-1: 制御部31は、下の式により全体の誤差lossMTを算出する。
式: lossMT=lossout+λ(tAE・lossAE+tclass・lossclass)
ここで、tAEおよびtclassは、既に述べたように、それぞれ、スイッチ401および402(図5)の状態に応じた値であり、tAE,tclass={0,1}である。言い換えれば、tAEおよびtclassは、それぞれ、オートエンコーダー処理およびファストテキスト処理を使用するか否かを表す。また、λの値は任意であるが、例えば、λ=0.5・e-nとする。ここで、nは、機械学習のエポック番号である。つまり、同じ学習データで繰り返し機械学習を行うにあたって、エポック番号が大きくなるほど、サブタスク(オートエンコーダー処理およびファストテキスト処理)による誤差の逆伝搬の寄与の度合いを、メインタスクの誤差のそれに対して小さくしていく。
[処理C1 未知の投稿テキストの分類処理]
学習済みのモデルを用いて投稿テキストの分類処理を行う場合、制御部31は、分類モードでテキスト分類装置が動作するよう制御する。分類モードでは、制御部31は、分類部13が分類処理(ニュース性抽出処理)を実行するように制御する。また、制御部31は、オートエンコーダー部21やファストテキスト分類部22が動作しないように制御する。また、制御部31は、分類部13が誤差lossoutを出力しないように制御する。分類モードにおいて分類部13が誤差lossoutを出力してもよいが、そのlossoutの値は使用されない。また、制御部31は、lossMTの値を算出しない。さらに、制御部31は、誤差逆伝搬法によるニューラルネットワークのパラメーターの更新を行わせない。以上のように、処理C1において、分類部13は、学習済みのモデルに基づいて、入力された投稿テキストが属するクラスを推定する。これにより、分類部13は、入力された投稿テキストがニュース性のあるテキストであるか否か、またニュース性がある場合には、どの分野のニュースに属するものであるかを推定できる。
系列処理部12は、入力される自然言語によるテキスト(投稿テキスト)に含まれる文字の系列をベクトルで表した第1表現(系列{xt}など)を基に、少なくとも、パラメーターを有する畳み込みニューラルネットワーク(CNNによる学習モデル)を用いた畳み込み処理を行い、中間表現(hint)を生成する。
分類処理部(分類部13)は、前記中間表現を基に、パラメーターを有するニューラルネットワーク(出力層である順伝搬型ニューラルネットワーク)による処理で前記テキストが属するクラスを推定する。
制御部31は、分類処理部(分類部13)によって推定されたクラスの情報(hout、あるいはhoutにsoftmax関数を適用した結果)と前記テキストが属するクラスの正解である正解クラスの情報との誤差である第1誤差(lossout)に基づいて、誤差逆伝搬法により分類処理部(分類部13)および系列処理部12それぞれが有するニューラルネットワークのパラメーターを更新するよう、即ち、機械学習処理により学習モデルを更新するよう、制御する。
オートエンコーダー部21は、系列処理部12から出力される前記中間表現(hint)を基に、逆畳み込み処理(中間層1213による処理)を行うとともに、パラメーターを有するニューラルネットワークによる処理(中間層1211、1212、1213、1312や、出力層1215による処理)を行うことによって、前記第1表現に対応する第2表現(hAEout)を出力し、前記第1表現と前記第2表現との誤差である第2誤差(lossAE)を出力する。
この場合、制御部31は、前記第1誤差に加えて前記第2誤差にも基づいて(つまり、第1誤差と第2誤差とを加味したマルチタスクの誤差に基づいて)、誤差逆伝搬法により、系列処理部12と分類処理部(分類部13)とオートエンコーダー部21とのそれぞれが有するニューラルネットワークのパラメーターを更新するよう制御する。つまり、制御部31は、ここに列挙した各部が有する学習モデルを更新するよう、制御する。
単語分散表現分類部(ファストテキスト分類部22)は、系列処理部12から出力される前記中間表現(hint)を基に、パラメーターを有するニューラルネットワークによる処理(ファストテキスト分類処理122における出力層の順伝搬型ニューラルネットワークによる処理)を行う。これによって、単語分散表現分類部(ファストテキスト分類部22)は、前記入力されるテキスト、および前記入力されるテキストとは別の言語資源(事典サイト等)に基づいて単語分散表現により生成したクラスタリングのいずれのクラスタに属するかを推定する。また、単語分散表現分類部(ファストテキスト分類部22)は、当該推定の結果であるクラスタの情報と、前記テキストが属する正解のクラスタである正解クラスタの情報との誤差である第3誤差(lossclass)を出力する。
この場合、制御部31は、前記第1誤差に加えて前記第3誤差にも基づいて(つまり、第1誤差と第3誤差とを加味したマルチタスクの誤差に基づいて)、誤差逆伝搬法により、系列処理部12と分類処理部(分類部13)と単語分散表現分類部(ファストテキスト分類部22)とのそれぞれが有するニューラルネットワークのパラメーターを更新するよう制御する。つまり、制御部31は、ここに列挙した各部が有する学習モデルを更新するよう、制御する。
この場合、制御部31は、前記第1誤差に加えて前記第2誤差および前記第3誤差にも基づいて(つまり、第1誤差と第2誤差と第3誤差とを加味したマルチタスクの誤差に基づいて)、誤差逆伝搬法により、系列処理部12と分類処理部(分類部13)とオートエンコーダー部21と単語分散表現分類部(ファストテキスト分類部22)とのそれぞれが有するニューラルネットワークのパラメーターを更新するよう制御する。つまり、制御部31は、ここに列挙した各部が有する学習モデルを更新するよう、制御する。
系列処理部12は、入力される自然言語によるテキストに含まれる文字の系列をベクトルで表した第1表現を基に、パラメーターを有する畳み込みニューラルネットワークを用いた畳み込み処理を行うことによって中間表現を生成する。
分類処理部(分類部13)は、前記中間表現を基に、パラメーターを有するニューラルネットワークによる処理で前記テキストが属するクラスを推定する。
ここで、系列処理部12及び分類処理部(分類部13)それぞれが有するニューラルネットワークのパラメーターは、前述のいずれかの学習装置によって学習された結果を反映したものである。つまり、前述の学習装置によって学習済みの学習モデルに基づいて、分類処理部(分類部13)は、前記中間表現を基に、前記テキストが属するクラスを推定する。
次に、本実施形態によるテキスト分類装置の評価実験の結果について説明する。
図11は、本実施形態(基本形および3つの変形例)によるテキスト分類装置を、従来技術と比較して評価するための実験の結果のデータを示す表である。この表では、データを示す各行および各列に、便宜的に、それぞれ行番号および列記号を付与している。
第1行目の本実施形態(畳み込みニューラルネットワーク利用)の基本形では、オートエンコーダー処理とファストテキスト分類処理の両方を使用する。
第2行目の第1変形例では、オートエンコーダー処理を使用せず、ファストテキスト分類処理を使用する。
第3行目の第2変形例では、オートエンコーダー処理を使用し、ファストテキスト分類処理を使用しない。
第4行目の第3変形例では、オートエンコーダー処理もファストテキスト分類処理も使用しない。
第5行目は、上記の通り、再帰型ニューラルネットワークを用いる従来技術の評価値である。
これらのすべてに同じ学習データを用いて比較・評価している。
A列の「(tAE,tclass)」は、オートエンコーダー処理およびファストテキスト処理をそれぞれ用いる場合であるか否かを表す。それぞれ、値が1の場合にはその処理を用い、値が0の場合にはその処理を用いない。
B列の「Precise」は、機械学習の精度を表す。精度は、所定のクラスに属すると判定(分類)したデータのうち、実際にそのクラスに属するものの割合である。
C列の「Recall」は、機械学習の再現率を表す。再現率は、実際に所定のクラスに属するもののうち、そのクラスに属すると判定(分類)されたものの割合である。
D列の「F1」は、機械学習のF1値(F値)を表す。F1値は、精度と再現率の調和平均である。
E列の「時間」は、機械学習に要した時間である。この時間は「h:mm」(時、分)の形式で表されている。
[変形例A]
図5では、スイッチ401および402を切り替えることにより、本実施形態の基本形と第1変形例から第3変形例までのいずれかとを実現できる構成を示した。これに対して、このようなスイッチ401や402を用いずに、図1から図4までの各々を実現するための専用の構成を有するテキスト分類装置を実施してもよい。
[変形例B]
また、モデルの機械学習処理を行う装置と、テキストの分類を行うテキスト分類装置とが別の装置であってもよい。この場合、機械学習の結果として得られたモデルの情報(具体的には、ニューラルネットワークのパラメーター値の集合の情報)が、機械学習処理後の所定のタイミングで、機械学習処理を行った装置からテキストの分類を行うテキスト分類装置に渡される。
[変形例C]
上述した実施形態(第1変形例を含む)において、ファストテキスト分類部22によるファストテキスト分類処理を用いた。fastTextの代わりに、他の方法を用いたサブタスクを実行するようにしてもよい。例えば、fastText以外の分散表現(Word2Vec)や、他の様々な表現方法で文をベクトルとして表現し、K-meansによるクラスタリングを行うことができる。この変形例Cに示した、fastText以外の手段を用いる処理もまた、「入力されるテキスト、および入力されるテキストとは別の言語資源に基づいて単語分散表現により生成したクラスタリングのいずれのクラスタに属するかを推定する」処理である。即ち、変形例Cに示す方法は、前記の単語分散表現分類部による処理である。
11 入力部
12 系列処理部
13 分類部(分類処理部)
14 出力部
21 オートエンコーダー部
22 ファストテキスト分類部(単語分散表現分類部)
31 制御部
112 系列処理(CNN)
113 分類処理(ニュース性抽出処理,出力層,FFNN)
121 オートエンコーダー処理(AE)
122 ファストテキスト分類処理(Class)
401 スイッチ
402 スイッチ
411 加算処理
412 乗算処理
413 加算処理
1121 ワンホットベクトル化処理
1122 入力層(FFNN)
1123 中間層(畳み込み)
1124 プーリング層
1125 中間層(FFNN)
1211 中間層(FFNN)
1212 中間層(パディング)
1213 中間層(逆畳み込み)
1214 中間層(FFNN)
1215 出力層(FFNN)
Claims (5)
- 入力される自然言語によるテキストに含まれる文字の系列をベクトルで表した第1表現を基に、パラメーターを有する畳み込みニューラルネットワークを用いた畳み込み処理を行うことによって中間表現を生成する系列処理部と、
前記中間表現を基に、パラメーターを有するニューラルネットワークによる処理で前記テキストが属するクラスを推定する分類処理部と、
前記分類処理部によって推定されたクラスの情報と前記テキストが属するクラスの正解である正解クラスの情報との誤差である第1誤差に基づいて、誤差逆伝搬法により前記分類処理部および前記系列処理部それぞれが有するニューラルネットワークのパラメーターを更新するよう制御する制御部と、
前記系列処理部から出力される前記中間表現を基に、逆畳み込み処理を行うとともに、パラメーターを有するニューラルネットワークによる処理を行うことによって、前記第1表現に対応する第2表現を出力し、前記第1表現と前記第2表現との誤差である第2誤差を出力するオートエンコーダー部と、
前記系列処理部から出力される前記中間表現を基に、パラメーターを有するニューラルネットワークによる処理を行うことによって、前記入力されるテキスト、および前記入力されるテキストとは別の言語資源に基づいて単語分散表現により生成したクラスタリングのいずれのクラスタに属するかを推定するとともに、当該推定の結果であるクラスタの情報と、前記テキストが属する正解のクラスタである正解クラスタの情報との誤差である第3誤差を出力する単語分散表現分類部と、
を具備し、
前記制御部は、前記第1誤差に加えて前記第2誤差および前記第3誤差にも基づいて、誤差逆伝搬法により、前記系列処理部と前記分類処理部と前記オートエンコーダー部と前記単語分散表現分類部のそれぞれが有するニューラルネットワークのパラメーターを更新するよう制御する、
学習装置。 - 入力される自然言語によるテキストに含まれる文字の系列をベクトルで表した第1表現を基に、パラメーターを有する畳み込みニューラルネットワークを用いた畳み込み処理を行うことによって中間表現を生成する系列処理部と、
前記中間表現を基に、パラメーターを有するニューラルネットワークによる処理で前記テキストが属するクラスを推定する分類処理部と、
を具備するテキスト分類装置であって、
前記系列処理部及び前記分類処理部それぞれが有するニューラルネットワークのパラメーターは、請求項1に記載の学習装置によって学習された結果を反映したものである、
テキスト分類装置。 - 前記テキストは、ソーシャルメディアのサーバー装置から取得されたものである、
請求項2に記載のテキスト分類装置。 - コンピューターを、
請求項1に記載の学習装置、
として機能させるためのプログラム。 - コンピューターを、
請求項2または3に記載のテキスト分類装置、
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018226795A JP7186591B2 (ja) | 2018-12-03 | 2018-12-03 | テキスト分類装置、学習装置、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018226795A JP7186591B2 (ja) | 2018-12-03 | 2018-12-03 | テキスト分類装置、学習装置、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020091549A JP2020091549A (ja) | 2020-06-11 |
JP7186591B2 true JP7186591B2 (ja) | 2022-12-09 |
Family
ID=71012835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018226795A Active JP7186591B2 (ja) | 2018-12-03 | 2018-12-03 | テキスト分類装置、学習装置、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7186591B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111813939A (zh) * | 2020-07-13 | 2020-10-23 | 南京睿晖数据技术有限公司 | 一种基于表征增强与融合的文本分类方法 |
CN112000809B (zh) * | 2020-09-29 | 2024-05-17 | 迪爱斯信息技术股份有限公司 | 一种文本类别的增量学习方法及装置、可读存储介质 |
CN112507099B (zh) * | 2020-12-18 | 2021-12-24 | 北京百度网讯科技有限公司 | 对话理解模型的训练方法、装置、设备和存储介质 |
CN115630689A (zh) * | 2022-12-21 | 2023-01-20 | 苏州大学 | 优化文本分类模型输出层激活函数的方法、设备和系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017049684A (ja) | 2015-08-31 | 2017-03-09 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 分類モデルを学習する方法、コンピュータ・システムおよびコンピュータ・プログラム |
US20170308790A1 (en) | 2016-04-21 | 2017-10-26 | International Business Machines Corporation | Text classification by ranking with convolutional neural networks |
JP2018025874A (ja) | 2016-08-08 | 2018-02-15 | 富士ゼロックス株式会社 | テキスト解析装置及びプログラム |
JP2018026098A (ja) | 2016-08-09 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 識別制御方法及び識別制御装置 |
JP2018055580A (ja) | 2016-09-30 | 2018-04-05 | 富士通株式会社 | 機械学習プログラム、機械学習方法、および機械学習装置 |
JP2018142294A (ja) | 2017-02-28 | 2018-09-13 | 富士ゼロックス株式会社 | マイクロブログ投稿から購入ステージを識別するために深層学習を使用するシステムおよび方法、プログラム、サーバ装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9959272B1 (en) * | 2017-07-21 | 2018-05-01 | Memsource a.s. | Automatic classification and translation of written segments |
-
2018
- 2018-12-03 JP JP2018226795A patent/JP7186591B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017049684A (ja) | 2015-08-31 | 2017-03-09 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 分類モデルを学習する方法、コンピュータ・システムおよびコンピュータ・プログラム |
US20170308790A1 (en) | 2016-04-21 | 2017-10-26 | International Business Machines Corporation | Text classification by ranking with convolutional neural networks |
JP2018025874A (ja) | 2016-08-08 | 2018-02-15 | 富士ゼロックス株式会社 | テキスト解析装置及びプログラム |
JP2018026098A (ja) | 2016-08-09 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 識別制御方法及び識別制御装置 |
JP2018055580A (ja) | 2016-09-30 | 2018-04-05 | 富士通株式会社 | 機械学習プログラム、機械学習方法、および機械学習装置 |
JP2018142294A (ja) | 2017-02-28 | 2018-09-13 | 富士ゼロックス株式会社 | マイクロブログ投稿から購入ステージを識別するために深層学習を使用するシステムおよび方法、プログラム、サーバ装置 |
Non-Patent Citations (3)
Title |
---|
大濱 吉紘、外1名,学習誤差の順逆並行伝播によるオートエンコーダ学習,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2017年05月19日,第117巻,第64号,p.13-18 |
張 培楠、外1名,単語分散表現を用いた多層Denoising Auto-Encoderによる評価極性分類,情報処理学会 研究報告 自然言語処理(NL) 2015-NL-222,日本,情報処理学会,2015年07月08日,p.1-8 |
牧野 仁宣、外3名,ニューラルネットワークを用いた既出Tweet分類,言語処理学会第24回年次大会 発表論文集 [online],日本,言語処理学会,2018年04月16日,p.1143-1146 |
Also Published As
Publication number | Publication date |
---|---|
JP2020091549A (ja) | 2020-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7186591B2 (ja) | テキスト分類装置、学習装置、およびプログラム | |
CN109783817B (zh) | 一种基于深度强化学习的文本语义相似计算模型 | |
CN112435656B (zh) | 模型训练方法、语音识别方法、装置、设备及存储介质 | |
CN102388382B (zh) | 可缩放的群集方法和系统 | |
US20140156575A1 (en) | Method and Apparatus of Processing Data Using Deep Belief Networks Employing Low-Rank Matrix Factorization | |
CN111414749B (zh) | 基于深度神经网络的社交文本依存句法分析系统 | |
WO2023065859A1 (zh) | 物品推荐方法、装置及存储介质 | |
CN109710916A (zh) | 一种标签提取方法、装置、电子设备及存储介质 | |
CN111046183A (zh) | 用于文本分类的神经网络模型的构建方法和装置 | |
US10685012B2 (en) | Generating feature embeddings from a co-occurrence matrix | |
CN111783873B (zh) | 基于增量朴素贝叶斯模型的用户画像方法及装置 | |
Chen et al. | Generalized Correntropy based deep learning in presence of non-Gaussian noises | |
CN110765269A (zh) | 基于动态词向量和层级神经网络的文档级情感分类方法 | |
CN111160000B (zh) | 作文自动评分方法、装置终端设备及存储介质 | |
CN108549718B (zh) | 一种通用主题嵌入模型联合训练方法 | |
CN112231584A (zh) | 基于小样本迁移学习的数据推送方法、装置及计算机设备 | |
CN113157919B (zh) | 语句文本方面级情感分类方法及系统 | |
CN111008266A (zh) | 文本分析模型的训练方法及装置、文本分析方法及装置 | |
CN113408706B (zh) | 训练用户兴趣挖掘模型、用户兴趣挖掘的方法和装置 | |
CN109145107B (zh) | 基于卷积神经网络的主题提取方法、装置、介质和设备 | |
CN114998659A (zh) | 随时间在线训练脉冲神经网络模型的图像数据分类方法 | |
Ku et al. | Adding learning to cellular genetic algorithms for training recurrent neural networks | |
CN116431597A (zh) | 用于训练数据分类模型的方法、电子设备和计算机程序产品 | |
CN113011531A (zh) | 分类模型训练方法、装置、终端设备及存储介质 | |
CN108021544B (zh) | 对实体词的语义关系进行分类的方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211102 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7186591 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |