JP2019215705A - Information determination model learning device and program thereof - Google Patents
Information determination model learning device and program thereof Download PDFInfo
- Publication number
- JP2019215705A JP2019215705A JP2018112607A JP2018112607A JP2019215705A JP 2019215705 A JP2019215705 A JP 2019215705A JP 2018112607 A JP2018112607 A JP 2018112607A JP 2018112607 A JP2018112607 A JP 2018112607A JP 2019215705 A JP2019215705 A JP 2019215705A
- Authority
- JP
- Japan
- Prior art keywords
- model
- information determination
- learning
- additional learning
- determination model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、ソーシャルメディアから取得した情報が、どのような種別の情報であるのかを判定するための情報判定モデルを学習する情報判定モデル学習装置およびそのプログラムに関する。 The present invention relates to an information determination model learning device for learning an information determination model for determining what type of information acquired from social media is information, and a program therefor.
近年、ソーシャル・ネットワーキング・サービス(SNS:Social Networking Service)の発達により、個人が、容易にかつリアルタイムで情報を発信することが可能になった。例えば、SNSには、火事、事故等の現場に偶然居合わせた人から、その現場の目撃情報等が投稿されることが多くなっている。事件・事故の第一報情報を取得することで、迅速に取材に向かい、いち早く報道することが可能である。また、これらの投稿は、現場の写真や映像を付加したものがあり、火事、事故等の発生した瞬間をとらえた画像、映像として、ニュース番組等に活用されることも多い。そこで、放送局等では、SNSを監視する等、人手により、これらの情報を抽出している。 2. Description of the Related Art In recent years, the development of a social networking service (SNS) has made it possible for an individual to easily transmit information in real time. For example, people who happen to be present at the site of a fire, an accident, or the like often post sighting information or the like on the site to the SNS. By acquiring the first report of an incident / accident, it is possible to go to the report quickly and report quickly. In addition, these postings include photos and videos of the site, and are often used in news programs and the like as images and videos that capture the moment when a fire or an accident occurs. Therefore, broadcast stations and the like manually extract such information by monitoring SNS or the like.
人手により、このようなSNSから必要な情報を抽出する手法は、キーワード検索を用いることが多い。しかしながら、例えば、SNSの投稿では、「○○線が遅れている」といった路線名が書かれている場合や、「△△駅での事故で電車が遅れている」といった駅名が書かれている場合等があり、SNSの表現の方法が多岐にわたっている。そのため、これらの表現をすべてカバーするキーワードを作成することは困難である。 As a method of manually extracting necessary information from the SNS, a keyword search is often used. However, for example, in an SNS post, a line name such as "the XX line is late" is written, or a station name such as "the train is delayed due to an accident at the station △△" is written. There are some cases, and there are various methods of expressing SNS. Therefore, it is difficult to create a keyword that covers all of these expressions.
そこで、これらの問題を解決するために、機械学習を用いた投稿の抽出手法が多く研究されている。例えば、再帰型ニューラルネットワーク(Recurrent Neural Network:RNN)により、ツイート〔登録商標〕がニュース制作に役立つ情報であるか否かを判定する手法が開示されている(非特許文献1参照)。
また、SNSでは、日々新しい事象に対する情報が投稿されるため、学習済みのニューラルネットワークを追加学習する手法が開示されている(特許文献1参照)。
Therefore, in order to solve these problems, many post extraction methods using machine learning have been studied. For example, a method has been disclosed in which a recurrent neural network (RNN) determines whether a tweet (registered trademark) is information useful for news production (see Non-Patent Document 1).
Further, in the SNS, since information about a new event is posted every day, a method of additionally learning a learned neural network is disclosed (see Patent Document 1).
機械学習を用いてニュース制作に役立つ情報を判定するためには、大量の学習データ(教師データ)が必要になる。さらに、日々新しい事象が発生するため、SNSの大量の情報から、網羅性のある学習データを収集し、ニューラルネットワークのモデルを改善する必要がある。
しかし、従来の手法では、学習データを収集するために人手で情報を抽出する必要があるため、労力を要するとともに、追加学習するための学習データを大量に収集することが困難である。そのため、モデルを改善するために、効率的に学習データを収集する手法が望まれている。
In order to determine information useful for news production using machine learning, a large amount of learning data (teacher data) is required. Further, since new events occur every day, it is necessary to collect comprehensive learning data from a large amount of information of the SNS and improve the neural network model.
However, in the conventional method, since it is necessary to manually extract information in order to collect learning data, labor is required, and it is difficult to collect a large amount of learning data for additional learning. Therefore, in order to improve the model, a method of efficiently collecting learning data is desired.
そこで、本発明は、ソーシャルメディアから取得した情報である投稿文が、どの種別の情報であるかを判定するための情報判定モデルを、効率的に追加学習することが可能な情報判定モデル学習装置およびそのプログラムを提供することを課題とする。 Therefore, the present invention provides an information determination model learning device capable of efficiently additionally learning an information determination model for determining which type of information is a posted sentence obtained from social media. And to provide the program.
前記課題を解決するため、本発明に係る情報判定モデル学習装置は、ソーシャルメディアから取得した情報である投稿文が、当該投稿文の投稿内容を分類したどの種別に属するかを判定するためのニューラルネットワークの情報判定モデルを追加学習する情報判定モデル学習装置であって、判定手段と、追加学習データ収集手段と、追加学習手段と、モデル更新手段と、を備える構成とした。 In order to solve the above-described problem, an information determination model learning device according to the present invention includes a neural network for determining to which type a posted sentence that is information acquired from social media belongs by classifying the posted content of the posted sentence. An information judgment model learning apparatus for additionally learning an information judgment model of a network, comprising a judgment unit, an additional learning data collection unit, an additional learning unit, and a model updating unit.
かかる構成において、情報判定モデル学習装置は、判定手段によって、事前学習した情報判定モデルを用いて、新たな投稿文を入力し、種別を判定するとともに当該種別に対する信頼度を算出する。なお、信頼度は、ニューラルネットワークの出力層の出力値である確率値を用いることができる。
そして、情報判定モデル学習装置は、追加学習データ収集手段によって、信頼度が低い投稿文から優先して表示装置に表示し、操作者に選択された投稿文を追加学習データとして収集する。これによって、情報判定モデル学習装置は、信頼度が低く判定結果の誤りの可能性が高い投稿文について、学習が不足している投稿文として優先的に操作者に提示する。ここで、操作者が、信頼度の低い投稿文から種別の判定結果の正しい投稿文を選択することで、当該投稿文が追加学習データとなる。
In such a configuration, the information determination model learning device uses the information determination model learned in advance by the determination unit to input a new posted sentence, determine the type, and calculate the reliability for the type. Note that a probability value which is an output value of an output layer of the neural network can be used as the reliability.
Then, the information determination model learning device preferentially displays the post with low reliability on the display device by the additional learning data collecting means, and collects the post selected by the operator as additional learning data. Accordingly, the information determination model learning device preferentially presents, to the operator, a posted sentence having a low degree of reliability and a high possibility of an error in the determination result as a posted sentence with insufficient learning. Here, when the operator selects a correct posted sentence of the type determination result from the posted sentences with low reliability, the posted sentence becomes additional learning data.
そして、情報判定モデル学習装置は、追加学習手段によって、追加学習データ収集手段で収集された種別が既知の追加学習データを用いて、情報判定モデルのモデルパラメータを初期値として追加学習することで追加学習モデルを生成する。
そして、情報判定モデル学習装置は、モデル更新手段によって、追加学習モデルを新たなモデルとして情報判定モデルを更新する。
なお、情報判定モデル学習装置は、コンピュータを、前記した各手段として機能させるための情報判定モデル学習プログラムで動作させることができる。
Then, the information determination model learning device uses the additional learning data of the known type collected by the additional learning data collection unit by the additional learning unit to perform additional learning by using the model parameters of the information determination model as initial values. Generate a learning model.
Then, the information judgment model learning device updates the information judgment model by using the additional learning model as a new model by the model updating means.
Note that the information determination model learning device can cause a computer to operate with an information determination model learning program for causing the computer to function as each of the above-described units.
本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、ソーシャルメディアから取得した大量の情報から、学習データの候補となる情報を、信頼度に応じて操作者に提示するため、短時間で学習データを収集し、情報判定モデルを追加学習することができる。
これによって、本発明は、操作者の作業量を減らして効率的に情報判定モデルを更新することができ、ソーシャルメディアから取得した情報が、どのような種別の情報であるのかを精度よく判定することができる。
The present invention has the following excellent effects.
According to the present invention, from a large amount of information obtained from social media, information that is a candidate for learning data is presented to the operator according to the reliability, so that learning data is collected in a short time, and an information determination model is created. You can learn additionally.
As a result, the present invention can efficiently update the information determination model by reducing the amount of work of the operator, and accurately determine what type of information acquired from social media is the information. be able to.
以下、本発明の実施形態について図面を参照して説明する。
[情報判定モデル学習装置の構成]
最初に、図1を参照して、本発明の実施形態に係る情報判定モデル学習装置1の構成について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Configuration of Information Judgment Model Learning Apparatus]
First, the configuration of the information determination model learning device 1 according to the embodiment of the present invention will be described with reference to FIG.
情報判定モデル学習装置1は、SNSで発信される情報(投稿単位のテキストデータであるツイート〔登録商標〕等、以下、投稿文という)が、予め定めたどの種別(カテゴリ)に属する情報であるかを判定するモデル(情報判定モデル)を学習するものである。
図1に示すように、情報判定モデル学習装置1は、制御手段10と、記憶手段20と、を備える。
In the information determination model learning device 1, information transmitted by SNS (such as tweet [registered trademark], which is text data in a posting unit, hereinafter referred to as a posting sentence) is information belonging to any predetermined type (category). This is to learn a model (information judgment model) for judging whether or not.
As shown in FIG. 1, the information determination model learning device 1 includes a
制御手段10は、情報判定モデル学習装置1の動作を制御するものである。
制御手段10は、初期学習手段11と、判定手段12と、追加学習データ収集手段13と、追加学習手段14と、モデル更新手段15と、を備える。
The control means 10 controls the operation of the information determination model learning device 1.
The
初期学習手段11は、学習データに基づいて、投稿文がどの種別に属するかを判定する情報判定モデルの初期モデルを学習(事前学習)するものである。
初期学習手段11は、学習データ記憶手段21に予め記憶されている学習データを参照して、情報判定モデルの初期モデルを機械学習する。
学習データ記憶手段21に予め記憶する学習データは、判定を行いたい種別に属する投稿文である種別が既知の正例の学習データと、判定を行いたい種別に属さない投稿文である負例の学習データとを、予め分類した教師データである。
The initial learning means 11 learns (pre-learns) an initial model of an information determination model for determining to which type a posted sentence belongs based on learning data.
The
The learning data stored in advance in the learning
正例の学習データは、判定を行いたい種別に属する投稿文を種別ごと複数のクラスに分類したものである。この正例の学習データには、判定を行いたい種別、例えば、ニュースの種類である「火事」、「爆発」、「自動車事故」等の種別が既知である投稿文を、種別ごとにクラス分けしたものを用いる。この各クラスには、種別の内容を示すラベル(「1:火事」、「2:爆発」等)を対応付けておく。なお、ここでは、正例の学習データが予め複数の種別にクラス分けされた例を示すが、1つの種別、例えば、「ニュースに役立つ情報」のみの1つのクラスであっても構わない。 The learning data of the positive example is obtained by classifying the posted sentences belonging to the type to be determined into a plurality of classes for each type. In the learning data of this positive example, the types of posts to be determined, for example, the types of news such as "fire", "explosion", and "car accident" are known, Use what was done. Each class is associated with a label ("1: fire", "2: explosion", etc.) indicating the content of the type. Here, an example is shown in which the learning data of the positive example is classified into a plurality of types in advance, but may be one type, for example, only one class of “information useful for news”.
負例の学習データは、判定を行いたい種別に属さない投稿文を単一のクラスにまとめたものである。この負例の学習データには、多くの語彙や文脈を収集するため、例えば、取得可能なすべての投稿文からランダムに抽出した投稿文で、判定を行いたい種別に属さない投稿文を用いる。 The learning data of the negative example is a collection of postings that do not belong to the type to be determined in a single class. In order to collect many vocabularies and contexts, for example, a post sentence that is randomly extracted from all available post sentences and does not belong to the type to be determined is used as the learning data of the negative example.
具体的には、初期学習手段11は、学習データがどのクラス(正例:複数クラス、負例:単一クラス)に属するかを判定するモデルをニューラルネットワークにより学習する。例えば、初期学習手段11は、再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)の一種である双方向LSTM(Bidirectional Long short-term memory)を用いた順伝播型ニューラルネットワーク(FFNN:Feed Forward Neural Network)として、情報判定モデルを学習する。 Specifically, the initial learning means 11 learns a model for determining which class (positive example: plural classes, negative example: single class) the learning data belongs to by a neural network. For example, the initial learning means 11 is a forward propagation neural network (FFNN) using a bidirectional long short-term memory (LSTM), which is a type of recurrent neural network (RNN). To learn the information determination model.
ここで、図2を参照して、情報判定モデルの構成例について説明する。図2は、双方向LSTMを用いた情報判定モデルMの構成図である。
図2に示すように、情報判定モデルMは、入力層L1、中間層L2および出力層L3を有するニューラルネットワークである。
Here, a configuration example of the information determination model will be described with reference to FIG. FIG. 2 is a configuration diagram of the information determination model M using the bidirectional LSTM.
As shown in FIG. 2, the information determination model M is a neural network having an input layer L1, an intermediate layer L2, and an output layer L3.
入力層L1は、投稿文を文字(始端記号<s>、終端記号<e>を含む)ごとに入力する。ここで、文字はベクトル表現とする。なお、文字のベクトル表現は、次元数を全文字種数とし、表現する文字の成分のみを“1”、他を“0”とする「one−hot表現」とする。 The input layer L1 inputs a contribution sentence for each character (including a start symbol <s> and a terminal symbol <e>). Here, the characters are expressed in a vector. The vector representation of characters is a "one-hot expression" in which the number of dimensions is the total number of character types, only the component of the character to be represented is "1", and the others are "0".
中間層L2は、順方向のLSTMと逆方向のLSTMと順伝播型ニューラルネットワーク(FFNN)とで構成される。順方向のLSTMは、投稿文の始端記号から順に文字(文字ベクトル)を入力層L1から入力し、終端記号までLSTMの演算を繰り返す。また、逆方向のLSTMは、投稿文の終端記号から順に文字(文字ベクトル)を入力層L1から入力し、始端記号までLSTMの演算を繰り返す。そして、双方向のLSTMの演算結果であるそれぞれのベクトルを連結したベクトルを、さらに、複数のFFNNを介して、出力ベクトル(中間層出力V)とする。 The intermediate layer L2 includes a forward LSTM, a backward LSTM, and a forward propagation neural network (FFNN). In the forward LSTM, characters (character vectors) are input from the input layer L1 in order from the start symbol of the posted sentence, and the LSTM operation is repeated up to the end symbol. In the reverse LSTM, characters (character vectors) are sequentially input from the input layer L1 from the terminal symbol of the posted sentence, and the LSTM operation is repeated up to the start symbol. Then, a vector obtained by concatenating the respective vectors that are the operation results of the bidirectional LSTM is further set as an output vector (intermediate layer output V) via a plurality of FFNNs.
出力層L3は、中間層出力Vである出力ベクトルの各要素の値に重みを付加して加算し正規化することで、出力ノードにおける比率(確率値)を信頼度として計算する。この信頼度が最大となるノードに対応するクラスが判定結果となる。
この出力層L3は、ノードごとに入力される値を、ソフトマックス関数を用いて正規化することで、各ノードの信頼度を算出する。
なお、出力層L3は、図3に示すように、次元数(ノード数)を、正例のクラスの数(n)と、負例のクラスの数(ここでは、“1”)を加算したクラス数(n+1)とする。
The output layer L3 calculates the ratio (probability value) at the output node as reliability by adding a weight to the value of each element of the output vector, which is the output V of the intermediate layer, and adding and normalizing the value. The class corresponding to the node having the maximum reliability is the determination result.
The output layer L3 calculates the reliability of each node by normalizing the value input for each node using a softmax function.
As shown in FIG. 3, the output layer L3 adds the number of dimensions (the number of nodes) to the number of positive example classes (n) and the number of negative example classes (here, “1”). The number of classes is (n + 1).
初期学習手段11は、入力した投稿文が学習データとして種別が既知(教師データ)であるため、この出力層L3の出力に対して、誤差を小さくする方向に情報判定モデルMのモデルパラメータ(LSTM内の重み行列、FFNNのノード間の重み行列等)を学習する。なお、誤差を小さくするには、一般的な誤差逆伝播法(Back Propagation)を用いればよい。
図2に示した情報判定モデルMの双方向LSTMは、非特許文献1に記載されているように、アテンションメカニズムを用いてもよい。
Since the type of the input sentence is known (teacher data) as the learning data, the initial learning means 11 applies the model parameter (LSTM) of the information determination model M to the output of the output layer L3 in a direction to reduce the error. , Weight matrices between FFNN nodes, etc.). In order to reduce the error, a general error back propagation method (Back Propagation) may be used.
The bidirectional LSTM of the information determination model M shown in FIG. 2 may use an attention mechanism as described in Non-Patent Document 1.
図1に戻って、情報判定モデル学習装置1の構成について説明を続ける。
初期学習手段11は、学習した情報判定モデル(モデルパラメータ)を情報判定モデル記憶手段22に書き込み、当該情報判定モデルを記憶する。以下、情報判定モデル記憶手段22に記憶する情報判定モデルをモデルAと呼称する場合がある。
Returning to FIG. 1, the description of the configuration of the information determination model learning device 1 will be continued.
The
判定手段12は、情報判定モデル記憶手段22に記憶されている情報判定モデルを用いて、種別が未知である投稿文が、どの種別に属する投稿文であるのかを判定するものである。
具体的には、判定手段12は、SNS等のソーシャルメディアから取得した投稿文をベクトル表現に変換し、図2に示したニューラルネットワークで構成した情報判定モデルMの入力層L1に、順方向および逆方向から、順次、文字ベクトルを入力する。
そして、判定手段12は、中間層L2において、情報判定モデルMのパラメータ(重み行例等)を用いて、順方向のLSTMと逆方向のLSTMとで、それぞれLSTMの演算を繰り返す。その後、順方向のLSTMと逆方向のLSTMとの出力を連結したベクトルを順次FFNNを介して演算し、中間層出力Vを生成する。
そして、判定手段12は、図3に示すように、中間層出力Vの各要素の値に重みを付加して出力層L3に伝搬させて、各ノードの確率値を信頼度として計算する。
The
Specifically, the
Then, in the intermediate layer L2, the
Then, as shown in FIG. 3, the determining
ここで、判定手段12は、信頼度が最大のノードに対応するクラスが正例のクラスであれば、そのクラスに対応する種別に対応するラベルを、判定結果として信頼度とともに追加学習データ収集手段13に出力する。また、判定手段12は、信頼度が最大のノードに対応するクラスが負例のクラスであれば、負例のクラスとして予め定めたラベルを、判定結果として信頼度とともに追加学習データ収集手段13に出力する。
Here, if the class corresponding to the node having the highest reliability is a positive example class, the
追加学習データ収集手段13は、判定手段12で種別が判定された投稿文から、情報判定モデルを追加学習するための追加学習データを収集するものである。
追加学習データ収集手段13は、データ選択手段130と、データ抽出手段131と、を備える。
The additional learning data collecting means 13 collects additional learning data for additionally learning the information determination model from the post sentence whose type is determined by the determining
The additional learning
データ選択手段130は、判定手段12で種別が判定された投稿文を、追加学習すべき候補を優先して表示装置2に表示し、操作者(アノテータ)によって当該投稿文を追加学習データとするか否かの選択を受け付けるものである。
例えば、データ選択手段130は、判定手段12で種別が判定された投稿文を、信頼度の低い方から優先して表示装置2に表示する。
ここで、信頼度が低い場合、情報判定モデル(モデルA)による判定結果は、誤っている可能性も高いことになる。そこで、操作者は、判定結果の信頼度の低い投稿文に対して、それが正しい判定結果であるか否かを判定し、正しい場合、その投稿文を追加学習データとして選択する。これによって、この投稿文が追加学習データ(教師データ)として選択され、追加学習により、情報判定モデルの精度を高めることが可能になる。
The
For example, the
Here, when the reliability is low, there is a high possibility that the determination result by the information determination model (model A) is incorrect. Therefore, the operator determines whether or not the posted sentence with a low reliability of the determination result is a correct determination result, and if correct, selects the posted sentence as additional learning data. As a result, this posted sentence is selected as additional learning data (teacher data), and the accuracy of the information determination model can be increased by the additional learning.
図4に、データ選択手段130が、表示装置2に表示する画面の例を示す。
例えば、データ選択手段130は、図4に示す画面上に、投稿文C、投稿された日時Tとともに、判定された種別のラベルLと信頼度Rとを、信頼度の低い方から優先的に表示装置2に表示する。ここで、データ選択手段130は、表示装置2の画面上で、投稿文を一定速度でスクロールして順番に表示することで、操作者が、投稿文CとラベルLとの対応を確認し、正しい対応であれば、マウス等の選択手段で投稿文Cを選択する。
データ選択手段130は、選択された投稿文をラベルとともに追加学習データとして、追加学習データ記憶手段23に記憶する。また、データ選択手段130は、選択された投稿文とラベルとをデータ抽出手段131に通知し、選択が終了した段階、例えば、画面上の終了ボタンE(図4参照)を押下された段階で、選択が終了したことをデータ抽出手段131に通知する。
FIG. 4 shows an example of a screen displayed on the
For example, the
The
なお、データ選択手段130は、すべての投稿文を表示装置2に表示する必要はなく、投稿文中の単語で、投稿文の種別(クラス)の特徴を表す度合いが予め定めた閾値よりも大きい投稿文のみを表示対象とすることとしてもよい。このクラスの特徴を表す度合いとしては、例えば、デルタIDF(Inverse Document Frequency)を用いることができる。
It is not necessary for the
具体的には、まず、データ選択手段130は、投稿文内における単語jのデルタIDFの値(Δidfj)を、以下の式(1)により算出する、
Specifically, first, the
ここで、Pは、学習データ記憶手段21に記憶されている学習データの中で、投稿文に対応するクラスの正例の数、Nは負例の数を示す。また、Pj,Njは、学習データ記憶手段21に記憶されている学習データの中で、投稿文に対応するクラスの単語jを含む正例の数、負例の数を示す。
そして、データ選択手段130は、予め定めた閾値よりも大きいデルタIDFの値となる単語を有する投稿文を、表示対象とする。
このように、データ選択手段130は、信頼度の低い投稿文を優先し、また、特徴的な単語を有する投稿文を画面表示することで、操作者が効率的に追加学習データを選択することができる。
なお、操作者は、すべての投稿文を確認する必要はなく、例えば、一定時間、一定個数等、作業時間、作業内容を定めて、投稿文を選択すればよい。
Here, P indicates the number of positive examples of the class corresponding to the posted sentence in the learning data stored in the learning
Then, the
As described above, the
Note that the operator does not need to check all the posted messages, but may select a posted message, for example, by defining a work time and a work content such as a fixed time and a fixed number.
データ抽出手段131は、判定手段12で正例クラスと判定した投稿文の中で、データ選択手段130で選択されなかった投稿文(以下、非選択投稿文)を対象として、データ選択手段130で選択された投稿文と類似する投稿文を、さらに、追加学習データとして抽出するものである。
例えば、データ抽出手段131は、データ選択手段130で選択された投稿文のベクトル表現と、データ選択手段130で選択されなかった投稿文のベクトル表現との類似度(投稿文のベクトル同士の成す角度の近さを示すコサイン類似度)を算出し、予め定めた閾値よりも大きい類似度となった非選択投稿文に対して、類似する投稿文のクラスを対応付けて追加学習データとする。
なお、データ選択手段130で選択された投稿文のベクトル表現、および、選択されなかった投稿文のベクトル表現は、判定手段12において、クラスを判定する際の情報判定モデルの出力ベクトル(出力層の出力)を用いればよい。あるいは、中間層のLSTMよりも後段の出力ベクトル(例えば、中間層出力V;図2参照)を用いてもよい。
The
For example, the
Note that the vector expression of the post sentence selected by the
また、データ抽出手段131は、データ選択手段130で選択された投稿文のベクトル表現と、データ選択手段130で選択されなかった投稿文のベクトル表現との類似度(コサイン類似度)を算出する場合、選択された投稿文と投稿日が同日である非選択投稿文のみを対象としてもよい。同日の投稿文を対象とすることで、同じ事象に対して、複数の表現を追加学習データとすることができ、学習効率を高めることができる。
このように、データ抽出手段131は、データ選択手段130で操作者によって選択されなかった投稿文からも、追加学習データを収集することができる。
追加学習データ収集手段13は、収集した追加学習データ(投稿文、種別〔クラス〕)を追加学習データ記憶手段23に記憶する。
Further, the
As described above, the
The additional learning
追加学習手段14は、追加学習データを用いて、情報判定モデルを追加学習するものである。この追加学習手段14は、例えば、外部から追加学習を指示されたタイミングで、追加学習データ記憶手段23に記憶されている追加学習データを用いて、情報判定モデル記憶手段22に記憶されている情報判定モデルを追加学習する。なお、追加学習手段14における学習は、初期学習手段11と同様であるため説明を省略する。
追加学習手段14は、情報判定モデルを追加学習した追加学習モデル(モデルパラメータ)を、追加学習モデル記憶手段24に記憶する。以下、追加学習モデル記憶手段24に記憶する追加学習モデルをモデルBと呼称する場合がある。
追加学習手段14は、追加学習を終了した段階で、モデル更新手段15に学習終了を通知する。
The
The
The additional learning means 14 notifies the model updating means 15 of the completion of the learning when the additional learning is completed.
モデル更新手段15は、情報判定モデルを更新するものである。
モデル更新手段15は、評価手段150と、更新手段151と、を備える。
The model updating means 15 updates the information determination model.
The
評価手段150は、情報判定モデル記憶手段22に記憶されている情報判定モデル(モデルA)と、追加学習モデル記憶手段24に記憶されている追加学習モデル(モデルB)とのそれぞれについて、投稿文の分類の精度を評価するものである。
なお、評価手段150における評価手法は、一般的な手法を用いることができる。例えば、評価手段150は、情報判定モデルおよび追加学習モデルについて、予め準備した評価データを用いてF値を算出し、評価値とする。なお、評価データは、予め正例と負例とのクラスが既知の投稿文であって、予め評価データ記憶手段25に記憶しておく。
The evaluation unit 150 sends a post sentence for each of the information determination model (model A) stored in the information determination
Note that a general method can be used as the evaluation method in the evaluation means 150. For example, the evaluation unit 150 calculates an F value for the information determination model and the additional learning model using evaluation data prepared in advance, and sets the F value as an evaluation value. The evaluation data is a posting sentence whose class of the positive example and the negative example is known in advance, and is stored in the evaluation
F値は、適合率と再現率との調和平均である。
適合率は、クラスに関わらず、正例と判定したデータ(投稿文)のうちで、実際に正例であるものの割合である。
再現率は、クラスに関わらず、実際に正例であるデータ(投稿文)のうちで、正例と判定したものの割合である。
F値(F-measure)は、適合率をPrecision、再現率をRecallとしたとき、以下の式(2)で求めることができる。
The F value is a harmonic mean of the precision and the recall.
The relevance ratio is a ratio of data (posted sentence) determined to be a positive example, which is actually a positive example, regardless of the class.
The recall is the ratio of data (posted sentence) actually determined to be a positive example, regardless of the class.
The F value (F-measure) can be obtained by the following equation (2), where the precision is Precision and the recall is Recall.
評価手段150は、情報判定モデルおよび追加学習モデルのそれぞれについて算出した評価値(F値)を、更新手段151に出力する。
The evaluation unit 150 outputs the evaluation value (F value) calculated for each of the information determination model and the additional learning model to the updating
更新手段151は、評価手段150で算出された評価値に基づいて、追加学習モデルの評価値が、追加学習前の情報判定モデルの評価値を上回った場合に、情報判定モデルを更新するものである。
更新手段151は、追加学習モデルの評価値が追加学習前の情報判定モデルの評価値を上回った場合だけ、追加学習モデル記憶手段24に記憶されている追加学習モデル(モデルパラメータ)を情報判定モデル記憶手段22に記憶し、新たな情報判定モデルに更新する。また、このとき、更新手段151は、追加学習データ記憶手段23に記憶されている追加学習データを削除する。
The updating
Only when the evaluation value of the additional learning model exceeds the evaluation value of the information determination model before the additional learning, the updating
一方、更新手段151は、追加学習モデルの評価値が追加学習前の情報判定モデルの評価値以下の場合、情報判定モデルの更新を行わないこととする。また、このとき、更新手段151は、追加学習データ記憶手段23に記憶されている追加学習データを削除しないこととしてもよい。これによって、次回の追加学習時に、追加学習データのデータ量を増やして効果的に学習を行うことができる。
On the other hand, when the evaluation value of the additional learning model is equal to or less than the evaluation value of the information determination model before the additional learning, the updating
記憶手段20は、情報判定モデル学習装置1の動作で使用または生成する各種データを記憶するものである。記憶手段20は、学習データ記憶手段21と、情報判定モデル記憶手段22と、追加学習データ記憶手段23と、追加学習モデル記憶手段24と、評価データ記憶手段25と、を備える。
これら各記憶手段は、ハードディスク、半導体メモリ等の一般的な記憶装置で構成することができる。なお、ここでは、記憶手段20において、各記憶手段を個別に設けているが、1つの記憶装置の記憶領域を複数に区分して各記憶手段としてもよい。また、記憶手段20を外部記憶装置として、情報判定モデル学習装置1の構成から省いてもよい。
The
Each of these storage means can be configured by a general storage device such as a hard disk or a semiconductor memory. Here, in the storage means 20, each storage means is individually provided, but the storage area of one storage device may be divided into a plurality of storage areas and each storage means may be used. Further, the
学習データ記憶手段21は、初期学習手段11が情報判定モデルを学習するための学習データを予め記憶するものである。
情報判定モデル記憶手段22は、初期学習手段11が学習した情報判定モデル(モデルA)、より詳細には、そのモデルパラメータを記憶するものである。情報判定モデル記憶手段22に記憶されている情報判定モデル(モデルパラメータ)は、追加学習手段14が追加学習を行う際に読み出される。また、この情報判定モデルは、モデル更新手段15(更新手段151)によって更新される。
The learning
The information determination
追加学習データ記憶手段23は、情報判定モデルを追加して学習するために、追加学習データを記憶するものである。追加学習データ記憶手段23は、追加学習データ収集手段13が収集する追加学習データを記憶し、追加学習手段14によって、追加学習モデルを学習する際に読み出される。
The additional learning
追加学習モデル記憶手段24は、追加学習手段14が学習した追加学習モデル(モデルB)のモデルパラメータを記憶するものである。なお、追加学習モデル記憶手段24のモデルパラメータと、情報判定モデル記憶手段22が記憶するモデルパラメータとは、同一のニューラルネットワークの構造に対応したモデルパラメータである。
The additional learning
評価データ記憶手段25は、モデル(情報判定モデル、追加学習モデル)を評価するための評価データとして、正例と負例とのクラスが既知の投稿文を予め記憶するものである。なお、評価データは、学習データ記憶手段21に記憶する学習データに比べ、少ないデータ量でよい。この評価データ記憶手段25は、モデル更新手段15(評価手段150)によって読み出される。
The evaluation
以上説明したように、情報判定モデル学習装置1は、種別が未知である投稿文から学習に適した投稿文を追加学習データとして収集し、追加学習を行う構成とした。
また、情報判定モデル学習装置1は、種別判定の信頼度の低い投稿文を優先的に操作者に提示して、追加学習するか否かの選択を受け付ける構成とした。そのため、情報判定モデル学習装置1は、効率的に追加学習を行うことができる。
As described above, the information determination model learning device 1 is configured to collect post messages suitable for learning from post messages whose type is unknown as additional learning data and perform additional learning.
Further, the information determination model learning device 1 is configured to preferentially present a posted sentence with low reliability of type determination to the operator and receive a selection of whether or not to perform additional learning. Therefore, the information determination model learning device 1 can efficiently perform additional learning.
また、情報判定モデル学習装置1は、操作者が選択した投稿文に類似する投稿文を入力される投稿文の中から抽出し、追加学習データとする。そのため、操作者の少ない作業で効率的に、追加学習データを大量に収集することができる。
なお、情報判定モデル学習装置1は、コンピュータを前記した各手段として機能させるためのプログラム(情報判定モデル学習プログラム)で動作させることができる。
In addition, the information determination model learning device 1 extracts a post sentence similar to the post sentence selected by the operator from the input posted sentence, and sets it as additional learning data. Therefore, a large amount of additional learning data can be efficiently collected with a small number of operators.
Note that the information determination model learning device 1 can be operated by a program (information determination model learning program) for causing a computer to function as the above-described units.
[情報判定モデル学習装置の動作]
次に、図5を参照(構成については適宜図1参照)して、本発明の実施形態に係る情報判定モデル学習装置1の動作について説明する。なお、学習データ記憶手段21には、判定を行いたい種別に属する投稿文である正例の学習データと、判定を行いたい種別に属さない投稿文である負例の学習データとが、予め記憶されているものとする。また、評価データ記憶手段25には、学習データ記憶手段21と同様に正例の評価データと、負例の評価データとが予め記憶されているものとする。
[Operation of information judgment model learning device]
Next, an operation of the information determination model learning device 1 according to the embodiment of the present invention will be described with reference to FIG. Note that the learning
ステップS1において、初期学習手段11は、学習データ記憶手段21に記憶されている学習データを用いて、投稿文がどの種別に属するかを判定する情報判定モデル(モデルA)を学習する。そして、初期学習手段11は、情報判定モデルを情報判定モデル記憶手段22に記憶する(ステップとして図示せず)。
In step S1, the
ステップS2において、判定手段12は、SNS等のソーシャルメディアから取得した投稿文を順次入力する。
ステップS3において、判定手段12は、ステップS2で入力した投稿文を、情報判定モデル記憶手段22に記憶されている情報判定モデルを用いて、どの種別に属する投稿文であるのかを判定する。
In step S2, the
In step S3, the determining
ステップS4において、追加学習データ収集手段13のデータ選択手段130は、ステップS3で判定された投稿文を、信頼度の低い方から優先して表示装置2に表示する。信頼度は、判定手段12が判定に用いた情報判定モデルの出力値を用いることができる。
このとき、データ選択手段130は、投稿文中の単語で、クラスの特徴を表す度合い(デルタIDF等)が予め定めた閾値よりも大きい投稿文のみを表示対象としてもよい。
In step S4, the
At this time, the
ステップS5において、データ抽出手段131は、ステップS4で表示した投稿文の中から、操作者による投稿文の選択を受け付ける。このとき、操作者は、信頼度の低い投稿文に対して、それが正しい判定結果であるか否かを判定し、正しい場合、その投稿文を追加学習データとして選択する。そして、データ抽出手段131は、選択された追加学習データを追加学習データ記憶手段23に記憶する(ステップとして図示せず)。
In step S5, the
ステップS6において、追加学習データ収集手段13のデータ抽出手段131は、ステップS5で選択されなかった投稿文(非選択投稿文)から、ステップS5で選択された投稿文と類似する投稿文を追加学習データとして抽出する。この類似の度合いは、例えば、コサイン類似度を用いることができる。そして、データ抽出手段131は、抽出した追加学習データを追加学習データ記憶手段23に記憶する(ステップとして図示せず)。
In step S6, the
ステップS7において、追加学習手段14は、追加学習データ記憶手段23に記憶されている追加学習データを用いて、情報判定モデル(モデルA)を追加学習することで、追加学習モデル(モデルB)を生成する。そして、追加学習手段14は、追加学習モデルを追加学習モデル記憶手段24に記憶する(ステップとして図示せず)。
In step S7, the
ステップS8において、モデル更新手段15の評価手段150は、情報判定モデル(モデルA)と、追加学習モデル(モデルB)とについて、それぞれ、評価データ記憶手段25に記憶されている評価データを用いて、投稿文の分類の精度を評価する。例えば、モデル更新手段15は、F値(F-measure)により、それぞれのモデルA,Bについて精度の評価値を算出する。
In step S8, the evaluation unit 150 of the
ステップS9において、モデル更新手段15の更新手段151は、情報判定モデル(モデルA)の評価値と、追加学習モデル(モデルB)の評価値とを比較する。
ここで、追加学習モデル(モデルB)の評価値が情報判定モデル(モデルA)の評価値を上回った場合(ステップS9でYes)、ステップS10において、更新手段151は、追加学習モデル(モデルB)を新たな情報判定モデル(モデルA)として更新し、情報判定モデル記憶手段22に記憶する。そして、ステップS11において、更新手段151は、追加学習データ記憶手段23に記憶されている追加学習データを削除する。
In step S9, the updating
Here, when the evaluation value of the additional learning model (model B) exceeds the evaluation value of the information determination model (model A) (Yes in step S9), in step S10, the updating
一方、追加学習モデル(モデルB)の評価値が情報判定モデル(モデルA)の評価値以下の場合(ステップS9でNo)、情報判定モデル学習装置1は動作を終了する。
なお、情報判定モデル学習装置1は、この動作完了後は、定期的、例えば、1日ごとに、ステップS2以降の動作を行うこととする。
On the other hand, when the evaluation value of the additional learning model (model B) is equal to or smaller than the evaluation value of the information determination model (model A) (No in step S9), the information determination model learning device 1 ends the operation.
After the operation is completed, the information determination model learning device 1 performs the operation after step S2 periodically, for example, every day.
以上の動作によって、情報判定モデル学習装置1は、人手の作業を最小限にして、最新の情報(投稿文)を追加学習して、精度の高い情報判定モデルを生成することができる。
以上、本発明の実施形態に係る情報判定モデル学習装置1の構成および動作について説明したが、本発明は、この実施形態に限定されるものではない。
Through the above operation, the information determination model learning device 1 can generate a highly accurate information determination model by additionally learning the latest information (posted sentence) while minimizing manual work.
The configuration and operation of the information determination model learning device 1 according to the embodiment of the present invention have been described above, but the present invention is not limited to this embodiment.
[変形例]
(変形例1)
ここでは、初期学習手段11および追加学習手段14が学習するモデル(情報判定モデルおよび追加学習モデル)として、双方向LSTMを中間層とする順伝播型ニューラルネットワーク(FFNN)を用いた。しかし、これらのモデルには、一般的なFFNNを用いてもよい。
[Modification]
(Modification 1)
Here, as a model (information determination model and additional learning model) that the
図6に一般的なFFNNで構成した情報判定モデル(追加学習モデル)M2の例を示す。図6に示すように情報判定モデルM2は、入力層L1と、複数の階層で構成された中間層L2と、出力層L3とで構成される。入力層L1には、投稿文ごとに、予め定めた次元数の分散表現ベクトルを入力し、重みを付加して各層を伝搬させて、出力層L3から出力する。 FIG. 6 shows an example of an information determination model (additional learning model) M2 configured by a general FFNN. As shown in FIG. 6, the information determination model M2 includes an input layer L1, an intermediate layer L2 including a plurality of layers, and an output layer L3. A distributed expression vector having a predetermined number of dimensions is input to the input layer L1 for each posted sentence, weighted, propagated through each layer, and output from the output layer L3.
なお、中間層L2の出力ベクトル(中間層出力V)と、出力層L3との関係は、図3で説明した関係と同じである。情報判定モデルM2の出力層L3のノード数は、図3と同様、正例のクラスの数(n)と、負例のクラスの数(“1”)を加算したクラス数(n+1)である。 Note that the relationship between the output vector (intermediate layer output V) of the intermediate layer L2 and the output layer L3 is the same as the relationship described with reference to FIG. The number of nodes in the output layer L3 of the information determination model M2 is the number of classes (n + 1) obtained by adding the number of positive example classes (n) and the number of negative example classes ("1"), as in FIG. .
この情報判定モデルM2に入力される投稿文の分散表現ベクトルは、例えば、Word2Vec、GloVe等の一般的な分散表現ベクトル生成手法により生成した、単語ごとの予め定めた次元数のベクトルを、投稿文に含まれる単語数分加算し、平均化したものである。
例えば、初期学習手段11、追加学習手段14は、投稿文「消防車おるけど火事?」を、形態素解析により、「消防車/おる/けど/火事/?」のように単語に分割する。
そして、初期学習手段11、追加学習手段14は、各単語を分散表現ベクトルに変換して加算し、単語数で除算することで、当該投稿文に対応する分散表現ベクトルを生成する。
これによって、異なる単語数の投稿文であっても、同一次元の分散表現ベクトルで、情報判定モデルM2の学習を行うことができる。
The distributed expression vector of the post sentence input to the information determination model M2 is, for example, a vector having a predetermined number of dimensions for each word generated by a general distributed expression vector generation method such as Word2Vec or GloVe. Are added up for the number of words included in, and averaged.
For example, the initial learning means 11 and the additional learning means 14 divide the posted sentence "fire engine fire but fire?" Into words such as "fire engine fire / fire / fire / fire /?" By morphological analysis.
Then, the
As a result, the information determination model M2 can be learned using a distributed expression vector having the same dimension even if the posted sentences have different numbers of words.
(変形例2)
また、図2に示した情報判定モデルMは、投稿文の中の特徴的な単語の重みを表した特徴ベクトルを、中間層に付加するモデルとしてもよい。
図7に特徴ベクトルを付加した情報判定モデル(追加学習モデル)M3の例を示す。図7に示すように情報判定モデルM3は、基本的には、図2で説明した情報判定モデルMと同じであるが、少なくとも双方向LSTMの後段に、特徴ベクトルV2を入力する。
(Modification 2)
The information determination model M shown in FIG. 2 may be a model that adds a feature vector representing the weight of a characteristic word in a posted sentence to an intermediate layer.
FIG. 7 shows an example of an information determination model (additional learning model) M3 to which a feature vector is added. As shown in FIG. 7, the information determination model M3 is basically the same as the information determination model M described in FIG. 2, but the feature vector V2 is input at least at the subsequent stage of the bidirectional LSTM.
この特徴ベクトルV2は、例えば、単語数分の次元のベクトルであって、入力された投稿文の単語のスコアを、ベクトルの要素に設定したものである。スコアは、前記した式(1)と同じデルタIDFの値を用いることができる。ただし、特徴ベクトルV2のスコアの場合、前記式(1)のPは、学習データ記憶手段21に記憶されている学習データの中で、すべてのクラスの正例の数、Nは負例の数を示す。また、Pj,Njは、学習データ記憶手段21に記憶されている学習データの中で、すべてのクラスの単語jを含む正例の数、負例の数を示す。
The feature vector V2 is, for example, a vector having a dimension corresponding to the number of words, and is obtained by setting a word score of an input posted sentence to a vector element. As the score, the same value of the delta IDF as in the above equation (1) can be used. However, in the case of the score of the feature vector V2, P in the above equation (1) is the number of positive examples of all classes in the learning data stored in the learning
また、特徴ベクトルV2は、単語数分の次元ベクトルではなく、予め定めた次元数(例えば、10次元)であってもよい。この場合、特徴ベクトルV2は、例えば、投稿文の単語の重み(デルタIDFの値)を、所定単位(例えば0.1刻み)でベクトルの要素に対応させ、重みに対応する要素に“1”、対応しない要素に“0”を設定したベクトルとする。あるいは、特徴ベクトルV2は、要素ごとに対応する単語の重みを累計し、累計結果の総和が“1”となるように正規化してもよい。
この特徴ベクトルV2は、初期学習手段11、追加学習手段14によって生成される。
これによって、情報判定モデルM3は、投稿文内の特徴単語を加味して、情報を判定することが可能なモデルとなる。
Further, the feature vector V2 may be a predetermined number of dimensions (for example, 10 dimensions) instead of the number of dimension vectors for the number of words. In this case, the feature vector V2 is, for example, the word weight (delta IDF value) of the posted sentence is made to correspond to the element of the vector in a predetermined unit (for example, every 0.1), and the element corresponding to the weight is “1”. , A vector in which “0” is set to uncorresponding elements. Alternatively, the feature vector V2 may be obtained by accumulating the weights of the words corresponding to each element and normalizing the sum so that the sum of the accumulation results is “1”.
This feature vector V2 is generated by the initial learning means 11 and the additional learning means 14.
Thus, the information determination model M3 is a model capable of determining information in consideration of a characteristic word in a posted sentence.
(変形例3)
ここでは、情報判定モデル学習装置1は、学習データを用いて、情報判定モデルを学習して生成することとした。
しかし、追加学習前の情報判定モデルは、必ずしも情報判定モデル学習装置1内で生成する必要はない。例えば、外部で予め学習し生成した情報判定モデルを、情報判定モデル記憶手段22に記憶しておけばよい。その場合、情報判定モデル学習装置1は、初期学習手段11を構成から省略することができる。また、データ選択手段130において、デルタIDFを用いて投稿文の表示対象の制限を行う必要がなければ、さらに、学習データ記憶手段21を省略することも可能である。
(Modification 3)
Here, the information determination model learning device 1 learns and generates an information determination model using learning data.
However, the information determination model before additional learning does not necessarily need to be generated in the information determination model learning device 1. For example, an information determination model learned and generated outside in advance may be stored in the information determination
(変形例4)
ここでは、追加学習データ収集手段13が、操作者によって追加学習データを選択し、選択されなかった投稿文からさらに追加学習データを収集することとした。
しかし、追加学習データ収集手段13は、操作者による追加学習データの選択のみによって追加学習データを収集することとしてもよい。その場合、情報判定モデル学習装置1は、データ抽出手段131を構成から省略することができる。
(Modification 4)
Here, the additional learning data collecting means 13 selects the additional learning data by the operator, and further collects the additional learning data from the unselected postings.
However, the additional learning data collecting means 13 may collect the additional learning data only by the selection of the additional learning data by the operator. In that case, the information determination model learning device 1 can omit the data extracting means 131 from the configuration.
(変形例5)
ここでは、情報判定モデル学習装置1は、情報判定モデルを追加学習する装置とした。
しかし、情報判定モデル学習装置1は、追加学習後の情報判定モデルを用いて、投稿文が予め定めたどの種別に属する情報であるかを判定することとしてもよい。
(Modification 5)
Here, the information determination model learning device 1 is a device that additionally learns an information determination model.
However, the information determination model learning device 1 may determine, using the information determination model after the additional learning, what type of information the post sentence belongs to.
例えば、図8に、投稿文の判定を行うことが可能な情報判定モデル学習装置1Bの構成を示す。
情報判定モデル学習装置1Bは、追加学習モードと情報判定モードとの2つの動作モードを切り替えて動作する。情報判定モデル学習装置1Bは、追加学習モードにおいては、新たな投稿文によって、情報判定モデルを追加学習する。また、情報判定モデル学習装置1Bは、情報判定モードにおいては、入力される投稿文の種別を判定する。
図8に示すように、情報判定モデル学習装置1Bは、情報判定モデル学習装置1の構成に切替手段16を付加して構成している。切替手段16以外の構成は、図1の情報判定モデル学習装置1の構成と同じであるため、同一の符号を付して説明を省略する。
For example, FIG. 8 shows a configuration of an information determination
The information determination
As shown in FIG. 8, the information determination
切替手段16は、指定された動作モードによって、判定手段12における判定結果の出力を切り替えるものである。
この切替手段16は、外部からの動作モードの指示により、判定手段12の出力を、追加学習データ収集手段13か、外部(例えば、表示装置2)かのいずれかに切り替える。
情報判定モデル学習装置1Bは、追加学習モードの動作時には、切替手段16によって、判定手段12の出力を追加学習データ収集手段13とすることで、入力される投稿文によって、情報判定モデルを追加学習する。
また、情報判定モデル学習装置1Bは、情報判定モードの動作時には、切替手段16によって、判定手段12の出力を外部出力とすることで、入力される投稿文の種別を判定し、判定結果を外部に出力する。
なお、投稿文が予め定めたどの種別に属する情報であるかを判定する場合、図9に示す情報判定装置3して構成してもよい。
図9に示す情報判定装置3は、図1で説明した情報判定モデル学習装置1の判定手段12と、情報判定モデル記憶手段22とで構成する。なお、情報判定モデル記憶手段22は、情報判定モデル学習装置1で追加学習した情報判定モデルを記憶しておけばよい。
これによって、情報判定モデル学習装置1で学習した情報判定モデルを、複数の情報判定装置3で利用することができる。
The switching
The switching
When operating in the additional learning mode, the information determination
In addition, in the operation of the information determination mode, the information determination
When it is determined which type the post belongs to, the information determination device 3 shown in FIG. 9 may be used.
The information determination device 3 shown in FIG. 9 includes the
As a result, the information determination model learned by the information determination model learning device 1 can be used by a plurality of information determination devices 3.
1,1B 情報判定モデル学習装置
10 制御手段
11 初期学習手段
12 判定手段
13 追加学習データ収集手段
130 データ選択手段
131 データ抽出手段
14 追加学習手段
15 モデル更新手段
16 切替手段
150 評価手段
151 更新手段
20 記憶手段
21 学習データ記憶手段
22 情報判定モデル記憶手段
23 追加学習データ記憶手段
24 追加学習モデル記憶手段
25 評価データ記憶手段
3 情報判定装置
1, 1B information judgment
Claims (7)
事前学習した前記情報判定モデルを用いて、新たな投稿文を入力し、前記種別を判定するとともに当該種別に対する信頼度を算出する判定手段と、
前記信頼度が低い投稿文から優先して表示装置に表示し、操作者に選択された投稿文を追加学習データとして収集する追加学習データ収集手段と、
前記追加学習データを用いて、前記情報判定モデルを追加学習した追加学習モデルを生成する追加学習手段と、
前記追加学習モデルを新たなモデルとして前記情報判定モデルを更新するモデル更新手段と、
を備えることを特徴とする情報判定モデル学習装置。 An information determination model learning device that additionally learns an information determination model of a neural network for determining to which type the posted content, which is information acquired from social media, belongs to the classified content of the posted content,
Using the pre-learned information determination model, input a new posted sentence, determine the type and determine reliability for the type,
Additional learning data collecting means for displaying on the display device by giving priority to the post with low reliability, and collecting the post selected by the operator as additional learning data,
Using the additional learning data, additional learning means for generating an additional learning model additionally learning the information determination model,
Model updating means for updating the information determination model with the additional learning model as a new model,
An information judgment model learning device comprising:
前記新たな投稿文のうちで、前記操作者に選択された投稿文を前記追加学習データとするデータ選択手段と、
前記データ選択手段で選択されなかった投稿文から、前記追加学習データと類似する投稿文を追加学習データとして抽出するデータ抽出手段と、
を備えることを特徴とする請求項1に記載の情報判定モデル学習装置。 The additional learning data collection means,
A data selecting unit that sets a post selected by the operator as the additional learning data among the new post;
From the post not selected by the data selection unit, a data extraction unit that extracts a post sentence similar to the additional learning data as additional learning data,
The information determination model learning device according to claim 1, further comprising:
前記追加学習モデルの評価値が前記情報判定モデルの評価値を上回った場合に、前記情報判定モデルを更新する更新手段と、
を備えることを特徴とする請求項1から請求項3のいずれか一項に記載の情報判定モデル学習装置。 The model updating means, using predetermined evaluation data, evaluating means for calculating an evaluation value of the information determination model and the additional learning model,
When the evaluation value of the additional learning model exceeds the evaluation value of the information determination model, an updating unit that updates the information determination model,
The information determination model learning device according to any one of claims 1 to 3, further comprising:
前記切替手段は、前記追加学習モードにおいて、前記判定手段の判定結果を前記追加学習データ収集手段に出力し、前記情報判定モードにおいて、前記判定手段の判定結果を外部に出力することを特徴とする請求項1から請求項5のいずれか一項に記載の情報判定モデル学習装置。 Switching means for switching between two operation modes of an additional learning mode for performing additional learning and an information determination mode for determining the type of the posted sentence,
The switching means outputs a determination result of the determination means to the additional learning data collection means in the additional learning mode, and outputs a determination result of the determination means to the outside in the information determination mode. The information determination model learning device according to any one of claims 1 to 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112607A JP7153477B2 (en) | 2018-06-13 | 2018-06-13 | Information judgment model learning device and its program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112607A JP7153477B2 (en) | 2018-06-13 | 2018-06-13 | Information judgment model learning device and its program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019215705A true JP2019215705A (en) | 2019-12-19 |
JP7153477B2 JP7153477B2 (en) | 2022-10-14 |
Family
ID=68918731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018112607A Active JP7153477B2 (en) | 2018-06-13 | 2018-06-13 | Information judgment model learning device and its program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7153477B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021132099A1 (en) * | 2019-12-24 | 2021-07-01 | 株式会社 東京ウエルズ | Learning support device, learning device, learning support method, and learning support program |
JP7129585B1 (en) * | 2021-11-25 | 2022-09-01 | シエンプレ株式会社 | SNS Post Classification Providing System, SNS Post Classification Providing Method and Program |
WO2023053226A1 (en) * | 2021-09-28 | 2023-04-06 | 日本電信電話株式会社 | Determination device, determination method, and determination program |
WO2023119360A1 (en) * | 2021-12-20 | 2023-06-29 | 日本電信電話株式会社 | Information identification device, information identification method, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002222083A (en) * | 2001-01-29 | 2002-08-09 | Fujitsu Ltd | Device and method for instance storage |
JP2002287803A (en) * | 2001-03-27 | 2002-10-04 | Denso Corp | Property adjusting method in manufacturing process of product |
US20090228499A1 (en) * | 2008-03-05 | 2009-09-10 | Schmidtler Mauritius A R | Systems and methods for organizing data sets |
JP2012141912A (en) * | 2011-01-06 | 2012-07-26 | Nippon Telegr & Teleph Corp <Ntt> | Data extraction device, data extraction method and program |
JP2016510441A (en) * | 2012-11-30 | 2016-04-07 | フェイスブック,インク. | Customized predictors of user behavior in online systems |
JP2017201437A (en) * | 2016-05-02 | 2017-11-09 | 日本放送協会 | News material extractor and program |
-
2018
- 2018-06-13 JP JP2018112607A patent/JP7153477B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002222083A (en) * | 2001-01-29 | 2002-08-09 | Fujitsu Ltd | Device and method for instance storage |
JP2002287803A (en) * | 2001-03-27 | 2002-10-04 | Denso Corp | Property adjusting method in manufacturing process of product |
US20090228499A1 (en) * | 2008-03-05 | 2009-09-10 | Schmidtler Mauritius A R | Systems and methods for organizing data sets |
JP2012141912A (en) * | 2011-01-06 | 2012-07-26 | Nippon Telegr & Teleph Corp <Ntt> | Data extraction device, data extraction method and program |
JP2016510441A (en) * | 2012-11-30 | 2016-04-07 | フェイスブック,インク. | Customized predictors of user behavior in online systems |
JP2017201437A (en) * | 2016-05-02 | 2017-11-09 | 日本放送協会 | News material extractor and program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021132099A1 (en) * | 2019-12-24 | 2021-07-01 | 株式会社 東京ウエルズ | Learning support device, learning device, learning support method, and learning support program |
JP7298825B2 (en) | 2019-12-24 | 2023-06-27 | 株式会社 東京ウエルズ | Learning support device, learning device, learning support method, and learning support program |
WO2023053226A1 (en) * | 2021-09-28 | 2023-04-06 | 日本電信電話株式会社 | Determination device, determination method, and determination program |
JP7129585B1 (en) * | 2021-11-25 | 2022-09-01 | シエンプレ株式会社 | SNS Post Classification Providing System, SNS Post Classification Providing Method and Program |
WO2023095227A1 (en) * | 2021-11-25 | 2023-06-01 | シエンプレ株式会社 | Sns post classification provision system, sns post classification provision method, and program |
WO2023119360A1 (en) * | 2021-12-20 | 2023-06-29 | 日本電信電話株式会社 | Information identification device, information identification method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7153477B2 (en) | 2022-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ramadhan et al. | Sentiment analysis using multinomial logistic regression | |
Bergsma et al. | Language identification for creating language-specific twitter collections | |
JP7153477B2 (en) | Information judgment model learning device and its program | |
CN110516067A (en) | Public sentiment monitoring method, system and storage medium based on topic detection | |
US11636341B2 (en) | Processing sequential interaction data | |
CN110023928B (en) | Predictive search engine ranking signal values | |
CN105260356A (en) | Chinese interactive text emotion and topic identification method based on multitask learning | |
CN112257777B (en) | Off-duty prediction method and related device based on hidden Markov model | |
US20170177623A1 (en) | Method and apparatus for using business-aware latent topics for image captioning in social media | |
US20110219299A1 (en) | Method and system of providing completion suggestion to a partial linguistic element | |
US11720481B2 (en) | Method, apparatus and computer program product for predictive configuration management of a software testing system | |
US20210248425A1 (en) | Reinforced text representation learning | |
KR20230013793A (en) | Method and Apparatus for Classifying Document Based on Attension Mechanism and Semantic Analysis | |
Chen et al. | The best answers? think twice: online detection of commercial campaigns in the CQA forums | |
CN110020110B (en) | Media content recommendation method, device and storage medium | |
Lhasiw et al. | A bidirectional LSTM model for classifying Chatbot messages | |
CN110347314A (en) | A kind of content displaying method, device, storage medium and computer equipment | |
CN112069803A (en) | Text backup method, device and equipment and computer readable storage medium | |
JP2019016122A (en) | Model learning device, information determining device and program thereof | |
US11134045B2 (en) | Message sorting system, message sorting method, and program | |
JP6839001B2 (en) | Model learning device, information judgment device and their programs | |
JP6961148B1 (en) | Information processing system and information processing method | |
JP5841108B2 (en) | Information processing apparatus, article information generation method and program | |
CN109145115B (en) | Product public opinion discovery method, device, computer equipment and storage medium | |
JP7452801B2 (en) | Evaluation support system and evaluation support program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210512 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221003 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7153477 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |