JP2019215705A - Information determination model learning device and program thereof - Google Patents

Information determination model learning device and program thereof Download PDF

Info

Publication number
JP2019215705A
JP2019215705A JP2018112607A JP2018112607A JP2019215705A JP 2019215705 A JP2019215705 A JP 2019215705A JP 2018112607 A JP2018112607 A JP 2018112607A JP 2018112607 A JP2018112607 A JP 2018112607A JP 2019215705 A JP2019215705 A JP 2019215705A
Authority
JP
Japan
Prior art keywords
model
information determination
learning
additional learning
determination model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018112607A
Other languages
Japanese (ja)
Other versions
JP7153477B2 (en
Inventor
友香 武井
Yuka Takei
友香 武井
後藤 淳
Atsushi Goto
淳 後藤
太郎 宮▲崎▼
Taro Miyazaki
太郎 宮▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2018112607A priority Critical patent/JP7153477B2/en
Publication of JP2019215705A publication Critical patent/JP2019215705A/en
Application granted granted Critical
Publication of JP7153477B2 publication Critical patent/JP7153477B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an information determination model learning device which additionally learns an information determination model for determining whether a submission sentence which is information acquired from social media is which type of information.SOLUTION: An information determination model learning device 1 comprises: determination means 12 for inputting a new submission sentence, determining the type, and calculating reliability for the type using a preliminarily learned information determination model; additional learning data collection means 13 for preferentially displaying submission sentences with low reliability in a display device 2 and collecting selected submission sentences as additional learning data for an operator; additional learning means 14 for generating an additional learning model which is an additionally learned information determination model using additional learning data; and model update means 15 for updating the information determination model with the additional learning model as a new model.SELECTED DRAWING: Figure 1

Description

本発明は、ソーシャルメディアから取得した情報が、どのような種別の情報であるのかを判定するための情報判定モデルを学習する情報判定モデル学習装置およびそのプログラムに関する。   The present invention relates to an information determination model learning device for learning an information determination model for determining what type of information acquired from social media is information, and a program therefor.

近年、ソーシャル・ネットワーキング・サービス(SNS:Social Networking Service)の発達により、個人が、容易にかつリアルタイムで情報を発信することが可能になった。例えば、SNSには、火事、事故等の現場に偶然居合わせた人から、その現場の目撃情報等が投稿されることが多くなっている。事件・事故の第一報情報を取得することで、迅速に取材に向かい、いち早く報道することが可能である。また、これらの投稿は、現場の写真や映像を付加したものがあり、火事、事故等の発生した瞬間をとらえた画像、映像として、ニュース番組等に活用されることも多い。そこで、放送局等では、SNSを監視する等、人手により、これらの情報を抽出している。   2. Description of the Related Art In recent years, the development of a social networking service (SNS) has made it possible for an individual to easily transmit information in real time. For example, people who happen to be present at the site of a fire, an accident, or the like often post sighting information or the like on the site to the SNS. By acquiring the first report of an incident / accident, it is possible to go to the report quickly and report quickly. In addition, these postings include photos and videos of the site, and are often used in news programs and the like as images and videos that capture the moment when a fire or an accident occurs. Therefore, broadcast stations and the like manually extract such information by monitoring SNS or the like.

人手により、このようなSNSから必要な情報を抽出する手法は、キーワード検索を用いることが多い。しかしながら、例えば、SNSの投稿では、「○○線が遅れている」といった路線名が書かれている場合や、「△△駅での事故で電車が遅れている」といった駅名が書かれている場合等があり、SNSの表現の方法が多岐にわたっている。そのため、これらの表現をすべてカバーするキーワードを作成することは困難である。   As a method of manually extracting necessary information from the SNS, a keyword search is often used. However, for example, in an SNS post, a line name such as "the XX line is late" is written, or a station name such as "the train is delayed due to an accident at the station △△" is written. There are some cases, and there are various methods of expressing SNS. Therefore, it is difficult to create a keyword that covers all of these expressions.

そこで、これらの問題を解決するために、機械学習を用いた投稿の抽出手法が多く研究されている。例えば、再帰型ニューラルネットワーク(Recurrent Neural Network:RNN)により、ツイート〔登録商標〕がニュース制作に役立つ情報であるか否かを判定する手法が開示されている(非特許文献1参照)。
また、SNSでは、日々新しい事象に対する情報が投稿されるため、学習済みのニューラルネットワークを追加学習する手法が開示されている(特許文献1参照)。
Therefore, in order to solve these problems, many post extraction methods using machine learning have been studied. For example, a method has been disclosed in which a recurrent neural network (RNN) determines whether a tweet (registered trademark) is information useful for news production (see Non-Patent Document 1).
Further, in the SNS, since information about a new event is posted every day, a method of additionally learning a learned neural network is disclosed (see Patent Document 1).

特開2007−305072号公報JP 2007-305072 A

宮崎太郎,鳥海心,武井友香,山田一郎,後藤淳,“ニュース制作に役立つtweetの自動抽出手法”,言語処理学会,第23回年次大会発表論文集,pp.418-421,2017年3月Taro Miyazaki, Shin Toriumi, Yuka Takei, Ichiro Yamada, Jun Goto, "Automatic extraction of tweet useful for news production", Proceedings of the 23rd Annual Conference of the Association for Language Processing, pp.418-421, March 2017 Month

機械学習を用いてニュース制作に役立つ情報を判定するためには、大量の学習データ(教師データ)が必要になる。さらに、日々新しい事象が発生するため、SNSの大量の情報から、網羅性のある学習データを収集し、ニューラルネットワークのモデルを改善する必要がある。
しかし、従来の手法では、学習データを収集するために人手で情報を抽出する必要があるため、労力を要するとともに、追加学習するための学習データを大量に収集することが困難である。そのため、モデルを改善するために、効率的に学習データを収集する手法が望まれている。
In order to determine information useful for news production using machine learning, a large amount of learning data (teacher data) is required. Further, since new events occur every day, it is necessary to collect comprehensive learning data from a large amount of information of the SNS and improve the neural network model.
However, in the conventional method, since it is necessary to manually extract information in order to collect learning data, labor is required, and it is difficult to collect a large amount of learning data for additional learning. Therefore, in order to improve the model, a method of efficiently collecting learning data is desired.

そこで、本発明は、ソーシャルメディアから取得した情報である投稿文が、どの種別の情報であるかを判定するための情報判定モデルを、効率的に追加学習することが可能な情報判定モデル学習装置およびそのプログラムを提供することを課題とする。   Therefore, the present invention provides an information determination model learning device capable of efficiently additionally learning an information determination model for determining which type of information is a posted sentence obtained from social media. And to provide the program.

前記課題を解決するため、本発明に係る情報判定モデル学習装置は、ソーシャルメディアから取得した情報である投稿文が、当該投稿文の投稿内容を分類したどの種別に属するかを判定するためのニューラルネットワークの情報判定モデルを追加学習する情報判定モデル学習装置であって、判定手段と、追加学習データ収集手段と、追加学習手段と、モデル更新手段と、を備える構成とした。   In order to solve the above-described problem, an information determination model learning device according to the present invention includes a neural network for determining to which type a posted sentence that is information acquired from social media belongs by classifying the posted content of the posted sentence. An information judgment model learning apparatus for additionally learning an information judgment model of a network, comprising a judgment unit, an additional learning data collection unit, an additional learning unit, and a model updating unit.

かかる構成において、情報判定モデル学習装置は、判定手段によって、事前学習した情報判定モデルを用いて、新たな投稿文を入力し、種別を判定するとともに当該種別に対する信頼度を算出する。なお、信頼度は、ニューラルネットワークの出力層の出力値である確率値を用いることができる。
そして、情報判定モデル学習装置は、追加学習データ収集手段によって、信頼度が低い投稿文から優先して表示装置に表示し、操作者に選択された投稿文を追加学習データとして収集する。これによって、情報判定モデル学習装置は、信頼度が低く判定結果の誤りの可能性が高い投稿文について、学習が不足している投稿文として優先的に操作者に提示する。ここで、操作者が、信頼度の低い投稿文から種別の判定結果の正しい投稿文を選択することで、当該投稿文が追加学習データとなる。
In such a configuration, the information determination model learning device uses the information determination model learned in advance by the determination unit to input a new posted sentence, determine the type, and calculate the reliability for the type. Note that a probability value which is an output value of an output layer of the neural network can be used as the reliability.
Then, the information determination model learning device preferentially displays the post with low reliability on the display device by the additional learning data collecting means, and collects the post selected by the operator as additional learning data. Accordingly, the information determination model learning device preferentially presents, to the operator, a posted sentence having a low degree of reliability and a high possibility of an error in the determination result as a posted sentence with insufficient learning. Here, when the operator selects a correct posted sentence of the type determination result from the posted sentences with low reliability, the posted sentence becomes additional learning data.

そして、情報判定モデル学習装置は、追加学習手段によって、追加学習データ収集手段で収集された種別が既知の追加学習データを用いて、情報判定モデルのモデルパラメータを初期値として追加学習することで追加学習モデルを生成する。
そして、情報判定モデル学習装置は、モデル更新手段によって、追加学習モデルを新たなモデルとして情報判定モデルを更新する。
なお、情報判定モデル学習装置は、コンピュータを、前記した各手段として機能させるための情報判定モデル学習プログラムで動作させることができる。
Then, the information determination model learning device uses the additional learning data of the known type collected by the additional learning data collection unit by the additional learning unit to perform additional learning by using the model parameters of the information determination model as initial values. Generate a learning model.
Then, the information judgment model learning device updates the information judgment model by using the additional learning model as a new model by the model updating means.
Note that the information determination model learning device can cause a computer to operate with an information determination model learning program for causing the computer to function as each of the above-described units.

本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、ソーシャルメディアから取得した大量の情報から、学習データの候補となる情報を、信頼度に応じて操作者に提示するため、短時間で学習データを収集し、情報判定モデルを追加学習することができる。
これによって、本発明は、操作者の作業量を減らして効率的に情報判定モデルを更新することができ、ソーシャルメディアから取得した情報が、どのような種別の情報であるのかを精度よく判定することができる。
The present invention has the following excellent effects.
According to the present invention, from a large amount of information obtained from social media, information that is a candidate for learning data is presented to the operator according to the reliability, so that learning data is collected in a short time, and an information determination model is created. You can learn additionally.
As a result, the present invention can efficiently update the information determination model by reducing the amount of work of the operator, and accurately determine what type of information acquired from social media is the information. be able to.

本発明の実施形態に係る情報判定モデル学習装置の構成を示すブロック構成図である。1 is a block diagram illustrating a configuration of an information determination model learning device according to an embodiment of the present invention. 本発明の実施形態に係る情報判定モデル学習装置が学習する情報判定モデルの例であって、中間層に双方向LSTMを用いたニューラルネットワーク構成図である。It is an example of the information determination model which the information determination model learning apparatus which concerns on embodiment of this invention learns, and is a neural network block diagram using bidirectional LSTM for an intermediate layer. 情報判定モデルの出力層の構造を説明するための説明図である。FIG. 4 is an explanatory diagram for describing a structure of an output layer of an information determination model. 追加学習データ収集手段が表示装置に表示する投稿文の例を示す画面図である。FIG. 9 is a screen diagram showing an example of a posted sentence displayed on a display device by an additional learning data collection unit. 本発明の実施形態に係る情報判定モデル学習装置の動作を示すフローチャートである。5 is a flowchart illustrating an operation of the information determination model learning device according to the embodiment of the present invention. 変形例の情報判定モデルのニューラルネットワーク構成図である。It is a neural network block diagram of the information determination model of a modification. 図2の情報判定モデルに特徴ベクトルを付加した変形例の情報判定モデルのニューラルネットワーク構成図である。FIG. 4 is a neural network configuration diagram of an information determination model according to a modification in which a feature vector is added to the information determination model of FIG. 2. 本発明の変形例の実施形態に係る情報判定モデル学習装置の構成を示すブロック構成図である。FIG. 11 is a block diagram illustrating a configuration of an information determination model learning device according to an embodiment of a modified example of the present invention. 本発明の実施形態に係る情報判定モデル学習装置で学習した情報判定モデルを用いた情報判定装置の構成を示すブロック構成図である。FIG. 2 is a block diagram illustrating a configuration of an information determination device using an information determination model learned by an information determination model learning device according to an embodiment of the present invention.

以下、本発明の実施形態について図面を参照して説明する。
[情報判定モデル学習装置の構成]
最初に、図1を参照して、本発明の実施形態に係る情報判定モデル学習装置1の構成について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Configuration of Information Judgment Model Learning Apparatus]
First, the configuration of the information determination model learning device 1 according to the embodiment of the present invention will be described with reference to FIG.

情報判定モデル学習装置1は、SNSで発信される情報(投稿単位のテキストデータであるツイート〔登録商標〕等、以下、投稿文という)が、予め定めたどの種別(カテゴリ)に属する情報であるかを判定するモデル(情報判定モデル)を学習するものである。
図1に示すように、情報判定モデル学習装置1は、制御手段10と、記憶手段20と、を備える。
In the information determination model learning device 1, information transmitted by SNS (such as tweet [registered trademark], which is text data in a posting unit, hereinafter referred to as a posting sentence) is information belonging to any predetermined type (category). This is to learn a model (information judgment model) for judging whether or not.
As shown in FIG. 1, the information determination model learning device 1 includes a control unit 10 and a storage unit 20.

制御手段10は、情報判定モデル学習装置1の動作を制御するものである。
制御手段10は、初期学習手段11と、判定手段12と、追加学習データ収集手段13と、追加学習手段14と、モデル更新手段15と、を備える。
The control means 10 controls the operation of the information determination model learning device 1.
The control unit 10 includes an initial learning unit 11, a determination unit 12, an additional learning data collection unit 13, an additional learning unit 14, and a model updating unit 15.

初期学習手段11は、学習データに基づいて、投稿文がどの種別に属するかを判定する情報判定モデルの初期モデルを学習(事前学習)するものである。
初期学習手段11は、学習データ記憶手段21に予め記憶されている学習データを参照して、情報判定モデルの初期モデルを機械学習する。
学習データ記憶手段21に予め記憶する学習データは、判定を行いたい種別に属する投稿文である種別が既知の正例の学習データと、判定を行いたい種別に属さない投稿文である負例の学習データとを、予め分類した教師データである。
The initial learning means 11 learns (pre-learns) an initial model of an information determination model for determining to which type a posted sentence belongs based on learning data.
The initial learning unit 11 refers to learning data stored in advance in the learning data storage unit 21 to machine-learn an initial model of the information determination model.
The learning data stored in advance in the learning data storage unit 21 includes learning data of a positive example whose type is a post sentence belonging to the type to be determined and negative example of a post sentence not belonging to the type to be determined. The learning data is pre-classified teacher data.

正例の学習データは、判定を行いたい種別に属する投稿文を種別ごと複数のクラスに分類したものである。この正例の学習データには、判定を行いたい種別、例えば、ニュースの種類である「火事」、「爆発」、「自動車事故」等の種別が既知である投稿文を、種別ごとにクラス分けしたものを用いる。この各クラスには、種別の内容を示すラベル(「1:火事」、「2:爆発」等)を対応付けておく。なお、ここでは、正例の学習データが予め複数の種別にクラス分けされた例を示すが、1つの種別、例えば、「ニュースに役立つ情報」のみの1つのクラスであっても構わない。   The learning data of the positive example is obtained by classifying the posted sentences belonging to the type to be determined into a plurality of classes for each type. In the learning data of this positive example, the types of posts to be determined, for example, the types of news such as "fire", "explosion", and "car accident" are known, Use what was done. Each class is associated with a label ("1: fire", "2: explosion", etc.) indicating the content of the type. Here, an example is shown in which the learning data of the positive example is classified into a plurality of types in advance, but may be one type, for example, only one class of “information useful for news”.

負例の学習データは、判定を行いたい種別に属さない投稿文を単一のクラスにまとめたものである。この負例の学習データには、多くの語彙や文脈を収集するため、例えば、取得可能なすべての投稿文からランダムに抽出した投稿文で、判定を行いたい種別に属さない投稿文を用いる。   The learning data of the negative example is a collection of postings that do not belong to the type to be determined in a single class. In order to collect many vocabularies and contexts, for example, a post sentence that is randomly extracted from all available post sentences and does not belong to the type to be determined is used as the learning data of the negative example.

具体的には、初期学習手段11は、学習データがどのクラス(正例:複数クラス、負例:単一クラス)に属するかを判定するモデルをニューラルネットワークにより学習する。例えば、初期学習手段11は、再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)の一種である双方向LSTM(Bidirectional Long short-term memory)を用いた順伝播型ニューラルネットワーク(FFNN:Feed Forward Neural Network)として、情報判定モデルを学習する。   Specifically, the initial learning means 11 learns a model for determining which class (positive example: plural classes, negative example: single class) the learning data belongs to by a neural network. For example, the initial learning means 11 is a forward propagation neural network (FFNN) using a bidirectional long short-term memory (LSTM), which is a type of recurrent neural network (RNN). To learn the information determination model.

ここで、図2を参照して、情報判定モデルの構成例について説明する。図2は、双方向LSTMを用いた情報判定モデルMの構成図である。
図2に示すように、情報判定モデルMは、入力層L1、中間層L2および出力層L3を有するニューラルネットワークである。
Here, a configuration example of the information determination model will be described with reference to FIG. FIG. 2 is a configuration diagram of the information determination model M using the bidirectional LSTM.
As shown in FIG. 2, the information determination model M is a neural network having an input layer L1, an intermediate layer L2, and an output layer L3.

入力層L1は、投稿文を文字(始端記号<s>、終端記号<e>を含む)ごとに入力する。ここで、文字はベクトル表現とする。なお、文字のベクトル表現は、次元数を全文字種数とし、表現する文字の成分のみを“1”、他を“0”とする「one−hot表現」とする。   The input layer L1 inputs a contribution sentence for each character (including a start symbol <s> and a terminal symbol <e>). Here, the characters are expressed in a vector. The vector representation of characters is a "one-hot expression" in which the number of dimensions is the total number of character types, only the component of the character to be represented is "1", and the others are "0".

中間層L2は、順方向のLSTMと逆方向のLSTMと順伝播型ニューラルネットワーク(FFNN)とで構成される。順方向のLSTMは、投稿文の始端記号から順に文字(文字ベクトル)を入力層L1から入力し、終端記号までLSTMの演算を繰り返す。また、逆方向のLSTMは、投稿文の終端記号から順に文字(文字ベクトル)を入力層L1から入力し、始端記号までLSTMの演算を繰り返す。そして、双方向のLSTMの演算結果であるそれぞれのベクトルを連結したベクトルを、さらに、複数のFFNNを介して、出力ベクトル(中間層出力V)とする。   The intermediate layer L2 includes a forward LSTM, a backward LSTM, and a forward propagation neural network (FFNN). In the forward LSTM, characters (character vectors) are input from the input layer L1 in order from the start symbol of the posted sentence, and the LSTM operation is repeated up to the end symbol. In the reverse LSTM, characters (character vectors) are sequentially input from the input layer L1 from the terminal symbol of the posted sentence, and the LSTM operation is repeated up to the start symbol. Then, a vector obtained by concatenating the respective vectors that are the operation results of the bidirectional LSTM is further set as an output vector (intermediate layer output V) via a plurality of FFNNs.

出力層L3は、中間層出力Vである出力ベクトルの各要素の値に重みを付加して加算し正規化することで、出力ノードにおける比率(確率値)を信頼度として計算する。この信頼度が最大となるノードに対応するクラスが判定結果となる。
この出力層L3は、ノードごとに入力される値を、ソフトマックス関数を用いて正規化することで、各ノードの信頼度を算出する。
なお、出力層L3は、図3に示すように、次元数(ノード数)を、正例のクラスの数(n)と、負例のクラスの数(ここでは、“1”)を加算したクラス数(n+1)とする。
The output layer L3 calculates the ratio (probability value) at the output node as reliability by adding a weight to the value of each element of the output vector, which is the output V of the intermediate layer, and adding and normalizing the value. The class corresponding to the node having the maximum reliability is the determination result.
The output layer L3 calculates the reliability of each node by normalizing the value input for each node using a softmax function.
As shown in FIG. 3, the output layer L3 adds the number of dimensions (the number of nodes) to the number of positive example classes (n) and the number of negative example classes (here, “1”). The number of classes is (n + 1).

初期学習手段11は、入力した投稿文が学習データとして種別が既知(教師データ)であるため、この出力層L3の出力に対して、誤差を小さくする方向に情報判定モデルMのモデルパラメータ(LSTM内の重み行列、FFNNのノード間の重み行列等)を学習する。なお、誤差を小さくするには、一般的な誤差逆伝播法(Back Propagation)を用いればよい。
図2に示した情報判定モデルMの双方向LSTMは、非特許文献1に記載されているように、アテンションメカニズムを用いてもよい。
Since the type of the input sentence is known (teacher data) as the learning data, the initial learning means 11 applies the model parameter (LSTM) of the information determination model M to the output of the output layer L3 in a direction to reduce the error. , Weight matrices between FFNN nodes, etc.). In order to reduce the error, a general error back propagation method (Back Propagation) may be used.
The bidirectional LSTM of the information determination model M shown in FIG. 2 may use an attention mechanism as described in Non-Patent Document 1.

図1に戻って、情報判定モデル学習装置1の構成について説明を続ける。
初期学習手段11は、学習した情報判定モデル(モデルパラメータ)を情報判定モデル記憶手段22に書き込み、当該情報判定モデルを記憶する。以下、情報判定モデル記憶手段22に記憶する情報判定モデルをモデルAと呼称する場合がある。
Returning to FIG. 1, the description of the configuration of the information determination model learning device 1 will be continued.
The initial learning unit 11 writes the learned information determination model (model parameter) into the information determination model storage unit 22 and stores the information determination model. Hereinafter, the information determination model stored in the information determination model storage unit 22 may be referred to as a model A.

判定手段12は、情報判定モデル記憶手段22に記憶されている情報判定モデルを用いて、種別が未知である投稿文が、どの種別に属する投稿文であるのかを判定するものである。
具体的には、判定手段12は、SNS等のソーシャルメディアから取得した投稿文をベクトル表現に変換し、図2に示したニューラルネットワークで構成した情報判定モデルMの入力層L1に、順方向および逆方向から、順次、文字ベクトルを入力する。
そして、判定手段12は、中間層L2において、情報判定モデルMのパラメータ(重み行例等)を用いて、順方向のLSTMと逆方向のLSTMとで、それぞれLSTMの演算を繰り返す。その後、順方向のLSTMと逆方向のLSTMとの出力を連結したベクトルを順次FFNNを介して演算し、中間層出力Vを生成する。
そして、判定手段12は、図3に示すように、中間層出力Vの各要素の値に重みを付加して出力層L3に伝搬させて、各ノードの確率値を信頼度として計算する。
The determination unit 12 determines, using the information determination model stored in the information determination model storage unit 22, to which type the posted message whose type is unknown belongs.
Specifically, the determination unit 12 converts a posted sentence obtained from social media such as SNS into a vector expression, and forwards and posts it to the input layer L1 of the information determination model M configured by the neural network shown in FIG. Character vectors are sequentially input from the opposite direction.
Then, in the intermediate layer L2, the determination unit 12 repeats the calculation of the LSTM in the forward LSTM and the LSTM in the reverse direction, respectively, using the parameters of the information determination model M (examples of weight rows). Thereafter, a vector obtained by connecting the outputs of the forward LSTM and the backward LSTM is sequentially calculated via the FFNN to generate an intermediate layer output V.
Then, as shown in FIG. 3, the determining means 12 adds a weight to the value of each element of the intermediate layer output V and propagates the value to the output layer L3, and calculates the probability value of each node as reliability.

ここで、判定手段12は、信頼度が最大のノードに対応するクラスが正例のクラスであれば、そのクラスに対応する種別に対応するラベルを、判定結果として信頼度とともに追加学習データ収集手段13に出力する。また、判定手段12は、信頼度が最大のノードに対応するクラスが負例のクラスであれば、負例のクラスとして予め定めたラベルを、判定結果として信頼度とともに追加学習データ収集手段13に出力する。   Here, if the class corresponding to the node having the highest reliability is a positive example class, the determination unit 12 adds a label corresponding to the type corresponding to the class together with the reliability as a determination result together with the additional learning data collection unit. 13 is output. If the class corresponding to the node having the highest reliability is a negative example class, the determination unit 12 sends a label determined in advance as a negative example class to the additional learning data collection unit 13 together with the reliability as a determination result. Output.

追加学習データ収集手段13は、判定手段12で種別が判定された投稿文から、情報判定モデルを追加学習するための追加学習データを収集するものである。
追加学習データ収集手段13は、データ選択手段130と、データ抽出手段131と、を備える。
The additional learning data collecting means 13 collects additional learning data for additionally learning the information determination model from the post sentence whose type is determined by the determining means 12.
The additional learning data collection unit 13 includes a data selection unit 130 and a data extraction unit 131.

データ選択手段130は、判定手段12で種別が判定された投稿文を、追加学習すべき候補を優先して表示装置2に表示し、操作者(アノテータ)によって当該投稿文を追加学習データとするか否かの選択を受け付けるものである。
例えば、データ選択手段130は、判定手段12で種別が判定された投稿文を、信頼度の低い方から優先して表示装置2に表示する。
ここで、信頼度が低い場合、情報判定モデル(モデルA)による判定結果は、誤っている可能性も高いことになる。そこで、操作者は、判定結果の信頼度の低い投稿文に対して、それが正しい判定結果であるか否かを判定し、正しい場合、その投稿文を追加学習データとして選択する。これによって、この投稿文が追加学習データ(教師データ)として選択され、追加学習により、情報判定モデルの精度を高めることが可能になる。
The data selecting unit 130 displays the posted text whose type is determined by the determining unit 12 on the display device 2 with priority given to the candidate to be additionally learned, and sets the posted text as additional learning data by the operator (annotator). The selection of whether or not is accepted.
For example, the data selection unit 130 displays the posted text whose type is determined by the determination unit 12 on the display device 2 with priority given to the one with lower reliability.
Here, when the reliability is low, there is a high possibility that the determination result by the information determination model (model A) is incorrect. Therefore, the operator determines whether or not the posted sentence with a low reliability of the determination result is a correct determination result, and if correct, selects the posted sentence as additional learning data. As a result, this posted sentence is selected as additional learning data (teacher data), and the accuracy of the information determination model can be increased by the additional learning.

図4に、データ選択手段130が、表示装置2に表示する画面の例を示す。
例えば、データ選択手段130は、図4に示す画面上に、投稿文C、投稿された日時Tとともに、判定された種別のラベルLと信頼度Rとを、信頼度の低い方から優先的に表示装置2に表示する。ここで、データ選択手段130は、表示装置2の画面上で、投稿文を一定速度でスクロールして順番に表示することで、操作者が、投稿文CとラベルLとの対応を確認し、正しい対応であれば、マウス等の選択手段で投稿文Cを選択する。
データ選択手段130は、選択された投稿文をラベルとともに追加学習データとして、追加学習データ記憶手段23に記憶する。また、データ選択手段130は、選択された投稿文とラベルとをデータ抽出手段131に通知し、選択が終了した段階、例えば、画面上の終了ボタンE(図4参照)を押下された段階で、選択が終了したことをデータ抽出手段131に通知する。
FIG. 4 shows an example of a screen displayed on the display device 2 by the data selection unit 130.
For example, the data selecting unit 130 may display the determined type label L and the reliability R together with the posted text C and the posted date and time T on the screen shown in FIG. It is displayed on the display device 2. Here, the data selection unit 130 scrolls the posted message at a constant speed on the screen of the display device 2 and sequentially displays the posted message, so that the operator confirms the correspondence between the posted message C and the label L, If the response is correct, the post sentence C is selected by a selection means such as a mouse.
The data selection unit 130 stores the selected posting text together with the label in the additional learning data storage unit 23 as additional learning data. Further, the data selection unit 130 notifies the data extraction unit 131 of the selected posted text and label, and when the selection is completed, for example, when the end button E (see FIG. 4) on the screen is pressed. , Is notified to the data extracting means 131.

なお、データ選択手段130は、すべての投稿文を表示装置2に表示する必要はなく、投稿文中の単語で、投稿文の種別(クラス)の特徴を表す度合いが予め定めた閾値よりも大きい投稿文のみを表示対象とすることとしてもよい。このクラスの特徴を表す度合いとしては、例えば、デルタIDF(Inverse Document Frequency)を用いることができる。   It is not necessary for the data selection unit 130 to display all the posted sentences on the display device 2, and the degree of representing the feature of the type (class) of the posted sentence by a word in the posted sentence is larger than a predetermined threshold. Only sentences may be displayed. For example, a delta IDF (Inverse Document Frequency) can be used as a degree representing the characteristics of this class.

具体的には、まず、データ選択手段130は、投稿文内における単語jのデルタIDFの値(Δidf)を、以下の式(1)により算出する、 Specifically, first, the data selection unit 130 calculates the value of the delta IDF (Δidf j ) of the word j in the posted sentence by the following equation (1):

Figure 2019215705
Figure 2019215705

ここで、Pは、学習データ記憶手段21に記憶されている学習データの中で、投稿文に対応するクラスの正例の数、Nは負例の数を示す。また、P,Nは、学習データ記憶手段21に記憶されている学習データの中で、投稿文に対応するクラスの単語jを含む正例の数、負例の数を示す。
そして、データ選択手段130は、予め定めた閾値よりも大きいデルタIDFの値となる単語を有する投稿文を、表示対象とする。
このように、データ選択手段130は、信頼度の低い投稿文を優先し、また、特徴的な単語を有する投稿文を画面表示することで、操作者が効率的に追加学習データを選択することができる。
なお、操作者は、すべての投稿文を確認する必要はなく、例えば、一定時間、一定個数等、作業時間、作業内容を定めて、投稿文を選択すればよい。
Here, P indicates the number of positive examples of the class corresponding to the posted sentence in the learning data stored in the learning data storage unit 21, and N indicates the number of negative examples. P j and N j indicate the number of positive examples and the number of negative examples including the word j of the class corresponding to the posted sentence in the learning data stored in the learning data storage unit 21.
Then, the data selection unit 130 sets a posting sentence having a word having a delta IDF value larger than a predetermined threshold value as a display target.
As described above, the data selection unit 130 gives priority to a post with low reliability and displays a post having a characteristic word on the screen, so that the operator can efficiently select additional learning data. Can be.
Note that the operator does not need to check all the posted messages, but may select a posted message, for example, by defining a work time and a work content such as a fixed time and a fixed number.

データ抽出手段131は、判定手段12で正例クラスと判定した投稿文の中で、データ選択手段130で選択されなかった投稿文(以下、非選択投稿文)を対象として、データ選択手段130で選択された投稿文と類似する投稿文を、さらに、追加学習データとして抽出するものである。
例えば、データ抽出手段131は、データ選択手段130で選択された投稿文のベクトル表現と、データ選択手段130で選択されなかった投稿文のベクトル表現との類似度(投稿文のベクトル同士の成す角度の近さを示すコサイン類似度)を算出し、予め定めた閾値よりも大きい類似度となった非選択投稿文に対して、類似する投稿文のクラスを対応付けて追加学習データとする。
なお、データ選択手段130で選択された投稿文のベクトル表現、および、選択されなかった投稿文のベクトル表現は、判定手段12において、クラスを判定する際の情報判定モデルの出力ベクトル(出力層の出力)を用いればよい。あるいは、中間層のLSTMよりも後段の出力ベクトル(例えば、中間層出力V;図2参照)を用いてもよい。
The data extraction unit 131 uses the data selection unit 130 to select a post sentence (hereinafter, a non-selected post sentence) that is not selected by the data selection unit 130 among the post sentences determined to be a positive example class by the determination unit 12. A post sentence similar to the selected post sentence is further extracted as additional learning data.
For example, the data extraction unit 131 determines the similarity between the vector expression of the post sentence selected by the data selection unit 130 and the vector expression of the post sentence not selected by the data selection unit 130 (the angle formed by the vectors of the post sentences). (A cosine similarity indicating the closeness of a post) is calculated, and a class of a similar posted sentence is associated with a non-selected posted sentence having a similarity greater than a predetermined threshold value to obtain additional learning data.
Note that the vector expression of the post sentence selected by the data selection unit 130 and the vector expression of the post sentence not selected are output by the determination unit 12 to the output vector of the information determination model when determining the class (the output vector of the output layer). Output). Alternatively, an output vector subsequent to the LSTM of the intermediate layer (for example, an intermediate layer output V; see FIG. 2) may be used.

また、データ抽出手段131は、データ選択手段130で選択された投稿文のベクトル表現と、データ選択手段130で選択されなかった投稿文のベクトル表現との類似度(コサイン類似度)を算出する場合、選択された投稿文と投稿日が同日である非選択投稿文のみを対象としてもよい。同日の投稿文を対象とすることで、同じ事象に対して、複数の表現を追加学習データとすることができ、学習効率を高めることができる。
このように、データ抽出手段131は、データ選択手段130で操作者によって選択されなかった投稿文からも、追加学習データを収集することができる。
追加学習データ収集手段13は、収集した追加学習データ(投稿文、種別〔クラス〕)を追加学習データ記憶手段23に記憶する。
Further, the data extracting unit 131 calculates the similarity (cosine similarity) between the vector expression of the post sentence selected by the data selecting unit 130 and the vector expression of the posting sentence not selected by the data selecting unit 130. Alternatively, only the non-selected posted text whose posting date is the same as the selected posted text may be targeted. By targeting posts on the same day, a plurality of expressions can be used as additional learning data for the same event, and learning efficiency can be improved.
As described above, the data extracting unit 131 can also collect additional learning data from the postings not selected by the operator by the data selecting unit 130.
The additional learning data collection unit 13 stores the collected additional learning data (posted sentence, type [class]) in the additional learning data storage unit 23.

追加学習手段14は、追加学習データを用いて、情報判定モデルを追加学習するものである。この追加学習手段14は、例えば、外部から追加学習を指示されたタイミングで、追加学習データ記憶手段23に記憶されている追加学習データを用いて、情報判定モデル記憶手段22に記憶されている情報判定モデルを追加学習する。なお、追加学習手段14における学習は、初期学習手段11と同様であるため説明を省略する。
追加学習手段14は、情報判定モデルを追加学習した追加学習モデル(モデルパラメータ)を、追加学習モデル記憶手段24に記憶する。以下、追加学習モデル記憶手段24に記憶する追加学習モデルをモデルBと呼称する場合がある。
追加学習手段14は、追加学習を終了した段階で、モデル更新手段15に学習終了を通知する。
The additional learning unit 14 additionally learns the information determination model using the additional learning data. The additional learning unit 14 uses the additional learning data stored in the additional learning data storage unit 23 at the timing when the additional learning is instructed from the outside, and stores the information stored in the information determination model storage unit 22. Learn additional judgment models. Note that the learning by the additional learning unit 14 is the same as that of the initial learning unit 11, and a description thereof will be omitted.
The additional learning unit 14 stores, in the additional learning model storage unit 24, an additional learning model (model parameter) obtained by additionally learning the information determination model. Hereinafter, the additional learning model stored in the additional learning model storage unit 24 may be referred to as a model B.
The additional learning means 14 notifies the model updating means 15 of the completion of the learning when the additional learning is completed.

モデル更新手段15は、情報判定モデルを更新するものである。
モデル更新手段15は、評価手段150と、更新手段151と、を備える。
The model updating means 15 updates the information determination model.
The model updating unit 15 includes an evaluating unit 150 and an updating unit 151.

評価手段150は、情報判定モデル記憶手段22に記憶されている情報判定モデル(モデルA)と、追加学習モデル記憶手段24に記憶されている追加学習モデル(モデルB)とのそれぞれについて、投稿文の分類の精度を評価するものである。
なお、評価手段150における評価手法は、一般的な手法を用いることができる。例えば、評価手段150は、情報判定モデルおよび追加学習モデルについて、予め準備した評価データを用いてF値を算出し、評価値とする。なお、評価データは、予め正例と負例とのクラスが既知の投稿文であって、予め評価データ記憶手段25に記憶しておく。
The evaluation unit 150 sends a post sentence for each of the information determination model (model A) stored in the information determination model storage unit 22 and the additional learning model (model B) stored in the additional learning model storage unit 24. This is to evaluate the accuracy of the classification.
Note that a general method can be used as the evaluation method in the evaluation means 150. For example, the evaluation unit 150 calculates an F value for the information determination model and the additional learning model using evaluation data prepared in advance, and sets the F value as an evaluation value. The evaluation data is a posting sentence whose class of the positive example and the negative example is known in advance, and is stored in the evaluation data storage unit 25 in advance.

F値は、適合率と再現率との調和平均である。
適合率は、クラスに関わらず、正例と判定したデータ(投稿文)のうちで、実際に正例であるものの割合である。
再現率は、クラスに関わらず、実際に正例であるデータ(投稿文)のうちで、正例と判定したものの割合である。
F値(F-measure)は、適合率をPrecision、再現率をRecallとしたとき、以下の式(2)で求めることができる。
The F value is a harmonic mean of the precision and the recall.
The relevance ratio is a ratio of data (posted sentence) determined to be a positive example, which is actually a positive example, regardless of the class.
The recall is the ratio of data (posted sentence) actually determined to be a positive example, regardless of the class.
The F value (F-measure) can be obtained by the following equation (2), where the precision is Precision and the recall is Recall.

Figure 2019215705
Figure 2019215705

評価手段150は、情報判定モデルおよび追加学習モデルのそれぞれについて算出した評価値(F値)を、更新手段151に出力する。   The evaluation unit 150 outputs the evaluation value (F value) calculated for each of the information determination model and the additional learning model to the updating unit 151.

更新手段151は、評価手段150で算出された評価値に基づいて、追加学習モデルの評価値が、追加学習前の情報判定モデルの評価値を上回った場合に、情報判定モデルを更新するものである。
更新手段151は、追加学習モデルの評価値が追加学習前の情報判定モデルの評価値を上回った場合だけ、追加学習モデル記憶手段24に記憶されている追加学習モデル(モデルパラメータ)を情報判定モデル記憶手段22に記憶し、新たな情報判定モデルに更新する。また、このとき、更新手段151は、追加学習データ記憶手段23に記憶されている追加学習データを削除する。
The updating unit 151 updates the information determination model based on the evaluation value calculated by the evaluation unit 150, when the evaluation value of the additional learning model exceeds the evaluation value of the information determination model before the additional learning. is there.
Only when the evaluation value of the additional learning model exceeds the evaluation value of the information determination model before the additional learning, the updating unit 151 updates the additional learning model (model parameter) stored in the additional learning model storage unit 24 with the information determination model. The information is stored in the storage unit 22 and updated to a new information determination model. At this time, the updating unit 151 deletes the additional learning data stored in the additional learning data storage unit 23.

一方、更新手段151は、追加学習モデルの評価値が追加学習前の情報判定モデルの評価値以下の場合、情報判定モデルの更新を行わないこととする。また、このとき、更新手段151は、追加学習データ記憶手段23に記憶されている追加学習データを削除しないこととしてもよい。これによって、次回の追加学習時に、追加学習データのデータ量を増やして効果的に学習を行うことができる。   On the other hand, when the evaluation value of the additional learning model is equal to or less than the evaluation value of the information determination model before the additional learning, the updating unit 151 does not update the information determination model. At this time, the updating unit 151 may not delete the additional learning data stored in the additional learning data storage unit 23. Thereby, at the time of the next additional learning, the data amount of the additional learning data can be increased and effective learning can be performed.

記憶手段20は、情報判定モデル学習装置1の動作で使用または生成する各種データを記憶するものである。記憶手段20は、学習データ記憶手段21と、情報判定モデル記憶手段22と、追加学習データ記憶手段23と、追加学習モデル記憶手段24と、評価データ記憶手段25と、を備える。
これら各記憶手段は、ハードディスク、半導体メモリ等の一般的な記憶装置で構成することができる。なお、ここでは、記憶手段20において、各記憶手段を個別に設けているが、1つの記憶装置の記憶領域を複数に区分して各記憶手段としてもよい。また、記憶手段20を外部記憶装置として、情報判定モデル学習装置1の構成から省いてもよい。
The storage unit 20 stores various data used or generated in the operation of the information determination model learning device 1. The storage unit 20 includes a learning data storage unit 21, an information determination model storage unit 22, an additional learning data storage unit 23, an additional learning model storage unit 24, and an evaluation data storage unit 25.
Each of these storage means can be configured by a general storage device such as a hard disk or a semiconductor memory. Here, in the storage means 20, each storage means is individually provided, but the storage area of one storage device may be divided into a plurality of storage areas and each storage means may be used. Further, the storage unit 20 may be omitted from the configuration of the information determination model learning device 1 as an external storage device.

学習データ記憶手段21は、初期学習手段11が情報判定モデルを学習するための学習データを予め記憶するものである。
情報判定モデル記憶手段22は、初期学習手段11が学習した情報判定モデル(モデルA)、より詳細には、そのモデルパラメータを記憶するものである。情報判定モデル記憶手段22に記憶されている情報判定モデル(モデルパラメータ)は、追加学習手段14が追加学習を行う際に読み出される。また、この情報判定モデルは、モデル更新手段15(更新手段151)によって更新される。
The learning data storage unit 21 stores learning data for the initial learning unit 11 to learn the information determination model in advance.
The information determination model storage unit 22 stores the information determination model (model A) learned by the initial learning unit 11, more specifically, the model parameters. The information determination model (model parameter) stored in the information determination model storage unit 22 is read when the additional learning unit 14 performs additional learning. This information determination model is updated by the model updating unit 15 (updating unit 151).

追加学習データ記憶手段23は、情報判定モデルを追加して学習するために、追加学習データを記憶するものである。追加学習データ記憶手段23は、追加学習データ収集手段13が収集する追加学習データを記憶し、追加学習手段14によって、追加学習モデルを学習する際に読み出される。   The additional learning data storage unit 23 stores additional learning data in order to perform learning by adding an information determination model. The additional learning data storage unit 23 stores the additional learning data collected by the additional learning data collection unit 13, and is read by the additional learning unit 14 when learning the additional learning model.

追加学習モデル記憶手段24は、追加学習手段14が学習した追加学習モデル(モデルB)のモデルパラメータを記憶するものである。なお、追加学習モデル記憶手段24のモデルパラメータと、情報判定モデル記憶手段22が記憶するモデルパラメータとは、同一のニューラルネットワークの構造に対応したモデルパラメータである。   The additional learning model storage unit 24 stores the model parameters of the additional learning model (model B) learned by the additional learning unit 14. The model parameters of the additional learning model storage unit 24 and the model parameters stored by the information determination model storage unit 22 are model parameters corresponding to the same neural network structure.

評価データ記憶手段25は、モデル(情報判定モデル、追加学習モデル)を評価するための評価データとして、正例と負例とのクラスが既知の投稿文を予め記憶するものである。なお、評価データは、学習データ記憶手段21に記憶する学習データに比べ、少ないデータ量でよい。この評価データ記憶手段25は、モデル更新手段15(評価手段150)によって読み出される。   The evaluation data storage unit 25 stores, in advance, posted sentences whose classes of the positive example and the negative example are known as evaluation data for evaluating a model (information determination model, additional learning model). Note that the evaluation data may have a smaller data amount than the learning data stored in the learning data storage unit 21. The evaluation data storage unit 25 is read by the model update unit 15 (evaluation unit 150).

以上説明したように、情報判定モデル学習装置1は、種別が未知である投稿文から学習に適した投稿文を追加学習データとして収集し、追加学習を行う構成とした。
また、情報判定モデル学習装置1は、種別判定の信頼度の低い投稿文を優先的に操作者に提示して、追加学習するか否かの選択を受け付ける構成とした。そのため、情報判定モデル学習装置1は、効率的に追加学習を行うことができる。
As described above, the information determination model learning device 1 is configured to collect post messages suitable for learning from post messages whose type is unknown as additional learning data and perform additional learning.
Further, the information determination model learning device 1 is configured to preferentially present a posted sentence with low reliability of type determination to the operator and receive a selection of whether or not to perform additional learning. Therefore, the information determination model learning device 1 can efficiently perform additional learning.

また、情報判定モデル学習装置1は、操作者が選択した投稿文に類似する投稿文を入力される投稿文の中から抽出し、追加学習データとする。そのため、操作者の少ない作業で効率的に、追加学習データを大量に収集することができる。
なお、情報判定モデル学習装置1は、コンピュータを前記した各手段として機能させるためのプログラム(情報判定モデル学習プログラム)で動作させることができる。
In addition, the information determination model learning device 1 extracts a post sentence similar to the post sentence selected by the operator from the input posted sentence, and sets it as additional learning data. Therefore, a large amount of additional learning data can be efficiently collected with a small number of operators.
Note that the information determination model learning device 1 can be operated by a program (information determination model learning program) for causing a computer to function as the above-described units.

[情報判定モデル学習装置の動作]
次に、図5を参照(構成については適宜図1参照)して、本発明の実施形態に係る情報判定モデル学習装置1の動作について説明する。なお、学習データ記憶手段21には、判定を行いたい種別に属する投稿文である正例の学習データと、判定を行いたい種別に属さない投稿文である負例の学習データとが、予め記憶されているものとする。また、評価データ記憶手段25には、学習データ記憶手段21と同様に正例の評価データと、負例の評価データとが予め記憶されているものとする。
[Operation of information judgment model learning device]
Next, an operation of the information determination model learning device 1 according to the embodiment of the present invention will be described with reference to FIG. Note that the learning data storage unit 21 stores in advance the learning data of the positive example, which is a posted sentence belonging to the type to be determined, and the learning data of a negative example, which is a posted sentence not belonging to the type to be determined. It is assumed that Further, it is assumed that the evaluation data storage unit 25 stores the evaluation data of the positive example and the evaluation data of the negative example in advance similarly to the learning data storage unit 21.

ステップS1において、初期学習手段11は、学習データ記憶手段21に記憶されている学習データを用いて、投稿文がどの種別に属するかを判定する情報判定モデル(モデルA)を学習する。そして、初期学習手段11は、情報判定モデルを情報判定モデル記憶手段22に記憶する(ステップとして図示せず)。   In step S1, the initial learning unit 11 uses the learning data stored in the learning data storage unit 21 to learn an information determination model (model A) for determining to which type a posted sentence belongs. Then, the initial learning unit 11 stores the information determination model in the information determination model storage unit 22 (not shown as a step).

ステップS2において、判定手段12は、SNS等のソーシャルメディアから取得した投稿文を順次入力する。
ステップS3において、判定手段12は、ステップS2で入力した投稿文を、情報判定モデル記憶手段22に記憶されている情報判定モデルを用いて、どの種別に属する投稿文であるのかを判定する。
In step S2, the determination unit 12 sequentially inputs post messages acquired from social media such as SNS.
In step S3, the determining unit 12 determines to which type the posted text input in step S2 belongs by using the information determination model stored in the information determination model storage unit 22.

ステップS4において、追加学習データ収集手段13のデータ選択手段130は、ステップS3で判定された投稿文を、信頼度の低い方から優先して表示装置2に表示する。信頼度は、判定手段12が判定に用いた情報判定モデルの出力値を用いることができる。
このとき、データ選択手段130は、投稿文中の単語で、クラスの特徴を表す度合い(デルタIDF等)が予め定めた閾値よりも大きい投稿文のみを表示対象としてもよい。
In step S4, the data selection unit 130 of the additional learning data collection unit 13 displays the post sentence determined in step S3 on the display device 2 with priority given to the lower reliability. As the reliability, an output value of the information determination model used for the determination by the determination unit 12 can be used.
At this time, the data selection unit 130 may display only the posted text in which the degree of the class characteristic (delta IDF or the like) is greater than a predetermined threshold value in the words in the posted text.

ステップS5において、データ抽出手段131は、ステップS4で表示した投稿文の中から、操作者による投稿文の選択を受け付ける。このとき、操作者は、信頼度の低い投稿文に対して、それが正しい判定結果であるか否かを判定し、正しい場合、その投稿文を追加学習データとして選択する。そして、データ抽出手段131は、選択された追加学習データを追加学習データ記憶手段23に記憶する(ステップとして図示せず)。   In step S5, the data extraction unit 131 accepts the operator's selection of a posted message from the posted messages displayed in step S4. At this time, the operator determines whether or not the posted sentence with low reliability is a correct determination result, and if so, selects the posted sentence as additional learning data. Then, the data extraction unit 131 stores the selected additional learning data in the additional learning data storage unit 23 (not shown as a step).

ステップS6において、追加学習データ収集手段13のデータ抽出手段131は、ステップS5で選択されなかった投稿文(非選択投稿文)から、ステップS5で選択された投稿文と類似する投稿文を追加学習データとして抽出する。この類似の度合いは、例えば、コサイン類似度を用いることができる。そして、データ抽出手段131は、抽出した追加学習データを追加学習データ記憶手段23に記憶する(ステップとして図示せず)。   In step S6, the data extraction unit 131 of the additional learning data collection unit 13 additionally learns a post sentence similar to the post sentence selected in step S5 from the post sentence not selected in step S5 (unselected post sentence). Extract as data. As the degree of similarity, for example, cosine similarity can be used. Then, the data extraction unit 131 stores the extracted additional learning data in the additional learning data storage unit 23 (not shown as a step).

ステップS7において、追加学習手段14は、追加学習データ記憶手段23に記憶されている追加学習データを用いて、情報判定モデル(モデルA)を追加学習することで、追加学習モデル(モデルB)を生成する。そして、追加学習手段14は、追加学習モデルを追加学習モデル記憶手段24に記憶する(ステップとして図示せず)。   In step S7, the additional learning unit 14 uses the additional learning data stored in the additional learning data storage unit 23 to perform additional learning on the information determination model (model A), thereby generating the additional learning model (model B). Generate. Then, the additional learning unit 14 stores the additional learning model in the additional learning model storage unit 24 (not shown as steps).

ステップS8において、モデル更新手段15の評価手段150は、情報判定モデル(モデルA)と、追加学習モデル(モデルB)とについて、それぞれ、評価データ記憶手段25に記憶されている評価データを用いて、投稿文の分類の精度を評価する。例えば、モデル更新手段15は、F値(F-measure)により、それぞれのモデルA,Bについて精度の評価値を算出する。   In step S8, the evaluation unit 150 of the model updating unit 15 uses the evaluation data stored in the evaluation data storage unit 25 for the information determination model (model A) and the additional learning model (model B). , Evaluate the accuracy of the classification of the posted text. For example, the model updating unit 15 calculates an evaluation value of accuracy for each of the models A and B based on the F value (F-measure).

ステップS9において、モデル更新手段15の更新手段151は、情報判定モデル(モデルA)の評価値と、追加学習モデル(モデルB)の評価値とを比較する。
ここで、追加学習モデル(モデルB)の評価値が情報判定モデル(モデルA)の評価値を上回った場合(ステップS9でYes)、ステップS10において、更新手段151は、追加学習モデル(モデルB)を新たな情報判定モデル(モデルA)として更新し、情報判定モデル記憶手段22に記憶する。そして、ステップS11において、更新手段151は、追加学習データ記憶手段23に記憶されている追加学習データを削除する。
In step S9, the updating unit 151 of the model updating unit 15 compares the evaluation value of the information determination model (model A) with the evaluation value of the additional learning model (model B).
Here, when the evaluation value of the additional learning model (model B) exceeds the evaluation value of the information determination model (model A) (Yes in step S9), in step S10, the updating unit 151 executes the additional learning model (model B). ) Is updated as a new information determination model (model A) and stored in the information determination model storage unit 22. Then, in step S11, the updating unit 151 deletes the additional learning data stored in the additional learning data storage unit 23.

一方、追加学習モデル(モデルB)の評価値が情報判定モデル(モデルA)の評価値以下の場合(ステップS9でNo)、情報判定モデル学習装置1は動作を終了する。
なお、情報判定モデル学習装置1は、この動作完了後は、定期的、例えば、1日ごとに、ステップS2以降の動作を行うこととする。
On the other hand, when the evaluation value of the additional learning model (model B) is equal to or smaller than the evaluation value of the information determination model (model A) (No in step S9), the information determination model learning device 1 ends the operation.
After the operation is completed, the information determination model learning device 1 performs the operation after step S2 periodically, for example, every day.

以上の動作によって、情報判定モデル学習装置1は、人手の作業を最小限にして、最新の情報(投稿文)を追加学習して、精度の高い情報判定モデルを生成することができる。
以上、本発明の実施形態に係る情報判定モデル学習装置1の構成および動作について説明したが、本発明は、この実施形態に限定されるものではない。
Through the above operation, the information determination model learning device 1 can generate a highly accurate information determination model by additionally learning the latest information (posted sentence) while minimizing manual work.
The configuration and operation of the information determination model learning device 1 according to the embodiment of the present invention have been described above, but the present invention is not limited to this embodiment.

[変形例]
(変形例1)
ここでは、初期学習手段11および追加学習手段14が学習するモデル(情報判定モデルおよび追加学習モデル)として、双方向LSTMを中間層とする順伝播型ニューラルネットワーク(FFNN)を用いた。しかし、これらのモデルには、一般的なFFNNを用いてもよい。
[Modification]
(Modification 1)
Here, as a model (information determination model and additional learning model) that the initial learning unit 11 and the additional learning unit 14 learn, a forward propagation neural network (FFNN) using a bidirectional LSTM as an intermediate layer is used. However, general FFNN may be used for these models.

図6に一般的なFFNNで構成した情報判定モデル(追加学習モデル)M2の例を示す。図6に示すように情報判定モデルM2は、入力層L1と、複数の階層で構成された中間層L2と、出力層L3とで構成される。入力層L1には、投稿文ごとに、予め定めた次元数の分散表現ベクトルを入力し、重みを付加して各層を伝搬させて、出力層L3から出力する。   FIG. 6 shows an example of an information determination model (additional learning model) M2 configured by a general FFNN. As shown in FIG. 6, the information determination model M2 includes an input layer L1, an intermediate layer L2 including a plurality of layers, and an output layer L3. A distributed expression vector having a predetermined number of dimensions is input to the input layer L1 for each posted sentence, weighted, propagated through each layer, and output from the output layer L3.

なお、中間層L2の出力ベクトル(中間層出力V)と、出力層L3との関係は、図3で説明した関係と同じである。情報判定モデルM2の出力層L3のノード数は、図3と同様、正例のクラスの数(n)と、負例のクラスの数(“1”)を加算したクラス数(n+1)である。   Note that the relationship between the output vector (intermediate layer output V) of the intermediate layer L2 and the output layer L3 is the same as the relationship described with reference to FIG. The number of nodes in the output layer L3 of the information determination model M2 is the number of classes (n + 1) obtained by adding the number of positive example classes (n) and the number of negative example classes ("1"), as in FIG. .

この情報判定モデルM2に入力される投稿文の分散表現ベクトルは、例えば、Word2Vec、GloVe等の一般的な分散表現ベクトル生成手法により生成した、単語ごとの予め定めた次元数のベクトルを、投稿文に含まれる単語数分加算し、平均化したものである。
例えば、初期学習手段11、追加学習手段14は、投稿文「消防車おるけど火事?」を、形態素解析により、「消防車/おる/けど/火事/?」のように単語に分割する。
そして、初期学習手段11、追加学習手段14は、各単語を分散表現ベクトルに変換して加算し、単語数で除算することで、当該投稿文に対応する分散表現ベクトルを生成する。
これによって、異なる単語数の投稿文であっても、同一次元の分散表現ベクトルで、情報判定モデルM2の学習を行うことができる。
The distributed expression vector of the post sentence input to the information determination model M2 is, for example, a vector having a predetermined number of dimensions for each word generated by a general distributed expression vector generation method such as Word2Vec or GloVe. Are added up for the number of words included in, and averaged.
For example, the initial learning means 11 and the additional learning means 14 divide the posted sentence "fire engine fire but fire?" Into words such as "fire engine fire / fire / fire / fire /?" By morphological analysis.
Then, the initial learning unit 11 and the additional learning unit 14 convert each word into a distributed expression vector, add the words, and divide by the number of words to generate a distributed expression vector corresponding to the posted sentence.
As a result, the information determination model M2 can be learned using a distributed expression vector having the same dimension even if the posted sentences have different numbers of words.

(変形例2)
また、図2に示した情報判定モデルMは、投稿文の中の特徴的な単語の重みを表した特徴ベクトルを、中間層に付加するモデルとしてもよい。
図7に特徴ベクトルを付加した情報判定モデル(追加学習モデル)M3の例を示す。図7に示すように情報判定モデルM3は、基本的には、図2で説明した情報判定モデルMと同じであるが、少なくとも双方向LSTMの後段に、特徴ベクトルV2を入力する。
(Modification 2)
The information determination model M shown in FIG. 2 may be a model that adds a feature vector representing the weight of a characteristic word in a posted sentence to an intermediate layer.
FIG. 7 shows an example of an information determination model (additional learning model) M3 to which a feature vector is added. As shown in FIG. 7, the information determination model M3 is basically the same as the information determination model M described in FIG. 2, but the feature vector V2 is input at least at the subsequent stage of the bidirectional LSTM.

この特徴ベクトルV2は、例えば、単語数分の次元のベクトルであって、入力された投稿文の単語のスコアを、ベクトルの要素に設定したものである。スコアは、前記した式(1)と同じデルタIDFの値を用いることができる。ただし、特徴ベクトルV2のスコアの場合、前記式(1)のPは、学習データ記憶手段21に記憶されている学習データの中で、すべてのクラスの正例の数、Nは負例の数を示す。また、P,Nは、学習データ記憶手段21に記憶されている学習データの中で、すべてのクラスの単語jを含む正例の数、負例の数を示す。 The feature vector V2 is, for example, a vector having a dimension corresponding to the number of words, and is obtained by setting a word score of an input posted sentence to a vector element. As the score, the same value of the delta IDF as in the above equation (1) can be used. However, in the case of the score of the feature vector V2, P in the above equation (1) is the number of positive examples of all classes in the learning data stored in the learning data storage unit 21, and N is the number of negative examples. Is shown. Further, P j and N j indicate the number of positive examples and the number of negative examples including the word j of all classes in the learning data stored in the learning data storage unit 21.

また、特徴ベクトルV2は、単語数分の次元ベクトルではなく、予め定めた次元数(例えば、10次元)であってもよい。この場合、特徴ベクトルV2は、例えば、投稿文の単語の重み(デルタIDFの値)を、所定単位(例えば0.1刻み)でベクトルの要素に対応させ、重みに対応する要素に“1”、対応しない要素に“0”を設定したベクトルとする。あるいは、特徴ベクトルV2は、要素ごとに対応する単語の重みを累計し、累計結果の総和が“1”となるように正規化してもよい。
この特徴ベクトルV2は、初期学習手段11、追加学習手段14によって生成される。
これによって、情報判定モデルM3は、投稿文内の特徴単語を加味して、情報を判定することが可能なモデルとなる。
Further, the feature vector V2 may be a predetermined number of dimensions (for example, 10 dimensions) instead of the number of dimension vectors for the number of words. In this case, the feature vector V2 is, for example, the word weight (delta IDF value) of the posted sentence is made to correspond to the element of the vector in a predetermined unit (for example, every 0.1), and the element corresponding to the weight is “1”. , A vector in which “0” is set to uncorresponding elements. Alternatively, the feature vector V2 may be obtained by accumulating the weights of the words corresponding to each element and normalizing the sum so that the sum of the accumulation results is “1”.
This feature vector V2 is generated by the initial learning means 11 and the additional learning means 14.
Thus, the information determination model M3 is a model capable of determining information in consideration of a characteristic word in a posted sentence.

(変形例3)
ここでは、情報判定モデル学習装置1は、学習データを用いて、情報判定モデルを学習して生成することとした。
しかし、追加学習前の情報判定モデルは、必ずしも情報判定モデル学習装置1内で生成する必要はない。例えば、外部で予め学習し生成した情報判定モデルを、情報判定モデル記憶手段22に記憶しておけばよい。その場合、情報判定モデル学習装置1は、初期学習手段11を構成から省略することができる。また、データ選択手段130において、デルタIDFを用いて投稿文の表示対象の制限を行う必要がなければ、さらに、学習データ記憶手段21を省略することも可能である。
(Modification 3)
Here, the information determination model learning device 1 learns and generates an information determination model using learning data.
However, the information determination model before additional learning does not necessarily need to be generated in the information determination model learning device 1. For example, an information determination model learned and generated outside in advance may be stored in the information determination model storage unit 22. In that case, the information determination model learning device 1 can omit the initial learning means 11 from the configuration. Further, if it is not necessary for the data selection unit 130 to limit the display target of the posted text using the delta IDF, the learning data storage unit 21 can be further omitted.

(変形例4)
ここでは、追加学習データ収集手段13が、操作者によって追加学習データを選択し、選択されなかった投稿文からさらに追加学習データを収集することとした。
しかし、追加学習データ収集手段13は、操作者による追加学習データの選択のみによって追加学習データを収集することとしてもよい。その場合、情報判定モデル学習装置1は、データ抽出手段131を構成から省略することができる。
(Modification 4)
Here, the additional learning data collecting means 13 selects the additional learning data by the operator, and further collects the additional learning data from the unselected postings.
However, the additional learning data collecting means 13 may collect the additional learning data only by the selection of the additional learning data by the operator. In that case, the information determination model learning device 1 can omit the data extracting means 131 from the configuration.

(変形例5)
ここでは、情報判定モデル学習装置1は、情報判定モデルを追加学習する装置とした。
しかし、情報判定モデル学習装置1は、追加学習後の情報判定モデルを用いて、投稿文が予め定めたどの種別に属する情報であるかを判定することとしてもよい。
(Modification 5)
Here, the information determination model learning device 1 is a device that additionally learns an information determination model.
However, the information determination model learning device 1 may determine, using the information determination model after the additional learning, what type of information the post sentence belongs to.

例えば、図8に、投稿文の判定を行うことが可能な情報判定モデル学習装置1Bの構成を示す。
情報判定モデル学習装置1Bは、追加学習モードと情報判定モードとの2つの動作モードを切り替えて動作する。情報判定モデル学習装置1Bは、追加学習モードにおいては、新たな投稿文によって、情報判定モデルを追加学習する。また、情報判定モデル学習装置1Bは、情報判定モードにおいては、入力される投稿文の種別を判定する。
図8に示すように、情報判定モデル学習装置1Bは、情報判定モデル学習装置1の構成に切替手段16を付加して構成している。切替手段16以外の構成は、図1の情報判定モデル学習装置1の構成と同じであるため、同一の符号を付して説明を省略する。
For example, FIG. 8 shows a configuration of an information determination model learning device 1B capable of determining a posted sentence.
The information determination model learning device 1B operates by switching between two operation modes: an additional learning mode and an information determination mode. In the additional learning mode, the information determination model learning device 1B additionally learns the information determination model with a new posted sentence. In the information determination mode, the information determination model learning device 1B determines the type of the input posted text.
As shown in FIG. 8, the information determination model learning device 1B is configured by adding a switching unit 16 to the configuration of the information determination model learning device 1. The configuration other than the switching unit 16 is the same as the configuration of the information determination model learning device 1 in FIG.

切替手段16は、指定された動作モードによって、判定手段12における判定結果の出力を切り替えるものである。
この切替手段16は、外部からの動作モードの指示により、判定手段12の出力を、追加学習データ収集手段13か、外部(例えば、表示装置2)かのいずれかに切り替える。
情報判定モデル学習装置1Bは、追加学習モードの動作時には、切替手段16によって、判定手段12の出力を追加学習データ収集手段13とすることで、入力される投稿文によって、情報判定モデルを追加学習する。
また、情報判定モデル学習装置1Bは、情報判定モードの動作時には、切替手段16によって、判定手段12の出力を外部出力とすることで、入力される投稿文の種別を判定し、判定結果を外部に出力する。
なお、投稿文が予め定めたどの種別に属する情報であるかを判定する場合、図9に示す情報判定装置3して構成してもよい。
図9に示す情報判定装置3は、図1で説明した情報判定モデル学習装置1の判定手段12と、情報判定モデル記憶手段22とで構成する。なお、情報判定モデル記憶手段22は、情報判定モデル学習装置1で追加学習した情報判定モデルを記憶しておけばよい。
これによって、情報判定モデル学習装置1で学習した情報判定モデルを、複数の情報判定装置3で利用することができる。
The switching unit 16 switches the output of the determination result by the determination unit 12 according to the specified operation mode.
The switching unit 16 switches the output of the determination unit 12 to either the additional learning data collection unit 13 or the outside (for example, the display device 2) according to an operation mode instruction from the outside.
When operating in the additional learning mode, the information determination model learning apparatus 1B uses the switching unit 16 to output the output of the determination unit 12 to the additional learning data collection unit 13, thereby performing additional learning of the information determination model based on the input sentence. I do.
In addition, in the operation of the information determination mode, the information determination model learning device 1B determines the type of the input posted text by setting the output of the determination unit 12 to the external output by the switching unit 16 and outputs the determination result to the external. Output to
When it is determined which type the post belongs to, the information determination device 3 shown in FIG. 9 may be used.
The information determination device 3 shown in FIG. 9 includes the determination unit 12 and the information determination model storage unit 22 of the information determination model learning device 1 described with reference to FIG. The information determination model storage unit 22 may store the information determination model additionally learned by the information determination model learning device 1.
As a result, the information determination model learned by the information determination model learning device 1 can be used by a plurality of information determination devices 3.

1,1B 情報判定モデル学習装置
10 制御手段
11 初期学習手段
12 判定手段
13 追加学習データ収集手段
130 データ選択手段
131 データ抽出手段
14 追加学習手段
15 モデル更新手段
16 切替手段
150 評価手段
151 更新手段
20 記憶手段
21 学習データ記憶手段
22 情報判定モデル記憶手段
23 追加学習データ記憶手段
24 追加学習モデル記憶手段
25 評価データ記憶手段
3 情報判定装置
1, 1B information judgment model learning device 10 control means 11 initial learning means 12 judgment means 13 additional learning data collection means 130 data selection means 131 data extraction means 14 additional learning means 15 model updating means 16 switching means 150 evaluation means 151 updating means 20 Storage means 21 Learning data storage means 22 Information judgment model storage means 23 Additional learning data storage means 24 Additional learning model storage means 25 Evaluation data storage means 3 Information judgment device

Claims (7)

ソーシャルメディアから取得した情報である投稿文が、当該投稿文の投稿内容を分類したどの種別に属するかを判定するためのニューラルネットワークの情報判定モデルを追加学習する情報判定モデル学習装置であって、
事前学習した前記情報判定モデルを用いて、新たな投稿文を入力し、前記種別を判定するとともに当該種別に対する信頼度を算出する判定手段と、
前記信頼度が低い投稿文から優先して表示装置に表示し、操作者に選択された投稿文を追加学習データとして収集する追加学習データ収集手段と、
前記追加学習データを用いて、前記情報判定モデルを追加学習した追加学習モデルを生成する追加学習手段と、
前記追加学習モデルを新たなモデルとして前記情報判定モデルを更新するモデル更新手段と、
を備えることを特徴とする情報判定モデル学習装置。
An information determination model learning device that additionally learns an information determination model of a neural network for determining to which type the posted content, which is information acquired from social media, belongs to the classified content of the posted content,
Using the pre-learned information determination model, input a new posted sentence, determine the type and determine reliability for the type,
Additional learning data collecting means for displaying on the display device by giving priority to the post with low reliability, and collecting the post selected by the operator as additional learning data,
Using the additional learning data, additional learning means for generating an additional learning model additionally learning the information determination model,
Model updating means for updating the information determination model with the additional learning model as a new model,
An information judgment model learning device comprising:
前記追加学習データ収集手段は、
前記新たな投稿文のうちで、前記操作者に選択された投稿文を前記追加学習データとするデータ選択手段と、
前記データ選択手段で選択されなかった投稿文から、前記追加学習データと類似する投稿文を追加学習データとして抽出するデータ抽出手段と、
を備えることを特徴とする請求項1に記載の情報判定モデル学習装置。
The additional learning data collection means,
A data selecting unit that sets a post selected by the operator as the additional learning data among the new post;
From the post not selected by the data selection unit, a data extraction unit that extracts a post sentence similar to the additional learning data as additional learning data,
The information determination model learning device according to claim 1, further comprising:
前記データ抽出手段は、前記データ選択手段で選択された投稿文のベクトル表現と、前記データ選択手段で選択されなかった投稿文のベクトル表現とについて、コサイン類似度を算出し、予め定めた閾値よりも大きい投稿文を前記追加学習データとして抽出することを特徴とする請求項2に記載の情報判定モデル学習装置。   The data extraction unit calculates a cosine similarity between a vector expression of a post sentence selected by the data selection unit and a vector expression of a post sentence not selected by the data selection unit, and calculates a cosine similarity from a predetermined threshold. The information determination model learning device according to claim 2, wherein a contribution sentence having a larger size is extracted as the additional learning data. 前記モデル更新手段は、予め定めた評価データを用いて、前記情報判定モデルおよび前記追加学習モデルの評価値を算出する評価手段と、
前記追加学習モデルの評価値が前記情報判定モデルの評価値を上回った場合に、前記情報判定モデルを更新する更新手段と、
を備えることを特徴とする請求項1から請求項3のいずれか一項に記載の情報判定モデル学習装置。
The model updating means, using predetermined evaluation data, evaluating means for calculating an evaluation value of the information determination model and the additional learning model,
When the evaluation value of the additional learning model exceeds the evaluation value of the information determination model, an updating unit that updates the information determination model,
The information determination model learning device according to any one of claims 1 to 3, further comprising:
前記追加学習モデルの評価値が前記情報判定モデルの評価値以下の場合に、前記追加学習データ収集手段で収集された追加学習データを保持しておき、次回の投稿文を用いた追加学習時に用いることを特徴とする請求項4に記載の情報判定モデル学習装置。   When the evaluation value of the additional learning model is equal to or less than the evaluation value of the information determination model, the additional learning data collected by the additional learning data collection unit is retained and used at the time of the additional learning using the next posted sentence. The information determination model learning device according to claim 4, wherein: 追加学習を行う追加学習モードと前記投稿文の種別を判定する情報判定モードとの2つの動作モードを切り替える切替手段を、さらに備え、
前記切替手段は、前記追加学習モードにおいて、前記判定手段の判定結果を前記追加学習データ収集手段に出力し、前記情報判定モードにおいて、前記判定手段の判定結果を外部に出力することを特徴とする請求項1から請求項5のいずれか一項に記載の情報判定モデル学習装置。
Switching means for switching between two operation modes of an additional learning mode for performing additional learning and an information determination mode for determining the type of the posted sentence,
The switching means outputs a determination result of the determination means to the additional learning data collection means in the additional learning mode, and outputs a determination result of the determination means to the outside in the information determination mode. The information determination model learning device according to any one of claims 1 to 5.
コンピュータを、請求項1から請求項6のいずれか一項に記載の情報判定モデル学習装置として機能させるための情報判定モデル学習プログラム。   An information determination model learning program for causing a computer to function as the information determination model learning device according to any one of claims 1 to 6.
JP2018112607A 2018-06-13 2018-06-13 Information judgment model learning device and its program Active JP7153477B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018112607A JP7153477B2 (en) 2018-06-13 2018-06-13 Information judgment model learning device and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018112607A JP7153477B2 (en) 2018-06-13 2018-06-13 Information judgment model learning device and its program

Publications (2)

Publication Number Publication Date
JP2019215705A true JP2019215705A (en) 2019-12-19
JP7153477B2 JP7153477B2 (en) 2022-10-14

Family

ID=68918731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018112607A Active JP7153477B2 (en) 2018-06-13 2018-06-13 Information judgment model learning device and its program

Country Status (1)

Country Link
JP (1) JP7153477B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021132099A1 (en) * 2019-12-24 2021-07-01 株式会社 東京ウエルズ Learning support device, learning device, learning support method, and learning support program
JP7129585B1 (en) * 2021-11-25 2022-09-01 シエンプレ株式会社 SNS Post Classification Providing System, SNS Post Classification Providing Method and Program
WO2023053226A1 (en) * 2021-09-28 2023-04-06 日本電信電話株式会社 Determination device, determination method, and determination program
WO2023119360A1 (en) * 2021-12-20 2023-06-29 日本電信電話株式会社 Information identification device, information identification method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222083A (en) * 2001-01-29 2002-08-09 Fujitsu Ltd Device and method for instance storage
JP2002287803A (en) * 2001-03-27 2002-10-04 Denso Corp Property adjusting method in manufacturing process of product
US20090228499A1 (en) * 2008-03-05 2009-09-10 Schmidtler Mauritius A R Systems and methods for organizing data sets
JP2012141912A (en) * 2011-01-06 2012-07-26 Nippon Telegr & Teleph Corp <Ntt> Data extraction device, data extraction method and program
JP2016510441A (en) * 2012-11-30 2016-04-07 フェイスブック,インク. Customized predictors of user behavior in online systems
JP2017201437A (en) * 2016-05-02 2017-11-09 日本放送協会 News material extractor and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222083A (en) * 2001-01-29 2002-08-09 Fujitsu Ltd Device and method for instance storage
JP2002287803A (en) * 2001-03-27 2002-10-04 Denso Corp Property adjusting method in manufacturing process of product
US20090228499A1 (en) * 2008-03-05 2009-09-10 Schmidtler Mauritius A R Systems and methods for organizing data sets
JP2012141912A (en) * 2011-01-06 2012-07-26 Nippon Telegr & Teleph Corp <Ntt> Data extraction device, data extraction method and program
JP2016510441A (en) * 2012-11-30 2016-04-07 フェイスブック,インク. Customized predictors of user behavior in online systems
JP2017201437A (en) * 2016-05-02 2017-11-09 日本放送協会 News material extractor and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021132099A1 (en) * 2019-12-24 2021-07-01 株式会社 東京ウエルズ Learning support device, learning device, learning support method, and learning support program
JP7298825B2 (en) 2019-12-24 2023-06-27 株式会社 東京ウエルズ Learning support device, learning device, learning support method, and learning support program
WO2023053226A1 (en) * 2021-09-28 2023-04-06 日本電信電話株式会社 Determination device, determination method, and determination program
JP7129585B1 (en) * 2021-11-25 2022-09-01 シエンプレ株式会社 SNS Post Classification Providing System, SNS Post Classification Providing Method and Program
WO2023095227A1 (en) * 2021-11-25 2023-06-01 シエンプレ株式会社 Sns post classification provision system, sns post classification provision method, and program
WO2023119360A1 (en) * 2021-12-20 2023-06-29 日本電信電話株式会社 Information identification device, information identification method, and program

Also Published As

Publication number Publication date
JP7153477B2 (en) 2022-10-14

Similar Documents

Publication Publication Date Title
Ramadhan et al. Sentiment analysis using multinomial logistic regression
Bergsma et al. Language identification for creating language-specific twitter collections
JP7153477B2 (en) Information judgment model learning device and its program
CN110516067A (en) Public sentiment monitoring method, system and storage medium based on topic detection
US11636341B2 (en) Processing sequential interaction data
CN110023928B (en) Predictive search engine ranking signal values
CN105260356A (en) Chinese interactive text emotion and topic identification method based on multitask learning
CN112257777B (en) Off-duty prediction method and related device based on hidden Markov model
US20170177623A1 (en) Method and apparatus for using business-aware latent topics for image captioning in social media
US20110219299A1 (en) Method and system of providing completion suggestion to a partial linguistic element
US11720481B2 (en) Method, apparatus and computer program product for predictive configuration management of a software testing system
US20210248425A1 (en) Reinforced text representation learning
KR20230013793A (en) Method and Apparatus for Classifying Document Based on Attension Mechanism and Semantic Analysis
Chen et al. The best answers? think twice: online detection of commercial campaigns in the CQA forums
CN110020110B (en) Media content recommendation method, device and storage medium
Lhasiw et al. A bidirectional LSTM model for classifying Chatbot messages
CN110347314A (en) A kind of content displaying method, device, storage medium and computer equipment
CN112069803A (en) Text backup method, device and equipment and computer readable storage medium
JP2019016122A (en) Model learning device, information determining device and program thereof
US11134045B2 (en) Message sorting system, message sorting method, and program
JP6839001B2 (en) Model learning device, information judgment device and their programs
JP6961148B1 (en) Information processing system and information processing method
JP5841108B2 (en) Information processing apparatus, article information generation method and program
CN109145115B (en) Product public opinion discovery method, device, computer equipment and storage medium
JP7452801B2 (en) Evaluation support system and evaluation support program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221003

R150 Certificate of patent or registration of utility model

Ref document number: 7153477

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150