JP7153477B2 - 情報判定モデル学習装置およびそのプログラム - Google Patents
情報判定モデル学習装置およびそのプログラム Download PDFInfo
- Publication number
- JP7153477B2 JP7153477B2 JP2018112607A JP2018112607A JP7153477B2 JP 7153477 B2 JP7153477 B2 JP 7153477B2 JP 2018112607 A JP2018112607 A JP 2018112607A JP 2018112607 A JP2018112607 A JP 2018112607A JP 7153477 B2 JP7153477 B2 JP 7153477B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- learning
- additional learning
- posted
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
また、SNSでは、日々新しい事象に対する情報が投稿されるため、学習済みのニューラルネットワークを追加学習する手法が開示されている(特許文献1参照)。
しかし、従来の手法では、学習データを収集するために人手で情報を抽出する必要があるため、労力を要するとともに、追加学習するための学習データを大量に収集することが困難である。そのため、モデルを改善するために、効率的に学習データを収集する手法が望まれている。
そして、情報判定モデル学習装置は、追加学習データ収集手段によって、信頼度が低い投稿文から優先して表示装置に表示し、操作者に選択された投稿文を追加学習データとして収集する。これによって、情報判定モデル学習装置は、信頼度が低く判定結果の誤りの可能性が高い投稿文について、学習が不足している投稿文として優先的に操作者に提示する。ここで、操作者が、信頼度の低い投稿文から種別の判定結果の正しい投稿文を選択することで、当該投稿文が追加学習データとなる。なお、追加学習データ収集手段は、データ選択手段によって、新たな投稿文のうちで、操作者に選択された投稿文を追加学習データとし、データ抽出手段によって、データ選択手段で選択されなかった投稿文から、追加学習データと類似する投稿文を追加学習データとして抽出する。
そして、情報判定モデル学習装置は、モデル更新手段によって、追加学習モデルを新たなモデルとして情報判定モデルを更新する。
なお、情報判定モデル学習装置は、コンピュータを、前記した各手段として機能させるための情報判定モデル学習プログラムで動作させることができる。
本発明によれば、ソーシャルメディアから取得した大量の情報から、学習データの候補となる情報を、信頼度に応じて操作者に提示するため、短時間で学習データを収集し、情報判定モデルを追加学習することができる。
これによって、本発明は、操作者の作業量を減らして効率的に情報判定モデルを更新することができ、ソーシャルメディアから取得した情報が、どのような種別の情報であるのかを精度よく判定することができる。
[情報判定モデル学習装置の構成]
最初に、図1を参照して、本発明の実施形態に係る情報判定モデル学習装置1の構成について説明する。
図1に示すように、情報判定モデル学習装置1は、制御手段10と、記憶手段20と、を備える。
制御手段10は、初期学習手段11と、判定手段12と、追加学習データ収集手段13と、追加学習手段14と、モデル更新手段15と、を備える。
初期学習手段11は、学習データ記憶手段21に予め記憶されている学習データを参照して、情報判定モデルの初期モデルを機械学習する。
学習データ記憶手段21に予め記憶する学習データは、判定を行いたい種別に属する投稿文である種別が既知の正例の学習データと、判定を行いたい種別に属さない投稿文である負例の学習データとを、予め分類した教師データである。
図2に示すように、情報判定モデルMは、入力層L1、中間層L2および出力層L3を有するニューラルネットワークである。
この出力層L3は、ノードごとに入力される値を、ソフトマックス関数を用いて正規化することで、各ノードの信頼度を算出する。
なお、出力層L3は、図3に示すように、次元数(ノード数)を、正例のクラスの数(n)と、負例のクラスの数(ここでは、“1”)を加算したクラス数(n+1)とする。
図2に示した情報判定モデルMの双方向LSTMは、非特許文献1に記載されているように、アテンションメカニズムを用いてもよい。
初期学習手段11は、学習した情報判定モデル(モデルパラメータ)を情報判定モデル記憶手段22に書き込み、当該情報判定モデルを記憶する。以下、情報判定モデル記憶手段22に記憶する情報判定モデルをモデルAと呼称する場合がある。
具体的には、判定手段12は、SNS等のソーシャルメディアから取得した投稿文をベクトル表現に変換し、図2に示したニューラルネットワークで構成した情報判定モデルMの入力層L1に、順方向および逆方向から、順次、文字ベクトルを入力する。
そして、判定手段12は、中間層L2において、情報判定モデルMのパラメータ(重み行例等)を用いて、順方向のLSTMと逆方向のLSTMとで、それぞれLSTMの演算を繰り返す。その後、順方向のLSTMと逆方向のLSTMとの出力を連結したベクトルを順次FFNNを介して演算し、中間層出力Vを生成する。
そして、判定手段12は、図3に示すように、中間層出力Vの各要素の値に重みを付加して出力層L3に伝搬させて、各ノードの確率値を信頼度として計算する。
追加学習データ収集手段13は、データ選択手段130と、データ抽出手段131と、を備える。
例えば、データ選択手段130は、判定手段12で種別が判定された投稿文を、信頼度の低い方から優先して表示装置2に表示する。
ここで、信頼度が低い場合、情報判定モデル(モデルA)による判定結果は、誤っている可能性も高いことになる。そこで、操作者は、判定結果の信頼度の低い投稿文に対して、それが正しい判定結果であるか否かを判定し、正しい場合、その投稿文を追加学習データとして選択する。これによって、この投稿文が追加学習データ(教師データ)として選択され、追加学習により、情報判定モデルの精度を高めることが可能になる。
例えば、データ選択手段130は、図4に示す画面上に、投稿文C、投稿された日時Tとともに、判定された種別のラベルLと信頼度Rとを、信頼度の低い方から優先的に表示装置2に表示する。ここで、データ選択手段130は、表示装置2の画面上で、投稿文を一定速度でスクロールして順番に表示することで、操作者が、投稿文CとラベルLとの対応を確認し、正しい対応であれば、マウス等の選択手段で投稿文Cを選択する。
データ選択手段130は、選択された投稿文をラベルとともに追加学習データとして、追加学習データ記憶手段23に記憶する。また、データ選択手段130は、選択された投稿文とラベルとをデータ抽出手段131に通知し、選択が終了した段階、例えば、画面上の終了ボタンE(図4参照)を押下された段階で、選択が終了したことをデータ抽出手段131に通知する。
そして、データ選択手段130は、予め定めた閾値よりも大きいデルタIDFの値となる単語を有する投稿文を、表示対象とする。
このように、データ選択手段130は、信頼度の低い投稿文を優先し、また、特徴的な単語を有する投稿文を画面表示することで、操作者が効率的に追加学習データを選択することができる。
なお、操作者は、すべての投稿文を確認する必要はなく、例えば、一定時間、一定個数等、作業時間、作業内容を定めて、投稿文を選択すればよい。
例えば、データ抽出手段131は、データ選択手段130で選択された投稿文のベクトル表現と、データ選択手段130で選択されなかった投稿文のベクトル表現との類似度(投稿文のベクトル同士の成す角度の近さを示すコサイン類似度)を算出し、予め定めた閾値よりも大きい類似度となった非選択投稿文に対して、類似する投稿文のクラスを対応付けて追加学習データとする。
なお、データ選択手段130で選択された投稿文のベクトル表現、および、選択されなかった投稿文のベクトル表現は、判定手段12において、クラスを判定する際の情報判定モデルの出力ベクトル(出力層の出力)を用いればよい。あるいは、中間層のLSTMよりも後段の出力ベクトル(例えば、中間層出力V;図2参照)を用いてもよい。
このように、データ抽出手段131は、データ選択手段130で操作者によって選択されなかった投稿文からも、追加学習データを収集することができる。
追加学習データ収集手段13は、収集した追加学習データ(投稿文、種別〔クラス〕)を追加学習データ記憶手段23に記憶する。
追加学習手段14は、情報判定モデルを追加学習した追加学習モデル(モデルパラメータ)を、追加学習モデル記憶手段24に記憶する。以下、追加学習モデル記憶手段24に記憶する追加学習モデルをモデルBと呼称する場合がある。
追加学習手段14は、追加学習を終了した段階で、モデル更新手段15に学習終了を通知する。
モデル更新手段15は、評価手段150と、更新手段151と、を備える。
なお、評価手段150における評価手法は、一般的な手法を用いることができる。例えば、評価手段150は、情報判定モデルおよび追加学習モデルについて、予め準備した評価データを用いてF値を算出し、評価値とする。なお、評価データは、予め正例と負例とのクラスが既知の投稿文であって、予め評価データ記憶手段25に記憶しておく。
適合率は、クラスに関わらず、正例と判定したデータ(投稿文)のうちで、実際に正例であるものの割合である。
再現率は、クラスに関わらず、実際に正例であるデータ(投稿文)のうちで、正例と判定したものの割合である。
F値(F-measure)は、適合率をPrecision、再現率をRecallとしたとき、以下の式(2)で求めることができる。
更新手段151は、追加学習モデルの評価値が追加学習前の情報判定モデルの評価値を上回った場合だけ、追加学習モデル記憶手段24に記憶されている追加学習モデル(モデルパラメータ)を情報判定モデル記憶手段22に記憶し、新たな情報判定モデルに更新する。また、このとき、更新手段151は、追加学習データ記憶手段23に記憶されている追加学習データを削除する。
これら各記憶手段は、ハードディスク、半導体メモリ等の一般的な記憶装置で構成することができる。なお、ここでは、記憶手段20において、各記憶手段を個別に設けているが、1つの記憶装置の記憶領域を複数に区分して各記憶手段としてもよい。また、記憶手段20を外部記憶装置として、情報判定モデル学習装置1の構成から省いてもよい。
情報判定モデル記憶手段22は、初期学習手段11が学習した情報判定モデル(モデルA)、より詳細には、そのモデルパラメータを記憶するものである。情報判定モデル記憶手段22に記憶されている情報判定モデル(モデルパラメータ)は、追加学習手段14が追加学習を行う際に読み出される。また、この情報判定モデルは、モデル更新手段15(更新手段151)によって更新される。
また、情報判定モデル学習装置1は、種別判定の信頼度の低い投稿文を優先的に操作者に提示して、追加学習するか否かの選択を受け付ける構成とした。そのため、情報判定モデル学習装置1は、効率的に追加学習を行うことができる。
なお、情報判定モデル学習装置1は、コンピュータを前記した各手段として機能させるためのプログラム(情報判定モデル学習プログラム)で動作させることができる。
次に、図5を参照(構成については適宜図1参照)して、本発明の実施形態に係る情報判定モデル学習装置1の動作について説明する。なお、学習データ記憶手段21には、判定を行いたい種別に属する投稿文である正例の学習データと、判定を行いたい種別に属さない投稿文である負例の学習データとが、予め記憶されているものとする。また、評価データ記憶手段25には、学習データ記憶手段21と同様に正例の評価データと、負例の評価データとが予め記憶されているものとする。
ステップS3において、判定手段12は、ステップS2で入力した投稿文を、情報判定モデル記憶手段22に記憶されている情報判定モデルを用いて、どの種別に属する投稿文であるのかを判定する。
このとき、データ選択手段130は、投稿文中の単語で、クラスの特徴を表す度合い(デルタIDF等)が予め定めた閾値よりも大きい投稿文のみを表示対象としてもよい。
ここで、追加学習モデル(モデルB)の評価値が情報判定モデル(モデルA)の評価値を上回った場合(ステップS9でYes)、ステップS10において、更新手段151は、追加学習モデル(モデルB)を新たな情報判定モデル(モデルA)として更新し、情報判定モデル記憶手段22に記憶する。そして、ステップS11において、更新手段151は、追加学習データ記憶手段23に記憶されている追加学習データを削除する。
なお、情報判定モデル学習装置1は、この動作完了後は、定期的、例えば、1日ごとに、ステップS2以降の動作を行うこととする。
以上、本発明の実施形態に係る情報判定モデル学習装置1の構成および動作について説明したが、本発明は、この実施形態に限定されるものではない。
(変形例1)
ここでは、初期学習手段11および追加学習手段14が学習するモデル(情報判定モデルおよび追加学習モデル)として、双方向LSTMを中間層とする順伝播型ニューラルネットワーク(FFNN)を用いた。しかし、これらのモデルには、一般的なFFNNを用いてもよい。
例えば、初期学習手段11、追加学習手段14は、投稿文「消防車おるけど火事?」を、形態素解析により、「消防車/おる/けど/火事/?」のように単語に分割する。
そして、初期学習手段11、追加学習手段14は、各単語を分散表現ベクトルに変換して加算し、単語数で除算することで、当該投稿文に対応する分散表現ベクトルを生成する。
これによって、異なる単語数の投稿文であっても、同一次元の分散表現ベクトルで、情報判定モデルM2の学習を行うことができる。
また、図2に示した情報判定モデルMは、投稿文の中の特徴的な単語の重みを表した特徴ベクトルを、中間層に付加するモデルとしてもよい。
図7に特徴ベクトルを付加した情報判定モデル(追加学習モデル)M3の例を示す。図7に示すように情報判定モデルM3は、基本的には、図2で説明した情報判定モデルMと同じであるが、少なくとも双方向LSTMの後段に、特徴ベクトルV2を入力する。
この特徴ベクトルV2は、初期学習手段11、追加学習手段14によって生成される。
これによって、情報判定モデルM3は、投稿文内の特徴単語を加味して、情報を判定することが可能なモデルとなる。
ここでは、情報判定モデル学習装置1は、学習データを用いて、情報判定モデルを学習して生成することとした。
しかし、追加学習前の情報判定モデルは、必ずしも情報判定モデル学習装置1内で生成する必要はない。例えば、外部で予め学習し生成した情報判定モデルを、情報判定モデル記憶手段22に記憶しておけばよい。その場合、情報判定モデル学習装置1は、初期学習手段11を構成から省略することができる。また、データ選択手段130において、デルタIDFを用いて投稿文の表示対象の制限を行う必要がなければ、さらに、学習データ記憶手段21を省略することも可能である。
ここでは、追加学習データ収集手段13が、操作者によって追加学習データを選択し、選択されなかった投稿文からさらに追加学習データを収集することとした。
しかし、追加学習データ収集手段13は、操作者による追加学習データの選択のみによって追加学習データを収集することとしてもよい。その場合、情報判定モデル学習装置1は、データ抽出手段131を構成から省略することができる。
ここでは、情報判定モデル学習装置1は、情報判定モデルを追加学習する装置とした。
しかし、情報判定モデル学習装置1は、追加学習後の情報判定モデルを用いて、投稿文が予め定めたどの種別に属する情報であるかを判定することとしてもよい。
情報判定モデル学習装置1Bは、追加学習モードと情報判定モードとの2つの動作モードを切り替えて動作する。情報判定モデル学習装置1Bは、追加学習モードにおいては、新たな投稿文によって、情報判定モデルを追加学習する。また、情報判定モデル学習装置1Bは、情報判定モードにおいては、入力される投稿文の種別を判定する。
図8に示すように、情報判定モデル学習装置1Bは、情報判定モデル学習装置1の構成に切替手段16を付加して構成している。切替手段16以外の構成は、図1の情報判定モデル学習装置1の構成と同じであるため、同一の符号を付して説明を省略する。
この切替手段16は、外部からの動作モードの指示により、判定手段12の出力を、追加学習データ収集手段13か、外部(例えば、表示装置2)かのいずれかに切り替える。
情報判定モデル学習装置1Bは、追加学習モードの動作時には、切替手段16によって、判定手段12の出力を追加学習データ収集手段13とすることで、入力される投稿文によって、情報判定モデルを追加学習する。
また、情報判定モデル学習装置1Bは、情報判定モードの動作時には、切替手段16によって、判定手段12の出力を外部出力とすることで、入力される投稿文の種別を判定し、判定結果を外部に出力する。
なお、投稿文が予め定めたどの種別に属する情報であるかを判定する場合、図9に示す情報判定装置3して構成してもよい。
図9に示す情報判定装置3は、図1で説明した情報判定モデル学習装置1の判定手段12と、情報判定モデル記憶手段22とで構成する。なお、情報判定モデル記憶手段22は、情報判定モデル学習装置1で追加学習した情報判定モデルを記憶しておけばよい。
これによって、情報判定モデル学習装置1で学習した情報判定モデルを、複数の情報判定装置3で利用することができる。
10 制御手段
11 初期学習手段
12 判定手段
13 追加学習データ収集手段
130 データ選択手段
131 データ抽出手段
14 追加学習手段
15 モデル更新手段
16 切替手段
150 評価手段
151 更新手段
20 記憶手段
21 学習データ記憶手段
22 情報判定モデル記憶手段
23 追加学習データ記憶手段
24 追加学習モデル記憶手段
25 評価データ記憶手段
3 情報判定装置
Claims (6)
- ソーシャルメディアから取得した情報である投稿文が、当該投稿文の投稿内容を分類したどの種別に属するかを判定するためのニューラルネットワークの情報判定モデルを追加学習する情報判定モデル学習装置であって、
事前学習した前記情報判定モデルを用いて、新たな投稿文を入力し、前記種別を判定するとともに当該種別に対する信頼度を算出する判定手段と、
前記信頼度が低い投稿文から優先して表示装置に表示し、操作者に選択された投稿文を追加学習データとして収集する追加学習データ収集手段と、
前記追加学習データを用いて、前記情報判定モデルを追加学習した追加学習モデルを生成する追加学習手段と、
前記追加学習モデルを新たなモデルとして前記情報判定モデルを更新するモデル更新手段と、を備え、
前記追加学習データ収集手段は、
前記新たな投稿文のうちで、前記操作者に選択された投稿文を前記追加学習データとするデータ選択手段と、
前記データ選択手段で選択されなかった投稿文から、前記追加学習データと類似する投稿文を追加学習データとして抽出するデータ抽出手段と、
を備えることを特徴とする情報判定モデル学習装置。 - 前記データ抽出手段は、前記データ選択手段で選択された投稿文のベクトル表現と、前記データ選択手段で選択されなかった投稿文のベクトル表現とについて、コサイン類似度を算出し、予め定めた閾値よりも大きい投稿文を前記追加学習データとして抽出することを特徴とする請求項1に記載の情報判定モデル学習装置。
- 前記モデル更新手段は、予め定めた評価データを用いて、前記情報判定モデルおよび前記追加学習モデルの評価値を算出する評価手段と、
前記追加学習モデルの評価値が前記情報判定モデルの評価値を上回った場合に、前記情報判定モデルを更新する更新手段と、
を備えることを特徴とする請求項1または請求項2に記載の情報判定モデル学習装置。 - 前記追加学習モデルの評価値が前記情報判定モデルの評価値以下の場合に、前記追加学習データ収集手段で収集された追加学習データを保持しておき、次回の投稿文を用いた追加学習時に用いることを特徴とする請求項3に記載の情報判定モデル学習装置。
- 追加学習を行う追加学習モードと前記投稿文の種別を判定する情報判定モードとの2つの動作モードを切り替える切替手段を、さらに備え、
前記切替手段は、前記追加学習モードにおいて、前記判定手段の判定結果を前記追加学習データ収集手段に出力し、前記情報判定モードにおいて、前記判定手段の判定結果を外部に出力することを特徴とする請求項1から請求項4のいずれか一項に記載の情報判定モデル学習装置。 - コンピュータを、請求項1から請求項5のいずれか一項に記載の情報判定モデル学習装置として機能させるための情報判定モデル学習プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112607A JP7153477B2 (ja) | 2018-06-13 | 2018-06-13 | 情報判定モデル学習装置およびそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112607A JP7153477B2 (ja) | 2018-06-13 | 2018-06-13 | 情報判定モデル学習装置およびそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019215705A JP2019215705A (ja) | 2019-12-19 |
JP7153477B2 true JP7153477B2 (ja) | 2022-10-14 |
Family
ID=68918731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018112607A Active JP7153477B2 (ja) | 2018-06-13 | 2018-06-13 | 情報判定モデル学習装置およびそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7153477B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7298825B2 (ja) * | 2019-12-24 | 2023-06-27 | 株式会社 東京ウエルズ | 学習支援装置、学習装置、学習支援方法及び学習支援プログラム |
JPWO2023053226A1 (ja) * | 2021-09-28 | 2023-04-06 | ||
WO2023095227A1 (ja) * | 2021-11-25 | 2023-06-01 | シエンプレ株式会社 | Sns投稿分類提供システム、sns投稿分類提供方法及びプログラム |
WO2023119360A1 (ja) * | 2021-12-20 | 2023-06-29 | 日本電信電話株式会社 | 情報識別装置、情報識別方法、および、プログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002222083A (ja) | 2001-01-29 | 2002-08-09 | Fujitsu Ltd | 事例蓄積装置および方法 |
JP2002287803A (ja) | 2001-03-27 | 2002-10-04 | Denso Corp | 製品の製造プロセスにおける特性調整方法 |
US20090228499A1 (en) | 2008-03-05 | 2009-09-10 | Schmidtler Mauritius A R | Systems and methods for organizing data sets |
JP2012141912A (ja) | 2011-01-06 | 2012-07-26 | Nippon Telegr & Teleph Corp <Ntt> | データ抽出装置、データ抽出方法、及びプログラム |
JP2016510441A (ja) | 2012-11-30 | 2016-04-07 | フェイスブック,インク. | オンライン・システム内のユーザ行動に関するカスタマイズされた予測器 |
JP2017201437A (ja) | 2016-05-02 | 2017-11-09 | 日本放送協会 | ニュース素材抽出装置及びプログラム |
-
2018
- 2018-06-13 JP JP2018112607A patent/JP7153477B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002222083A (ja) | 2001-01-29 | 2002-08-09 | Fujitsu Ltd | 事例蓄積装置および方法 |
JP2002287803A (ja) | 2001-03-27 | 2002-10-04 | Denso Corp | 製品の製造プロセスにおける特性調整方法 |
US20090228499A1 (en) | 2008-03-05 | 2009-09-10 | Schmidtler Mauritius A R | Systems and methods for organizing data sets |
JP2012141912A (ja) | 2011-01-06 | 2012-07-26 | Nippon Telegr & Teleph Corp <Ntt> | データ抽出装置、データ抽出方法、及びプログラム |
JP2016510441A (ja) | 2012-11-30 | 2016-04-07 | フェイスブック,インク. | オンライン・システム内のユーザ行動に関するカスタマイズされた予測器 |
JP2017201437A (ja) | 2016-05-02 | 2017-11-09 | 日本放送協会 | ニュース素材抽出装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2019215705A (ja) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7153477B2 (ja) | 情報判定モデル学習装置およびそのプログラム | |
Bergsma et al. | Language identification for creating language-specific twitter collections | |
US11636341B2 (en) | Processing sequential interaction data | |
CN113591483A (zh) | 一种基于序列标注的文档级事件论元抽取方法 | |
US11687716B2 (en) | Machine-learning techniques for augmenting electronic documents with data-verification indicators | |
Tromp et al. | Senticorr: Multilingual sentiment analysis of personal correspondence | |
Chowdhury et al. | On identifying hashtags in disaster twitter data | |
CN110532563A (zh) | 文本中关键段落的检测方法及装置 | |
US20110219299A1 (en) | Method and system of providing completion suggestion to a partial linguistic element | |
KR20230013793A (ko) | 어텐션 메카니즘 및 의미분석 기반 문서 분류장치 및 방법 | |
CN103869998A (zh) | 一种对输入法所产生的候选项进行排序的方法及装置 | |
WO2019172961A1 (en) | System and methods for generating an enhanced output of relevant content to facilitate content analysis | |
CN112667813B (zh) | 用于裁判文书的敏感身份信息的识别方法 | |
CN106777040A (zh) | 一种基于情感极性感知算法的跨媒体微博舆情分析方法 | |
CN109241993B (zh) | 融合用户和整体评价信息的评价对象情感分类方法及装置 | |
Gajanayake et al. | Candidate selection for the interview using github profile and user analysis for the position of software engineer | |
JP2019016122A (ja) | モデル学習装置、情報判定装置およびそれらのプログラム | |
JP7217372B1 (ja) | 学習モデルの生成方法、コンピュータプログラム及び情報処理装置 | |
JP6839001B2 (ja) | モデル学習装置、情報判定装置およびそれらのプログラム | |
US11134045B2 (en) | Message sorting system, message sorting method, and program | |
Sisodia et al. | Sentiment analysis of prospective buyers of mega online sale using tweets | |
CN118339550A (zh) | 一种几何解题方法、装置、设备及存储介质 | |
CN112989217B (zh) | 一种人脉管理的系统 | |
Nisha et al. | Deep KNN Based Text Classification for Cyberbullying Tweet Detection | |
JP5841108B2 (ja) | 情報処理装置、記事情報生成方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210512 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221003 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7153477 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |