JP7014230B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7014230B2 JP7014230B2 JP2019551849A JP2019551849A JP7014230B2 JP 7014230 B2 JP7014230 B2 JP 7014230B2 JP 2019551849 A JP2019551849 A JP 2019551849A JP 2019551849 A JP2019551849 A JP 2019551849A JP 7014230 B2 JP7014230 B2 JP 7014230B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- training
- analysis
- string
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
訓練用テキスト、及び特定の事象情報に関する単語の前記訓練用テキストにおける位置を示す位置情報を取得し、前記訓練用テキストを字句解析することによって、前記訓練用テキストにおける位置を示す位置情報及び前記事象情報に関する単語に該当するか否かを示すラベルが単語ごとに付された訓練用単語列を生成する、字句解析部と、
前記字句解析部が生成した前記訓練用単語列において、検出対象の単語を中心とする所定長さのウインドウの位置を前記訓練用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の単語と前記検出対象の単語とを組み合せることによって得られる複数の訓練用単語ペアを抽出する、ペア生成部と、
予め設定された辞書モデルを用いて生成された、前記訓練用単語列の複数の単語それぞれの意味ベクトルを、前記複数の訓練用単語ペアの各単語に対応付けることによって、前記複数の訓練用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた訓練用行列を生成する、行列生成部と、
前記行列生成部が生成した複数の前記訓練用行列と畳み込みニューラルネットワークを用いた判定モデルとを用いて、前記訓練用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、分類部と、
前記分類部が算出した前記訓練用単語列の各位置の単語の前記確率のうち、前記事象情報に関する単語に該当することを示す前記ラベルが付された前記単語の前記確率が高くなるように、前記判定モデルのパラメータを更新する、最適化処理部と、
を備えることを特徴とする。
(a)訓練用テキスト、及び特定の事象情報に関する単語の前記訓練用テキストにおける位置を示す位置情報を取得し、前記訓練用テキストを字句解析することによって、前記訓練用テキストにおける位置を示す位置情報及び前記事象情報に関する単語に該当するか否かを示すラベルが単語ごとに付された訓練用単語列を生成する、ステップと、
(b)前記(a)のステップで生成された前記訓練用単語列において、検出対象の単語を中心とする所定長さのウインドウの位置を前記訓練用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の単語と前記検出対象の単語とを組み合せることによって得られる複数の訓練用単語ペアを抽出する、ステップと、
(c)予め設定された辞書モデルを用いて生成された、前記訓練用単語列の複数の単語それぞれの意味ベクトルを、前記複数の訓練用単語ペアの各単語に対応付けることによって、前記複数の訓練用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた訓練用行列を生成する、ステップと、
(d)前記(c)のステップで生成された複数の前記訓練用行列と畳み込みニューラルネットワークを用いた判定モデルとを用いて、前記訓練用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、ステップと、
(e)前記(d)のステップで算出された前記訓練用単語列の各位置の単語の前記確率のうち、前記事象情報に関する単語に該当することを示す前記ラベルが付された前記単語の前記確率が高くなるように、前記判定モデルのパラメータを更新する、ステップと、
を備えることを特徴とする。
コンピュータに、
(a)訓練用テキスト、及び特定の事象情報に関する単語の前記訓練用テキストにおける位置を示す位置情報を取得し、前記訓練用テキストを字句解析することによって、前記訓練用テキストにおける位置を示す位置情報及び前記事象情報に関する単語に該当するか否かを示すラベルが単語ごとに付された訓練用単語列を生成する、ステップと、
(b)前記(a)のステップで生成された前記訓練用単語列において、検出対象の単語を中心とする所定長さのウインドウの位置を前記訓練用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の単語と前記検出対象の単語とを組み合せることによって得られる複数の訓練用単語ペアを抽出する、ステップと、
(c)予め設定された辞書モデルを用いて生成された、前記訓練用単語列の複数の単語それぞれの意味ベクトルを、前記複数の訓練用単語ペアの各単語に対応付けることによって、前記複数の訓練用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた訓練用行列を生成する、ステップと、
(d)前記(c)のステップで生成された複数の前記訓練用行列と畳み込みニューラルネットワークを用いた判定モデルとを用いて、前記訓練用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、ステップと、
(e)前記(d)のステップで算出された前記訓練用単語列の各位置の単語の前記確率のうち、前記事象情報に関する単語に該当することを示す前記ラベルが付された前記単語の前記確率が高くなるように、前記判定モデルのパラメータを更新する、ステップと、
を実行させる命令を含む、ことを特徴とする。
以下、本発明の実施の形態における、情報処理装置、情報処理方法及びプログラムについて、図1~図19を参照しながら説明する。
最初に、本発明の実施の形態における情報処理装置の構成について説明する。図1は、本発明の実施の形態における情報処理装置の概略構成を示す構成図である。
次に、本発明の実施の形態における情報処理装置10の動作について図12及び図13を用いて説明する。図12及び図13は、本発明の実施の形態における情報処理方法の動作を示すフロー図である。以下の説明においては、適宜図1~図11を参酌する。また、本実施の形態では、情報処理装置10を動作させることによって、情報処理方法が実施される。よって、本実施の形態における情報処理方法の説明は、以下の情報処理装置10の動作説明に代える。
本実施の形態におけるプログラムは、コンピュータに、図12に示すステップS1~S5及び図13に示すステップA1~A5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における情報処理装置と情報処理方法とを実現することができる。この場合、コンピュータのプロセッサは、字句解析部12、ペア生成部14、行列生成部16、分類部18及び最適化処理部20として機能し、処理を行なう。
ここで、実施の形態におけるプログラムを実行することによって、情報処理装置を実現するコンピュータについて図14を用いて説明する。図14は、本発明の実施の形態における情報処理装置10を実現するコンピュータの一例を示すブロック図である。
訓練用テキスト、及び特定の事象情報に関する単語の前記訓練用テキストにおける位置を示す位置情報を取得し、前記訓練用テキストを字句解析することによって、前記訓練用テキストにおける位置を示す位置情報及び前記事象情報に関する単語に該当するか否かを示すラベルが単語ごとに付された訓練用単語列を生成する、字句解析部と、
前記字句解析部が生成した前記訓練用単語列において、検出対象の単語を中心とする所定長さのウインドウの位置を前記訓練用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の各単語を前記検出対象の単語にそれぞれ組み合せることによって得られる複数の訓練用単語ペアを抽出する、ペア生成部と、
予め設定された辞書モデルを用いて生成された、前記訓練用単語列の複数の単語それぞれの意味ベクトルを、前記複数の訓練用単語ペアの各単語に対応付けることによって、前記複数の訓練用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた訓練用行列を生成する、行列生成部と、
前記行列生成部が生成した複数の前記訓練用行列と畳み込みニューラルネットワークを用いた判定モデルとを用いて、前記訓練用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、分類部と、
前記分類部が算出した前記訓練用単語列の各位置の単語の前記確率のうち、前記事象情報に関する単語に該当することを示す前記ラベルが付された前記単語の前記確率が高くなるように、前記判定モデルのパラメータを更新する、最適化処理部と、
を備える、情報処理装置。
単語の数によって示される前記ウインドウの長さは、5以上の奇数に設定される、付記1に記載の情報処理装置。
前記字句解析部は、分析対象となる分析用テキストを取得し、前記分析用テキストを字句解析することによって、前記分析用テキストにおける位置を示す位置情報が単語ごとに付された分析用単語列を生成し、
前記ペア生成部は、前記字句解析部が生成した前記分析用単語列において、前記所定長さのウインドウの位置を前記分析用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の各単語を前記検出対象の単語にそれぞれ組み合せることによって得られる複数の分析用単語ペアを抽出し、
行列生成部は、前記辞書モデルを用いて生成された、前記分析用単語列の複数の単語それぞれの意味ベクトルを、前記複数の分析用単語ペアの各単語に対応付けることによって、前記複数の分析用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた分析用行列を生成し、
前記分類部は、前記行列生成部が生成した複数の前記分析用行列と前記判定モデルとを用いて、前記分析用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、付記1または2に記載の情報処理装置。
前記分類部は、前記分析用単語列の複数の単語のうち、閾値以上の確率が算出された単語を前記特定の事象対象の単語として抽出するとともに、抽出した前記単語の前記位置情報を出力する、付記3に記載の情報処理装置。
(a)訓練用テキスト、及び特定の事象情報に関する単語の前記訓練用テキストにおける位置を示す位置情報を取得し、前記訓練用テキストを字句解析することによって、前記訓練用テキストにおける位置を示す位置情報及び前記事象情報に関する単語に該当するか否かを示すラベルが単語ごとに付された訓練用単語列を生成する、ステップと、
(b)前記(a)のステップで生成された前記訓練用単語列において、検出対象の単語を中心とする所定長さのウインドウの位置を前記訓練用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の各単語を前記検出対象の単語にそれぞれ組み合せることによって得られる複数の訓練用単語ペアを抽出する、ステップと、
(c)予め設定された辞書モデルを用いて生成された、前記訓練用単語列の複数の単語それぞれの意味ベクトルを、前記複数の訓練用単語ペアの各単語に対応付けることによって、前記複数の訓練用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた訓練用行列を生成する、ステップと、
(d)前記(c)のステップで生成された複数の前記訓練用行列と畳み込みニューラルネットワークを用いた判定モデルとを用いて、前記訓練用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、ステップと、
(e)前記(d)のステップで算出された前記訓練用単語列の各位置の単語の前記確率のうち、前記事象情報に関する単語に該当することを示す前記ラベルが付された前記単語の前記確率が高くなるように、前記判定モデルのパラメータを更新する、ステップと、
を備える、情報処理方法。
単語の数によって示される前記ウインドウの長さは、5以上の奇数に設定される、付記5に記載の情報処理方法。
(f)分析対象となる分析用テキストを取得し、前記分析用テキストを字句解析することによって、前記分析用テキストにおける位置を示す位置情報が単語ごとに付された分析用単語列を生成する、ステップと、
(g)前記(f)のステップで生成された前記分析用単語列において、前記所定長さのウインドウの位置を前記分析用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の各単語を前記検出対象の単語にそれぞれ組み合せることによって得られる複数の分析用単語ペアを抽出する、ステップと、
(h)前記辞書モデルを用いて生成された、前記分析用単語列の複数の単語それぞれの意味ベクトルを、前記複数の分析用単語ペアの各単語に対応付けることによって、前記複数の分析用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた分析用行列を生成する、ステップと、
(i)前記(h)のステップで生成された複数の前記分析用行列と前記判定モデルとを用いて、前記分析用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、ステップと、を更に備える、付記5または6に記載の情報処理方法。
前記(i)のステップでは、前記分析用単語列の複数の単語のうち、閾値以上の確率が算出された単語を前記特定の事象対象の単語として抽出するとともに、抽出した前記単語の前記位置情報を出力する、付記7に記載の情報処理方法。
コンピュータに、
(a)訓練用テキスト、及び特定の事象情報に関する単語の前記訓練用テキストにおける位置を示す位置情報を取得し、前記訓練用テキストを字句解析することによって、前記訓練用テキストにおける位置を示す位置情報及び前記事象情報に関する単語に該当するか否かを示すラベルが単語ごとに付された訓練用単語列を生成する、ステップと、
(b)前記(a)のステップで生成された前記訓練用単語列において、検出対象の単語を中心とする所定長さのウインドウの位置を前記訓練用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の各単語を前記検出対象の単語にそれぞれ組み合せることによって得られる複数の訓練用単語ペアを抽出する、ステップと、
(c)予め設定された辞書モデルを用いて生成された、前記訓練用単語列の複数の単語それぞれの意味ベクトルを、前記複数の訓練用単語ペアの各単語に対応付けることによって、前記複数の訓練用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた訓練用行列を生成する、ステップと、
(d)前記(c)のステップで生成された複数の前記訓練用行列と畳み込みニューラルネットワークを用いた判定モデルとを用いて、前記訓練用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、ステップと、
(e)前記(d)のステップで算出された前記訓練用単語列の各位置の単語の前記確率のうち、前記事象情報に関する単語に該当することを示す前記ラベルが付された前記単語の前記確率が高くなるように、前記判定モデルのパラメータを更新する、ステップと、
を実行させる命令を含む、プログラム。
単語の数によって示される前記ウインドウの長さは、5以上の奇数に設定される、付記9に記載のプログラム。
前記コンピュータに、
(f)分析対象となる分析用テキストを取得し、前記分析用テキストを字句解析することによって、前記分析用テキストにおける位置を示す位置情報が単語ごとに付された分析用単語列を生成する、ステップと、
(g)前記(f)のステップで生成された前記分析用単語列において、前記所定長さのウインドウの位置を前記分析用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の各単語を前記検出対象の単語にそれぞれ組み合せることによって得られる複数の分析用単語ペアを抽出する、ステップと、
(h)前記辞書モデルを用いて生成された、前記分析用単語列の複数の単語それぞれの意味ベクトルを、前記複数の分析用単語ペアの各単語に対応付けることによって、前記複数の分析用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた分析用行列を生成する、ステップと、
(i)前記(h)のステップで生成された複数の前記分析用行列と前記判定モデルとを用いて、前記分析用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、ステップと、を実行させる命令を更に含む、付記9または10に記載のプログラム。
前記(i)のステップでは、前記分析用単語列の複数の単語のうち、閾値以上の確率が算出された単語を前記特定の事象対象の単語として抽出するとともに、抽出した前記単語の前記位置情報を出力する、付記11に記載のプログラム。
12 字句解析部
14 ペア生成部
16 行列生成部
18 分類部
20 最適化処理部
22 辞書モデル記憶部
24 パラメータ記憶部
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
Claims (12)
- 訓練用テキスト、及び特定の事象情報に関する単語の前記訓練用テキストにおける位置を示す位置情報を取得し、前記訓練用テキストを字句解析することによって、前記訓練用テキストにおける位置を示す位置情報及び前記事象情報に関する単語に該当するか否かを示すラベルが単語ごとに付された訓練用単語列を生成する、字句解析部と、
前記字句解析部が生成した前記訓練用単語列において、検出対象の単語を中心とする所定長さのウインドウの位置を前記訓練用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の各単語を前記検出対象の単語にそれぞれ組み合せることによって得られる複数の訓練用単語ペアを抽出する、ペア生成部と、
予め設定された辞書モデルを用いて生成された、前記訓練用単語列の複数の単語それぞれの意味ベクトルを、前記複数の訓練用単語ペアの各単語に対応付けることによって、前記複数の訓練用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた訓練用行列を生成する、行列生成部と、
前記行列生成部が生成した複数の前記訓練用行列と畳み込みニューラルネットワークを用いた判定モデルとを用いて、前記訓練用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、分類部と、
前記分類部が算出した前記訓練用単語列の各位置の単語の前記確率のうち、前記事象情報に関する単語に該当することを示す前記ラベルが付された前記単語の前記確率が高くなるように、前記判定モデルのパラメータを更新する、最適化処理部と、
を備える、情報処理装置。 - 単語の数によって示される前記ウインドウの長さは、5以上の奇数に設定される、請求項1に記載の情報処理装置。
- 前記字句解析部は、分析対象となる分析用テキストを取得し、前記分析用テキストを字句解析することによって、前記分析用テキストにおける位置を示す位置情報が単語ごとに付された分析用単語列を生成し、
前記ペア生成部は、前記字句解析部が生成した前記分析用単語列において、前記所定長さのウインドウの位置を前記分析用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の各単語を前記検出対象の単語にそれぞれ組み合せることによって得られる複数の分析用単語ペアを抽出し、
行列生成部は、前記辞書モデルを用いて生成された、前記分析用単語列の複数の単語それぞれの意味ベクトルを、前記複数の分析用単語ペアの各単語に対応付けることによって、前記複数の分析用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた分析用行列を生成し、
前記分類部は、前記行列生成部が生成した複数の前記分析用行列と前記判定モデルとを用いて、前記分析用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、請求項1または2に記載の情報処理装置。 - 前記分類部は、前記分析用単語列の複数の単語のうち、閾値以上の確率が算出された単語を前記特定の事象対象の単語として抽出するとともに、抽出した前記単語の前記位置情報を出力する、請求項3に記載の情報処理装置。
- コンピュータが実行する情報処理方法であって、
(a)訓練用テキスト、及び特定の事象情報に関する単語の前記訓練用テキストにおける位置を示す位置情報を取得し、前記訓練用テキストを字句解析することによって、前記訓練用テキストにおける位置を示す位置情報及び前記事象情報に関する単語に該当するか否かを示すラベルが単語ごとに付された訓練用単語列を生成する、ステップと、
(b)前記(a)のステップで生成された前記訓練用単語列において、検出対象の単語を中心とする所定長さのウインドウの位置を前記訓練用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の各単語を前記検出対象の単語にそれぞれ組み合せることによって得られる複数の訓練用単語ペアを抽出する、ステップと、
(c)予め設定された辞書モデルを用いて生成された、前記訓練用単語列の複数の単語それぞれの意味ベクトルを、前記複数の訓練用単語ペアの各単語に対応付けることによって、前記複数の訓練用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた訓練用行列を生成する、ステップと、
(d)前記(c)のステップで生成された複数の前記訓練用行列と畳み込みニューラルネットワークを用いた判定モデルとを用いて、前記訓練用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、ステップと、
(e)前記(d)のステップで算出された前記訓練用単語列の各位置の単語の前記確率のうち、前記事象情報に関する単語に該当することを示す前記ラベルが付された前記単語の前記確率が高くなるように、前記判定モデルのパラメータを更新する、ステップと、
を備える、情報処理方法。 - 単語の数によって示される前記ウインドウの長さは、5以上の奇数に設定される、請求項5に記載の情報処理方法。
- (f)分析対象となる分析用テキストを取得し、前記分析用テキストを字句解析することによって、前記分析用テキストにおける位置を示す位置情報が単語ごとに付された分析用単語列を生成する、ステップと、
(g)前記(f)のステップで生成された前記分析用単語列において、前記所定長さのウインドウの位置を前記分析用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の各単語を前記検出対象の単語にそれぞれ組み合せることによって得られる複数の分析用単語ペアを抽出する、ステップと、
(h)前記辞書モデルを用いて生成された、前記分析用単語列の複数の単語それぞれの意味ベクトルを、前記複数の分析用単語ペアの各単語に対応付けることによって、前記複数の分析用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた分析用行列を生成する、ステップと、
(i)前記(h)のステップで生成された複数の前記分析用行列と前記判定モデルとを用いて、前記分析用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、ステップと、を更に備える、請求項5または6に記載の情報処理方法。 - 前記(i)のステップでは、前記分析用単語列の複数の単語のうち、閾値以上の確率が算出された単語を前記特定の事象対象の単語として抽出するとともに、抽出した前記単語の前記位置情報を出力する、請求項7に記載の情報処理方法。
- コンピュータに、
(a)訓練用テキスト、及び特定の事象情報に関する単語の前記訓練用テキストにおける位置を示す位置情報を取得し、前記訓練用テキストを字句解析することによって、前記訓練用テキストにおける位置を示す位置情報及び前記事象情報に関する単語に該当するか否かを示すラベルが単語ごとに付された訓練用単語列を生成する、ステップと、
(b)前記(a)のステップで生成された前記訓練用単語列において、検出対象の単語を中心とする所定長さのウインドウの位置を前記訓練用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の各単語を前記検出対象の単語にそれぞれ組み合せることによって得られる複数の訓練用単語ペアを抽出する、ステップと、
(c)予め設定された辞書モデルを用いて生成された、前記訓練用単語列の複数の単語それぞれの意味ベクトルを、前記複数の訓練用単語ペアの各単語に対応付けることによって、前記複数の訓練用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた訓練用行列を生成する、ステップと、
(d)前記(c)のステップで生成された複数の前記訓練用行列と畳み込みニューラルネットワークを用いた判定モデルとを用いて、前記訓練用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、ステップと、
(e)前記(d)のステップで算出された前記訓練用単語列の各位置の単語の前記確率のうち、前記事象情報に関する単語に該当することを示す前記ラベルが付された前記単語の前記確率が高くなるように、前記判定モデルのパラメータを更新する、ステップと、
を実行させる命令を含む、プログラム。 - 単語の数によって示される前記ウインドウの長さは、5以上の奇数に設定される、請求項9に記載のプログラム。
- 前記コンピュータに、
(f)分析対象となる分析用テキストを取得し、前記分析用テキストを字句解析することによって、前記分析用テキストにおける位置を示す位置情報が単語ごとに付された分析用単語列を生成する、ステップと、
(g)前記(f)のステップで生成された前記分析用単語列において、前記所定長さのウインドウの位置を前記分析用単語列の先頭から末尾に向かって一単語分ずつ移動させながら、各位置における前記ウインドウ内で前記検出対象の単語以外の各単語を前記検出対象の単語にそれぞれ組み合せることによって得られる複数の分析用単語ペアを抽出する、ステップと、
(h)前記辞書モデルを用いて生成された、前記分析用単語列の複数の単語それぞれの意味ベクトルを、前記複数の分析用単語ペアの各単語に対応付けることによって、前記複数の分析用単語ペアごとに、各単語とその単語の前記意味ベクトルとが対応付けられた分析用行列を生成する、ステップと、
(i)前記(h)のステップで生成された複数の前記分析用行列と前記判定モデルとを用いて、前記分析用単語列の各位置の単語について、前記特定の事象情報に関する単語に該当する確率を算出する、ステップと、を実行させる命令を更に含む、請求項9または10に記載のプログラム。 - 前記(i)のステップでは、前記分析用単語列の複数の単語のうち、閾値以上の確率が算出された単語を前記特定の事象対象の単語として抽出するとともに、抽出した前記単語の前記位置情報を出力する、請求項11に記載のプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/040665 WO2019092868A1 (ja) | 2017-11-10 | 2017-11-10 | 情報処理装置、情報処理方法及びコンピュータ読み取り可能な記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019092868A1 JPWO2019092868A1 (ja) | 2020-11-12 |
JP7014230B2 true JP7014230B2 (ja) | 2022-02-01 |
Family
ID=66438876
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019551849A Active JP7014230B2 (ja) | 2017-11-10 | 2017-11-10 | 情報処理装置、情報処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11507744B2 (ja) |
JP (1) | JP7014230B2 (ja) |
WO (1) | WO2019092868A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9690938B1 (en) | 2015-08-05 | 2017-06-27 | Invincea, Inc. | Methods and apparatus for machine learning based malware detection |
WO2017223294A1 (en) * | 2016-06-22 | 2017-12-28 | Invincea, Inc. | Methods and apparatus for detecting whether a string of characters represents malicious activity using machine learning |
WO2019092867A1 (ja) * | 2017-11-10 | 2019-05-16 | 日本電気株式会社 | 情報処理装置、情報処理方法及びコンピュータ読み取り可能な記録媒体 |
CN115048486B (zh) * | 2022-05-24 | 2024-05-31 | 支付宝(杭州)信息技术有限公司 | 事件抽取方法、装置、计算机程序产品、存储介质及设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5382651B2 (ja) * | 2009-09-09 | 2014-01-08 | 独立行政法人情報通信研究機構 | 単語対取得装置、単語対取得方法、およびプログラム |
US20150186790A1 (en) * | 2013-12-31 | 2015-07-02 | Soshoma Inc. | Systems and Methods for Automatic Understanding of Consumer Evaluations of Product Attributes from Consumer-Generated Reviews |
EP3173983A1 (en) * | 2015-11-26 | 2017-05-31 | Siemens Aktiengesellschaft | A method and apparatus for providing automatically recommendations concerning an industrial system |
-
2017
- 2017-11-10 US US16/761,318 patent/US11507744B2/en active Active
- 2017-11-10 JP JP2019551849A patent/JP7014230B2/ja active Active
- 2017-11-10 WO PCT/JP2017/040665 patent/WO2019092868A1/ja active Application Filing
Non-Patent Citations (2)
Title |
---|
WANG, Peng, et al.,Semantic Clustering and Convolutional Neural Network for Short Text Categorization,Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics,2015年,p.352-357,[検索日:2021.06.09], インターネット<URL:https://www.aclweb.org/anthology/P15-2058.pdf> |
YIN, W. P. and SCHUTZE, H.,Multichannel variable-size convolution for sentence classification,arXiv: 1603.04513,2015年03月15日,[検索日:2021.06.09], インターネット:<URL:https://arxiv.org/abs/1603.04513> |
Also Published As
Publication number | Publication date |
---|---|
US11507744B2 (en) | 2022-11-22 |
US20210192137A1 (en) | 2021-06-24 |
JPWO2019092868A1 (ja) | 2020-11-12 |
WO2019092868A1 (ja) | 2019-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102184278B1 (ko) | 메타학습에 기반한 임의의 목표 데이터셋과 모델 구조로의 전이학습 방법 및 시스템 | |
JP7014230B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7110240B2 (ja) | ニューラルネットワーク分類 | |
US11468324B2 (en) | Method and apparatus with model training and/or sequence recognition | |
JP6860084B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP5946073B2 (ja) | 推定方法、推定システム、コンピュータ・システムおよびプログラム | |
CN111414987B (zh) | 神经网络的训练方法、训练装置和电子设备 | |
US10796098B2 (en) | Instruction understanding system and instruction understanding method | |
CN113378940B (zh) | 神经网络训练方法、装置、计算机设备及存储介质 | |
US20180246856A1 (en) | Analysis method and analysis device | |
US20230065965A1 (en) | Text processing method and apparatus | |
WO2014073206A1 (ja) | 情報処理装置、及び、情報処理方法 | |
CN112784582A (zh) | 纠错方法、装置和计算设备 | |
CN109919214B (zh) | 一种神经网络模型的训练方法及训练装置 | |
CN109597982A (zh) | 摘要文本识别方法及装置 | |
AU2015204339A1 (en) | Information processing apparatus and information processing program | |
US20230130662A1 (en) | Method and apparatus for analyzing multimodal data | |
CN111488400A (zh) | 数据分类方法、装置和计算机可读存储介质 | |
US11620812B2 (en) | Online distillation using frame cache | |
US11593569B2 (en) | Enhanced input for text analytics | |
JP7388660B2 (ja) | 情報処理装置、利用者端末、情報処理方法、及び情報処理プログラム | |
KR102668118B1 (ko) | 자연어 기반의 비디오 검색을 위한 학습 장치 및 학습 방법 | |
KR102619523B1 (ko) | 다중 필터링을 이용한 개인정보 탐지 강화 방법 및 장치 | |
US20220092260A1 (en) | Information output apparatus, question generation apparatus, and non-transitory computer readable medium | |
WO2022185457A1 (ja) | 特徴量抽出装置、学習装置、特徴量抽出方法、学習方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200427 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210622 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220103 |