JP6059598B2 - Information extraction method, information extraction apparatus, and information extraction program - Google Patents
Information extraction method, information extraction apparatus, and information extraction program Download PDFInfo
- Publication number
- JP6059598B2 JP6059598B2 JP2013106917A JP2013106917A JP6059598B2 JP 6059598 B2 JP6059598 B2 JP 6059598B2 JP 2013106917 A JP2013106917 A JP 2013106917A JP 2013106917 A JP2013106917 A JP 2013106917A JP 6059598 B2 JP6059598 B2 JP 6059598B2
- Authority
- JP
- Japan
- Prior art keywords
- candidate
- extraction
- combination
- storage means
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、文書から情報を検索する技術に関する。 The present invention relates to a technique for retrieving information from a document.
ローカルなイベント開催情報について記述されているウェブページやブログ記事からイベント情報を自動的に抽出することにより、人手コストをかけずにイベント情報データベースを構築することが可能となり、イベント推薦サービスなどに活用することができる。 By automatically extracting event information from web pages and blog articles that describe local event information, it is possible to construct an event information database without human labor, and use it for event recommendation services, etc. can do.
テキストからイベント情報を抽出するためには、例えば、非特許文献1〜3を用いて、イベント名、場所、日時などの各カテゴリに対する候補を抽出することができる。また、それぞれのカテゴリについて人手によってタグ付けされた正解データがあれば、教師あり機械学習の枠組みを用いてイベント名、場所、日時に対して自動的に判別を行う判別器を構築することができ、ウェブ文書などから自動的にイベント名、場所、日時を抽出することができる。
In order to extract the event information from the text, for example, using
個別に判別器を適用するのではなく、予測に構造を持たせ、抽出された候補の中から正しい組み合わせを選択するモデルを構築する構造出力学習を用いる方法が考えられる。この場合、例えば非特許文献5を用いて予測モデルを構築することができる。 Instead of individually applying a discriminator, there is a method using structure output learning in which a structure is provided for prediction and a model for selecting a correct combination from extracted candidates is constructed. In this case, for example, a prediction model can be constructed using Non-Patent Document 5.
しかしながら、非特許文献1など固有表現抽出を用いる方法はイベント名抽出の方法ではないため、適切なイベント名候補の取得に失敗するという問題があった。本発明の予測モデルは、与えられた予測候補から組み合わせを選択するため、適切な候補が存在しない場合には、適切なイベント名を取得することができずに精度が低下するおそれがあった。
However, since a method using specific expression extraction such as Non-Patent
本発明は、上記に鑑みてなされたものであり、文書中から関連性のあるカテゴリの情報を抽出する際に、適切な候補を抽出しつつ、学習コストの増加を防ぐことを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to prevent an increase in learning cost while extracting appropriate candidates when extracting information of relevant categories from a document.
第1の本発明に係る情報抽出装置は、関連性のあるカテゴリそれぞれの候補を文書情報から抽出して格納した抽出候補記憶手段と、文書情報から抽出した前記候補のうち、当該候補が同じカテゴリの別の候補の部分文字列となっている場合に、前記別の候補の文字数に対する当該候補の文字数の割合が予め設定した除去比率に満たないときは当該候補を除去する候補除去手段と、カテゴリそれぞれの正解を格納した正解記憶手段と、関連性のあるカテゴリの情報を抽出するための抽出モデルを格納する抽出モデル記憶手段と、前記抽出候補記憶手段に格納されたカテゴリそれぞれの候補の全ての可能な組み合わせに対して、当該組み合わせの特徴を表す特徴ベクトルを計算する特徴ベクトル計算手段と、前記抽出モデル記憶手段に格納された抽出モデルと前記特徴ベクトルを用いて算出されるスコアが最大となる組み合わせを取得する組み合わせ取得手段と、前記正解記憶手段から前記正解の組み合わせを読み出してスコアを計算し、前記正解の組み合わせのスコアに対する前記組み合わせ取得手段が取得した組み合わせのスコアの損失が所定の範囲内の場合は、前記抽出モデル記憶手段に格納された抽出モデルを更新する抽出モデル更新手段と、を有し、カテゴリそれぞれの候補を予測対象文書情報から抽出して格納した予測対象抽出候補記憶手段と、前記予測対象抽出候補記憶手段に格納された前記カテゴリそれぞれの候補の全ての可能な組み合わせに対して、当該組み合わせの特徴を表す特徴ベクトルを計算し、前記抽出モデル記憶手段に格納された抽出モデルと前記特徴ベクトルを用いて算出されるスコアが最大となる組み合わせを取得する情報抽出手段と、を有することを特徴とする。 The information extraction apparatus according to the first aspect of the present invention includes an extraction candidate storage unit that extracts and stores candidates for each related category from the document information, and among the candidates extracted from the document information, the candidates in the same category If the ratio of the number of characters of the candidate with respect to the number of characters of the other candidate is less than a preset removal ratio, a candidate removing unit that removes the candidate, and a category Correct answer storage means for storing each correct answer, extraction model storage means for extracting an extraction model for extracting information of relevant categories, and all candidates for each category stored in the extraction candidate storage means for the possible combinations, the feature vector calculating means for calculating a feature vector indicating the feature of the combination were stored in the extraction model storage means A combination acquisition unit that acquires a combination having a maximum score calculated using the outgoing model and the feature vector; and a calculation of a score by reading the combination of the correct answers from the correct answer storage unit, and a score for the combination of the correct answers An extraction model update unit that updates the extraction model stored in the extraction model storage unit when the loss of the combination score acquired by the combination acquisition unit is within a predetermined range; a prediction target extracting candidate storage means for storing extracted from the prediction target document information, for all possible combinations of the prediction target extraction candidate storage unit the category of each stored in a candidate, indicating the feature of the combination A feature vector is calculated, and the extracted model stored in the extracted model storage means and the feature vector are stored. Score is calculated using the torque is characterized by having a, an information extracting means for obtaining a combination that maximizes.
上記情報抽出装置において、前記候補が前記正解の部分文字列である場合と部分文字列でない場合の誤りコストを格納したコスト記憶手段を更に備え、前記抽出モデル更新手段は、前記コスト記憶手段から前記誤りコストを読み出して前記正解に対する前記候補の一致の割合に応じたコストを求め、求めたコストを前記所定の範囲とすることを特徴とする。 The information extraction apparatus further includes cost storage means for storing an error cost when the candidate is the correct partial character string and when the candidate is not the partial character string, and the extraction model update means includes the cost storage means from the cost storage means. An error cost is read out, a cost corresponding to the proportion of the candidates corresponding to the correct answer is obtained, and the obtained cost is set as the predetermined range.
第2の本発明に係る情報抽出方法は、コンピュータが実行する情報抽出方法であって、関連性のあるカテゴリそれぞれの候補を文書情報から抽出して格納した抽出候補記憶手段に格納された前記候補のうち、当該候補が同じカテゴリの別の候補の部分文字列となっている場合に、前記別の候補の文字数に対する当該候補の文字数の割合が予め設定した除去比率に満たないときは当該候補を除去するステップと、前記抽出候補記憶手段に格納されたカテゴリそれぞれの候補の全ての可能な組み合わせに対して、当該組み合わせの特徴を表す特徴ベクトルを計算するステップと、抽出モデル記憶手段に格納された抽出モデルと前記特徴ベクトルを用いて算出されるスコアが最大となる組み合わせを取得するステップと、前記カテゴリそれぞれの正解を格納した正解記憶手段から前記正解の組み合わせを読み出してスコアを計算し、前記正解の組み合わせのスコアに対する前記スコアが最大となる組み合わせを取得するステップで取得した組み合わせのスコアの損失が所定の範囲内の場合は、前記抽出モデル記憶手段に格納された抽出モデルを更新するステップと、を有し、カテゴリそれぞれの候補を予測対象文書情報から抽出して格納した予測対象抽出候補記憶手段に格納された前記カテゴリそれぞれの候補の全ての可能な組み合わせに対して、当該組み合わせの特徴を表す特徴ベクトルを計算し、前記抽出モデル記憶手段に格納された抽出モデルと前記特徴ベクトルを用いて算出されるスコアが最大となる組み合わせを取得するステップを有することを特徴とする。
An information extraction method according to a second aspect of the present invention is an information extraction method executed by a computer, wherein the candidates stored in extraction candidate storage means for extracting and storing candidates for each related category from document information are stored. If the candidate is a partial character string of another candidate of the same category, if the ratio of the number of characters of the candidate to the number of characters of the other candidate is less than a preset removal ratio, the candidate is Removing, for each possible combination of each category candidate stored in the extraction candidate storage means, calculating a feature vector representing the characteristics of the combination, and stored in the extraction model storage means Obtaining a combination having a maximum score calculated using the extracted model and the feature vector; The combination of the scores obtained in the step of calculating the score by reading the combination of correct answers from the correct answer storage means storing the score and obtaining the combination with the maximum score for the score of the correct combination is within a predetermined range. In this case, the method includes a step of updating the extraction model stored in the extraction model storage unit, and stored in the prediction target extraction candidate storage unit that extracts and stores candidates for each category from the prediction target document information. For all possible combinations of candidates for each category, a feature vector representing the characteristics of the combination is calculated, and a score calculated using the extracted model stored in the extracted model storage means and the feature vector is It has the step which acquires the combination which becomes the largest, It is characterized by the above-mentioned.
上記情報抽出方法において、前記抽出モデルを更新するステップは、前記候補が前記正解の部分文字列である場合と部分文字列でない場合の誤りコストを格納したコスト記憶手段から前記誤りコストを読み出して前記正解に対する前記候補の一致の割合に応じたコストを求め、求めたコストを前記所定の範囲とすることを特徴とする。 In the information extraction method, the step of updating the extraction model reads the error cost from cost storage means storing error costs when the candidate is the correct partial character string and when it is not the partial character string, and A cost according to the proportion of the candidates corresponding to the correct answer is obtained, and the obtained cost is set as the predetermined range.
第3の本発明に係る情報抽出プログラムは、上記情報抽出装置の各手段としてコンピュータを動作させることを特徴とする。 An information extraction program according to a third aspect of the present invention is characterized in that a computer is operated as each means of the information extraction apparatus.
本発明によれば、文書中から関連性のあるカテゴリの情報を抽出する際に、適切な候補を抽出し、学習コストの増加を防ぐことができる。 ADVANTAGE OF THE INVENTION According to this invention, when extracting the information of the category which is relevant from a document, an appropriate candidate is extracted and the increase in learning cost can be prevented.
以下、本発明の実施の形態について図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本実施の形態におけるイベント情報抽出装置の構成を示す機能ブロック図である。図1に示すイベント情報抽出装置は、文書DB10、イベント名候補抽出機能15(候補除去手段に対応)、抽出候補DB20(抽出候補記憶手段に対応)、正解DB30(正解記憶手段に対応)、コストDB40(コスト記憶手段に対応)、イベント抽出モデル学習機能50(特徴ベクトル計算手段、組み合わせ取得手段及び抽出モデル更新手段に対応)、イベント抽出モデルDB60(抽出モデル記憶手段に対応)、予測対象文書DB70、予測対象抽出候補DB80(予測対象抽出候補記憶手段に対応)、イベント抽出機能90(情報抽出手段に対応)、およびイベントDB100を備える。イベント情報抽出装置が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムはイベント情報抽出装置が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。
FIG. 1 is a functional block diagram showing the configuration of the event information extraction apparatus in the present embodiment. 1 includes a
まず、イベント抽出モデルを生成する処理で利用する文書DB10、抽出候補DB20、正解DB30、コストDB40に格納された情報について説明する。
First, the information stored in the
文書DB10は、イベント情報の抽出対象となる本文情報(テキストデータ)に文書IDを付与して格納する。図2に、文書DB10に格納されたデータの例を示す。
The
抽出候補DB20は、文書DB10が格納する本文情報それぞれから抽出したイベント名候補、場所候補、日時候補を文書ID毎に格納する。図3に、抽出候補DB20に格納されたデータの例を示す。図3に示す例では、文書IDが1の本文情報から抽出されたイベント名候補として、「イベント」「小樽ロングクリスマス2012Final」の2つが格納されている。図3には示していないが、イベント名候補、場所候補、日時候補については、本文情報中の出現位置情報を付与している。イベント名候補は、イベント名候補抽出機能15が文書DB10が格納する本文情報から抽出する。場所候補の抽出には非特許文献2を、日時候補の抽出には非特許文献3を用いることで、文書DB10に格納された本文情報から抽出候補DB20に格納するデータを生成可能である。イベント名、場所、日時を抽出することができれば、場所や日時に基づいたイベント推薦が可能となるため、本実施の形態では、これらの3つの情報を1つのイベント情報の単位とする。イベント名、場所、日時をイベント情報のカテゴリと呼ぶ。本実施の形態では、イベント情報のカテゴリとしてイベント名、場所、日時を用いるが、それ以外の情報(例えば料金,主催団体など)についても本実施形態と同じ枠組みで実現可能である。
The
正解DB30は、文書DB10が格納する本文情報それぞれについて、各カテゴリの正解、つまり正解イベント名、正解場所、正解日時を格納する。図4に、正解DB30に格納されたデータの例を示す。これらの正解は、人手によってあらかじめ作成されているものとする。なお、抽出候補DB20と同様に、本文情報中の出現位置情報を付与している。
The correct answer DB 30 stores the correct answer of each category, that is, the correct event name, the correct answer place, and the correct date and time for each of the text information stored in the
コストDB40は、誤りタイプに対するコストを格納する。図5に、コストDB40に格納されたデータの例を示す。図5中の substring は正解イベント名の部分文字列であった場合の誤りコスト、others はその他の誤りに対する誤りコストを表す。substring の値は others の値より小さく設定されているものとする。これらのコストは人手によってあらかじめ作成されているものとする。
The cost DB 40 stores the cost for the error type. FIG. 5 shows an example of data stored in the
次に、イベント名候補抽出機能15の処理の流れを説明する。
Next, the process flow of the event name
図6は、イベント名候補抽出機能15の処理の流れを示すフローチャートである。
FIG. 6 is a flowchart showing a process flow of the event name
まず、文書DB10から未処理のレコードを選択する(ステップS11)。 First, an unprocessed record is selected from the document DB 10 (step S11).
選択したレコードが持つテキストデータからイベント名候補を抽出する(ステップS12)。イベント名候補の抽出には、テキストデータを単語分割して各単語に対する品詞情報を付与し(例えば、Takeshi Fuchi, “Japanese Morphological Analyzer using Word Co-occurence - JTAG”, COLING-ACL, pp.409-413, 1998を用いる)、得られた品詞情報に基いて、連続した名詞および「の」で連接された単語列を全てイベント名候補集合Sとする。例えば、「第20回」「横須賀」「祭り」という連続した名詞に単語分割が行われた場合、以下の6通りがイベント名候補として抽出される。 Event name candidates are extracted from the text data of the selected record (step S12). To extract event name candidates, text data is divided into words and part-of-speech information is added to each word (for example, Takeshi Fuchi, “Japanese Morphological Analyzer using Word Co-occurence-JTAG”, COLING-ACL, pp.409- 413, 1998), based on the obtained part-of-speech information, consecutive nouns and word strings connected by “no” are all set as event name candidate sets S. For example, when word division is performed on consecutive nouns such as “20th”, “Yokosuka”, and “Festival”, the following six event names are extracted.
・第20回
・第20回横須賀
・第20回横須賀祭り
・横須賀
・横須賀祭り
・祭り
・ 20th ・ 20th Yokosuka ・ 20th Yokosuka Festival ・ Yokosuka ・ Yokosuka Festival ・ Festival
そして、得られたイベント名候補集合Sの中から、部分文字列である候補の一部を除去する(ステップS13)。イベント名候補が増加することにより、全てのカテゴリにおける可能な候補の組み合わせの数が増加するため、イベント抽出モデル学習機能50におけるモデル生成のコストが高くなる。そこで、本実施の形態ではイベント名候補の一部を除去する。除去の方法としては、予め人手によって設定された除去比率0<λ≦1を用いて、イベント名候補が別のイベント名候補の部分文字列となっている場合に、別のイベント名候補の文字数に対する部分文字列の文字数の割合が除去比率λに満たないときは、部分文字列を除去する。例えばλ=1の場合、上述の例においては「第20回横須賀祭り」以外のイベント名候補が全て除去される。
Then, from the obtained event name candidate set S, a part of candidates that are partial character strings is removed (step S13). As the number of event name candidates increases, the number of possible candidate combinations in all categories increases, which increases the cost of model generation in the event extraction
ステップS13で得られたイベント名候補を抽出候補DB20の対応するレコードに出力する(ステップS14)。 The event name candidate obtained in step S13 is output to the corresponding record in the extraction candidate DB 20 (step S14).
文書DB10に未処理のレコードがある場合には(ステップS15のYes)、ステップS11に戻って次のレコードを取得し、未処理のレコードがない場合は(ステップS15のNo)、処理を終了する。 If there is an unprocessed record in the document DB 10 (Yes in step S15), the process returns to step S11 to acquire the next record, and if there is no unprocessed record (No in step S15), the process ends. .
続いて、イベント抽出モデル学習機能50の処理の流れを説明する。
Next, the process flow of the event extraction
図7は、イベント抽出モデル学習機能50の処理の流れを示すフローチャートである。
FIG. 7 is a flowchart showing a processing flow of the event extraction
最初に、重みベクトルwをw=(0,0,0,・・・,0)Tと初期化し、繰り返しカウンタtをt←1と初期化する(ステップS21)。重みベクトルwは、イベント抽出モデルDB60に格納されたイベント抽出モデルである。重みベクトルwの次元数は後述する特徴ベクトル数と同じM次元とする。
First, the weight vector w is initialized as w = (0, 0, 0,..., 0) T, and the repetition counter t is initialized as t ← 1 (step S21). The weight vector w is an event extraction model stored in the event
続いて、正解DB30からランダムに1レコードを選択する(ステップS22)。ここで選択したレコードの文書IDをdとする。 Subsequently, one record is selected at random from the correct answer DB 30 (step S22). The document ID of the record selected here is d.
続いて、抽出候補DB20から文書IDがdのレコードを選択して、全てのカテゴリにおける可能な候補の組み合わせの集合(以下、「カテゴリ組み合わせ集合」と称する)を作成し、カテゴリ組み合わせ集合に含まれる全ての組み合わせについて特徴ベクトルを作成する(ステップS23)。図3に示す抽出候補DB20の文書IDが2のレコードから作成するカテゴリ組み合わせ集合は以下のようになる。
Subsequently, a record with the document ID d is selected from the
第20回横須賀祭り − 神奈川県横須賀市 − 2012年10月20日
第20回横須賀祭り − 神奈川県横須賀市 − 2012年12月20日
・・・
お祭り − 東京都 − 2013年1月1日
The 20th Yokosuka Festival-Yokosuka City, Kanagawa Prefecture-October 20, 2012 The 20th Yokosuka Festival-Yokosuka City, Kanagawa Prefecture-December 20, 2012 ・ ・ ・
Festival-Tokyo-January 1, 2013
このように、本実施の形態におけるカテゴリ組み合わせ集合は、イベント名候補、場所候補、日時候補について全ての可能な候補の組み合わせの集合となる。上記の図3の文書IDが2の例では、イベント名候補が2つ、場所候補が2つ、日時候補が3つであるので、2・2・3=12通りの組み合わせが存在する。ここで正解DB30の選択されたレコードに格納されたイベント名、場所、日時を持つ組み合わせを正解として扱い、それ以外の組み合わせについては誤り組み合わせとし、どのカテゴリが誤っているかという情報を同時に保持しているものとする。例えば、場所と日時が正解と異なる場合、場所、日時誤りと判定する。このように、誤り組み合わせは1つ以上の誤ったカテゴリを持つ。
Thus, the category combination set in the present embodiment is a set of all possible candidate combinations for event name candidates, place candidates, and date / time candidates. In the example of
ステップS23では、さらに、作成したカテゴリ組み合わせ集合と文書DB10から取得した本文情報をもとに、各カテゴリ組み合わせの特徴を表す特徴ベクトルΦ(y,x)を作成する。ここで、xは当該文書IDに対応する本文情報のベクトル表現であり、yはカテゴリ組み合わせ集合の要素(カテゴリ組み合わせ)である。Φ(y,x)はM次元ベクトルであり、yとxを入力とするM個のイベント情報らしさを捉えるための特徴関数φ(y,x)の出力で構成される。特徴関数φ(y,x)の例としては、例えば「yの3つの候補が文書内の近い位置に出現する」という特徴を捉えるため、3つの表現が50文字以内に出現する場合に1、そうでない場合に0を出力する特徴関数が挙げられる。また、別の例としては、イベント名に含まれる文字列が本文内の他の場所で出現もする場合に1、そうでない場合に0を出力する特徴関数が考えられる。その他の文字列に基づく基本的な特徴関数としては、例えば非特許文献4の方法を用いることができる。
In step S23, a feature vector Φ (y, x) representing the feature of each category combination is further created based on the created category combination set and the text information acquired from the
続いて、コストDB40に格納されたコストを用いてイベント名の誤りに対するコストを計算する(ステップS24)。具体的には、カテゴリ組み合わせ集合のイベント名が正解イベント名の部分文字列である場合には、コストDB40における substring の値をcostsubstringとし、次式(1)を用いてコストを算出する。
ここで、lengthsubstringは当該部分文字列の文字列長、lengthcorrect_stringは正解イベント名の文字列長を表す。部分文字列長が短くなればなるほどコストの値が大きくなるため、このようなイベント名候補を選択するモデルを生成しないようなペナルティ項の効果を果たす。 Here, length substring represents the character string length of the partial character string, and length correct_string represents the character string length of the correct event name. Since the cost value increases as the partial character string length becomes shorter, the effect of a penalty term that does not generate a model for selecting such event name candidates is achieved.
カテゴリ組み合わせ集合のイベント名が正解イベント名の部分文字列でない場合には、コストDB40における others の値をコストとして用いる。others の値を substring の値よりも大きくしているので、カテゴリ組み合わせ集合のイベント名が正解イベント名の部分文字列ではない誤りに比べて部分文字列である誤りを選択する、また、部分文字列である誤りにおいても正解イベント名により近い文字列を選択するようなモデルを生成する効果を生み出す。
If the event name of the category combination set is not a partial character string of the correct event name, the value of others in the
続いて、現在の重みベクトルwで最大スコアとなるカテゴリ組み合わせを求める(ステップS25)。最大スコアとなるカテゴリ組み合わせは、次式(2)で計算する。
ここで、Ytはt番目のイテレーションにおいて選択された文書におけるカテゴリ組み合わせ集合、ytは正解のカテゴリ組み合わせ、xtは該当文書の本文情報である。ただし、costを加算しなくてもよい。 Here, Y t is the category combination sets in the document selected in the t-th iteration, the y t category combinations of answer, is x t is the body information of the document. However, it is not necessary to add cost.
続いて、ステップS25で求めた最大スコアのカテゴリ組み合わせの損失を計算し、損失が0より大きい場合は重みベクトルwを更新する(ステップS26)。t番目のイテレーションにおける損失ltは次式(3)で計算する。
損失lt>0の場合、損失ltに応じて重みベクトルwを更新する。重みベクトルの更新には、例えば非特許文献5の方法を用いることができる。 When the loss l t > 0, the weight vector w is updated according to the loss l t . For example, the method of Non-Patent Document 5 can be used to update the weight vector.
そして、繰り返しカウンタtを増分し(ステップS27)、あらかじめ定めた繰り返し回数T以下の場合(ステップS28のYes)、ステップS22に戻り、繰り返しカウンタtが繰り返し回数Tを超えた場合(ステップS28のNo)、重みベクトルwをイベント抽出モデルDB60に出力する(ステップS29)。 Then, the repeat counter t is incremented (step S27), and if it is less than or equal to a predetermined repeat count T (Yes in step S28), the process returns to step S22, and if the repeat counter t exceeds the repeat count T (No in step S28). ), And outputs the weight vector w to the event extraction model DB 60 (step S29).
次に、イベント抽出機能90について説明する。イベント抽出機能90は、イベント抽出モデルDB60に格納されたイベント抽出モデルを用いて、予測対象文書DB70、予測対象抽出候補DB80に格納された情報からイベント情報を抽出する。
Next, the
イベント抽出モデルDB60は、イベント抽出モデル学習機能50が求めたイベント抽出モデルを格納する。イベント抽出モデルは、M次元の特徴に対する重みベクトルw=(w1,w2,・・・,wM)Tで構成される。図8に、イベント抽出モデルDB60に格納されたイベント抽出モデルの例を示す。
The event
予測対象文書DB70は、文書DB10と同様に、イベント情報の抽出対象となる本文情報に文書IDを付与して格納する。図9に、予測対象文書DB70に格納されたデータの例を示す。
Similar to the
予測対象抽出候補DB80は、抽出候補DB20と同様に、予測対象文書DB70が格納する本文情報それぞれから抽出したイベント名候補、場所候補、日時候補を格納する。図10に、予測対象抽出候補DB80に格納されたデータの例を示す。
Like the
続いて、イベント抽出機能90の処理の流れを説明する。
Next, the process flow of the
図11は、イベント抽出機能90の処理の流れを示すフローチャートである。
FIG. 11 is a flowchart showing a process flow of the
まず、予測対象文書DB70から未処理のレコードを選択する(ステップS31)。ここで選択したレコードの文書IDをd’とする。 First, an unprocessed record is selected from the prediction target document DB 70 (step S31). It is assumed that the document ID of the record selected here is d ′.
予測対象抽出候補DB80から文書IDがd’のレコードを選択してカテゴリ組み合わせ集合を作成し、カテゴリ組み合わせ集合に含まれる全てのカテゴリ組み合わせについて特徴ベクトルを作成する(ステップS32)。イベント抽出モデル学習機能50によるステップS13と同じ処理によって特徴ベクトルΦ(y,x)を作成する。
A record with a document ID of d 'is selected from the prediction target
続いて、イベント抽出モデルDB60に格納されたイベント抽出モデルを用いて最大スコアを与えるカテゴリ組み合わせを取得する(ステップS33)。具体的には、次式(4)に示すように、イベント抽出モデルDB60に格納された重さベクトルwとステップS32で作成した特徴ベクトルΦ(y,x)との内積を計算して、最大スコアを与えるカテゴリ組み合わせを取得する。
ここで、Ytestは入力文書におけるカテゴリ組み合わせ集合、xは入力文書の本文情報である。 Here, Y test is a set of category combinations in the input document, and x is text information of the input document.
ステップS33で取得したカテゴリ組み合わせの各カテゴリをイベントDB100に出力する(ステップS34)。 Each category of the category combination acquired in step S33 is output to the event DB 100 (step S34).
予測対象文書DB70に未処理のレコードがある場合には(ステップS35のYes)、ステップS31に戻り、次のレコードを取得し、未処理のレコードがない場合は(ステップS35のNo)、処理を終了する。 If there is an unprocessed record in the prediction target document DB 70 (Yes in step S35), the process returns to step S31 to acquire the next record. If there is no unprocessed record (No in step S35), the process is performed. finish.
図12に、イベントDB100に格納されたイベント情報の例を示す。イベントDB100には、文書ID毎に抽出されたイベント情報が格納される。
FIG. 12 shows an example of event information stored in the
以上説明したように、本実施の形態によれば、イベント名候補抽出機能15が、イベント名候補が別のイベント名候補の部分文字列となっている場合に、別のイベント名候補の文字数に対する部分文字列の文字数の割合が除去比率λに満たないときは、部分文字列を除去することにより、適切なイベント名候補を抽出し、イベント名候補の数を減らして学習コストの増加を防ぐことができる。
As described above, according to the present embodiment, when the event name
本実施の形態によれば、正解イベント名に対するイベント名候補の一致の割合に応じて誤りコストを求めることにより、正解イベント名の部分文字列である候補に対して、より短い部分文字列に対して誤りコストを高く、かつ、部分文字列でない誤りに比べて誤りコストを低く設定することができる。 According to the present embodiment, by obtaining an error cost according to the rate of match of event name candidates to correct event names, a candidate for a partial character string of correct event names can be compared with a shorter partial character string. Thus, the error cost can be increased and the error cost can be set lower than an error that is not a partial character string.
10…文書DB
15…イベント名候補抽出機能
20…抽出候補DB
30…正解DB
40…コストDB
50…イベント抽出モデル学習機能
60…イベント抽出モデルDB
70…予測対象文書DB
80…予測対象抽出候補DB
90…イベント抽出機能
100…イベントDB
10 ... Document DB
15 ... Event name
30 ... Correct DB
40 ... Cost DB
50 ... Event extraction
70 ... prediction target document DB
80 ... prediction target extraction candidate DB
90 ...
Claims (5)
文書情報から抽出した前記候補のうち、当該候補が同じカテゴリの別の候補の部分文字列となっている場合に、前記別の候補の文字数に対する当該候補の文字数の割合が予め設定した除去比率に満たないときは当該候補を除去する候補除去手段と、
カテゴリそれぞれの正解を格納した正解記憶手段と、
関連性のあるカテゴリの情報を抽出するための抽出モデルを格納する抽出モデル記憶手段と、
前記抽出候補記憶手段に格納されたカテゴリそれぞれの候補の全ての可能な組み合わせに対して、当該組み合わせの特徴を表す特徴ベクトルを計算する特徴ベクトル計算手段と、
前記抽出モデル記憶手段に格納された抽出モデルと前記特徴ベクトルを用いて算出されるスコアが最大となる組み合わせを取得する組み合わせ取得手段と、
前記正解記憶手段から前記正解の組み合わせを読み出してスコアを計算し、前記正解の組み合わせのスコアに対する前記組み合わせ取得手段が取得した組み合わせのスコアの損失が所定の範囲内の場合は、前記抽出モデル記憶手段に格納された抽出モデルを更新する抽出モデル更新手段と、を有し、
カテゴリそれぞれの候補を予測対象文書情報から抽出して格納した予測対象抽出候補記憶手段と、
前記予測対象抽出候補記憶手段に格納された前記カテゴリそれぞれの候補の全ての可能な組み合わせに対して、当該組み合わせの特徴を表す特徴ベクトルを計算し、前記抽出モデル記憶手段に格納された抽出モデルと前記特徴ベクトルを用いて算出されるスコアが最大となる組み合わせを取得する情報抽出手段と、を有すること
を特徴とする情報抽出装置。 Extraction candidate storage means for extracting and storing candidates for each relevant category from document information;
Among the candidates extracted from the document information, when the candidate is a partial character string of another candidate of the same category, the ratio of the number of characters of the candidate to the number of characters of the other candidate is a preset removal ratio. Candidate removal means for removing the candidate if not,
Correct answer storage means storing correct answers for each category;
Extraction model storage means for storing an extraction model for extracting relevant category information;
For all possible combinations of the extraction candidate storage means for each stored category candidates, the feature vector calculating means for calculating a feature vector indicating the feature of the combination,
A combination acquisition unit that acquires a combination with a maximum score calculated using the extraction model stored in the extraction model storage unit and the feature vector;
When the combination of the correct answers acquired by the combination acquisition means with respect to the correct combination score is within a predetermined range by reading the correct combination from the correct storage means and calculating a score, the extracted model storage means An extraction model updating means for updating the extraction model stored in
Prediction target extraction candidate storage means for extracting and storing candidates for each category from the prediction target document information;
For all possible combinations of the prediction target extraction candidate storage unit the category of each stored in the candidate, a feature vector indicating the feature of the combination is calculated, and extracted model stored in the extraction model storage means And an information extraction unit that obtains a combination having a maximum score calculated using the feature vector.
前記抽出モデル更新手段は、前記コスト記憶手段から前記誤りコストを読み出して前記正解に対する前記候補の一致の割合に応じたコストを求め、求めたコストを前記所定の範囲とすることを特徴とする請求項1記載の情報抽出装置。 Cost storage means for storing an error cost when the candidate is the correct partial character string and when it is not a partial character string,
The extraction model update unit reads the error cost from the cost storage unit, obtains a cost according to a ratio of the candidate match to the correct answer, and sets the obtained cost as the predetermined range. Item 1. The information extraction device according to Item 1.
関連性のあるカテゴリそれぞれの候補を文書情報から抽出して格納した抽出候補記憶手段に格納された前記候補のうち、当該候補が同じカテゴリの別の候補の部分文字列となっている場合に、前記別の候補の文字数に対する当該候補の文字数の割合が予め設定した除去比率に満たないときは当該候補を除去するステップと、
前記抽出候補記憶手段に格納されたカテゴリそれぞれの候補の全ての可能な組み合わせに対して、当該組み合わせの特徴を表す特徴ベクトルを計算するステップと、
抽出モデル記憶手段に格納された抽出モデルと前記特徴ベクトルを用いて算出されるスコアが最大となる組み合わせを取得するステップと、
前記カテゴリそれぞれの正解を格納した正解記憶手段から前記正解の組み合わせを読み出してスコアを計算し、前記正解の組み合わせのスコアに対する前記スコアが最大となる組み合わせを取得するステップで取得した組み合わせのスコアの損失が所定の範囲内の場合は、前記抽出モデル記憶手段に格納された抽出モデルを更新するステップと、を有し、
カテゴリそれぞれの候補を予測対象文書情報から抽出して格納した予測対象抽出候補記憶手段に格納された前記カテゴリそれぞれの候補の全ての可能な組み合わせに対して、当該組み合わせの特徴を表す特徴ベクトルを計算し、前記抽出モデル記憶手段に格納された抽出モデルと前記特徴ベクトルを用いて算出されるスコアが最大となる組み合わせを取得するステップを有すること
を特徴とする情報抽出方法。 An information extraction method executed by a computer,
Among the candidates stored in the extraction candidate storage means that extracts and stores candidates for each related category from the document information, when the candidate is a partial character string of another candidate of the same category, Removing the candidate when the ratio of the number of characters of the candidate to the number of characters of the other candidate is less than a preset removal ratio;
Calculating, for all possible combinations of candidates for each category stored in the extraction candidate storage means, a feature vector representing the characteristics of the combination;
Obtaining a combination that maximizes the score calculated using the extracted model and the feature vector stored in the extracted model storage means;
The loss of the combination score acquired in the step of calculating the score by reading the combination of the correct answers from the correct storage means storing the correct answers of each category, and acquiring the combination that maximizes the score with respect to the score of the correct combination Is within a predetermined range, updating the extraction model stored in the extraction model storage means,
For each possible combination of candidates for each category stored in the prediction target extraction candidate storage means that extracts and stores candidates for each category from the prediction target document information, a feature vector representing the characteristics of the combination is calculated. And obtaining a combination that maximizes the score calculated using the extraction model stored in the extraction model storage means and the feature vector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013106917A JP6059598B2 (en) | 2013-05-21 | 2013-05-21 | Information extraction method, information extraction apparatus, and information extraction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013106917A JP6059598B2 (en) | 2013-05-21 | 2013-05-21 | Information extraction method, information extraction apparatus, and information extraction program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014228993A JP2014228993A (en) | 2014-12-08 |
JP6059598B2 true JP6059598B2 (en) | 2017-01-11 |
Family
ID=52128805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013106917A Active JP6059598B2 (en) | 2013-05-21 | 2013-05-21 | Information extraction method, information extraction apparatus, and information extraction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6059598B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325020B (en) * | 2020-03-20 | 2023-03-31 | 北京百度网讯科技有限公司 | Event argument extraction method and device and electronic equipment |
CN111414482B (en) | 2020-03-20 | 2024-02-20 | 北京百度网讯科技有限公司 | Event argument extraction method and device and electronic equipment |
CN112967144B (en) * | 2021-03-09 | 2024-01-23 | 华泰证券股份有限公司 | Financial credit risk event extraction method, readable storage medium and device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4915499B2 (en) * | 2005-12-22 | 2012-04-11 | 日本電気株式会社 | Synonym dictionary generation system, synonym dictionary generation method, and synonym dictionary generation program |
JP2007219880A (en) * | 2006-02-17 | 2007-08-30 | Fujitsu Ltd | Reputation information processing program, method, and apparatus |
JP5211000B2 (en) * | 2009-09-09 | 2013-06-12 | 日本電信電話株式会社 | Ranking function generation device, ranking function generation method, ranking function generation program |
JP5638503B2 (en) * | 2011-11-04 | 2014-12-10 | 日本電信電話株式会社 | Text summarization apparatus, method and program |
-
2013
- 2013-05-21 JP JP2013106917A patent/JP6059598B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014228993A (en) | 2014-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Position-aware attention and supervised data improve slot filling | |
CN112711948B (en) | Named entity recognition method and device for Chinese sentences | |
WO2020232861A1 (en) | Named entity recognition method, electronic device and storage medium | |
KR102260646B1 (en) | Natural language processing system and method for word representations in natural language processing | |
CN107391614A (en) | A kind of Chinese question and answer matching process based on WMD | |
Heigold et al. | An extensive empirical evaluation of character-based morphological tagging for 14 languages | |
CN107229627B (en) | Text processing method and device and computing equipment | |
JP2020087353A (en) | Summary generation method, summary generation program, and summary generation apparatus | |
KR20180077847A (en) | Apparatus and method for verifying sentence | |
CN110807194A (en) | Webshell detection method and device | |
JP6059598B2 (en) | Information extraction method, information extraction apparatus, and information extraction program | |
CN110110218A (en) | A kind of Identity Association method and terminal | |
US20220383159A1 (en) | Systems and methods for open domain multi-hop question answering | |
Atef et al. | AQAD: 17,000+ arabic questions for machine comprehension of text | |
CN113343692B (en) | Search intention recognition method, model training method, device, medium and equipment | |
JP5355483B2 (en) | Abbreviation Complete Word Restoration Device, Method and Program | |
Wan et al. | Multi-grained knowledge retrieval for end-to-end task-oriented dialog | |
JP6082657B2 (en) | Pose assignment model selection device, pose assignment device, method and program thereof | |
JP5863193B2 (en) | Information extraction apparatus, information extraction method, and information extraction program | |
JP6839001B2 (en) | Model learning device, information judgment device and their programs | |
Karpagam et al. | Deep learning approaches for answer selection in question answering system for conversation agents | |
JP6018545B2 (en) | Event information extraction apparatus, operation method thereof, and computer program | |
JP5670293B2 (en) | Word addition device, word addition method, and program | |
JP2019204415A (en) | Wording generation method, wording device and program | |
JP2007200252A (en) | Abbreviation generation/validity evaluation method, synonym database generation/update method, abbreviation generation/validity evaluation device, synonym database generation/update device, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160720 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161004 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6059598 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |