JP2004171354A - Language analysis processing method, sentence conversion processing method, language analysis processing system, and sentence conversion processing system - Google Patents
Language analysis processing method, sentence conversion processing method, language analysis processing system, and sentence conversion processing system Download PDFInfo
- Publication number
- JP2004171354A JP2004171354A JP2002337747A JP2002337747A JP2004171354A JP 2004171354 A JP2004171354 A JP 2004171354A JP 2002337747 A JP2002337747 A JP 2002337747A JP 2002337747 A JP2002337747 A JP 2002337747A JP 2004171354 A JP2004171354 A JP 2004171354A
- Authority
- JP
- Japan
- Prior art keywords
- solution
- processing
- sentence
- feature
- processing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 565
- 238000003672 processing method Methods 0.000 title claims abstract description 17
- 238000004458 analytical method Methods 0.000 title claims description 220
- 238000006243 chemical reaction Methods 0.000 title claims description 163
- 238000000034 method Methods 0.000 claims abstract description 162
- 230000008569 process Effects 0.000 claims abstract description 93
- 239000000284 extract Substances 0.000 claims abstract description 51
- 238000010801 machine learning Methods 0.000 claims description 185
- 239000002245 particle Substances 0.000 claims description 113
- 230000014509 gene expression Effects 0.000 claims description 105
- 230000001364 causal effect Effects 0.000 claims description 7
- 238000000605 extraction Methods 0.000 description 88
- 238000010586 diagram Methods 0.000 description 25
- 241000220225 Malus Species 0.000 description 17
- 238000012706 support-vector machine Methods 0.000 description 17
- 238000013500 data storage Methods 0.000 description 15
- 230000008901 benefit Effects 0.000 description 11
- 241000270295 Serpentes Species 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000007796 conventional method Methods 0.000 description 6
- 206010002515 Animal bite Diseases 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 241001672694 Citrus reticulata Species 0.000 description 4
- 235000021016 apples Nutrition 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 208000004078 Snake Bites Diseases 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 238000000876 binomial test Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000001323 posttranslational effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000528 statistical test Methods 0.000 description 1
- 238000013106 supervised machine learning method Methods 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、コンピュータで実現する自然言語処理技術に関する。さらに詳しくは、機械学習法により電子化された文を用いた言語解析処理方法および前記処理方法を実現する処理システムに関する。
【0002】
特に、本発明は、省略補完処理、文生成処理、機械翻訳処理、文字認識処理、音声認識処理など、語句を生成する処理を含むような極めて広範囲な問題を扱う言語処理に適用することができる。
【0003】
【従来の技術】
言語解析処理の分野では、形態素解析、構文解析の次の段階である意味解析処理が重要性を増している。特に意味解析の主要部分である格解析処理、省略解析処理などにおいて、処理にかかる労力の負担軽減や処理精度の向上が望まれている。
【0004】
格解析処理とは、文の一部が主題化もしくは連体化などをすることにより隠れている表層格を復元する処理である。例えば、「りんごは食べた。」という文において、「りんごは」の部分は主題化しているが、この部分を表層格に戻すと「りんごを」である。このように、「りんごは食べた。」の「りんごは」の「は」の部分を「ヲ格」と解析する処理である。また、「昨日買った本はもう読んだ。」という文において、「買った本」の部分が連体化しているが、この部分を表層格に戻すと「本を買った」である。この場合に、「買った本」の連体の部分を「ヲ格」と解析する。
【0005】
省略解析処理とは、文の一部に省略されている表層格を復元する処理を意味する。例えば、「みかんを買いました。そして食べました。」という文において、「そして食べました」の部分に省略されている名詞句(ゼロ代名詞)は「みかんを」であると解析する。
【0006】
このような言語解析処理をコンピュータで実現する場合に、処理を行う者の労力の負担を軽減しつつ高い処理精度を得るために、機械学習法を用いて言語解析処理を行う手法を提示した(非特許文献1参照)。
【0007】
非特許文献1において提示した機械学習法を用いて言語解析処理を行う手法(非借用型機械学習法)は、以下のような利点を備える。
(i) より大きな教師データを持つコーパスを用意することで、さらに高い精度で処理を行えることができると推測できる。
(ii)よりよい機械学習手法が開発されたとき、その機械学習手法を用いることでさらに高い精度を獲得できると予測できる。
【0008】
さらに、非特許文献1では、借用型機械学習法を用いた言語解析処理方法を提示した。借用型機械学習法とは、機械学習法の解析対象となる情報が付加されていないデータ(以下「教師なしデータ」という。)から生成した教師信号を用いた機械学習方法である。借用型機械学習法によれば、例えば格フレーム辞書など、人手などで解析対象となる情報(解情報)を予め付与しておいたデータを用いることなく、大量に存在する一般的な電子化された文を機械学習の教師なしデータとして利用することができ、大量の教師信号による機械学習の学習精度が向上するため、高い精度の言語解析処理を実現することができる。
【0009】
さらに、非特許文献1では、併用型機械学習法を用いた言語解析処理方法を提示した。併用型機械学習法とは、通常の機械学習法で用いる教師信号すなわち機械学習法の解析対象となる情報が付加されたデータ(以下「教師ありデータ」という。)と、教師なしデータから生成した教師信号とを用いて機械学習を行う方法である。併用型機械学習法によれば、取得が容易な教師なしデータから生成された大量の教師信号と、通常の学習精度を確保できる教師ありデータの教師信号との両方の利点を活かした言語解析処理を実現することができる。
【0010】
また、自然言語処理の分野における重要な問題として、受け身文や使役文から能動文への変換処理がある。この文変換処理は、文生成処理、言い換え処理、文の平易化/言語運用支援、自然言語文を利用した知識獲得・情報抽出処理、質問応答システムなど、多くの研究分野で役に立つ。例えば質問応答システムにおいて、質問文が能動文で書かれ回答を含む文が受動文で書かれているような文書がある場合に、質問文と回答を含む文では文構造が異なっているために質問の回答を取り出すのが困難な場合がある。このような問題も、受け身文や使役文から能動文への変換処理を行うことにより解決することができる。
【0011】
日本語の受け身文や使役文を能動文に文変換処理する際には、文変換後に用いる変換後格助詞を推定することが求められる。例えば、「犬に私が噛まれた。」という受け身文から「犬が私を噛んだ。」という能動文に変換する場合に、「犬に」の格助詞「に」が「が」に、「私が」の「が」が「を」に変換されると推定する処理である。また、「彼が彼女に髪を切らせた。」という使役文を「彼女が髪を切った。」という能動文に変換する場合に、「彼女に」の格助詞「に」が「が」に変換され、「髪を」の「を」は変換しないと推定する処理である。しかし、受け身文や使役文から能動文への変換処理における格助詞の変換は、変換される格助詞が動詞やその動詞の使われ方に依存して変わるので、簡単に自動処理できる問題ではない。
【0012】
格助詞の変換処理については、例えば、以下の非特許文献2〜4に示すような従来手法がいくつかある。非特許文献2〜4で開示されている技術では、格助詞の変換処理の問題を、どのように格助詞を変換すればよいかを記載した格フレーム辞書を用いて対処している。
【0013】
【非特許文献1】
村田真樹、
機械学習手法を用いた日本語格解析−教師信号借用型と非借用型さらには併用型−、
電子情報通信学会、電子情報通信学会技術研究報告NLC−2001−24
2001年7月17日
【非特許文献2】
情報処理振興事業協会技術センター、
計算機用日本語基本動詞辞書IPAL(Basic Verbs) 説明書、
1987
【非特許文献3】
Sadao Kurohashi and Makoto Nagao,
A Method of Case Structure Analysis for Japanese Sentences basedon Examples in Case Frame Dictionary,
IEICE Transactions of Information and Systems, Vol.E77−D, No.2, 1994
【非特許文献4】
近藤 恵子、佐藤 理史、奥村 学、
格変換による単文の言い換え、
情報処理学会論文誌、Vol.42, No.3,
2001
【0014】
【発明が解決しようとする課題】
前記の非特許文献1は、機械学習法を言語解析処理に適用することで処理精度を向上させるという効果を持つ。また、借用型機械学習法や併用型機械学習法は、人手による労力負担を増やすことなく機械学習の教師信号を増大させることができる点で非常に有効である。
【0015】
機械学習処理では、与えられた教師データにおいて正解率を最大とするように学習を行う。また、教師なしデータは、解析対象となる情報を持たないという点で教師ありデータと異なる性質のものである。
【0016】
したがって、非特許文献1に示す併用型機械学習法のように単純に教師なしデータを教師ありデータに追加した教師信号を用いた機械学習処理は、教師ありデータと教師なしデータとを合計したデータでの正解率を最大にするように学習する。そのため、教師なしデータと教師ありデータとの関係によっては教師ありデータだけでの正解率を最大にするように学習した機械学習の場合に比べて学習精度が低下してしまうという問題が生ずる。
【0017】
このような従来技術の問題に鑑みると、教師ありデータと教師なしデータの利点を活かして、より確実に精度の高い学習処理が行えるような手法の実現が求められる。
【0018】
また、受け身文・使役文から能動文への文変換処理について、前記の非特許文献2〜4に示すような従来の技術では、どのように格助詞を変換すればよいかをすべての動詞とその動詞の使い方について記載した格フレーム辞書が必要であった。
【0019】
しかし、すべての動詞とその動詞の使い方を記載した辞書を用意することは事実上困難であるため、この格フレーム辞書を用いた変換処理方法は不十分であり、格フレーム辞書に記載されていない動詞や動詞の使い方がされた文を変換することができなかったり、誤変換する確率が高かったりするという問題が生じていた。
【0020】
したがって、特に受け身文・使役文から能動文への文変換処理について、人手による労力負担を増大させずに高い精度の処理が行えるような手法が求められる。
【0021】
本発明の目的は、教師ありデータと教師なしデータの両方を用いて機械学習を行う併用型教師学習法を用いて言語解析処理を行う場合に、双方のデータの利点を活かして、より高い精度で言語解析処理を行える処理システムを提供することである。
【0022】
さらに、本発明の目的は、特に受け身文や使役文から能動文への文変換処理について、機械学習法を用いて高い精度で変換後格助詞を推定できる文変換処理システムを提供することである。
【0023】
【課題を解決するための手段】
上記の目的を達成するため、本発明は以下のような構成をとる。
【0024】
本発明は、スタック用処理システムと前記スタック用処理システムの処理結果を用いて処理を行うメイン処理システムとで構成される言語解析処理システムで機械学習法を用いて言語解析を処理する方法であって、前記スタック用処理システムでは、解析処理を行う場合に機械学習法が問題とする表現の情報を予め記憶した問題表現情報記憶部へアクセスし、前記問題表現情報をもとに、当該問題についての情報が付与されていない事例データから前記問題表現情報に合致する問題表現相当部を抽出し、前記問題表現相当部を解とし前記問題表現相当部を変換した前記事例データを問題とする構造を持つ教師なしデータに変換する。そして、前記教師なしデータごとに解と素性の集合との組を抽出し、前記解と素性の集合との組から、どのような素性の場合にどのような解になりやすいかを機械学習法により学習し、前記学習の結果を学習結果データベースに記憶しておく。その後、前記メイン処理システムから事例データから抽出された第1の素性の集合または処理対象として入力された事例データから抽出された第2の素性の集合を取得し、前記学習結果データベースを参照して、前記第1の素性の集合または前記第2の素性の集合から、どのような素性の場合にどのような解になりやすいかを推定し、前記第1の素性の集合に対する第1の処理結果または第2の素性の集合に対する第2の処理結果を前記メイン処理システムへ送出する。
【0025】
前記メイン処理システムでは、解析処理を行う場合に機械学習法が扱う問題についての解が付与された事例データを記憶する解データベースにアクセスし、前記解データベースから前記事例データを取り出し、前記事例データごとに解と素性の集合との組を抽出し、前記解と素性の集合との組から素性の集合のみを取り出した第1の素性の集合を前記スタック用処理システムへ送出する。そして、前記スタック用処理システムから前記第1の処理結果を受け取り、前記第1の処理結果を素性として前記事例データから抽出した第1の素性の集合に追加し、前記解と前記処理結果を追加した第1の素性の集合との組から、どのような素性の場合にどのような解になりやすいかを機械学習法により学習し、前記学習の結果を学習結果データベースに記憶する。その後、処理対象として入力された事例データから素性の集合を抽出し、前記入力事例データの第2の素性の集合を前記スタック用処理システムへ送出し、前記スタック用処理システムから出力された第2の処理結果を受け取り、前記第2の処理結果を素性として前記入力事例データの第2の素性の集合に追加し、前記学習結果データベースを参照して、前記処理結果を追加した前記第2の素性の集合から、どのような素性の場合にどのような解になりやすいかを推定する。
【0026】
また、本発明は、スタック用処理システムと前記スタック用処理システムの処理結果を用いて処理を行うメイン処理システムとで構成される言語解析処理システムで機械学習法を用いて言語解析を処理する方法であって、前記スタック用処理システムでは、解析処理を行う場合に機械学習法が問題とする表現の情報を予め記憶した問題表現情報記憶部へアクセスし、前記問題表現情報をもとに、当該問題についての情報が付与されていない事例データから前記問題表現情報に合致する問題表現相当部を抽出し、前記問題表現相当部を解とし前記問題表現相当部を変換した前記事例データを問題とする構造を持つ教師なしデータに変換し、前記教師なしデータごとに解もしくは解候補と素性の集合との組を抽出し、前記解もしくは解候補と素性の集合との組から、どのような解もしくは解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を機械学習法により学習し、前記学習の結果を学習結果データベースに記憶しておく。その後、前記メイン処理システムから、事例データから抽出された解もしくは解候補と素性の集合の第1の組または処理対象として入力された事例データから抽出された解候補と素性の集合の第2の組を取得し、前記学習結果データベースを参照して、前記第1の組または前記第2の組から、どのような解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を求め、すべての解候補の中から正例である確率が最も高い解候補を解と推定する処理を行い、前記第1の組に対する第1の処理結果または第2の組に対する第2の処理結果を前記メイン処理システムへ送出する。
【0027】
前記メイン処理システムでは、解析処理を行う場合に機械学習法が扱う問題についての解が付与された事例データを記憶する解データベースにアクセスし、前記解データベースから前記事例データを取り出し、前記事例データごとに解もしくは解候補と素性の集合との第1の組を抽出し、前記第1の組を前記スタック用処理システムへ送出する。そして、前記スタック用処理システムから前記第1の処理結果を受け取り、前記第1の処理結果を前記第1の組の素性の集合に追加し、前記第1の処理結果を追加した前記第1の組から、どのような解もしくは解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を機械学習法により学習し、前記学習の結果を学習結果データベースに記憶する。その後、処理対象として入力された事例データから解候補と素性の集合の第2の組を抽出し、前記第2の組を前記スタック用処理システムへ送出し、前記スタック用処理システムから第2の処理結果を受け取り、前記第2の処理結果を素性として前記第2の組の素性の集合に追加し、前記学習結果データベースを参照して、前記第2の処理結果を追加した前記第2の組から、どのような解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を求め、すべての解候補の中から正例である確率が最も大きい解候補を求める解として推定する。
【0028】
このように、本発明では、教師なしデータを用いた機械学習法による解析結果を教師ありデータの素性として組み込むことにより、機械学習処理において教師ありデータについての正解率を最大とするように学習が行われるため、異なる性質の教師なしデータと教師ありデータとの双方の利点を活かした機械学習処理を行うことができ、高い精度の解析処理を実現することができる。
【0029】
また、本発明は、コンピュータを用いて電子化された受け身文または使役文を能動文へ変換処理する文変換処理方法であって、受け身文または使役文から能動文への文変換処理を行う場合に機械学習法が扱う問題についての解が付与された事例データを記憶する解データベースへアクセスし、前記解データベースから前記事例データを取り出し、前記事例データごとに解と素性の集合との組を抽出し、前記解と素性の集合との組から、どのような素性の場合にどのような解になりやすいかを機械学習法により学習し、前記学習の結果を学習結果データベースに記憶する。そして、解析対象として入力された電子化された文から素性の集合を抽出し、前記学習結果データベースを参照して、前記入力文から抽出された素性の場合にどのような解になりやすいかを推定する。
【0030】
また、本発明は、コンピュータを用いて電子化された受け身文または使役文を能動文へ変換処理する文変換処理方法であって、受け身文または使役文から能動文への変換処理を行う場合に機械学習法が扱う問題についての解が付与された事例データを記憶する解データベースへアクセスし、前記解データベースから前記事例データを取り出し、前記事例データごとに解もしくは解候補と素性の集合との組を抽出し、前記解もしくは解候補と素性の集合との組から、どのような解もしくは解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を機械学習法により学習し、前記学習の結果を学習結果データベースに記憶する。そして、解析対象として入力された電子化された文から解候補と素性の集合との組を抽出し、前記学習結果データベースを参照して、前記入力文から抽出された解候補と素性の集合との組から、どのような解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を求め、すべての解候補の中から正例である確率が最も高い解候補を解と推定する。
【0031】
受け身文や使役文から能動文への文変換処理における格助詞変換処理は、変換後の文で用いられる格助詞を決定することである。そして、変換後の格助詞の種類数は有限であるから、変換後の格助詞の推定問題は分類問題に帰着でき、機械学習手法を用いた処理として扱うことが可能である。
【0032】
本発明では、解析対象についての情報(変換後格助詞など)を付与されていない文から生成されたデータ(教師なしデータ)を教師信号として機械学習を行う。これにより、大量に存在する通常の電子データ(文)を教師データとして利用することができ、解析対象についての情報を人手などにより付与するという労力負担を増加させることなく、高い精度の文変換処理を実現することができる。
【0033】
【発明の実施の形態】
以下に本発明の実施の形態のいくつかを説明する。
【0034】
第1の実施の形態として、受け身文・使役文から能動文への文変換処理に教師ありデータを用いた機械学習法(非借用型機械学習法)を適用する処理について説明する。また、第2の実施の形態として、受け身文・使役文から能動文への文変換処理に教師なしデータを用いた機械学習法(借用型機械学習法)を適用する処理について説明する。また、第3の実施の形態として、受け身文・使役文から能動文への文変換処理に教師ありデータと教師なしデータを併用して用いた機械学習法(併用型機械学習法)を適用する処理について説明する。
【0035】
さらに、第4の実施の形態として、言語解析処理に、教師なしデータを用いた機械学習の結果を、教師ありデータの素性として用いた機械学習法(教師なしデータスタック型機械学習法)を適用する処理について説明する。
【0036】
なお、本発明の実施の形態において、受け身文・使役文から能動文への変換処理での格助詞の変換処理とは、元の受け身文・使役文の格助詞を変換後の能動文の格助詞へ変換する処理、および元の受け身文・使役文の不要部分を消去する処理をいう。不要部分とは、使役文「彼が彼女に髪を切らせた。」から能動文「彼女が髪を切った。」への文変換において、元の使役文「彼が」の部分である。また、元の文(受け身文・使役文)の格助詞を変換前格助詞とし、能動文への文変換時に付与される新たな格助詞を変換後格助詞とする。
【0037】
本形態では、これらの格助詞変換処理のみを対象にし、能動文への変換に伴う助動詞表現の変換処理などは処理対象として説明しない。助動詞表現部分程度の変換処理は、既存の処理、例えば文法に従った規則を用いる処理を用いて容易に実現することが可能である。
【0038】
〔第1の実施の形態〕
第1の実施の形態として、受け身文・使役文から能動文への文変換処理を行う場合に、教師ありデータを用いた機械学習により、変更されるべき格助詞を自動変換処理する文変換処理システムの処理を説明する。
【0039】
図1に、本形態における文変換処理システムの構成例を示す。文変換処理システム100は、CPUおよびメモリからなり、解−素性対抽出部101、機械学習部102、学習結果データベース103、素性抽出部110、解推定処理部111および解データベース2を備える。
【0040】
解−素性対抽出部101は、解データベース2から教師ありデータである事例を取り出し、事例ごとに事例の解と素性の集合との組(対)を抽出する手段である。
【0041】
機械学習部102は、抽出された解と素性の集合との組から、どのうような素性のときにどのような解となりやすいかを機械学習法により学習し、その学習結果を学習結果データベース103に記憶する手段である。
【0042】
素性抽出部110は、入力された文(受け身文または使役文)3から、素性の集合を抽出する手段である。なお、文は、文または少なくとも体言と用言を持つ文の一部とする。
【0043】
解推定処理部111は、学習結果データベース103を参照して、入力文3の素性の場合にどのような解になりやすいか、すなわち能動文へ変換する場合に変換後格助詞になりやすい格助詞を推定し、推定した格助詞を解4として出力する手段である。
【0044】
解データベース2は、機械学習で解析対象となる情報が付与された「問題−解」という構造を持つ教師ありデータを記憶する。本形態では、受け身文・使役文から能動文への変換処理における変換後格助詞が解析対象であり、能動文への変換処理で変更されるべき格助詞(変換後格助詞)の情報がタグ付けされた事例(単文)が記憶されたデータベースを利用することができる。
【0045】
図2に、文変換処理システム100の処理フローを示す。
【0046】
ステップS1: 解−素性対抽出部101により、解データベース2から事例を取り出し、各事例ごとに解と素性の集合との組を抽出する。例えば、解データベース2として、受け身文や使役文のそれぞれの格助詞に対してそれが能動文になったときに用いられる変換後格助詞がタグとして付与されているタグ付きコーパスを用いる。
【0047】
図3に、タグ付きコーパスに記憶されている事例(単文)を示す。図3に示す単文に下線を付けた5つの格助詞は変換前格助詞であり、下線部の下に矢印で示す格助詞は変換後格助詞を示す情報である。図3(A)の事例は、この受け身文が能動文に変換される場合に、変換前格助詞が、それぞれ、「に」から「が」へ、「が」から「を」へ変換されることを意味する。また、図3(B)の事例は、この使役文が能動文に変換される場合に、変換前格助詞が、それぞれ、「に」から「が」へ、「を」から「を」へ変換され、「彼が」の部分は消去されることを意味している。「other」は、その部分は能動文になるとき消去されることを意味するタグとする。
【0048】
ここで、素性とは、機械学習法による解析処理で用いる細かい情報の1単位を意味する。抽出する素性としては、例えば以下のようなものがある。
【0049】
1.体言nについている格助詞(変換前格助詞)
2.用言vの品詞
3.用言vの単語の基本形
4.用言vにつく助動詞列(例:「れる」、「させる」など)
5.体言nの単語
6.体言nの単語の分類語彙表の分類番号
7.用言vにかかる体言n以外の体言がとる格
例えば、事例の問題が「犬に噛まれた。」である場合に、
・推定すべき格にある体言nの単語=犬、
・推定すべき格が修飾する用言v(単語の基本形)=噛む、
・体言nと用言vとの間の格助詞(変換前格助詞)=に、
などの素性が抽出される。
【0050】
また、解は、各事例にタグ情報として付与された変換後格助詞であり、上記のの事例では、
・解(変換後格助詞)=が
である。そして、解−素性対抽出部101は、抽出した素性の集合を機械学習部102で実行する機械学習処理での文脈とし、解を分類先とする。
【0051】
ステップS2: 機械学習部102により、抽出された解と素性の集合との組から、どのような素性のときにどのような解になりやすいかを機械学習法により学習し、この学習結果を学習結果データベース103に記憶する。
【0052】
例えば、事例「犬に噛まれた。⇒が」から抽出された、
・推定すべき格にある体言nの単語=犬、
・推定すべき格が修飾する用言v(単語の基本形)=噛む、
・体言nと用言vとの間の格助詞(変換前格助詞)=に、
のような素性の集合の場合には、
・解(変換後格助詞)=が
となりやすいことを学習する。
【0053】
また、事例「ヘビに噛まれた。⇒が」から抽出された、
・推定すべき格にある体言nの単語=ヘビ、
・推定すべき格が修飾する用言v(単語の基本形)=噛む、
・体言nと用言vとの間の格助詞(変換前格助詞)=に、
のような素性の集合の場合にも、
・解(変換後格助詞)=が
となりやすいことを学習する。
【0054】
機械学習法は、例えば、決定リスト法、最大エントロピー法、サポートベクトルマシン法などを用いるが、これらの手法に限定されない。
【0055】
決定リスト法は、素性(解析に用いる情報で文脈を構成する各要素) と分類先の組を規則とし、それらをあらかじめ定めた優先順序でリストに蓄えておき、解析すべき入力が与えられたときに、リストで優先順位の高いところから入力のデータと規則の素性を比較し素性が一致した規則の分類先をその入力の分類先とする方法である。
【0056】
最大エントロピー法は、あらかじめ設定しておいた素性fj (1≦j≦k)の集合をFとするとき、所定の条件式を満足しながらエントロピーを意味する式を最大にするときの確率分布p(a,b)を求め、その確率分布にしたがって求まる各分類の確率のうち、もっとも大きい確率値を持つ分類を解(求める分類)とする方法である。
[参考文献1:村田真樹、内山将夫、内元清貴、馬青、井佐原均、種々の機械学習法を用いた多義解消実験、電子情報通信学会言語理解とコミュニケーション研究会,NCL2001−2, (2001) ]
サポートベクトルマシン法は、空間を超平面で分割することにより、2つの分類からなるデータを分類する手法である。サポートベクトルマシン法は、分類の数が2個のデータを扱うものでる。このため、通常、サポートベクトルマシン法にペアワイズ手法を組み合わせて使用することで、分類数が3個以上のデータを扱うことができる。ペアワイズ手法とは、N個の分類を持つデータの場合に、異なる二つの分類先のあらゆるペア(N(N−1)/2個) を作り、各ペアごとにどちらがよいかを2値分類器(ここではサポートベクトルマシン法によるもの)で求め、最終的にN(N−1)/2個の2値分類器の分類先の多数決により、分類先を求める方法である。
[参考文献2:Nello Cristianini and John Shawe−Taylor, An Introduction to Support Vector Machines and Other Kernel−Based Learning Methods,(Cambridge University Press,2000) ]
[参考文献3:Taku Kudoh, TinySVM:Support Vector Machines,(http://cl.aist−nara.ac.jp/taku−ku//software/Tiny SVM/index.html,2000)]
サポートベクトルマシン法を説明するため、図4に、サポートベクトルマシン法のマージン最大化の概念を示す。図4において、白丸は正例、黒丸は負例を意味し、実線は空間を分割する超平面を意味し、破線はマージン領域の境界を表す面を意味する。図4(A)は、正例と負例の間隔が狭い場合(スモールマージン)の概念図、図4(B)は、正例と負例の間隔が広い場合(ラージマージン)の概念図である。
【0057】
サポートベクトルマシン法の2つの分類が正例と負例からなるものとすると、学習データにおける正例と負例の間隔(マージン) が大きいものほどオープンデータで誤った分類をする可能性が低いと考えられ、図4(B)に示すように、このマージンを最大にする超平面を求めそれを用いて分類を行なう。
【0058】
サポートベクトルマシン法は基本的には上記のとおりであるが、通常、学習データにおいてマージンの内部領域に少数の事例が含まれてもよいとする手法の拡張や、超平面の線形の部分を非線型にする拡張(カーネル関数の導入など) がなされたものが用いられる。
【0059】
この拡張された方法は、以下の識別関数を用いて分類することと等価であり、その識別関数の出力値が正か負かによって二つの分類を判別することができる。
【0060】
【数1】
【0061】
ただし、xは識別したい事例の文脈(素性の集合) を、xi とyj (i=1,…,l,yj ∈{1,−1})は学習データの文脈と分類先を意味し、関数sgnは、
sgn(x)=1(x≧0) (2)
−1(otherwise )
であり、また、各αi は式(4)と式(5)の制約のもと式(3)を最大にする場合のものである。
【0062】
【数2】
【0063】
また、関数Kはカーネル関数と呼ばれ、様々なものが用いられるが、本形態では以下の多項式のものを用いる。
【0064】
K(x,y)=(x・y+1)d (6)
C、dは実験的に設定される定数である。後述する具体例ではCはすべての処理を通して1に固定した。また、dは、1と2の二種類を試している。ここで、αi >0となるxi は,サポートベクトルと呼ばれ、通常,式(1) の和をとっている部分はこの事例のみを用いて計算される。つまり、実際の解析には学習データのうちサポートベクトルと呼ばれる事例のみしか用いられない。
【0065】
サポートベクトルマシン法は、分類の数が2個のデータを扱うものであるから、分類の数が3個以上のデータを扱うために、ペアワイズ手法を組み合わせて用いることになる。本例では、文変換処理システム150は、サポートベクトルマシン法とペアワイズ手法を組み合わせた処理を行う。具体的には、TinySVMを利用して実現する。
[参考文献4:工藤拓 松本裕治,Support vector machineを用いたchunk 同定、自然言語処理研究会、 2000−NL−140,(2000) ]
ステップS3: その後、解を求めたいデータとして入力文3が素性抽出部110に入力される。
【0066】
ステップS4: 素性抽出部110により、解−素性対抽出部101での処理とほぼ同様の処理により入力文3から素性の集合を取り出し、取り出した素性の集合を解推定処理部111へ渡す。例えば、入力文3が「犬に噛まれた。」である場合に、以下のような素性を抽出し、抽出した素性の集合を解推定処理部111へ渡す。
【0067】
・ 推定すべき格にある体言n=犬、
・ 推定すべき格が修飾する用言v=噛む、
・ 体言nと用言vとの間の変換前格助詞=に、
ステップS5: 解推定処理部111により、学習結果データベース103に記憶した学習結果をもとに、渡された素性の集合の場合にどのような解4になりやすいかを推定し、推定された解(変換後格助詞)4を出力する。
【0068】
例えば、事例「犬に噛まれた。⇒が」、「ヘビに噛まれた。⇒が」の事例について前記のような学習結果が学習結果データベース103に記憶されていた場合には、解推定処理部111は、この学習結果を参照して、受け取った入力文3から抽出された素性の集合を解析して、変換後格助詞に最もなりやすいのは「が」であると推定して、解4=「が」を出力する。
【0069】
図5に、第1の実施の形態における文変換処理システムの別の構成例を示す。なお、以降の図において同一の番号が付与された処理手段などの構成要素は、同一の機能を持つものとする。
【0070】
文変換処理システム150は、素性−解対・素性−解候補対抽出部161、機械学習部162、学習結果データベース163、素性−解候補対抽出部170、解推定処理部171、および解データベース2を備える。
【0071】
素性−解対・素性−解候補対抽出部161は、解データベース2から事例を取り出し、事例ごとに解もしくは解候補と素性の集合との組を抽出する手段である。
【0072】
ここで、解候補は、解以外の解の候補を意味する。すなわち、変換後格助詞となる格助詞が「を」、「に」、「が」、「と」、および「で」の5つであると仮定すると、「が」が解である場合には、「を」、「に」、「と」、および「で」の4つの格助詞が解候補となる。また、解と素性の集合との組を正例と、解候補と素性の集合との組を負例とする。
【0073】
機械学習部162は、素性−解対・素性−解候補対抽出部161により抽出された解もしくは解候補と素性の集合との組から、どのような解もしくは解候補と素性の集合との組のときに正例である確率または負例である確率を、サポートベクトルマシン法およびこれに類似する機械学習法により学習し、その学習結果を学習結果データベース163に記憶する手段である。
【0074】
素性−解候補抽出部170は、入力文3から解候補と素性の集合との組を素性−解対・素性−解候補対抽出部161と同様の処理により抽出し、解推定処理部171へ渡す手段である。
【0075】
解推定処理部171は、学習結果データベース163を参照して、素性−解候補抽出部170から渡された解候補と素性の集合との場合に正例または負例である確率を求め、正例である確率が最も大きい解候補を解4と推定し、推定された解4を出力する手段である。
【0076】
図6に、文変換処理システム150の処理フローを示す。
【0077】
ステップS11: 素性−解対・素性−解候補対抽出部161により、解データベース2から事例を取り出し、各事例ごとに、解もしくは解候補と素性の集合との組を抽出する。素性−解対・素性−解候補対抽出部161により抽出される素性の集合は、ステップS1の処理(図2参照)で抽出する素性の集合と同様である。
【0078】
ステップS12: 機械学習部162により、抽出した解もしくは解候補と素性の集合との組から、どのような解もしくは解候補と素性の集合のときに正例である確率または負例である確率を機械学習法により学習する。この学習結果を学習結果データベース163に記憶する。
【0079】
例えば、事例が「犬に噛まれた。⇒が」であって、素性の集合が、
・ 推定すべき格にある体言n=犬、
・ 推定すべき格が修飾する用言v=噛む、
・ 体言nと用言vとの間の変換前格助詞=に、
である場合に、解「が」である確率(正例である確率)と、各解候補「を」、「に」、「と」、および「で」のそれぞれである確率(負例である確率)を求める。
【0080】
ステップS13: その後、素性−解候補抽出部170に、解を求めたい入力文3が入力される。
【0081】
ステップS14: 素性−解候補抽出部170により、入力文3から解候補と素性の集合との組を、素性−解対・素性−解候補対抽出部161と同様の処理により取り出し、取り出した解候補と素性の集合との組を解推定処理部171へ渡す。
【0082】
ステップS15: 解推定処理部171により、学習結果データベース163に記憶された学習結果をもとに、渡された解候補と素性の集合との組の場合に正例である確率または負例である確率を求める。
【0083】
例えば、入力文が「犬に噛まれた。」である場合に、抽出した素性の集合と解候補「が」、「を」、「に」、「と」、および「で」それぞれについて、正例である確率または負例である確率を求める。
【0084】
ステップS16: すべての解候補に対して正例である確率または負例である確率を求め、正例である確率が最も高い解候補を求める解4として推定し、推定された解4を出力する。
【0085】
〔第2の実施の形態〕
第2の実施の形態として、受け身文・使役文から能動文への変換処理において、教師なし学習により格助詞を自動変換する文変換処理システムの処理を説明する。
【0086】
まず、機械学習法で用いる教師なしデータを説明する。図7(A)に教師なしデータを作成するために与えられる電子化された文を示す。図7(A)の能動文「犬が私を噛んだ。」は、解析対象となる情報すなわち能動文への文変換時の格助詞の変換に関する情報が付与されていないデータである。しかし、図7(A)の文を能動文への文変換の結果と考えると、この能動文へ変換される元の受け身文・使役文で表れるはずの格助詞(変換前格助詞)は不明であるが、推定すべき解すなわち処理結果(能動文)に表れるべき格助詞(変換格助詞)を抽出することができる。
【0087】
図7(B)に変換前格助詞と変換後格助詞との関係を表す単文を示す。図7(A)の能動文の変換元の文は、「犬<?>私<?>噛んだ(噛まれた)。」と表すことができる。元の文に表れるはずの変換前格助詞は与えられていないことから、「<?>(不明)」で示す。また、図7(A)の文から抽出した推定すべき解である変換後格助詞は、<?>の下に矢印で示す「が」および「を」で示す。図7(B)に示すように、解析対象となる情報が与えられていない能動文は、変換前格助詞の情報については不明であるが、解(分類先)である変換後格助詞の情報を持つ。そして、図7(B)に示す文のうち「犬<?>噛んだ。」は、以下のような問題構造に変換することができる。
【0088】
「問題⇒解」=「犬<?>噛んだ。⇒が」
このように、解析対象の情報が付加されていない能動文を機械学習の教師データとして利用できることがわかる。
【0089】
図7(A)の能動文から生成される教師なしデータは、変換前格助詞の情報を持たないという点で教師ありデータよりも情報が少ない。しかし、受け身文・使役文に比べて能動文の数が多く、かつ手作業によって変換後格助詞の情報をタグ付けするという作業が不要であるため大量の能動文を教師なしデータとして利用することができ、機械学習法で扱う教師信号を増大させるという利点がある。
【0090】
図8に、第2の実施の形態における文変換処理システムの構成例を示す。文変換処理システム200は、CPUおよびメモリからなり、問題表現相当部抽出部201、問題表現情報記憶部202、意味解析情報記憶部203、問題構造変換部204、教師なしデータ記憶部205、解−素性対抽出部101、機械学習部102、学習結果データベース103、素性抽出部110、解推定処理部111、および文データベース5を備える。
【0091】
問題表現相当部抽出部201は、本システムでの処理においてどのようなものが問題表現に相当する部分(問題表現相当部)であるかを予め記憶した問題表現情報記憶部202を参照して、解析対象となる情報が付与されていないデータ(文)を記憶した文データベース5から文を取り出し、取り出した文から問題表現相当部を抽出する手段である。
【0092】
ここでは、問題表現情報記憶部202は、問題表現相当部として受け身文・使役文から能動文への変換において変更されるべき格助詞(変換後格助詞)を記憶しておく。
【0093】
問題構造変換部204は、抽出された問題表現相当部を変換する必要がある場合に、意味解析のための情報を記憶する意味解析情報記憶部203を参照して、問題表現相当部を変換した文を問題とし問題表現相当部から抽出した格助詞を解として「問題−解」の構造に変換し、この変換した教師なしデータを事例として教師なしデータ記憶部205に記憶する手段である。
【0094】
文変換処理システム200の解−素性対抽出部101、機械学習部102、学習結果データベース103、素性抽出部110、および解推定処理部111は、第1の実施の形態において説明した同一番号の処理手段とほぼ同様の処理を行う手段である。なお、解−素性対抽出部101は、教師なしデータ記憶部205から、教師なしデータである事例を取り出して各事例ごとに解と素性の集合との組を抽出する。
【0095】
図9に、教師なしデータ生成処理の処理フローを示す。
【0096】
ステップS21: 文データベース5から、解析対象となる情報が付与されていない自然文の電子データである文(能動文)が問題表現相当部抽出部201に入力される。
【0097】
ステップS22: 問題表現相当部抽出部201により、問題表現情報記憶部202を参照し、入力された能動文の構造を検出して問題表現相当部を抽出する。このとき、どのようなものが問題表現相当部であるかの情報は、問題表現情報記憶部202に記憶されている問題表現情報により与えられる。例えば、問題表現情報として「犬<?=推定すべき格(変換後格助詞)>噛む」を記憶しておく。そして、問題表現相当部抽出部201は、問題表現情報として記憶している文構造と入力文(能動文)の構造とをマッチングして、一致するものを問題表現相当部とする。例えば入力文が「犬が噛む。」であれば、マッチングの結果、「が」を問題表現相当部として抽出する。
【0098】
ステップS23: 問題構造変換部204により、意味解析情報記憶部203を参照して、抽出された問題表現相当部を解として抽出し、その部分を問題表現(<?>)に変換し、結果として得た文を問題とする。例えば、能動文「犬が噛む。」から問題表現相当部として抽出された「が」を解とし、抽出した「が」の部分を問題表現(<?>)に変換し、「犬<?>噛む。」を問題とする。
ステップS24: さらに、問題構造変換部204により、この問題および解の構成を持つデータを教師なしデータ(事例)として教師なしデータ記憶部205に記憶する。
【0099】
その後、文変換処理システム200は、第1の実施の形態における処理と同様に処理を行う(図2参照)。すなわち、解−素性対抽出部101により、教師なしデータ記憶部205から事例を取り出して、事例ごとに解と素性の集合との組を抽出する(ステップS1)。
【0100】
取り出した事例が、「犬<?>噛む。」⇒「が」であれば、例えば以下のような素性の集合を抽出する。
【0101】
・推定すべき格にある体言n=犬、
・推定すべき格が修飾する用言v=噛む、
・体言nと用言vの間にあった元の格助詞=?(不明)。
そして、機械学習部102は、解と素性の集合との組から、どのような素性のときにどのような格助詞が解となるかを学習する。機械学習部102は、上記のような素性の集合の場合には、「解=が」になりやすいと学習し、その学習結果を学習結果データベース103に記憶する(ステップS2)。
【0102】
また、取り出した事例が、「ヘビ<?>噛む。」⇒「が」であれば、以下のような素性の集合を抽出する。
【0103】
・推定すべき格にある体言n=ヘビ、
・推定すべき格が修飾する用言v=噛む、
・体言nと用言vの間にあった元の格助詞=?(不明)。
そして、機械学習部102は、上記のような素性の集合の場合にも、「解=が」になりやすいと学習し、その学習結果を学習結果データベース103に記憶する。
【0104】
以降、素性抽出部110に入力文3が入力されてから解推定処理部111で解4が出力されるまでの処理は、第1の実施の形態における処理として図2の処理フローのステップS3〜ステップS5に示す処理と同様であるので説明を省略する。
【0105】
図10に、第2の実施の形態における文変換処理システムの別の構成例を示す。文変換処理システム250は、問題表現相当部抽出部201、問題表現情報記憶部202、意味解析情報記憶部203、問題構造変換部204、教師なしデータ記憶部205、素性−解対・素性−解候補対抽出部161、機械学習部162、学習結果データベース163、素性−解候補抽出部170、解推定処理部171、および文データベース5を備える。
【0106】
文変換処理システム250の問題表現相当部抽出部201、問題表現情報記憶部202、意味解析情報記憶部203、および問題構造変換部204は、図8に示す同一の番号が付与された各処理手段と同様の処理を行う手段である。
【0107】
また、文変換処理システム250の素性−解対・素性−解候補対抽出部161、機械学習部162、学習結果データベース163、素性−解候補抽出部170、および解推定処理部171は、図5に示す同一の番号が付与された各処理手段とほぼ同様の処理を行う手段である。
【0108】
文変換処理システム250は、素性−解対・素性−解候補対抽出部161により、教師なしデータ記憶部205から、各事例ごとに、解もしくは解候補と素性の集合との組を抽出する(図6:ステップS11)。
【0109】
取り出した事例が、「犬<?>噛む。」⇒「が」であれば、例えば以下のような素性の集合を抽出する。
【0110】
・推定すべき格にある体言n=犬、
・推定すべき格が修飾する用言v=噛む、
・体言nと用言vの間にあった元の格助詞=?(不明)。
そして、機械学習部162により、解もしくは解候補と素性の集合の組から、どのような解もしくは解候補と素性の集合のときに正例である確率または負例である確率を機械学習法により学習する。この学習結果を学習結果データベース163に記憶する(図6:ステップS12)。
【0111】
以降、素性−解候補抽出部170に入力文3が入力されてから解推定処理部171で解4が出力されるまでの処理は、第1の実施の形態における処理として図6の処理フローのステップS13〜ステップS16の処理と同様であるので説明を省略する。
【0112】
〔第3の実施の形態〕
教師なしデータ記憶部205に記憶される事例(「問題−解」)は、解データベース2に記憶されている事例(「問題−解」)とほとんど同じ構造であることから、教師なしデータの事例と教師ありデータの事例とを混ぜ合わせて利用することも可能である。本形態で、教師なしデータおよび教師ありデータの両方を教師信号として用いて機械学習を行う方法を、「教師あり/なし学習」と呼ぶ。
【0113】
教師なしデータは、元の文に表れる変換前格助詞の情報を持たず、教師ありデータよりも情報が少ない。しかし、人手により事例ごとに解情報(変換後格助詞など)をタグ付けする必要がない。また、一般的に受け身文の数より能動文の数が多いため、多くの文を教師信号として利用できる。このため、教師あり/なし学習による文変換処理は、人手により解析対象の情報を付与するという労力負担を増やすことなく大量の教師データを用いた機械学習の学習結果を用いた文変換処理を行うことができるという利点がある。
【0114】
図11に、第3の実施の形態における文変換処理システム300の構成例を示す。文変換処理システム300は、CPUおよびメモリからなり、問題表現相当部抽出部201、問題表現情報記憶部202、意味解析情報記憶部203、問題構造変換部204 、教師なしデータ記憶部205、解−素性対抽出部101、機械学習部102、学習結果データベース103、素性抽出部110、解推定処理部111、解データベース2、および文データベース5を備える。文変換処理システム300は、第2の実施の形態として説明した図8に示す構成を備える文変換処理システム200に、さらに解データベース2を備えた構成をとり、文変換処理システム200とほぼ同様の処理を行う。
【0115】
解−素性対抽出部101は、解データベース2に記憶された教師ありデータである事例および教師なしデータ記憶部205に記憶された教師なしデータである事例について、事例ごとに解と素性の集合との組を抽出する。
【0116】
図12に、第3の実施の形態における文変換処理システムの別の構成例を示す。文変換処理システム350は、CPUおよびメモリからなり、問題表現相当部抽出部201、問題表現情報記憶部202、意味解析情報記憶部203、問題構造変換部204 、教師なしデータ記憶部205、素性−解対・素性−解候補対抽出部161、機械学習部162、学習結果データベース163、素性−解候補抽出部170、解推定処理部171、解データベース2、および文データベース5を備える。
【0117】
文変換処理システム350は、第2の実施の形態として説明した図10に示す構成を備える文変換処理システム250に、さらに解データベース2を備えた構成をとり、文変換処理システム250とほぼ同様の処理を行う。
【0118】
素性−解対・素性−解候補対抽出部161は、解データベース2に記憶された教師ありデータである事例および教師なしデータ記憶部205に記憶された教師なしデータである事例について、事例ごとに解もしくは解候補と素性の集合との組を抽出する。
【0119】
〔第4の実施の形態〕
第4の実施の形態として、言語解析処理を行う場合に、教師なしデータおよび教師ありデータの両方の利点を活かしたスタック型機械学習を行って解析処理を行う言語解析処理システムの処理を説明する。
【0120】
スタック型機械学習は、複数のシステムの解析結果の融合に用いられている「スタッキング」と呼ばれる手法を用いた機械学習であって、異なる機械学習法の解析結果を素性に追加した教師信号を用いて機械学習を行うものである。
[参考文献5:Hans van Halteren, Jakub, Zavrel, and Walter Daelemans, Improving Accuracy in Word Class Tagging Through the Combination of Machine Learning Systems, Computational Linguistics, Vol.27, No.2, (2001), pp.199−229 ]
本形態において、言語解析処理システムは、借用型機械学習(教師なしデータを用いた機械学習)または併用型機械学習(教師あり/なしデータによる機械学習)を用いた言語解析処理を行い、その処理結果である推定解を素性の集合の要素として追加する。そして、推定解が追加された素性の集合を用いてさらに教師あり学習による言語解析処理を行う。
【0121】
例えば、本形態の言語解析処理システムで用いられる教師あり機械学習において、ある教師ありデータ(事例)から抽出される素性の集合がリスト{a,b,c}を持つとする。そして、スタッキング用処理システムが教師なし機械学習を用いた言語解析処理システムであり、その解析結果が「d1 」であるとする。この場合に、言語解析処理システムの教師あり機械学習処理では、素性の集合{a,b,c}に解析結果「d1 」を追加し、リスト{a,b,c,”教師なし学習の解析結果=d1 ”}を新しい素性の集合として機械学習を行なう。
【0122】
また、スタッキング用処理システムが教師あり/なし機械学習を用いた言語解析処理システムであり、その解析結果が「d2 」であるとする。この場合に、言語解析処理システムの教師あり機械学習処理では、素性の集合{a,b,c}に解析結果「d2 」を追加し、リスト{a,b,c,”教師あり/なし学習の解析結果=d2 ”}を新しい素性の集合として機械学習を行なう。
【0123】
また、スタッキング用処理システムとして、教師なし機械学習を用いた言語解析処理システムと、教師あり/なし機械学習を用いた言語解析処理システムとを利用することも可能である。この場合に、言語解析処理システムの教師あり機械学習処理では、素性の集合{a,b,c}に解析結果「d1 」および「d2 」を追加し、リスト{a,b,c,”教師なし学習の解析結果=d1 ”,”教師あり/なし学習の解析結果=d2 ”}を新しい素性の集合として機械学習を行なう。
【0124】
このように、スタッキング手法を用いて、教師ありデータを用いた非借用型機械学習と借用型機械学習または併用型機械学習とを組み合わせた場合には、教師あり機械学習に用いる教師ありデータ(事例)の素性が増加する。これにより、教師あり機械学習に用いる個々の事例自体が学習精度を向上させると考えられる。さらに、教師あり機械学習では、素性が増加してはいるが教師ありデータ(事例)についての正解率を最大にするような学習、すなわち解析処理対象についての精度を最大にするような学習を行い、その学習結果を用いて解析処理を行う。これにより、教師あり機械学習、教師なし機械学習それぞれの利点をうまく利用して高い解析精度を得ることが期待できる。
【0125】
図13に、第4の実施の形態における言語解析処理システムの構成例を示す。
【0126】
言語解析処理システム500は、与えられた問題に対する言語解析処理の解析結果を出力するシステムであって、CPUおよびメモリからなり、解−素性対抽出部501、機械学習部502、学習結果データベース503、素性抽出部504、解推定処理部505、スタック用教師なし学習処理システム1010、第1素性追加部511、第2素性追加部512、文データベース5、および解データベース6を備える。
【0127】
解−素性対抽出部501、機械学習部502、学習結果データベース503、素性抽出部504、および解推定処理部505の各処理手段は、それぞれ、文変換処理システム100の解−素性対抽出部101、機械学習部102、学習結果データベース103、素性抽出部110、および解推定処理部111とほぼ同様の処理を行う手段である。
【0128】
スタック用教師なし学習処理システム1010は、言語解析処理について、文データベース5から生成した教師なしデータから素性の集合を抽出し、抽出された素性の集合からどのような素性の集合のときにどのような解(解析結果)になりやすいかを学習してその学習結果を記憶しておき、第1素性追加部511または第2素性追加部512から受け取った素性の集合の場合にどのような解(解析結果)になりやすいかを記憶しておいた学習結果から推定し、推定された解d1 を第1素性追加部511へまたは解d1 ’を第2素性追加部512へ返却する手段である。
【0129】
スタック用教師なし学習処理システム1010は、図8に示す文変換処理システム200と同様に構成された処理手段、すなわち問題表現相当部抽出部201、問題表現情報記憶部202、意味解析情報記憶部203、問題構造変換部204、教師なしデータ記憶部205、解−素性対抽出部101、機械学習部102、学習結果データベース103、素性抽出部110、および解推定処理部111を備え(図示しない)、与えられた問題に対する言語解析処理の解析結果を出力する。
【0130】
第1素性追加部511は、解−素性対抽出部501から受け取った解と素性の集合の組から素性の集合のみを取り出してスタック用教師なし学習処理システム1010へ渡し、スタック用教師なし学習処理システム1010から返却された解d1 を受け取り、”教師なし学習の解析結果=d1 ”を素性として元の素性の集合に追加する手段である。
【0131】
第2素性追加部512は、素性抽出部504から受け取った素性の集合を取り出してスタック用教師なし学習処理システム1010へ渡し、スタック用教師なし学習処理システム1010から返却された解d1 ’を受け取り、”教師なし学習の解析結果=d1 ’”を素性として素性の集合に追加する手段である。
【0132】
図14および図15に、言語解析処理システム500の処理フローを示す。
【0133】
ステップS30: スタック用教師なし学習処理システム1010では、文データベース5に格納された単文を取り出す。取り出した文から問題表現情報を参照して問題表現相当部を抽出して解とし、意味解析情報を参照して問題表現相当部を問題構造に変換して結果として得た文を問題とし、この「問題−解」構造を持つ事例を教師なしデータとして記憶する。さらに、各事例ごとに解と素性の集合との組を抽出し、どのような素性のときにどのような解になりやすいかを機械学習法により学習し、学習結果を記憶しておく。
【0134】
ステップS31: その後、解−素性対抽出部501により、解データベース6から事例を取り出し、各事例ごとに解と素性の集合との組を抽出する。
【0135】
ステップS32: 第1素性追加部511により、解と素性の集合との組のうち素性の集合のみを取り出し、スタック用教師なし学習処理システム1010へ渡す。
【0136】
ステップS33: スタック用教師なし学習処理システム1010では、予め記憶しておいた学習結果を参照して、受け取った素性の集合についてどのような解になりやすいかを推定し、推定された解d1 を第1素性追加部511へ返却する。
【0137】
ステップS34: 第1素性追加部511により、返却された解d1 を素性として元の素性の集合に追加する。その結果、元の素性の集合が{a,b,c}であるとすると、機械学習部502に渡される素性の集合は、{a,b,c,”教師なし学習の解析結果=d1 ”}となる。
【0138】
ステップS35: 機械学習部502により、解と”教師なし学習の解析結果=d1 ”を含む素性の集合との組から、どのような素性のときにどのような解になりやすいかを学習し、学習結果を学習結果データベース503に記憶する。
【0139】
ステップS36: 解を求めたい文が素性抽出部504に入力される。
【0140】
ステップS37: 素性抽出部504により、入力文3から素性の集合を取り出して、第2素性追加部512へ渡す。
【0141】
ステップS38: 第2素性追加部512により、受け取った素性の集合がスタック用教師なし学習処理システム1010へ渡される。
【0142】
ステップS39: スタック用教師なし学習処理システム1010では、予め記憶しておいた学習結果を参照して、受け取った素性の集合のときにどのような解となりやすいかを推定し、推定された解d1 ’を第2素性追加部512へ渡す。
【0143】
ステップS310: 第2素性追加部512により、返却された解d1 ’を素性として元の素性の集合に追加する。元の素性の集合が{a,b,c}であるとすると、機械学習部502に渡される素性の集合は、{a,b,c,”教師なし学習の解析結果=d1 ’”}となり、この素性の集合が解推定処理部505へ渡される。
【0144】
ステップS311: 解推定処理部505により、学習結果データベース503に記憶された学習結果を参照して、渡された素性の集合の場合にどのような解になりやすいかを推定し、推定された解4を出力する。
【0145】
以下に、具体的な処理を例として言語解析処理システム500の処理をより詳細に説明する。第1の具体例として、言語解析処理システム500が受け身文・使役文から能動文への変換処理における変換後格助詞の推定を行う場合の処理例を示す。
【0146】
言語解析処理システム500のスタック用教師なし学習処理システム1010では、予め受け身文・使役文から能動文への変換処理において変換すべき格助詞(推定すべき格助詞)を問題表現として記憶しておく。そして、文データベース5から取り出した文が「犬が噛む」であるときには、問題表現相当部として「が」を抽出して解(分類先)とし、文を「犬<?>噛む。」に変形して問題(文脈)とし、
事例(問題⇒解):「犬<?>噛む。」⇒「が」
を記憶する。さらに、この事例から以下のような素性の集合を抽出する。
【0147】
・推定すべき格にある体言n=犬、
・推定すべき格が修飾する用言v=噛む、
・体言と用言の間の元の(変換前)格助詞=?(不明)
そして、この素性の集合の場合には変換後格助詞は「が」になりやすいと学習し、その学習結果を記憶する。
【0148】
また、文データベース5から取り出した文が「ヘビが噛む」であるときには、同様の処理により、
事例(問題⇒解):「ヘビ<?>噛む。」⇒「が」
を記憶する。さらに、この事例から、以下のような素性の集合を抽出する。
【0149】
・推定すべき格にある体言n=ヘビ、
・推定すべき格が修飾する用言v=噛む、
・体言と用言の間の元の(変換前)格助詞=?(不明)
そして、この素性の集合の場合にも変換後格助詞は「が」になりやすいと学習し、その学習結果を記憶する。
【0150】
その後、解−素性対抽出部501により、解データベース6から、
事例(問題⇒解):「犬に噛まれる。」⇒「が」
を取り出し、各事例ごとに解「が」と以下の素性の集合との組を抽出する。
【0151】
・推定すべき格にある体言n=犬、
・推定すべき格が修飾する用言v=噛む、
・体言nと用言vとの間の元の(変換前)格助詞=に
さらに、第1素性追加部511により、抽出した解と素性の集合との組のうち、素性の集合のみを取り出し、スタック用教師なし学習処理システム1010へ渡す。スタック用教師なし学習処理システム1010では、予め記憶しておいた学習結果を参照して、受け取った素性の集合についてどのような解になりやすいかを推定し、推定された解d1 「が」を第1素性追加部511へ返却する。
【0152】
次に、第1素性追加部511により、返却された解d1 を素性として元の素性の集合に追加し、以下のような素性の集合とする。
【0153】
・推定すべき格にある体言n=犬、
・推定すべき格が修飾する用言v=噛む、
・体言nと用言vとの間の元の(変換前)格助詞=に、
・教師なし学習の解析結果=が(解d1 )
そして、機械学習部502により、解と解d1 を含む素性の集合との組から、どのような素性のときにどのような解になりやすいかを学習し、学習結果を学習結果データベース503に記憶する。
【0154】
その後、解を求めたい文が素性抽出部504に入力される。素性抽出部504により、入力文3から素性の集合を取り出す。例えば、入力文3が「ヘビに噛まれる。」である場合に、以下のような素性の集合を抽出して、第2素性追加部512へ渡す。
【0155】
・推定すべき格にある体言n=ヘビ、
・推定すべき格が修飾する用言v=噛む、
・体言nと用言vとの間の元の(変換前)格助詞=に
そして、第2素性追加部512により、受け取った素性の集合がスタック用教師なし学習処理システム1010へ渡される。スタック用教師なし学習処理システム1010では、予め記憶しておいた学習結果を参照して、受け取った素性の集合のときにどのような解となりやすいかを推定し、推定された解d1 ’「が」を第2素性追加部512へ返却する。
【0156】
第2素性追加部512により、返却された解d1 ’を素性として元の素性の集合に追加する。例えば、以下のような素性の集合となる。
【0157】
・推定すべき格にある体言n=ヘビ、
・推定すべき格が修飾する用言v=噛む、
・体言nと用言vとの間の元の(変換前)格助詞=に、
・教師なし学習の解析結果=が(解d1 ’)
そして、解d1 ’を含む素性の集合は、解推定処理部505へ渡される。解推定処理部505により、学習結果データベース503に記憶された学習結果を参照して、渡された素性の集合の場合にどのような解になりやすいかを推定して、推定された解4を出力する。
【0158】
ここでは、スタック用教師なし学習処理システム1010から返却された解析結果「が」を追加した素性の集合をもとに教師あり学習の学習結果を参照して推定した格助詞「が」が出力される。
【0159】
このように、機械学習部502は、解データベース6の教師ありデータ(事例)から抽出した素性の集合に”教師なし学習の解析結果=d1 ”を追加した素性の集合を用いて機械学習を行う。この場合に用いる素性の集合は、教師ありデータから抽出した素性の集合よりも素性の情報が多くなるため、教師ありデータのみを用いて機械学習を行う場合に比べてより高い精度で機械学習を行うことができる。また、データ量は膨大であるが素性の情報が少ない教師なしデータのみを用いて機械学習を行う場合に比べても、素性の情報が多い点でより高い精度の機械学習を行うことができる。
【0160】
さらに、解推定処理部505は、素性の集合の情報が多い事例を用いて学習された高い精度の学習結果を参照して、入力文3から抽出した素性の集合の類似性をみることになる。したがって、素性の集合に”教師なし学習の解析結果=d1 ’”を含まない場合に比べて、素性の集合同士の類似性が高くなり、推定処理の精度も高くなる。
【0161】
第2の具体例として、言語解析処理システム500が、文の意味が深層格などで表現されている場合に、その文を生成する際に与えられる表層格を推定する処理を行う場合の処理例を示す。
【0162】
例えば、文の意味を深層格で示すと以下のように表すことができる。
【0163】
文「りんご<←obj>食べる」
この文において、「りんご」は「食べる」の目的語であり、「りんご」と「食べる」とは深層格の目的格(<←obj>で示す。)で連結されている。
【0164】
そして、文生成処理では、前記の元の文から、生成文「りんごを食べる」を出力するが、この場合に<←obj>に対応する格助詞「を」を生成する必要がある。この処理において与えられる問題構造(問題⇒格)を以下に示す。
【0165】
問題(問題⇒格):
「りんご<←obj>食べる」⇒「を」
言語解析処理システム500のスタック用教師なし学習処理システム1010は、与えられている深層格を問題表現として記憶しておく。そして、スタック用教師なし学習処理システム1010では、文データベース5から取り出した文が「りんごを食べる。」である場合に、格助詞「を」を問題表現相当部として置き換え、格助詞「を」を解として抽出し、取り出した文の問題表現相当部を変換した結果得た文を問題として、以下のような事例を教師なしデータとして記憶する。
【0166】
事例(問題⇒解):
「りんご<?>食べる」⇒「を」
さらに、この事例から解と素性の集合との組を抽出する。ここで、素性の集合は、以下のようになる。
【0167】
・生成すべき格にある体言n=りんご、
・生成すべき格が修飾する用言v=食べる、
・体言nと用言vの間の深層格=?(不明)
そして、どのような素性の集合のときにどのような解となりやすいかを学習し、その学習結果を記憶しておく。例えば、前記の素性の集合の場合には「解=を」になりやすいと学習する。
【0168】
また、文データベース5から文「みかんを食べる」を取り出したとする。この場合には、以下のような事例を教師なしデータとする。
【0169】
事例(問題⇒解):
「みかん<?>食べる」⇒「を」
さらに、この事例から解と素性の集合との組を抽出する。ここで、素性の集合は、以下のようになる。
【0170】
・生成すべき格にある体言n=みかん、
・生成すべき格が修飾する用言v=食べる、
・体言nと用言vの間の深層格=?(不明)
なお、文生成処理における格推定の場合にも、一般的な教師ありデータに比べて素性の情報は少なくなるが、教師なしデータとして利用できる文自体は多量にあるため、多数の教師なしデータを準備することが可能である。
【0171】
そして、どのような素性の集合のときにどのような解となりやすいかを学習し、その学習結果を記憶しておく。この場合にも、「解=を」になりやすいと学習する。
【0172】
その後、解−素性対抽出部501により、解データベース6から以下の事例を取り出したとする。
【0173】
事例:「りんご<←obj>食べる」⇒「を」
さらに、取り出した事例から解と素性の集合との組を抽出する。素性の集合として以下のものが抽出される。
【0174】
・生成すべき格にある体言n=りんご、
・生成すべき格が修飾する用言v=食べる、
・体言nと用言vの間の深層格=obj
第1素性追加部511により、抽出した素性の集合をスタック用教師なし学習処理システム1010へ渡し、スタック用教師なし学習処理システム1010では、記憶しておいた学習結果をもとに、受け取った素性の集合の場合にどのような解になりやすいかを推定し、推定された解d1 =「を」を第1素性追加部511へ返却する。そして、第1素性追加部511は、返却された解d1 を素性の集合に追加して、以下の素性の集合とする。
【0175】
・生成すべき格にある体言n=りんご、
・生成すべき格が修飾する用言v=食べる、
・体言nと用言vの間の深層格=obj、
・教師なし学習の解析結果=を(解d1 )
そして、機械学習部502は、前記の素性の集合の場合にどのような解になりやすいかを学習する。このとき、スタック用教師なし学習処理システム1010から取得した解d1 による”教師なし学習の解析結果=を(解d1 )”を素性の集合として持つため、
・生成すべき格にある体言n=りんご、
・生成すべき格が修飾する用言v=食べる、
・体言nと用言vの間の深層格=obj、
・教師なし学習の解析結果=を(解d1 )
という素性があれば、「を」が解となるという学習ができている。この学習結果を学習結果データベース503に記憶する。
【0176】
その後、素性抽出部504に文「みかん<←obj>食べる」が入力されると、素性抽出部504は、入力文3から、以下のような素性の集合を抽出して、第2素性追加部512へ渡す。
【0177】
・生成すべき格にある体言n=みかん、
・生成すべき格が修飾する用言v=食べる、
・体言nと用言vの間の深層格=obj
第2素性追加部512により、この素性の集合がスタック用教師なし学習処理システム1010に渡されると、スタック用教師なし学習処理システム1010では、記憶しておいた学習結果を参照して受け取った素性の集合の場合になりやすい解d1 ’=「を」を推定し、第2素性追加部512へ返却する。
【0178】
第2素性追加部512は、元の素性の集合に解d1 ’を追加した以下の素性の集合を解推定処理部505へ渡す。
【0179】
・生成すべき格にある体言n=みかん、
・生成すべき格が修飾する用言v=食べる、
・体言nと用言vの間の深層格=obj、
・教師なし学習の解析結果=を(解d1 ’)
解推定処理部505により、この素性の集合の場合にどのような解になりやすいかを推定する。ここで、学習結果として記憶しておいた素性の集合と、入力文3から抽出した素性の集合とがよく類似しているので、学習結果で解とした「を」を正しく推定することができる。そして、推定された解4として生成すべき格助詞「を」を出力する。
【0180】
次に、第3の具体例として、言語解析処理システム500が、動詞の省略表現を補完する処理を行う場合の処理例を示す。例えば、「そんなにうまくいくとは。」という文は文末の動詞部分が省略されている表現であると考えて、省略された動詞部分「思えない」を補完する処理を行う。
【0181】
この場合に、省略された「補完すべき動詞部分」を問題表現とし、その省略表現を補完する「動詞部分」を解とする。言語解析処理システム500のスタック用教師なし学習処理システム1010では、このような問題表現を抽出するために予め問題表現情報を記憶しておく。
【0182】
そして、文データベース5から取り出した文が「そんなにうまくいくとは思えない。」である場合に、文末の動詞部分を問題表現相当部として置き換え、文末の動詞部分「思えない」を解として抽出し、取り出した文の問題表現相当部を変換した結果得た文を問題として、以下のような事例を教師なしデータとして記憶する。
【0183】
事例(問題⇒解):
「そんなにうまくいくとは<?>」⇒「思えない」
さらに、この事例から解と素性の集合との組を抽出する。ここで、素性の集合は、以下のようになる。
【0184】
・「は」、
・「とは」、
・「くとは」、
・「いくとは」、
…、
・「そんなにうまくいくとは思えない」
そして、どのような素性の集合のときにどのような解となりやすいかを学習し、その学習結果を記憶しておく。例えば、前記の素性の集合の場合には「解=思えない」になりやすいと学習する。
【0185】
その後、解−素性対抽出部501により、解データベース6から、
事例:「そんなにうまくいくとは。」⇒「思えない」
を取り出し、取り出した事例から解と素性の集合との組を抽出する。ここで、素性の集合は、以下の素性からなる。
【0186】
・「は」、
・「とは」、
・「くとは」、
・「いくとは」、
…、
・「そんなにうまくいくとは」
・「そんなにうまくいくとは思えない」
第1素性追加部511は、抽出した素性の集合をスタック用教師なし学習処理システム1010へ渡す。
【0187】
スタック用教師なし学習処理システム1010では、記憶しておいた学習結果をもとに、受け取った素性の集合の場合にどのような解になりやすいかを推定し、推定された解d1 =「思えない」を第1素性追加部511へ返却する。
【0188】
そして、第1素性追加部511は、返却された解d1 を素性の集合に追加して、以下の素性の集合とする。
【0189】
・「は」、
・「とは」、
・「くとは」、
・「いくとは」、
…、
・「そんなにうまくいくとは」
・「そんなにうまくいくとは思えない」
・教師なし学習の解析結果=思えない(解d1 )
そして、機械学習部502は、前記の素性の集合の場合にどのような解になりやすいかを学習し、学習結果を学習結果データベース503に記憶する。
【0190】
その後、素性抽出部504に文「そううまくいくとは。」が入力されると、素性抽出部504は、入力文3から、以下のような素性の集合を抽出して、第2素性追加部512へ渡す。
【0191】
・「は」、
・「とは」、
・「くとは」、
・「いくとは」、
…、
・「そううまくいくとは」
第2素性追加部512により、この素性の集合がスタック用教師なし学習処理システム1010に渡されると、スタック用教師なし学習処理システム1010では、記憶しておいた学習結果を参照して受け取った素性の集合の場合になりやすい解d1 ’=「思えない」を推定し、第2素性追加部512へ返却する。
【0192】
第2素性追加部512は、元の素性の集合に解d1 ’を追加した以下の素性の集合を解推定処理部505へ渡す。
【0193】
・「は」、
・「とは」、
・「くとは」、
・「いくとは」、
…、
・「そううまくいくとは」
・教師なし学習の解析結果=思えない(解d1 ’)
解推定処理部505により、この素性の集合の場合にどのような解になりやすいかを推定し、推定された解4として省略された動詞部分「思えない」を出力する。
【0194】
図16に、第4の実施の形態における言語解析処理システムの別の構成例を示す。言語解析処理システム540は、言語解析処理システム500と同様の処理手段を備え、スタック用教師なし学習処理システム1010の代わりに、スタック用教師あり/なし学習処理システム1020を備えた構成をとる。
【0195】
スタック用教師あり/なし学習処理システム1020は、スタック用教師なし学習処理システム1010と同様の処理手段に解データベース2を追加した構成をとる。スタック用教師あり/なし学習処理システム1020は、言語解析処理について、文データベース5から生成した教師なしデータおよび解データベース2の事例(教師ありデータ)からそれぞれ素性の集合を抽出し、抽出された素性からどのような素性の集合のときにどのような解(解析結果)になりやすいかを学習してその学習結果を記憶しておき、第1素性追加部511または第2素性追加部512から受け取った素性の集合の場合にどのような解(解析結果)になりやすいかを記憶しておいた学習結果から推定し、推定された解d2 を第1素性追加部511へ、または解d2 ’を第2素性追加部512へ返却する手段である。
【0196】
言語解析処理システム540の第1素性追加部511は、スタック用教師あり/なし学習処理システム1020から返却された解d2 を受け取り、”教師あり/なし学習の解析結果=d2 ”を素性として元の素性の集合に追加する。また、言語解析処理システム540の第2素性追加部512は、スタック用教師あり/なし学習処理システム1020から返却された解d2 ’を受け取り、”教師あり/なし学習の解析結果=d2 ’”を素性として素性の集合に追加する。
【0197】
さらに、図17に、第4の実施の形態における言語解析処理システムの別の構成例を示す。
【0198】
言語解析処理システム550は、与えられた問題に対する言語解析処理の解析結果を出力システムであって、CPUおよびメモリからなり、素性−解対・素性−解候補対抽出部561、機械学習部562、学習結果データベース563、素性−解候補抽出部564、解推定処理部565、スタック用教師なし学習処理システム1030、第1素性追加部521、第2素性追加部522、文データベース5、および解データベース6を備える。
【0199】
素性−解対・素性−解候補対抽出部561、機械学習部562、学習結果データベース563、素性−解候補抽出部564、および解推定処理部565の各処理手段は、それぞれ、文変換処理システム150の素性−解対・素性−解候補対抽出部161、機械学習部162、学習結果データベース163、素性−解候補抽出部170、および解推定処理部171とほぼ同様の処理を行う手段である。
【0200】
スタック用教師なし学習処理システム1030は、言語解析処理について、文データベース5から生成した教師なしデータから解もしくは解候補と素性の集合との組を抽出し、抽出された解もしくは解候補と素性の集合との組から、どのような解もしくは解候補と素性の集合のときに正例である確率または負例である確率を機械学習法により学習してその学習結果を記憶しておき、この学習結果を参照して第1素性追加部521または第2素性追加部522から受け取った解もしくは解候補と素性の集合との組の場合に正例または負例である確率を求めて正例である確率が最も大きい解候補を解(解析結果)と推定し、推定された解d3 を第1素性追加部521へまたは解d3 ’を第2素性追加部522へ返却する手段である。
【0201】
スタック用教師なし学習処理システム1030は、解d3 、解d3 ’として、解と推定した解候補を出力するとともに、その解が正例もしくは負例であるかの情報や、正例もしくは負例である確率の情報などを出力することもできる。
【0202】
スタック用教師なし学習処理システム1030は、図10に示す文変換処理システム250と同様に構成された処理手段、すなわち問題表現相当部抽出部201、問題表現情報記憶部202、意味解析情報記憶部203、問題構造変換部204、教師なしデータ記憶部205、素性−解対・素性−解候補対抽出部161、機械学習部162、学習結果データベース163、素性−解候補抽出部170、および解推定処理部171を備え(図示しない)、与えられた問題に対する言語解析処理の解析結果を出力する。
【0203】
第1素性追加部521は、素性−解対・素性−解候補対抽出部561から受け取った解もしくは解候補と素性の集合との組をスタック用教師なし学習処理システム1030へ渡し、スタック用教師なし学習処理システム1030から返却された解d3 を受け取り、”教師なし学習の解析結果=解d3 ”を素性として元の素性の集合に追加する手段である。
【0204】
第2素性追加部522は、素性−解候補抽出部564から受け取った解候補と素性の集合との組をスタック用教師なし学習処理システム1030へ渡し、スタック用教師なし学習処理システム1030から返却された解d3 ’を受け取り、”教師なし学習の解析結果=解d3 ’”を素性として元の素性の集合に追加する手段である。
【0205】
図18および図19に、言語解析処理システム550の処理フローを示す。
【0206】
ステップS40: スタック用教師なし学習処理システム1030では、文データベース5に格納された単文を取り出し、取り出した文から問題表現情報を参照して問題表現相当部を抽出して解とし、さらに意味解析情報を参照して問題表現相当部を問題構造に変換し、変換結果として得た文を問題として「問題−解」構造を持つ事例を教師なしデータとして記憶する。さらに、各事例ごとに解もしくは解候補と素性の集合との組を抽出し、どのような解もしくは解候補と素性の集合との組のときに正例である確率または負例である確率を機械学習法により学習し、学習結果を記憶しておく。
【0207】
ステップS41: その後、素性−解対・素性−解候補対抽出部561により、解データベース6から事例を取り出し、各事例ごとに解もしくは解候補と素性の集合との組を抽出する。
【0208】
ステップS42: 第1素性追加部521により、解もしくは解候補と素性の集合との組をスタック用教師なし学習処理システム1030へ渡す。
【0209】
ステップS43: スタック用教師なし学習処理システム1030では、予め記憶しておいた学習結果を参照して、受け取った解もしくは解候補と素性の集合との組について正例である確率または負例である確率を求めて正例である確率が最も大きい解候補を解d3 と推定し、解d3 を第1素性追加部521へ返却する。
【0210】
ステップS44: 第1素性追加部521により、返却された解d3 から、”教師なし学習の解析結果=解d3 ”を素性として元の素性の集合に追加する。解d3 として、推定された解候補の他に、正例もしくは負例であるかの情報、正例もしくは負例である確率などの情報が含まれている場合には、受け取った解d3 に含まれる情報の一部または全部を素性の集合に追加するようにしてもよい。例えば、”教師なし学習の解析結果=推定された解候補(解d3 )”、”教師なし学習の解析結果=正例/負例(解d3 )”、または”教師なし学習の解析結果=正例の確率/負例の確率(解d3 )”のような素性の1つもしくは複数が元の素性の集合に追加される。
【0211】
ステップS41〜ステップS44の処理は、すべての解もしくは解候補と素性の集合との組について行なわれる。
【0212】
ステップS45: 機械学習部562により、解もしくは解候補と解d3 を含む素性の集合との組から、どのような解もしくは解候補と素性の集合の組のときに正例である確率または負例である確率を機械学習法により求め、その学習結果を学習結果データベース563に記憶する。
【0213】
ステップS46: 解を求めたい文が素性−解候補抽出部564に入力される。
【0214】
ステップS47: 素性−解候補抽出部564により、入力文3から解候補と素性の集合との組を取り出す。
【0215】
ステップS48: 第2素性追加部522により、受け取った解候補と素性の集合との組をスタック用教師なし学習処理システム1030へ渡す。
【0216】
ステップS49: スタック用教師なし学習処理システム1030では、予め記憶しておいた学習結果を参照して、受け取った解候補と素性の集合との組からどのような解候補と素性の集合との組のときに正例である確率または負例である確率を求めて正例である確率が最も大きい解候補を解d3 ’と推定し、解d3 ’を第2素性追加部522へ返却する。
【0217】
ステップS410: 第2素性追加部522により、返却された解d3 ’から、”教師なし学習の解析結果=解d3 ’”を素性として元の素性の集合に追加する。
【0218】
ステップS411: 解推定処理部565により、学習結果データベース563に記憶された学習結果を参照して、渡された解候補と素性の集合との場合に正例である確率または負例である確率を求める。すべての解候補についてこの確率を求め、正例である確率が最も大きい解候補を求める解4として出力する。
【0219】
図20に、第4の実施の形態における言語解析処理システムの別の構成例を示す。言語解析処理システム580は、言語解析処理システム550と同様の処理手段を備え、スタック用教師なし学習処理システム1030の代わりに、スタック用教師あり/なし学習処理システム1040を備えた構成をとる。
【0220】
スタック用教師あり/なし学習処理システム1040は、スタック用教師あり/なし学習処理システム1020と同様の処理手段に解データベース2を追加した構成をとる。スタック用教師あり/なし学習処理システム1040は、言語解析処理について、文データベース5から生成した教師なしデータから解もしくは解候補と素性の集合との組を抽出し、抽出された解もしくは解候補と素性の集合との組から、どのような解もしくは解候補と素性の集合のときに正例である確率または負例である確率を機械学習法により学習してその学習結果を記憶しておき、この学習結果を参照して第1素性追加部521または第2素性追加部522から受け取った解もしくは解候補と素性の集合との組の場合に正例または負例である確率を求めて正例である確率が最も大きい解候補を解(解析結果)と推定し、推定された解d4 を第1素性追加部521へまたは解d4 ’を第2素性追加部522へ返却する手段である。
【0221】
スタック用教師あり/なし学習処理システム1040は、解d4 、解d4 ’として、解と推定した解候補を出力するとともに、その解が正例もしくは負例であるかの情報や、正例もしくは負例である確率の情報などを出力することもできる。
【0222】
言語解析処理システム580の第1素性追加部521は、スタック用教師あり/なし学習処理システム1040から返却された解d4 を受け取り、”教師あり/なし学習の解析結果=d4 ”を素性として元の素性の集合に追加する。また、言語解析処理システム580の第2素性追加部522は、スタック用教師あり/なし学習処理システム1040から返却された解d4 ’を受け取り、”教師あり/なし学習の解析結果=d4 ’”を素性として元の素性の集合に追加する。
【0223】
図21に、第4の実施の形態における言語解析処理システムの別の構成例を示す。言語解析処理システム600は、言語解析処理システム500と同様の処理手段を備え、さらにスタック用教師あり/なし学習処理システム1020を備えた構成をとる。
【0224】
言語解析処理システム600の第1素性追加部611は、解−素性対抽出部501から受け取った解と素性の集合との組から素性の集合のみをスタック用教師なし学習処理システム1010およびスタック用教師あり/なし学習処理システム1020へ渡し、スタック用教師なし学習処理システム1010から返却された解d1 およびスタック用教師あり/なし学習処理システム1020から返却された解d2 を受け取る。そして、”教師なし学習の解析結果=d1 ”および”教師あり/なし学習の解析結果=d2 ”を素性として元の素性の集合に追加する。
【0225】
また、言語解析処理システム600の第2素性追加部612は、素性抽出部504から受け取った素性の集合をスタック用教師なし学習処理システム1010およびスタック用教師あり/なし学習処理システム1020へ渡し、スタック用教師なし学習処理システム1010から返却された解d1 ’およびスタック用教師あり/なし学習処理システム1020から返却された解d2 ’を受け取り、”教師なし学習の解析結果=d1 ’”および”教師あり/なし学習の解析結果=d2 ’”を素性として元の素性の集合に追加する。
【0226】
図22に、第4の実施の形態における言語解析処理システムの別の構成例を示す。言語解析処理システム650は、言語解析処理システム550と同様の処理手段を備え、さらにスタック用教師あり/なし学習処理システム1040を備えた構成をとる。
【0227】
言語解析処理システム650の第1素性追加部621は、素性−解対・素性−解候補対抽出部561から受け取った解もしくは解候補と素性の集合との組をスタック用教師なし学習処理システム1030およびスタック用教師あり/なし学習処理システム1040へ渡し、スタック用教師なし学習処理システム1030から返却された解d3 およびスタック用教師あり/なし学習処理システム1040から返却された解d4 を受け取る。そして、”教師なし学習の解析結果=d3 ”および”教師あり/なし学習の解析結果=d4 ”を素性として元の素性の集合に追加する。
【0228】
また、言語解析処理システム650の第2素性追加部622は、素性−解候補抽出部564から受け取った解候補と素性の集合との組をスタック用教師なし学習処理システム1030およびスタック用教師あり/なし学習処理システム1040へ渡し、スタック用教師なし学習処理システム1030から返却された解d3 ’およびスタック用教師あり/なし学習処理システム1040から返却された解d4 ’を受け取り、”教師なし学習の解析結果=d3 ’”および”教師あり/なし学習の解析結果=d4 ’”を素性として元の素性の集合に追加する。
【0229】
スタック用教師なし学習処理システム1030およびスタック用教師あり/なし学習処理システム1040は、解d3 、解d3 ’、解d4 、解d4 ’として、解と推定した解候補を出力するとともに、その解が正例もしくは負例であるかの情報や、正例もしくは負例である確率の情報などを出力することもできる。この場合には、受け取った解に含まれる情報の一部または全部が素性の集合に追加されるようにする。例えば、”教師なし学習の解析結果=推定された解候補”、”教師なし学習の解析結果=正例/負例”、または”教師なし学習の解析結果=正例の確率/負例の確率”のような素性などの1つもしくは複数が元の素性の集合に追加される。
【0230】
すでに説明したように、教師なしデータは、教師ありデータと異なる性質を持つことから、単純に教師なしデータを教師ありデータに追加して機械学習を行うことが処理精度の改善に不十分である場合もある。本形態のようにスタッキング手法により教師なしデータによる機械学習と教師ありデータによる機械学習とを融合することで、これら双方の学習の利点を適切に利用することができ、解析処理の精度向上を図ることができたと思われる。
【0231】
最後に、従来技術による手法と本発明の手法の実施例を示す。実施例として受け身文・使役文から能動文への文変換処理における格変換処理を採用した。機械学習法としてサポートベクトルマシン法を採用した。また、京大コーパスを教師ありデータとして利用し、また、京大コーパスに含まれるの能動文のすべての格助詞(53,157個)を教師なしデータとして利用した。図23に、教師なしデータにおける変換後格助詞の分布を示す。
【0232】
さらに、実施例での処理精度の評価にも京大コーパスを用い、10分割のクロスバリデーションにより評価を行った。
[参考文献6:黒橋禎夫、長尾真、京都大学テキストコーパス・プロジェクト、言語処理学会第3回年次大会、1997、pp115−118 ]
以下の方法を用いて格助詞の変換の実験を行なった。
【0233】
・教師あり学習の利用
・教師なし学習の利用
・教師あり/なし学習の利用
・スタッキング手法1:
教師なし学習の解析結果を素性に追加後、教師あり学習を行なう。
【0234】
・スタッキング手法2:
教師あり/なし学習の解析結果を素性に追加後、教師あり学習を行なう。
【0235】
・スタッキング手法3:
教師なし学習の解析結果と教師あり/なし学習の解析結果とを素性に追加後、教師あり学習を行なう。
【0236】
処理精度の評価結果を、以下に示す。処理精度は教師ありデータの事例数 4,671個のうち、どれだけ正解したかを意味する。
【0237】
・教師あり学習の利用=89.06%
・教師なし学習の利用=51.15%
・教師あり/なし学習の利用=87.09%
・スタッキング手法1=89.47%
・スタッキング手法2=89.55%
・スタッキング手法3=89.55%
教師あり学習方法を用いた処理の精度は、89.06%であった。これは、受け身文・使役文から能動文へ文変換における格助詞の変換処理を、機械学習法を用いて処理することにより、少なくともこの精度で実現できることを意味する。従来、機械学習法を用いた格助詞の変換処理はないので、本発明の実施例が示すこの精度は、本発明の格別な効果を示すものである。
【0238】
教師なし学習方法を用いた処理の精度は、51.15%と極めて低かった。解析対象である変換前格助詞の情報の欠如の影響が大きいと考えられる。
【0239】
また、教師あり/なし学習方法を用いた処理の精度も、教師あり学習方法を用いた処理の精度よりも低かった。教師なしデータは、教師ありデータとは異なる性質を持つため、教師なしデータの利用が精度低下を招いたと考えられる。
【0240】
すべてのスタッキング手法を用いた処理の精度は、教師あり学習方法を用いた処理の精度の精度を上回った。しかし、精度の向上は大きくない。そこで、二項検定を使って統計的検定を行なった結果、すべてのスタッキング手法が教師あり学習に対して有意水準0.01で有意差を持った。このため、本発明における、教師なし学習の結果を素性に追加して利用する手法が、効果を持つことが確認できた。
【0241】
さらに、本発明の「教師あり学習を用いた処理」の精度との比較のため、従来技術の一つとして非特許文献4に記載された方法による処理を実施した。
【0242】
非特許文献4に記載された手法による格変換処理の精度はF値で36%(再現率75%、適合率24%) であった。この従来技術による処理精度が低い理由は、与えられた文に辞書にない語が存在することである。そのような辞書に未定義の語を登録した後の処理の精度はF値で83%(再現率94%、適合率74%) であった。なお、ここで精度をF値で示しているのは非特許文献4の手法での格変換は1つの入力に複数の変換結果を出力するためである。このように、すでに指摘したとおり既存の各フレーム辞書の不十分さの影響が大きいことがわかる。
【0243】
また、非特許文献4の手法による処理結果が文単位であるため、本発明による処理結果も文単位で集計した。このとき、本発明による処理では、文単位の精度は85.58%であった。ただし、ここでの文単位は用言が1つの文であり、複文など複数の文により構成されている文は用言が1つの文に分割してから精度の算出を行なった。
【0244】
本発明による処理の精度は、非特許文献4に示す手法で未知語などを辞書に登録した後の処理精度と同程度である。本発明では、解析対象となる情報について辞書への追加登録などは一切行なわずに85%程度の精度を得ている。このことから、本発明による処理が、従来技術より高い精度で処理を行えることがわかる。
【0245】
以上、本発明をその実施の形態により説明したが、本発明はその主旨の範囲において種々の変形が可能であることは当然である。
【0246】
本発明の実施の形態では、主に受け身文、使役文から能動文への変換処理における格助詞の変換を扱った。しかし、本発明における機械学習部での分類先を能動文での格助詞から受け身文、使役文での格助詞とすることにより、能動文から受け身文、使役文への変換処理についても本発明を適用することが可能である。
【0247】
また、本発明の実施の形態で言語解析処理として説明した解析処理以外にも、指示詞・代名詞・ゼロ代名詞などの照応解析、間接照応解析、「AのB」の意味解析、換喩解析などの種々の解析処理、文生成処理における格助詞生成処理、翻訳処理における格助詞生成処理などの処理についても本発明を適用することが可能である。
【0248】
また、本発明の各手段または機能または要素は、コンピュータにより読み取られ実行される処理プログラムとして実現することができる。また、本発明を実現する処理プログラムは、コンピュータが読み取り可能な、可搬媒体メモリ、半導体メモリ、ハードディスクなどの適当な記録媒体に格納することができ、これらの記録媒体に記録して提供され、または、通信インタフェースを介して種々の通信網を利用した送受信により提供されるものである。
【0249】
【発明の効果】
以上説明したように、本発明により、教師なしデータを用いた機械学習の解析結果を素性に追加し、追加された素性を持つ教師ありデータを用いて機械学習を行なう新しい手法を実現した。これにより、教師なしデータと教師ありデータの双方の利点を用いた機械学習が実現でき、より高い精度の文変換処理を実現することが可能となった。
【0250】
特に本発明は、省略補完処理、文生成処理、機械翻訳処理、文字認識処理、音声認識処理など、語句生成処理を含むようなきわめて広範囲の問題に適用することができる。これにより、実用性の高い言語解析処理システムを実現することができる。
【0251】
また、本発明により、日本語の受け身文・使役文から能動文へ変換処理における格助詞の変換を機械学習を用いて行う新しい手法を実現した。本発明により、従来に比べて高い精度で変換後格助詞の推定を行うことが可能となった。
【0252】
本発明を適用した受け身文・使役文から能動文への変換は、文生成処理、文言い換え処理、知識獲得システム、質問応答システムなどのコンピュータを用いた自然言語処理の数多くの分野で役に立つものである。
【図面の簡単な説明】
【図1】第1の実施の形態における文変換処理システムの構成例を示す図である。
【図2】第1の実施の形態における文変換処理システムの処理フローを示す図である。
【図3】タグ付きコーパスに記憶されている事例の例を示す図である。
【図4】サポートベクトルマシン法のマージン最大化の概念を示す図である。
【図5】第1の実施の形態における文変換処理システムの別の構成例を示す図である。
【図6】第1の実施の形態において別の構成例をとる文変換処理システムの処理フローを示す図である。
【図7】教師なしデータを説明するための図である。
【図8】第2の実施の形態における文変換処理システムの構成例を示す図である。
【図9】教師なしデータ生成処理の処理フローを示す図である。
【図10】第2の実施の形態における文変換処理システムの別の構成例を示す図である。
【図11】第3の実施の形態における文変換処理システムの構成例を示す図である。
【図12】第3の実施の形態における文変換処理システムの別の構成例を示す図である。
【図13】第4の実施の形態における言語解析処理システムの構成例を示す図である。
【図14】第4の実施の形態における言語解析処理システムの処理フローを示す図である。
【図15】第4の実施の形態における言語解析処理システムの処理フローを示す図である。
【図16】第4の実施の形態における言語解析処理システムの別の構成例を示す図である。
【図17】第4の実施の形態における言語解析処理システムの別の構成例を示す図である。
【図18】第4の実施の形態において別の構成例をとる言語解析処理システムの処理フローを示す図である。
【図19】第4の実施の形態において別の構成例をとる言語解析処理システムの処理フローを示す図である。
【図20】第4の実施の形態における言語解析処理システムの別の構成例を示す図である。
【図21】第4の実施の形態における言語解析処理システムの別の構成例を示す図である。
【図22】第4の実施の形態における言語解析処理システムの別の構成例を示す図である。
【図23】実施例において教師なしデータにおける変換後格助詞の分布を示す図である。
【符号の説明】
100,150,200,250,300,350 文変換処理システム
101,501 解−素性対抽出部
102,162,502,562 機械学習部
103,163,503,563 学習結果データベース
110,504 素性抽出部
111,171,505,565 解推定処理部
161,561 素性−解対・素性−解候補対抽出部
170,564 素性−解候補抽出部
201 問題表現相当部抽出部
202 問題表現情報記憶部
203 意味解析情報記憶部
204 問題構造変換部
205 教師なしデータ記憶部
500,540,550,580,600,650 言語解析処理システム
511,521,611,621 第1素性追加部
512,522,612,622 第2素性追加部
1010,1030 スタック用教師なし学習処理システム
1020,1040 スタック用教師あり/なし学習処理システム
2,6 解データベース
3 入力文
4 解
5 文データベース[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a computer-implemented natural language processing technology. More specifically, the present invention relates to a language analysis processing method using a sentence digitized by a machine learning method and a processing system for realizing the processing method.
[0002]
In particular, the present invention can be applied to language processing that handles a very wide range of problems, including word and phrase generation processing, such as abbreviation completion processing, sentence generation processing, machine translation processing, character recognition processing, and speech recognition processing. .
[0003]
[Prior art]
In the field of language analysis processing, semantic analysis processing, which is the next stage of morphological analysis and syntax analysis, is becoming increasingly important. In particular, in case analysis processing, omission analysis processing, and the like, which are the main parts of semantic analysis, it is desired to reduce the burden on processing and improve processing accuracy.
[0004]
The case analysis process is a process of restoring a surface case in which part of a sentence is hidden by subjecting or unifying. For example, in the sentence "I ate apples.", The part "Apples" is the theme, but when this part is returned to the surface case, it is "Apples". In this manner, the process of analyzing the “ha” of “apple” of “apple ate” as “ヲ” is performed. In addition, in the sentence "I have read the book I bought yesterday." The part of "Book I bought" is integrated, but when this part is returned to the surface case, "Bought the book". In this case, the union part of the “book” is analyzed as “ヲ”.
[0005]
The omission analysis processing means processing for restoring a surface case omitted in a part of a sentence. For example, in the sentence "I bought oranges and ate them.", The noun phrase (zero pronoun) omitted in the part of "And ate" is analyzed as "Mikano".
[0006]
When such a language analysis process is realized by a computer, a method of performing a language analysis process using a machine learning method has been proposed in order to obtain high processing accuracy while reducing the burden on the person performing the process ( Non-Patent Document 1).
[0007]
The technique of performing language analysis processing using the machine learning method presented in Non-Patent Document 1 (non-borrowed machine learning method) has the following advantages.
(I) It can be assumed that by preparing a corpus having larger teacher data, processing can be performed with higher accuracy.
(Ii) When a better machine learning method is developed, it can be predicted that higher accuracy can be obtained by using the machine learning method.
[0008]
Furthermore, Non-Patent
[0009]
Furthermore, Non-Patent
[0010]
Further, as an important problem in the field of natural language processing, there is a conversion process from passive sentences or causative sentences to active sentences. This sentence conversion processing is useful in many research fields such as sentence generation processing, paraphrase processing, sentence simplification / language operation support, knowledge acquisition / information extraction processing using natural language sentences, and question answering systems. For example, in a question answering system, if there is a document in which the question sentence is written in the active sentence and the sentence containing the answer is written in the passive sentence, the sentence structure differs between the question sentence and the sentence containing the answer. It can be difficult to get answers to questions. Such a problem can also be solved by performing a conversion process from a passive sentence or a causative sentence to an active sentence.
[0011]
When translating a Japanese passive sentence or causative sentence into an active sentence, it is necessary to estimate a post-translation case particle to be used after the sentence transformation. For example, when converting from a passive sentence "I was bitten by a dog" to an active sentence "Dog bit me", the case particle "Ni" in "Dog" becomes "Ga", This is a process of estimating that "ga" of "I" is converted to "". Also, when converting the causal sentence "He cut her hair." To the active sentence "She cut her hair.", The case particle "Ni" of "She" becomes "Ga". This is a process of estimating that “to” of “hair” is not converted. However, the conversion of case particles in the conversion process from passive sentence or causative sentence to active sentence is not a problem that can be easily processed automatically because the case particle to be converted changes depending on the verb and how the verb is used. .
[0012]
Regarding the case particle conversion processing, for example, there are some conventional methods as shown in
[0013]
[Non-patent document 1]
Maki Murata,
Japanese case analysis using machine learning method-Teacher signal borrowing type, non-borrowing type, and combined type-
IEICE, IEICE Technical Report NLC-2001-24
July 17, 2001
[Non-patent document 2]
Information processing promotion business association technology center,
Japanese Basic Verb Dictionary for Computers IPAL (Basic Verbs) Manual,
1987
[Non-Patent Document 3]
Sadao Kurohashi and Makoto Nagao,
A Method of Case Structure Analysis for Japanese Sentences based on Examples in Case Frame Dictionary,
IEICE Transactions of Information and Systems, Vol. E77-D, no. 2, 1994
[Non-patent document 4]
Keiko Kondo, Masafumi Sato, Manabu Okumura,
Paraphrasing simple sentences by case conversion,
IPSJ Transactions, Vol. 42, no. 3,
2001
[0014]
[Problems to be solved by the invention]
[0015]
In the machine learning process, learning is performed so as to maximize the correct answer rate in given teacher data. Unsupervised data differs from supervised data in that it has no information to be analyzed.
[0016]
Therefore, a machine learning process using a teacher signal in which unsupervised data is simply added to supervised data, such as the combined machine learning method disclosed in
[0017]
In view of such a problem of the related art, it is required to realize a method capable of more reliably performing a highly accurate learning process by taking advantage of supervised data and unsupervised data.
[0018]
Further, with regard to the sentence conversion process from the passive sentence / causative sentence to the active sentence, in the conventional techniques as described in the above-mentioned
[0019]
However, since it is practically difficult to prepare a dictionary that describes all the verbs and how to use the verbs, the conversion processing method using this case frame dictionary is insufficient and is not described in the case frame dictionary. There has been a problem that a verb or a sentence in which the verb is used cannot be converted, or the probability of incorrect conversion is high.
[0020]
Therefore, there is a need for a method capable of performing high-accuracy processing, particularly, from the passive sentence / causative sentence to the active sentence, without increasing the labor burden.
[0021]
SUMMARY OF THE INVENTION An object of the present invention is to achieve a higher accuracy by utilizing the advantages of both data when performing a language analysis process using a combined learning method in which machine learning is performed using both supervised data and unsupervised data. It is an object of the present invention to provide a processing system capable of performing language analysis processing on a computer.
[0022]
Further, an object of the present invention is to provide a sentence conversion processing system which can estimate a converted case particle with high accuracy using a machine learning method, particularly for a sentence conversion process from a passive sentence or a causative sentence to an active sentence. .
[0023]
[Means for Solving the Problems]
In order to achieve the above object, the present invention has the following configuration.
[0024]
The present invention is a method for processing language analysis using a machine learning method in a language analysis processing system including a stack processing system and a main processing system that performs processing using the processing result of the stack processing system. In the stack processing system, when performing an analysis process, the machine learning method accesses a problem expression information storage unit in which information of an expression to be a problem is stored in advance, and based on the problem expression information, A problem expression corresponding part that matches the problem expression information is extracted from the case data to which no information is given, and the problem data is converted to the problem expression equivalent part using the problem expression equivalent part as a solution. Convert to unsupervised data. Then, a set of a solution and a set of features is extracted for each of the unsupervised data, and from the set of the solution and the set of features, a machine learning method is used to determine what kind of solution is likely to be obtained in what kind of feature. And the result of the learning is stored in a learning result database. Then, a first feature set extracted from the case data from the main processing system or a second feature set extracted from the case data input as a processing target is acquired, and the learning result database is referred to. From the first feature set or the second feature set, what kind of feature is likely to be a solution is estimated from the first feature set or the second feature set, and a first processing result for the first feature set is estimated. Alternatively, a second processing result for the second feature set is sent to the main processing system.
[0025]
The main processing system accesses a solution database that stores case data to which a solution to a problem handled by a machine learning method is given when performing an analysis process, retrieves the case data from the solution database, and Then, a set of features and feature sets is extracted, and a first feature set obtained by extracting only feature sets from the set of solution and feature sets is sent to the stack processing system. Receiving the first processing result from the stack processing system, adding the first processing result as a feature to a first feature set extracted from the case data, and adding the solution and the processing result; From the set with the first feature set thus obtained, what kind of feature is liable to be solved is learned by a machine learning method, and the result of the learning is stored in a learning result database. Then, a set of features is extracted from the case data input as a processing target, a second set of features of the input case data is sent to the stack processing system, and the second set of features output from the stack processing system is output. And adds the second processing result as a feature to a second feature set of the input case data, and refers to the learning result database to add the processing result to the second feature. From the set of, it is estimated what kind of solution is likely to result in what kind of feature.
[0026]
The present invention also provides a method for processing language analysis using a machine learning method in a language analysis processing system including a stack processing system and a main processing system that performs processing using the processing result of the stack processing system. In the stack processing system, when performing an analysis process, a machine learning method accesses a problem expression information storage unit in which information of an expression to be a problem is stored in advance, and based on the problem expression information, A problem expression equivalent portion that matches the problem expression information is extracted from the case data to which no information on the problem is added, and the case data obtained by converting the problem expression equivalent portion with the problem expression equivalent portion as a solution is defined as a problem. Is converted into unsupervised data having a structure, and a set of a solution or solution candidate and a set of features is extracted for each unsupervised data, and the solution or solution candidate and the feature are extracted. From the set and the set, what kind of solution or solution candidate and the set of features are learned as a positive example or a negative example by a machine learning method, and the result of the learning is obtained as a learning result. Store it in the database. Then, from the main processing system, a first set of solutions or solution candidates and features extracted from the case data or a second set of solution candidates and features extracted from the case data input as the processing target is input. A set is acquired, and by referring to the learning result database, from the first set or the second set, a probability or a negative example of what kind of solution candidate and feature set is a positive example is obtained. A probability is determined, and among all solution candidates, a process of estimating a solution candidate having the highest probability of being a positive example as a solution is performed, and a first processing result for the first set or a process result for the second set is performed. The second processing result is sent to the main processing system.
[0027]
The main processing system accesses a solution database that stores case data to which a solution to a problem handled by a machine learning method is given when performing an analysis process, retrieves the case data from the solution database, and And extracts a first set of solutions or solution candidates and a set of features, and sends the first set to the stack processing system. And receiving the first processing result from the stack processing system, adding the first processing result to the first set of feature sets, and adding the first processing result to the first processing result. From the set, the probability of a positive example or the probability of a negative example in the case of a set of solutions or solution candidates and features is learned by a machine learning method, and the result of the learning is stored in a learning result database. I do. Then, a second set of solution candidates and feature sets is extracted from the case data input as the processing target, and the second set is sent to the stack processing system. Receiving the processing result, adding the second processing result as a feature to the second set of features, and referencing the learning result database to add the second processing result to the second set From the solution candidates and the set of features, the probability of being a positive example or the probability of being a negative example is obtained, and the solution candidate having the largest positive example probability is determined from all the solution candidates. Estimate as the solution to be found.
[0028]
As described above, in the present invention, by incorporating the analysis result by the machine learning method using the unsupervised data as the feature of the supervised data, the learning is performed so as to maximize the correct answer rate for the supervised data in the machine learning process. Since it is performed, machine learning processing can be performed by utilizing the advantages of both unsupervised data and supervised data having different characteristics, and highly accurate analysis processing can be realized.
[0029]
Further, the present invention is a sentence conversion processing method for converting a passive sentence or causative sentence digitized by using a computer into an active sentence, wherein a sentence conversion process from a passive sentence or a causative sentence to an active sentence is performed. Access to a solution database that stores case data to which a solution to a problem handled by the machine learning method is assigned, extract the case data from the solution database, and extract a set of a solution and a set of features for each case data Then, from a set of the solution and the set of features, what kind of feature is likely to be a solution is learned by a machine learning method, and the result of the learning is stored in a learning result database. Then, a set of features is extracted from the digitized sentence input as the analysis target, and by referring to the learning result database, what kind of solution is likely to be obtained in the case of the feature extracted from the input sentence is determined. presume.
[0030]
Further, the present invention is a sentence conversion processing method for converting a passive sentence or a causal sentence digitized by using a computer into an active sentence, wherein a conversion process from a passive sentence or a causative sentence to an active sentence is performed. Accessing a solution database storing case data to which a solution to a problem handled by the machine learning method is assigned, extracting the case data from the solution database, and setting a solution or a solution candidate and a set of features for each case data Is extracted from the set of the solution or the solution candidate and the set of features, and the probability of a positive example or the probability of a negative example in the case of the solution or the solution candidate and the set of features is determined by machine learning. Learning is performed by a method, and the result of the learning is stored in a learning result database. Then, a set of a solution candidate and a set of features is extracted from the digitized sentence input as an analysis target, and a solution candidate and a set of features extracted from the input sentence are referred to by referring to the learning result database. From the set of, find the probability of a positive example or the probability of a negative example for what set of solution candidates and features, and find the solution with the highest probability of being a positive example among all the solution candidates. Estimate the candidate as a solution.
[0031]
The case particle conversion process in the sentence conversion process from the passive sentence or the causative sentence to the active sentence is to determine the case particle used in the converted sentence. Since the number of types of case particles after conversion is finite, the problem of estimating case particles after conversion can be reduced to a classification problem and can be treated as a process using a machine learning method.
[0032]
In the present invention, machine learning is performed using, as a teacher signal, data (unsupervised data) generated from a sentence to which information (such as a case particle after conversion) about an analysis target is not added. As a result, a large amount of ordinary electronic data (sentences) can be used as teacher data, and a high-accuracy sentence conversion process can be performed without increasing the labor burden of manually adding information on an analysis target. Can be realized.
[0033]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, some of the embodiments of the present invention will be described.
[0034]
As a first embodiment, a description will be given of a process of applying a machine learning method (supervised machine learning method) using supervised data to a sentence conversion process from a passive sentence / causative sentence to an active sentence. Further, as a second embodiment, a description will be given of a process of applying a machine learning method using unsupervised data (borrowed machine learning method) to a sentence conversion process from a passive sentence / causative sentence to an active sentence. Further, as a third embodiment, a machine learning method (combination type machine learning method) using both supervised data and unsupervised data is applied to the sentence conversion process from a passive sentence / causative sentence to an active sentence. The processing will be described.
[0035]
Further, as a fourth embodiment, a machine learning method (unsupervised data stack type machine learning method) using a result of machine learning using unsupervised data as a feature of supervised data is applied to language analysis processing. Will be described.
[0036]
In the embodiment of the present invention, the conversion of the case particle in the conversion process from the passive sentence / causative sentence to the active sentence means the case of the active sentence after conversion of the original passive sentence / causative sentence case particle. It refers to the process of conversion to particle and the process of erasing unnecessary parts of the original passive sentence and causative sentence. The unnecessary portion is the portion of the original causal sentence "he" in the sentence conversion from the causal sentence "he has cut her hair." To the active sentence "she has cut her hair." In addition, the case particle of the original sentence (passive sentence / causative sentence) is set as a case particle before conversion, and a new case particle given at the time of converting a sentence into an active sentence is set as a case particle after conversion.
[0037]
In the present embodiment, only the case particle conversion processing is targeted, and the conversion processing of the auxiliary verb expression accompanying the conversion to the active sentence is not described as the processing target. The conversion processing for the auxiliary verb expression part can be easily realized using existing processing, for example, processing using rules according to grammar.
[0038]
[First Embodiment]
As a first embodiment, when performing a sentence conversion process from a passive sentence / causative sentence to an active sentence, a sentence conversion process for automatically converting a case particle to be changed by machine learning using supervised data. The processing of the system will be described.
[0039]
FIG. 1 shows a configuration example of a sentence conversion processing system according to the present embodiment. The sentence
[0040]
The solution-feature
[0041]
The
[0042]
The
[0043]
The solution
[0044]
The
[0045]
FIG. 2 shows a processing flow of the sentence
[0046]
Step S1: The solution-feature
[0047]
FIG. 3 shows examples (single sentences) stored in a tagged corpus. The five case particles in which the simple sentence shown in FIG. 3 is underlined are case particles before conversion, and the case particle indicated by an arrow below the underlined portion is information indicating the case particle after conversion. In the case of FIG. 3A, when the passive sentence is converted to an active sentence, the prepositional case particles are converted from “ni” to “ga” and “ga” to “wo”, respectively. Means that. In the case of FIG. 3B, when the causative sentence is converted into an active sentence, the prepositional case particles are converted from "ni" to "ga" and "wo" to "wo", respectively. And that the word "he" is erased. “Other” is a tag meaning that the part is deleted when it becomes an active sentence.
[0048]
Here, the feature means one unit of fine information used in the analysis processing by the machine learning method. The features to be extracted include, for example, the following.
[0049]
1. Case particle attached to the physical n (case particle before conversion)
2. Part of speech of verb v
3. Basic form of word of verb v
4. Auxiliary verb sequence attached to the verb v (eg, "re", "suru")
5. Words of the nominal n
6. The classification number of the vocabulary table of the classification of the word of the n
7. The case that a body other than the body n of the verb v takes
For example, if the problem in the case is "The dog was bitten."
The word of the nominative n in the case to be estimated = dog,
・ Vocabulary v (basic form of word) to be modified by the case to be inferred = chew,
-Case particles between case n and verb v (case particles before conversion) =
Features such as are extracted.
[0050]
The solution is a case particle after conversion added to each case as tag information. In the above case,
・ Solution (converted case particle) =
It is. Then, the solution-feature
[0051]
Step S2: The
[0052]
For example, extracted from the case "dog bitten.
The word of the nominative n in the case to be estimated = dog,
・ Vocabulary v (basic form of word) to be modified by the case to be inferred = chew,
-Case particles between case n and verb v (case particles before conversion) =
For a set of features such as
・ Solution (converted case particle) =
Learn that it is easy to be.
[0053]
In addition, it was extracted from the case "Snake bite.
The word of the nominative n in the case to be estimated = snake,
・ Vocabulary v (basic form of word) to be modified by the case to be inferred = chew,
-Case particles between case n and verb v (case particles before conversion) =
In the case of a set of features like
・ Solution (converted case particle) =
Learn that it is easy to be.
[0054]
The machine learning method uses, for example, a decision list method, a maximum entropy method, a support vector machine method, etc., but is not limited to these methods.
[0055]
In the decision list method, a set of a feature (each element constituting a context by information used for analysis) and a classification destination is set as a rule, and these are stored in a list in a predetermined priority order, and an input to be analyzed is given. In some cases, the input data is compared with the rule features from the highest priority in the list, and the rule classification destination having the same feature is set as the input classification destination.
[0056]
The maximum entropy method is based on the feature f j When a set of (1 ≦ j ≦ k) is F, a probability distribution p (a, b) for maximizing an expression meaning entropy while satisfying a predetermined conditional expression is obtained, and according to the probability distribution, In this method, among the probabilities of the obtained classes, the class having the largest probability value is used as a solution (class to be obtained).
[Reference 1: Maki Murata, Masao Uchiyama, Kiyotaka Uchimoto, Maao, Hitoshi Isahara, Experiments on disambiguation using various machine learning methods, IEICE Language Understanding and Communication Study Group, NCL 2001-2, 2001)]
The support vector machine method is a method of classifying data consisting of two classifications by dividing a space by a hyperplane. The support vector machine method handles data having two classifications. For this reason, by using the pair vector technique in combination with the support vector machine method, data with three or more classifications can be usually handled. In the case of data having N classifications, a pairwise method creates all pairs of two different classification destinations (N (N-1) / 2) and determines which pair is better for each pair. (Here, based on the support vector machine method), and finally, the classification destination is obtained by a majority decision of the classification destinations of N (N-1) / 2 binary classifiers.
[Reference 2: Nello Christianian and John Shawe-Taylor, An Introduction to Support Vector Machines and Other Kernel-Based Learning, Canada, Canada, Canada, Canada, Canada, Canada]
[Reference 3: Taku Kudoh, TinySVM: Support Vector Machines, (http://cl.aist-nara.ac.jp/taku-ku//software/TinySVM/index.hml).
To explain the support vector machine method, FIG. 4 shows the concept of maximizing the margin of the support vector machine method. In FIG. 4, a white circle indicates a positive example, a black circle indicates a negative example, a solid line indicates a hyperplane that divides a space, and a broken line indicates a surface representing a boundary of a margin area. FIG. 4A is a conceptual diagram when the interval between the positive and negative examples is small (small margin), and FIG. 4B is a conceptual diagram when the interval between the positive and negative examples is large (large margin). is there.
[0057]
Assuming that the two classifications of the support vector machine method are composed of positive and negative examples, the larger the interval (margin) between the positive and negative examples in the training data, the lower the possibility of incorrect classification with open data. Considering this, as shown in FIG. 4B, a hyperplane that maximizes the margin is obtained, and classification is performed using the hyperplane.
[0058]
The support vector machine method is basically as described above, but usually, an extension of the method that allows a small number of cases to be included in the inner region of the margin in the training data, and the non-linear portion of the hyperplane A linearized extension (such as the introduction of a kernel function) is used.
[0059]
This extended method is equivalent to classifying using the following discriminant function, and it is possible to discriminate between the two classes depending on whether the output value of the discriminant function is positive or negative.
[0060]
(Equation 1)
[0061]
Where x is the context (set of features) of the case to be identified, x i And y j (I = 1, ..., l, y j {1, -1}) means the context and classification destination of the training data, and the function sgn is
sgn (x) = 1 (x ≧ 0) (2)
-1 (otherwise)
And each α i Is for maximizing equation (3) under the constraints of equations (4) and (5).
[0062]
(Equation 2)
[0063]
The function K is called a kernel function, and various functions are used. In the present embodiment, the following polynomial is used.
[0064]
K (x, y) = (x · y + 1) d (6)
C and d are constants set experimentally. In a specific example described later, C was fixed at 1 throughout all processes. As for d, two
[0065]
Since the support vector machine method handles data with two classifications, a pair-wise method is used in combination to handle data with three or more classifications. In this example, the sentence
[Reference 4: Taku Kudo, Yuji Matsumoto, chunk identification using Support vector machine, Natural Language Processing Research Group, 2000-NL-140, (2000)]
Step S3: Then, the
[0066]
Step S4: The
[0067]
・ Nomenclature n = dog, which has a case to be estimated
A predicate to modify the case v = bite,
A prepositional case particle between the n and n
Step S5: Based on the learning result stored in the
[0068]
For example, in the case where the learning result as described above is stored in the
[0069]
FIG. 5 shows another configuration example of the sentence conversion processing system according to the first embodiment. In the following drawings, components such as processing units assigned the same numbers have the same functions.
[0070]
The sentence
[0071]
The feature-solution pair / feature-solution candidate
[0072]
Here, the solution candidate means a solution candidate other than the solution. In other words, assuming that the case particles after conversion are the five case particles "wo", "ni", "ga", "to", and "de", if "ga" is a solution, , "Wo", "ni", "to", and "de" are the solution candidates. A set of a solution and a set of features is a positive example, and a set of a solution candidate and a set of features is a negative example.
[0073]
The
[0074]
The feature-solution
[0075]
The solution
[0076]
FIG. 6 shows a processing flow of the sentence
[0077]
Step S11: The feature-solution pair / feature-solution candidate
[0078]
Step S12: From the set of the extracted solution or solution candidate and the set of features, the
[0079]
For example, an example is “dog bitten.
・ Nomenclature n = dog, which has a case to be estimated
A predicate to modify the case v = bite,
A prepositional case particle between the n and n
, The probability that the solution "is" (probability that is a positive example) and the probability that each of the solution candidates "", "", "", "", and "" Probability).
[0080]
Step S13: Then, the
[0081]
Step S14: The feature-solution
[0082]
Step S15: Based on the learning result stored in the
[0083]
For example, if the input sentence is "dog bitten.", The extracted set of features and the solution candidates "ga", "wo", "ni", "to", and "de" Find the probability of being an example or the probability of being a negative example.
[0084]
Step S16: The probability of being a positive example or the probability of being a negative example is obtained for all solution candidates, and is estimated as a
[0085]
[Second embodiment]
As a second embodiment, a description will be given of a process of a sentence conversion processing system that automatically converts case particles by unsupervised learning in a process of converting a passive sentence / causative sentence into an active sentence.
[0086]
First, unsupervised data used in the machine learning method will be described. FIG. 7A shows an electronic sentence provided to create unsupervised data. The active sentence “dog bites me” in FIG. 7A is data to which information to be analyzed, that is, information relating to conversion of case particles during sentence conversion into an active sentence is not added. However, considering the sentence of FIG. 7A as a result of sentence conversion into an active sentence, the case particle (pre-conversion case particle) that should be represented by the original passive sentence and causative sentence converted into this active sentence is unknown. However, it is possible to extract a case particle (conversion case particle) that should appear in a solution to be estimated, that is, a processing result (active sentence).
[0087]
FIG. 7B shows a simple sentence indicating the relationship between the case particle before conversion and the case particle after conversion. The conversion source sentence of the active sentence in FIG. 7A can be expressed as "dog <?> I <?> Bitten (bitten)." Since pre-translation case particles that should appear in the original sentence have not been given, they are indicated by “<?> (Unknown)”. Also, the converted case particles extracted from the sentence of FIG. “Ga” and “O” are indicated by arrows below>. As shown in FIG. 7B, in the active sentence to which the information to be analyzed is not given, information on the case particle before conversion is unknown, but information on the case particle after conversion as a solution (classification destination). have. Then, "dog <?>Bite" in the sentence shown in FIG. 7B can be converted into the following problem structure.
[0088]
"Problem ⇒ solution" = "dog <?> Chewed.
Thus, it can be seen that an active sentence to which information to be analyzed is not added can be used as teacher data for machine learning.
[0089]
The unsupervised data generated from the active sentence in FIG. 7A has less information than the supervised data in that it has no information on the prepositional case particle. However, using a large amount of active sentences as unsupervised data because the number of active sentences is larger than passive sentences and causative sentences, and there is no need to manually tag the information of case particles after conversion This has the advantage of increasing the number of teacher signals handled by the machine learning method.
[0090]
FIG. 8 shows a configuration example of a sentence conversion processing system according to the second embodiment. The sentence
[0091]
The problem expression equivalent
[0092]
Here, the problem expression
[0093]
When it is necessary to convert the extracted problem expression equivalent, the problem
[0094]
The solution-feature
[0095]
FIG. 9 shows a processing flow of the unsupervised data generation processing.
[0096]
Step S <b> 21: A sentence (active sentence) which is electronic data of a natural sentence to which information to be analyzed is not added is input from the
[0097]
Step S22: The problem expression equivalent
[0098]
Step S23: The problem
Step S24: Further, the question
[0099]
After that, the sentence
[0100]
If the extracted case is “dog <?> Chew.” ⇒ “ga”, for example, the following set of features is extracted.
[0101]
・ Nominal n = dog, which has a case to be estimated
The word v = bite that the case to be inferred modifies,
-The original case particle between the n and n (unknown).
Then, the
[0102]
If the retrieved case is “snake <?> Chew.” ⇒ “ga”, the following set of features is extracted.
[0103]
・ Nominal n = snake in the case to be estimated,
The word v = bite that the case to be inferred modifies,
-The original case particle between the n and n (unknown).
The
[0104]
Thereafter, the processing from the
[0105]
FIG. 10 shows another configuration example of the sentence conversion processing system according to the second embodiment. The sentence
[0106]
In the sentence
[0107]
Also, the feature-solution pair / feature-solution candidate
[0108]
The sentence
[0109]
If the extracted case is “dog <?> Chew.” ⇒ “ga”, for example, the following set of features is extracted.
[0110]
・ Nominal n = dog, which has a case to be estimated
The word v = bite that the case to be inferred modifies,
-The original case particle between the n and n (unknown).
Then, the
[0111]
Thereafter, the processing from the
[0112]
[Third Embodiment]
Since the case (“problem-solution”) stored in the unsupervised
[0113]
Unsupervised data does not have information on pre-transformation case particles appearing in the original sentence, and has less information than supervised data. However, there is no need to manually tag solution information (such as the case particles after conversion) for each case. Further, since the number of active sentences is generally larger than the number of passive sentences, many sentences can be used as teacher signals. For this reason, the sentence conversion process based on supervised / unsupervised learning performs a sentence conversion process using a learning result of machine learning using a large amount of teacher data without increasing the labor burden of manually adding information to be analyzed. There is an advantage that can be.
[0114]
FIG. 11 shows a configuration example of a sentence
[0115]
The solution-feature
[0116]
FIG. 12 shows another configuration example of the sentence conversion processing system according to the third embodiment. The sentence
[0117]
The sentence
[0118]
The feature-solution pair / feature-solution candidate
[0119]
[Fourth Embodiment]
As a fourth embodiment, a description will be given of a process of a language analysis processing system that performs a stack-type machine learning utilizing both advantages of unsupervised data and supervised data to perform an analysis process when performing a language analysis process. .
[0120]
Stacked machine learning is machine learning that uses a technique called "stacking" that is used to fuse the analysis results of multiple systems, and uses a teacher signal that adds the analysis results of different machine learning methods to features. And perform machine learning.
[Reference 5: Hans van Halteren, Jakub, Zavrel, and Walter Dalemans, Improving Accuracy in World Class Taging Agreement, Long-Term Trading, Long-Term Communicating, Meeting of the Recommendations. 27, No. 2, (2001) pp. 199-229]
In the present embodiment, the language analysis processing system performs a language analysis process using borrowed machine learning (machine learning using unsupervised data) or combined machine learning (machine learning using supervised / unsupervised data), and performs the processing. The resulting estimated solution is added as an element of the set of features. Then, a language analysis process by supervised learning is further performed using the set of features to which the estimated solution has been added.
[0121]
For example, in the supervised machine learning used in the language analysis processing system of this embodiment, it is assumed that a set of features extracted from certain supervised data (case) has a list {a, b, c}. The processing system for stacking is a language analysis processing system using unsupervised machine learning, and the analysis result is "d 1 ". In this case, in the supervised machine learning process of the language analysis processing system, the analysis result “d, 1 And the list {a, b, c, "analysis result of unsupervised learning = d 1 Perform machine learning with “}” as a new set of features.
[0122]
The processing system for stacking is a language analysis processing system using supervised / unsupervised machine learning, and the analysis result is "d 2 ". In this case, in the supervised machine learning process of the language analysis processing system, the analysis result “d, 2 And the list {a, b, c, "analysis result of supervised / unsupervised learning = d 2 Perform machine learning with “}” as a new set of features.
[0123]
As the stacking processing system, a language analysis processing system using unsupervised machine learning and a language analysis processing system using supervised / unsupervised machine learning can be used. In this case, in the supervised machine learning process of the language analysis processing system, the analysis result “d, 1 "And" d 2 And the list {a, b, c, "analysis result of unsupervised learning = d 1 "," Supervised / unsupervised learning analysis result = d 2 Perform machine learning with “}” as a new set of features.
[0124]
As described above, when non-borrowed machine learning using supervised data and borrowed machine learning or combined machine learning using supervised data are combined using the stacking method, the supervised data used for supervised machine learning (example ) Is increased. Thus, it is considered that each case itself used for supervised machine learning improves the learning accuracy. Furthermore, in supervised machine learning, learning is performed to maximize the accuracy rate of supervised data (cases) although the feature is increasing, that is, learning to maximize the accuracy of the analysis target. The analysis process is performed using the learning result. As a result, it is expected that the advantages of the supervised machine learning and the unsupervised machine learning can be effectively used to obtain high analysis accuracy.
[0125]
FIG. 13 shows a configuration example of a language analysis processing system according to the fourth embodiment.
[0126]
The language
[0127]
The processing units of the solution-feature
[0128]
The unsupervised stacking
[0129]
The unsupervised stacking
[0130]
The first
[0131]
The second
[0132]
14 and 15 show a processing flow of the language
[0133]
Step S30: The unsupervised stacking
[0134]
Step S31: Thereafter, the solution-feature
[0135]
Step S32: The first
[0136]
Step S33: The unsupervised stacking
[0137]
Step S34: The solution d returned by the first
[0138]
Step S35: The
[0139]
Step S36: The sentence whose solution is to be obtained is input to the
[0140]
Step S37: The
[0141]
Step S38: The received feature set is passed to the unsupervised stacking
[0142]
Step S39: The unsupervised stacking
[0143]
Step S310: The solution d returned by the second feature adding unit 512 1 'As a feature to the original set of features. Assuming that the original feature set is {a, b, c}, the feature set passed to the
[0144]
Step S311: The solution
[0145]
Hereinafter, the processing of the language
[0146]
In the unsupervised stacking
Example (problem ⇒ solution): "dog <?>Chew." ⇒ "ga"
Is stored. Further, the following set of features is extracted from this case.
[0147]
・ Nominal n = dog, which has a case to be estimated
The word v = bite that the case to be inferred modifies,
・ Original (before conversion) case particle between the noun and the verb =? (unknown)
Then, in the case of this set of features, it learns that the case particle after conversion is likely to be “ga” and stores the learning result.
[0148]
When the sentence extracted from the
Example (problem ⇒ solution): “Snake <?> Chew.” ⇒ “ga”
Is stored. Further, the following set of features is extracted from this case.
[0149]
・ Nominal n = snake in the case to be estimated,
The word v = bite that the case to be inferred modifies,
・ Original (before conversion) case particle between the noun and the verb =? (unknown)
Then, even in the case of this set of features, it learns that the case particle after conversion is likely to be “ga” and stores the learning result.
[0150]
Then, from the
Example (problem ⇒ solution): “dog bites” ⇒ “ga”
Is extracted, and a set of the solution “GA” and the following set of features is extracted for each case.
[0151]
・ Nominal n = dog, which has a case to be estimated
The word v = bite that the case to be inferred modifies,
The original (before conversion) case particle between the n and n
Further, the first
[0152]
Next, the solution d returned by the first
[0153]
・ Nominal n = dog, which has a case to be estimated
The word v = bite that the case to be inferred modifies,
The original (before conversion) case particle between the n and n
・ Analysis result of unsupervised learning = (solution d 1 )
Then, the
[0154]
Thereafter, a sentence for which a solution is to be obtained is input to the
[0155]
・ Nominal n = snake in the case to be estimated,
The word v = bite that the case to be inferred modifies,
The original (before conversion) case particle between the n and n
Then, the received feature set is passed to the unsupervised stacking
[0156]
The solution d returned by the second feature adding unit 512 1 'As a feature to the original set of features. For example, the following set of features is obtained.
[0157]
・ Nominal n = snake in the case to be estimated,
The word v = bite that the case to be inferred modifies,
The original (before conversion) case particle between the n and n
・ Analysis result of unsupervised learning = (solution d 1 ')
And the solution d 1 The set of features including 'is passed to the solution
[0158]
Here, the case particle “GA” estimated by referring to the learning result of the supervised learning based on the set of features to which the analysis result “GA” returned from the unsupervised learning processing system for
[0159]
As described above, the
[0160]
Furthermore, the solution
[0161]
As a second specific example, a processing example in which the linguistic
[0162]
For example, if the meaning of a sentence is represented by a deep case, it can be expressed as follows.
[0163]
Sentence "Eat apple <← obj>"
In this sentence, “apple” is an object of “eat”, and “apple” and “eat” are connected by a deep case object (indicated by <← obj>).
[0164]
Then, in the sentence generation processing, a generated sentence “eat apple” is output from the original sentence. In this case, however, it is necessary to generate a case particle “wo” corresponding to <← obj>. The problem structure (problem ⇒ case) given in this process is shown below.
[0165]
Problem (problem ⇒ case):
"Eat an apple <← obj>" ⇒ "O"
The unsupervised stack
[0166]
Case (problem ⇒ solution):
"Eat apple <?>" ⇒ "O"
Further, a set of a solution and a set of features is extracted from this case. Here, the set of features is as follows.
[0167]
・ Nominative n = apple, the case to be generated
A case v to be modified by the case to be generated = eat,
・ Deep case between verbal n and verb v =? (unknown)
Then, what kind of solution is likely to be obtained when what kind of feature set is obtained, and the learning result is stored. For example, in the case of the set of features described above, it is learned that “solution = を” is likely to occur.
[0168]
It is also assumed that the sentence “Eat mandarin orange” is extracted from the
[0169]
Case (problem ⇒ solution):
"Orange <?>Eat" ⇒ "O"
Further, a set of a solution and a set of features is extracted from this case. Here, the set of features is as follows.
[0170]
・ Nominative n = mandarin orange to be generated
A case v to be modified by the case to be generated = eat,
・ Deep case between verbal n and verb v =? (unknown)
In case estimation in the sentence generation process, the information on the features is smaller than that of general supervised data. However, since there are a large number of sentences that can be used as unsupervised data, many unsupervised data are used. It is possible to prepare.
[0171]
Then, what kind of solution is likely to be obtained when what kind of feature set is obtained, and the learning result is stored. Also in this case, it is learned that "solution =" is likely to occur.
[0172]
After that, it is assumed that the following cases are extracted from the
[0173]
Example: "Eat an apple <← obj>" ⇒ "O"
Further, a set of a solution and a set of features is extracted from the extracted cases. The following are extracted as a set of features.
[0174]
・ Nominative n = apple, the case to be generated
A case v to be modified by the case to be generated = eat,
・ The deep case between the noun n and the verb v = obj
The first
[0175]
・ Nominative n = apple, the case to be generated
A case v to be modified by the case to be generated = eat,
A deep case between a noun n and a verb v = obj,
-Analysis result of unsupervised learning = (solution d 1 )
Then, the
・ Nominative n = apple, the case to be generated
A case v to be modified by the case to be generated = eat,
A deep case between a noun n and a verb v = obj,
-Analysis result of unsupervised learning = (solution d 1 )
If there is such a feature, "was" can be learned as a solution. This learning result is stored in the
[0176]
Thereafter, when the sentence “Mikan <← obj> eats” is input to the
[0177]
・ Nominative n = mandarin orange to be generated
A case v to be modified by the case to be generated = eat,
・ The deep case between the noun n and the verb v = obj
When the set of features is passed to the unsupervised learning processing system for
[0178]
The second
[0179]
・ Nominative n = mandarin orange to be generated
A case v to be modified by the case to be generated = eat,
A deep case between a noun n and a verb v = obj,
-Analysis result of unsupervised learning = (solution d 1 ')
The solution
[0180]
Next, as a third specific example, a processing example in a case where the language
[0181]
In this case, the omitted "verb part to be complemented" is used as the problem expression, and the "verb part" that complements the abbreviated expression is used as the solution. In the unsupervised stack
[0182]
If the sentence extracted from the
[0183]
Case (problem ⇒ solution):
"It's so good <?>" ⇒ "I don't think"
Further, a set of a solution and a set of features is extracted from this case. Here, the set of features is as follows.
[0184]
・ "Ha",
・ What is "
・ "Kutto",
・ "Ikuto",
…,
・ "I don't think it works so much"
Then, what kind of solution is likely to be obtained when what kind of feature set is obtained, and the learning result is stored. For example, in the case of the set of features described above, it is learned that “solution = unlikely” is likely to occur.
[0185]
Then, from the
Example: "It works so well." ⇒ "I don't think"
And a set of a solution and a set of features is extracted from the extracted cases. Here, the set of features consists of the following features.
[0186]
・ "Ha",
・ What is "
・ "Kutto",
・ "Ikuto",
…,
・ "What works so well"
・ "I don't think it works so well"
The first
[0187]
The unsupervised stacking
[0188]
Then, the first
[0189]
・ "Ha",
・ What is "
・ "Kutto",
・ "Ikuto",
…,
・ "What works so well"
・ "I don't think it works so well"
-Analysis result of unsupervised learning = I don't think (solution d 1 )
Then, the
[0190]
After that, when the sentence “It works so well” is input to the
[0191]
・ "Ha",
・ What is "
・ "Kutto",
・ "Ikuto",
…,
・ "What works so well"
When the set of features is passed to the unsupervised learning processing system for
[0192]
The second
[0193]
・ "Ha",
・ What is "
・ "Kutto",
・ "Ikuto",
…,
・ "What works so well"
-Analysis result of unsupervised learning = I don't think (solution d 1 ')
The solution
[0194]
FIG. 16 shows another configuration example of the language analysis processing system according to the fourth embodiment. The linguistic
[0195]
The stack supervised / unsupervised
[0196]
The first
[0197]
FIG. 17 shows another configuration example of the language analysis processing system according to the fourth embodiment.
[0198]
The language
[0199]
The processing units of the feature-solution pair / feature-solution candidate
[0200]
The unsupervised stacking
[0201]
The unsupervised stacking
[0202]
The unsupervised stacking
[0203]
The first
[0204]
The second
[0205]
18 and 19 show a processing flow of the language
[0206]
Step S40: In the unsupervised stacking
[0207]
Step S41: After that, the feature-solution pair / feature-solution candidate
[0208]
Step S42: The first
[0209]
Step S43: The stack-less unsupervised
[0210]
Step S44: The solution d returned by the first
[0211]
The processing from step S41 to step S44 is performed on a set of all solutions or solution candidates and a set of features.
[0212]
Step S45: The solution or the solution candidate and the solution d by the
[0213]
Step S46: A sentence for which a solution is to be obtained is input to the feature-solution
[0214]
Step S47: The feature-solution
[0215]
Step S48: The second
[0216]
Step S49: The stack-less unsupervised
[0219]
Step S410: The solution d returned by the second
[0218]
Step S411: The solution
[0219]
FIG. 20 shows another configuration example of the language analysis processing system according to the fourth embodiment. The language
[0220]
The stack supervised / unsupervised
[0221]
The
[0222]
The first
[0223]
FIG. 21 shows another configuration example of the language analysis processing system according to the fourth embodiment. The linguistic
[0224]
The first
[0225]
Also, the second feature adding unit 612 of the language
[0226]
FIG. 22 shows another configuration example of the language analysis processing system according to the fourth embodiment. The linguistic
[0227]
The first
[0228]
Further, the second
[0229]
The stack unsupervised
[0230]
As already explained, since unsupervised data has different properties from supervised data, simply adding unsupervised data to supervised data and performing machine learning is not enough to improve processing accuracy. In some cases. By combining machine learning with unsupervised data and machine learning with supervised data using the stacking method as in this embodiment, the advantages of both learning can be used appropriately, and the accuracy of analysis processing can be improved. I think it was possible.
[0231]
Finally, examples of the conventional technique and the technique of the present invention will be described. As an embodiment, a case conversion process in a sentence conversion process from a passive sentence / causative sentence to an active sentence is adopted. The support vector machine method was adopted as the machine learning method. In addition, the Kyoto University corpus was used as supervised data, and all case particles (53,157) of active sentences included in the Kyoto University corpus were used as unsupervised data. FIG. 23 shows the distribution of case particles after conversion in unsupervised data.
[0232]
Further, the processing accuracy in the examples was also evaluated by using a Kyoto University corpus and performing cross-validation of 10 divisions.
[Reference 6: Yoshio Kurohashi, Makoto Nagao, Text Corpus Project of Kyoto University, The 3rd Annual Meeting of the Association for Language Processing, 1997, pp115-118]
An experiment of case particle conversion was performed using the following method.
[0233]
・ Use of supervised learning
・ Use of unsupervised learning
・ Use of learning with / without teacher
・ Stacking method 1:
After adding the analysis result of unsupervised learning to the feature, supervised learning is performed.
[0234]
・ Stacking method 2:
After adding the analysis result of the supervised / unsupervised learning to the feature, supervised learning is performed.
[0235]
・ Stacking method 3:
After adding the analysis result of unsupervised learning and the analysis result of supervised / unsupervised learning to a feature, supervised learning is performed.
[0236]
The evaluation results of the processing accuracy are shown below. The processing accuracy means how much of the 4,671 cases of supervised data were correctly answered.
[0237]
・ Use of supervised learning = 89.06%
・ Use of unsupervised learning = 51.15%
-Use of supervised / unsupervised learning = 87.09%
-Stacking
-Stacking
-Stacking
The accuracy of the processing using the supervised learning method was 89.06%. This means that the case particle conversion process in the sentence conversion from the passive sentence / causative sentence to the active sentence can be realized with at least this accuracy by processing using a machine learning method. Conventionally, there has been no case particle conversion processing using a machine learning method, and thus the accuracy shown by the embodiment of the present invention shows a special effect of the present invention.
[0238]
The accuracy of the processing using the unsupervised learning method was extremely low at 51.15%. It is considered that the effect of the lack of information on the prepositional case particle to be analyzed is large.
[0239]
The accuracy of the processing using the supervised / unsupervised learning method was also lower than the accuracy of the processing using the supervised learning method. Since unsupervised data has a different property from supervised data, it is considered that use of unsupervised data has led to a decrease in accuracy.
[0240]
The accuracy of the processing using all stacking methods exceeded the accuracy of the processing using the supervised learning method. However, the improvement in accuracy is not great. Therefore, as a result of performing a statistical test using a binomial test, all stacking methods had a significant difference at a significance level of 0.01 with respect to supervised learning. For this reason, it was confirmed that the technique of using the result of unsupervised learning in addition to the features in the present invention is effective.
[0241]
Further, for comparison with the accuracy of the “processing using supervised learning” of the present invention, processing according to the method described in
[0242]
The accuracy of the case conversion process by the method described in
[0243]
In addition, since the processing result by the method of
[0244]
The accuracy of the processing according to the present invention is almost the same as the processing accuracy after an unknown word or the like is registered in a dictionary by the method described in
[0245]
Although the present invention has been described with reference to the embodiments, it is obvious that the present invention can be variously modified within the scope of the gist.
[0246]
The embodiment of the present invention mainly deals with the conversion of case particles in the conversion process from passive sentences and causative sentences to active sentences. However, since the classification destination in the machine learning unit of the present invention is a case particle in an active sentence to a passive sentence and a case particle in a causative sentence, the conversion process from an active sentence to a passive sentence and a causative sentence is also applied to the present invention. It is possible to apply
[0247]
In addition to the analysis processing described as the language analysis processing in the embodiment of the present invention, anaphoric analysis of indices, pronouns, zero pronouns, etc., indirect anaphoric analysis, semantic analysis of "A of B", metaphor analysis, etc. The present invention can be applied to various analysis processes, case particle generation processing in sentence generation processing, case particle generation processing in translation processing, and the like.
[0248]
Further, each unit, function, or element of the present invention can be realized as a processing program read and executed by a computer. Further, the processing program for realizing the present invention can be stored in an appropriate recording medium such as a computer-readable, portable medium memory, a semiconductor memory, and a hard disk, and is provided by being recorded on these recording media. Alternatively, it is provided by transmission / reception using various communication networks via a communication interface.
[0249]
【The invention's effect】
As described above, according to the present invention, an analysis result of machine learning using unsupervised data is added to a feature, and a new method of performing machine learning using supervised data having the added feature is realized. As a result, machine learning using the advantages of both unsupervised data and supervised data can be realized, and sentence conversion processing with higher accuracy can be realized.
[0250]
In particular, the present invention can be applied to a very wide range of problems including word / phrase generation processing such as abbreviation completion processing, sentence generation processing, machine translation processing, character recognition processing, and speech recognition processing. Thereby, a highly practical language analysis processing system can be realized.
[0251]
Further, according to the present invention, a new method for converting case particles in a conversion process from a passive / causative sentence in Japanese to an active sentence using machine learning has been realized. According to the present invention, it is possible to estimate a case particle after conversion with higher accuracy than before.
[0252]
The conversion of the passive sentence / causative sentence to the active sentence to which the present invention is applied is useful in many fields of natural language processing using computers, such as sentence generation processing, sentence paraphrasing processing, knowledge acquisition systems, and question answering systems. is there.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration example of a sentence conversion processing system according to a first embodiment.
FIG. 2 is a diagram illustrating a processing flow of a sentence conversion processing system according to the first embodiment.
FIG. 3 is a diagram showing an example of a case stored in a tagged corpus.
FIG. 4 is a diagram showing a concept of maximizing a margin in a support vector machine method.
FIG. 5 is a diagram illustrating another configuration example of the sentence conversion processing system according to the first embodiment.
FIG. 6 is a diagram showing a processing flow of a sentence conversion processing system having another configuration example in the first embodiment.
FIG. 7 is a diagram for explaining unsupervised data.
FIG. 8 is a diagram illustrating a configuration example of a sentence conversion processing system according to a second embodiment.
FIG. 9 is a diagram showing a processing flow of unsupervised data generation processing.
FIG. 10 is a diagram illustrating another configuration example of the sentence conversion processing system according to the second embodiment.
FIG. 11 is a diagram illustrating a configuration example of a sentence conversion processing system according to a third embodiment.
FIG. 12 is a diagram illustrating another configuration example of the sentence conversion processing system according to the third embodiment.
FIG. 13 is a diagram illustrating a configuration example of a language analysis processing system according to a fourth embodiment.
FIG. 14 is a diagram illustrating a processing flow of a language analysis processing system according to a fourth embodiment.
FIG. 15 is a diagram showing a processing flow of a language analysis processing system in a fourth embodiment.
FIG. 16 is a diagram illustrating another configuration example of the language analysis processing system according to the fourth embodiment.
FIG. 17 is a diagram illustrating another configuration example of the language analysis processing system according to the fourth embodiment.
FIG. 18 is a diagram showing a processing flow of a language analysis processing system having another configuration example in the fourth embodiment.
FIG. 19 is a diagram showing a processing flow of a language analysis processing system having another configuration example in the fourth embodiment.
FIG. 20 is a diagram illustrating another configuration example of the language analysis processing system according to the fourth embodiment.
FIG. 21 is a diagram illustrating another configuration example of the language analysis processing system according to the fourth embodiment.
FIG. 22 is a diagram illustrating another configuration example of the language analysis processing system according to the fourth embodiment.
FIG. 23 is a diagram illustrating a distribution of case particles after conversion in unsupervised data in the example.
[Explanation of symbols]
100, 150, 200, 250, 300, 350 sentence conversion processing system
101,501 solution-feature pair extraction unit
102,162,502,562 Machine learning unit
103,163,503,563 Learning result database
110,504 Feature extraction unit
111,171,505,565 Solution estimation processing unit
161,561 Feature-solution pair / feature-solution candidate pair extraction unit
170,564 feature-solution candidate extraction unit
201 Problem expression equivalent part extraction unit
202 Problem expression information storage unit
203 Semantic analysis information storage
204 Problem Structure Conversion Unit
205 Unsupervised data storage
500,540,550,580,600,650 Language analysis processing system
511, 521, 611, 621 First feature addition unit
512, 522, 612, 622 2nd feature addition part
1010,1030 Unsupervised learning processing system for stack
1020, 1040 Supervised / Unsupervised learning processing system for stack
2,6 solution database
3 Input sentence
4 Solution
5 sentence database
Claims (10)
前記スタック用処理システムでは、
解析処理を行う場合に機械学習法が問題とする表現の情報を予め記憶した問題表現情報記憶部へアクセスし、
前記問題表現情報をもとに、当該問題についての情報が付与されていない事例データから前記問題表現情報に合致する問題表現相当部を抽出し、
前記問題表現相当部を解とし前記問題表現相当部を変換した前記事例データを問題とする構造を持つ教師なしデータに変換し、
前記教師なしデータごとに解と素性の集合との組を抽出し、
前記解と素性の集合との組から、どのような素性の場合にどのような解になりやすいかを機械学習法により学習し、
前記学習の結果を学習結果データベースに記憶しておき、
前記メイン処理システムから事例データから抽出された第1の素性の集合または処理対象として入力された事例データから抽出された第2の素性の集合を取得し、
前記学習結果データベースを参照して、前記第1の素性の集合または前記第2の素性の集合から、どのような素性の場合にどのような解になりやすいかを推定し、
前記第1の素性の集合に対する第1の処理結果または第2の素性の集合に対する第2の処理結果を前記メイン処理システムへ送出し、
前記メイン処理システムでは、
解析処理を行う場合に機械学習法が扱う問題についての解が付与された事例データを記憶する解データベースにアクセスし、
前記解データベースから前記事例データを取り出し、前記事例データごとに解と素性の集合との組を抽出し、
前記解と素性の集合との組から素性の集合のみを取り出した第1の素性の集合を前記スタック用処理システムへ送出し、
前記スタック用処理システムから前記第1の処理結果を受け取り、
前記第1の処理結果を素性として前記事例データから抽出した第1の素性の集合に追加し、
前記解と前記処理結果を追加した第1の素性の集合との組から、どのような素性の場合にどのような解になりやすいかを機械学習法により学習し、
前記学習の結果を学習結果データベースに記憶し、
処理対象として入力された事例データから素性の集合を抽出し、
前記入力事例データの第2の素性の集合を前記スタック用処理システムへ送出し、
前記スタック用処理システムから出力された第2の処理結果を受け取り、
前記第2の処理結果を素性として前記入力事例データの第2の素性の集合に追加し、
前記学習結果データベースを参照して、前記処理結果を追加した前記第2の素性の集合から、どのような素性の場合にどのような解になりやすいかを推定する
ことを特徴とする言語解析処理方法。A method for processing language analysis using a machine learning method in a language analysis processing system including a stack processing system and a main processing system that performs processing using a processing result of the stack processing system,
In the stack processing system,
When performing analysis processing, access to a problem expression information storage unit that stores in advance information of expressions that are problematic in the machine learning method,
Based on the question expression information, extract a question expression equivalent part that matches the question expression information from the case data to which information about the question is not assigned,
Converting the case data obtained by converting the problem expression equivalent part with the problem expression equivalent part as a solution into unsupervised data having a structure as a problem,
Extracting a set of a solution and a set of features for each unsupervised data,
From a set of the solution and a set of features, learn what kind of solution is likely to be obtained by a machine learning method,
The result of the learning is stored in a learning result database,
Acquiring a first feature set extracted from the case data from the main processing system or a second feature set extracted from the case data input as a processing target,
With reference to the learning result database, from the first feature set or the second feature set, estimate what kind of solution is likely to be obtained from which feature,
Sending a first processing result for the first feature set or a second processing result for the second feature set to the main processing system;
In the main processing system,
When performing analysis processing, access a solution database that stores case data to which a solution to a problem handled by the machine learning method is assigned,
Retrieving the case data from the solution database, extracting a set of a solution and a set of features for each case data,
Sending a first feature set obtained by extracting only a feature set from the set of the solution and the feature set to the stack processing system;
Receiving the first processing result from the stack processing system;
Adding the first processing result as a feature to a first feature set extracted from the case data;
From a set of the solution and the first feature set to which the processing result is added, learning what kind of solution is likely to be obtained by machine learning using a machine learning method,
Storing the result of the learning in a learning result database,
Extract a set of features from the case data input as a processing target,
Sending a second set of features of the input case data to the stack processing system;
Receiving a second processing result output from the stack processing system;
Adding the second processing result as a feature to a second feature set of the input case data;
A language analysis process for estimating, from the second feature set to which the processing result has been added and referring to the learning result database, what kind of feature is likely to be a solution based on the second feature set. Method.
前記スタック用処理システムでは、
解析処理を行う場合に機械学習法が問題とする表現の情報を予め記憶した問題表現情報記憶部へアクセスし、
前記問題表現情報をもとに、当該問題についての情報が付与されていない事例データから前記問題表現情報に合致する問題表現相当部を抽出し、
前記問題表現相当部を解とし前記問題表現相当部を変換した前記事例データを問題とする構造を持つ教師なしデータに変換し、
前記教師なしデータごとに解もしくは解候補と素性の集合との組を抽出し、
前記解もしくは解候補と素性の集合との組から、どのような解もしくは解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を機械学習法により学習し、
前記学習の結果を学習結果データベースに記憶しておき、
前記メイン処理システムから、事例データから抽出された解もしくは解候補と素性の集合の第1の組または処理対象として入力された事例データから抽出された解候補と素性の集合の第2の組を取得し、
前記学習結果データベースを参照して、前記第1の組または前記第2の組から、どのような解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を求め、すべての解候補の中から正例である確率が最も高い解候補を解と推定する処理を行い、
前記第1の組に対する第1の処理結果または第2の組に対する第2の処理結果を前記メイン処理システムへ送出し、
前記メイン処理システムでは、
解析処理を行う場合に機械学習法が扱う問題についての解が付与された事例データを記憶する解データベースにアクセスし、
前記解データベースから前記事例データを取り出し、前記事例データごとに解もしくは解候補と素性の集合との第1の組を抽出し、
前記第1の組を前記スタック用処理システムへ送出し、
前記スタック用処理システムから前記第1の処理結果を受け取り、
前記第1の処理結果を前記第1の組の素性の集合に追加し、
前記第1の処理結果を追加した前記第1の組から、どのような解もしくは解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を機械学習法により学習し、
前記学習の結果を学習結果データベースに記憶し、
処理対象として入力された事例データから解候補と素性の集合の第2の組を抽出し、
前記第2の組を前記スタック用処理システムへ送出し、
前記スタック用処理システムから第2の処理結果を受け取り、
前記第2の処理結果を素性として前記第2の組の素性の集合に追加し、
前記学習結果データベースを参照して、前記第2の処理結果を追加した前記第2の組から、どのような解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を求め、すべての解候補の中から正例である確率が最も大きい解候補を求める解として推定する
ことを特徴とする言語解析処理方法。A method for processing language analysis using a machine learning method in a language analysis processing system including a stack processing system and a main processing system that performs processing using a processing result of the stack processing system,
In the stack processing system,
When performing analysis processing, access to a problem expression information storage unit that stores in advance information of expressions that are problematic in the machine learning method,
Based on the question expression information, extract a question expression equivalent part that matches the question expression information from the case data to which information about the question is not assigned,
Converting the case data obtained by converting the problem expression equivalent part with the problem expression equivalent part as a solution into unsupervised data having a structure as a problem,
Extracting a set of a solution or solution candidate and a set of features for each unsupervised data,
From the set of the solution or solution candidate and the set of features, the probability of being a positive example or the probability of being a negative example in the case of the solution or solution candidate and the set of features is learned by machine learning. ,
The result of the learning is stored in a learning result database,
From the main processing system, a first set of a set of solutions or solution candidates and features extracted from the case data or a second set of a set of solution candidates and features extracted from the case data input as a processing target Acquired,
With reference to the learning result database, from the first set or the second set, what kind of solution candidate and feature set is the probability of being a positive example or the probability of being a negative example for a set of features? And perform a process of estimating a solution candidate having the highest probability of being a positive example from all solution candidates as a solution,
Sending a first processing result for the first set or a second processing result for the second set to the main processing system;
In the main processing system,
When performing analysis processing, access a solution database that stores case data to which a solution to a problem handled by the machine learning method is assigned,
Extracting the case data from the solution database, extracting a first set of a solution or solution candidate and a set of features for each case data;
Sending the first set to the stack processing system;
Receiving the first processing result from the stack processing system;
Adding the first processing result to the first set of feature sets;
From the first set to which the first processing result has been added, the probability of a positive example or the probability of a negative example in the case of a set of solutions or solution candidates and features is determined by a machine learning method. Learn,
Storing the result of the learning in a learning result database,
A second set of solution candidates and feature sets is extracted from the case data input as a processing target,
Sending the second set to the stack processing system;
Receiving a second processing result from the stack processing system;
Adding the second processing result as a feature to the second set of features,
With reference to the learning result database, from the second set to which the second processing result is added, what kind of solution candidate and feature set is a probability of a positive example or a negative example A language analysis processing method characterized in that a probability is obtained as a solution that has the highest probability of being a positive example among all solution candidates.
前記スタック用処理システムおよび前記メイン処理システムでは、受け身文もしくは使役文から能動文への文変換処理における変換後の格助詞を解析する
ことを特徴とする言語解析処理方法。The language analysis processing method according to claim 1 or 2,
A language analysis processing method, wherein the stack processing system and the main processing system analyze a case particle after conversion in a sentence conversion process from a passive sentence or a causative sentence to an active sentence.
受け身文または使役文から能動文への変換処理を行う場合に機械学習法が扱う問題についての解が付与された事例データを記憶する解データベースへアクセスし、
前記解データベースから前記事例データを取り出し、前記事例データごとに解と素性の集合との組を抽出し、
前記解と素性の集合との組から、どのような素性の場合にどのような解になりやすいかを機械学習法により学習し、
前記学習の結果を学習結果データベースに記憶し、
解析対象として入力された電子化された文から素性の集合を抽出し、
前記学習結果データベースを参照して、前記入力文から抽出された素性の場合にどのような解になりやすいかを推定する
ことを特徴とする文変換処理方法。A sentence conversion processing method for converting a passive sentence or a causal sentence digitized using a computer into an active sentence,
Accessing a solution database that stores case data to which solutions to problems handled by machine learning are assigned when performing conversion processing from passive sentences or causative sentences to active sentences,
Retrieving the case data from the solution database, extracting a set of a solution and a set of features for each case data,
From a set of the solution and a set of features, learn what kind of solution is likely to be obtained by a machine learning method,
Storing the result of the learning in a learning result database,
Extract a set of features from the digitized sentence input as the analysis target,
A sentence conversion processing method characterized by referring to the learning result database and estimating what solution is likely to be obtained in the case of a feature extracted from the input sentence.
受け身文または使役文から能動文への変換処理を行う場合に機械学習法が扱う問題についての解が付与された事例データを記憶する解データベースへアクセスし、
前記解データベースから前記事例データを取り出し、前記事例データごとに解もしくは解候補と素性の集合との組を抽出し、
前記解もしくは解候補と素性の集合との組から、どのような解もしくは解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を機械学習法により学習し、
前記学習の結果を学習結果データベースに記憶し、
解析対象として入力された電子化された文から解候補と素性の集合との組を抽出し、
前記学習結果データベースを参照して、前記入力文から抽出された解候補と素性の集合との組から、どのような解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を求め、すべての解候補の中から正例である確率が最も高い解候補を解と推定する
ことを特徴とする文変換処理方法。A sentence conversion processing method for converting a passive sentence or a causal sentence digitized using a computer into an active sentence,
Accessing a solution database that stores case data to which solutions to problems handled by machine learning are assigned when performing conversion processing from passive sentences or causative sentences to active sentences,
Retrieving the case data from the solution database, extracting a set of a solution or solution candidate and a set of features for each case data,
From the set of the solution or solution candidate and the set of features, the probability of being a positive example or the probability of being a negative example in the case of the solution or solution candidate and the set of features is learned by machine learning. ,
Storing the result of the learning in a learning result database,
A set of solution candidates and a set of features is extracted from the digitized sentence input as the analysis target,
With reference to the learning result database, from a set of solution candidates and feature sets extracted from the input sentence, a probability or a negative example of what kind of solution candidates and feature sets is a positive example. A sentence conversion processing method characterized in that a probability is determined, and a solution candidate having the highest probability of being a positive example is estimated as a solution from all solution candidates.
前記スタック用処理システムは、
解析処理を行う場合に機械学習法が問題とする表現の情報を予め記憶した問題表現情報記憶手段と、
前記問題表現情報をもとに、当該問題についての情報が付与されていない事例データから前記問題表現情報に合致する問題表現相当部を抽出する処理手段と、前記問題表現相当部を解とし前記問題表現相当部を変換した前記事例データを問題とする構造を持つ教師なしデータに変換する処理手段と、
前記教師なしデータごとに解と素性の集合との組を抽出する処理手段と、
前記解と素性の集合との組から、どのような素性の場合にどのような解になりやすいかを機械学習法により学習する処理手段と、
前記学習の結果を記憶する学習結果データベースと、
前記メイン処理システムから事例データから抽出された第1の素性の集合または処理対象として入力された事例データから抽出された第2の素性の集合を取得する処理手段と、
前記学習結果データベースを参照して、前記第1の素性の集合または前記第2の素性の集合から、どのような素性の場合にどのような解になりやすいかを推定する処理手段と、
前記第1の素性の集合に対する第1の処理結果または第2の素性の集合に対する第2の処理結果を前記メイン処理システムへ送出する処理手段とを備え、
前記メイン処理システムは、
解析処理を行う場合に機械学習法が扱う問題についての解が付与された事例データを記憶する解データベースと、
前記解データベースから前記事例データを取り出し、前記事例データごとに解と素性の集合との組を抽出する処理手段と、
前記解と素性の集合との組から素性の集合のみを取り出した第1の素性の集合を前記スタック用処理システムへ送出する処理手段と、
前記スタック用処理システムから前記第1の処理結果を受け取る処理手段と、前記第1の処理結果を素性として前記事例データから抽出した第1の素性の集合に追加する処理手段と、
前記解と前記処理結果を追加した第1の素性の集合との組から、どのような素性の場合にどのような解になりやすいかを機械学習法により学習する処理手段と、
前記学習の結果を記憶する学習結果データベースと、
処理対象として入力された事例データから素性の集合を抽出する処理手段と、
前記入力事例データの第2の素性の集合を前記スタック用処理システムへ送出する処理手段と、
前記スタック用処理システムから出力された第2の処理結果を受け取る処理手段と、
前記第2の処理結果を素性として前記入力事例データの第2の素性の集合に追加する処理手段と、
前記学習結果データベースを参照して、前記処理結果を追加した前記第2の素性の集合から、どのような素性の場合にどのような解になりやすいかを推定する処理手段とを備える
ことを特徴とする言語解析処理システム。A system for processing language analysis using a machine learning method including a stack processing system and a main processing system that performs processing using the processing result of the stack processing system,
The stack processing system includes:
Problem expression information storage means in which information of expressions to be a problem in the machine learning method when performing analysis processing is stored in advance;
Processing means for extracting, based on the question expression information, a question expression equivalent part that matches the question expression information from case data to which information about the question is not assigned; Processing means for converting the case data obtained by converting the expression equivalent part into unsupervised data having a structure in question;
Processing means for extracting a set of a solution and a set of features for each unsupervised data;
From the set of the solution and the set of features, processing means for learning what kind of solution is likely to be what kind of solution by machine learning method,
A learning result database storing results of the learning;
Processing means for acquiring a first feature set extracted from case data from the main processing system or a second feature set extracted from case data input as a processing target;
Processing means for referring to the learning result database and estimating from the first feature set or the second feature set which kind of solution is likely to be a solution based on the first feature set or the second feature set;
Processing means for sending a first processing result for the first feature set or a second processing result for the second feature set to the main processing system,
The main processing system includes:
A solution database storing case data to which solutions to problems handled by the machine learning method are provided when performing analysis processing;
Processing means for extracting the case data from the solution database and extracting a set of a solution and a set of features for each case data;
Processing means for sending to the stack processing system a first feature set obtained by extracting only a feature set from the set of the solution and the feature set;
Processing means for receiving the first processing result from the stack processing system; processing means for adding the first processing result as a feature to a first feature set extracted from the case data;
Processing means for learning, from a set of the solution and the first feature set to which the processing result is added, what kind of solution is likely to be obtained by a machine learning method,
A learning result database storing results of the learning;
Processing means for extracting a set of features from case data input as a processing target;
Processing means for transmitting a second set of features of the input case data to the stack processing system;
Processing means for receiving a second processing result output from the stack processing system;
Processing means for adding the second processing result as a feature to a second feature set of the input case data;
Processing means for estimating what kind of solution is likely to be obtained based on the second feature set to which the processing result is added with reference to the learning result database. A language analysis processing system.
前記スタック用処理システムは、
解析処理を行う場合に機械学習法が問題とする表現の情報を予め記憶した問題表現情報記憶手段と、
前記問題表現情報をもとに、当該問題についての情報が付与されていない事例データから前記問題表現情報に合致する問題表現相当部を抽出する処理手段と、
前記問題表現相当部を解とし前記問題表現相当部を変換した前記事例データを問題とする構造を持つ教師なしデータに変換する処理手段と、
前記教師なしデータごとに解もしくは解候補と素性の集合との組を抽出する処理手段と、
前記解もしくは解候補と素性の集合との組から、どのような解もしくは解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を機械学習法により学習する処理手段と、
前記学習の結果を記憶する学習結果データベースと、
前記メイン処理システムから、事例データから抽出された解もしくは解候補と素性の集合の第1の組または処理対象として入力された事例データから抽出された解候補と素性の集合の第2の組を取得する処理手段と、
前記学習結果データベースを参照して、前記第1の組または前記第2の組から、どのような解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を求め、すべての解候補の中から正例である確率が最も高い解候補を解と推定する処理手段と、
前記第1の組に対する第1の処理結果または第2の組に対する第2の処理結果を前記メイン処理システムへ送出する処理手段とを備え、
前記メイン処理システムは、
解析処理を行う場合に機械学習法が扱う問題についての解が付与された事例データを記憶する解データベースと、
前記解データベースから前記事例データを取り出し、前記事例データごとに解もしくは解候補と素性の集合との第1の組を抽出する処理手段と、
前記第1の組を前記スタック用処理システムへ送出する処理手段と、
前記スタック用処理システムから前記第1の処理結果を受け取る処理手段と、
前記第1の処理結果を前記第1の組の素性の集合に追加する処理手段と、
前記第1の処理結果を追加した前記第1の組から、どのような解もしくは解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を機械学習法により学習する処理手段と、
前記学習の結果を記憶する学習結果データベースと、
処理対象として入力された事例データから解候補と素性の集合の第2の組を抽出する処理手段と、
前記第2の組を前記スタック用処理システムへ送出する処理手段と、
前記スタック用処理システムから第2の処理結果を受け取る処理手段と、
前記第2の処理結果を素性として前記第2の組の素性の集合に追加する処理手段と、
前記学習結果データベースを参照して、前記第2の処理結果を追加した前記第2の組から、どのような解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を求め、すべての解候補の中から正例である確率が最も大きい解候補を求める解として推定する処理手段とを備える
ことを特徴とする言語解析処理システム。A system configured to include a stack processing system and a main processing system that performs processing using a processing result of the stack processing system, and that performs language analysis using a machine learning method.
The stack processing system includes:
Problem expression information storage means in which information of expressions to be a problem in the machine learning method when performing analysis processing is stored in advance;
Based on the problem expression information, processing means for extracting a problem expression equivalent part that matches the problem expression information from case data to which information about the problem is not added,
Processing means for converting the case data obtained by converting the problem expression equivalent part with the problem expression equivalent part as a solution into unsupervised data having a structure as a problem;
Processing means for extracting a set of a solution or a solution candidate and a set of features for each unsupervised data;
From the set of the solution or solution candidate and the set of features, the probability of a positive example or the probability of a negative example in the case of the solution or the solution and the set of features is learned by a machine learning method. Processing means;
A learning result database storing results of the learning;
From the main processing system, a first set of a set of solutions or solution candidates and features extracted from the case data or a second set of a set of solution candidates and features extracted from the case data input as a processing target Processing means for acquiring;
With reference to the learning result database, from the first set or the second set, what kind of solution candidate and feature set is the probability of being a positive example or the probability of being a negative example for a set of features? Processing means for determining and estimating a solution candidate having the highest probability of being a positive example among all solution candidates as a solution;
Processing means for sending a first processing result for the first set or a second processing result for the second set to the main processing system,
The main processing system includes:
A solution database storing case data to which solutions to problems handled by the machine learning method are provided when performing analysis processing;
Processing means for extracting the case data from the solution database and extracting a first set of a solution or a solution candidate and a set of features for each case data;
Processing means for sending the first set to the stack processing system;
Processing means for receiving the first processing result from the stack processing system;
Processing means for adding the first processing result to the first set of feature sets;
From the first set to which the first processing result has been added, the probability of a positive example or the probability of a negative example in the case of a set of solutions or solution candidates and features is determined by a machine learning method. Processing means for learning;
A learning result database storing results of the learning;
Processing means for extracting a second set of solution candidates and feature sets from the case data input as a processing target;
Processing means for sending the second set to the stack processing system;
Processing means for receiving a second processing result from the stack processing system;
Processing means for adding the second processing result as a feature to the second set of features,
With reference to the learning result database, from the second set to which the second processing result is added, what kind of solution candidate and feature set is a probability of a positive example or a negative example Processing means for determining the probability of the solution candidate and estimating the solution candidate having the highest probability of being a positive example from among all the solution candidates.
前記スタック用処理システムおよび前記メイン処理システムでは、受け身文もしくは使役文から能動文への文変換処理における変換後の格助詞を解析する
ことを特徴とする言語解析処理システム。In the language analysis processing system according to any one of claims 6 and 7,
A language analysis processing system, wherein the stack processing system and the main processing system analyze a case particle after conversion in a sentence conversion process from a passive sentence or a causal sentence to an active sentence.
受け身文または使役文から能動文への変換処理を行う場合に機械学習法が扱う問題についての解が付与された事例データを記憶する解データベースと、
前記解データベースから前記事例データを取り出し、前記事例データごとに解と素性の集合との組を抽出する処理手段と、
前記解と素性の集合との組から、どのような素性の場合にどのような解になりやすいかを機械学習法により学習する処理手段と、
前記学習の結果を記憶する学習結果データベースと、
解析対象として入力された電子化された文から素性の集合を抽出する処理手段と、
前記学習結果データベースを参照して、前記入力文から抽出された素性の場合にどのような解になりやすいかを推定する処理手段とを備える
ことを特徴とする文変換処理システム。A sentence conversion processing system that converts a passive sentence or a causative sentence digitized using a computer into an active sentence,
A solution database that stores case data to which a solution to a problem handled by the machine learning method is provided when performing a conversion process from a passive sentence or a causative sentence to an active sentence;
Processing means for extracting the case data from the solution database and extracting a set of a solution and a set of features for each case data;
From the set of the solution and the set of features, processing means for learning what kind of solution is likely to be what kind of solution by machine learning method,
A learning result database storing results of the learning;
Processing means for extracting a set of features from the digitized sentence input as an analysis target;
Processing means for estimating what solution is likely to be obtained in the case of a feature extracted from the input sentence with reference to the learning result database.
受け身文または使役文から能動文への変換処理を行う場合に機械学習法が扱う問題についての解が付与された事例データを記憶する解データベースと、
前記解データベースから前記事例データを取り出し、前記事例データごとに解もしくは解候補と素性の集合との組を抽出する処理手段と、
前記解もしくは解候補と素性の集合との組から、どのような解もしくは解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を機械学習法により学習する処理手段と、
前記学習の結果を記憶する学習結果データベースと、
解析対象として入力された電子化された文から解候補と素性の集合との組を抽出する処理手段と、
前記学習結果データベースを参照して、前記入力文から抽出された解候補と素性の集合との組から、どのような解候補と素性の集合の場合に正例であるかの確率または負例であるかの確率を求め、すべての解候補の中から正例である確率が最も高い解候補を解と推定する処理手段とを備える
ことを特徴とする文変換処理システム。A sentence conversion processing system that converts a passive sentence or a causative sentence digitized using a computer into an active sentence,
A solution database that stores case data to which a solution to a problem handled by the machine learning method is provided when performing a conversion process from a passive sentence or a causative sentence to an active sentence;
Processing means for extracting the case data from the solution database and extracting a set of a solution or a solution candidate and a set of features for each case data;
From the set of the solution or solution candidate and the set of features, the probability of a positive example or the probability of a negative example in the case of the solution or the solution and the set of features is learned by a machine learning method. Processing means;
A learning result database storing results of the learning;
Processing means for extracting a set of solution candidates and a set of features from the digitized sentence input as an analysis target;
With reference to the learning result database, from the set of solution candidates and feature sets extracted from the input sentence, the probability or negative example of what kind of solution candidates and feature sets is a positive example A sentence conversion processing system, comprising: processing means for obtaining a probability of existence and estimating a solution candidate having the highest probability of being a positive example among all solution candidates as a solution.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002337747A JP3780341B2 (en) | 2002-11-21 | 2002-11-21 | Language analysis processing system and sentence conversion processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002337747A JP3780341B2 (en) | 2002-11-21 | 2002-11-21 | Language analysis processing system and sentence conversion processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004171354A true JP2004171354A (en) | 2004-06-17 |
JP3780341B2 JP3780341B2 (en) | 2006-05-31 |
Family
ID=32701167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002337747A Expired - Lifetime JP3780341B2 (en) | 2002-11-21 | 2002-11-21 | Language analysis processing system and sentence conversion processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3780341B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008021093A (en) * | 2006-07-12 | 2008-01-31 | National Institute Of Information & Communication Technology | Sentence conversion processing system, translation processing system having sentence conversion function, voice recognition processing system having sentence conversion function, and speech synthesis processing system having sentence conversion function |
WO2008078670A1 (en) * | 2006-12-22 | 2008-07-03 | Nec Corporation | Sentence rephrasing method, program, and system |
WO2020079843A1 (en) * | 2018-10-19 | 2020-04-23 | 三菱電機株式会社 | Elevator door device abnormality diagnostic system |
CN111382251A (en) * | 2018-12-25 | 2020-07-07 | 株式会社日立制作所 | Text generation method, text generation device, and learned model |
-
2002
- 2002-11-21 JP JP2002337747A patent/JP3780341B2/en not_active Expired - Lifetime
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008021093A (en) * | 2006-07-12 | 2008-01-31 | National Institute Of Information & Communication Technology | Sentence conversion processing system, translation processing system having sentence conversion function, voice recognition processing system having sentence conversion function, and speech synthesis processing system having sentence conversion function |
WO2008078670A1 (en) * | 2006-12-22 | 2008-07-03 | Nec Corporation | Sentence rephrasing method, program, and system |
JP5126068B2 (en) * | 2006-12-22 | 2013-01-23 | 日本電気株式会社 | Paraphrasing method, program and system |
US8447589B2 (en) | 2006-12-22 | 2013-05-21 | Nec Corporation | Text paraphrasing method and program, conversion rule computing method and program, and text paraphrasing system |
WO2020079843A1 (en) * | 2018-10-19 | 2020-04-23 | 三菱電機株式会社 | Elevator door device abnormality diagnostic system |
CN111382251A (en) * | 2018-12-25 | 2020-07-07 | 株式会社日立制作所 | Text generation method, text generation device, and learned model |
Also Published As
Publication number | Publication date |
---|---|
JP3780341B2 (en) | 2006-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11914954B2 (en) | Methods and systems for generating declarative statements given documents with questions and answers | |
JP4065936B2 (en) | Language analysis processing system using machine learning method and language omission analysis processing system using machine learning method | |
US8874432B2 (en) | Systems and methods for semi-supervised relationship extraction | |
Thessen et al. | Applications of natural language processing in biodiversity science | |
KR102256240B1 (en) | Non-factoid question-and-answer system and method | |
US8185372B2 (en) | Apparatus, method and computer program product for translating speech input using example | |
Khusro et al. | On methods and tools of table detection, extraction and annotation in PDF documents | |
US9836526B2 (en) | Selecting a structure to represent tabular information | |
Yang et al. | Multiple kernel learning in protein–protein interaction extraction from biomedical literature | |
CN111274829B (en) | Sequence labeling method utilizing cross-language information | |
JP2007004458A (en) | Binomial relation extraction apparatus, information retrieving apparatus using binomial relation extraction processing, method for binomial relation extraction processing, information retrieving processing method using binomial relation extraction processing, binomial relation extraction processing program, and information retrieving processing program using binomial relation extraction processing | |
US20030167245A1 (en) | Summary evaluation apparatus and method, and computer-readable recording medium in which summary evaluation program is recorded | |
Björne et al. | Drug-drug interaction extraction from biomedical texts with svm and rls classifiers | |
US20230136889A1 (en) | Fine-grained concept identification for open information knowledge graph population | |
JP2005208782A (en) | Natural language processing system, natural language processing method, and computer program | |
Hara et al. | Evaluating the impact of re-training a lexical disambiguation model on domain adaptation of an HPSG parser | |
Cheah | Question Classification Using Extreme Learning Machine on Semantic Features. | |
KR20170131893A (en) | Apparatus and method of generation and classification for text classifier based on open directory project | |
Astuti et al. | Code-Mixed Sentiment Analysis using Transformer for Twitter Social Media Data | |
Gholami-Dastgerdi et al. | Part of speech tagging using part of speech sequence graph | |
Liu et al. | Extracting biomedical events from pairs of text entities | |
JP3780341B2 (en) | Language analysis processing system and sentence conversion processing system | |
CN113408296B (en) | Text information extraction method, device and equipment | |
Basha et al. | Natural Language Processing: Practical Approach | |
Zhang et al. | Dual attention model for citation recommendation with analyses on explainability of attention mechanisms and qualitative experiments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3780341 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |