JP6929539B2 - ノン・ファクトイド型質問応答システム及び方法並びにそのためのコンピュータプログラム - Google Patents

ノン・ファクトイド型質問応答システム及び方法並びにそのためのコンピュータプログラム Download PDF

Info

Publication number
JP6929539B2
JP6929539B2 JP2017131291A JP2017131291A JP6929539B2 JP 6929539 B2 JP6929539 B2 JP 6929539B2 JP 2017131291 A JP2017131291 A JP 2017131291A JP 2017131291 A JP2017131291 A JP 2017131291A JP 6929539 B2 JP6929539 B2 JP 6929539B2
Authority
JP
Japan
Prior art keywords
question
answer
expression
word
semantic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017131291A
Other languages
English (en)
Other versions
JP2018063696A (ja
Inventor
鍾勲 呉
鍾勲 呉
健太郎 鳥澤
健太郎 鳥澤
カナサイ クルンカライ
カナサイ クルンカライ
龍 飯田
龍 飯田
ジュリアン クロエツェー
ジュリアン クロエツェー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to US16/338,465 priority Critical patent/US20200034722A1/en
Priority to CN201780061910.2A priority patent/CN109863487B/zh
Priority to PCT/JP2017/035765 priority patent/WO2018066489A1/ja
Priority to KR1020197008669A priority patent/KR102408083B1/ko
Publication of JP2018063696A publication Critical patent/JP2018063696A/ja
Application granted granted Critical
Publication of JP6929539B2 publication Critical patent/JP6929539B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3325Reformulation based on results of preceding query
    • G06F16/3326Reformulation based on results of preceding query using relevance feedback from the user, e.g. relevance feedback on documents, documents sets, document terms or passages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/041Abduction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

この発明は質問応答システムに関し、特に、簡単な単語で答えられるような事実に関する質問ではなく、理由、方法、定義等のノン・ファクトイド型質問に対する質問応答システムの改良に関する。
因果関係は、なぜ型質問応答タスクにおける最も重要な意味的知識である。なぜ型質問応答タスクとは、「なぜ津波が起きるのですか?」というようななぜ型質問に対する回答を大量のテキストからなるテキストアーカイブを検索して取り出すタスクである。このための先行技術として、非特許文献1に開示されたものがある。この非特許文献1は、「なぜなら」のような手掛かり語又は「Aが原因でBが起こる」のような特定の因果関係パターンを用いて回答パッセージ中の因果関係を認識し、認識した因果関係を回答選択又は回答ランキングの手掛かりとして用いていた。こうした処理を行う例としては、回答パッセージの正誤分類、正しさの度合いによる回答パッセージのランキング等がある。
J.-H. Oh, K. Torisawa, C. Hashimoto, M. Sano, S. De Saeger, and K. Ohtake. Why-question answering using intra- and inter-sentential causal relations. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (ACL 2013), pp. 1733-1743, Sofia, Bulgaria, August, 2013.
しかし、明示的な手掛かり語又はパターンに依存する先行技術には、回答パッセージ内の因果関係が明示的な形ではなく(手掛かり語なしで)暗黙に表現されている場合に、因果関係を的確に認識できないという問題がある。例えば、以下の様な質問と回答を用いる場合が想定される。
Figure 0006929539
ここで、下線を引いた部分CE1は因果関係を表しているが、手掛かり語は用いられていない。CE1のような表現には手掛かり語がないため、従来の技術ではこの因果関係を認識できず、したがって上のような問いに、回答1のような回答を見つけることはできないと推定される。
また、なぜ型質問応答タスクにおいて因果関係が最も重要な意味的知識であることは前述したとおりだが、因果関係に関する意味的知識のみで回答が推定できる質問だけではなく、それ以外の意味的関係についての質問もある。したがって、一般的なノン・ファクトイド型質問についても高い精度で回答を見つけられる質問応答システムが望ましい。
それ故に本発明の目的は、手掛かり語を明示的に含まないような因果関係等の意味的関係の表現を含む回答のパターンを利用することにより、ノン・ファクトイド型質問に的確な回答を与えることができるノン・ファクトイド型質問応答システム及びそのためのコンピュータプログラムを提供することである。
本発明の第1の局面に係るノン・ファクトイド型質問応答システムは、文章内に出現する第1の意味的関係を表す表現に着目して、ノン・ファクトイド型の質問に対する応答を生成する。このノン・ファクトイド型質問応答システムは、第1の意味的関係を表す複数個の表現を記憶する第1の表現記憶手段と、質問と、当該質問に対する回答候補を含む複数個の回答パッセージとを受信する質問・回答受信手段と、複数個の回答パッセージの各々から、第1の意味的関係を表す意味的関係表現を抽出する第1の表現抽出手段と、質問と、複数個の回答パッセージとの組み合わせの各々に対し、第1の表現記憶手段が記憶している複数個の表現から、当該組み合わせに最も関連する表現である関連表現を選択する関連表現選択手段と、質問と、複数個の回答パッセージと、当該回答パッセージに対する意味的関係表現と、当該質問と当該回答パッセージとの組み合わせに対する関連表現の1つとからなる組み合わせの各々を入力として受け、質問に対する回答を複数個の回答パッセージ中から選択するように予め機械学習により学習した回答選択手段とを含む。
好ましくは、ノン・ファクトイド型質問応答システムは、さらに、質問と、複数個の回答パッセージとの組み合わせの各々に対し、第1の表現記憶手段が記憶した複数個の表現内における、質問に出現する各単語と当該回答パッセージに出現する各単語との第1の意味的相関関係量を算出する第1の意味的相関関係量算出手段を含む。回答選択手段は、質問と、複数個の回答パッセージと、当該回答パッセージに対する意味的関係表現と、質問と当該回答パッセージとの組み合わせに対する関連表現との組み合わせを入力として受け、入力中の各単語に対する重みとして第1の意味的相関関係量を用いて、当該回答パッセージが質問に対する回答である尺度を表す評価値を算出し出力するように予め機械学習により学習した評価手段と、複数個の回答パッセージの各々に対して評価手段が出力する評価値を用いて複数個の回答パッセージのいずれかを質問に対する回答として選択する選択手段とを含む。
より好ましくは、ノン・ファクトイド型質問応答システムは、文書アーカイブから、第1の意味的関係を表す表現を抽出して第1の表現記憶手段に格納する第1の意味的関係表現抽出手段をさらに含む。
さらに好ましくは、第1の意味的相関関係量算出手段は、第1の表現記憶手段が記憶した、第1の意味的関係を表す複数個の表現に含まれる単語対の第1の意味的相関関係量を、各単語対に対して算出し記憶する第1の意味的相関関係量記憶手段と、質問と、複数個の回答パッセージとの組み合わせの各々について、当該質問内の単語と、当該回答パッセージ内の1つの単語との対ごとに、第1の意味的相関関係量を第1の意味的相関関係量記憶手段から読出し、一方の軸に質問内の単語が配列され、他方の軸に当該回答パッセージ内の単語が配列されたマトリクスであって、一方の軸と他方の軸との交差する位置のセルに、当該位置に対応する単語同士の第1の意味的相関関係量がそれぞれ配置された第1のマトリクスを生成する第1のマトリクス生成手段と、第1のマトリクスの一方の軸に配置された各単語に対して、他方の軸方向に配置された第1の意味的相関関係量の最大値を記憶する第1の単語−文マトリクス、及び第1のマトリクスの他方の軸に配置された各単語に対して、一方の軸方向に配置された第1の意味的相関関係量の最大値を記憶する第2の単語−文マトリクスからなる2つの第2のマトリクスを生成する第2のマトリクス生成手段とを含む。ノン・ファクトイド型質問応答システムは、さらに、回答選択手段に与えられる、質問内に出現する単語の各々に対しては、第1の単語−文マトリクスの第1の意味的相関関係量を、回答パッセージ内に出現する単語の各々に対しては第2の単語−文マトリクスの第1の意味的相関関係量をそれぞれ用いて重み付けをするための手段を含む。
好ましくは、2つの第2のマトリクスに記憶される第1の意味的相関関係量の各々は所定の区間で正規化されている。
より好ましくは、第1の意味的関係は因果関係である。
さらに好ましくは、因果関係を表す表現の各々は、原因部と結果部とを含む。関連表現選択手段は、質問から名詞、動詞及び形容詞を抽出する第1の単語抽出手段と、第1の表現記憶手段が記憶している表現から、第1の単語抽出手段が抽出した名詞を結果部に全て含むものを所定個数だけ選択する第1の表現選択手段と、第1の表現記憶手段が記憶している表現から、第1の単語抽出手段が抽出した名詞を全て含み、かつ、第1の単語抽出手段が抽出した動詞又は形容詞を少なくとも1つだけ結果部に含むものを所定個数だけ選択する第2の表現選択手段と、複数個の回答パッセージの各々について、第1の表現選択手段及び第2の表現選択手段が選択した表現のうちで、当該回答パッセージと共通する単語を結果部に持ち、かつ当該共通する単語に対する重み付けにより算出されるスコアによって当該回答パッセージと最も関連が高いと判定されるものを選択する関連因果関係表現選択手段とを含む。
好ましくは、ノン・ファクトイド型質問応答システムは、文章内に出現する第1の意味的関係を表す表現と、第2の意味的関係を表す表現とに着目することで、ノン・ファクトイド型の質問に対する応答を生成する。このノン・ファクトイド型質問応答システムは、さらに、第2の意味的関係を表す複数個の表現を記憶する第2の表現記憶手段と、質問と、複数個の回答パッセージの各々との組み合わせに対し、第2の表現記憶手段が記憶した複数個の表現内における、質問に出現する各単語と当該回答パッセージに出現する各単語との相関関係を表す第2の意味的相関関係量を算出する第2の意味的相関関係量算出手段を含む。評価手段は、質問と、複数個の回答パッセージと、当該回答パッセージに対する第1の表現抽出手段が抽出した意味関係表現と、質問と当該回答パッセージとに対する関連表現との組み合わせを入力として受け、入力中の各単語に対する重みとして第1の意味的相関関係量と第2の意味的相関関係量を用いることにより、評価値を出力するように予め機械学習により学習したニューラルネットワークを含む。
より好ましくは、第2の意味的関係は、特定の意味的関係に限定されない、通常の意味的関係であり、第2の表現記憶手段は、無作為に収集された表現を記憶する。
本発明の第2の局面に係るコンピュータプログラムは、コンピュータを、上記したいずれかの装置の各手段として機能させる。
本発明の第3の局面に係るノン・ファクトイド型質問に対する応答方法は、文章内に出現する所定の第1の意味的関係を表す表現に着目することで、ノン・ファクトイド型の質問に対する応答を生成する、コンピュータにより実現される方法である。この方法は、コンピュータが、第1の意味的関係を表す複数個の表現を記憶した第1の記憶装置と通信可能に接続するステップと、コンピュータが、質問と、当該質問に対する回答候補を含む複数個の回答パッセージとを入力装置を介して受信するステップと、コンピュータが、複数個の回答パッセージの各々から、第1の意味的関係を表す表現を抽出するステップと、コンピュータが、質問と、複数個の回答パッセージとの組み合わせの各々に対し、第1の表現記憶手段が記憶した複数個の表現から、当該組み合わせに最も関連する表現を選択するステップと、コンピュータが、質問と、複数個の回答パッセージと、抽出するステップにおいて抽出された複数個の表現と、選択するステップにおいて選択された表現の1つとからなる組み合わせの各々を、質問に対する回答を複数個の回答パッセージ中から選択するように予め機械学習により学習した回答選択手段に入力してその出力を得ることにより、質問に対する応答を生成するステップとを含む。
好ましくは、この方法はさらに、コンピュータが、質問と、複数個の回答パッセージとの組み合わせの各々に対し、第1の表現記憶手段が記憶した複数個の表現内における、質問に出現する各単語と当該回答パッセージに出現する各単語との相関関係を表す第1の意味的相関関係量を算出するステップを含む。選択するステップは、コンピュータが、質問と、複数個の回答パッセージと、当該回答パッセージから抽出するステップにおいて抽出された表現と、質問と当該回答パッセージとに対して選択ステップにおいて選択された表現との組み合わせの各々を、当該回答パッセージが質問に対する回答である尺度を表す評価値を算出し出力するように予め機械学習により学習した評価手段に入力として与えるステップを含む。評価手段は、評価値の算出において、入力中の各単語に対する重みとして、第1の意味的相関関係量を用い、方法はさらに、コンピュータが、複数個の回答パッセージの各々に対して評価手段が出力する評価値を用いて複数個の回答パッセージのいずれかを質問に対する回答として選択するステップを含む。
本発明の第4の局面に係るノン・ファクトイド質問応答システムは、質問文と、当該質問文に対する複数個の回答パッセージとを受ける質問・回答受信手段と、複数個の回答パッセージから、複数個の回答内因果関係表現を抽出する因果関係表現抽出手段と、大量の文書からなる文書アーカイブから抽出された複数個のアーカイブ因果関係表現を記憶したアーカイブ因果関係表現記憶手段とを含む。回答内因果関係表現及びアーカイブ因果関係表現の各々は、原因部と結果部とを含む。ノン・ファクトイド型質問応答システムはさらに、アーカイブ因果関係表現記憶手段に記憶されている複数個のアーカイブ因果関係表現について、回答パッセージの各々との関連度の大きさに基づいてランキングし、質問と回答パッセージと組合せの各々について、ランクの上位のアーカイブ因果関係表現を選択するためのランキング手段と、質問と、複数個の回答パッセージと、複数個の回答内因果関係表現と、ランキング手段により選択されたアーカイブ因果関係表現とを入力として受け、質問に対する回答として、複数個の回答パッセージのいずれかを選択するように予め機械学習により学習した分類手段とを含む。
好ましくは、ノン・ファクトイド型質問応答システムはさらに、各回答パッセージに使用されている各単語対の相関関係を表す尺度である相関関係量を記憶する相関関係量記憶手段と、質問と、回答パッセージの各々との組み合わせの各々について、質問から抽出された単語と、回答パッセージから抽出された単語の組合せの各々に対して、相関関係量を相関関係量記憶手段から読出し、分類手段に与えられる質問と回答パッセージとの各単語に対して相関関係量に応じた重みを付すための重み付与手段とを含む。
より好ましくは、重み付与手段は、質問と、回答パッセージの各々との組み合わせの各々について、質問から抽出された単語と、回答パッセージから抽出された単語の組合せの各々に対して、相関関係量を相関関係量記憶手段から読出し、一方の軸が質問から抽出された単語の配列、他方の軸が回答パッセージから抽出された単語の配列、一方の軸と他方の軸との交差する位置に、各軸の当該位置に対応する単語同士の相関関係量が、それぞれ配置された単語−単語相関関係量マトリクスからなる第1のマトリクスを生成する第1のマトリクス生成手段と、相関関係量マトリクスの一方の軸に配置された各単語に対して、他方の軸方向に配置された相関関係量の最大値を記憶する第1の単語−文マトリクス、及び相関関係量マトリクスの他方の軸に配置された各単語に対して、一方の軸方向に配置された相関関係量の最大値を記憶する第2の単語−文マトリクスからなる2つの第2のマトリクスを生成する第2のマトリクス生成手段と、分類手段に与えられる、質問を表す単語ベクトルの各々に対しては第1のマトリクス及び第1の単語−文マトリクスを用い、回答パッッセージを表す単語ベクトルの各々に対しては第1のマトリクス及び前記第2の単語−文マトリクスを用いて、それぞれ因果関係アテンションによる重み付けをするための手段とを含む。
さらに好ましくは、第1のマトリクス、及び2つの第2のマトリクスに記憶される相関関係量は、0から1の間で正規化されている。
ランキング手段は、質問から名詞、動詞及び形容詞を抽出する第1の単語抽出手段と、アーカイブ因果関係表現から、第1の単語抽出手段により抽出された名詞を全て含むものを所定個数だけ選択する第1のアーカイブ因果関係表現選択手段と、アーカイブ因果関係表現から、第1の単語抽出手段により抽出された名詞を全て含み、かつ、第1の単語抽出手段により抽出された動詞又は形容詞を少なくとも1つ含むものを所定個数だけ選択する第2のアーカイブ因果関係表現選択手段と、回答パッセージの各々について、第1及び第2のアーカイブ因果関係選択手段により選択されたアーカイブ因果関係表現のうちで、当該回答パッセージと共通する単語を結果部に持ち、かつ当該共通する単語に対する重み付けにより算出されるスコアによって当該回答パッセージと最も関連が高いと判定されるものを選択する関連因果関係表現選択手段とを含んでもよい。
本発明の第1の実施の形態に係るノン・ファクトイド型質問応答システムの概略構成を示すブロック図である。 図1に示す質問関連アーカイブ因果関係表現選択部の概略構成を示すブロック図である。 単語間の相互情報量マトリクスの構成を示す概略図である。 本発明の第1の実施の形態で用いられる、マルチカラムの畳み込みニューラルネットワークの概略構成を示す図である。 畳み込みニューラルネットワーク内の構成を説明するための模式図である。 本発明の第1の実施の形態に係るノン・ファクトイド型質問応答システムの学習過程を説明するための模式図である。 本発明の第1の実施の形態に係るノン・ファクトイド型質問応答システムとコンピュータにより実現するためのプログラムの制御構造を示すフローチャートである。 本発明の第1の実施の形態に係るノン・ファクトイド型質問応答システムによる実験結果を表形式で示す図である。 本発明の第1の実施の形態に係るノン・ファクトイド型質問応答システムの性能を従来技術と比較したグラフである。 本発明の第1の実施の形態に係るノン・ファクトイド型質問応答システムを実現するコンピュータシステムの外観を示す図である。 図10に外観を示すコンピュータシステムのハードウェア構成を示すブロック図である。 本発明の第2の実施の形態に係るノン・ファクトイド型質問応答システムの概略構成を示すブロック図である。 図12に示す類似度アテンションマトリクス生成部の概略構成を示すブロック図である。 図12に示す畳み込みニューラルネットワーク内の概略構成を示すための模式図である。 第2の実施の形態に係るノン・ファクトイド型質問応答システムをコンピュータにより実現するためのプログラムの制御構造を示すフローチャートである。 第2の実施の形態に係るノン・ファクトイド型質問応答システムによる回答の精度を従来の手法及び第1の実施の形態の精度とあわせて表形式で示す図である。
以下の説明及び図面では、同一の部品には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。なお、以下の実施の形態では、第1の意味的関係表現として因果関係を例にするが、本発明はそのような実施の形態には限定されない。後述するように、材料関係(例:<AでBを生産する>、(トウモロコシ、バイオ燃料)等)必要関係(例:<AはBに必須だ>、(日光、光合成)等)、使用関係(例:<AをBに使う>、(iPS細胞、再生医療)、等)及び予防関係(例:<AでBを防ぐ>、(ワクチン、インフルエンザ)、等)又はこれらの任意の組み合わせを用いることができる。
[基本的な考え方]
上記したCE1のような因果関係表現は、手掛かり語を用いて「地震により海底が上下し、その周辺の海水も上下に動くため、津波が発生する。」(CE2)のように言い換えて表現できる(「ため」が手掛かり語)。このような文章は2011年の東日本大震災と関係のない文脈でも生じ得ることと、この表現だけでは上記した質問に対する答えとしては不十分であることに注意が必要である。しかし、このような因果関係表現を明示的な手掛かり語等を用いて自動的に認識でき、なんらかの手段によってこのような明示的な手掛かり語等がない因果関係表現を補完することができれば、なぜ型質問応答タスクの回答の精度を高めることができる。
以下の実施の形態では、入力された質問と回答パッセージとの双方に関連した因果関係表現を、明示的な手掛かり語等を含む大量のテキストアーカイブから選択する。回答パッセージとは、質問に対する回答である可能性を有するとして既存の文書から抽出された文書の断片のことをいう。選択された因果関係表現を、質問と回答パッセージとともに畳み込みニューラルネットワークに与えて、質問に対する回答として正しい確率を表すスコアを各回答パッセージに付与し、質問に対する回答として最も正しいと思われる回答を選択する。以下の説明では、テキストアーカイブから抽出した因果関係表現をアーカイブ因果関係表現と呼び、回答パッセージから抽出した因果関係表現を回答内因果関係表現と呼ぶ。以下の実施の形態では、質問と回答パッセージとの双方に深く関連するアーカイブ因果関係表現を抽出して用いるが、これらの因果関係表現を関連因果関係表現と呼ぶ。
以下の実施の形態ではまた、アーカイブ因果関係表現を用いて暗黙の因果関係表現を補完するという考え方を採用している。例えば上に挙げた回答パッセージと、明示的な手掛かり語等を含む因果関係表現CE2とは、共通する単語(海と水)を持つことに注目し、そのような共通の単語は、仮に暗黙の因果関係表現を特定することができない場合でも、十分な回答を発見するための手掛かりとして使用できる筈であると考えた。つまり、アーカイブ因果関係表現と、回答パッセージとの間で共通する単語に十分に注意を払えば、回答パッセージ内の暗黙の因果関係表現を認識できないときでも、その言い換えとして明示的な手掛かり語を含むアーカイブ因果関係表現を推定でき、その結果、質問に対する精度を高めることができると考えられる。本明細書では、このような考え方を因果関係アテンション(Causality-Attention:以下「CA」)と呼ぶ。
すなわち、海、及び水、のような共通の単語は、質問とその回答との間の因果関係に直接的にせよ間接的にせよ関係していると想定する。本明細書では、そのような共通の単語をCA単語(Causality-Attention words)と呼び、アーカイブ因果関係表現からそうした単語を抽出する。以下の実施の形態では、分類器は、与えられた質問に対する原因又は理由を見つける際に、そのようなCA単語に着目して回答の選択を行う。こうした機能を実現するために、以下の実施の形態では、後述するように複数の畳み込みニューラルネットワークからなるマルチカラムニューラルネットワーク(Multi Column Neural Network:MCNN)を分類器として用いる。CA単語に着目するという意味で、このMCNNをCA-MCNNと呼ぶ。
[第1の実施の形態]
〔構成〕
<ノン・ファクトイド型質問応答システム30>
図1を参照して、本願の1実施の形態に係るノン・ファクトイド型質問応答システム30は、質問32を受ける質問受付部50と、質問受付部50が受け付けた質問を既存の質問応答システム34に与えることにより、質問応答システム34から何らかの形で質問32に対する回答パッセージを所定個数だけ受信する応答受信部52と、大量の文書からなるウェブアーカイブを記憶したウェブアーカイブ記憶部56と、ウェブアーカイブ記憶部56に記憶されたウェブアーカイブ、質問受付部50が受付けた質問130、及び応答受信部52が質問応答システム34から受信した回答パッセージを用いて、後述する因果関係アテンションマトリクスを算出するための因果関係アテンション処理部40とを含む。
因果関係アテンション処理部40は、ウェブアーカイブ記憶部56から既存の技術により手掛かり語等を用いて因果関係表現を抽出する因果関係表現抽出部58と、因果関係表現抽出部58が抽出した因果関係表現(アーカイブ因果関係表現)を記憶するアーカイブ因果関係表現記憶部60と、アーカイブ因果関係表現記憶部60に記憶されたアーカイブ因果関係表現に含まれる単語を抽出し、[-1,1]で正規化された単語間の相関関係を表す1つの尺度である相互情報量を算出する相互情報量算出部62と、双方の軸に各単語を配置し、一方軸上の単語と他方軸上の単語との交差位置に、その単語対の間の相互情報量を配置した、相互情報量マトリクスを記憶する相互情報量マトリクス記憶部64と、相互情報量マトリクス記憶部64に記憶された相互情報量マトリクスと、質問受付部50が受付けた質問130と、質問130に対して得られた回答パッセージとを用い、質問130に対する各回答パッセージの評価値であるスコアを算出する際に用いられる因果関係アテンションマトリクスを生成する因果関係アテンションマトリクス生成部90とを含む。因果関係アテンションマトリクス生成部90の構成については後述する。なお、本実施の形態では、因果関係表現から得られた、単語同士の相関関係を表す尺度である相互情報量を因果関係アテンションとして用いるが、相関関係を表す尺度としてはこれ以外のものも使用できる。例えば、因果関係表現の集合内における単語間の共起頻度、Dice係数、Jaccard係数等、相関関係を表す他の尺度を用いてもよい。
ノン・ファクトイド型質問応答システム30はさらに、応答受信部52が受信した回答パッセージ、質問受付部50が受け付けた質問130、アーカイブ因果関係表現記憶部60に記憶されたアーカイブ因果関係表現、及び因果関係アテンションマトリクス生成部90により生成された因果関係アテンションマトリクスを用いて、質問32に対する回答パッセージのスコアを算出し出力する分類部54と、質問32に対する回答候補として、分類部54により出力されたスコアと回答パッセージとを関連付けて記憶する回答候補記憶部66と、回答候補記憶部66に記憶された回答候補をスコアにしたがって降順にソートし、最も高いスコアの回答候補を回答36として出力する回答候補ランキング部68とを含む。
〈分類部54〉
分類部54は、応答受信部52が受信した回答パッセージを記憶するための回答パッセージ記憶部80と、回答パッセージ記憶部80に記憶された回答パッセージに含まれる因果関係表現を抽出する因果関係表現抽出部82と、因果関係表現抽出部82により回答パッセージから抽出された関係表現を記憶する回答内因果関係表現記憶部84とを含む。このように回答パッセージから抽出された因果関係表現を回答内因果関係表現と呼ぶ。
分類部54はさらに、アーカイブ因果関係表現記憶部60に記憶されたアーカイブ因果関係表現から、質問受付部50が受け付けた質問130と回答パッセージ記憶部80に記憶された回答パッセージの各々との組合せに対して最も関連するアーカイブ因果関係表現をそれぞれ抽出する関連因果関係表現抽出部86と、関連因果関係表現抽出部86により抽出された因果関係表現を記憶する関連因果関係表現記憶部88とを含む。関連因果関係表現抽出部86により抽出されるアーカイブ因果関係表現は、回答パッセージ内因果関係表現の言い換えと考えられる。
分類部54はさらに、質問受付部50が受け付けた質問130、回答内因果関係表現記憶部84により記憶された回答内因果関係表現、関連因果関係表現記憶部88に記憶された関連因果関係表現、及び因果関係アテンションマトリクス生成部90により生成された因果関係アテンションマトリクスの入力を受け、回答パッセージ記憶部80に記憶された回答パッセージが質問130に対する回答として正しいものである確率を示すスコアを出力するように、予め学習済のニューラルネットワーク92とを含む。
ニューラルネットワーク92は、後述するようにマルチカラムの畳み込みニューラルネットワークである。ニューラルネットワーク92は、因果関係アテンションマトリクス生成部90により生成された因果関係アテンションにより、回答パッセージ記憶部80に記憶された回答パッセージの内で、質問130に含まれる単語と関連があると思われる単語に特に注目してスコアを算出する。このように、質問130に含まれる単語と関連があると思われる単語というのは、人間の場合には各自が持つ、因果関係に関する常識に基づいて選択しているものと思われる。そこで、本実施の形態では、このように相互情報量に基づいて、回答パッセージ中の単語に着目し回答パッセージを評価することを前述のとおり因果関係アテンションと呼ぶ。また、こうした因果関係アテンションを用いて回答パッセージにスコア付するマルチカラムのニューラルネットワーク92をCA-MCNNと呼ぶ。このニューラルネットワーク92の構成については図4及び図5を参照して後述する。
《関連因果関係表現抽出部86》
関連因果関係表現抽出部86は、質問受付部50が受け付けた質問130から内容語を抽出し、アーカイブ因果関係表現記憶部60に記憶されているアーカイブ因果関係表現のうち、質問130から抽出した単語を結果部に持つものを選択する質問関連アーカイブ因果関係表現選択部110と、質問関連アーカイブ因果関係表現選択部110が選択したアーカイブ因果関係表現を記憶する質問関連因果関係表現記憶部112と、回答パッセージ記憶部80に記憶された回答パッセージの各々について、回答パッセージと共通する単語をどの程度含むかを示す所定の計算式に基づいて、質問関連因果関係表現記憶部112に記憶された質問関連因果関係表現をランキングし、最上位の質問関連因果関係表現を、質問及び回答パッセージの組に関連する因果関係表現として選択し出力するランキング部114とを含む。ランキング部114がランキングに使用する所定の式は以下の式で表される重み付け単語出現数wgt-wc(x,y)である。なお以下では、重み付け単語出現数wgt-wc(x,y)以外にも3つの評価値wc(x,y)、ratio(x,y)、及びwgt-ratio(x,y)を定義してある。これらはいずれもニューラルネットワーク92への入力となる。
Figure 0006929539
ここで、MW(x,y)は表現x内の内容語であって、かつ表現yの中にも存在するものの集合を表し、Word(x)は表現x内の内容語の集合を表し、idf(x)は単語xの文書頻度の逆数を表す。上記ランキング部114による処理では、xは質問関連因果関係の原因部を表し、yは回答パッセージを表す。
−質問関連アーカイブ因果関係表現選択部110−
関連因果関係表現抽出部86内の質問関連アーカイブ因果関係表現選択部110の概略構成を図2に示す。図2を参照して、質問関連アーカイブ因果関係表現選択部110は、質問130を質問受付部50から受け、質問130に含まれる名詞を抽出する名詞抽出部150と、質問130に含まれる動詞及び形容詞を抽出する動詞・形容詞抽出部152と、アーカイブ因果関係表現記憶部60を検索し、名詞抽出部150により抽出された名詞を全て結果部に含むアーカイブ因果関係表現を取り出し、質問関連因果関係表現記憶部112に格納するための第1検索部154と、アーカイブ因果関係表現記憶部60を検索し、名詞抽出部150が抽出した名詞の全てと、動詞・形容詞抽出部152が抽出した動詞及び形容詞の少なくとも一つとを結果部に含むアーカイブ因果関係表現を抽出し、質問関連因果関係表現記憶部112に格納するための第2検索部156とを含む。
《因果関係アテンションマトリクス生成部90》
本実施の形態では、因果関係アテンションという概念により、ニューラルネットワーク92による回答パッセージのスコアリング時に、質問及び回答パッセージに含まれるCA単語に他より大きな重み付けを与える。そのために用いるのが相互情報量マトリクスである。ここでの重み付けは、質問に含まれるCA単語と回答パッセージに含まれるCA単語が、どの程度の因果関係的な関連性を持つかを表すものであり、本実施の形態ではその値として単語間の相互情報量を用いる。
P(x,y)は、単語x及び単語yがそれぞれ同じアーカイブ因果関係表現の原因部及び結果部に存在する確率を示すものとする。この確率は、図1に示すアーカイブ因果関係表現記憶部60に記憶された全てのアーカイブ因果関係表現から統計的に得られる。P(x,*)及びP(*,y)をそれぞれ、単語x及び単語yがアーカイブ因果関係表現の全体においてそれぞれ原因部及び結果部に現れる確率を示すものとする。すると、単語x及びyの間の因果関係的関連性の強さは、以下のように[-1,1]の範囲で正規化された点別相互情報量(npmi)により表される。
Figure 0006929539
本実施の形態では、以下に述べるように2種類の因果関係アテンションマトリクスを用いる。第1は単語‐単語マトリクスAであり、第2は単語‐文マトリクス^Aである。単語‐文マトリクス^Aにはさらに2種類がある。一方は質問内の各単語からみた、回答パッセージ内の各単語との相互情報量の最大値からなるマトリクス^Aqであり、他方は回答パッセージの各単語からみた、質問内の各単語との相互情報量の最大値からなるマトリクス^Apである。(ハット記号「^」は、本来、直後の文字の直上に記載すべきものである。)
質問q及び回答パッセージpとすると、マトリクスA∈R|p|×|q|は以下の式により求める。
Figure 0006929539
ただし、qj及びpiはそれぞれ、質問のj番目の単語及び回答パッセージのi番目の単語を表す。A[i,j]にはnpmi(・)>0のときのみnpmi(・)の値が代入され、それ以外の場合は0となるのでnpmi(・)>0となるCA単語しか本実施の形態の因果関係アテンションには影響しない。なお、npmi(・)<0のときにもマトリクスA[i,j]に値を代入するような実施の形態も可能である。実験では、式(3)のように、npmi(・)<0のときには0に置換したほうがよい結果が得られたため、本実施の形態では式(3)の制約をA[i,j]に課している。
Figure 0006929539
質問中の単語qj(又は回答パッセージ中の単語pi)には、その単語qj(又は単語pi)と因果関係的に深く関係している単語が、対応する文、すなわち回答パッセージ(又は質問)内に多く出現していれば、因果関係アテンション表現中において大きなアテンション重みが与えられる。しかし、質問とその回答パッセージとのペア中に現れる単語数は少ないので、マトリクスAは疎な行列となる。このため、モデルパラメータWq´及びWp´を効果的に学習するのは困難である。この問題を解決するために、このマトリクスAから上記したマトリクス^Aq及び、マトリクス^Ap(まとめて「^A」と書く。)を生成し、これらを用いる。これらについては図3を参照して後述する。
図1を参照して、因果関係アテンション処理部40の因果関係アテンションマトリクス生成部90は、質問受付部50からの質問130、及び回答パッセージ記憶部80に記憶された回答パッセージの各々の組合せごとに、それらに含まれる内容語を全て抽出するための単語抽出部120と、単語抽出部120により抽出された質問の単語を横軸に、回答パッセージの単語を縦軸に配置し、横軸及び縦軸の交差位置に、その位置に対応する2単語の相互情報量を相互情報量マトリクス記憶部64から読出し、負の値を0に置換して配置した第1の相互情報量マトリクスを算出する第1のマトリクス算出部122と、第1のマトリクス算出部122が算出した第1の相互情報量マトリクスから、以下に述べる方法で2つの第2の相互情報量マトリクスを算出する第2のマトリクス算出部124とを含む。相互情報量の負の値を0に置換しているので、第1の相互情報量マトリクス内の相互情報量の値は、[0,1]の範囲で正規化されている。
図3を参照して、第1の相互情報量マトリクスA170は、前述したとおり、横軸に質問から抽出した単語を配置し、縦軸に、処理対象の回答パッセージから抽出した単語を配置し、それらが交差する位置に、その交差位置に対応する単語間の相互情報量を相互情報量マトリクス記憶部64から読み出し、負の値を0に置換して格納したマトリクスである。これに対して、第2のマトリクスは、マトリクス^Aq180及びマトリクス^Ap182の2つからなる。マトリクス^Aq180は、相互情報量マトリクスA170のうち、質問に含まれる各単語に対応して各列に記憶されている相互情報量の最大値を求めて得られるものである。マトリクス^A182は、相互情報量マトリクスA170のうち、回答パッセージに含まれる各単語に対応して各行に記憶されている相互情報量の最大値を求めて得られるものである。したがって、マトリクス^Aq180及びマトリクス^Ap182のいずれにおいても、相互情報量の値は[0,1]の範囲に正規化されている。
質問中の単語(「質問語」という。)の因果関係アテンションの特徴量は、マトリクス^Aにおいて、質問語と、全ての回答パッセージ中の単語(「回答語」という。)との可能な全ての組み合わせの中で最も高い値であるnpmi値により表される。同様に、回答語の因果関係アテンションの特徴量は、マトリクス^Aにおいて、回答語と全ての質問語との可能な全ての組み合わせの中で最も高い値であるnpmi値により表される。これは、マトリクス^A内の単語の因果関係アテンションの特徴量は、マトリクスAから抽出した最も重要な因果関係アテンション特徴量により表現されることを示唆している。
この処理により、2つの因果関係アテンション特徴量マトリクスが得られる。一方は質問に関するマトリクス^Aq180であり、他方は回答パッセージに関するマトリクス^Ap182である。
Figure 0006929539
例えば、列172(「津波」に対応する。)を下に見ていくと、相互情報量の最大値は「地震」の「0.65」である。すなわち、「津波」という質問語は、「地震」という回答語と最も強い因果関係的関連を有する。同様に、各列の最大値を求めることでマトリクス^Aq180が得られる。また、例えば行174(「地震」に対応する。)を横に見ていくと、最大値は「津波」の「0.65」である。すなわち、「地震」という回答語と最も強い因果関係的関連を有する質問語は「津波」である。これを各行について求めていくことでマトリクス^Ap182が得られる。実際には、図3から分かるようにマトリクス^Aq180は1行の横ベクトルであり、マトリクス^Ap182は1列の縦ベクトルとなる。
Figure 0006929539
Figure 0006929539
〈畳み込みニューラルネットワーク〉
図4を参照して、図1に示すニューラルネットワーク92は、後述するように、質問、回答パッセージ、回答内因果関係表現(回答CE)、及び関連因果関係表現(関連CE)を受けて、因果関係アテンションによる重み付けを行った単語ベクトルを生成する入力層200と、入力層200の出力を受けて特徴量ベクトルを出力する畳み込み/プーリング層202と、畳み込み/プーリング層202の出力を受けて、入力された質問に対し、入力された回答が正しい回答である確率を出力する出力層204とを含む。このニューラルネットワーク92は、4つのカラムC1〜C4を持つ。
《入力層200》
入力層200は、質問が入力される第1カラムC1と、回答パッセージが入力される第2カラムC2と、回答内因果関係表現(回答CE)が入力される第3カラムC3と、関連因果関係表現(関連CE)が入力される第4カラムC4とを含む。
第1カラムC1及び第2カラムC2は、それぞれ質問及び回答パッセージを構成する単語列の入力を受け、それらを単語ベクトルに変換する機能と、前述した因果関係アテンションにより各単語ベクトルに重み付けを行う機能210とを持つ。第3カラムC3及び第4カラムC4は、因果関係アテンションによる重み付けの機能210は持たないが、それぞれ回答内因果関係表現と関連因果関係表現に含まれる単語列を単語埋め込みベクトルに変換する機能を持つ。
本実施の形態では、単語列tに含まれるi番目の単語をd次元の単語埋め込みベクトルxiで表す(後述する実験ではd=300)。単語列はd×|t|の単語埋め込みベクトル列Xにより表される。ここで、|t|は単語列tの長さを表す。すると、ベクトル列Xは以下の式(9)により表される。
Figure 0006929539
xi:i+jはxi,…,xi+jの埋め込みベクトルを連結したものであり、i<1又はi>|t|ではいずれもゼロパディングされたものを表すものとする。
因果関係アテンションは、質問中の単語及び回答パッセージ中の単語に対して与えられる。本実施の形態では、単語列tに対するd×t次元のアテンションベクトル列X´をCA単語に基づいて算出する。CA単語は、質問と考えられる回答との間の因果関係を直接的又は間接的に表すものであり、アーカイブ因果関係表現から自動的に抽出される。ここでは、単語列tに対する単語埋め込みベクトル列Xとアテンションベクトル列X´について、成分別に加算することで重み付けされた単語埋め込みベクトル列^Xを得る。
《畳み込み/プーリング層202》
畳み込み/プーリング層202は、4つのカラムC1〜C4に対応して設けられた4つの畳み込みニューラルネットワークと、それらの出力をそれぞれ受けてマックスプーリングによる結果を出力する4つのプーリング層とを含む。
すなわち、図5を参照して、畳み込み/プーリング層202内の、あるカラム390は、入力層400、畳み込み層402、及びプーリング層404からなっているものとする。ただし畳み込み/プーリング層202はこのような構成には限定されず、この3つの層を複数個備えているものでもよい。
入力層400には、入力層200の対応するカラムからの単語ベクトル列X、…、X|t|が入力される。この単語ベクトル列X、…、X|t|は、行列T=[X、X、…、X|t|として表される。この行列Tに対して、次の畳み込み層402によりM個の素性マップf1〜fMが適用される。各素性マップはベクトルであって、各素性マップの要素であるベクトルは連続する単語ベクトルからなるnグラム410に対してwで示されるフィルタを適用しながらnグラム410を移動させてその出力をそれぞれ得ることにより計算される。nは任意の自然数である。素性マップfの出力をOとすると、Oのi番目の要素Oiは次の式(10)により表される。
Figure 0006929539
なお、素性マップの全体にわたりnを等しくしてもよいし、異なるものがあってもよい。nとしては、2、3、4及び5程度が適当であろう。本実施の形態では、フィルタの重み行列は全ての畳み込みニューラルネットワークにおいて等しくしてある。これらは互いに異なっていてもよいが、実際、互いに等しくした方が、各重み行列を独立に学習する場合より精度が高くなる。
この素性マップの各々について、次のプーリング層404は、いわゆるマックスプーリングを行う。すなわち、プーリング層404は、例えば素性マップfMの要素のうち、最大の要素420を選択し、要素430として取出す。これを素性マップの各々に対して行うことによって、要素430、…、432を取出し、これらをf1からfMの順番に連接して図4に示す出力層204にベクトル440として出力する。各プーリング層からはこのようにして得られたベクトル440等が出力層204に出力される。
《出力層204》
出力層204では、これら特徴ベクトルの類似度を類似度算出部212が算出し、Softmax層216に与える。また、4つのカラムC1〜C4に与えられる単語列の間で単語マッチング208が行われ、共通する単語数の指標である、式(1)に示す4つの値を共通単語数の計数部214が算出しSoftmax層216に与える。Softmax層216は入力に対して線形ソフトマックス関数を適用し、回答パッセージが質問に対して正しい回答である確率を出力する。
本実施の形態では、2つの特徴ベクトルの類似度は以下のように算出する。なお、類似度としてはこれ以外にコサイン類似度等、他のベクトル類似度も適用可能である。
Figure 0006929539
本実施の形態では、この類似度を用いて以下の4種類の類似度スコアsv1(n)〜sv4(n)を算出し、用いた。
Figure 0006929539
これらはいずれも類似度算出部212により算出され出力層204に与えられる。
なお、本実施の形態では、上に示したような特徴ベクトルの類似度のみを出力層204への入力としたが、入力する情報はこれに限定されない。例えば、特徴ベクトルそのものを用いてもよいし、特徴ベクトルとそれらの類似度の組み合わせを用いてもよい。
なお、ノン・ファクトイド型質問応答システム30をコンピュータにより実現するためのコンピュータプログラムの制御構造を示すフローチャートを図7に示す。図7に示すコンピュータプログラムの構成についての説明は、ノン・ファクトイド型質問応答システム30の動作の説明と重複する部分があるので、動作の説明とともに行う。
〔動作〕
ノン・ファクトイド型質問応答システム30の動作には、学習フェーズと実際の質問に対する応答を出力する稼働フェーズとがある。
<学習フェーズ>
図1を参照して、質問32が与えられるに先立ち、因果関係表現抽出部58によりウェブアーカイブ記憶部56からアーカイブ因果関係表現が抽出され、相互情報量算出部62により相互情報量マトリクスが計算されて相互情報量マトリクス記憶部64に記憶されている。
第1のマトリクス算出部122及び第2のマトリクス算出部124で用いられる重みパラメータについては、学習用の質問とそれに対する回答パッセージと、それら回答が質問に対する正しい答えか否かを人手で付したラベルとからなる学習データにより学習がされている。ニューラルネットワーク92についても、同様の学習データを用いて入力された質問と回答パッセージとの組合せに対してそれが正しい組合せであることを示す確率を出力するように、通常のニューラルネットワークと同様、誤差逆伝播法を用いて予め学習がされる。
<稼働フェーズ>
稼働フェーズのノン・ファクトイド型質問応答システム30の動作の概略について図6を参照して説明する。まず、大量のウェブテキストアーカイブから因果関係表現を自動認識する処理460を行い、大量のアーカイブ因果関係表現462を集める。この中から、共起頻度に基づいて因果関係関連性が高い単語対を選択することで、因果関係の関連単語466を抽出する処理464を行う。この関連単語466から、因果関係アテンション468を表現する情報が得られる。この因果関係アテンション468により、質問と回答パッセージの中で因果関係を表すとして特に着目すべき単語に、他より大きな重みが与えられる。
一方、質問470と回答パッセージ472の組が与えられると、アーカイブから抽出したアーカイブ因果関係表現462の中で、質問と回答パッセージに含まれる単語を多く含む因果関係を選択する処理474を行う。この結果、回答パッセージ内の回答内因果関係の言い換え表現476(関連因果関係表現)が得られる。
こうして得られた質問470、回答パッセージ472,回答パッセージ中に含まれる因果関係表現、因果関係アテンション468、及び回答パッセージに対応する因果関係の言い換え表現(関連因果関係表現)476を全てニューラルネットワーク92に与える。回答パッセージ472が質問470に対する正しい回答である確率がニューラルネットワーク92により算出される。この確率を各回答パッセージに対して算出し、正しい回答である確率が最も高い回答パッセージを、質問470に対する回答として選択する。
より具体的には、図1を参照して、稼働フェーズに先立ち、因果関係表現抽出部58によりウェブアーカイブからアーカイブ因果関係表現が抽出されアーカイブ因果関係表現記憶部60に記憶される。また、アーカイブ因果関係表現記憶部60に記憶された因果関係表現から、相互情報量算出部62が単語間の相互情報量を算出し、相互情報量マトリクスとして相互情報量マトリクス記憶部64に記憶する。
実際に質問32が質問受付部50に与えられると、質問受付部50はこの質問を応答受信部52に与える。応答受信部52は、この質問を質問応答システム34に送信する(図7のステップ480)。質問受付部50はまた、質問32を質問130として関連因果関係表現抽出部86、因果関係アテンションマトリクス生成部90の単語抽出部120、及びニューラルネットワーク92に与える。
応答受信部52は、質問応答システム34から質問32に対する回答パッセージを所定個数(例えば20個)受信する。応答受信部52は、これらの回答パッセージを分類部54の回答パッセージ記憶部80に格納する(図7のステップ482)。
図2を参照して、質問関連アーカイブ因果関係表現選択部110の名詞抽出部150は、質問130を質問受付部50から受け、質問130に含まれる名詞を抽出し、第1検索部154及び第2検索部156に与える。動詞・形容詞抽出部152は、質問130に含まれる動詞及び形容詞を抽出し、第2検索部156に与える(図7のステップ484)。第1検索部154は、アーカイブ因果関係表現記憶部60を検索し、名詞抽出部150により抽出された名詞を全て結果部に含むアーカイブ因果関係表現を取り出し、取り出されたアーカイブ因果関係表現を質問関連因果関係表現記憶部112に格納する(図7のステップ486)。第2検索部156は、アーカイブ因果関係表現記憶部60を検索し、名詞抽出部150が抽出した名詞の全てを含み、動詞・形容詞抽出部152が抽出した動詞及び形容詞の少なくとも一つを結果部に含むアーカイブ因果関係表現を抽出し、質問関連因果関係表現記憶部112に格納する(図7のステップ490)。
全ての回答パッセージが受信され、かつ質問関連アーカイブ因果関係表現選択部110による処理が全て完了すると、以下、回答パッセージ記憶部80に記憶された各回答パッセージに対し、ステップ492で以下の処理(図7に示す処理494)が行われる。
まず、因果関係表現抽出部82は、既存の因果関係表現の抽出アルゴリズムを用いて、処理対象の回答パッセージから回答内因果関係表現を抽出し、回答内因果関係表現記憶部84に格納する(図7のステップ500)。ランキング部114は、処理対象の回答パッセージについて、重み付け単語出現数wgt-wc(x,y)を計算し(図7のステップ502)、この重み付け単語出現数を用いて質問関連因果関係表現記憶部112に記憶された質問関連因果関係表現をランキングする。ランキング部114はさらに、最上位の質問関連因果関係表現を、質問及び処理中の回答パッセージの組に関連する因果関係表現として選択し出力する(図7のステップ504)。関連因果関係表現記憶部88は、関連因果関係表現抽出部86により回答パッセージごとに1つ出力された関連因果関係表現を記憶する。
因果関係アテンション処理部40の因果関係アテンションマトリクス生成部90において、単語抽出部120は、質問受付部50が受け付けた質問及び処理中の回答パッセージに出現する単語を全て抽出し、第1のマトリクス算出部122に与える(図7のステップ506)。第1のマトリクス算出部122は、質問文の単語を横軸、処理中の回答パッセージの単語を縦軸とした行列を生成するために、2次元の配列を宣言する(図7のステップ508)。第1のマトリクス算出部122はさらに、これら単語の交差位置のセルに、対応する単語の間の相互情報量を相互情報量マトリクス記憶部64から読み出し、負の値を0に置換して配置することで、それら単語同士の相互情報量マトリクスA170(第1マトリクス170)を生成する(図7のステップ510)。第2のマトリクス算出部124は、第1のマトリクス算出部122が算出した第1の相互情報量マトリクスから、既に述べた方法で2つの第2の相互情報量マトリクス^Aq180(第2マトリクス180)及び^Ap182(第2マトリクス182)を算出する(図7のステップ512)。
質問32に対して、回答パッセージ記憶部80に記憶された回答パッセージごとに上記した関連アーカイブ因果関係表現の抽出、相互情報量マトリクスA170、^Aq180及び^Ap182の算出が終わると(図7のステップ500,504,及び512までの処理が全て完了すると)、図4を参照して、ニューラルネットワーク92の第1カラムには、質問受付部50が受け付けた質問が与えられる。第2カラムには処理中の回答パッセージが与えられる。第3カラムには、回答内因果関係表現記憶部84に記憶された、処理中の回答パッセージから抽出した全ての回答内因果関係表現が所定のデリミタを介して連結して与えられる。第4カラムには、関連因果関係表現記憶部88に記憶された、処理中の回答パッセージに関連する因果関係表現が与えられる(図7のステップ514)。
これらはいずれもニューラルネットワーク92の入力層200において単語埋め込みベクトルに変換される。第1カラムの質問、第2カラムの回答パッセージを構成する各単語の単語埋め込みベクトルに対しては、相互情報量マトリクス^Aq及び^Apから得られた重みが乗じられる。ニューラルネットワーク92の出力層204では、まずこれらの特徴ベクトルの4種類の類似度スコアsv1(n)〜sv4(n)が算出され、Softmax層216に対して出力される。なお、上記したようにこのような類似度スコアではなく、特徴ベクトルそのもの、又は特徴ベクトルと類似度の組み合わせをSoftmax層216への入力としてもよい。
さらに、第1カラムC1〜第4カラムC4に与えられた単語列については、前述したとおり単語マッチングが行われ、共通の単語数の指標である、式(1)示す4つの値が出力層204に与えられる。
Softmax層216は出力層204からの出力に基づいて、入力された回答パッセージが質問に対する正しい回答である確率を出力する。この値は、図1に示す回答候補記憶部66に各回答候補とともに蓄積される(図7のステップ516)。
回答候補ランキング部68は、回答候補に対して上記処理が全て完了した後、回答候補記憶部66に記憶された回答候補をスコアにしたがって降順にソートし、最も高いスコアの回答候補、又はスコア上位のN個(N>1)の回答候補を回答36として出力する。
〔実験〕
以下、本実施の形態の構成を用いて行った実験結果の例を示す。この実験では、850文の質問と、それら各質問に対する上位20個ずつの回答パッセージ(合計で17,000個の質問‐回答パッセージのペア)とを用いた。このデータのうち、15,000ペアは学習データとし、1,000ペアを開発データ、残りの1,000ペアをテストデータとした。開発データは、ニューラルネットワーク92のハイパーパラメータの一部(フィルタのウィンドウサイズ、フィルタ数、及びミニバッチ数)を決定するのに用いた。
フィルタパラメータとして、{2,3,4,5,6}の中の3,4,5個の連続した数を用いて異なるウィンドウサイズのフィルタを構成し、ウィンドウサイズの各組合せに対するフィルタ数は{25,50,75,100}から選択した。可能なハイパーパラメータの組合せの数は120通りである。実験ではこれら全てを用い、開発データに対する平均精度を基準として最もよい設定値を選択した。全ての処理において、出力層では0.5のドロップアウトを適用した。学習データ全体を用いて10エポックの学習を行った。各エポックは多数のミニバッチに分割して行った。
ニューラルネットワーク92の学習では、ミニバッチ確率的勾配降下法を用い、フィルタWと因果関係アテンションの重みを(-0.01,0.01)の範囲でランダムに初期化した。
評価はP@1(最上位回答の精度)及びMAP(平均適合率の平均)を用いて行った。P@1はいくつの質問に対して正しいトップ回答が得られたかを示す。MAPはシステムによりランキングされたトップn個の回答の全体的な質を測定するもので、以下の式により算出される。
Figure 0006929539
ただしQはテストデータ内の質問の集合を示し、Answerqは質問q∈Qに対する正しい回答の集合である。Prec(k)は上位n個の回答パッセージにおけるカットオフkでの適合率であり、rel(k)はランクkの項目が集合Answerq内の正解なら1、誤りなら0となる指標である。
図8に、上記実施の形態による結果と、対照例による結果とを表形式で示す。この図に示す対照例等の記号を以下に示す。
〈OH13〉 非特許文献1に示された教師あり学習システム。単語n―グラム、単語クラス、及び回答内因果関係を素性として用いる、SVMによるシステム。
〈OH16〉 後掲の参考文献1に示された準教師あり学習システム。準教師あり学習の初期システムとして上記OH13によるものを用いて、アーカイブ因果関係表現を用いて学習データを拡張するもの。
〈Base〉 質問、回答パッセージ、及び回答内因果関係表現とそれらに関連する共通語カウントのみを入力とするベースラインのMCNNシステム。上記実施の形態で、因果関係アテンションも関連因果関係表現も用いないもの。
〈Proposed-CA〉 上記実施の形態で、関連因果関係表現のみを用い、因果関係アテンションを用いないもの。
〈Proposed-RCE〉 上記実施の形態で、因果関係アテンションのみを用い、関連因果関係表現を用いないもの。
〈Proposed〉上記実施の形態に係るシステム。
〈Ubound〉質問に対するn個の正しい回答がテストデータ内にあれば常にそれらn個をトップn個の回答として見つけ出すシステム。今回の実験における回答選択性能の上限を示す。
図8から分かるように、本願実施の形態に係るシステムは、従来技術と比較して安定して高い性能を示した。より詳しくは、関連因果関係表現を用いて因果関係の言い換えをすることにより、P@1が4〜6%向上することが分かる(図8の参照符号520→524,522→526)。また、因果関係アテンションを用いることにより、P@1が6%向上することが分かる(参照符号520→522、524→526)。
さらに、図8から、本願発明ではR(P@1)が81.8%(54/66、参照符号526と参照符号528)に達している事がわかる。この結果、質問に対して少なくとも1つの正しい回答を本願発明のシステムが取り出すことができれば、なぜ型質問に対して高い再現率でトップ回答を見つけ出せることがわかった。
さらに、本発明によるトップ回答の精度を調べるために、上記OH13及びOH16とProposedによるトップ回答の質について検討した。そのために、システムごとに、テストデータでの各質問に対するトップ回答のみを選び、各システムにより付与されたスコアによって全てのトップ回答をランキングした。さらに、各ランクにおけるトップ回答のランクの適合率を計算した。結果を図9に示す。
図9において、x軸はランキングされたリストの、全てのトップ回答に対するトップ回答の累積率を示し、y軸はx軸上の各点における適合率を示す。図9を参照して、トップ回答の30%について評価した場合、本願発明(グラフ530)では100%の適合率を示した。この値はOH13(グラフ534)及びOH16(グラフ532)のいずれと比較しても非常に高い。この結果から、本願発明によるシステムでは、トップ回答の質が先行技術と比較して効率的に改善されていることが分かる。
〔コンピュータによる実現〕
本発明の実施の形態に係るノン・ファクトイド型質問応答システム30は、コンピュータハードウェアと、そのコンピュータハードウェア上で実行されるコンピュータプログラムとにより実現できる。図10はこのコンピュータシステム630の外観を示し、図11はコンピュータシステム630の内部構成を示す。
図10を参照して、このコンピュータシステム630は、メモリポート652及びDVD(Digital Versatile Disk)ドライブ650を有するコンピュータ640と、キーボード646と、マウス648と、モニタ642とを含む。
図11を参照して、コンピュータ640は、メモリポート652及びDVDドライブ650に加えて、CPU(中央処理装置)656と、CPU656、メモリポート652及びDVDドライブ650に接続されたバス666と、ブートプログラム等を記憶する読出専用メモリ(ROM)658と、バス666に接続され、プログラム命令、システムプログラム及び作業データ等を記憶するランダムアクセスメモリ(RAM)660と、ハードディスク654を含む。コンピュータシステム630はさらに、他端末との通信を可能とするネットワーク668への接続を提供するネットワークインターフェイス(I/F)644を含む。
コンピュータシステム630を上記した実施の形態に係るノン・ファクトイド型質問応答システム30の各機能部として機能させるためのコンピュータプログラムは、DVDドライブ650又はメモリポート652に装着されるDVD662又はリムーバブルメモリ664に記憶され、さらにハードディスク654に転送される。又は、プログラムはネットワーク668を通じてコンピュータ640に送信されハードディスク654に記憶されてもよい。プログラムは実行の際にRAM660にロードされる。DVD662から、リムーバブルメモリ664から又はネットワーク668を介して、直接にRAM660にプログラムをロードしてもよい。
このプログラムは、コンピュータ640を、上記実施の形態に係るノン・ファクトイド型質問応答システム30の各機能部として機能させるための複数の命令からなる命令列を含む。コンピュータ640にこの動作を行わせるのに必要な基本的機能のいくつかはコンピュータ640上で動作するオペレーティングシステム若しくはサードパーティのプログラム又はコンピュータ640にインストールされる、ダイナミックリンク可能な各種プログラミングツールキット又はプログラムライブラリにより提供される。したがって、このプログラム自体はこの実施の形態のシステム、装置及び方法を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又はプログラミングツールキット又はプログラムライブラリ内の適切なプログラムを実行時に動的に呼出すことにより、上記したシステム、装置又は方法としての機能を実現する命令のみを含んでいればよい。もちろん、プログラムのみで必要な機能を全て提供してもよい。
[第2の実施の形態]
〔構成〕
上記第1の実施の形態では、アテンションとして因果関係アテンションのみを用いた。これだけでも実験で確認したように従来のものと比較してノン・ファクトイド型質問応答システムにおける回答の質を高められることが分かった。しかし本発明はそのような実施の形態には限定されない。他の関係についてのアテンションを用いることもできる。ただし、なぜ型質問に対する正しい回答としての条件を満たすような回答候補を導く出すことができるようなアテンションを用いる必要がある。
ここで、なぜ型質問に対する正しい回答が持つべき性質として、以下の3つを考える必要がある。
1)質問のトピックに対する適合性
2)質問が求める理由又は原因の提示
3)質問が求める理由又は原因と、質問のトピックとの間の因果関係
これらが全て現れる回答候補であれば、なぜ型質問に対する正しい回答を与えると考えることができる。
上記第1の実施の形態では、これらのうち、2)の理由又は原因の提示と、3)の因果関係とについて考慮されているが、1)のトピックに関する適合性については特に明示的には考慮されていない。この第2の実施の形態では、質問のトピックに対する適合性に関するアテンションを用い、これを因果関係アテンションと同時に用いて質問に対する回答を求める。すなわち、単一の観点から見たアテンションだけではなく、互いに異なる観点によるアテンションを用いて回答を求める。そのために以下の第2の実施の形態では、質問及び回答候補の各単語について、それぞれ異なる観点から見た文脈での単語の意味に着目し、これらをニューラルネットワークへの入力の際のアテンション(重み)とする。
この第2の実施の形態では、トピックに関する適合性についての観点として、一般的なテキストの文脈における単語の意味を用いる。すなわち、因果関係、材料関係などという特定的な単語の意味的関係ではなく、それら意味的関係と特に関係を持たない一般的な文脈における単語と単語との意味的関係を用いる。トピックに関する適合性は、多くの場合、質問で出現する単語と回答候補に出現する単語とが意味的に類似しているか否かに基づいて判定できる。そうした類似する単語は、互いに類似した文脈に出現することが多い。したがって、トピックに関する適合性として、一般的文脈から学習した単語埋め込みベクトル(「一般単語埋め込みベクトル」と呼ぶ。)の類似度を用いることとする。
図12に、第2の実施の形態に係るノン・ファクトイド型質問応答システム730のブロック図を示す。図12を参照して、このノン・ファクトイド型質問応答システム730が図1に示すノン・ファクトイド型質問応答システム30と異なるのは、ノン・ファクトイド型質問応答システム30の構成に加えて、ウェブアーカイブ記憶部56に記憶されたウェブアーカイブに基づき、質問と回答パッセージとの組み合わせ毎に、出現する単語同士の類似度のマトリクスを因果関係アテンションマトリクス生成部90と因果関係アテンション処理部40と同様に生成する類似度アテンション処理部740を含む点である。
また、図1の分類部54に代えて、類似度アテンション処理部740により生成された類似度アテンションを因果関係アテンションと同時に用いて回答候補のスコアを算出する機能を持つ分類部754を持つ点においもてノン・ファクトイド型質問応答システム730はノン・ファクトイド型質問応答システム30と異なっている。
なお、分類部754が分類部54と異なるのは、分類部54のニューラルネットワーク92に代えて、類似度アテンションと因果関係アテンションとを同時に用いて各回答パッセージのスコアを算出する機能を持つニューラルネットワーク792を含む点のみである。
類似度アテンション処理部740は、ウェブアーカイブ記憶部56に記憶されたテキストに出現する単語の各々について意味ベクトルを算出する意味ベクトル算出部758を含む。本実施の形態では、意味ベクトルとしては一般単語埋め込みベクトルを用いる。
類似度アテンション処理部740はさらに、これら単語のうちの2つの単語の組み合わせの全てについてその意味ベクトルの類似度を算出することにより、それら2つの単語の類似度を算出する類似度算出部762と、類似度算出部762により2つの単語の組み合わせごとに算出された類似度を、横軸及び縦軸に各単語を配したマトリクスとして記憶する類似度マトリクス記憶部764とを含む。類似度マトリクス記憶部764が記憶するマトリクスは、ノン・ファクトイド型質問応答システム730に出現する単語を全て横軸及び縦軸に配置し、横軸の単語と縦軸の単語との交点の位置にそれら単語の間の類似度を記憶したものである。
類似度アテンション処理部740はさらに、質問受付部50からの質問130と、回答パッセージ記憶部80から読み出された回答パッセージとからそれぞれに出現する単語と、類似度マトリクス記憶部764に記憶された類似度マトリクスとを用いて、ニューラルネットワーク792がスコア計算に使用する類似度アテンションを記憶したマトリクス(類似度アテンションマトリクス)を生成するための類似度アテンションマトリクス生成部790を含む。ニューラルネットワーク792は、質問130に対する各回答パッセージのスコアを算出する際に、質問130とその回答パッセージとの間で類似度アテンションマトリクス生成部790により算出された類似度アテンションマトリクスを用いる。ニューラルネットワーク792の構成については図14を参照して後述する。
図13に、類似度アテンションマトリクス生成部790の構成をブロック図形式で示す。図13を図1と比較すると分かるように、類似度アテンションマトリクス生成部790と図1に示す因果関係アテンションマトリクス生成部90とはパラレルな構造を持つ。
図13を参照して、類似度アテンションマトリクス生成部790は、質問受付部50からの質問130、及び回答パッセージ記憶部80に記憶された回答パッセージの各々の組合せごとに、それらに含まれる内容語を全て抽出するための単語抽出部820と、単語抽出部820により抽出された質問の単語を横軸に、回答パッセージの単語を縦軸に配置し、横軸及び縦軸の交差位置に、その位置に対応する2単語の類似度を類似度マトリクス記憶部764から読出して配置した類似度量マトリクスを算出する第3のマトリクス算出部822と、第3のマトリクス算出部822が算出した類似度マトリクスから、以下に述べる方法で2つの第4の類似度マトリクスを算出する第4のマトリクス算出部824とを含む。全ての類似度マトリクス内の類似度の値は[0,1]の範囲で正規化されている。
第4のマトリクス算出部824による2つの第4の類似度マトリクスの生成方法は、図3に示す第2のマトリクス180及び182の生成方法と同じである。したがって、ここではその詳細は繰り返さない。
図14に、ニューラルネットワーク792の概略構成を示す。図14に示すニューラルネットワーク792の構成は、図4に示すニューラルネットワーク92の構成とほぼ同様である。ニューラルネットワーク792がニューラルネットワーク92と異なるのは、図4の入力層200に代えて、入力層900を持つことである。入力層900の第3カラム及び第4カラムは入力層200のものと同じである。入力層900の第1カラムC1及び第2カラムC2は、それぞれ質問及び回答パッセージを構成する単語列の入力を受け、それらを単語ベクトルに変換する機能と、前述した因果関係アテンションと類似度アテンションとを要素ごとに加えた値により各単語ベクトルに重み付けを行う機能910とを持つ点で入力層200と異なる。本実施の形態では、因果関係アテンションと類似度アテンションとの対応する要素の双方に重みを加えた上で両者を加算することにしている。この重みはニューラルネットワーク792の学習パラメータの一部をなす。これ以外の点ではニューラルネットワーク792は図4に示すニューラルネットワーク92と同様の構成である。したがってそれら共通する部分についての説明はここでは繰り返さない。
〔動作〕
この第2の実施の形態に係るノン・ファクトイド型質問応答システム730は以下のように動作する。
学習時のノン・ファクトイド型質問応答システム730の動作は、ノン・ファクトイド型質問応答システム30と同様である。ただし、学習に先立って、意味ベクトル算出部758及び類似度算出部762が、ウェブアーカイブ記憶部56に記憶されたテキストから類似度マトリクスを算出し、類似度マトリクス記憶部764に記憶する点が異なる。さらに、ノン・ファクトイド型質問応答システム730においては、ウェブアーカイブ記憶部56に記憶されたテキストから算出される類似度マトリクスと相互情報量マトリクスとに基づいて、学習データの質問と回答パッセージとの組み合わせごとに、類似度アテンションと因果関係アテンションとを計算し、これらを同時に用いてニューラルネットワーク792の学習を行う点でも、ノン・ファクトイド型質問応答システム730の学習はノン・ファクトイド型質問応答システム30の学習と異なっている。
学習は、学習データを繰返し用いてニューラルネットワーク792のパラメータを繰返し更新し、パラメータの変化量が所定のしきい値より小さくなった時点で終了する。ただし、学習の終了タイミングはそれだけに限定されるわけではない。たとえば同じ学習データを用いて所定回数の学習を行った時点を終了としてもよい。
稼働時のノン・ファクトイド型質問応答システム730の動作も、類似度アテンションを使用することを除き、第1の実施の形態のノン・ファクトイド型質問応答システム30と同様である。より具体的には、図12に示す質問受付部50、応答受信部52、回答パッセージ記憶部80、因果関係表現抽出部82、回答内因果関係表現記憶部84、関連因果関係表現抽出部86、関連因果関係表現記憶部88、及び因果関係アテンション処理部40は第1の実施の形態と同様に動作する。
意味ベクトル算出部758及び類似度算出部762は予め類似度マトリクスを生成し類似度マトリクス記憶部764に記憶しておく。
質問32がノン・ファクトイド型質問応答システム730に与えられると、第1の実施の形態と同様、その質問に対する回答パッセージが質問応答システム34から集められ、それらから抽出された回答内因果関係表現が回答内因果関係表現記憶部84に記憶される。同様に、ウェブアーカイブ記憶部56からアーカイブ因果関係表現が抽出され、回答パッセージと質問130とに基づいて関連因果関係表現がアーカイブ因果関係表現から抽出され、関連因果関係表現記憶部88に記憶される。
質問130から得られた単語と、回答パッセージから因果関係アテンションマトリクスが因果関係アテンションマトリクス生成部90により生成される。同様に、類似度アテンションマトリクスが類似度アテンションマトリクス生成部790により生成される。これらのアテンションはニューラルネットワーク792に与えられる。ニューラルネットワーク792は、質問と回答パッセージを構成する単語の各々を入力として受け、因果関係アテンションと類似度アテンションとを加算した重み付をしてニューラルネットワークの隠れ層に入力する。この結果、そのペアに対するスコアがニューラルネットワーク792から出力される。
回答パッセージの各々と、質問とのペアの全てについてこうしてスコアを算出し、スコアの上位のものを回答候補記憶部66に記憶する。以下、回答候補ランキング部68により回答候補をランキングし、ランキングの上位の回答候補を回答36として出力する。
図15に、この第2の実施の形態に係るノン・ファクトイド型質問応答システム730をコンピュータにより実現するためのコンピュータプログラムの制御構造をフローチャート形式で示す。図15に示すプログラムが図7に示す第1の実施の形態のものと異なるのは、図7の処理494に代えて、一般の文脈によるアテンションを計算するためのステップを含む処理950を含む点である。
処理950は、処理494と比べると、処理494のステップ508に代えて、2つの2次元の配列を準備するステップ952と、ステップ952からステップ510と別に分岐し、第3マトリクスを算出するステップ954と、ステップ954で算出された第3マトリクスに基づき、図3に示す手法と同じ手法で2つの第4マトリクスを算出するステップ956とを含む点と、図7のステップ514に代えて、ステップ500の出力、ステップ504の出力、ステップ512の出力、及びステップ956の出力をニューラルネットワーク792に与えるステップ958を含む点とが異なる。
この第2の実施の形態では、ニューラルネットワーク792の第1カラムには、質問受付部50が受け付けた質問が与えられる。第2カラムには処理中の回答パッセージが与えられる。第3カラムには、回答内因果関係表現記憶部84に記憶された、処理中の回答パッセージから抽出した全ての回答内因果関係表現が所定のデリミタを介して連結して与えられる。第4カラムには、関連因果関係表現記憶部88に記憶された、処理中の回答パッセージに関連する因果関係表現が与えられる。
これらはいずれもニューラルネットワーク792の入力層900において単語埋め込みベクトルに変換される。第1カラムの質問、第2カラムの回答パッセージを構成する各単語の単語埋め込みベクトルに対しては、相互情報量マトリクス^Aq及び^Apから得られた重みに、第3マトリクス及び第4マトリクスから得られた重みを要素ごとに加算したものが乗じられる。
〔実験結果〕
第1の実施の形態について図8に示したものと異なる条件ではあるが、ベースライン、第1の実施の形態のシステム、及び第2の実施の形態のシステムによって得られた回答の精度を図16に表形式で示す。
図16において、OH13は図8に示したものと同様の手法で、本実験のベースラインとなるものである。図8と同様、図16からも分かるように、ベースラインの手法と比較して、第1の実施の形態はかなりの性能向上をもたらしている。しかし、第2の実施の形態によれば、第1の実施の形態と比較してさらに一段と高い精度が得られた。
なお、図16に結果を示す実験は、17,000件の質問・回答対(850質問に対する20件の回答候補)について、10-fold Cross Validation(学習:15,000件、開発:1,000件、評価:1,000件)を行った結果である。図16において、「P@1」は最上位結果の精度を示し、「MAP」は上位20件全体の品質を表す。また、図8の実験とは、10-fold Cross Validationを行っている点が異なっている。
以上のように、本発明の第1の実施の形態及び第2の実施の形態によれば、従来の手法に対して非常に高い精度でノン・ファクトイド型の質問に対する回答を得ることができる。たとえば工場の製造ラインで生じた問題、最終的に得られた製品に生じた問題、ソフトウェアの試験で生じた問題、何らかの実験過程で生じた問題等を学習データとしてこれら質問応答システムを構築することにより、様々な実際的な質問に対する有用な回答を得ることができる。その結果、工場における生産効率の向上、工業製品及びソフトウェアの効率的な設計、実験計画の効率化等がもたらされ、産業の発展に大きな貢献をすることができる。さらに、用途としては製造業に限らず、教育分野、顧客対応、官庁における自動応答、ソフトウェアの操作説明等のサービスへの適用も可能である。
第2の実施の形態では、因果関係アテンションと類似度アテンションとの2種類のアテンションを同時に用いている。しかし本発明はそのような実施の形態には限定されない。アプリケーションに応じてさらに他の種類のアテンションを用いてもよい。たとえば、特開2015-121896号公報に開示されている以下のような関係を用いたアテンションを採用できる。また、因果関係アテンション又は類似度アテンションのいずれか又は双方に代えて、上記関係のいずれかまたは2種類以上のアテンションを用いることもできる。
−材料関係(例:<AでBを生産する>、(トウモロコシ、バイオ燃料)等)
−必要関係(例:<AはBに必須だ>、(日光、光合成)等)
−使用関係(例:<AをBに使う>、(iPS細胞、再生医療)、等)
−予防関係(例:<AでBを防ぐ>、(ワクチン、インフルエンザ)、等)
このような意味的関係を用いることで、例えば、「なぜインフルエンザにワクチンが使えるのか?」、「なぜiPS細胞が注目されるのか?」、「なぜ植物に日光が必要なのか?」等の質問(それぞれ、予防関係、使用関係、必要関係に対応)により高い精度で回答が可能となる。
このような関係によるアテンションについては、因果関係アテンションと同様にして取得できる。これら関係を表す表現を取得する方法としては、前記した特開2015-121896号公報に記載されたものを使用できる。すなわち、意味的関係パターンを抽出する際の元となる、特定のパターン(これをシードパターンと呼ぶ。)のグループと単語の意味クラス情報とをデータベースに記憶しておく。ウェブアーカイブ記憶部56から、これらデータベースに記憶されたシードパターンに類似したパターンを抽出することで意味的関係パターンのデータベースを構築する。それら意味的パターンに合致する表現をウェブアーカイブから収集し、収集された表現の集合内における単語の相互情報量を計算してその関係に関するアテンションマトリクスを生成する。さらに、質問及び各回答パッセージからも同様に単語を抽出し、先に作成しておいたアテンションマトリクスから図3に示すのと同じ方法で2つのマトリクスを生成し、これらをニューラルネットワークへの入力の各単語への重みとする。
なお、アテンションとして3種類以上を用いる場合、図12に示す分類部754と同様のものを関係ごとに準備し、ニューラルネットワーク792のカラム数をそれにあわせて増加させてもよい。又は、特定の意味的関係のための分類部754のみを準備し、他の意味的関係についてはアテンションのみを計算するようにしてもよい。この場合、ニューラルネットワーク792内部では、これらアテンションを要素ごとに加算した値を各単語への重みとすればよい。
[参考文献一覧]
〔参考文献1〕 J.-H. Oh, K. Torisawa, C. Hashimoto, R. Iida, M. Tanaka, and J. Kloetzer. A semi-supervised learning approach to why-question answering. In Proceedings of AAAI ’16, pages 3022-3029, 2016.
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。
30、730 ノン・ファクトイド型質問応答システム
32、130 質問
34 質問応答システム
36 回答
40 因果関係アテンション処理部
50 質問受付部
52 応答受信部
54、754 分類部
56 ウェブアーカイブ記憶部
58、82 因果関係表現抽出部
60 アーカイブ因果関係表現記憶部
62 相互情報量算出部
64 相互情報量マトリクス記憶部
66 回答候補記憶部
68 回答候補ランキング部
80 回答パッセージ記憶部
84 回答内因果関係表現記憶部
86 関連因果関係表現抽出部
88 関連因果関係表現記憶部
90 因果関係アテンションマトリクス生成部
92、792 ニューラルネットワーク
110 質問関連アーカイブ因果関係表現選択部
112 質問関連因果関係表現記憶部
114 ランキング部
120、820 単語抽出部
122 第1のマトリクス算出部
124 第2のマトリクス算出部
150 名詞抽出部
152 動詞・形容詞抽出部
154 第1検索部
156 第2検索部
170 相互情報量マトリクスA
180、182 マトリクス
200、900 入力層
202、902 畳み込み/プーリング層
204、904 出力層
208 単語マッチング
216、916 Softmax層
740 類似度アテンション処理部
758 意味ベクトル算出部
762 類似度算出部
764 類似度マトリクス記憶部
790 類似度アテンションマトリクス生成部
822 第3のマトリクス算出部
824 第4のマトリクス算出部

Claims (12)

  1. 文章内に出現する第1の意味的関係を表す表現に着目して、ノン・ファクトイド型の質問に対する応答を生成するノン・ファクトイド型質問応答システムであって、
    前記第1の意味的関係を表す複数個の表現を記憶する第1の表現記憶手段と、
    質問と、当該質問に対する回答候補を含む複数個の回答パッセージとを受信する質問・回答受信手段と、
    前記複数個の回答パッセージの各々から、前記第1の意味的関係を表す意味的関係表現を抽出する第1の表現抽出手段と、
    前記質問と、前記複数個の回答パッセージとの組み合わせの各々に対し、前記第1の表現記憶手段が記憶している前記複数個の表現から、当該組み合わせに最も関連する表現である関連表現を選択する関連表現選択手段と、
    前記質問と、前記複数個の回答パッセージと、当該回答パッセージに対する前記意味的関係表現と、当該質問と当該回答パッセージとの組み合わせに対する前記関連表現の1つとからなる組み合わせの各々を入力として受け、前記質問に対する回答を前記複数個の回答パッセージ中から選択するように予め機械学習により学習した回答選択手段とを含む、ノン・ファクトイド型質問応答システム。
  2. さらに、前記質問と、前記複数個の回答パッセージとの組み合わせの各々に対し、前記第1の表現記憶手段が記憶した前記複数個の表現内における、前記質問に出現する各単語と当該回答パッセージに出現する各単語との第1の意味的相関関係量を算出する第1の意味的相関関係量算出手段を含み、
    前記回答選択手段は、前記質問と、前記複数個の回答パッセージと、当該回答パッセージに対する前記意味的関係表現と、前記質問と当該回答パッセージとの組み合わせに対する前記関連表現との組み合わせを入力として受け、入力中の各単語に対する重みとして前記第1の意味的相関関係量を用いて、当該回答パッセージが前記質問に対する回答である尺度を表す評価値を算出し出力するように予め機械学習により学習した評価手段と、
    前記複数個の回答パッセージの各々に対して前記評価手段が出力する前記評価値を用いて前記複数個の回答パッセージのいずれかを前記質問に対する回答として選択する選択手段とを含む、請求項1に記載のノン・ファクトイド型質問応答システム。
  3. 文書アーカイブから、前記第1の意味的関係を表す表現を抽出して前記第1の表現記憶手段に格納する第1の意味的関係表現抽出手段をさらに含む、請求項1又は請求項2に記載のノン・ファクトイド型質問応答システム。
  4. 前記第1の意味的相関関係量算出手段は、
    前記第1の表現記憶手段が記憶した、前記第1の意味的関係を表す複数個の表現に含まれる単語対の前記第1の意味的相関関係量を、各単語対に対して算出し記憶する第1の意味的相関関係量記憶手段と、
    前記質問と、前記複数個の回答パッセージとの組み合わせの各々について、当該質問内の単語と、当該回答パッセージ内の単語との対ごとに、前記第1の意味的相関関係量を前記第1の意味的相関関係量記憶手段から読出し、一方の軸に前記質問内の単語が配列され、他方の軸に当該回答パッセージ内の単語が配列されたマトリクスであって、前記一方の軸と前記他方の軸との交差する位置のセルに、当該位置に対応する単語同士の前記第1の意味的相関関係量がそれぞれ配置された第1のマトリクスを生成する第1のマトリクス生成手段と、
    前記第1のマトリクスの前記一方の軸に配置された各単語に対して、前記他方の軸方向に配置された前記第1の意味的相関関係量の最大値を記憶する第1の単語−文マトリクス、及び前記第1のマトリクスの前記他方の軸に配置された各単語に対して、前記一方の軸方向に配置された前記第1の意味的相関関係量の最大値を記憶する第2の単語−文マトリクスからなる2つの第2のマトリクスを生成する第2のマトリクス生成手段とを含み、
    さらに、前記回答選択手段に与えられる、前記質問内に出現する単語の各々に対しては、前記第1の単語−文マトリクスの前記第1の意味的相関関係量を、前記回答パッセージ内に出現する単語の各々に対しては前記第2の単語−文マトリクスの前記第1の意味的相関関係量をそれぞれ用いて重み付けをするための手段を含む、請求項2に記載のノン・ファクトイド型質問応答システム。
  5. 前記2つの第2のマトリクスに記憶される前記第1の意味的相関関係量の各々は所定の区間で正規化されている、請求項4に記載のノン・ファクトイド型質問応答システム。
  6. 前記第1の意味的関係は因果関係である、請求項1〜請求項5の何れかに記載のノン・ファクトイド型質問応答システム。
  7. 前記因果関係を表す表現の各々は、原因部と結果部とを含み、
    前記関連表現選択手段は、
    前記質問から名詞、動詞及び形容詞を抽出する第1の単語抽出手段と、
    前記第1の表現記憶手段が記憶している表現から、前記第1の単語抽出手段が抽出した名詞を前記結果部に全て含むものを所定個数だけ選択する第1の表現選択手段と、
    前記第1の表現記憶手段が記憶している表現から、前記第1の単語抽出手段が抽出した名詞を全て含み、かつ、前記第1の単語抽出手段が抽出した動詞又は形容詞を少なくとも1つだけ前記結果部に含むものを所定個数だけ選択する第2の表現選択手段と、
    前記複数個の回答パッセージの各々について、前記第1の表現選択手段及び前記第2の表現選択手段が選択した表現のうちで、当該回答パッセージと共通する単語を前記結果部に持ち、かつ当該共通する単語に対する重み付けにより算出されるスコアによって当該回答パッセージと最も関連が高いと判定されるものを選択する関連因果関係表現選択手段とを含む、請求項6に記載のノン・ファクトイド型質問応答システム。
  8. 前記ノン・ファクトイド型質問応答システムは、文章内に出現する前記第1の意味的関係を表す表現と、第2の意味的関係を表す表現とに着目することで、ノン・ファクトイド型の質問に対する応答を生成するノン・ファクトイド型質問応答システムであって、さらに、
    前記第2の意味的関係を表す複数個の表現を記憶する第2の表現記憶手段と、
    前記質問と、前記複数個の回答パッセージの各々との組み合わせに対し、前記第2の表現記憶手段が記憶した前記複数個の表現内における、前記質問に出現する各単語と当該回答パッセージに出現する各単語との相関関係を表す第2の意味的相関関係量を算出する第2の意味的相関関係量算出手段を含み、
    前記評価手段は、前記質問と、前記複数個の回答パッセージと、当該回答パッセージに対する前記第1の表現抽出手段が抽出した前記意味関係表現と、前記質問と当該回答パッセージとに対する前記関連表現との組み合わせを入力として受け、入力中の各単語に対する重みとして前記第1の意味的相関関係量と前記第2の意味的相関関係量を用いることにより、前記評価値を出力するように予め機械学習により学習したニューラルネットワークを含む、請求項2に記載のノン・ファクトイド型質問応答システム。
  9. 前記第2の意味的関係は、特定の意味的関係に限定されない、通常の意味的関係であって、
    前記第2の表現記憶手段は、無作為に収集された表現を記憶する、請求項8に記載のノン・ファクトイド型質問応答システム。
  10. コンピュータを、請求項1〜請求項9のいずれかに記載の各手段として機能させる、コンピュータプログラム。
  11. 文章内に出現する所定の第1の意味的関係を表す表現に着目することで、ノン・ファクトイド型の質問に対する応答を生成する、コンピュータにより実現される、ノン・ファクトイド型質問に対する応答方法であって、
    前記コンピュータが、前記第1の意味的関係を表す複数個の表現を記憶した第1の記憶装置と通信可能に接続するステップと、
    前記コンピュータが、質問と、当該質問に対する回答候補を含む複数個の回答パッセージとを入力装置を介して受信するステップと、
    前記コンピュータが、前記複数個の回答パッセージの各々から、前記第1の意味的関係を表す表現を抽出するステップと、
    前記コンピュータが、前記質問と、前記複数個の回答パッセージとの組み合わせの各々に対し、前記第1の表現記憶手段が記憶した前記複数個の表現から、当該組み合わせに最も関連する表現を選択するステップと、
    前記コンピュータが、前記質問と、前記複数個の回答パッセージと、前記抽出するステップにおいて抽出された複数個の表現と、前記選択するステップにおいて選択された表現の1つとからなる組み合わせの各々を、前記質問に対する回答を前記複数個の回答パッセージ中から選択するように予め機械学習により学習した回答選択手段に入力してその出力を得ることにより、前記質問に対する応答を生成するステップとを含む、ノン・ファクトイド型質問に対する応答方法。
  12. さらに、前記コンピュータが、前記質問と、前記複数個の回答パッセージとの組み合わせの各々に対し、前記第1の表現記憶手段が記憶した前記複数個の表現内における、前記質問に出現する各単語と当該回答パッセージに出現する各単語との相関関係を表す第1の意味的相関関係量を算出するステップを含み、
    前記選択するステップは、前記コンピュータが、前記質問と、前記複数個の回答パッセージと、当該回答パッセージから前記抽出するステップにおいて抽出された前記表現と、前記質問と当該回答パッセージとに対して前記選択ステップにおいて選択された前記表現との組み合わせの各々を、当該回答パッセージが前記質問に対する回答である尺度を表す評価値を算出し出力するように予め機械学習により学習した評価手段に入力として与えるステップを含み、
    前記評価手段は、前記評価値の算出において、前記入力中の各単語に対する重みとして、前記第1の意味的相関関係量を用い、
    前記方法はさらに、前記コンピュータが、前記複数個の回答パッセージの各々に対して前記評価手段が出力する前記評価値を用いて前記複数個の回答パッセージのいずれかを前記質問に対する回答として選択するステップを含む、請求項11に記載のノン・ファクトイド型質問に対する応答方法。
JP2017131291A 2016-10-07 2017-07-04 ノン・ファクトイド型質問応答システム及び方法並びにそのためのコンピュータプログラム Active JP6929539B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/338,465 US20200034722A1 (en) 2016-10-07 2017-10-02 Non-factoid question-answering system and method and computer program therefor
CN201780061910.2A CN109863487B (zh) 2016-10-07 2017-10-02 非事实型问答系统和方法及存储介质
PCT/JP2017/035765 WO2018066489A1 (ja) 2016-10-07 2017-10-02 ノン・ファクトイド型質問応答システム及び方法並びにそのためのコンピュータプログラム
KR1020197008669A KR102408083B1 (ko) 2016-10-07 2017-10-02 논팩토이드형 질의응답 시스템 및 방법 그리고 그것을 위한 컴퓨터 프로그램

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016198929 2016-10-07
JP2016198929 2016-10-07

Publications (2)

Publication Number Publication Date
JP2018063696A JP2018063696A (ja) 2018-04-19
JP6929539B2 true JP6929539B2 (ja) 2021-09-01

Family

ID=61966808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017131291A Active JP6929539B2 (ja) 2016-10-07 2017-07-04 ノン・ファクトイド型質問応答システム及び方法並びにそのためのコンピュータプログラム

Country Status (4)

Country Link
US (1) US20200034722A1 (ja)
JP (1) JP6929539B2 (ja)
KR (1) KR102408083B1 (ja)
CN (1) CN109863487B (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11087199B2 (en) * 2016-11-03 2021-08-10 Nec Corporation Context-aware attention-based neural network for interactive question answering
JP2019020893A (ja) 2017-07-13 2019-02-07 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答装置
US20190050724A1 (en) * 2017-08-14 2019-02-14 Sisense Ltd. System and method for generating training sets for neural networks
US10915560B2 (en) * 2017-11-30 2021-02-09 International Business Machines Corporation Ranking passages by merging features from factoid answers
JP2019220142A (ja) * 2018-06-18 2019-12-26 日本電信電話株式会社 回答学習装置、回答学習方法、回答生成装置、回答生成方法、及びプログラム
US10678822B2 (en) * 2018-06-29 2020-06-09 International Business Machines Corporation Query expansion using a graph of question and answer vocabulary
JP7081671B2 (ja) * 2018-08-06 2022-06-07 富士通株式会社 評価プログラム、評価方法および情報処理装置
JP7081455B2 (ja) * 2018-11-15 2022-06-07 日本電信電話株式会社 学習装置、学習方法、及び学習プログラム
CN109492086B (zh) * 2018-11-26 2022-01-21 出门问问创新科技有限公司 一种答案输出方法、装置、电子设备及存储介质
JP7103264B2 (ja) * 2019-02-20 2022-07-20 日本電信電話株式会社 生成装置、学習装置、生成方法及びプログラム
CN110674280B (zh) * 2019-06-21 2023-12-15 北京中科微末生物科技有限公司 一种基于增强问题重要性表示的答案选择算法
US20210157855A1 (en) * 2019-11-21 2021-05-27 International Business Machines Corporation Passage verification using a factoid question answer system
CN111414456A (zh) * 2020-03-20 2020-07-14 北京师范大学 一种开放式简答题自动评分的方法和系统
CN111488740B (zh) * 2020-03-27 2023-12-22 北京百度网讯科技有限公司 一种因果关系的判别方法、装置、电子设备及存储介质
US20210383075A1 (en) * 2020-06-05 2021-12-09 International Business Machines Corporation Intelligent leading multi-round interactive automated information system
CN111737441B (zh) * 2020-08-07 2020-11-24 北京百度网讯科技有限公司 基于神经网络的人机交互方法、装置和介质
KR102529431B1 (ko) * 2020-11-10 2023-05-08 주식회사 포티투마루 문맥 기반 질의응답 생성 아키텍처
CN113553410B (zh) * 2021-06-30 2023-09-22 北京百度网讯科技有限公司 长文档处理方法、处理装置、电子设备和存储介质
CN113836283B (zh) * 2021-09-24 2024-04-12 上海金仕达软件科技股份有限公司 答案的生成方法、装置、电子设备及存储介质
US12099534B1 (en) * 2023-05-23 2024-09-24 Truist Bank Optimization using interactive content equivalence

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080104065A1 (en) * 2006-10-26 2008-05-01 Microsoft Corporation Automatic generator and updater of faqs
JP4778474B2 (ja) * 2007-05-14 2011-09-21 日本電信電話株式会社 質問応答装置、質問応答方法、質問応答プログラム並びにそのプログラムを記録した記録媒体
JP5086799B2 (ja) * 2007-12-27 2012-11-28 日本電信電話株式会社 質問応答方法、装置、プログラム並びにそのプログラムを記録した記録媒体
US8275803B2 (en) * 2008-05-14 2012-09-25 International Business Machines Corporation System and method for providing answers to questions
CN103221952B (zh) * 2010-09-24 2016-01-20 国际商业机器公司 词法答案类型置信度估计和应用的方法和系统
WO2012047530A1 (en) * 2010-09-28 2012-04-12 International Business Machines Corporation Providing answers to questions using logical synthesis of candidate answers
JP5825676B2 (ja) * 2012-02-23 2015-12-02 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
JP5924666B2 (ja) * 2012-02-27 2016-05-25 国立研究開発法人情報通信研究機構 述語テンプレート収集装置、特定フレーズペア収集装置、及びそれらのためのコンピュータプログラム
US9558454B2 (en) * 2013-03-14 2017-01-31 Futurewei Technologies, Inc. System and method for model-based inventory management of a communications system
JP6150282B2 (ja) * 2013-06-27 2017-06-21 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
JP6150291B2 (ja) * 2013-10-08 2017-06-21 国立研究開発法人情報通信研究機構 矛盾表現収集装置及びそのためのコンピュータプログラム
JP5907393B2 (ja) * 2013-12-20 2016-04-26 国立研究開発法人情報通信研究機構 複雑述語テンプレート収集装置、及びそのためのコンピュータプログラム
JP6414956B2 (ja) * 2014-08-21 2018-10-31 国立研究開発法人情報通信研究機構 質問文生成装置及びコンピュータプログラム
US10558719B2 (en) * 2014-10-30 2020-02-11 Quantifind, Inc. Apparatuses, methods and systems for insight discovery and presentation from structured and unstructured data
KR102094934B1 (ko) * 2014-11-19 2020-03-31 한국전자통신연구원 자연어 질의 응답 시스템 및 방법
CN104834747B (zh) * 2015-05-25 2018-04-27 中国科学院自动化研究所 基于卷积神经网络的短文本分类方法
CN105512228B (zh) * 2015-11-30 2018-12-25 北京光年无限科技有限公司 一种基于智能机器人的双向问答数据处理方法和系统
US10002124B2 (en) * 2016-07-15 2018-06-19 International Business Machines Corporation Class-narrowing for type-restricted answer lookups

Also Published As

Publication number Publication date
KR102408083B1 (ko) 2022-06-13
CN109863487B (zh) 2023-07-28
CN109863487A (zh) 2019-06-07
JP2018063696A (ja) 2018-04-19
US20200034722A1 (en) 2020-01-30
KR20190060995A (ko) 2019-06-04

Similar Documents

Publication Publication Date Title
JP6929539B2 (ja) ノン・ファクトイド型質問応答システム及び方法並びにそのためのコンピュータプログラム
US11176328B2 (en) Non-factoid question-answering device
WO2020192401A1 (en) System and method for generating answer based on clustering and sentence similarity
CN105989040B (zh) 智能问答的方法、装置及系统
Celikyilmaz et al. LDA based similarity modeling for question answering
CN110390052B (zh) 搜索推荐方法、ctr预估模型的训练方法、装置及设备
CN112115716A (zh) 一种基于多维词向量下文本匹配的服务发现方法、系统及设备
CN111581545A (zh) 一种召回文档的排序方法及相关设备
Lalata et al. A sentiment analysis model for faculty comment evaluation using ensemble machine learning algorithms
WO2018066489A1 (ja) ノン・ファクトイド型質問応答システム及び方法並びにそのためのコンピュータプログラム
CN113342958B (zh) 问答匹配方法、文本匹配模型的训练方法和相关设备
CN117951274A (zh) 一种基于融合向量和关键词检索的rag知识问答方法和装置
CN117236410B (zh) 一种可信的电子文件大语言模型训练、推理方法和装置
Tohidi et al. Optimizing Persian Multi-objective Question Answering System
Santhanavijayan et al. Automatic generation of multiple choice questions for e-assessment
AU2022269916A1 (en) Systems and methods for active curriculum learning
CN115309910B (zh) 语篇要素和要素关系联合抽取方法、知识图谱构建方法
Collarana et al. A question answering system on regulatory documents
Tohidi et al. Optimizing the performance of Persian multi-objective question answering system
JP6942759B2 (ja) 情報処理装置、プログラム及び情報処理方法
CN115269797A (zh) 面向知识社区模糊问题的答案推荐方法及系统
Sinhababu et al. Medical information retrieval and interpretation: a question-answer based interaction Model
Pourbahman et al. Deep neural ranking model using distributed smoothing
Rojas-Simon et al. Fundamentals of the ETS
Moore Building an Automated QA System Using Online Forums as Knowledge Bases

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170705

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210803

R150 Certificate of patent or registration of utility model

Ref document number: 6929539

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250