JP6618735B2 - 質問応答システムの訓練装置及びそのためのコンピュータプログラム - Google Patents

質問応答システムの訓練装置及びそのためのコンピュータプログラム Download PDF

Info

Publication number
JP6618735B2
JP6618735B2 JP2015170923A JP2015170923A JP6618735B2 JP 6618735 B2 JP6618735 B2 JP 6618735B2 JP 2015170923 A JP2015170923 A JP 2015170923A JP 2015170923 A JP2015170923 A JP 2015170923A JP 6618735 B2 JP6618735 B2 JP 6618735B2
Authority
JP
Japan
Prior art keywords
question
learning data
answer
answering system
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015170923A
Other languages
English (en)
Other versions
JP2017049681A (ja
Inventor
鍾勲 呉
鍾勲 呉
健太郎 鳥澤
健太郎 鳥澤
力 橋本
力 橋本
龍 飯田
龍 飯田
正弘 田仲
正弘 田仲
ジュリアン クロエツェー
ジュリアン クロエツェー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2015170923A priority Critical patent/JP6618735B2/ja
Priority to CN201680049453.0A priority patent/CN107949841B/zh
Priority to US15/755,068 priority patent/US20180246953A1/en
Priority to KR1020187005104A priority patent/KR102640564B1/ko
Priority to PCT/JP2016/074903 priority patent/WO2017038657A1/ja
Priority to EP16841689.9A priority patent/EP3346394A4/en
Publication of JP2017049681A publication Critical patent/JP2017049681A/ja
Application granted granted Critical
Publication of JP6618735B2 publication Critical patent/JP6618735B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/041Abduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Computational Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)

Description

この発明は質問応答システムに関し、特に、質問応答システムにおいて、「なぜ型質問」に対する回答の精度を高める技術に関する。
人間にとって、何か疑問が生じたときにその回答を見つけることは基本的な活動の1つである。例えば「なぜガンになるのか」という質問に対して、その回答を見つけるための様々な努力がなされてきた。一方、コンピュータが発達し、人間が今まで行ってきた様々な活動を、人間より高い能力で行うことが可能になった。例えば物事を記憶したり、求める情報を高速に検索したりする能力である。
ところが、従来、上に述べたような、「なぜ型質問」に対する回答をコンピュータで検索することは極めて困難なタスクと考えられていた。ここで、「なぜ型質問」とは、「なぜガンになるのか」という質問のように、何らかの事象が発生した理由を尋ねる質問のことをいい、それに対する回答をコンピュータにより見つけることを「なぜ型質問応答」と呼ぶ。
一方、コンピュータハードウェアとソフトウェアの発達により、人間が「なぜ型質問」に対する回答を見つける方法とは異なる方法で「なぜ型質問」に対する回答を探索する技術が研究されている。技術分野としては、いわゆる人工知能、自然言語処理、ウェブマイニング、データマイニング等と呼ばれる分野である。
この点に関し、質問応答システムの一例として、本願の出願人がインターネット上で公開している質問応答サービスがある。この質問応答システムは、その1つの構成要件として、なぜ型質問応答システムを実装している。このなぜ型質問応答システムは、後掲の特許文献1に開示された技術を用いたものである。
このなぜ型質問応答システムは、予めウェブから大量の文書を収集しておき、その中から、因果関係を表す語彙等に着目して大量の因果関係表現を取り出しておく。ここでいう因果関係表現とは、原因を表すフレーズと、結果を表すフレーズとが特定の語彙によって結ばれているような表現のことをいう。このシステムは、「なぜ型質問」を受けると、この大量の因果関係表現の中から、結果部分が質問文と共通しているものを集め、その原因を表すフレーズを回答候補として抽出する。このような回答候補が大量に得られるため、このシステムでは、それらの中から質問に対する回答として適切なものを選ぶための分類器を用いる。
この分類器は、テキストの語彙的な特徴(単語列、形態素列等)、構造的特徴(部分的な構文木等)、意味的な特徴(単語の意味、評価表現、因果関係等)を用いた教師あり学習で学習を行う。
特開2015−011426号公報 特開2013−175097号公報
上記した従来のなぜ型質問応答システムは、この分類器を用いてある程度の性能を示しているが、まだ改善の余地が残されている。性能改善のためには、より多くの、適切な学習データを用いて分類器の学習を行えばよいと考えられる。しかし、従来は、学習データは人手で作成していて作成コストが高いため、大量の学習データを作成することが困難であった。さらに、どのような学習データを選べば効率よく分類器の学習が行えるかが不明であった。したがって、より効率よく分類器の学習を行って分類器の性能を向上させる技術が望まれている。
それゆえに本発明の目的は、人手をできるだけ介さずに、効率よく分類器の学習データを作成して学習が行えるようななぜ型質問応答システムの訓練装置を提供することである。
本発明の第1の局面に係る質問応答システムの訓練装置は、複数の因果関係表現を記憶する因果関係表現記憶手段、因果関係表現記憶手段に記憶された、同じ因果関係表現から抽出された質問とその質問に対する予想回答との組を複数記憶した質問及び予想回答記憶手段、及び、質問を受けると、当該質問に対する複数の回答候補をスコア付で出力する質問応答システムとともに使用され、当該質問応答システム内の回答候補のスコア付けを行う分類器の性能を向上させるための訓練装置である。訓練装置はさらに、質問応答システムの分類器の学習を行うための学習データ記憶手段を備えた学習装置とともに使用される。この訓練装置は、学習データ記憶手段に記憶された学習データを用いて分類器の学習を行うように学習装置を制御する学習装置制御手段と、質問・予想回答記憶手段に記憶された質問を発行して質問応答システムに与える質問発行手段と、質問発行手段が発行した質問に対して質問応答システムからスコアとともに出力される複数の回答候補の各々と、当該質問とのペアから、質問応答システムの分類器の学習データを生成し学習データ記憶手段に追加する学習データ追加手段と、学習装置制御手段による学習装置の制御と、質問発行手段による質問の発行と、学習データ追加手段による学習データの追加とを、所定の終了条件が成立するまで、複数の回数だけ繰返して実行するように学習装置制御手段、質問発行手段、及び学習データ追加手段を制御する繰返制御手段とを含む。
好ましくは、学習データ追加手段は、質問発行手段が発行した質問に対して質問応答システムからスコアとともに出力される複数の回答候補のうち、スコアの絶対値が正の第1のしきい値より小さく、かつ当該スコアが上位の所定個数の回答候補を選択する回答候補選択手段と、回答候補選択手段により選択された所定個数の回答候補の各々と、質問に対応する予想回答との間の一致度を算出し、当該一致度が第2のしきい値より大きいか否かにしたがって、当該回答候補と、当該質問とに、正例又は負例のラベルを付して学習データ候補を生成する学習データ候補生成手段と、学習データ候補生成手段により生成された学習データ候補を新たな学習データとして学習データ記憶手段に追加する学習データ追加手段とを含む。
より好ましくは、学習データ追加手段はさらに、回答候補選択手段の出力と学習データ候補生成手段の入力との間に設けられ、回答候補選択手段により選択された回答候補のうち、当該回答候補の元になった質問が得られた因果関係表現から得られたものを破棄する、第1の回答候補破棄手段を含む。
さらに好ましくは、学習データ追加手段はさらに、回答候補選択手段の出力と学習データ候補生成手段の入力との間に設けられ、回答候補選択手段により選択された回答候補と質問とのペアのうち、学習データ記憶手段に記憶されたものと一致するものを削除する第2の回答候補破棄手段を含む。
学習データ追加手段は、学習データ候補生成手段により生成された学習データ候補の一部であって、当該学習データ候補に含まれる回答候補のスコアが上位の所定個数のみを選択して新たな学習データとして学習データ記憶手段に追加する学習データ選択手段を含んでもよい。
また、質問応答システムは、複数の文からなるパッセージであって、因果関係表現の抽出を行う際に手がかりとなるフレーズを少なくとも1つ含むパッセージの集合から回答候補を抽出するものであってもよい。
本発明の第2の局面に係るコンピュータプログラムは、複数の因果関係表現を記憶する因果関係表現記憶手段、因果関係表現記憶手段に記憶された、同じ因果関係表現から抽出された質問とその質問に対する予想回答との組を複数記憶した質問及び予想回答記憶手段、及び、質問を受けると、当該質問に対する複数の回答候補をスコア付で出力する質問応答システムとともに使用され、当該質問応答システム内の、機械学習による分類器の性能を向上させるための、質問応答システムの訓練装置としてコンピュータを機能させるコンピュータプログラムである。訓練装置はさらに、質問応答システムの分類器の学習を行うための学習データ記憶手段を備えた学習装置とともに使用される。組を形成する質問と予想回答とは、同じ因果関係表現から生成されたものである。コンピュータプログラムは、上記したいずれかの訓練装置を構成する各手段としてコンピュータを機能させる。
本発明の実施の形態に係るなぜ型質問応答システムの訓練システムの概要を模式的に示す図である。 図1に示すなぜ型質問応答システムの訓練装置の概略構成を示すブロック図である。 因果関係表現から質問と予想回答とのペアを作成する手順を示す模式図である。 大量の文書を記憶したウェブ文書等から抽出された大量の因果関係から、図3に示すような質問と予想回答とのペアを生成する質問・予想回答生成・抽出部のブロック図である。 図4に示す質問・予想回答生成・抽出部で使用される、質問のフィルタ処理を行う第2フィルタ部の学習を行う第2フィルタ学習部のブロック図である。 図2に示す繰返制御部110をコンピュータハードウェアとコンピュータソフトウェアとの協働により実現する際の、コンピュータプログラムの制御構造を示すフローチャートである。 図2に示す回答候補フィルタ部、回答候補判定部、及び学習データ生成・ラベリング部を実現するコンピュータプログラムの制御構造を示すフローチャートである。 本発明の実施の形態に係る訓練システムによって学習を行った分類器の性能を、従来技術と比較して示すグラフである。 本発明の実施の形態をコンピュータで実現する際に必要となる、コンピュータハードウェアの構成を示すブロック図である。
以下の説明及び図面では、同一の部品には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。
[概要]
図1に、本発明の実施の形態に係るなぜ型質問応答システムの訓練システム50の概要を模式的に示す。図1を参照して、この訓練システム50は、上記した先行技術のなぜ型質問応答システム60が苦手とする質問を自動認識し、そのような質問に対する応答を発見して分類器の性能を強化するような学習データを自動作成し学習データ記憶部64に格納する訓練装置62を含む。学習データ記憶部64に記憶された学習データを用いた学習処理部66による学習により、なぜ型質問応答システム60の性能が向上する。
[構成]
図2に、訓練システム50の具体的な構成を示す。図2を参照して、訓練システム50は、ウェブから集めた大量の文書からなるウェブコーパスを記憶するウェブコーパス記憶部68と、ウェブコーパス記憶部68に記憶された大量の文書から、大量の因果関係表現を抽出する因果関係表現抽出部70と、因果関係表現抽出部70により抽出された因果関係表現を記憶する因果関係表現記憶部72とを含む。なお、因果関係の抽出には、上記した特許文献1に開示された技術に加え、特許文献2に記載された技術を用いることができる。
訓練システム50はさらに、因果関係表現記憶部72に記憶された大量の因果関係表現の中から、学習データを生成するのに適切な質問とその予想回答とを生成し出力する質問・予想回答生成・抽出部74と、質問・予想回答生成・抽出部74により出力された質問と予想回答とを記憶する質問・予想回答記憶部76と、質問・予想回答記憶部76に記憶された質問及び予想回答の組をなぜ型質問応答システム60に与え、その回答を用いて、なぜ型質問応答システム60の性能を向上させるような学習データを生成して学習データ記憶部64に格納する、前述の訓練装置62とを含む。
図3に、因果関係表現130から質問144及びその予想回答146を作成する手順を示す。因果関係表現には様々な表現があり得るが、例えば図3に示す因果関係表現130の場合、原因を表す原因フレーズ140と、結果を表す結果フレーズ142とが、両者の間の因果関係を表す接続詞「〜ため」により接続されている。この結果フレーズ142を一定の変形規則にしたがって変形することにより質問144が得られる。原因フレーズ140からも、一定の変形規則により質問144に対する予想回答146が得られる。因果関係の形に応じて、変形規則の組を予め準備しておくことにより、因果関係表現から質問文とその予想回答とのペアを生成できる。
再び図2を参照して、なぜ型質問応答システム60は、与えられた質問に対する複数の回答候補をウェブコーパス記憶部68の中から検索する回答候補検索部120と、回答候補検索部120により検索された大量の回答候補を、予め学習済の分類器を用いてスコア付けし、ランキングして出力するランキング部122とを含む。学習データ記憶部64に記憶された学習データを用いた学習処理部66による学習が行われるのは、このランキング部122の分類器である。ランキング部122は、各回答候補にスコアを付した形で出力する。このスコアは、当該分類器による分類の結果付される、質問に対する回答の確からしさを表すスコアである。回答候補検索部120が出力する回答候補は、ウェブコーパス記憶部68に格納された文書の中で、質問文との間のtf−idfの値が上位の一定数の(本実施の形態では1200組)の一連の文列(パッセージ)である。なお、本実施の形態では、なぜ型質問応答システム60が大量の文書から回答候補を効率よく検索できるようにするために、以下の様な工夫をしている。すなわち、ウェブコーパス記憶部68に記憶された文書の中で、連続する7文からなるパッセージであって、かつ、Ohらの論文(Jong-Hoon Oh, Kentaro Torisawa, Chikara Hashimoto, Motoki Sano, Stijn De Saeger, and Kiyonori Ohtake. 2013. Why-question answering using intra- and inter-sentential causal relations. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, pages 1733-1743.)において使用された、因果関係を認識するための手がかりとなるフレーズを少なくとも1つ含むようなパッセージを抽出し、回答候補はこれらパッセージの集合の中から検索するよう、なぜ型質問応答システム60の回答候補の検索範囲を限定した。なお、パッセージが含む文の数は7には限定されず、5から10程度の範囲から選択するようにしてもよい。
訓練装置62は、質問・予想回答記憶部76に記憶された多数の質問・予想回答のペアから質問を選択して回答候補検索部120に対する質問を発行する質問発行部100と、質問発行部100により発行された質問に対してなぜ型質問応答システム60が送信して来る、ランキングされた回答候補の中から、一定の条件を充足する回答候補のみを残し他をフィルタリングする回答候補フィルタ部102とを含む。回答候補フィルタ部102の機能については図7を参照して後述する。
訓練装置62はさらに、回答候補フィルタ部102が出力する回答候補の各々について、質問発行部100が発行した質問と組になっている予想回答と比較することにより、その回答候補が正しいか否かを判定し判定結果を出力する回答候補判定部104と、質問とその回答候補の組に、その回答候補に対して回答候補判定部104が出力した判定結果をラベルとして付して学習データ候補を生成する学習データ生成・ラベリング部106と、学習データ生成・ラベリング部106により出力された学習データ候補を蓄積し、質問・予想回答生成・抽出部74に含まれる全因果関係表現に対して学習データ候補の生成が終わった時点で、学習データ候補の中で、ランキング部122により付されたスコアが最も高い所定個数(K個)を選択して学習データ記憶部64に学習データとして追加する学習データ選択部108と、質問発行部100、回答候補フィルタ部102、回答候補判定部104、学習データ生成・ラベリング部106及び学習データ選択部108による処理を、所定の終了条件が充足されるまで繰返し行うようこれらを制御する繰返制御部110とを含む。
図4に、図2に示す質問・予想回答生成・抽出部74の構成を示す。図4を参照して、質問・予想回答生成・抽出部74は、因果関係表現記憶部72に記憶された因果関係表現の結果部分に、質問文生成のために不足している情報があればそれらを補充する補充処理部172と、予め人手により作成された、因果関係の結果フレーズから質問文を生成するための規則を記憶する規則記憶部170と、因果関係表現記憶部72に記憶された因果関係表現の各々の結果フレーズであって、補充処理部172により補充がされたものに対し、規則記憶部170に記憶された規則のうちでいずれか適合するものを選択して適用し、質問文を生成して出力する質問文生成部174とを含む。
ここで、補充処理部172の処理について説明する。因果関係表現の結果フレーズ部分には、他の部分への照応(他の部分の参照)が存在していたり、述部がとるべき引数がなかったりする場合が多い。その結果、結果部分には主語が存在していなかったり、トピックが抜け落ちたりしていることがある。もしもそれらの結果部分から質問文を生成すると、学習データとして適切なものを得ることができない。そこで、補充処理部172は、そのような主語及びトピックを因果関係表現の他の部分から補充する。
質問・予想回答生成・抽出部74はさらに、質問文生成部174が出力する質問文の中で、代名詞を含むものをフィルタリングし、それ以外を出力する第1フィルタ処理部176と、第1フィルタ処理部176の出力する質問文の中で、述部に関する引数が欠けているものがあればそれらをフィルタリングし、それ以外のものを出力する第2フィルタ処理部178と、因果関係表現の原因部分から予想回答を生成するための変形規則を記憶した規則記憶部182と、第2フィルタ処理部178の出力する質問が得られた因果関係表現の原因部分に、規則記憶部182に記憶された変形規則を適用して、当該質問に対する予想回答を生成し、質問と組にして質問・予想回答記憶部76に格納する予想回答生成部180とを含む。
図4に示す第2フィルタ処理部178による処理は、機械学習による判別器を用いて行う。図5を参照して、この第2フィルタ処理部178のための学習は、第2フィルタ学習部202により行われる。この学習のために、正例学習データ記憶部200に、自己完結している「なぜ型質問」の例を正例として記憶させる。本実施の形態では、9,500個の「なぜ型質問」を人手で準備した。第2フィルタ処理部178は、SVM−Light(T. Joachims. 1999. Making large-scale SVM learning practical. In B. Schoelkopf, C. Burges, and A. Smola, editors, Advances in Kernel Methods - Support Vector Learning, chapter 11, pages 169-184. MIT Press, Cambridge, MA.)において実装されたサブセットツリーカーネルを用いた。このサブセットツリーカーネルの学習を、以下のツリー及びベクトルの組合せを用いて行った。
・フレーズ構造木のサブセットツリー
・名詞を対応する単語クラスで置き換えたサブセットツリー
・形態素及びPOSタグ−nグラムで表したベクトル
第2フィルタ学習部202は、正例学習データ記憶部200に記憶された正例学習データの各質問文において、主語又は目的語、若しくはその双方を削除することにより自動的に負例の学習データを生成する負例学習データ生成部220と、負例学習データ生成部220により生成された負例学習データを記憶する負例学習データ記憶部222と、正例学習データ記憶部200に記憶された正例及び負例学習データ記憶部222に記憶された負例をマージし、各質問文から所定の特徴量を抽出して正例・負例のラベルを付すことにより学習データセットを生成する学習データ生成部224と、学習データ生成部224に記憶された学習データを記憶する学習データ記憶部226と、学習データ記憶部226に記憶された学習データを用いて第2フィルタ処理部178の学習を行う学習処理部228とを含む。本実施の形態では、9,500個の正例学習データから16,094個の負例の学習データを生成した。したがって学習データは合計25,594個となった。
学習データ生成部224による学習データの生成は、各質問文の依存構造解析を日本語係り受け解析ツール(J.DepP)により行い、得られた依存構造木をフレーズ構造木に変換して行った。この変換には以下の様な簡単な規則を用いた。依存構造木において、各文節の主要語が名詞であればNP(名詞句)を、動詞又は形容詞であればVPを、それ以外であればOPを、依存構造木の各文節の親ノードとしてそれぞれ追加することによりフレーズ構造木に変換した。このフレーズ構造木から上記サブセットツリーの素性を抽出した。
再び図2を参照して、図2に示す繰返制御部110の機能について説明する。繰返制御部110は、図2の質問発行部100、回答候補フィルタ部102、回答候補判定部104、学習データ生成・ラベリング部106、及び学習データ選択部108による処理を、所定の終了条件が充足されるまで繰返し実行する機能を持つ。繰返制御部110は、コンピュータハードウェアとコンピュータソフトウェアとにより実現可能である。
図6を参照して、繰返制御部110を実現するプログラムは、起動後、メモリ領域の確保、オブジェクトの生成等の準備処理を行うステップ250と、繰返制御変数iに0を代入するステップ252と、変数iに関する終了条件が成立するまで(具体的には変数iが予め定められた上限数に達するまで)、以下の処理256を繰返して実行するステップ254とを含む。尚、以下の説明では繰返しのi回目のデータであることを示すために、各記号の右肩に小文字のiを付す。
なお、以下の説明では、質問発行部100からなぜ型質問応答システム60に対して与えられる質問をq,その質問qに対する予想回答をe、その質問qに対してなぜ型質問応答システム60から返されてくる回答候補が複数個(具体的には20個)あり、それらを回答候補p(j=1〜20)とする。各回答候補には、ランキング部122によるランキングのスコアsが付されている。ランキング部122は本実施の形態ではSVMにより実現されている。したがってスコアsの絶対値qは、SVMの識別境界から回答候補までの距離を示す。この距離が小さければ回答の信頼度が低く、大きければ信頼度が高い。質問qと回答候補pからなるペアのうちで、スコアsが最大のペアを(q´、p´)で表す。また、繰返しのi番目の学習データをLで表し、その学習データLにより学習したランキング部122の分類器をcで表す。まだ正例、負例のラベルが付されていないこのようなペアをラベルなしペアと呼ぶ。
処理256は、学習処理部66が、図2に示す学習データ記憶部64に記憶された学習データLで図2に示すランキング部122の分類器cの学習を行うステップ270を含む。処理256はさらに、ステップ270の後、質問・予想回答記憶部76に格納された各質問文を回答候補検索部120に与え、その結果、ランキング部122から送られてくる応答により、質問と回答候補とからなるラベルなしペアのうち、学習データとして適切な一部のペアに正例・負例のラベリングを付すステップ272を含む。ステップ272の処理内容については図7を参照して後述する。
1つの質問qに対して複数個(本実施の形態では20個)の回答候補がランキング部122から回答候補フィルタ部102に送信されてくる。質問q及び予想回答eに加えてランキング部122からの回答候補p(j=1〜20)からなる3つ組み(q,e、p)をUで表し、1つの質問qに対してステップ272の処理により得られたデータの集合をL とすると、L =Label(c、U)と表せる。ステップ272では、この処理を質問・予想回答記憶部76に記憶された全ての質問・予想回答ペアに対して実行する。
処理256はさらに、全ての質問に対してステップ272により得られた全てのラベリング後のペアL のうち、そのスコアが上位であるK個のペアを学習データLに追加して新たな学習データLi+1を生成するステップ274と、変数iの値に1を加算して処理256を終了するステップ276とを含む。
図7を参照して、図6に示すステップ272を実現するプログラムは、質問発行部100からなぜ型質問応答システム60に対して与えた質問qと、その質問qに対してなぜ型質問応答システム60から送信されてきた20個の回答候補pの各々からなるラベルなしペア(q,p)のうち、スコアsが最大のペア(q´,p´)を選択するステップ300と、ステップ300で選択されたペア(q´,p´)のスコアsの絶対値が所定のしきい値α(>0)より小さいか否かを判定し、判定が否定なら何もせずこのルーチンの実行を終了するステップ302とを含む。このように、本実施の形態では、応答候補の内でスコアsが最も大きく、かつその値がしきい値α未満のものについては、なぜ型質問応答システム60による応答に信頼がおけないと判断し、その例についての学習データを追加することにする。
このプログラムはさらに、ステップ302の判定が肯定のときに、回答候補p´が、質問q´の得られたもとの因果関係表現を含むか否かを判定し、判定が肯定ならこのルーチンの実行を終了するステップ304と、ステップ304の判定が否定の時に、ペア(q´、p´)が現在の学習データ中にあるか否か判定し、判定が肯定ならこのルーチンの実行を終了するステップ306とを含む。ステップ304の判定は、因果関係表現が得られたパッセージに過大なバイアスが加えられないようにするためである。ステップ306の判定は、同じ例が学習データに加えられないようにするためである。
このプログラムはさらに、ステップ306の判定が否定の時に、回答候補p´と、質問q´に対する予想回答e´との間の重複語彙量W1、及び回答候補p´と質問q´との間の重複語彙量W2を算出するステップ308と、ステップ308で算出された重複語彙量W1及びW2がいずれも所定のしきい値aより大きいか否かを判定し、判定結果により制御の流れを分岐させるステップ310と、ステップ310の判定が肯定のときに、ペア(q´,p´)に正例を示すラベルを付して追加学習データとして出力し、このルーチンの実行を終了するステップ312と、ステップ310の判定が否定のときに、重複語彙量W1及びW2がいずれも所定のしきい値b(b<a)より小さいか否かを判定し、判定結果により制御の流れを分岐させるステップ311と、ステップ311の判定が肯定のときに、ペア(q´,p´)に負例を示すラベルを付して追加学習データとして出力し、このルーチンの実行を終了するステップ314とを含む。ステップ311の判定が否定のときには何もせず、このルーチンは終了する。
予想回答e´は、質問q´が得られた因果関係表現の原因部分から得られたものである。したがって、予想回答e´は質問q´の回答としてふさわしいものと考えられる。もしも予想回答e´と回答候補p´との重複語彙量が大きい場合には、回答候補p´は質問q´に対する回答としてふさわしいと考えられる。一般的に、予想回答eと回答候補pとの間の重複語彙量Tm(e、p)は以下の式により算出される。
Figure 0006618735
ここで、T(x)は、文xに含まれる内容語(名詞、動詞、形容詞)からなる集合であり、S(p)は回答候補pを構成するパッセージの中の連続する2文からなる集合である。
なお、上の例では、ステップ310において、重複語彙量W1及びW2について、同じしきい値aと比較しているが、本発明はそのような実施の形態には限定されない。重複語彙量W1とW2について、互いに異なるしきい値と比較するようにしてもよい。ステップ311において重複語彙量W1及びW2と比較されるしきい値bについても同様であり、互いに重複語彙量W1及びW2を互いに異なるしきい値と比較するようにしてもよい。
また、ステップ310及びステップ311においては、2つの条件がいずれも成立している時に全体として条件が充足されていると判定したが、2つの条件のいずれかが成立していれば全体として条件が充足されていると判定してもよい。
[動作]
この訓練システム50は以下のように動作する。図2を参照して、予めウェブコーパス記憶部68に多数の文書を収集しておく。回答候補検索部120は、与えられた各質問にふさわしいと思われる回答候補であるパッセージを、ウェブコーパス記憶部68からtf−idfによりランキングして、tf−idfが上位の所定個数(本実施の形態sでは1200個)だけ抽出し、ランキング部122に与える。学習データ記憶部64には、初期の学習データが準備されている。因果関係表現抽出部70がウェブコーパス記憶部68から多数の因果関係表現を抽出し、因果関係表現記憶部72に格納する。質問・予想回答生成・抽出部74が、因果関係表現記憶部72に記憶された多数の因果関係表現から、質問と、その質問に対する予想回答との組を抽出し、質問・予想回答記憶部76に格納する。
図4を参照して、このとき、質問・予想回答生成・抽出部74は、以下のように動作する。まず図4に示す補充処理部172が、因果関係表現記憶部72に記憶された因果関係表現の各々について、照応関係、省略等を検出し、それらの照応関係、省略語等を補完することにより、因果関係表現の特に結果部分に不足している部分(主語、トピック等)を補充する。質問文生成部174は、因果関係表現の結果部分について、規則記憶部170を参照し、適切な変形規則を適用してなぜ型質問文を生成する。第1フィルタ処理部176は、質問文生成部174により生成された質問文のうち、代名詞を含むものをフィルタリングし、それ以外のものを第2フィルタ処理部178に出力する。第2フィルタ処理部178は、述部の引数のうち、必須のものがない質問をフィルタリングし、それ以外のものを予想回答生成部180に与える。予想回答生成部180は、第2フィルタ処理部178の出力する質問が得られた因果関係表現の原因部分に、規則記憶部182に記憶された変形規則を適用して、当該質問に対する予想回答を生成し、質問と組にして質問・予想回答記憶部76に格納する。
なお、これに先立って、図5に示す第2フィルタ学習部202により第2フィルタ処理部178の学習が行われている必要がある。図5を参照して、負例学習データ生成部220は、正例学習データ記憶部200に記憶された正例学習データの各質問文において、主語又は目的語、若しくはその双方を削除することにより自動的に負例の学習データを生成する。生成された負例の学習データは負例学習データ記憶部222に格納される。学習データ生成部224は、正例学習データ記憶部200に記憶された正例と、負例学習データ記憶部222に記憶された負例とをマージし、第2フィルタ処理部178のための学習データを生成する。学習データは学習データ記憶部226に記憶される。学習処理部228が、この学習データを用いて第2フィルタ処理部178の学習を行う。
以下、なぜ型質問応答システム60のランキング部122の訓練が以下の繰返しにより行われる。
図2を参照して、最初に、繰返制御部110の制御により、学習処理部66が、学習データ記憶部64に記憶された初期の学習データを用いてランキング部122の学習を行う。次に繰返制御部110は、質問発行部100を制御して、質問・予想回答記憶部76に格納された質問qを順次選択し、回答候補検索部120に与える。回答候補検索部120は、与えられた各質問にふさわしいと思われる回答候補であるパッセージを、ウェブコーパス記憶部68からtf−idfによりランキングして、tf−idfが上位の所定個数(本実施の形態では1200個)だけ抽出し、ランキング部122に与える。ランキング部122は、各パッセージから所定の特徴量を抽出し、学習処理部66による学習が行われた分類器によりスコアリングし、上位20個を選択しスコアを付して回答候補フィルタ部102に送信する。
回答候補フィルタ部102は、回答候補を受けると、質問・回答候補のペア(q,p)(j=1〜20)からスコアsが最上位の回答候補p´を含むペア(q´、p´)を選択し(図7,ステップ300),そのスコアがしきい値αより小さくなければ(ステップ302でNO)このペアは破棄して次の質問に対する処理に移る。スコアがしきい値αより小さければ(ステップ302でYES)、次に、回答候補p´が質問q´の得られた因果関係表現を含むか否かを判定する(ステップ304)。判定が肯定なら(ステップ304でYES)、この質問に対する処理を終了し、次の質問の処理に移る。判定が否定(ステップ304でNO)ならステップ306で、ペア(q´、p´)が現在の学習データ中にあるか否かを判定する。判定が肯定(ステップ306でYES)ならこの質問に対する処理を終了して次の質問に対する処理に移る。判定が否定(ステップ306でNO)なら、ステップ308で回答候補p´と予想回答eとの間の重複語彙量W1を、回答候補p´と質問q´との間の重複語彙量W2を、式(1)によりそれぞれ算出する。
続いて、ステップ310で、重複語彙量W1及びW2がいずれも所定のしきい値aより大きいか否かを判定する。判定が肯定なら、ペア(q´、p´)に正例を示すラベルを付して追加学習データとして出力する。判定が否定なら、制御はステップ311に進む。ステップ311では、重複語彙量W1及びW2がいずれも所定のしきい値b(b<a)か否かを判定する。判定が肯定ならペア(q´、p´)に負例を示すラベルを付して追加学習データとして出力する。判定が否定なら何もせずこの処理を終了する。
こうして、図2の質問・予想回答記憶部76に記憶されていた質問・予想回答についての処理が終了すると、学習データ選択部108には、訓練装置62により選択された新たな学習データが正例・負例のラベルとともに記憶されている。学習データ選択部108は、これらの新たな学習データのうち、スコアが上位のK個を選択して学習データ記憶部64に追加する。
繰返制御部110は、繰返し変数iに1を加え(図6のステップ276)、終了条件が充足されているか否かを判定する。終了条件が充足されていなければ、再度、学習データ記憶部64に記憶された更新後の学習データを用いて、繰返制御部110の制御により学習処理部66がランキング部122の学習を実行する。これにより、ランキング部122の分類器は、因果関係表現記憶部72に記憶された因果関係表現を用いて得られた学習データによる学習で強化されたことになる。
繰返しの終了条件が充足することにより、以上の繰返しが終了し、因果関係表現記憶部72に記憶された因果関係を用いて得た学習データで強化されたランキング部122が得られ、その結果、なぜ型質問応答システム60による応答の精度が高くなる。
[実験]
上記実施の形態の効果を確認するために、850個の日本語のなぜ型質問と、これら質問に対して6億の日本語ウェブページから抽出したトップ20の回答候補パッセージとからなる実験セットを準備した。この実験セットはMurataら(Masaki Murata, Sachiyo Tsukawaki, Toshiyuki Kanamaru, Qing Ma, and Hitoshi Isahara. 2007. A system for answering non-factoid Japanese questions by using passage retrieval weighted based on type of answer. In Proceedings of NTCIR-6.)により提案された質問応答システムにより得たものである。これらの各々について、正しい質問−回答ペアかどうかを人手で確認した。実験では、この実験セットを、学習セット、開発セット、及びテストデータセットに分割した。学習セットは15,000個の質問−回答ペアからなる。残りの2,000個の実験データは、100個の質問と、それらに対する回答(各20個)からなり、開発セットとテストセットとに二等分した。
上記した学習データを初期学習データとして使用してランキング部122の繰返し学習を行った。開発セットは、しきい値α、重複語彙量のしきい値β、さらに、繰返しごとに学習データに追加される新たなデータ数Kとを決定するために使用した。α∈{0.2,0.3,0.4}、β∈{0.6,0.7,0.8}、及びK∈{150,300,450}を満足するα、β及びKの組合せについて、開発データで実験をし、その結果、α=0.3,β=0.7,K=150の組合せで最も良い結果が得られた。以下に述べる実験ではこのα、β及びKの値の組合せを用いている。繰返し回数は40に設定した。これは、開発セットに対する、上記α、β及びKの組合せによる学習データが、この繰返し回数の辺りで収束したためである。評価はテストセットを用いて行った。
実験では、20億の文書を記憶したウェブコーパスから自動的に抽出された6億5,600万の因果関係表現を基礎に、その60分の1に当たる1,100万の因果関係表現を選択した。これらから、自己完結型の質問とその予想回答の組合せを選んだ。その数は56,775個であった。これらの質問をなぜ型質問応答システム60に入力し、各質問について20個の上位回答候補を受け、これらを用いてラベルなしの質問−回答候補ペア(ラベルなしペア)を生成した。
比較のために、最初に上記した1,100万の因果関係表現からランダムに10万個の因果関係表現を抽出した。これら全てから質問を生成して、ラベルなしペアを全て生成し使用した。
これら2つのタイプをUSC(自己完結型の質問のみから生成したラベルなしペア)及びUAll(自己完結型以外も含む質問から生成したラベルなしペア)と呼んで互いに区別する。|USC|=514,674、|UAll|=1,548,998、|USC∩UAll|=17,844である。
比較結果を次のテーブルに示す。
Figure 0006618735
OHは初期学習データによる学習を行ったものである。
AtOnceは、実施の形態の第1回目の繰返しで得られた全てのラベル付きのデータを学習データに追加したときの性能を表す。この結果と後述のOurs(USC)とを比較することにより、繰返しの効果が明らかになる。
Ours(UAll)は、上記実施の形態の変形例で、上に述べたUAllをラベルなしペアとして用いたものである。Ours(USC)とを比較することにより、本実施の形態において自己完結型の質問のみを使用することによる効率の良さが分かる。
Ours(USC)は上記実施の形態によるものである。
UpperBoundは、全ての質問に対して、n個の正しい回答がテストセットの中にありさえすれば、トップのn個の回答候補の中に必ず正しい回答が得られるシステムである。この結果は、本実験の性能の上限を示すものである。UpperBoundを除く全てのシステムにおいて、分類器の学習を行うために、線形カーネルのTinySVMを用いた。評価は、トップの回答(P@1)及びミーン・アベレージ・プレシジョン(MAP)を用いて行う。P@1は、システムによるトップの回答のうちでどの程度の数の正解が得られるかを示す。ミーン・アベレージ・プレシジョンは、トップ20の全体の品質を示す。
テーブル1は、その評価の結果を示す。テーブル1によれば、AtOnceもOurs(UAll)も、OHを上回る結果を示すことはできなかった。本発明の実施の形態に係る結果(Ours(USC))では、P@1でもMAPでも安定してOHより良い結果を示した。この結果は、上記実施の形態における繰返しの結果が性能向上に重要であること、自己完結型の質問文のみを用いることが性能向上に重要であること、を示している。さらに、Ours(USC)のP@1の結果をUpperBoundと比較すると、75.7%という値を示していることが分かる。これにより、ウェブから少なくとも1つの正しい答えを取り出せる回答検索モジュールがあれば、上記実施の形態によって高い精度でなぜ型質問に対して正しい回答を見つけられると考えられる。
図8に、Ours(UAll)とOurs(USC)の、繰返し回数と精度との関係を、繰返し回数=0から50の範囲で示す。本願実施の形態にかかるOurs(USC)では、50回の繰返し学習の後、P@1(グラフ350)とMAP(グラフ360)において、精度はそれぞれ50%と49.2%に達した。P@1の場合、38回で収束した。Ours(UAll)(P@1はグラフ362,MAPはグラフ364で示す。)は、最初の段階の何回かの繰返しではOurs(USC)より高い性能を示したが、繰返しが多くなるにつれ、相対的には性能は低くなった。おそらく、自己完結型の質問以外の質問がノイズとして性能に悪影響を及ぼしたものと思われる。
Figure 0006618735
さらに、上記本発明の実施の形態に係る装置で学習した質問応答システム(Ours(USC))と、初期学習データのみを用いて学習した質問応答システム(OH)との性能比較を行った。学習の対象は、いずれの場合も質問応答システムのランキング部122の分類器である。実験では、開発セットの100個の質問の各々に対してトップ5の回答パッセージを得るようにした。3人の評価者がこれら質問−回答のペアをチェックし、多数決によりその正誤を判定した。評価はP@1,P@3,及びP@5で行った。ここでP@Nとは、トップN個の回答候補の中に正しい回答がある率を指す。テーブル2にその結果を示す。
テーブル2の結果から、本発明の実施の形態によれば、P@1,P@3,及びP@5のいずれでもOHにより得られたものよりもよい結果を示すことが分かる。
[実施の形態の効果]
以上のように本実施の形態によれば、ウェブコーパス記憶部68に記憶された大量の文書から多数の因果関係表現を抽出する。この因果関係表現から、多数の質問qと予想回答eとのペアを選ぶ。選んだペアのうちの質問qをなぜ型質問応答システム60に与えて、なぜ型質問応答システム60から質問に対する回答候補pを複数個受ける(p〜p20)。各回答候補pには、本システムの訓練対象であるランキング部122の分類器によるスコアsが付されている。スコアsが最も高い回答候補と質問とのペア(q´、p´)を選択し、そのペアが以下の条件を満たすときのみ、その回答候補を採用する。
(1)回答候補p´のスコアsがしきい値α(>0)未満である。
(2)その回答候補p´が、質問q´の得られた因果関係表現を含まない。
(3)ペア(q´,p´)が現在の学習データ中にない。
こうした条件を充足するペア(q´、p´)のうち、重複語彙量のスコアが上位のK個のみを学習データに追加する。このとき、質問q´に対する予想回答e´と回答候補p´との重複語彙量に基づいて、そのペアが正例か否かを判定し、その結果に応じて、学習データに正例又は負例を示すフラグを付す。したがって、学習データには、もとのランキング部122による判定の信頼度が低かったデータが重点的に追加される。こうした学習を、得られた因果関係表現の全てについて、所定回数繰返すことにより、信頼度が低かった部分に関する学習データを拡充できる。しかも、質問応答システムの分類器の初期学習データは人手で準備する必要があるが、追加すべき学習データを人手で準備する必要がなく、低いコストで大量の学習データが効率よく作成できる。その結果、この学習データにより学習されたランキング部122の分類器の精度を、人手をできるだけ介さずに高くできる。
なお、上記した実施の形態では、質問・予想回答記憶部76にはウェブコーパス記憶部68に記憶された大量の文書から抽出した因果関係から自動的に作成した質問と予想回答とのペアが記憶されている。しかし、本発明はそのような実施の形態には限定されない。質問・予想回答記憶部76に記憶する質問と予想回答のペアのソースはどのようなものでもよい。また、自動的に生成したものだけでなく、人手により作成した質問と予想回答を自動的に収集したものとともに質問・予想回答記憶部76に記憶するようにしてもよい。
また上記実施の形態では、回答候補検索部120による繰返しは、繰返し数が上限数に達したときに終了するようにしている。しかし本発明はそのような実施の形態には限定されない。例えば、学習データ記憶部64に追加される新たな学習データがなくなった時点で繰返しを終了してもよい。
さらに、上記実施の形態では、図7のステップ300では、スコアが最大のペアを1つだけ選択している。しかし本発明はそのような実施の形態には限定されない。スコアが最大のスコアを2個以上の所定個数選択するようにしてもよい。この場合には、ステップ302からステップ314の処理を各ペアについて別々に行えば良い。
[コンピュータによる実現]
上記実施の形態に係る訓練装置62は、コンピュータハードウェアと、そのコンピュータハードウェア上で実行されるコンピュータプログラムとにより実現できる。図9はコンピュータシステム930の内部構成を示す。
図9を参照して、このコンピュータシステム930は、メモリポート952及びDVD(Digital Versatile Disc)ドライブ950を有するコンピュータ940と、キーボード946と、マウス948と、モニタ942とを含む。
コンピュータ940は、メモリポート952及びDVDドライブ950に加えて、CPU(中央処理装置)956と、CPU956、メモリポート952及びDVDドライブ950に接続されたバス966と、ブートアッププログラム等を記憶する読出専用メモリ(ROM)958と、バス966に接続され、プログラム命令、システムプログラム、及び作業データ等を記憶するランダムアクセスメモリ(RAM)960とを含む。コンピュータシステム930はさらに、他端末(例えば図2に示すなぜ型質問応答システム60、学習データ記憶部64及び66を実現するコンピュータ、質問・予想回答記憶部76を実現するコンピュータ等)との通信を可能とするネットワークへの接続を提供するネットワークインターフェイス(I/F)944を含む。ネットワークI/F944は、インターネット970に接続されてもよい。
コンピュータシステム930を上記した実施の形態の訓練装置62を構成する各機能部として機能させるためのコンピュータプログラムは、DVDドライブ950又はメモリポート952に装着されるDVD962又はリムーバブルメモリ964に記憶され、さらにハードディスク954に転送される。又は、プログラムはネットワークI/F944を通じてコンピュータ940に送信されハードディスク954に記憶されてもよい。プログラムは実行の際にRAM960にロードされる。DVD962から、リムーバブルメモリ964から、又はネットワークI/F944を介して、直接にRAM960にプログラムをロードしてもよい。
このプログラムは、コンピュータ940を、上記実施の形態に係る訓練装置62の各機能部として機能させるための複数の命令を含む。この動作を行なわせるのに必要な基本的機能のいくつかはコンピュータ940上で動作するオペレーティングシステム(OS)若しくはサードパーティのプログラム、又は、コンピュータ940にインストールされる各種プログラミングツールキットのモジュールにより提供される。したがって、このプログラムはこの実施の形態に係る訓練装置62を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又はプログラミングツールキット内の適切なプログラムツールを呼出すことにより、上記したシステムとしての機能を実現する命令のみを含んでいればよい。コンピュータシステム930の動作は周知である。したがってここでは繰返さない。
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。
50 訓練システム
60 なぜ型質問応答システム
62 訓練装置
64 学習データ記憶部
66 学習処理部
68 ウェブコーパス記憶部
70 因果関係表現抽出部
72 因果関係表現記憶部
74 質問・予想回答生成・抽出部
76 質問・予想回答記憶部
100 質問発行部
102 回答候補フィルタ部
104 回答候補判定部
106 学習データ生成・ラベリング部
108 学習データ選択部
110 繰返制御部
120 回答候補検索部
122 ランキング部

Claims (6)

  1. 複数の因果関係表現を記憶する因果関係表現記憶手段、
    前記因果関係表現記憶手段に記憶された、同じ因果関係表現から抽出された質問とその質問に対する予想回答との組を複数記憶した質問及び予想回答記憶手段、及び、質問を受けると、当該質問に対する複数の回答候補をスコア付で出力する質問応答システムとともに使用され、当該質問応答システム内の回答候補のスコア付けを行う分類器の性能を向上させるための訓練装置であって、
    前記訓練装置はさらに、前記質問応答システムの前記分類器のための学習データを記憶するための学習データ記憶手段を備えた学習装置とともに使用され、
    前記訓練装置は、
    前記学習データ記憶手段に記憶された学習データを用いて前記分類器の学習を行うように前記学習装置を制御する学習装置制御手段と、
    前記質問及び予想回答記憶手段に記憶された質問を発行して前記質問応答システムに与える質問発行手段と、
    前記質問発行手段が発行した質問に対して前記質問応答システムからスコアとともに出力される複数の回答候補の各々と、当該質問とのペアから、前記質問応答システムの前記分類器の学習データを生成し前記学習データ記憶手段に追加する学習データ追加手段と、
    前記学習装置制御手段による前記学習装置の制御と、前記質問発行手段による質問の発行と、前記学習データ追加手段による前記学習データの追加とを、所定の終了条件が成立するまで、複数の回数だけ繰返して実行するように前記学習装置制御手段、前記質問発行手段、及び前記学習データ追加手段を制御する繰返制御手段とを含む、質問応答システムの訓練装置。
  2. 前記学習データ追加手段は、
    前記質問発行手段が発行した質問に対して前記質問応答システムからスコアとともに出力される複数の回答候補のうち、前記スコアの絶対値が正の第1のしきい値より小さく、かつ当該スコアが上位の所定個数の回答候補を選択する回答候補選択手段と、
    前記回答候補選択手段により選択された前記所定個数の回答候補の各々と、前記質問に対応する前記予想回答との間の一致度を算出し、当該一致度が第2のしきい値より大きいか否かにしたがって、当該回答候補と、当該質問とに、正例又は負例のラベルを付して学習データ候補を生成する学習データ候補生成手段と、
    前記学習データ候補生成手段により生成された学習データ候補を新たな学習データとして前記学習データ記憶手段に追加する学習データ追加手段とを含む、請求項1に記載の質問応答システムの訓練装置。
  3. 前記学習データ追加手段はさらに、前記回答候補選択手段の出力と前記学習データ候補生成手段の入力との間に設けられ、前記回答候補選択手段により選択された回答候補のうち、当該回答候補の元になった質問が得られた因果関係表現から得られたものを破棄する、第1の回答候補破棄手段を含む、請求項2に記載の質問応答システムの訓練装置。
  4. 前記学習データ追加手段はさらに、前記回答候補選択手段の出力と前記学習データ候補生成手段の入力との間に設けられ、前記回答候補選択手段により選択された回答候補と前記質問とのペアのうち、前記学習データ記憶手段に記憶されたものと一致するものを削除する第2の回答候補破棄手段を含む、請求項2又は請求項3に記載の質問応答システムの訓練装置。
  5. 前記質問応答システムは、複数の文からなるパッセージであって、因果関係表現の抽出を行う際に手がかりとなるフレーズを少なくとも1つ含むパッセージの集合から回答候補を抽出する、請求項1〜4のいずれかに記載の質問応答システムの訓練装置。
  6. 複数の因果関係表現を記憶する因果関係表現記憶手段、
    前記因果関係表現記憶手段に記憶された、同じ因果関係表現から抽出された質問とその質問に対する予想回答との組を複数記憶した質問及び予想回答記憶手段、及び、質問を受けると、当該質問に対する複数の回答候補をスコア付で出力する質問応答システムとともに使用され、当該質問応答システム内の、機械学習による分類器の性能を向上させるための、質問応答システムの訓練装置としてコンピュータを機能させるコンピュータプログラムであって、
    前記訓練装置はさらに、前記質問応答システムの前記分類器の学習を行うための学習データ記憶手段を備えた学習装置とともに使用され、
    前記組を形成する質問と予想回答とは、同じ因果関係表現から生成されたものであり、
    前記コンピュータプログラムは、請求項1から請求項5のいずれかに記載の訓練装置を構成する各手段としてコンピュータを機能させる、コンピュータプログラム。
JP2015170923A 2015-08-31 2015-08-31 質問応答システムの訓練装置及びそのためのコンピュータプログラム Active JP6618735B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2015170923A JP6618735B2 (ja) 2015-08-31 2015-08-31 質問応答システムの訓練装置及びそのためのコンピュータプログラム
CN201680049453.0A CN107949841B (zh) 2015-08-31 2016-08-26 提问应答系统的训练装置以及存储介质
US15/755,068 US20180246953A1 (en) 2015-08-31 2016-08-26 Question-Answering System Training Device and Computer Program Therefor
KR1020187005104A KR102640564B1 (ko) 2015-08-31 2016-08-26 질의 응답 시스템의 훈련 장치 및 그것을 위한 컴퓨터 프로그램
PCT/JP2016/074903 WO2017038657A1 (ja) 2015-08-31 2016-08-26 質問応答システムの訓練装置及びそのためのコンピュータプログラム
EP16841689.9A EP3346394A4 (en) 2015-08-31 2016-08-26 TRAINING DEVICE FOR QUESTION REPLY SYSTEM AND COMPUTER PROGRAM THEREFOR

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015170923A JP6618735B2 (ja) 2015-08-31 2015-08-31 質問応答システムの訓練装置及びそのためのコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2017049681A JP2017049681A (ja) 2017-03-09
JP6618735B2 true JP6618735B2 (ja) 2019-12-11

Family

ID=58188883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015170923A Active JP6618735B2 (ja) 2015-08-31 2015-08-31 質問応答システムの訓練装置及びそのためのコンピュータプログラム

Country Status (6)

Country Link
US (1) US20180246953A1 (ja)
EP (1) EP3346394A4 (ja)
JP (1) JP6618735B2 (ja)
KR (1) KR102640564B1 (ja)
CN (1) CN107949841B (ja)
WO (1) WO2017038657A1 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10902330B2 (en) * 2016-06-21 2021-01-26 International Business Machines Corporation Cognitive question answering pipeline calibrating
JP6767042B2 (ja) * 2016-09-26 2020-10-14 国立研究開発法人情報通信研究機構 シナリオパッセージ分類器、シナリオ分類器、及びそのためのコンピュータプログラム
US10699215B2 (en) * 2016-11-16 2020-06-30 International Business Machines Corporation Self-training of question answering system using question profiles
CN107193882B (zh) * 2017-04-27 2020-11-20 东南大学 RDF数据上基于图匹配的why-not查询回答方法
JP2019020893A (ja) 2017-07-13 2019-02-07 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答装置
JP6506360B2 (ja) * 2017-08-24 2019-04-24 三菱電機インフォメーションシステムズ株式会社 教師データを生成する方法、学習済みモデルを生成する方法、学習済みモデル、コンピュータおよびプログラム
MX2018011305A (es) * 2017-09-18 2019-07-04 Tata Consultancy Services Ltd Técnicas para corregir el desvío de entrenamiento lingüístico en los datos de entrenamiento.
JP7009911B2 (ja) * 2017-10-26 2022-01-26 富士通株式会社 回答出力プログラム、回答出力方法および情報処理装置
KR102100951B1 (ko) * 2017-11-16 2020-04-14 주식회사 마인즈랩 기계 독해를 위한 질의응답 데이터 생성 시스템
CN108170749B (zh) * 2017-12-21 2021-06-11 北京百度网讯科技有限公司 基于人工智能的对话方法、装置及计算机可读介质
JP2019133229A (ja) * 2018-01-29 2019-08-08 国立研究開発法人情報通信研究機構 質問応答システムの訓練データの作成方法及び質問応答システムの訓練方法
JP7052395B2 (ja) * 2018-02-13 2022-04-12 富士通株式会社 学習プログラム、学習方法および学習装置
JP7126843B2 (ja) * 2018-03-29 2022-08-29 エヌ・ティ・ティ・データ先端技術株式会社 学習対象抽出装置、学習対象抽出方法及び学習対象抽出プログラム
US11715042B1 (en) 2018-04-20 2023-08-01 Meta Platforms Technologies, Llc Interpretability of deep reinforcement learning models in assistant systems
US10978056B1 (en) * 2018-04-20 2021-04-13 Facebook, Inc. Grammaticality classification for natural language generation in assistant systems
US11307880B2 (en) 2018-04-20 2022-04-19 Meta Platforms, Inc. Assisting users with personalized and contextual communication content
US11676220B2 (en) 2018-04-20 2023-06-13 Meta Platforms, Inc. Processing multimodal user input for assistant systems
US10782986B2 (en) 2018-04-20 2020-09-22 Facebook, Inc. Assisting users with personalized and contextual communication content
US11886473B2 (en) 2018-04-20 2024-01-30 Meta Platforms, Inc. Intent identification for agent matching by assistant systems
US11508357B2 (en) * 2018-04-25 2022-11-22 Nippon Telegraph And Telephone Corporation Extended impersonated utterance set generation apparatus, dialogue apparatus, method thereof, and program
KR102329290B1 (ko) * 2018-05-31 2021-11-22 주식회사 마인즈랩 구조화된 학습 데이터의 전처리 방법 및 이를 이용한 인공 신경망 학습 방법
JP7087938B2 (ja) * 2018-06-07 2022-06-21 日本電信電話株式会社 質問生成装置、質問生成方法及びプログラム
WO2019235103A1 (ja) * 2018-06-07 2019-12-12 日本電信電話株式会社 質問生成装置、質問生成方法及びプログラム
WO2019244803A1 (ja) * 2018-06-18 2019-12-26 日本電信電話株式会社 回答学習装置、回答学習方法、回答生成装置、回答生成方法、及びプログラム
US10678822B2 (en) * 2018-06-29 2020-06-09 International Business Machines Corporation Query expansion using a graph of question and answer vocabulary
CN109376249B (zh) * 2018-09-07 2021-11-30 桂林电子科技大学 一种基于自适应负采样的知识图谱嵌入方法
CN113535915B (zh) 2018-09-28 2024-09-13 北京百度网讯科技有限公司 用于扩充数据集的方法
WO2020122290A1 (ko) * 2018-12-14 2020-06-18 (주)하니소프트 암호 해독 장치 및 방법, 이를 기록한 기록매체인공지능 기반의 공동주택 민원처리 장치 및 방법
US20220237637A1 (en) * 2018-12-18 2022-07-28 Meta Platforms, Inc. Systems and methods for real time crowdsourcing
WO2020144736A1 (ja) * 2019-01-08 2020-07-16 三菱電機株式会社 意味関係学習装置、意味関係学習方法、及び意味関係学習プログラム
JP2020123131A (ja) * 2019-01-30 2020-08-13 株式会社東芝 対話システム、対話方法、プログラム、及び記憶媒体
JP7018408B2 (ja) * 2019-02-20 2022-02-10 株式会社 日立産業制御ソリューションズ 画像検索装置および教師データ抽出方法
US11295077B2 (en) * 2019-04-08 2022-04-05 International Business Machines Corporation Stratification of token types for domain-adaptable question answering systems
US11270077B2 (en) * 2019-05-13 2022-03-08 International Business Machines Corporation Routing text classifications within a cross-domain conversational service
US11544461B2 (en) * 2019-05-14 2023-01-03 Intel Corporation Early exit for natural language processing models
KR102283779B1 (ko) * 2019-07-18 2021-07-29 건국대학교 산학협력단 질의 응답 방법 및 이를 수행하는 장치들
JP7290861B2 (ja) 2019-07-19 2023-06-14 国立研究開発法人情報通信研究機構 質問応答システムのための回答分類器及び表現ジェネレータ、並びに表現ジェネレータを訓練するためのコンピュータプログラム
US11531818B2 (en) * 2019-11-15 2022-12-20 42 Maru Inc. Device and method for machine reading comprehension question and answer
JP2021096711A (ja) 2019-12-18 2021-06-24 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
JP7106036B2 (ja) * 2020-04-30 2022-07-25 三菱電機株式会社 学習データ作成装置、方法、及びプログラム
CN111858883A (zh) * 2020-06-24 2020-10-30 北京百度网讯科技有限公司 三元组样本的生成方法、装置、电子设备及存储介质
KR102280489B1 (ko) 2020-11-19 2021-07-22 주식회사 두유비 대규모 사전학습 모델을 학습하여 지성을 기반으로 대화하는 대화 지능 획득 방법
CN113535911B (zh) * 2020-12-03 2024-04-12 腾讯科技(深圳)有限公司 奖励模型处理方法、电子设备、介质和计算机程序产品
CN112507706B (zh) * 2020-12-21 2023-01-31 北京百度网讯科技有限公司 知识预训练模型的训练方法、装置和电子设备
JPWO2022249946A1 (ja) * 2021-05-28 2022-12-01
CN113408299B (zh) * 2021-06-30 2022-03-25 北京百度网讯科技有限公司 语义表示模型的训练方法、装置、设备和存储介质
WO2023079703A1 (ja) * 2021-11-05 2023-05-11 楽天グループ株式会社 処理実行システム、処理実行方法、及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9063975B2 (en) * 2013-03-15 2015-06-23 International Business Machines Corporation Results of question and answer systems
US8543565B2 (en) * 2007-09-07 2013-09-24 At&T Intellectual Property Ii, L.P. System and method using a discriminative learning approach for question answering
US8560567B2 (en) * 2011-06-28 2013-10-15 Microsoft Corporation Automatic question and answer detection
JP5664978B2 (ja) * 2011-08-22 2015-02-04 日立コンシューマエレクトロニクス株式会社 学習支援システム及び学習支援方法
JP5825676B2 (ja) * 2012-02-23 2015-12-02 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
JP5924666B2 (ja) 2012-02-27 2016-05-25 国立研究開発法人情報通信研究機構 述語テンプレート収集装置、特定フレーズペア収集装置、及びそれらのためのコンピュータプログラム
CN103617159B (zh) * 2012-12-07 2016-10-12 万继华 将自然语言翻译成计算机语言的方法、语义分析器及人机对话系统
JP6150282B2 (ja) * 2013-06-27 2017-06-21 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
CN104572734B (zh) * 2013-10-23 2019-04-30 腾讯科技(深圳)有限公司 问题推荐方法、装置及系统
CN104834651B (zh) * 2014-02-12 2020-06-05 北京京东尚科信息技术有限公司 一种提供高频问题回答的方法和装置
CN104050256B (zh) * 2014-06-13 2017-05-24 西安蒜泥电子科技有限责任公司 基于主动学习的问答方法及采用该方法的问答系统

Also Published As

Publication number Publication date
WO2017038657A1 (ja) 2017-03-09
EP3346394A1 (en) 2018-07-11
EP3346394A4 (en) 2019-05-15
CN107949841B (zh) 2022-03-18
KR102640564B1 (ko) 2024-02-26
CN107949841A (zh) 2018-04-20
KR20180048624A (ko) 2018-05-10
JP2017049681A (ja) 2017-03-09
US20180246953A1 (en) 2018-08-30

Similar Documents

Publication Publication Date Title
JP6618735B2 (ja) 質問応答システムの訓練装置及びそのためのコンピュータプログラム
US11449556B2 (en) Responding to user queries by context-based intelligent agents
Gugnani et al. Implicit skills extraction using document embedding and its use in job recommendation
KR102256240B1 (ko) 논팩토이드형 질의 응답 시스템 및 방법
US9727637B2 (en) Retrieving text from a corpus of documents in an information handling system
JP5825676B2 (ja) ノン・ファクトイド型質問応答システム及びコンピュータプログラム
Kmail et al. An automatic online recruitment system based on exploiting multiple semantic resources and concept-relatedness measures
US11227183B1 (en) Section segmentation based information retrieval with entity expansion
Persing et al. Unsupervised argumentation mining in student essays
Khan et al. Using Machine Learning Techniques for Subjectivity Analysis based on Lexical and Nonlexical Features.
Aydın et al. Sentiment analysis in Turkish: Supervised, semi-supervised, and unsupervised techniques
Pate et al. Grammar induction from (lots of) words alone
Tahayna et al. Applying english idiomatic expressions to classify deep sentiments in covid-19 tweets.
Bakari et al. Logic-based approach for improving Arabic question answering
Saikh et al. COVIDRead: A large-scale question answering dataset on COVID-19
Fernandes et al. A machine learning approach to Portuguese clause identification
Nambiar et al. Abstractive summarization of Malayalam document using sequence to sequence model
US20220229990A1 (en) System and method for lookup source segmentation scoring in a natural language understanding (nlu) framework
Chun et al. Unsupervised event extraction from biomedical literature using co-occurrence information and basic patterns
Malandrakis et al. Affective language model adaptation via corpus selection
Serrano-Guerrero et al. Affective knowledge-enhanced emotion detection in Arabic language: a comparative study
Sodhar et al. Chapter-1 Natural Language Processing: Applications, Techniques and Challenges
Chitra et al. Genetic algorithm based feature selection for paraphrase recognition
Khosmood et al. Toward unification of source attribution processes and techniques
Dhivyashree et al. A Combined Model of NLP with Business Process Modelling for Sentiment Analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191113

R150 Certificate of patent or registration of utility model

Ref document number: 6618735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250