JP7099031B2 - 回答選択装置、モデル学習装置、回答選択方法、モデル学習方法、プログラム - Google Patents

回答選択装置、モデル学習装置、回答選択方法、モデル学習方法、プログラム Download PDF

Info

Publication number
JP7099031B2
JP7099031B2 JP2018086370A JP2018086370A JP7099031B2 JP 7099031 B2 JP7099031 B2 JP 7099031B2 JP 2018086370 A JP2018086370 A JP 2018086370A JP 2018086370 A JP2018086370 A JP 2018086370A JP 7099031 B2 JP7099031 B2 JP 7099031B2
Authority
JP
Japan
Prior art keywords
question
pair
response
answering
translation model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018086370A
Other languages
English (en)
Other versions
JP2019192073A (ja
Inventor
竜一郎 東中
雅博 水上
準二 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018086370A priority Critical patent/JP7099031B2/ja
Priority to US17/050,347 priority patent/US11941365B2/en
Priority to PCT/JP2019/015437 priority patent/WO2019208199A1/ja
Publication of JP2019192073A publication Critical patent/JP2019192073A/ja
Application granted granted Critical
Publication of JP7099031B2 publication Critical patent/JP7099031B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本発明は、本発明は入力された質問に対する回答を出力する回答選択装置、回答選択方法、回答選択装置に記録させる翻訳モデル用のモデル学習装置、モデル学習方法、およびこれらの装置としてコンピュータを機能させるためのプログラムに関する。
対話システム(音声エージェントやパーソナルロボット)が日常的に用いられるようになってきている。対話システムは大きく二種類に分けられる。一つはタスク指向型対話システム、もう一つは非タスク指向型対話システムである。前者は、対話によって所定のタスクを遂行するものであり、後者はいわゆる日常会話を主とするものである。これらの類型については非特許文献1に詳しく示されている。
近年は、スマートフォン上のパーソナルアシスタントやパーソナルロボットなどの普及に伴い、ユーザとのやり取りを継続して行う必要性が増している。そのため、対話システムにも、長期間一貫した応答、すなわち、個性を持ったような応答が求められるようになってきている。対話システムが個性的な応答を実現する方法はいくつも提案されてきている。最も基本的なものは、特定のキャラクタに紐づいた対話ルール、もしくは質問応答ペアを準備し、それを用いて応答を行うものである。非特許文献2,3のシステムでは、質問応答ペアを準備し、それらを用例として検索することで個性的な応答を実現している。
このような質問応答ペアを効率的に収集する手法として、非特許文献4に示すような「なりきり質問応答」と呼ばれる手法が提案されている。この手法では、多くのオンラインユーザが一人のキャラクタになりきって質問に対して応答する。大勢が一人になりきってデータを生成することで、あるキャラクタに紐づいた質問応答ペアを効率的に収集することができる。
中野幹生,駒谷和範,船越孝太郎,中野有紀子,奥村学(監修) ,"対話システム",コロナ社,2015. Shota Takeuchi, Tobias Cincarek, Hiromichi Kawanami, Hiroshi Saruwatari, and Kiyohiro Shikano, "Construction and optimization of a question and answer database for a real-environment speech-oriented guidance system", in Proc. Oriental COCOSDA, pages 149-154, 2007. Anton Leuski, Ronakkumar Patel, David Traum, and Brandon Kennedy, "Building effective question answering characters", in Proc. SIGDIAL, pages 18-27, 2009. Ryuichiro Higashinaka, Kohji Dohsaka, and Hideki Isozaki, "Using role play for collecting question-answer pairs for dialogue agents", in Proc. INTERSPEECH, pages 1097-1100, 2013.
なりきり質問応答によって得られる質問応答ペアの応答をそのまま用いて回答することは可能である。しかし、どの応答が適切なのかを評価することなく応答を選択してしまうため、オンラインユーザがたまたま不適切な応答を書き込んだような場合に、不適切な回答を出力してしまうことがあるという課題がある。
本発明は、このような課題に鑑みてなされたものであり、入力された質問に対して、従来よりもあらかじめ定めたキャラクタらしい回答を得ることを目的とする。
本発明の回答選択装置は、入力された質問である入力質問に対して、1つまたは複数の回答を出力する。本発明の回答選択装置は、記録部、文書検索部、スコア算出部、ランキング部を備える。記録部は、質問と応答のペアである質問応答ペア、質問から応答を求めるための学習済みの翻訳モデルを記録している。翻訳モデルは、応答のキャラクタらしさの程度を示す指標を対応付けた質問と応答のペアを用いて、指標が示す程度に従って学習されている。文書検索部は、入力質問を入力とし、あらかじめ定めた検索方式で、記録部に記録された質問応答ペアから質問応答ペアを検索し、検索結果質問応答ペアとして出力する。スコア算出部は、入力質問および検索結果質問応答ペアの応答を入力とし、翻訳モデルを用いて入力質問から応答が得られる確率に基づく数値である翻訳尤度を求め、翻訳尤度に基づいて検索結果質問応答ペアごとの入力質問に対するスコアを算出する。ランキング部は、スコアがより適切であることを示す順番に、あらかじめ定めた数の検索結果質問応答ペアを選択し、選択された検索結果質問応答ペアの応答を、回答として出力する。
本発明のモデル学習装置は、質問から応答を求めるための学習済みの翻訳モデル、応答から質問を求めるための学習済み逆翻訳モデルの少なくとも一方を生成する。本発明のモデル学習装置は、記録部、質問応答ペア拡張部、翻訳モデル学習部を備える。記録部は、質問と応答のペアである質問応答ペア、拡張質問応答ペア、質問から応答を求めるための翻訳モデルまたは応答から質問を求めるための逆翻訳モデルを記録する。質問応答ペアは、質問応答ペアごとにあらかじめ定めたキャラクタに対する応答のキャラクタらしさの程度を示す指標が対応付けられている。質問応答ペア拡張部は、よりキャラクタらしいことを示す指標が対応付けられている質問応答ペアほど個数を多く増やすことで拡張質問応答ペアを生成する。翻訳モデル学習部は、拡張質問応答ペアを用いて翻訳モデル、逆翻訳モデルの少なくとも一方の学習を行う。
本発明の回答選択装置によれば、スコア算出部が用いる翻訳モデルは、応答のキャラクタらしさの程度を示す指標を対応付けた質問と応答のペアを用いて、指標が示す程度に従って学習されている。よって、質問応答ペアの応答がキャラクタらしいかを評価できる。したがって、従来よりもあらかじめ定めたキャラクタらしい回答を得ることができる。
本発明のモデル学習装置によれば、質問応答ペア拡張部が、よりキャラクタらしいことを示す指標が対応付けられている質問応答ペアほど個数を多く増やした拡張質問応答ペアを生成し、翻訳モデル学習部が、拡張質問応答ペアを用いて翻訳モデルまたは逆翻訳モデルの学習を行う。よって、よりキャラクタらしい応答を持つ質問応答ペアほど翻訳尤度または逆翻訳尤度が高くなるように学習できる。したがって、本発明のモデル学習装置で生成した翻訳モデル、逆翻訳モデルを用いれば、回答選択装置は従来よりもあらかじめ定めたキャラクタらしい回答を得ることができる。
本発明の回答選択装置の機能構成例を示す図。 本発明の回答選択装置の処理フロー例を示す図。 本発明のモデル学習装置に機能構成例を示す図。 本発明のモデル学習装置の処理フロー例を示す図。
以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
<回答選択装置>
図1に本発明の回答選択装置の機能構成例を示す。図2に本発明の回答選択装置の処理フロー例を示す。本発明の回答選択装置100は、入力された質問である入力質問に対して、あらかじめ定めたキャラクタらしい1つまたは複数の回答を出力する。例えば、M個の回答を出力するようにあらかじめ定めておけばよい。Mは1以上の整数である。例えばM=5のように定めてもよいし、チャットボットのように回答を1つだけにしたい場合はM=1とすればよい。回答選択装置100は、記録部190、文書検索部110、スコア算出部160、ランキング部170を備える。
記録部190は、質問と応答のペアである質問応答ペアの集合210、質問から応答を求めるための学習済みの翻訳モデル261を記録している。記録部190は、さらに応答から質問を求めるための学習済みの逆翻訳モデル262を記録してもよい。「質問から応答を求めるための学習済みの翻訳モデル」とは質問に対して応答が生成される確率を示すモデル、「応答から質問を求めるための学習済みの逆翻訳モデル」とは応答が生成されたときにある質問がされた確率を示すモデルを意味している。翻訳モデル261と逆翻訳モデル262は、応答のキャラクタらしさの程度を示す指標を対応付けた質問と応答のペアを用いて、指標が示す程度に従って学習されている。「指標が示す程度に従って学習」とは、応答がキャラクタらしいほど生成される確率が高くなるように学習されることを意味している。例えば、後述するモデル学習装置200を用いて学習すればよい。
質問応答ペアの集合210は、なりきり質問応答の仕組みを用いて多数の質問応答ペアを収集することで構築すればよい。質問応答ペアの数は想定される質問の種類などに応じて適宜決めればよい。例えば、実在する人物Aを対象としてキャラクタらしい応答の質問応答ペアを、1万程度収集すればよい。質問応答ペアの例としては,質問:「こんにちは」,応答:「どうもです」のペア、質問:「何歳ですか」,応答「30歳です」のペアなどであり、あらかじめ定めたキャラクタを想定して作成したものである。
文書検索部110は、入力質問を入力とし、あらかじめ定めた検索方式で、記録部190に記録された質問応答ペアから質問応答ペアを検索し、検索結果質問応答ペアとして出力する(S110)。例えば、あらかじめ最大でN個の質問応答ペアを検索結果質問応答ペアとするように決めておけばよい。NはM以上の整数であり、例えば10のように定めればよい。なお、Nは2以上が望ましいが、1以上でも構わない。文書検索部110には、一般的に用いられている文書検索エンジンを用いればよい(参考文献1:Hatena Blog, 2014年11月12日,“確率的情報検索 Okapi BM25 についてまとめた” ,[平成30年4月10日検索]、インターネット<http://sonickun.hatenablog.com/entry/2014/11/12/122806>.)。具体的には、入力質問から形態素解析によって内容語(名詞、動詞、形容詞など)を抽出し、重要な内容語がより多くマッチする質問を持つ質問応答ペアを検索し、出力すればよい。また、文書検索部110が、重要な内容語がマッチした程度を示す数値も出力し、この数値をスコア算出部160に入力してもよい。
記録部190は、さらに、質問応答ペアごとに応答のキャラクタらしさの程度を示す指標を対応付けて記録してもよい。この場合は、文書検索部110は、この指標も用いて、記録部190に記録された質問応答ペアから質問応答ペアを検索すればよい。
前記キャラクタらしさの程度を示す指標としては、例えば、キャラクタ本人以外の人によって評価された第1指標(その回答の良さを表す数値)、キャラクタ本人が回答した応答であることを示す第2指標(その回答がキャラクタ本人によってなされたことを示すラベル)、キャラクタ本人がキャラクタらしいと認定したことを示す第3指標(その回答がキャラクタ本人によって認定されたことを示すラベル)などがある。以下では、キャラクタ本人を人物Aとする。
第1指標(その回答の良さを表す数値)は、例えば、質問応答ペアをオンラインユーザに見てもらい、その回答が人物Aらしいと思ったら、ボタンを押すことで1ずつ増えていく仕組みを用いて取得すればよい。ある回答について10回そのボタンが押されたのであれば、第1指標(その回答の良さを表す数値)は10となる。例えば、この数値のことを「ポイね」と呼ぶことにする。加えて、なりきり質問応答で質問応答を収集している過程には、人物Aにも参加してもらってもよい。人物Aが回答を書き込んだ場合、その回答には、人物Aの書き込みであることがラベル付けされるようにすれば第2指標となる。これは、その回答がキャラクタ本人によってなされたことを示すラベルであり、このラベルのことを本人ラベルと呼ぶことにする。最後に、人物Aに収集された質問応答ペアを見てもらい、これはよいと認定した回答を選定してもらってもよい。そのような回答にはキャラクタ本人によって認定されたことを示すラベル(第3指標)が付与される。このラベルのことを認定ラベルと呼ぶことにする。このように質問応答ペアには、3種類の付加情報である第1指標(ポイね),第2指標(本人ラベル),第3指標(認定ラベル)を対応付けることができる。なお、回答の良さを表す数値である第1指標(ポイね)、本人によってならされたことを示すラベルである第2指標(本人ラベル)、本人によって認定されたことを示すラベルである第3指標(認定ラベル)は排反である必要はない。例えば、本人が回答の良さを表す数値を入力すると、本人によって認定されたことになるようにしてもよい。
文書検索部110が、3種類の付加情報である第1指標(ポイね),第2指標(本人ラベル),第3指標(認定ラベル)を用いれば、より適切な検索結果質問応答ペアを検索できる。例えば、第1指標(ポイね)が閾値以上のものだけを対象に検索する,本人ラベルが付与されているもののみを対象に検索する,認定ラベルが付与されているもののみを対象に検索するといった検索が可能になる。これにより、より人物Aらしい応答を持つ質問応答ペアを得ることが可能である。一方、検索の範囲を限定すると検索対象の質問応答ペアの数が少なくなるので、検索対象となる質問応答ペアの数などを考慮しながら、適宜検索の範囲を限定すればよい。
スコア算出部160は、入力質問および検索結果質問応答ペアの応答を入力とし、少なくとも翻訳モデルを用いて入力質問から応答が得られる確率に基づく数値である翻訳尤度を求め、翻訳尤度に基づいて検索結果質問応答ペアごとの入力質問に対するスコアを算出する(S160)。スコア算出部160は、さらに、逆翻訳モデルを用いて応答から入力質問が得られる確率に基づく数値である逆翻訳尤度を求め、翻訳尤度と逆翻訳尤度に基づいて検索結果質問応答ペアごとの入力質問に対するスコアを算出してもよい。
翻訳モデルとは、入力文を書き換えて別の文章に翻訳するための統計情報である。例えば、どの単語がどの単語に書き換わりやすいといった情報を保持する。これは、機械翻訳において一般的に用いられるものである。近年では、この翻訳モデルをニューラルネットワークで表現することが多く、大量の文ペアから学習した翻訳モデル(seq2seq モデル、もしくはencoder-decoder モデルとも呼ばれる)を用いて、質問を回答に書き換える研究が盛んである(参考文献2:Oriol Vinyals and Quoc Le, “A neural conversational model”, arXiv preprint arXiv:1506.05869, 2015.)。翻訳モデルは、入力文を書き換えるだけでなく、入力文に対する出力文の生成確率を計算することができる。生成確率は、入力文に対する出力文の妥当性を表している。この確率値は非常に小さい値になるため、具体的には対数尤度の値を用いればよい。また、対数尤度は単語数に依存して小さくなることから、対数尤度を単語数で割って正規化すればよい。この対数尤度を正規化した値のことを、翻訳尤度(翻訳スコア)と呼ぶことにする。翻訳モデルは、質問文と回答文のペアを大量に準備してモデルを学習することで構築すればよい。例えば、実際的な翻訳サービスの実現に用いられている翻訳モデル構築ツールを用いればよい。
翻訳モデルの構築には大量の文ペアが必要である。質問応答ペアが少ない場合(例えば、1万程度の場合)、妥当な翻訳モデルを構築できない可能性がある。この場合は、まずキャラクタを特に念頭に置かずに量を重視して作成した50万程度の質問応答ペアを用いて、初期翻訳モデルを学習する。その後、その初期翻訳モデルをベースとして、あらかじめ定めたキャラクタを想定して作成した質問応答ペアに適応させることで、キャラクタに関する翻訳モデルを構築すればよい。
また、翻訳モデルを学習する際に、入力文と出力文を入れ替えて学習することで、出力文から入力文を生成する翻訳モデルも構築することができる。そこで、同様の手続きを用いて入力文と出力文を入れ替えて翻訳モデル(「逆翻訳モデル」と呼ぶことにする。)を構築すればよい。この逆翻訳モデルから得られる確率は、回答文から見て質問文がどの程度妥当かを表す値である。ここでも、対数尤度を単語数で割った値を求めればよい。この値を逆翻訳尤度(翻訳スコア(逆方向))と呼ぶことにする。
スコア算出部160は、例えば、検索結果質問応答ペアを、それぞれ翻訳尤度によって値が大きいもの順にソートし、それぞれの順位rを得る。そして、スコア算出部160は、翻訳尤度に基づく数値translation_scoreを、
1.0-(r-1)/max_rank (1)
ただし、max_rankは検索結果質問応答ペアの数
のように求めることで、0~1の間の値を求めてもよい。max_rankは文書検索部110が検索し得る最大の数Nとしてもよい。例えば、max_rank=10でr=5の場合、翻訳尤度に基づく数値translation_scoreは、0.6となる。スコア算出部160は、同様に逆翻訳尤度に基づく数値rev_translation_scoreついても、逆翻訳尤度が大きいもの順にソートし、式(1)を適用することで求めればよい。そして、入力質問Q、検索結果質問応答ペアの質問Q’、応答A’とするときに、スコアscore(Q,(Q’,A’))を例えば以下のように求めればよい。
score(Q,(Q’,A’))
=w・translation_score
+w・rev_translation_score (2)
ただし、wは、どちらの数値を重視するかを決める重みである。どちらも1.0としてもよいし、翻訳モデルと逆翻訳モデルの特性を考慮してチューニングしてもよい。スコアscore(Q,(Q’,A’))がスコア算出部160の出力となる。
ランキング部170は、スコアがより適切であることを示す順番に、あらかじめ定めた数の検索結果質問応答ペアを選択し、選択された検索結果質問応答ペアの応答を、回答として出力する(S170)。上述の例では、スコアの値が大きいほど、より適切であることを示すので、ランキング部170はスコアの値が大きい順番にM個の検索結果質問応答ペアを選択し、選択された検索結果質問応答ペアの応答を、回答として出力すればよい。なお、M=5であれば5個の回答が出力される。チャットボットのように回答を1つだけにしたい場合はM=1に設定しておけばよい。
本発明の回答選択装置によれば、スコア算出部が用いる翻訳モデルは、応答のキャラクタらしさの程度を示す指標を対応付けた質問と応答のペアを用いて、指標が示す程度に従って学習されている。よって、質問応答ペアの応答がキャラクタらしいかを評価できる。したがって、従来よりもあらかじめ定めたキャラクタらしい回答を得ることができる。さらに、スコア算出部が逆翻訳モデルも用いれば、よりキャラクタらしい回答を得ることができる。
<モデル学習装置>
図3に本発明のモデル学習装置に機能構成例を示す。図4に本発明のモデル学習装置の処理フロー例を示す。本発明のモデル学習装置200は、質問から応答を求めるための学習済みの翻訳モデル、応答から質問を求めるための学習済み逆翻訳モデルの少なくとも一方を生成する。モデル学習装置200は、記録部290、質問応答ペア拡張部220、翻訳モデル学習部240を備える。
記録部290は、質問と応答のペアである質問応答ペアの集合210、拡張質問応答ペアの集合230、質問から応答を求めるための翻訳モデル261または応答から質問を求めるための逆翻訳モデル262を記録する。質問応答ペアの集合210は、質問応答ペアごとにあらかじめ定めたキャラクタに対する応答のキャラクタらしさの程度を示す指標が対応付けられている。
質問応答ペア拡張部220は、よりキャラクタらしいことを示す指標が対応付けられている質問応答ペアほど個数を多く増やすことで拡張質問応答ペアを生成する(S220)。例えば、質問応答ペア拡張部220は、入力として質問応答ペアと3種類の付加情報である第1指標(ポイね),第2指標(本人ラベル),第3指標(認定ラベル)を用いて、質問応答ペアを拡張する。具体的には、(a)第1指標(ポイね)が付与されている質問応答ペアの個数をx倍に増やす,(b)第2指標(本人ラベル)が付与されている質問応答ペアの個数をy倍に増やす,(c)第3指標(認定ラベル)が付与されている質問応答ペアの個数をz倍に増やすという処理によって、質問応答ペアを拡張すればよい。3種類の付加情報が重複していた場合は、優先ルールを用いて拡張すればよい。具体的には、(b)>(c)>(a)の順番で拡張を試行し、拡張が実行されれば他の処理による再度の拡張はしないようにすればよい。これは、第2指標(本人ラベル)を重視した拡張の仕方であるが、他の優先ルールを用いてもよい。例えば、(a)を重視するようにしてもよい。また、xは第1指標(ポイね)の数に依存して決めてもよい。具体的には、x=第1指標(ポイね)の数×c,ここでcは定数であり設計者が適宜決定すればよい。たとえば、1.0である。これは、純粋に第1指標(ポイね)の数だけ質問応答ペアを拡張することを意味する。y,zについても設計者が適宜決定すればよい。例えば、yは10、zは5のように決めればよい。質問応答ペア拡張部220は、上述の処理により拡張された質問応答ペアを、拡張質問応答ペアの集合230の要素として記録部290に記録する。
上述の個数を増やすとは,<Q:「元気ですか」,A:「元気ですよ!」>が一つの質問応答ペアとするとき、単純に同じ質問応答ペアを追加することを意味する。例えば、この質問応答ペアの個数を2倍にするとは、<Q:「元気ですか」,A:「元気ですよ!」>をもう1つ追加することである。このように個数を増やすことにより、学習の処理でこの質問応答ペアに含まれる単語等の統計量が増加し、ランキングの上位になりやすくなる。
翻訳モデル学習部240は、拡張質問応答ペアを用いて翻訳モデル261、逆翻訳モデル262の少なくとも一方の学習を行う(S240)。もちろん、翻訳モデル261と逆翻訳モデル262の両方の学習を行ってもよい。具体的には、回答選択装置100の説明で示したとおり、翻訳モデルは、質問文と回答文のペアを大量に準備してモデルを学習することで構築すればよい。例えば、実際的な翻訳サービスの実現に用いられている翻訳モデル構築ツールを用いればよい。また、質問応答ペアが少ない場合(例えば、1万程度の場合)、妥当な翻訳モデルを構築できない可能性がある。この場合は、まずキャラクタを特に念頭に置かずに量を重視して作成した50万程度の質問応答ペアを用いて、初期翻訳モデルを学習する。その後、その初期翻訳モデルをベースとして、あらかじめ定めたキャラクタを想定して作成した質問応答ペアに適応させることで、キャラクタに関する翻訳モデルを構築すればよい。さらに、同様の手続きを用いて入力文と出力文を入れ替えて逆翻訳モデルを構築すればよい。
本発明のモデル学習装置によれば、質問応答ペア拡張部が、よりキャラクタらしいことを示す指標が対応付けられている質問応答ペアほど個数を多く増やした拡張質問応答ペアを生成し、翻訳モデル学習部が、拡張質問応答ペアを用いて翻訳モデルまたは逆翻訳モデルの学習を行う。よって、よりキャラクタらしい応答を持つ質問応答ペアほど翻訳尤度または逆翻訳尤度が高くなるように学習できる。したがって、本発明のモデル学習装置で生成した翻訳モデル、逆翻訳モデルを用いれば、回答選択装置は従来よりもあらかじめ定めたキャラクタらしい回答を得ることができる。
[プログラム、記録媒体]
上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
また、上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
100 回答選択装置 110 文書検索部
160 スコア算出部 170 ランキング部
190,290 記録部 200 モデル学習装置
210 質問応答ペアの集合 220 質問応答ペア拡張部
230 拡張質問応答ペアの集合 240 翻訳モデル学習部
261 翻訳モデル 262 逆翻訳モデル

Claims (10)

  1. 入力された質問である入力質問に対して、1つまたは複数の回答を出力する回答選択装置であって、
    質問と応答のペアである質問応答ペア、質問から応答を求めるための学習済みの翻訳モデルを記録した記録部と、
    前記入力質問を入力とし、あらかじめ定めた検索方式で、前記記録部に記録された質問応答ペアから質問応答ペアを検索し、検索結果質問応答ペアとして出力する文書検索部と、
    前記入力質問および前記検索結果質問応答ペアの応答を入力とし、前記翻訳モデルを用いて前記入力質問から前記応答が得られる確率に基づく数値である翻訳尤度を求め、前記翻訳尤度に基づいて前記検索結果質問応答ペアごとの前記入力質問に対するスコアを算出するスコア算出部と、
    前記スコアがより適切であることを示す順番に、あらかじめ定めた数の前記検索結果質問応答ペアを選択し、選択された検索結果質問応答ペアの応答を、回答として出力するランキング部と
    を備え、
    前記翻訳モデルは、応答のキャラクタらしさの程度を示す指標を対応付けた質問と応答のペアを用いて、前記指標が示す程度に従って学習された
    ことを特徴とする回答選択装置。
  2. 請求項1記載の回答選択装置であって、
    前記記録部は、応答から質問を求めるための学習済みの逆翻訳モデルも記録しており、
    前記スコア算出部は、前記逆翻訳モデルを用いて前記応答から前記入力質問が得られる確率に基づく数値である逆翻訳尤度も求め、前記翻訳尤度と前記逆翻訳尤度に基づいて前記検索結果質問応答ペアごとの前記入力質問に対するスコアを算出し、
    前記逆翻訳モデルも、応答の前記キャラクタらしさの程度を示す指標を対応付けた質問と応答のペアを用いて、前記指標が示す程度に従って学習された
    ことを特徴とする回答選択装置。
  3. 請求項1または2記載の回答選択装置であって、
    前記記録部は、前記質問応答ペアごとに応答の前記キャラクタらしさの程度を示す指標を対応付けて記録しており、
    前記文書検索部は、前記指標も用いて、前記記録部に記録された質問応答ペアから質問応答ペアを検索する
    ことを特徴とする回答選択装置。
  4. 入力された質問である入力質問に対して、1つまたは複数の回答を出力する回答選択装置であって、
    質問と応答のペアである質問応答ペア、質問から応答を求めるための学習済みの翻訳モデルを記録した記録部と、
    前記入力質問を入力とし、あらかじめ定めた検索方式で、前記記録部に記録された質問応答ペアから質問応答ペアを検索し、検索結果質問応答ペアとして出力する文書検索部と、
    前記検索結果質問応答ペアごとに、前記翻訳モデルに基づいて前記入力質問に対する前記検索結果質問応答ペアの応答の妥当性を表すスコアを算出するスコア算出部と、
    前記スコアがより適切であることを示す順番に基づいて、前記検索結果質問応答ペアの応答を、回答として出力するランキング部と
    を備え、
    前記翻訳モデルは、応答のキャラクタらしさの程度を示す指標を対応付けた質問と応答のペアを用いて、前記指標が示す程度に従って学習された
    ことを特徴とする回答選択装置。
  5. 質問から応答を求めるための学習済みの翻訳モデル、応答から質問を求めるための学習済み逆翻訳モデルの少なくとも一方を生成するためのモデル学習装置であって、
    質問と応答のペアである質問応答ペア、拡張質問応答ペア、質問から応答を求めるための翻訳モデルまたは応答から質問を求めるための逆翻訳モデルを記録した記録部と、
    前記質問応答ペアから前記拡張質問応答ペアを生成する質問応答ペア拡張部と、
    前記拡張質問応答ペアを用いて前記翻訳モデルと前記逆翻訳モデルの少なくとも一方の学習を行う翻訳モデル学習部と
    を備え、
    前記質問応答ペアは、前記質問応答ペアごとに応答のあらかじめ定めたキャラクタに対するキャラクタらしさの程度を示す指標が対応付けられており、
    前記質問応答ペア拡張部は、よりキャラクタらしいことを示す前記指標が対応付けられている質問応答ペアほど、当該質問応答ペアの個数を多く増やすことで前記拡張質問応答ペアを生成する
    ことを特徴とするモデル学習装置。
  6. 前記キャラクタらしさの程度を示す指標は、前記キャラクタ本人以外の人によって評価された第1指標、前記キャラクタ本人が回答した応答であることを示す第2指標、前記キャラクタ本人が前記キャラクタらしいと認定したことを示す第3指標を含む
    ことを特徴とする請求項1~のいずれかに記載の回答選択装置、または請求項記載のモデル学習装置。
  7. 記録部、文書検索部、スコア算出部、ランキング部を備える回答選択装置を用いて、入力された質問である入力質問に対して、1つまたは複数の回答を出力する回答選択方法であって、
    あらかじめ前記記録部に、質問と応答のペアである質問応答ペア、質問から応答を求めるための学習済みの翻訳モデルを記録しておき、
    前記文書検索部が、前記入力質問を入力とし、あらかじめ定めた検索方式で、前記記録部に記録された質問応答ペアから質問応答ペアを検索し、検索結果質問応答ペアとして出力する文書検索ステップと、
    前記スコア算出部が、前記入力質問および前記検索結果質問応答ペアの応答を入力とし、前記翻訳モデルを用いて前記入力質問から前記応答が得られる確率に基づく数値である翻訳尤度を求め、前記翻訳尤度に基づいて前記検索結果質問応答ペアごとの前記入力質問に対するスコアを算出するスコア算出ステップと、
    前記ランキング部が、前記スコアがより適切であることを示す順番に、あらかじめ定めた数の前記検索結果質問応答ペアを選択し、選択された検索結果質問応答ペアの応答を、回答として出力するランキングステップと
    を有し、
    前記翻訳モデルは、応答のキャラクタらしさの程度を示す指標を対応付けた質問と応答のペアを用いて、前記指標が示す程度に従って学習された
    ことを特徴とする回答選択方法。
  8. 記録部、文書検索部、スコア算出部、ランキング部を備える回答選択装置を用いて、入力された質問である入力質問に対して、1つまたは複数の回答を出力する回答選択方法であって、
    あらかじめ前記記録部に、質問と応答のペアである質問応答ペア、質問から応答を求めるための学習済みの翻訳モデルを記録しておき、
    前記文書検索部が、前記入力質問を入力とし、あらかじめ定めた検索方式で、前記記録部に記録された質問応答ペアから質問応答ペアを検索し、検索結果質問応答ペアとして出力する文書検索ステップと、
    前記スコア算出部が、前記検索結果質問応答ペアごとに、前記翻訳モデルに基づいて前記入力質問に対する前記検索結果質問応答ペアの応答の妥当性を表すスコアを算出するスコア算出ステップと、
    前記ランキング部が、前記スコアがより適切であることを示す順番に基づいて、前記検索結果質問応答ペアの応答を、回答として出力するランキングステップと
    を有し、
    前記翻訳モデルは、応答のキャラクタらしさの程度を示す指標を対応付けた質問と応答のペアを用いて、前記指標が示す程度に従って学習された
    ことを特徴とする回答選択方法。
  9. 記録部、質問応答ペア拡張部、翻訳モデル学習部を備えるモデル学習装置を用いて、質問から応答を求めるための学習済みの翻訳モデルと応答から質問を求めるための学習済み逆翻訳モデルの少なくとも一方を生成するためのモデル学習方法であって、
    あらかじめ前記記録部に、質問と応答のペアである質問応答ペア、質問から応答を求めるための翻訳モデルまたは応答から質問を求めるための逆翻訳モデルを記録しておき、
    前記質問応答ペア拡張部が、前記質問応答ペアから拡張質問応答ペアを生成する質問応答ペア拡張ステップと、
    前記翻訳モデル学習部が、前記拡張質問応答ペアを用いて前記翻訳モデルと前記逆翻訳モデルの少なくとも一方の学習を行う翻訳モデル学習ステップと
    を有し、
    前記質問応答ペアは、前記質問応答ペアごとに応答のあらかじめ定めたキャラクタに対するキャラクタらしさの程度を示す指標が対応付けられており、
    前記質問応答ペア拡張ステップは、よりキャラクタらしいことを示す前記指標が対応付けられている質問応答ペアほど、当該質問応答ペアの個数を多く増やすことで前記拡張質問応答ペアを生成する
    ことを特徴とするモデル学習方法。
  10. 請求項1~のいずれかに記載の回答選択装置、請求項または記載のモデル学習装置のいずれかの装置としてコンピュータを機能させるためのプログラム。
JP2018086370A 2018-04-27 2018-04-27 回答選択装置、モデル学習装置、回答選択方法、モデル学習方法、プログラム Active JP7099031B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018086370A JP7099031B2 (ja) 2018-04-27 2018-04-27 回答選択装置、モデル学習装置、回答選択方法、モデル学習方法、プログラム
US17/050,347 US11941365B2 (en) 2018-04-27 2019-04-09 Response selecting apparatus, model learning apparatus, response selecting method, model learning method, and program
PCT/JP2019/015437 WO2019208199A1 (ja) 2018-04-27 2019-04-09 回答選択装置、モデル学習装置、回答選択方法、モデル学習方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018086370A JP7099031B2 (ja) 2018-04-27 2018-04-27 回答選択装置、モデル学習装置、回答選択方法、モデル学習方法、プログラム

Publications (2)

Publication Number Publication Date
JP2019192073A JP2019192073A (ja) 2019-10-31
JP7099031B2 true JP7099031B2 (ja) 2022-07-12

Family

ID=68293632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018086370A Active JP7099031B2 (ja) 2018-04-27 2018-04-27 回答選択装置、モデル学習装置、回答選択方法、モデル学習方法、プログラム

Country Status (3)

Country Link
US (1) US11941365B2 (ja)
JP (1) JP7099031B2 (ja)
WO (1) WO2019208199A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111694939B (zh) * 2020-04-28 2023-09-19 平安科技(深圳)有限公司 智能调用机器人的方法、装置、设备及存储介质
JP7101357B2 (ja) * 2020-08-14 2022-07-15 株式会社オルツ アンケート調査のためのシステム、プログラム、および方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015109068A (ja) 2013-12-05 2015-06-11 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 回答候補間の関係を識別および表示する機構、方法、コンピュータ・プログラム、ならびに装置
US20170323011A1 (en) 2014-11-12 2017-11-09 International Business Machines Corporation Answering Questions Via a Persona-Based Natural Language Processing (NLP) System
WO2017191696A1 (ja) 2016-05-06 2017-11-09 ソニー株式会社 情報処理システム、および情報処理方法
JP2018055548A (ja) 2016-09-30 2018-04-05 株式会社Nextremer 対話装置、学習装置、対話方法、学習方法、およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8738623B2 (en) * 2010-05-21 2014-05-27 Benjamin Henry Woodard Global reverse lookup public opinion directory
US8688667B1 (en) * 2011-02-08 2014-04-01 Google Inc. Providing intent sensitive search results
KR101341816B1 (ko) * 2012-04-23 2013-12-16 (주)이스트소프트 유사검색어 추출 시스템 및 방법
US9336269B1 (en) * 2013-03-14 2016-05-10 Google Inc. Determining question and answer alternatives
US11182433B1 (en) * 2014-07-25 2021-11-23 Searchable AI Corp Neural network-based semantic information retrieval
US20160335261A1 (en) * 2015-05-11 2016-11-17 Microsoft Technology Licensing, Llc Ranking for efficient factual question answering
US10360265B1 (en) * 2016-08-29 2019-07-23 A9.Com, Inc. Using a voice communications device to answer unstructured questions
US11055354B2 (en) * 2017-11-03 2021-07-06 Salesforce.Com, Inc. Omni-platform question answering system
US20230205795A1 (en) * 2021-12-23 2023-06-29 Capital One Services, Llc Sequence prediction for data retrieval

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015109068A (ja) 2013-12-05 2015-06-11 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 回答候補間の関係を識別および表示する機構、方法、コンピュータ・プログラム、ならびに装置
US20170323011A1 (en) 2014-11-12 2017-11-09 International Business Machines Corporation Answering Questions Via a Persona-Based Natural Language Processing (NLP) System
WO2017191696A1 (ja) 2016-05-06 2017-11-09 ソニー株式会社 情報処理システム、および情報処理方法
JP2018055548A (ja) 2016-09-30 2018-04-05 株式会社Nextremer 対話装置、学習装置、対話方法、学習方法、およびプログラム

Also Published As

Publication number Publication date
JP2019192073A (ja) 2019-10-31
US11941365B2 (en) 2024-03-26
WO2019208199A1 (ja) 2019-10-31
US20210089723A1 (en) 2021-03-25

Similar Documents

Publication Publication Date Title
Kiseleva et al. Predicting user satisfaction with intelligent assistants
Maroengsit et al. A survey on evaluation methods for chatbots
Kiseleva et al. Understanding user satisfaction with intelligent assistants
KR102137809B1 (ko) 자동 답변 제공 방법
US12001465B2 (en) Response selecting apparatus, response selecting method, and response selecting program
US11468238B2 (en) Data processing systems and methods
JP2006502480A (ja) 関連する単語のクラスタに基づいて、文書を特徴付けるための方法および装置
Fu et al. Facilitating exploratory search by model-based navigational cues
US11455357B2 (en) Data processing systems and methods
Liu et al. Predicting information searchers' topic knowledge at different search stages
Dethlefs et al. Cluster-based prediction of user ratings for stylistic surface realisation
Lamontagne et al. Textual reuse for email response
JP7099031B2 (ja) 回答選択装置、モデル学習装置、回答選択方法、モデル学習方法、プログラム
Verberne et al. Creating a reference data set for the summarization of discussion forum threads
Wang et al. An in-depth investigation of user response simulation for conversational search
Munton Answering machines: How to (epistemically) evaluate a search engine
KR20200124836A (ko) 콘텐츠 분석 기반의 인공지능 책쓰기 가이딩 시스템
Arguello et al. Using query performance predictors to improve spoken queries
JP7256357B2 (ja) 情報処理装置、制御方法、プログラム
JP6426074B2 (ja) 関連文書検索装置、モデル作成装置、これらの方法及びプログラム
TWI818695B (zh) 用於反事實對話模擬之電腦實施方法、電腦程式產品及電腦系統
US11880664B2 (en) Identifying and transforming text difficult to understand by user
Prates et al. Using educational resources to improve the efficiency of Web searches for additional learning material
Inaba et al. Statistical response method and learning data acquisition using gamified crowdsourcing for a non-task-oriented dialogue agent
Hofmann et al. Integrating contextual factors into topic-centric retrieval models for finding similar experts

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220613

R150 Certificate of patent or registration of utility model

Ref document number: 7099031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150