JP2018180937A - クラスタリング装置、回答候補生成装置、方法、及びプログラム - Google Patents

クラスタリング装置、回答候補生成装置、方法、及びプログラム Download PDF

Info

Publication number
JP2018180937A
JP2018180937A JP2017079659A JP2017079659A JP2018180937A JP 2018180937 A JP2018180937 A JP 2018180937A JP 2017079659 A JP2017079659 A JP 2017079659A JP 2017079659 A JP2017079659 A JP 2017079659A JP 2018180937 A JP2018180937 A JP 2018180937A
Authority
JP
Japan
Prior art keywords
score
word
answer
candidate
word candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017079659A
Other languages
English (en)
Other versions
JP6709748B2 (ja
Inventor
淳史 大塚
Atsushi Otsuka
淳史 大塚
太一 片山
Taichi Katayama
太一 片山
弘晃 杉山
Hiroaki Sugiyama
弘晃 杉山
東中 竜一郎
Ryuichiro Higashinaka
竜一郎 東中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017079659A priority Critical patent/JP6709748B2/ja
Publication of JP2018180937A publication Critical patent/JP2018180937A/ja
Application granted granted Critical
Publication of JP6709748B2 publication Critical patent/JP6709748B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】質問文に対する適切かつ多様な回答候補を得ることができる。【解決手段】文パターン生成部30が、文パターンを生成し、拡張単語候補生成部32が、質問文に対する回答単語の各々と質問文に含まれる単語の各々とに類似する単語の各々を、概念ベクトルのスコアに基づいて求めて、拡張回答単語候補とし、拡張回答単語候補リランキング部34が、言語モデルのスコア、及び概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求め、クラスタリング部36が、上位N個の拡張回答単語候補と、質問文に対する回答単語とを含む単語集合に対して、概念ベクトルに基づいてクラスタリングを行い、予め定められた条件を満たすまで拡張単語候補生成、拡張単語候補リランキング、及びクラスタリングの処理を繰り返す。【選択図】図1

Description

本発明は、クラスタリング装置、回答候補生成装置、方法、及びプログラムに係り、特に、対話システムで使用する回答候補を生成するためのクラスタリング装置、回答候補生成装置、方法、及びプログラムに関する。
一般的に、ロボット等の対話システムと話をする際、ユーザから発話を行い、返答することが多かった。しかし、最近では、システム側から話しかける雑談対話のようなものも存在し、シナリオベースで展開されている。システムから何かを問うといった発話の場合、相手の回答に対して、こちらがその回答を認識し、再び発話する必要がある。このようなシナリオを生成する際、システムの質問に対して、どういった回答の可能性があるかを人手で予測し、シナリオに起こすことが多い。
特開2014−219872号公報
自然対話プラットフォームの構築と音声対話玩具への応用. 大西 可奈子他. 人工知能学会研究会資料, SIG-SLUD-B502-14, 2015
しかし、相手の返答パターンは膨大であるため、対話システムにおいて想定される回答の多くを網羅することは困難であり、実行するにはコストが膨大であるという問題がある。
本発明は、上記問題点を解決するために成されたものであり、質問文に対する適切かつ多様な回答候補を得ることができる回答候補生成装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係るクラスタリング装置は、質問文と回答単語候補との組み合わせに対する、予め定められた言語モデルのスコア、及び前記回答単語候補についての単語の概念を表す概念ベクトルのスコアに基づく統合スコアが上位の回答単語候補と、前記質問文に対する回答単語とを含む単語集合に対して、前記概念ベクトルに基づいてクラスタリングを行うクラスタリング部、を含んで構成されている。
上記目的を達成するために、第2の発明に係る回答候補生成装置は、テキスト集合に含まれる単語の各々について、前記単語の概念を表す概念ベクトルを生成する概念ベクトルモデル生成部と、入力された質問文から、単語に置き換えるためのタグを付与した文パターンを生成する文パターン生成部と、前記質問文に対する回答単語の各々と前記質問文に含まれる単語の各々とに類似する単語の各々を、前記概念ベクトルのスコアに基づいて求めて、拡張回答単語候補とする拡張単語候補生成部と、前記文パターンに含まれる前記タグを拡張回答単語候補に置き換えたときに得られるスコア、及び前記拡張回答単語候補についての前記概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求める拡張回答単語候補リランキング部と、前記上位N個の拡張回答単語候補と、前記質問文に対する回答単語とを含む単語集合に対して、前記概念ベクトルに基づいてクラスタリングを行うクラスタリング部と、予め定められた条件を満たすまで前記拡張単語候補生成部、前記拡張回答単語候補リランキング部、及び前記クラスタリング部の処理を繰り返す条件判定部と、を含んで構成されており、前記拡張単語候補生成部は、前記クラスタリング部で得られたクラスタ毎に、前記クラスタに属する単語の各々と前記質問文に含まれる単語の各々とに類似する単語の各々を、前記概念ベクトルのスコアに基づいて求めて、拡張回答単語候補とし、前記拡張回答単語候補リランキング部は、前記文パターンに含まれる前記タグを前記クラスタについて求められた前記拡張回答単語候補に置き換えたときに得られる、前記言語モデルのスコアを算出し、全てのクラスタにおいて、前記拡張回答単語候補に置き換えたときに得られるスコア、及び前記拡張回答単語候補についての前記概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求める。
また、第2の発明に係る回答候補生成装置において、前記拡張回答単語候補リランキング部は、前記文パターンに含まれる前記タグを前記クラスタについて求められた前記拡張回答単語候補に置き換えたときに得られるスコア、及び前記拡張回答単語候補が属するクラスタに属する単語数を係数として前記概念ベクトルのスコアに乗算したスコアに基づく統合スコアが上位N個の拡張回答単語候補を求めるようにしてもよい。
また、第2の発明に係る回答候補生成装置において、前記テキスト集合に含まれる単語のNグラムに基づいて言語モデルを生成する言語モデル生成部を更に含み、前記拡張回答単語候補リランキング部は、前記文パターンに含まれる前記タグを拡張回答単語候補に置き換えたときに得られる、前記言語モデルのスコア、及び前記拡張回答単語候補についての前記概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求め、前記文パターンに含まれる前記タグを前記クラスタについて求められた前記拡張回答単語候補に置き換えたときに得られる、前記言語モデルのスコアを算出し、全てのクラスタにおいて、前記言語モデルのスコア、及び前記拡張回答単語候補についての前記概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求めるようにしてもよい。
第3の発明に係るクラスタリング方法は、クラスタリング部が、質問文と回答単語候補との組み合わせに対する、予め定められた言語モデルのスコア、及び前記回答単語候補についての単語の概念を表す概念ベクトルのスコアに基づく統合スコアが上位の回答単語候補と、前記質問文に対する回答単語とを含む単語集合に対して、前記概念ベクトルに基づいてクラスタリングを行うステップ、を含んで実行することを特徴とする。
また、第4の発明に係る回答候補生成方法は、ク概念ベクトルモデル生成部が、テキスト集合に含まれる単語の各々について、前記単語の概念を表す概念ベクトルを生成するステップと、文パターン生成部が、入力された質問文から、単語に置き換えるためのタグを付与した文パターンを生成するステップと、拡張単語候補生成部が、前記質問文に対する回答単語の各々と前記質問文に含まれる単語の各々とに類似する単語の各々を、前記概念ベクトルのスコアに基づいて求めて、拡張回答単語候補とするステップと、拡張回答単語候補リランキング部が、前記文パターンに含まれる前記タグを拡張回答単語候補に置き換えたときに得られるスコア、及び前記拡張回答単語候補についての前記概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求めるステップと、クラスタリング部が、前記上位N個の拡張回答単語候補と、前記質問文に対する回答単語とを含む単語集合に対して、前記概念ベクトルに基づいてクラスタリングを行うステップと、条件判定部が、予め定められた条件を満たすまで前記拡張単語候補生成部、前記拡張回答単語候補リランキング部、及び前記クラスタリング部の処理を繰り返すステップと、を含んで実行し、前記拡張単語候補生成部は、前記クラスタリング部で得られたクラスタ毎に、前記クラスタに属する単語の各々と前記質問文に含まれる単語の各々とに類似する単語の各々を、前記概念ベクトルのスコアに基づいて求めて、拡張回答単語候補とし、前記拡張回答単語候補リランキング部は、前記文パターンに含まれる前記タグを前記クラスタについて求められた前記拡張回答単語候補に置き換えたときに得られるスコアを算出し、全てのクラスタにおいて、前記拡張回答単語候補に置き換えたときに得られるスコア、及び前記拡張回答単語候補についての前記概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求めることを特徴とする。
また、第4の発明に係る回答候補生成方法において、前記拡張回答単語候補リランキング部は、前記文パターンに含まれる前記タグを前記クラスタについて求められた前記拡張回答単語候補に置き換えたときに得られるスコア、及び前記拡張回答単語候補が属するクラスタに属する単語数を係数として前記概念ベクトルのスコアに乗算したスコアに基づく統合スコアが上位N個の拡張回答単語候補を求めるようにしてもよい。
また、第5の発明に係るプログラムは、コンピュータを、第1の発明に係るクラスタリング装置、又は第2の発明に係る回答候補生成装置の各部として機能させるためのプログラムである。
また、本発明のクラスタリング装置、方法、及びプログラムによれば、質問文と回答単語候補との組み合わせに対する、予め定められた言語モデルのスコア、及び回答単語候補についての単語の概念を表す概念ベクトルのスコアに基づく統合スコアが上位の回答単語候補と、質問文に対する回答単語とを含む単語集合に対して、概念ベクトルに基づいてクラスタリングを行うことにより、質問文に対する適切かつ多様な回答候補を得るためのクラスタリングを行うことができる、という効果が得られる。
また、本発明の回答候補生成装置、方法、及びプログラムによれば、入力された質問文から、単語に置き換えるためのタグを付与した文パターンを生成し、質問文に対する回答単語の各々と質問文に含まれる単語の各々とに類似する単語の各々を、概念ベクトルのスコアに基づいて求めて、拡張回答単語候補とし、文パターンに含まれるタグを拡張回答単語候補に置き換えたときに得られる、言語モデルのスコア、及び概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求め、上位N個の拡張回答単語候補と、質問文に対する回答単語とを含む単語集合に対して、概念ベクトルに基づいてクラスタリングを行い、予め定められた条件を満たすまで拡張単語候補生成、拡張単語候補リランキング、及びクラスタリングの処理を繰り返し、クラスタ毎に、クラスタに属する単語の各々と質問文に含まれる単語の各々とに類似する単語の各々を、概念ベクトルのスコアに基づいて求めて、拡張回答単語候補とし、文パターンに含まれるタグをクラスタについて求められた拡張回答単語候補に置き換えたときに得られる、言語モデルのスコアを算出し、全てのクラスタにおいて、言語モデル、及び概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求めることにより、質問文に対する適切かつ多様な回答候補を得ることができる、という効果が得られる。
本発明の実施の形態に係る回答候補生成装置の構成を示すブロック図である。 クラスタリングを使用した場合と使用していない場合の拡張語の探索イメージの比較例の図である。 本発明の実施の形態に係る回答候補生成装置における回答候補生成処理ルーチンを示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態に係る概要>
まず、本発明の実施の形態における概要を説明する。
上述した問題点に対して、本実施の形態では、大量のテキストを用いた統計情報、質問の言語情報及び統計情報を利用し、対話システムがした質問文に対して、ユーザの回答内容を予測することで、対話シナリオの作成支援を実現する。
本実施の形態の回答候補生成装置は、対話システムのシナリオに関して、システムが発する質問文と、その質問文の回答となる単語(回答シード)を数語与えることで、回答単語を拡張し、質問に対する様々な回答となる単語を出力する装置である。
本実施の形態では、ブログ記事などの大量のテキストを統計処理し、単語の意味を表現する概念ベクトルを作成する。概念ベクトルの類似度に基づいて、出力する拡張単語候補を決定する。また、質問文を言語解析して、文パターンを生成する。概念ベクトルに基づいて出力された拡張単語候補を文パターンに当てはめて、言語モデル的に妥当であるかを判定することで、質問に対して妥当な回答となる単語をより高精度に出力できることに特徴がある。
また、上記手法によって出力した拡張回答単語の集合を回答シードとして再度入力することでより多様な拡張単語候補を入手することもできる。このとき、再度入力する拡張単語候補を意味が近いもの同士でまとめるクラスタリングを行い、各クラスタで単語を拡張することで、より多様な拡張単語候補を得ることができるという特徴がある。
<本発明の実施の形態に係る回答候補生成装置の構成>
次に、本発明の実施の形態に係る回答候補生成装置の構成について説明する。図1に示すように、本発明の実施の形態に係る回答候補生成装置100は、CPUと、RAMと、後述する回答候補生成処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この回答候補生成装置100は、機能的には図1に示すように入力部10と、演算部20と、出力部50とを備えている。
入力部10は、質問文、及び質問文に対する回答単語の各々(以下「(元の)回答シード」とも記載する)の入力を受け付ける。本実施の形態では、質問文として「できたてで食べたい食べ物は?」を受け付け、回答単語の各々として、「パン、揚げ物、ご飯、麺類、焼肉」を受け付けた場合を例に説明する。
演算部20は、概念ベクトルモデル生成部22と、概念ベクトルモデル24と、言語モデル生成部26と、言語モデル28と、文パターン生成部30と、拡張単語候補生成部32と、拡張回答単語候補リランキング部34と、クラスタリング部36と、条件判定部38とを含んで構成されている。
概念ベクトルモデル生成部22は、テキスト集合に含まれる単語の各々について、単語の概念を表す概念ベクトルを生成し、概念ベクトルモデル24として記憶する。概念ベクトルは、テキスト集合から単語の出現情報に基づくものであり、本実施の形態では、概念ベクトルの作成手法はニューラルネットワークを活用したもの(Word2vec)を使用する。また、特異値分解を利用したものなど任意のものを使用して良い。但し、後述する拡張単語候補生成部32では、複数の単語ベクトルを合成する処理を行うため、概念ベクトルモデル生成部22で採用する概念ベクトルは、合成ベクトルとしても利用可能なものとする。合成方法については特に指定しない。
言語モデル生成部26は、テキスト集合に含まれる単語のNグラムに基づいて言語モデル28を生成する。この時、言語モデルの作成方法は特に指定しないが、モデルを効率的に活用するため、「は」「が」などの助動詞を「*」に置き換える。ただし、ここで作成する言語モデル28は後述する文パターン生成部30で生成する文パターンを使用できる形式であることとする。
文パターン生成部30は、入力部10で受け付けた質問文から、単語に置き換えるためのタグを付与した文パターンを生成する。具体的には、まず、文パターン生成部30では、入力された質問文を構文解析する。ここでの構文解析とは、係り受け解析である。係り受け解析された質問文に対してまず、「なぜ」「なに」「いつ」「どこ」「誰」といった5W1Hの表現を検索する。該当した5W1Hの表現を、単語に置き換えるためのタグ(<cand>)に置き換える。次に、係り受け解析結果で動詞や動詞語幹が含まれる文節を見つける。この文節を基準文節として、残りの文節を基準文節の前と後に分け、それぞれで係り受け関係に従い文節を合成する。ここで、基準文節の前の文節と合成する場合には、まず基準文節の前に、タグを含む“<cand> *”を付与(*は任意の助詞)し、その後、係り受け関係によって文節を合成する。基準文節の後の文節との合成には、質問文の最後の文節の最後に置き換えタグ“<cand>”を付与し(句読点や疑問符は削除)、そこから係り受け関係に従い合成を繰り返す。
「できたてで食べたい食べ物は?」という質問文の基準文節は「食べ たい」の部分となる。この基準文節の前の文節との合成では「<cand> * 食べ たい」「<cand> * できたて で 食べ たい」という2つの文パターンが生成され、後ろの文節との合成によって「食べ物 は <cand>」、「食べ たい 食べ物 は <cand>」、「できたて で 食べ たい 食べ物 は <cand>」という3つの文パターンが生成される。よって、合計で5つの文パターンが生成される。個々で置き換えタグ<cand>は自由に設定してよく、また「は」などの助詞を*に置き換えた文パターンを作成しても良い。
以下は文パターンの出力例である。この例では、「は」などの助詞を*に置き換えている。
文パターン1:<cand> * 食べ た い
文パターン2:<cand> * できたて * 食べ た い
文パターン3:食べ物 * <cand>
文パターン4:食べ た い 食べ物 * <cand>
文パターン5:できたて * 食べ た い 食べ物 * <cand>
拡張単語候補生成部32は、入力部10で受け付けた質問文に対する回答単語の各々と質問文に含まれる単語の各々とに類似する単語の各々を、概念ベクトルモデル24に基づいて求めて、拡張回答単語候補とする。また、後述するクラスタリング部36で得られたクラスタ毎に、クラスタに属する単語の各々と質問文に含まれる単語の各々とに類似する単語の各々を、概念ベクトルモデル24に基づいて求めて、拡張回答単語候補とする。
拡張単語候補生成部32では、概念ベクトルモデル24の単語の概念ベクトルを用いて、出力となる拡張回答単語の候補となる単語を生成する。入力となる回答単語(回答シード)の集合をαとする。質問文を形態素解析した結果の集合Qを用意する。ここで、αにQ中のある単語qを加えたときの集合α+qの単語の概念ベクトルの合成ベクトルを
と表すとすると、ある単語wの概念ベクトルのスコアは以下(1)式の通りに計算できる。

・・・(1)
ここで、
は、単語qの各々について作成された合成ベクトル
と単語wの概念ベクトル
との類似度である。類似度の計算方法は、数値が大きいほど類似性が高いことを表すものであれば任意のものを使用できる。概念ベクトルモデルに含まれる全ての単語に対して、上記のスコアを計算し、スコアを降順に並べたときの上位n語を拡張回答単語候補として次の拡張回答単語候補リランキング部34で使用する。
また、拡張単語候補生成部32では、クラスタリング部36によるクラスタリング後は、例えば、クラスタ毎の拡張回答単語候補の集合Qが得られるため、単語wについて、クラスタ毎に上記スコアを計算する。そして、全てのクラスタについて計算されたスコアを降順に並べたときの上位n語を拡張回答単語候補として次の拡張回答単語候補リランキング部34で使用する。なお、単語wについてクラスタ毎に計算されたスコアを合計したスコアを用いても良い。また、上記(1)式の計算に、拡張回答単語候補が属するクラスタに属する単語数を係数として導入した計算方法としても良い。例えば、全クラスタの単語数が100であり、あるクラスタの単語数が5であれば、5/100を係数とする等すればよい。
拡張回答単語候補リランキング部34は、上位n語の拡張回答単語候補の各々について、文パターンに含まれるタグを当該拡張回答単語候補に置き換えたときに得られる、言語モデル28のスコア、及び当該拡張回答単語候補について計算された概念ベクトルのスコアに基づく統合スコアを算出し、統合スコアが上位N個の拡張回答単語候補を求める。また、クラスタリング部36によるクラスタリング後も同様に、上位n語の拡張回答単語候補の各々について、文パターンに含まれるタグを当該拡張回答単語候補に置き換えたときに得られる、言語モデル28のスコア、及び当該拡張回答単語候補について計算された概念ベクトルのスコアに基づく統合スコアを算出し、統合スコアが上位N個の拡張回答単語候補を求める。クラスタリング後の統合スコアは、言語モデル28のスコア、及び当該拡張回答単語候補が属するクラスタに属する単語数を係数として概念ベクトルのスコアに乗算したスコアに基づいて求められる。
具体的には、拡張回答単語候補リランキング部34では、まず、拡張回答単語候補の各々について、文パターンの置き換えタグ<cand>の部分を当該拡張回答単語候補に置き換えることにより、拡張回答単語候補の各単語を文パターンに当てはめる。そして、置き換えた文を言語モデル28に入力して言語モデル28のスコアを計算する。ここで、言語モデル28のスコア算出方法については任意のものを使用できる。本実施の形態では、例えば、一般的な言語モデルにおけるスコアとして、単語の条件付き確率を用い、以下(2)式の通り、拡張回答単語候補wのスコアScore(w)を計算する。

・・・(2)
ここで、上記(2)式において、wはある拡張回答単語候補、pは文パターンを表している。上記(2)式では、拡張回答単語候補wと全ての文パターンpとの組み合わせの各々についてScore(w,p)を計算し、leng(p)を重みとして乗算して合計している。leng(p)は文パターンpの単語長を表している。単語長が長いほど、重みを大きくするようにして、単語長を考慮することで、長い文パターンの影響が大きくなる。長い文パターンの方が、修飾語などが含まれた質問文に近い文になるため長い文パターンで出現しやすい語の方が、より質問文に関連のある文書になる。
また、言語モデル28の代替として、拡張回答単語候補wを置き換えた文パターンpをクエリ(q(w、p))としたWeb検索を実行して、検索ヒット数をスコアとして用いて下記(3)式のようにSore(w,p)の計算をすることも可能である。

・・・(3)
ここでH(q(w、p))はクエリq(w、p)でWeb検索したときの検索ヒット数を示している。このとき、上記(3)式で計算されたSore(w,p)を用いて、上記(2)式の右側に従って、拡張回答単語候補wのスコアScore(w)が計算される。
そして、拡張回答単語候補wの各々について、言語モデル28のスコアScore(w)と、拡張単語候補生成部32で拡張回答単語候補wについて計算された概念ベクトルのスコアを用いて、最終的な統合スコアを計算する。ここで、統合スコアの計算方法は、言語モデル28のスコアと概念ベクトルのスコアとがどちらも考慮されている手法であれば、任意のものを使用できる。言語モデル28のスコアと概念ベクトルのスコアとの平均値を使用しても良いし、言語モデル28のスコアで降順に並べたスコアの順位と、概念ベクトルのスコアで降順に並べたときの順位との平均値を利用しても良い。
統合スコアを降順に拡張回答単語候補を並べたとき、上位N件を出力部50に出力する。また、次のクラスタリング部36で使用する単語集合とする。ここで、拡張単語候補生成部32の拡張回答単語候補の出力数nと最終的な出力数であるNは、n>Nであれば自由に設定して良い。また、クラスタリングを用いた場合の統合スコア計算手法についても、上記と同様の計算手法でも良いし、上記の計算方法に加えて例えば、拡張回答単語候補の概念ベクトルのスコアに、拡張回答単語候補が属するクラスタに属する単語数を係数として導入した計算方法としても良い。これは、拡張回答単語候補リランキング部34で出力される拡張回答単語候補の多くは、回答シードと質問文に合致するものだが、中には間違いとなるような拡張回答単語候補が含まれる事がある。このような拡張回答単語候補は他の出力と大きく傾向が違う単語であることが多いため、独立したクラスタを形成する傾向がある。単語数を係数として処理をしておくと、小さいクラスタ(単語数が少ないクラスタ)から出力された拡張回答単語候補のスコアが小さくなる傾向があるので、このような拡張回答単語候補が、多く出力されないようにすることが可能である。
以下は、N=10とした場合の統合スコア上位10件の拡張回答単語候補の出力例である。
カレー、唐揚げ、ハンバーグ、カレーライス、焼きそば、総菜、丼飯、パスタ、トンカツ、から揚げ
以下は、上記10件をクラスタリングし、クラスタ毎に求められた拡張回答単語候補を用いて、更に求めた統合スコア上位10件の拡張回答単語候補の出力例である。
コロッケ、チャーハン、オムライス、餃子、たらこスパ、ポテトフライ、炒飯、カツ丼、焼き飯、カニクリームコロッケ
クラスタリング部36は、上位N個の拡張回答単語候補と、質問文に対する回答単語とを含む単語集合に対して、概念ベクトルモデル24に基づいてクラスタリングを行う。クラスタリングの手法については、任意の手法を使用して良い。クラスタ数を事前に設定する方法(k-means法)やクラスタ数を自動的に決定する手法(Affinity Propagation)を用いても良い。
本実施の形態でクラスタリングを行う理由を以下に説明する。
本実施の形態では、入力の質問文と回答シードを与えることで、回答シードを拡張した拡張回答単語集合を得ることが出来るが、ここでまでの拡張単語候補生成部32、及び拡張回答単語候補リランキング部34の処理を複数回実行することで、より多様かつ多数の拡張回答単語候補の集合を得ることができる。その場合、拡張回答単語候補リランキング部34で出力したN語を次回の拡張の回答シードとして使用する。出力した拡張回答単語候補の集合を次回の回答シードとすることで、初期に入力した元の回答シードや前回の出力とは異なる単語を得ることができるが、出力されたN個の拡張回答単語候補の集合は元の回答シードと比較して単語数が多い。この状態で拡張単語候補生成部32の拡張回答単語候補の計算を行った場合、回答シードから作成する単語の概念ベクトルの合成ベクトルは、多数の単語の意味が平均化されたものになってしまい、入手できる単語の多様性が失われるという問題があった。
クラスタリング部36では、上記の問題を解決するために、回答シードとして使用するN語に対して、概念ベクトルモデル24の単語の概念ベクトルの類似性に基づくクラスタリングを行い、複数のクラスタに分割する。そして、拡張単語候補生成部32ではクラスタごとに上記(1)式の計算を行い、全てのクラスタについての上位n個の拡張回答単語候補を求める。そして、拡張回答単語候補リランキング部34で、全ての拡張回答単語候補の各々について、上記(2)式で拡張回答単語候補wのスコアScore(w)を計算して、更に、統合スコアを計算することによって、ループ2回目以降の出力単語を決定する。クラスタリングを行う際には、新しく使用するN語に、元の回答シードの単語集合αを追加した単語集合で行うものとする。拡張回答単語候補リランキング部34で出力されたN語は元の回答シードを拡張した語であるが質問文や言語モデルを考慮しているため回答シードよりも多様な語の集合となる。この状態でクラスタを作成すると、クラスタが分散しやすくなる。また、N語の中には解析ミスで出力される語も含まれており、これら不適切な語の集合でクラスタが作成されてしまうと2回目以降の出力される回答が不適切な単語で占められる可能性がでる。そのため、元の回答シードの単語集合αは意味が近い可能性が高く、間違いなく正しい単語であるため、元の回答シード単語集合αを含めてクラスタリングを行ったほうが、クラスタのまとまりがよくなり、かつ不適切なクラスタが大量に生成されることを防ぐ働きがある。
クラスタごとに単語の拡張を行うことで、より多様性に富んだ拡張語を取得できるようになるという特徴がある。図2にクラスタリングを使用した場合と使用していない場合の拡張語の探索イメージの比較を示す。図2中の各黒丸は、概念ベクトルで表現された回答シードの単語を示し、星印は合成ベクトルを示している。点線で囲まれた範囲が合成ベクトルの類似度によって探索できる範囲を示している。この例では合成ベクトルは各単語の概念ベクトルの重心によって表現されているものとする。
以下はクラスタの出力例である。
クラスタ(ア):カレー、カレーライス、 焼きそば
クラスタ(イ):総菜
クラスタ(ウ):パスタ
クラスタ(エ):唐揚げ、ハンバーグ、丼飯、トンカツ、から揚げ
条件判定部38は、予め定められた条件を満たすまで拡張単語候補生成部32、拡張回答単語候補リランキング部34、及びクラスタリング部36の処理を繰り返す。条件は、例えば回数や、出力された単語数とすればよい。
<本発明の実施の形態に係る回答候補生成装置の作用>
次に、本発明の実施の形態に係る回答候補生成装置100の作用について説明する。回答候補生成装置100では、予め、概念ベクトルモデル生成部22によって概念ベクトルモデル24を、言語モデル生成部26によって言語モデル28を求めておく。入力部10において質問文、及び質問文に対する回答単語の各々を受け付けると、回答候補生成装置100は、図3に示す回答候補生成処理ルーチンを実行する。
まず、ステップS100では、入力部10で受け付けた質問文から、単語に置き換えるためのタグを付与した文パターンを生成する。
次に、ステップS102では、入力部10で受け付けた質問文に対する回答単語の各々と質問文に含まれる単語の各々とに類似する単語の各々を、上記(1)式で計算される概念ベクトルモデル24における単語の概念ベクトルのスコアに基づいて求めて、スコアを降順に並べたときの上位n語を拡張回答単語候補とする。
ステップS104では、文パターンに含まれるタグを拡張回答単語候補に置き換えたときに得られる、上記(2)式で計算される言語モデル28のスコア、及び拡張回答単語候補について計算された概念ベクトルのスコアに基づく統合スコアが上位N個(n>N)の拡張回答単語候補を求める。
ステップS106では、ステップS104又は前回のステップS110で求められた上位N個の拡張回答単語候補と、質問文に対する回答単語とを含む単語集合に対して、概念ベクトルモデル24に基づいてクラスタリングを行う。
ステップS108では、クラスタ毎に、クラスタに属する単語の各々と質問文に含まれる単語の各々とに類似する単語の各々を、上記(1)式で計算される概念ベクトルモデル24における単語の概念ベクトルのスコアに基づいて求めて、スコアを降順に並べたときの上位n語を拡張回答単語候補とする。
ステップS110では、ステップS108で得られた、文パターンに含まれるタグをクラスタについて求められた拡張回答単語候補に置き換えたときに得られる、言語モデル28のスコアを算出し、上記(2)式で計算される言語モデル28のスコア、及び拡張回答単語候補について計算された概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求める。ここで、統合スコアは、言語モデル28のスコア、及び拡張回答単語候補が属するクラスタに属する単語数を係数として概念ベクトルのスコアに乗算したスコアに基づいて求める。
ステップS112では、繰り返しの終了の条件を満たすかを判定し、条件を満たせばステップS114へ移行し、満たさなければステップS106に戻って処理を繰り返す。
ステップS114では、ステップS104〜S112の処理で得られた拡張回答単語候補を出力部50に出力して処理を終了する。
以上説明したように、本発明の実施の形態に係る回答候補生成装置によれば、単語に置き換えるためのタグを付与した文パターンを生成し、質問文に対する回答単語の各々と質問文に含まれる単語の各々とに類似する単語の各々を、概念ベクトルのスコアに基づいて求めて、拡張回答単語候補とし、文パターンに含まれるタグを拡張回答単語候補に置き換えたときに得られる、言語モデルのスコア、及び拡張回答単語候補についての概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求め、上位N個の拡張回答単語候補と、質問文に対する回答単語とを含む単語集合に対して、概念ベクトルに基づいてクラスタリングを行い、予め定められた条件を満たすまで拡張単語候補生成、拡張単語候補リランキング、及びクラスタリングの処理を繰り返し、クラスタ毎に、クラスタに属する単語の各々と質問文に含まれる単語の各々とに類似する単語の各々を、概念ベクトルのスコアに基づいて求めて、拡張回答単語候補とし、文パターンに含まれるタグをクラスタについて求められた拡張回答単語候補に置き換えたときに得られる、言語モデルのスコアを算出し、全てのクラスタにおいて、言語モデル、及び拡張回答単語候補についての概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求めることにより、対話システムで使用するための多様な回答候補を得ることができる。
本発明の実施の形態の手法を利用することで、対話システムのシナリオ作成者は、システムが発する質問文と、その質問に対する回答となる単語を数語(5語程度)回答シードとして与えることで、様々な回答単語(拡張回答単語候補)を得ることが出来る。
また、雑談対話のようなオープンドメイン対話では、質問に対する回答は多岐にわたるため、それらの回答をシナリオ作成者が全て想起することは難しいが、本発明の実施の形態の手法を利用することで、シナリオ作成者は自信で回答内容を多数考える必要が無くなるため、シナリオ作成のコストが低減できるという利点がある。同時に、対話シナリオにおいて、予測できる回答数が増えるため、より多くのユーザの回答に対しての満足の行く返答が出来る可能性が高まるため、対話システムの品質や満足度の向上も期待できる。
また、本発明の実施の形態の手法は対話シナリオに対して、ユーザの回答内容の予測を拡張するものである。対話シナリオでは、システムが質問し、ユーザがその質問に答えた後、システムはユーザの回答を受けてもう一言発話する3つ組み形式が一般的である。本発明の実施の形態においても、拡張された回答に対して、システムの3発話目はシステム作成者が自身で作成する。ここで、本発明の実施の形態で出力される回答単語を参考に3発話目を作成しても良い。本発明の実施の形態では多様な観点から多数の回答単語が出力されるため、その中にはユーザの回答の予測だけでなく、3発話目として活用できるもの含まれるためである。また、3発話目の作成に従来の自動発話生成装置を組み合わせることで、対話シナリオ自体を自動で生成することも可能である。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上述した実施の形態では、回答候補生成装置として構成する場合を例に説明したが、これに限定されるものではない。例えば、クラスタリング部のみのクラスタリング装置として構成し、質問文、質問文に対する回答単語の各々、及び外部の装置によって得られた上位の回答単語候補を入力として受け付け、回答単語候補のクラスタリング結果を出力するようにしてもよい。
10 入力部
20 演算部
22 概念ベクトルモデル生成部
24 概念ベクトルモデル
26 言語モデル生成部
28 言語モデル
30 文パターン生成部
32 拡張単語候補生成部
34 拡張回答単語候補リランキング部
36 クラスタリング部
38 条件判定部
50 出力部
100 回答候補生成装置

Claims (8)

  1. 質問文と回答単語候補との組み合わせに対する、予め定められた言語モデルのスコア、及び前記回答単語候補についての単語の概念を表す概念ベクトルのスコアに基づく統合スコアが上位の回答単語候補と、前記質問文に対する回答単語とを含む単語集合に対して、前記概念ベクトルに基づいてクラスタリングを行うクラスタリング部
    を含むクラスタリング装置。
  2. テキスト集合に含まれる単語の各々について、前記単語の概念を表す概念ベクトルを生成する概念ベクトルモデル生成部と、
    入力された質問文から、単語に置き換えるためのタグを付与した文パターンを生成する文パターン生成部と、
    前記質問文に対する回答単語の各々と前記質問文に含まれる単語の各々とに類似する単語の各々を、前記概念ベクトルのスコアに基づいて求めて、拡張回答単語候補とする拡張単語候補生成部と、
    前記文パターンに含まれる前記タグを拡張回答単語候補に置き換えたときに得られるスコア、及び前記拡張回答単語候補についての前記概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求める拡張回答単語候補リランキング部と、
    前記上位N個の拡張回答単語候補と、前記質問文に対する回答単語とを含む単語集合に対して、前記概念ベクトルに基づいてクラスタリングを行うクラスタリング部と、
    予め定められた条件を満たすまで前記拡張単語候補生成部、前記拡張回答単語候補リランキング部、及び前記クラスタリング部の処理を繰り返す条件判定部と、
    を含み、
    前記拡張単語候補生成部は、前記クラスタリング部で得られたクラスタ毎に、前記クラスタに属する単語の各々と前記質問文に含まれる単語の各々とに類似する単語の各々を、前記概念ベクトルのスコアに基づいて求めて、拡張回答単語候補とし、
    前記拡張回答単語候補リランキング部は、前記文パターンに含まれる前記タグを前記クラスタについて求められた前記拡張回答単語候補に置き換えたときに得られるスコアを算出し、全てのクラスタにおいて、前記拡張回答単語候補に置き換えたときに得られるスコア、及び前記拡張回答単語候補についての前記概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求める
    回答候補生成装置。
  3. 前記拡張回答単語候補リランキング部は、前記文パターンに含まれる前記タグを前記クラスタについて求められた前記拡張回答単語候補に置き換えたときに得られるスコア、及び前記拡張回答単語候補が属するクラスタに属する単語数を係数として前記概念ベクトルのスコアに乗算したスコアに基づく統合スコアが上位N個の拡張回答単語候補を求める
    請求項2に記載の回答候補生成装置。
  4. 前記テキスト集合に含まれる単語のNグラムに基づいて言語モデルを生成する言語モデル生成部を更に含み、
    前記拡張回答単語候補リランキング部は、前記文パターンに含まれる前記タグを拡張回答単語候補に置き換えたときに得られる、前記言語モデルのスコア、及び前記拡張回答単語候補についての前記概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求め、
    前記文パターンに含まれる前記タグを前記クラスタについて求められた前記拡張回答単語候補に置き換えたときに得られる、前記言語モデルのスコアを算出し、全てのクラスタにおいて、前記言語モデルのスコア、及び前記拡張回答単語候補についての前記概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求める請求項2又は請求項3に記載の回答候補生成装置。
  5. クラスタリング部が、質問文と回答単語候補との組み合わせに対する、予め定められた言語モデルのスコア、及び前記回答単語候補についての単語の概念を表す概念ベクトルのスコアに基づく統合スコアが上位の回答単語候補と、前記質問文に対する回答単語とを含む単語集合に対して、前記概念ベクトルに基づいてクラスタリングを行うステップ
    を含むクラスタリング方法。
  6. 概念ベクトルモデル生成部が、テキスト集合に含まれる単語の各々について、前記単語の概念を表す概念ベクトルを生成するステップと、
    文パターン生成部が、入力された質問文から、単語に置き換えるためのタグを付与した文パターンを生成するステップと、
    拡張単語候補生成部が、前記質問文に対する回答単語の各々と前記質問文に含まれる単語の各々とに類似する単語の各々を、前記概念ベクトルのスコアに基づいて求めて、拡張回答単語候補とするステップと、
    拡張回答単語候補リランキング部が、前記文パターンに含まれる前記タグを拡張回答単語候補に置き換えたときに得られるスコア、及び前記拡張回答単語候補についての前記概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求めるステップと、
    クラスタリング部が、前記上位N個の拡張回答単語候補と、前記質問文に対する回答単語とを含む単語集合に対して、前記概念ベクトルに基づいてクラスタリングを行うステップと、
    条件判定部が、予め定められた条件を満たすまで前記拡張単語候補生成部、前記拡張回答単語候補リランキング部、及び前記クラスタリング部の処理を繰り返すステップと、
    を含み、
    前記拡張単語候補生成部は、前記クラスタリング部で得られたクラスタ毎に、前記クラスタに属する単語の各々と前記質問文に含まれる単語の各々とに類似する単語の各々を、前記概念ベクトルのスコアに基づいて求めて、拡張回答単語候補とし、
    前記拡張回答単語候補リランキング部は、前記文パターンに含まれる前記タグを前記クラスタについて求められた前記拡張回答単語候補に置き換えたときに得られるスコアを算出し、全てのクラスタにおいて、前記拡張回答単語候補に置き換えたときに得られるスコア、及び前記拡張回答単語候補についての前記概念ベクトルのスコアに基づく統合スコアが上位N個の拡張回答単語候補を求める
    回答候補生成方法。
  7. 前記拡張回答単語候補リランキング部は、前記文パターンに含まれる前記タグを前記クラスタについて求められた前記拡張回答単語候補に置き換えたときに得られるスコア、及び前記拡張回答単語候補が属するクラスタに属する単語数を係数として前記概念ベクトルのスコアに乗算したスコアに基づく統合スコアが上位N個の拡張回答単語候補を求める
    請求項6に記載の回答候補生成方法。
  8. コンピュータを、請求項1に記載のクラスタリング装置、又は請求項2〜請求項4の何れか1項に記載の回答候補生成装置の各部として機能させるためのプログラム。
JP2017079659A 2017-04-13 2017-04-13 クラスタリング装置、回答候補生成装置、方法、及びプログラム Active JP6709748B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017079659A JP6709748B2 (ja) 2017-04-13 2017-04-13 クラスタリング装置、回答候補生成装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017079659A JP6709748B2 (ja) 2017-04-13 2017-04-13 クラスタリング装置、回答候補生成装置、方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020011236A Division JP6857754B2 (ja) 2020-01-27 2020-01-27 回答候補生成装置、回答候補生成方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018180937A true JP2018180937A (ja) 2018-11-15
JP6709748B2 JP6709748B2 (ja) 2020-06-17

Family

ID=64276808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017079659A Active JP6709748B2 (ja) 2017-04-13 2017-04-13 クラスタリング装置、回答候補生成装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6709748B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109829051A (zh) * 2019-01-30 2019-05-31 科大讯飞股份有限公司 一种数据库相似语句筛选的方法和装置
CN110750629A (zh) * 2019-09-18 2020-02-04 平安科技(深圳)有限公司 机器人对话生成方法、装置、可读存储介质及机器人
CN112527975A (zh) * 2019-09-02 2021-03-19 科沃斯商用机器人有限公司 人机交互方法、装置、智能机器人和存储介质
WO2021131406A1 (ja) * 2019-12-26 2021-07-01 株式会社日立製作所 情報処理装置及び対話シナリオの作成支援方法
JP2022500808A (ja) * 2019-01-24 2022-01-04 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 文生成方法と装置、電子機器及びプログラム
CN114999676A (zh) * 2022-06-29 2022-09-02 支付宝(杭州)信息技术有限公司 用于自动回复医疗咨询的方法、系统、装置和介质
JP7539098B1 (ja) 2023-09-19 2024-08-23 ゼネリックソリューション株式会社 審査業務文書作成支援装置、審査業務文書作成支援方法、及び審査業務文書作成支援プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041573A (ja) * 2000-05-17 2002-02-08 Matsushita Electric Ind Co Ltd 情報検索システム
JP2005149014A (ja) * 2003-11-13 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> 文書関連語彙獲得方法及び装置及びプログラム
JP2006163623A (ja) * 2004-12-03 2006-06-22 Nippon Hoso Kyokai <Nhk> 質問応答装置及び質問応答プログラム、並びに、テレビ受像機
JP2011039977A (ja) * 2009-08-18 2011-02-24 Nippon Telegr & Teleph Corp <Ntt> 単語クラスタリング装置及び方法及びプログラム及びプログラムを格納した記録媒体
JP2012079161A (ja) * 2010-10-04 2012-04-19 National Institute Of Information & Communication Technology 自然言語文生成装置及びコンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041573A (ja) * 2000-05-17 2002-02-08 Matsushita Electric Ind Co Ltd 情報検索システム
JP2005149014A (ja) * 2003-11-13 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> 文書関連語彙獲得方法及び装置及びプログラム
JP2006163623A (ja) * 2004-12-03 2006-06-22 Nippon Hoso Kyokai <Nhk> 質問応答装置及び質問応答プログラム、並びに、テレビ受像機
JP2011039977A (ja) * 2009-08-18 2011-02-24 Nippon Telegr & Teleph Corp <Ntt> 単語クラスタリング装置及び方法及びプログラム及びプログラムを格納した記録媒体
JP2012079161A (ja) * 2010-10-04 2012-04-19 National Institute Of Information & Communication Technology 自然言語文生成装置及びコンピュータプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022500808A (ja) * 2019-01-24 2022-01-04 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 文生成方法と装置、電子機器及びプログラム
JP7290730B2 (ja) 2019-01-24 2023-06-13 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 文生成方法と装置、電子機器及びプログラム
CN109829051A (zh) * 2019-01-30 2019-05-31 科大讯飞股份有限公司 一种数据库相似语句筛选的方法和装置
CN109829051B (zh) * 2019-01-30 2023-01-17 科大讯飞股份有限公司 一种数据库相似语句筛选的方法和装置
CN112527975A (zh) * 2019-09-02 2021-03-19 科沃斯商用机器人有限公司 人机交互方法、装置、智能机器人和存储介质
CN112527975B (zh) * 2019-09-02 2024-07-26 科沃斯商用机器人有限公司 人机交互方法、装置、智能机器人和存储介质
CN110750629A (zh) * 2019-09-18 2020-02-04 平安科技(深圳)有限公司 机器人对话生成方法、装置、可读存储介质及机器人
WO2021131406A1 (ja) * 2019-12-26 2021-07-01 株式会社日立製作所 情報処理装置及び対話シナリオの作成支援方法
CN114999676A (zh) * 2022-06-29 2022-09-02 支付宝(杭州)信息技术有限公司 用于自动回复医疗咨询的方法、系统、装置和介质
JP7539098B1 (ja) 2023-09-19 2024-08-23 ゼネリックソリューション株式会社 審査業務文書作成支援装置、審査業務文書作成支援方法、及び審査業務文書作成支援プログラム

Also Published As

Publication number Publication date
JP6709748B2 (ja) 2020-06-17

Similar Documents

Publication Publication Date Title
JP6709748B2 (ja) クラスタリング装置、回答候補生成装置、方法、及びプログラム
JP6857754B2 (ja) 回答候補生成装置、回答候補生成方法、及びプログラム
US20200395008A1 (en) Personality-Based Conversational Agents and Pragmatic Model, and Related Interfaces and Commercial Models
Turchin et al. Complex dynamics in ecological time series
WO2020004136A1 (ja) 質問応答装置及びコンピュータプログラム
US10789951B2 (en) Speech continuation determination method, speech continuation determination device, and recording medium
CN110795913B (zh) 一种文本编码方法、装置、存储介质及终端
WO2018165932A1 (en) Generating responses in automated chatting
EP3327592A1 (en) Information processing method, information processing apparatus, and non-transitory recording medium
JP6818706B2 (ja) 情報提供装置、情報提供方法、およびプログラム
CN111291549A (zh) 文本处理方法、装置、存储介质和电子设备
JP6920136B2 (ja) 情報処理システム
JP2017076281A (ja) 単語埋込学習装置、テキスト評価装置、方法、及びプログラム
CN107193806B (zh) 一种词汇义原的自动预测方法及装置
WO2019106758A1 (ja) 言語処理装置、言語処理システムおよび言語処理方法
Chu Recipe bot: The application of conversational ai in home cooking assistant
WO2020040255A1 (ja) 単語符号化装置、解析装置、言語モデル学習装置、方法、及びプログラム
JP2017010249A (ja) パラメタ学習装置、文類似度算出装置、方法、及びプログラム
JP6630701B2 (ja) 回答候補生成装置、方法、及びプログラム
CN109885668A (zh) 一种可扩展的领域人机对话系统状态跟踪方法及设备
Sato-Shimokawara et al. A cloud based chat robot using dialogue histories for elderly people
Forsati et al. Hybrid PoS-tagging: A cooperation of evolutionary and statistical approaches
WO2020095655A1 (ja) 選定装置および選定方法
JP2014232145A (ja) ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム
CN109657079A (zh) 一种图像描述方法及终端设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200525

R150 Certificate of patent or registration of utility model

Ref document number: 6709748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150