JP7126682B2 - 対話システム及びそのコンピュータプログラム - Google Patents
対話システム及びそのコンピュータプログラム Download PDFInfo
- Publication number
- JP7126682B2 JP7126682B2 JP2018092456A JP2018092456A JP7126682B2 JP 7126682 B2 JP7126682 B2 JP 7126682B2 JP 2018092456 A JP2018092456 A JP 2018092456A JP 2018092456 A JP2018092456 A JP 2018092456A JP 7126682 B2 JP7126682 B2 JP 7126682B2
- Authority
- JP
- Japan
- Prior art keywords
- response
- candidate
- information
- input
- candidates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
[構成]
《全体構成》
図2を参照して、本発明の第1の実施の形態に係る対話システム80は、大量の応答候補を記憶した応答候補DB64と、ユーザからの入力60を受けて発話解析を行う発話解析部62と、発話解析部62による発話解析の結果を用いて、応答候補DB64に記憶された応答候補の中から、応答として適切と思われる複数個の応答候補を取得し、応答候補98として出力する応答候補取得部90とを含む。
図3を参照して、図2に示す応答候補選択部94は、複数の応答候補98の各々を情報欠落判定モデル92に与え、応答して情報欠落判定モデル92が出力する確率を取得し、この確率に基づいて複数の応答候補98の各々について情報欠落文か否かを示すスコアを算出して各応答候補に付加して出力するための応答候補スコアリング部110を含む。本実施の形態では、情報欠落判定モデル92が出力するのは、入力された自然言語文が情報欠落文である確率である。応答候補スコアリング部110のスコアリングは、応答候補が情報欠落文であるときに高く、情報欠落文でない(情報充足文である)ときに低くなるように定義される。例えばある応答候補を受けて情報欠落判定モデル92が出力する確率の値(又はその値に正の定数を乗じた値)を応答候補のスコアにできる。
図3に示す応答候補スコアリング部110は、コンピュータハードウェアと協働するプログラムにより実現される。図4を参照して、このプログラムは、複数の応答候補の各々に対して処理122を実行するステップ120を含む。
本実施の形態で使用する情報欠落判定モデル92は、前述したとおり畳み込みニューラル・ネットワークを含む。畳み込みニューラル・ネットワークの構成及び動作については図6以下を参照して後述し、最初に情報欠落判定モデル92の訓練について説明する。
上記した第1の実施の形態に係る対話システム80及び情報欠落判定モデル訓練システム160は以下のように動作する。以下、情報欠落判定モデル92の訓練時の情報欠落判定モデル訓練システム160の動作、及び訓練が完了した情報欠落判定モデル92を用いたサービス時の対話システム80の動作について説明する。
図5を参照して、最初にインターネット上から応答候補となるテキストを収集しテキストDB170に蓄積する。ラベリング用端末172を用いて、人手によりテキストDB170に記憶されたテキストの各文について、情報欠落文か否かを判定し、情報欠落文か否かを示すラベルを各文に付する。
上記のように訓練が完了した後の情報欠落判定モデル92を用いることで、対話システム80が応答文として情報欠落文を出力する可能性を小さくできる。
〈情報欠落判定モデル260〉
第1の実施の形態では、応答候補についてのみ情報欠落判定モデル92を用いて情報欠落文である確率を判定している。しかし本発明はそのような実施の形態には限定されない。応答文の中には、それだけを見たときには情報が欠落していると思われるにもかかわらず、入力とあわせて見れば情報が欠落していない場合もあるし、逆に応答文だけを見ると情報に欠落はないが、入力と合わせて見ると情報が欠落していると考えられる場合もある。
上記した第1の実施の形態及び第2の実施の形態では、いずれも、入力があったときに動的に応答候補の情報欠落の有無を判定している。しかし本発明はそのような実施の形態には限定されない。この第3の実施の形態では、予め応答候補DBから情報欠落がある可能性の高い応答候補を削除する。こうすることで、図1に示した従来の対話システム50と同様の構成を持つ対話システムで、情報欠落がある可能性の低い応答のみを選択して出力できる。また、応答候補DBを記憶するために必要な記憶容量を小さくできるという効果もある。
第1及び第2の実施の形態では、図2に示すような情報欠落判定モデル92と応答候補選択部94とを既存の対話システムに組込むことにより、質の高い応答を出力することが可能となる。特に応答候補DBに手を加えたくない場合は、第1及び第2の実施の形態のようにすることで、応答候補DBに変更を加えずに質の良い応答を選択できる。
上記した各実施の形態に係る対話システム80及び340、情報欠落判定モデル92及び260、並びに情報欠落判定モデル訓練システム160及び応答候補DBの容量削減システム310の各機能部は、それぞれコンピュータハードウェアと、そのハードウェア上でCPU(中央演算処理装置)及びGPU(Graphics Processing Unit)により実行される、対話システムに対するアドオンとして準備されるプログラムとにより実現できる。図11及び図12に上記各装置及びシステムを実現するコンピュータハードウェアを示す。GPUは通常は画像処理を行うために使用されるが、このようにGPUを画像処理ではなく通常の演算処理に使用する技術をGPGPU(General-purpose computing on graphics processing units)と呼ぶ。GPUは同種の複数の演算を同時並列的に実行できる。一方、ニューラル・ネットワークの訓練時及び動作時には、各ノードの重み演算は単純な積和演算であり、しかもそれらは同時に実行できることが多い。したがって、図6に示す情報欠落判定モデル92、図7に示す情報欠落判定モデル260等はGPGPUで実現するのに適している。
60 入力
62 発話解析部
64、330 応答候補DB
66、90 応答候補取得部
68、96、350 応答
92、260 情報欠落判定モデル
94、328 応答候補選択部
98 複数の応答候補
100 応答候補
110、324 応答候補スコアリング部
112 ソート部
114 選択部
160 情報欠落判定モデル訓練システム
170 テキストDB
172 ラベリング用端末
174 訓練データ作成部
176 訓練データ記憶部
178 訓練処理部
200 畳み込みニューラル・ネットワーク
202 単語ベクトル列
204、284 情報欠落確率
210 畳み込み層
212 素性マップ
214 プーリング層
216 出力層
230 フィルタ
232、234、236、238 バイグラム
242、244、246、248 要素
250 ベクトル
270 入力文の単語ベクトル
272 応答候補の単語ベクトル
274 第1の畳み込みニューラル・ネットワーク
276 第2の畳み込みニューラル・ネットワーク
280 結合ベクトル
282 多層パーセプトロン
310 応答候補DBの容量削減システム
320 原応答候補DB
326 中間応答候補DB
Claims (5)
- 自然言語の入力に対して自然言語文で応答を行う対話システムであって、
入力に対する応答として使用する、自然言語文からなる応答候補を多数記憶するための応答候補記憶手段と、
自然言語の入力が与えられたことに応答して、当該入力に対する複数の応答候補を前記応答候補記憶手段から取得するための応答取得手段と、
前記複数の応答候補の各々について、当該応答候補に必要な情報が備わっているか、又は欠落しているかの度合いを表すスコアを算出するための応答候補スコアリング手段と、
前記複数の応答候補の内、前記応答候補スコアリング手段が算出する前記スコアに基づいて、必要な情報が備わっている度合いが上位の所定個数の応答候補を選択して前記入力に対する応答として出力するための応答候補選択手段とを含み、
前記応答候補スコアリング手段は、
応答候補を受け、当該応答候補に必要な情報が欠落している確率を出力するよう、予め機械学習により訓練済の情報欠落判定モデルと、
前記複数の応答候補の各々に応答して前記情報欠落判定モデルが出力する確率に基づいて、前記複数の応答候補の各々のスコアを計算するためのスコア計算手段とを含 む、対話システム。 - 前記情報欠落判定モデルは、自然言語文の入力に応答して、当該自然言語文に必要な情報が欠落している確率を出力するように予め訓練済の機械学習モデルを含む、請求項1に記載の対話システム。
- 自然言語の入力に対して自然言語文で応答を行う対話システムであって、
入力に対する応答として使用する、自然言語文からなる応答候補を多数記憶するための応答候補記憶手段と、
自然言語の入力が与えられたことに応答して、当該入力に対する複数の応答候補を前記応答候補記憶手段から取得するための応答取得手段と、
前記複数の応答候補の各々について、当該応答候補に必要な情報が備わっているか、又は欠落しているかの度合いを表すスコアを算出するための応答候補スコアリング手段と、
前記複数の応答候補の内、前記応答候補スコアリング手段が算出する前記スコアに基づいて、必要な情報が備わっている度合いが上位の所定個数の応答候補を選択して前記入力に対する応答として出力するための応答候補選択手段とを含み、
前記応答候補スコアリング手段は、
応答候補と前記入力との組合せを受け、当該応答候補に、前記入力に対する応答として必要な情報が欠落している確率を出力するよう、予め機械学習により訓練済の情報欠落判定モデルと、
前記複数の応答候補の各々に応答して前記情報欠落判定モデルが出力する確率に基づいて、前記複数の応答候補の各々のスコアを計算するためのスコア計算手段とを含む、対話システム。 - 前記情報欠落判定モデルは、自然言語文からなる入力と、自然言語文からなる応答候補との組合せが与えられたことに応答して、前記入力に対する応答として当該応答候補に必要な情報が欠落している確率を出力するように予め機械学習により学習済のディープ・ニューラル・ネットワークを含む、請求項3に記載の対話システム。
- 請求項1~請求項4の何れかに記載の対話システムとしてコンピュータを機能させる、コンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018092456A JP7126682B2 (ja) | 2018-05-11 | 2018-05-11 | 対話システム及びそのコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018092456A JP7126682B2 (ja) | 2018-05-11 | 2018-05-11 | 対話システム及びそのコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019197498A JP2019197498A (ja) | 2019-11-14 |
JP7126682B2 true JP7126682B2 (ja) | 2022-08-29 |
Family
ID=68538428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018092456A Active JP7126682B2 (ja) | 2018-05-11 | 2018-05-11 | 対話システム及びそのコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7126682B2 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013125286A1 (ja) | 2012-02-23 | 2013-08-29 | 独立行政法人情報通信研究機構 | ノン・ファクトイド型質問応答システム及びコンピュータプログラム |
JP2013254420A (ja) | 2012-06-08 | 2013-12-19 | Nippon Telegr & Teleph Corp <Ntt> | 質問応答装置、モデル学習装置、方法、及びプログラム |
JP2015132876A (ja) | 2014-01-09 | 2015-07-23 | 日本電信電話株式会社 | モデル学習装置、フィルタ装置、方法、及びプログラム |
JP2018156272A (ja) | 2017-03-16 | 2018-10-04 | 国立研究開発法人情報通信研究機構 | 対話システム、対話装置及びそのためのコンピュータプログラム |
-
2018
- 2018-05-11 JP JP2018092456A patent/JP7126682B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013125286A1 (ja) | 2012-02-23 | 2013-08-29 | 独立行政法人情報通信研究機構 | ノン・ファクトイド型質問応答システム及びコンピュータプログラム |
JP2013254420A (ja) | 2012-06-08 | 2013-12-19 | Nippon Telegr & Teleph Corp <Ntt> | 質問応答装置、モデル学習装置、方法、及びプログラム |
JP2015132876A (ja) | 2014-01-09 | 2015-07-23 | 日本電信電話株式会社 | モデル学習装置、フィルタ装置、方法、及びプログラム |
JP2018156272A (ja) | 2017-03-16 | 2018-10-04 | 国立研究開発法人情報通信研究機構 | 対話システム、対話装置及びそのためのコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2019197498A (ja) | 2019-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11861307B2 (en) | Request paraphrasing system, request paraphrasing model and request determining model training method, and dialogue system | |
US8156060B2 (en) | Systems and methods for generating and implementing an interactive man-machine web interface based on natural language processing and avatar virtual agent based character | |
WO2018207723A1 (ja) | 要約生成装置、要約生成方法及びコンピュータプログラム | |
JP7084617B2 (ja) | 質問応答装置及びコンピュータプログラム | |
Rieser et al. | Natural language generation as incremental planning under uncertainty: Adaptive information presentation for statistical dialogue systems | |
CN116226334A (zh) | 生成式大语言模型训练方法以及基于模型的搜索方法 | |
JP7402277B2 (ja) | 情報処理システム、情報処理方法および情報処理装置 | |
CN112740132A (zh) | 简答题评分预测 | |
JP2021108178A (ja) | マルチラウンド対話の検索方法、装置、記憶媒体および電子機器 | |
CN109389427A (zh) | 问卷推送方法、装置、计算机设备和存储介质 | |
Hiraoka et al. | Reinforcement learning of cooperative persuasive dialogue policies using framing | |
CN116821324A (zh) | 模型训练方法、装置、电子设备及存储介质 | |
CN110069601A (zh) | 情绪检测分析方法及相关装置 | |
JP7126682B2 (ja) | 対話システム及びそのコンピュータプログラム | |
WO2023245523A1 (zh) | 用于生成训练数据的方法以及装置 | |
CN114330285B (zh) | 语料处理方法、装置、电子设备及计算机可读存储介质 | |
WO2023166747A1 (ja) | 学習データ生成装置、学習データ生成方法、及びプログラム | |
CN115906861A (zh) | 基于交互方面信息融合的语句情感分析方法以及装置 | |
JP7044245B2 (ja) | 対話システム補強装置及びコンピュータプログラム | |
JP2020140674A (ja) | 回答選択装置及びプログラム | |
US20240354632A1 (en) | Method and apparatus for generating target deep learning model | |
JP7198492B2 (ja) | パーソナリティ出力装置、パーソナリティ出力方法、パーソナリティ出力プログラム、単語評価値生成装置、単語評価値生成方法および単語評価値生成プログラム | |
CN118467709B (zh) | 视觉问答任务的评价方法、设备、介质及计算机程序产品 | |
CN113111652B (zh) | 数据处理方法、装置及计算设备 | |
CN117494669A (zh) | 新闻写作方法、新闻写作模型训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210413 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220809 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7126682 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |