JP2021196798A - Interactive system and control method for interactive system - Google Patents

Interactive system and control method for interactive system Download PDF

Info

Publication number
JP2021196798A
JP2021196798A JP2020102121A JP2020102121A JP2021196798A JP 2021196798 A JP2021196798 A JP 2021196798A JP 2020102121 A JP2020102121 A JP 2020102121A JP 2020102121 A JP2020102121 A JP 2020102121A JP 2021196798 A JP2021196798 A JP 2021196798A
Authority
JP
Japan
Prior art keywords
similarity
input sentence
terms
dialogue system
dialogue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020102121A
Other languages
Japanese (ja)
Other versions
JP7416665B2 (en
Inventor
利昇 三好
Toshinori Miyoshi
健三 黒土
Kenzo Kurotsuchi
力 光井
Tsutomu Mitsui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020102121A priority Critical patent/JP7416665B2/en
Publication of JP2021196798A publication Critical patent/JP2021196798A/en
Application granted granted Critical
Publication of JP7416665B2 publication Critical patent/JP7416665B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide an interactive system that accurately returns an appropriate response to various input expressions of a user and to provide a control method therefor.SOLUTION: In an interactive system 1, an interactive device 10 includes: in interactive processing unit 7 that outputs a response sentence to an input sentence; a storage unit that stores: a question/answer data that associates an assumed input sentence, assuming an input sentence, with a response sentence; a synonym dictionary; a list of discrimination terms, which are terms to be distinguished from each other according to a topic of an interaction; and a similarity degree calculation model that determines a degree of similarity between the input sentence and the assumed input sentence; and a similarity degree calculation model generating unit 6 that generates the similarity degree calculation model. The interactive system generates the similarity degree calculation model in which a degree of similarity is calculated such that synonyms recorded in the synonym dictionary have a high degree of similarity and discrimination terms in the list of discrimination terms have a low degree of similarity; obtains a degree of similarity between the input sentence and the assumed input sentence by using the similarity calculation model; selects the assumed input sentence, based on the obtained degree of similarity; and outputs the response sentence corresponding to the selected assumed input sentence.SELECTED DRAWING: Figure 2

Description

本発明は、対話システム、及び対話システムの制御方法に関する。 The present invention relates to a dialogue system and a method for controlling the dialogue system.

特許文献1には、ユーザとの間の効率的な対話を可能とすることを目的として構成された対話システムについて記載されている。対話システムは、自然言語理解部により所定フォーマットに変換されたユーザ発話を取得し、所定フォーマットのユーザ発話に基づいて、現在の対話状態を更新し、第1ポリシモデルを使用し、更新した対話状態に基づき現在のサブドメインを決定し、現在のサブドメインに関連づけられた第2ポリシモデルを使用して、対話状態に基づき行動を決定する。また、対話システムは、データベースからサンプリングされた対話において、対話状態の複雑性を低減する。 Patent Document 1 describes a dialogue system configured for the purpose of enabling efficient dialogue with a user. The dialogue system acquires the user utterance converted into a predetermined format by the natural language understanding unit, updates the current dialogue state based on the user utterance in the predetermined format, uses the first policy model, and updates the dialogue state. The current subdomain is determined based on, and the behavior is determined based on the dialogue state using the second policy model associated with the current subdomain. The dialogue system also reduces the complexity of the dialogue state in the dialogue sampled from the database.

特開2019−191517号公報Japanese Unexamined Patent Publication No. 2019-191517

近年、問い合わせや相談の自動対応、対話型検索、対話型の機器操作等、ユーザからの音声やテキスト等の入力に対して自動で応答する情報処理システム(以下、「対話システム」と称する。)の開発が進んでいる。対話システムによれば、ユーザに対し、例えば、常時かつ即時の問い合わせ対応、簡便な情報検索、機器操作案内等のサービスを提供することができる。 In recent years, an information processing system that automatically responds to user input such as voice and text, such as automatic response to inquiries and consultations, interactive search, and interactive device operation (hereinafter referred to as "dialogue system"). Development is in progress. According to the dialogue system, it is possible to provide a user with services such as constant and immediate inquiry response, simple information retrieval, and device operation guidance.

対話システムには、例えば、ユーザの多様な入力表現に対して、表現の同義性を吸収しつつ区別を要する表現については区別して精度よく適切な応答を返すことが求められる。特許文献1に記載の対話システムは、複合対話ドメインにおいて対話システムとユーザとの間の効率的な対話の実現を図るものであるが、上記のような観点から対話システムの品質を向上する仕組みについては開示されていない。 The dialogue system is required to, for example, respond to various input expressions of the user by absorbing the synonyms of the expressions, distinguishing the expressions that require distinction, and returning an accurate and appropriate response. The dialogue system described in Patent Document 1 aims to realize an efficient dialogue between the dialogue system and the user in the composite dialogue domain. Regarding a mechanism for improving the quality of the dialogue system from the above viewpoints. Is not disclosed.

本発明は、こうした背景に鑑みてなされたものであり、ユーザの多様な入力表現に対して精度よく適切な応答を返すことが可能な、対話システム、及び対話システムの制御方法を提供することを目的としている。 The present invention has been made in view of such a background, and provides a dialogue system and a control method of the dialogue system capable of returning an accurate and appropriate response to various input expressions of the user. I am aiming.

上記目的を達成するための本発明の一つは、情報処理装置を用いて構成される対話システムであって、入力文に対して応答文を出力する対話処理部と、前記入力文を想定した文である想定入力文と前記応答文とを対応付けた質問応答データ、同義語辞書、対話のトピックに応じて互いに区別されるべき用語である区別用語のリストである区別用語リスト、及び入力文と想定入力文との類似度を求める類似度算出モデルを記憶する記憶部と、前記類似度算出モデルを生成する類似度算出モデル生成部と、を備え、前記類似度算出モデル生成部は、前記同義語辞書に記録されている同義語同士は類似度が高く、前記区別用語リストの区別用語同士は類似度が低くなるように類似度を算出する類似度算出モデルを生成し、前記対話処理部は、前記入力文と前記想定入力文との類似度を、前記類似度算出モデルを用いて求め、求めた前記類似度に基づき前記想定入力文を選択し、選択した当該想定入力文に対応する応答文を出力する。 One of the present inventions for achieving the above object is a dialogue system configured by using an information processing apparatus, assuming a dialogue processing unit that outputs a response statement to an input statement and the input statement. Question-and-answer data in which the assumed input sentence, which is a sentence, and the response sentence are associated with each other, a synonym dictionary, a distinctive term list, which is a list of distinctive terms that should be distinguished from each other according to the topic of dialogue, and an input sentence. A storage unit that stores a similarity calculation model for obtaining the similarity between the sentence and the assumed input sentence, and a similarity calculation model generation unit that generates the similarity calculation model, and the similarity calculation model generation unit is described above. A similarity calculation model is generated in which the similarity is calculated so that the synonyms recorded in the synonym dictionary have a high degree of similarity and the distinctive words in the distinction term list have a low degree of similarity. Obtains the similarity between the input sentence and the assumed input sentence by using the similarity calculation model, selects the assumed input sentence based on the obtained similarity, and corresponds to the selected assumed input sentence. Output the response statement.

その他、本願が開示する課題、及びその解決方法は、発明を実施するための形態の欄、及び図面により明らかにされる。 In addition, the problems disclosed in the present application and the solutions thereof will be clarified by the column of the form for carrying out the invention and the drawings.

本発明によれば、ユーザの多様な入力表現に対して精度よく適切な応答を返すことができる。 According to the present invention, it is possible to return an accurate and appropriate response to various input expressions of the user.

対話システムの概略的な構成を示す図である。It is a figure which shows the schematic structure of the dialogue system. 対話システムを構成する情報処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the information processing apparatus which constitutes a dialogue system. 対話システムの基本動作の概略を示す図である。It is a figure which shows the outline of the basic operation of a dialogue system. 質問応答データの起源となるFAQのWebページを示す図である。It is a figure which shows the Web page of FAQ which is the origin of question answering data. FAQに基づき生成される質問応答データの概略を示す図である。It is a figure which shows the outline of the question answering data generated based on FAQ. 質問応答データの起源となるマニュアルを示す図である。It is a figure which shows the manual which is the origin of the question answering data. マニュアルに基づき生成される質問応答データの概略を示す図である。It is a figure which shows the outline of the question answering data generated based on a manual. 質問応答データの起源となる仕様書を示す図である。It is a figure which shows the specification which is the origin of the question answering data. 仕様書に基づき生成されるシナリオ表形式の質問応答データの概略を示す図である。It is a figure which shows the outline of the question answering data of a scenario table format generated based on a specification. シナリオ表形式の質問応答データに基づく対話手順を説明する図である。It is a figure explaining the dialogue procedure based on the question answering data of a scenario table format. 同義語辞書の一例である。This is an example of a synonym dictionary. 区別用語リストの一例である。This is an example of a list of distinguishing terms. 主要用語リストの一例である。This is an example of a list of main terms. ユーザ端末に表示される画面の一例である。This is an example of a screen displayed on a user terminal. ユーザ端末に表示される画面の一例である。This is an example of a screen displayed on a user terminal. ユーザ端末に表示される画面の一例である。This is an example of a screen displayed on a user terminal. ユーザ端末に表示される画面の一例である。This is an example of a screen displayed on a user terminal.

以下、図面を参照しつつ本発明の実施形態について説明する。尚、以下の記載及び図面は、本発明を説明するための例示であって、説明の明確化のため、適宜、省略及び簡略化がなされている。本発明は、他の種々の形態でも実施する事が可能である。とくに限定しない限り、各構成要素は単数でも複数でも構わない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following description and drawings are examples for explaining the present invention, and are appropriately omitted or simplified for the sake of clarification of the description. The present invention can also be implemented in various other forms. Unless otherwise specified, each component may be singular or plural.

以下に説明する発明の構成において、同一部分又は同様な機能を有する部分には同一の符号を異なる図面間で共通して用い、重複する説明は省略することがある。また、同一あるいは同様な機能を有する要素が複数ある場合に同一の符号に異なる添字を付して説明することがある。但し、複数の要素を区別する必要がない場合は添字を省略して説明することがある。 In the configuration of the invention described below, the same reference numerals may be used in common among different drawings for the same parts or parts having similar functions, and duplicate description may be omitted. Further, when there are a plurality of elements having the same or similar functions, the same code may be described with different subscripts. However, if it is not necessary to distinguish between multiple elements, the subscript may be omitted for explanation.

以下の説明において、「データ」という表現にて各種のデータを説明することがあるが、各種のデータは、テーブルやリスト等の他のデータ構造で表現されていてもよい。また、識別情報について説明する際に、「識別子」、「ID」等の表現を用いるが、これらについてはお互いに置換することが可能である。また、以下の説明において、符号の前に付した「s」の文字は処理ステップの意味である。 In the following description, various types of data may be described by the expression "data", but various types of data may be expressed by other data structures such as tables and lists. Further, when the identification information is described, expressions such as "identifier" and "ID" are used, but these can be replaced with each other. Further, in the following description, the character "s" added before the reference numeral means a processing step.

図1に、一実施形態として例示する情報処理システムである対話システム1の概略的な構成を示している。同図に示すように、対話システム1は、対話装置10と、対話装置10と通信ネットワーク30を介して通信可能に接続するユーザ端末40とを含む。 FIG. 1 shows a schematic configuration of a dialogue system 1 which is an information processing system exemplified as an embodiment. As shown in the figure, the dialogue system 1 includes a dialogue device 10 and a user terminal 40 that is communicably connected to the dialogue device 10 via a communication network 30.

対話装置10は、ユーザからの問い合わせ文等のユーザから受け付けたテキスト形式の文(以下、「入力文」と称する。)に対する応答文を生成してユーザ端末40に送信する。対話装置10とユーザとの間の対話は、例えば、Webページを介したチャット形式で行われる。 The dialogue device 10 generates a response sentence to a text-formatted sentence (hereinafter, referred to as “input sentence”) received from the user such as an inquiry sentence from the user, and transmits the response sentence to the user terminal 40. The dialogue between the dialogue device 10 and the user is performed, for example, in a chat format via a Web page.

図2は、対話装置10の主な機能を説明するシステムフロー図である。同図に示すように、対話装置10は、対話コンテンツ管理部5、類似度算出モデル生成部6、及び対話処理部7の各機能を備える。対話コンテンツ管理部5は、質問応答生成部51、区別用語リスト生成部52、及び主要用語リスト生成部53の各機能を含む。対話処理部7は、質問応答生成部71、及び入力補助部72の各機能を含む。対話装置10は、図示しない記憶部を備える。記憶部は、テキストデータ21、対話コンテンツ22(質問応答データ221、同義語辞書222、区別用語リスト223)、類似度算出モデル23、及び主要用語リスト24を記憶する。 FIG. 2 is a system flow diagram illustrating the main functions of the dialogue device 10. As shown in the figure, the dialogue device 10 includes the functions of the dialogue content management unit 5, the similarity calculation model generation unit 6, and the dialogue processing unit 7. The dialogue content management unit 5 includes the functions of the question answering generation unit 51, the distinctive term list generation unit 52, and the main term list generation unit 53. The dialogue processing unit 7 includes the functions of the question answering generation unit 71 and the input assisting unit 72. The dialogue device 10 includes a storage unit (not shown). The storage unit stores the text data 21, the dialogue content 22 (question response data 221, synonym dictionary 222, distinctive term list 223), the similarity calculation model 23, and the main term list 24.

対話コンテンツ管理部5の質問応答生成部51は、テキストデータ21に基づき質問応答データ221を生成する。テキストデータ21は、例えば、業務マニュアル、業務報告書、仕様書、Webページ等から取得される、テキスト形式のデータである。尚、質問応答データ221は、ユーザが手動で作成(入力)してもよい。 The question answering generation unit 51 of the dialogue content management unit 5 generates the question answering data 221 based on the text data 21. The text data 21 is, for example, text data obtained from a business manual, a business report, a specification, a Web page, or the like. The question answering data 221 may be manually created (input) by the user.

質問応答データ221は、質問文と応答文との対応や対話の流れ等に関する情報を含む。具体的には、質問応答データ221は、ユーザからの質問と当該質問に対する応答との組合せ、対話装置10側からユーザヘの質問に対してユーザが何らかの応答文を返したときに、その応答文と次にユーザに送出する質問文との組合せ等を集約したデータである。 The question answering data 221 includes information on the correspondence between the question text and the response text, the flow of dialogue, and the like. Specifically, the question answering data 221 is a combination of a question from the user and a response to the question, and when the user returns some response sentence to the question from the dialogue device 10 side to the user, the response sentence and the response sentence. It is data that aggregates the combination with the question text to be sent to the user next.

対話処理部7は、ユーザ端末40を介してテキストデータを送受信することによりユーザと対話処理を行う。対話処理部7の質問応答生成部71は、ユーザ端末40から入力文を受信すると、受信した入力文に対応する応答文を質問応答データ221から検索する。検索に際し、質問応答生成部71は、同義語辞書222、区別用語リスト223、及び類似度算出モデル23を用いる。 The dialogue processing unit 7 performs dialogue processing with the user by transmitting and receiving text data via the user terminal 40. When the question response generation unit 71 of the dialogue processing unit 7 receives the input sentence from the user terminal 40, the question response generation unit 71 searches the question response data 221 for the response sentence corresponding to the received input sentence. In the search, the question answering generation unit 71 uses the synonym dictionary 222, the distinctive term list 223, and the similarity calculation model 23.

同義語辞書222は、同義語を対応付けた情報を含む。同義語辞書222は、既存の同義語辞書でもよいし、例えば、対話装置10がユーザとの間で行った対話に際して取得した情報(質問文、応答文等)を分析することにより自動生成したものでもよい。 The synonym dictionary 222 includes information associated with synonyms. The synonym dictionary 222 may be an existing synonym dictionary, or is automatically generated, for example, by analyzing information (question sentence, response sentence, etc.) acquired by the dialogue device 10 during a dialogue with the user. But it may be.

区別用語リスト223は、話題(以下、「トピック」と称する。)毎に区別を要する用
語の組合せ(以下、「区別用語」と称する。)のリストを含む。区別用語リスト223は、例えば、対話コンテンツ管理部5の区別用語リスト生成部52が、質問応答データ221、同義語辞書222、テキストデータ21等を用いて生成する。また、区別用語リスト223は、ユーザが手動で作成(入力)してもよい。
The distinguishing term list 223 includes a list of combinations of terms (hereinafter referred to as "distinguishing terms") that require distinction for each topic (hereinafter referred to as "topic"). The distinctive term list 223 is generated by, for example, the distinctive term list generation unit 52 of the dialogue content management unit 5 using the question and answer data 221, the synonym dictionary 222, the text data 21, and the like. Further, the distinctive term list 223 may be manually created (input) by the user.

尚、対話処理部7による上記の検索において区別用語リスト223を用いるのは、ユーザの多様な入力表現に対して精度よく適切な応答を返すためである。表記が類似する単語同士であっても、対話のトピックによっては表現を区別しなければならないことがあるが、同義語辞書222は、同義表現を統一して扱うためのものであり、同義語辞書222のみに基づき質問応答生成部71が検索を行うと、対話のトピックに応じた区別を要する表現を扱えなくなることがある。本実施形態の対話装置10は、区別用語リスト223を併用することで、ユーザの多様な入力表現に対して表現の同義性を吸収しつつ区別を要する表現については区別して精度よく適切な応答を返す。 The reason why the distinctive term list 223 is used in the above search by the dialogue processing unit 7 is to return an accurate and appropriate response to various input expressions of the user. Even if words have similar notations, it may be necessary to distinguish expressions depending on the topic of dialogue, but the synonym dictionary 222 is for handling synonymous expressions in a unified manner, and is a synonym dictionary. If the question answering generation unit 71 performs a search based only on 222, it may not be possible to handle expressions that require distinction according to the topic of dialogue. By using the distinctive term list 223 together, the dialogue device 10 of the present embodiment absorbs the synonyms of expressions for various input expressions of the user, distinguishes expressions that require distinction, and provides an accurate and appropriate response. return.

類似度算出モデル23は、入力文と、質問応答データ221における想定入力文との類
似度を求める関数や機械学習モデルである。類似度算出モデル23は、類似度算出モデル生成部6によって生成される。対話処理部7は、ユーザとの対話に際し、類似度算出モデル23を用いることで、入力文に一致する入力文(以下、「想定入力文」と称する。)が質問応答データ221に定義されていない場合でも、入力文が質問応答データ221におけるいずれの入力文に対応するのかを特定する。
The similarity calculation model 23 is a function or a machine learning model for obtaining the similarity between the input sentence and the assumed input sentence in the question response data 221. The similarity calculation model 23 is generated by the similarity calculation model generation unit 6. By using the similarity calculation model 23 when the dialogue processing unit 7 interacts with the user, an input sentence (hereinafter, referred to as “assumed input sentence”) matching the input sentence is defined in the question response data 221. Even if there is no input sentence, it is specified which input sentence in the question / answer data 221 corresponds to.

対話コンテンツ管理部5の主要用語リスト生成部53は、対話装置10の対話処理部7が、ユーザが適切な入力文を入力できるように補助する機能である入力補助部72によって参照される主要用語リスト24を生成する。尚、主要用語リスト24は、例えば、ユーザが手動で作成(入力)してもよい。 The main term list generation unit 53 of the dialogue content management unit 5 is a main term referred to by the input assist unit 72, which is a function of assisting the dialogue processing unit 7 of the dialogue device 10 to input an appropriate input sentence. Generate Listing 24. The main term list 24 may be manually created (input) by the user, for example.

図3に、対話装置10やユーザ端末40を構成する情報処理装置100のハードウェア構成の一例を示す。同図に示すように、情報処理装置100は、プロセッサ101、主記憶装置102、通信装置103、入力装置104、出力装置105、及び補助記憶装置106を備える。 FIG. 3 shows an example of the hardware configuration of the information processing device 100 constituting the dialogue device 10 and the user terminal 40. As shown in the figure, the information processing device 100 includes a processor 101, a main storage device 102, a communication device 103, an input device 104, an output device 105, and an auxiliary storage device 106.

プロセッサ101は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、AI(Artificial Intelligence)チップ、FPGA(Field Programmable Gate Array)、SoC(System on Chip)、ASIC(Application Specific Integrated Circuit)等を用いて構成される。 The processor 101 is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), an AI (Artificial Intelligence) chip, an FPGA (Field Programmable Gate Array), a SoC (System on Chip), and an ASIC. (Application Specific Integrated Circuit) etc. are used.

主記憶装置102は、プログラムやデータを記憶する装置であり、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ(NVRAM(Non Volatile RAM))等である。 The main storage device 102 is a device for storing programs and data, and is, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), a non-volatile memory (NVRAM (Non Volatile RAM)), and the like.

通信装置103は、通信ネットワークや通信ケーブル等を介してユーザ端末等の他の情報処理装置との間で通信を行う装置であり、無線又は有線の通信モジュール(無線通信モジュール、通信ネットワークアダプタ、USBモジュール等)である。 The communication device 103 is a device that communicates with other information processing devices such as a user terminal via a communication network, a communication cable, or the like, and is a wireless or wired communication module (wireless communication module, communication network adapter, USB). Module etc.).

入力装置104と出力装置105は、対話装置10のユーザインタフェースを構成する。入力装置104は、外部からのユーザ入力やデータ入力を受け付けるユーザインタフェースであり、例えば、キーボード、マウス、タッチパネル、カードリーダ、音声入力装置(例えば、マイクロフォン)等である。出力装置105は、各種情報をユーザに向けて出力するユーザインタフェースであり、各種情報を表示する表示装置(液晶ディスプレイ、有機ELパネル等)、各種情報を音声によって出力する音声出力装置(例えば、スピーカ)、紙媒体に印刷するプリンタ等である。 The input device 104 and the output device 105 form a user interface of the dialogue device 10. The input device 104 is a user interface that accepts user input and data input from the outside, and is, for example, a keyboard, a mouse, a touch panel, a card reader, a voice input device (for example, a microphone), and the like. The output device 105 is a user interface that outputs various information to the user, and is a display device (liquid crystal display, organic EL panel, etc.) that displays various information, and a voice output device (for example, a speaker) that outputs various information by voice. ), Printers that print on paper media, etc.

補助記憶装置106は、プログラムやデータを格納する装置であり、例えば、SSD(Solid State Drive)、ハードディスクドライブ、光学式記憶媒体(CD(Compact Disc
)、DVD(Digital Versatile Disc)等)、ICカード、SDカード等である。補助記憶装置106には、対話装置10の機能を実現するためのプログラム及びデータが格納されている。補助記憶装置106は、記録媒体の読取装置や通信装置103を介してプログラムやデータの書き込み/読み出しが可能である。補助記憶装置106に格納(記憶)されているプログラムやデータは、主記憶装置102に随時読み出される。プロセッサ101が、主記憶装置102に格納されているプログラムを読み出して実行することにより、対話装置10が備える各機能が実現される。
The auxiliary storage device 106 is a device for storing programs and data, for example, an SSD (Solid State Drive), a hard disk drive, and an optical storage medium (CD (Compact Disc)).
), DVD (Digital Versatile Disc), etc.), IC card, SD card, etc. The auxiliary storage device 106 stores programs and data for realizing the functions of the dialogue device 10. The auxiliary storage device 106 can write / read programs and data via the reading device of the recording medium and the communication device 103. Programs and data stored (stored) in the auxiliary storage device 106 are read out to the main storage device 102 at any time. When the processor 101 reads out and executes the program stored in the main storage device 102, each function of the dialogue device 10 is realized.

対話装置10の機能の全部又は一部を、他の演算装置(例えば、FPGA(Field Programable Gate Array)やASIC(Application Specific Integrated Circuit)等のハ
ードウェアによって実現してもよい。
All or part of the functions of the dialogue device 10 may be realized by hardware such as another arithmetic unit (for example, FPGA (Field Programable Gate Array) or ASIC (Application Specific Integrated Circuit)).

情報処理装置100は、例えば、パーソナルコンピュータ(デスクトップ型又はノートブック型)、スマートフォン、タブレット、汎用機等である。情報処理装置100の全部又は一部は、例えば、クラウドシステムにより提供されるクラウドサーバのように仮想的な情報処理資源を用いて実現されるものであってもよい。 The information processing device 100 is, for example, a personal computer (desktop type or notebook type), a smartphone, a tablet, a general-purpose machine, or the like. All or part of the information processing apparatus 100 may be realized by using virtual information processing resources such as a cloud server provided by a cloud system.

続いて、対話コンテンツ管理部5の質問応答生成部51が質問応答データ221を生成する機能について具体的に説明する。 Subsequently, the function of the question answering generation unit 51 of the dialogue content management unit 5 to generate the question answering data 221 will be specifically described.

図4A、図4Bは、質問応答生成部51が、FAQ(Frequently Asked Question)が
掲載されたWebページから取得されるテキストデータに基づき質問応答データ221を生成する場合を例示している。
4A and 4B illustrate the case where the question answering generation unit 51 generates the question answering data 221 based on the text data acquired from the Web page on which the FAQ (Frequently Asked Question) is posted.

図4Aは、質問応答データ221の生成元となるテキストデータ21の一例であり、FAQが掲載されたWebページの例である。同図に示すように、例示するWebページには、FAQにおける個々の質問文301と応答文302とが、「サービスAの申込方法」、「住所の変更方法」等のタイトルで分類されて記載されている。 FIG. 4A is an example of the text data 21 that is the generation source of the question answering data 221 and is an example of a Web page on which the FAQ is posted. As shown in the figure, in the illustrated Web page, the individual question sentence 301 and the response sentence 302 in the FAQ are classified and described by titles such as "how to apply for service A" and "how to change the address". Has been done.

図4Bは、図4Aに示すテキストデータ21に基づき生成される質問応答データ221の例である。同図に示すように、例示する質問応答データ221は、質問文と応答文とのペアからなるテキスト(以下、「QA対データ」と称する。)である。対話コンテンツ管理部5は、Webページから質問文と当該質問文に対応する応答文との組合せを抽出し、抽出した組合せに基づきQA対データを生成する。本例の場合、FAQの質問が想定入力文となる。 FIG. 4B is an example of question answering data 221 generated based on the text data 21 shown in FIG. 4A. As shown in the figure, the illustrated question-answering data 221 is a text (hereinafter, referred to as "QA vs. data") composed of a pair of a question sentence and a response sentence. The dialogue content management unit 5 extracts a combination of the question sentence and the response sentence corresponding to the question sentence from the Web page, and generates QA pair data based on the extracted combination. In the case of this example, the FAQ question is the assumed input sentence.

図5A、図5Bは、質問応答生成部51が、一定の構造に従って記載されている業務マニュアル等のマニュアルからなるテキストデータ21から質問応答データ221を生成する場合を例示している。対話コンテンツ管理部5は、マニュアルからなるテキストデータ21における章節や文体の構造の特徴に基づき、QA対データと、そのQA対データを集約した質問応答データ221を生成する。 5A and 5B illustrate the case where the question answering generation unit 51 generates the question answering data 221 from the text data 21 consisting of a manual such as a business manual described according to a certain structure. The dialogue content management unit 5 generates QA pair data and question / answer data 221 that aggregates the QA pair data based on the characteristics of the chapters and stylistic structure in the text data 21 composed of the manual.

図5Aは、質問応答データ221の生成元となるテキストデータ21の一例であり、マニュアルの一部から抽出されたデータである。例示するマニュアルには、第5章の表題として「サービスAについて」が記載され、第5章の第1節(5.1節)に「サービスAの申込方法」について記載されている。本例の場合、対話コンテンツ管理部5は、第5章の表題「サービスA」と、5.1節の表題「申込方法」とを「の」で結合した「サービスAの申込方法は?」という質問を生成するとともに、5.1節に記載されている内容をその質問に対する応答として抽出する。また、例示するマニュアルには「6.基本情報の変更」という章があり、基本情報の種類ごとに「6.1 住所」等の項目がある。対話コンテンツ管理部5は、「6.基本情報の変更」における「基本情報」の記載箇所を節の表題(例えば、「住所」)に変更することにより「住所の変更方法は?」との質問を生成するとともに、6.1節に記載されている内容を、その質問に対する応答として抽出する。 FIG. 5A is an example of the text data 21 that is the generation source of the question answering data 221 and is the data extracted from a part of the manual. In the illustrated manual, "About Service A" is described as the title of Chapter 5, and "How to apply for Service A" is described in Section 1 (Section 5.1) of Chapter 5. In the case of this example, the dialogue content management unit 5 combines the title "Service A" in Chapter 5 and the title "Application method" in Section 5.1 with "no", "How to apply for Service A?" Is generated, and the content described in Section 5.1 is extracted as a response to the question. In addition, the illustrated manual has a chapter "6. Change of basic information", and there are items such as "6.1 address" for each type of basic information. The dialogue content management unit 5 asks "How to change the address?" By changing the description of "basic information" in "6. Change of basic information" to the title of the section (for example, "address"). Is generated, and the content described in Section 6.1 is extracted as a response to the question.

図5Bは、図5Aに示すテキストデータ21から生成される質問応答データ221の例である。同図に示すように、対話コンテンツ管理部5は、「サービスAの申込方法は?」を質問文とし、「店舗またはWebサイトからお手続き頂けます。」を応答文としたQA対データを生成する。また、対話コンテンツ管理部は、「住所の変更方法は?」という質問文と、「Webサイトからお手続き頂けます。」という応答文とをペアにしたQA対データを生成する。 FIG. 5B is an example of question answering data 221 generated from the text data 21 shown in FIG. 5A. As shown in the figure, the dialogue content management unit 5 generates QA vs. data with the question text "How to apply for service A?" And the response text "You can complete the procedure from the store or website." do. In addition, the dialogue content management department generates QA vs. data that pairs the question text "How to change the address?" And the response text "You can complete the procedure from the website."

図6A、図6Bは、対話装置10が、ユーザとの対話を通じてユーザの希望に叶う商品を特定する情報(型番、製品名等)を提示するサービスを提供す場合における、テキストデータ21と質問応答データ221の例である。対話装置10は、例えば、ユーザがある商品を購入しようとする際、ユーザの希望に沿った商品をユーザとの対話を通じて提示する。図6A及び図6Bには、ユーザがある商品としてBTO(Build To Order)方式のパーソナルコンピュータ(以下、「PC」と称する。)を購入しようとする場合を例示している。質問応答生成部51は、商品であるPCの構成部品の仕様が記載された仕様表のテキストデータ21に基づき質問応答データ221を生成する。 6A and 6B show text data 21 and question answering when the dialogue device 10 provides a service for presenting information (model number, product name, etc.) that identifies a product that meets the user's wishes through dialogue with the user. This is an example of data 221. For example, when a user wants to purchase a certain product, the dialogue device 10 presents the product according to the user's wishes through a dialogue with the user. 6A and 6B illustrate a case where a user intends to purchase a BTO (Build To Order) type personal computer (hereinafter referred to as "PC") as a certain product. The question answering generation unit 51 generates question answering data 221 based on the text data 21 of the specification table in which the specifications of the components of the PC as a product are described.

図6Aは、テキストデータ21の一例であり、商品であるPCの構成部品の仕様が記載された仕様表である。同図に示すように、仕様表には、各商品について、商品名、価格、記憶装置、ポート等を対応付けた情報を含む。 FIG. 6A is an example of text data 21, and is a specification table in which specifications of components of a personal computer, which is a commercial product, are described. As shown in the figure, the specification table includes information associated with the product name, price, storage device, port, etc. for each product.

図6Bは、図6Aに示した仕様表のテキストデータ21に基づき質問応答生成部51が生成する質問応答データ221の例である。同図に示すように、例示する質問応答データ221は、エントリ(レコード)の識別子(ID)に、ユーザに対して行う質問と、当該質問に対して想定されるユーザの応答部(想定入力文)と、ユーザに対して次に行う質問とを対応付けた情報を含む。 FIG. 6B is an example of question answering data 221 generated by the question answering generation unit 51 based on the text data 21 of the specification table shown in FIG. 6A. As shown in the figure, the example question answering data 221 has an entry (record) identifier (ID), a question to be asked to the user, and a expected user response unit (assumed input sentence) to the question. ) And the information associated with the next question to be asked to the user.

図6Bに示した質問応答データ221は、対話装置10の対話処理部7が行った質問に対するユーザからの応答文(想定入力文)に応じて次の質問を決定するための情報を含む。即ち質問応答データ221は、対話処理部7がユーザとの間で対話処理を進めていくためのシナリオを表形式でまとめた情報(以下、「シナリオ表」と称する。)である。 The question answering data 221 shown in FIG. 6B includes information for determining the next question according to the response sentence (assumed input sentence) from the user to the question asked by the dialogue processing unit 7 of the dialogue device 10. That is, the question-answering data 221 is information (hereinafter, referred to as a "scenario table") that summarizes the scenarios for the dialogue processing unit 7 to proceed with the dialogue processing with the user in a table format.

図6Cは、対話処理部7がユーザとの間で行う対話(チャット)の手順を説明する図である。対話処理部7は、まずユーザ端末40に、図6Bに示したシナリオ表の最初の質問Q1(例えば、「記憶装置はどれにしますか?」)を送出する。ユーザが質問Q1に対して応答文(例えば、「HDD」、「ハードディスク装置」等。ここでは一例として想定入力文A1や当該A1に近い応答文であるものとする。)を返送すると、対話処理部7は、シナリオ表を検索し、質問Q1と想定入力文A1とに対応付けされている次の質問Q2を取得する。質問Q2が、例えば、「USB」の属性について「USBポートの規格は何にしますか?」との質問であれば、対話処理部7は、質問Q2をユーザ端末40に向けて送出し、質問Q2に対するユーザの応答に応じて次の質問をシナリオ表から取得し、取得した質問をユーザ端末40に送出する。以上のようにして対話処理部7は最終的に一つの商品を特定し、その商品名をユーザ端末40に送出する。 FIG. 6C is a diagram illustrating a procedure of dialogue (chat) performed by the dialogue processing unit 7 with the user. The dialogue processing unit 7 first sends to the user terminal 40 the first question Q1 (for example, "Which storage device do you want?") In the scenario table shown in FIG. 6B. When the user returns a response sentence (for example, "HDD", "hard disk device", etc., here, as an example, it is assumed that the expected input sentence A1 or a response sentence close to the A1) is returned to the question Q1, the dialogue process is performed. Part 7 searches the scenario table and acquires the next question Q2 associated with the question Q1 and the assumed input sentence A1. If the question Q2 is, for example, a question "What is the standard of the USB port?" For the attribute of "USB", the dialogue processing unit 7 sends the question Q2 to the user terminal 40 and asks a question. The next question is acquired from the scenario table according to the user's response to Q2, and the acquired question is sent to the user terminal 40. As described above, the dialogue processing unit 7 finally identifies one product and sends the product name to the user terminal 40.

図7に同義語辞書222の一例を示す。同図に示すように、同義語辞書222は、同義語や類義語等、意味が近い表現を関連付けた情報を含む。 FIG. 7 shows an example of the synonym dictionary 222. As shown in the figure, the synonym dictionary 222 includes information associated with expressions having similar meanings such as synonyms and synonyms.

図8に、区別用語リスト223の一例を示す。例示する区別用語リスト223は、トピック「保険業」についての区別用語リスト223の一例である。区別用語リスト223は、表記が類似していても対話のトピックに応じて区別すべき用語を互いに独立した区別用語とし、その区別用語を一覧にしたものである。例えば、「保険料」と「保険金」は表記が類似し関連語であるが、「保険業」においては両者は明確に区別する必要がある。例示する区別用語リスト223では、「保険料」と「保険金」が個別の区別用語として(異なるエントリ(レコード)のデータとして)登録されている。例示する区別用語リスト223では、区別用語に同義語が存在する場合、そのうちの一の同義語を代表語とし、他の同義語は代表語に対応付けて(同じエントリ(レコード)のデータとして)登録される。 FIG. 8 shows an example of the distinctive term list 223. Illustrated Distinguished Term List 223 is an example of Distinguished Term List 223 for the topic "Insurance". The distinctive term list 223 is a list of terms that should be distinguished according to the topic of dialogue, even if the notations are similar, as distinctive terms that are independent of each other. For example, "insurance premium" and "insurance money" have similar notations and are related terms, but in "insurance industry", it is necessary to clearly distinguish between them. In the illustrated distinctive term list 223, "insurance premium" and "insurance claim" are registered as separate distinctive terms (as data of different entries (records)). In the illustrated distinguished term list 223, when a synonym exists in the distinguished term, one of the synonyms is used as the representative word, and the other synonyms are associated with the representative word (as data of the same entry (record)). be registered.

区別用語リスト223は様々な態様を取り得る。例えば、トピックが「商品やサービス
に関する問い合わせ」等である場合、例えば、「プランA」と「プランB」のように商品名やサービス名の表現が類似していることがあり、この場合、区別用語リスト223に「プランA」と「プランB」が夫々区別用語として登録される。また、例えば、トピックが図5Aに示した仕様表の内容に関するものである場合、例えば、「USB2.0」と「USB3.0」が区別用語として登録される。
The distinctive term list 223 can take various aspects. For example, when the topic is "inquiries about products and services", for example, the expressions of product names and service names may be similar, such as "plan A" and "plan B", and in this case, distinction is made. "Plan A" and "Plan B" are registered as distinct terms in the term list 223. Further, for example, when the topic relates to the contents of the specification table shown in FIG. 5A, for example, "USB2.0" and "USB3.0" are registered as distinct terms.

区別用語リスト223は、例えば、対話コンテンツ管理部5の区別用語リスト生成部52が、質問応答データ221やテキストデータ21から区別用語を抽出し、抽出した区別用語を集約することにより生成される。 The distinctive term list 223 is generated, for example, by the distinctive term list generation unit 52 of the dialogue content management unit 5 extracting the distinctive terms from the question answering data 221 and the text data 21 and aggregating the extracted distinctive terms.

図2とともに区別用語リスト生成部52が区別用語リスト223を生成する処理について説明する。 A process of generating the distinctive term list 223 by the distinctive term list generation unit 52 will be described with reference to FIG.

区別用語リスト生成部52は、例えば、質問応答データ221が、図4Bや図5Bに例示した質問文と応答文の対の形式である場合、区別用語リスト生成部52は、例えば、質問文に含まれているある名詞、複合名詞を抽出する。区別を要する用語は、例えば、保険の申し込みに関する問い合わせであれば「プランA」と「プランB」、「保険料」と「保険金」のように、名詞または複合名詞であることが多く、区別して理解する必要がある。尚、区別用語は、名詞や複合名詞に限らず、他の品詞であってもよい。区別用語語の品詞は、例えば、対話のトピック等に応じて設定することができる。 For example, when the question / answer data 221 is in the form of a pair of a question sentence and a response sentence exemplified in FIG. 4B or FIG. Extract certain contained nouns and compound nouns. Terms that require distinction are often nouns or compound nouns, such as "plan A" and "plan B", "insurance premium" and "insurance money" for inquiries regarding insurance applications. It needs to be understood separately. The distinctive term is not limited to a noun or a compound noun, and may be another part of speech. The part of speech of the distinctive term can be set according to, for example, the topic of dialogue.

また、区別用語リスト生成部52は、例えば、形態素解析や構文解析等を行うことによりテキストデータ21から区別用語を抽出する。区別用語リスト生成部52は、例えば、抽出した区別用語を代表語とし、各代表語に同義語辞書222に基づく同義語を対応付けする。例えば、区別用語として抽出した「保険金」、「保険料」、「パスポート」のうち、「保険料」には「掛け金」、「パスポート」には「旅券」が夫々同義表現として同義語辞書222に登録されている場合、区別用語リスト生成部52は、「保険金」と「保険料」とを個別の区別用語として区別用語リスト223の別の欄に登録し、「保険料」については「掛け金」と同義語であるとして、」、また「パスポート」については「旅券」と同義語であるとして、夫々、区別用語リスト223の同じ欄に登録する。 Further, the distinguishing term list generation unit 52 extracts the distinguishing term from the text data 21 by, for example, performing morphological analysis, syntactic analysis, or the like. For example, the distinctive term list generation unit 52 uses the extracted distinctive terms as representative words, and associates synonyms based on the synonym dictionary 222 with each representative word. For example, of the "insurance claims," "insurance premiums," and "passports" extracted as distinctive terms, "insurance premiums" are synonymous with "stakes," and "passports" are synonymous with the synonym dictionary 222. When registered in, the distinctive term list generation unit 52 registers "insurance money" and "insurance premium" as individual distinctive terms in another column of the distinctive term list 223, and "insurance premium" is "insurance premium". As a synonym for "insurance", and as a synonym for "passport" for "passport", they are registered in the same column of the distinctive term list 223, respectively.

尚、仕様表のようなテキストデータ21から区別用語を抽出する場合、仕様表の表内の属性値の用語同士は区別される必要があるため、区別用語リスト生成部52は、これらの用語を区別用語として抽出する。また、シナリオ表のような形式の質問応答データ221から区別用語を抽出する場合、区別用語リスト生成部52は、質問文、応答文(想定入力文)、次の質問の中から、名詞や複合名詞等を区別用語として抽出する。 When extracting the distinguishing terms from the text data 21 such as the specification table, the terms of the attribute values in the table of the specification table need to be distinguished from each other. Therefore, the distinguishing term list generation unit 52 uses these terms. Extract as a distinguishing term. Further, when the distinction term is extracted from the question response data 221 in the form of a scenario table, the distinction term list generation unit 52 uses a noun or a compound from the question sentence, the response sentence (assumed input sentence), and the following question. Extract nouns as distinctive terms.

尚、区別用語リスト生成部52が、ユーザから区別用語リスト223の内容の編集を受け付けるようにしてもよい。また、区別用語リスト223は、人が質問応答データ221やテキストデータ21を参照しつつ作成してもよい。 The distinguishing term list generation unit 52 may accept editing of the contents of the distinguishing term list 223 from the user. Further, the distinctive term list 223 may be created by a person with reference to the question answering data 221 and the text data 21.

ところで、質問応答データ221のみから区別用語を抽出した場合、用語の数が多くなり、区別する必要のない用語(ノイズ)が抽出されてしまう可能性がある。そこで例えば、質問応答データ221から抽出された区別用語のうち、テキストデータ21の所定の箇所に記載されていない用語をフィルタリング(除外)し、所定の箇所に記載されているもののみを区別用語として抽出するようにしてもよい。例えば、図4Aのテキストデータ21における所定の箇所は「サービスAの申込方法」、「住所の変更方法」のようにカテゴリの表題が記載されている箇所である。また例えば、図5Aのテキストデータ21における所定の箇所は「サービスA」、「申込方法」、「解約方法」のような章節の見出しが記載されている箇所である。尚、カテゴリや章節の見出しは、区別する必要がある商品や問
い合わせ内容ごとに分類されたものであるので、例えば、カテゴリや章節の見出しに現れる用語を区別用語の代表語として抽出してもよい。
By the way, when the distinguishing term is extracted only from the question answering data 221, the number of terms may increase and the term (noise) that does not need to be distinguished may be extracted. Therefore, for example, among the distinguishing terms extracted from the question answering data 221, the terms not described in the predetermined place of the text data 21 are filtered (excluded), and only the terms described in the predetermined place are used as the distinguishing terms. It may be extracted. For example, a predetermined place in the text data 21 of FIG. 4A is a place where a category title is described, such as "method of applying for service A" and "method of changing an address". Further, for example, a predetermined place in the text data 21 of FIG. 5A is a place where chapter headings such as "service A", "application method", and "cancellation method" are described. Since the headings of categories and chapters are classified according to the products and inquiry contents that need to be distinguished, for example, the terms appearing in the headings of categories and chapters may be extracted as representative terms of the distinguishing terms. ..

類似度算出モデル23は、類似度算出モデル生成部6が、同義語辞書222と、区別用語リスト223とに基づき生成する。類似度算出モデル23は、例えば、入力文をXとし、想定入力文をYとして関数f(X,Y)と表わすことができる。類似度としては、例えば、XとYの編集距離や、Xを翻訳文、Yを正解文(参照文)とみなしたときのXとYのBLEU値等を採用することができる。また類似度として、例えば、編集距離やBLUE値以外の類似度を用いてもよい。 The similarity calculation model 23 is generated by the similarity calculation model generation unit 6 based on the synonym dictionary 222 and the distinctive term list 223. In the similarity calculation model 23, for example, the input statement is X and the assumed input statement is Y, which can be expressed as a function f (X, Y). As the degree of similarity, for example, the editing distance between X and Y, the BLEU value of X and Y when X is regarded as a translated sentence and Y is regarded as a correct sentence (reference sentence), and the like can be adopted. Further, as the similarity, for example, a similarity other than the edit distance or the BLUE value may be used.

尚、類似度算出モデル23は、同義語辞書222に基づき、表記(表層表現)が異なる語でも同一の語として扱う。そのため、同義語は同義語辞書222や区別用語リスト223を用いて予め一つの用語に統一しておくことが好ましい(「値段」、「料金」、「代金」等の用語を全て「価格」という用語に統一する等)。 The similarity calculation model 23 treats words having different notations (surface expressions) as the same word based on the synonym dictionary 222. Therefore, it is preferable to unify synonyms into one term in advance using the synonym dictionary 222 and the distinctive term list 223 (all terms such as "price", "charge", and "price" are referred to as "price". Unify the terms, etc.).

図2を参照しつつ、類似度算出モデル生成部6が類似度算出モデル23を生成する処理について説明する。類似度算出モデル生成部6は、同義語辞書222において同じ欄に登録されている用語同士の類似度が大きくなり、また、区別用語リスト223に登録されている区別用語同士の類似度が小さくなるような類似度算出モデル23を生成する。以下では、類似度算出モデル23の例(第1モデルf1(X,Y)と、第2モデルf2(X,Y))について説明する。 With reference to FIG. 2, a process in which the similarity calculation model generation unit 6 generates the similarity calculation model 23 will be described. In the similarity calculation model generation unit 6, the similarity between the terms registered in the same column in the synonym dictionary 222 increases, and the similarity between the distinct terms registered in the distinct term list 223 decreases. Such a similarity calculation model 23 is generated. Hereinafter, an example of the similarity calculation model 23 (first model f1 (X, Y) and second model f2 (X, Y)) will be described.

第1モデルf1(X,Y)による算出方法では、まず入力文Xと想定入力文Yを形態素解析や構文解析により、単語やフレーズ等の用語ごとに分解し、分解した用語の集合を夫々、S1={x1、x2、…、xn}、S2={y1、y2、…、ym}とし、S1とS2の類似度を算出する。尚、助詞等の特定の品詞や特定の用語をストップワードとして定義しておき、それらを集合S1、S2から除外しておくようにしてもよい。 In the calculation method using the first model f1 (X, Y), the input sentence X and the assumed input sentence Y are first decomposed into terms such as words and phrases by morphological analysis and syntactic analysis, and the set of decomposed terms is decomposed into each. S1 = {x1, x2, ..., Xn}, S2 = {y1, y2, ..., ym}, and the degree of similarity between S1 and S2 is calculated. It should be noted that a specific part of speech such as a particle or a specific term may be defined as a stop word, and they may be excluded from the sets S1 and S2.

S1とS2の類似度は、例えば、Jaccard係数や、Dice係数等の方法によって集合間の類似度として算出することができる。また、単語xi、yjの間の類似度s(xi、yj)をxiとyjの表記の近さ(編集距離の負数等)で定義し、WMD(Word Mover‘s Distance)等で集合S1と集合S2の類似度を算出することもできる。また、集合S1と集合S2の単語重複度等に基づく方法を用いることもできる。XとYのレーベンシュタイン距離等の編集距離を用いる方法もある。S1とS2の類似度は、更に他の算出方法により算出してもよい。このように、第1モデルf1(X,Y)では、XとYの表記に基づき類似度を算出する。尚、距離については、負数をとる等して類似度に変換する。 The degree of similarity between S1 and S2 can be calculated as the degree of similarity between sets by a method such as a Jaccard index or a Dice coefficient. Further, the similarity s (xi, yj) between the words xi and yj is defined by the closeness of the notation of xi and yj (negative number of editing distance, etc.), and the set S1 is defined by WMD (Word Mover's Distance) or the like. It is also possible to calculate the similarity of the set S2. Further, a method based on the word duplication degree of the set S1 and the set S2 can also be used. There is also a method of using an editing distance such as the Levenshtein distance between X and Y. The degree of similarity between S1 and S2 may be calculated by another calculation method. In this way, in the first model f1 (X, Y), the similarity is calculated based on the notation of X and Y. The distance is converted to the degree of similarity by taking a negative number or the like.

第1モデルf1(X,Y)に基づく算出方法では、表記に基づき類似度を算出することから、類似度算出の過程が明確であり説明性が高い。そのため、対話装置10による応答精度を改善するために、対話装置10が、例えば、何故そのような返答をするのか、対話装置10の管理者やユーザが知りたい場合に、類似度の算出過程を追跡することができる。また、第1モデルf1(X,Y)に基づく類似度の算出方法は、表記に基づくものであるため、表記が類似している場合は正しく想定入力文を推定できるという利点がある。 In the calculation method based on the first model f1 (X, Y), the similarity is calculated based on the notation, so that the process of calculating the similarity is clear and highly explanatory. Therefore, in order to improve the response accuracy of the dialogue device 10, for example, when the administrator or the user of the dialogue device 10 wants to know why such a response is made, the similarity calculation process is performed. Can be tracked. Further, since the method of calculating the similarity based on the first model f1 (X, Y) is based on the notation, there is an advantage that the assumed input sentence can be correctly estimated when the notations are similar.

尚、第1モデルf1(X,Y)に基づく算出方法は、単語の意味ではなく、表記で近さを算出するため、類似した表現であっても異なる単語として扱われる場合がある。例えば、「利用する」と「使う」は、共通する文字がないため、類似度が小さくなる。 In the calculation method based on the first model f1 (X, Y), the closeness is calculated not by the meaning of the word but by the notation, so that even similar expressions may be treated as different words. For example, "use" and "use" have no common characters, so the degree of similarity is small.

そこで、第2モデルf2(X,Y)による類似度の算出方法では、単語w1とw2の単語間類似度s(w1、w2)を用いる。単語間類似度s(w1、w2)は、個々の単語同
士の類似度であり、その算出方法としては、例えば、w1とw2の分散表現のコサイン類似度を用いる方法がある。また、w1とw2の単語概念間距離を用いる方法もある。
Therefore, in the method of calculating the similarity by the second model f2 (X, Y), the interword similarity s (w1, w2) of the words w1 and w2 is used. The inter-word similarity s (w1, w2) is the similarity between individual words, and as a calculation method thereof, for example, there is a method using the cosine similarity of the distributed expression of w1 and w2. There is also a method of using the distance between word concepts of w1 and w2.

単語間類似度s(w1、w2)を用いる算出方法では、例えば、WordNet上の2つの単語間のパスの長さ等を用いることができる。これらの単語間類似度を用いて、単語集合S1、S2の間の距離を例えば、WMDを使って算出する。第2モデルf2(X,Y)は、表記ではなく、単語の分散表現の類似度や概念距離を用いるため、表記が異なっていても、意味が類似した単語同士の類似度は高くなる。しかし単語間類似度s(w1、w2)が表記に基づく算出方法ではないため、説明性が低くなる場合がある。 In the calculation method using the interword similarity s (w1, w2), for example, the length of the path between two words on WordNet can be used. Using these word-to-word similarities, the distance between the word sets S1 and S2 is calculated using, for example, WMD. Since the second model f2 (X, Y) uses the similarity of distributed expressions of words and the conceptual distance instead of the notation, the similarity between words having similar meanings is high even if the notations are different. However, since the interword similarity s (w1, w2) is not a calculation method based on the notation, the explanatory property may be low.

尚、第2モデルf2(X,Y)による類似度の算出方法では、単語間類似度s(w1、w2)を、表記ではなく、分散表現の類似度や概念距離を用いて算出していたが、同義語辞書222と区別用語リスト223とを用いて、類似度の値を補正することとしてもよい。以下に、類似度が0〜1の間の実数をとるように正規化されている場合に類似度の値を補正する方法の一例を示す。 In the method of calculating the degree of similarity using the second model f2 (X, Y), the degree of similarity between words (w1, w2) was calculated using the degree of similarity and the conceptual distance of the distributed expression instead of the notation. However, the value of the degree of similarity may be corrected by using the synonym dictionary 222 and the distinctive term list 223. The following is an example of a method of correcting the similarity value when the similarity is normalized to take a real number between 0 and 1.

まず同義語辞書222に同義表現として記載されている用語w1、w2は、予め定めた0以上1以下の大きい値をc1として、s(w1、w2)=c1とおく。尚、w1とw2は同じ用語とみなして、c1=1としてもよい。また、区別用語リスト223に記載されている二つの区別用語(w1、w2)は予め定めた0以上1以下の小さい値をc2として、s(w1、w2)=c2とおく。例えば、c2=0としてもよい。このように補正することで、区別用語リスト223に記載されている用語同士の類似度は小さくなる。 First, the terms w1 and w2 described as synonymous expressions in the synonym dictionary 222 are set to s (w1, w2) = c1 with a predetermined large value of 0 or more and 1 or less as c1. Note that w1 and w2 may be regarded as the same term and c1 = 1. Further, for the two distinct terms (w1, w2) described in the distinct term list 223, a predetermined small value of 0 or more and 1 or less is set as c2, and s (w1, w2) = c2. For example, c2 = 0 may be set. By making such a correction, the degree of similarity between the terms listed in the distinctive term list 223 becomes small.

尚、特にWordNetの概念間類似度を用いる場合には、複数の想定質問文Yに対して、第2モデルf2(X,Y)による類似度が同じ値になる場合がある。このような場合、f1とf2とを合成した類似度算出モデルf(X,Y)を、
f(X,Y)=C×f1(X,Y)+f2(X,Y)
としてもよい。合成係数Cは、例えば、C=0.1とする。また、f1(X,Y)が十分大きいときには、表記がかなり類似しており、f1(X,Y)の値が信頼できる。そのため、予め閾値Hを定めて置き、以下の式のように、f1がHより大きい場合には、f1の値を類似度として採用してもよい。
f(X,Y)=f1(X,Y) f1(X、Y)>Hの場合
・・・式1
f(X,Y)=C×f1(X,Y)+f2(X,Y) f1(X,Y)≦Hの場合
・・・式2
In particular, when WordNet's interconceptual similarity is used, the similarity by the second model f2 (X, Y) may be the same value for a plurality of assumed question sentences Y. In such a case, the similarity calculation model f (X, Y) obtained by synthesizing f1 and f2 is used.
f (X, Y) = C × f1 (X, Y) + f2 (X, Y)
May be. The synthesis coefficient C is, for example, C = 0.1. Further, when f1 (X, Y) is sufficiently large, the notations are quite similar, and the value of f1 (X, Y) is reliable. Therefore, if the threshold value H is set in advance and f1 is larger than H as in the following equation, the value of f1 may be adopted as the degree of similarity.
When f (X, Y) = f1 (X, Y) f1 (X, Y)> H
... Equation 1
When f (X, Y) = C × f1 (X, Y) + f2 (X, Y) f1 (X, Y) ≦ H
・ ・ ・ Equation 2

このような算出方法により、表記が類似しているときにはf1が採用され、結果に対する説明性が高くなるとともに、f1の値が低く、表記が類似していない場合であっても、単語間の意味が類似している場合には、f2を主として、f2とf1の合成類似度を用いることで、高い類似度を得ることができる。 By such a calculation method, f1 is adopted when the notations are similar, the explanation for the result is improved, and even when the value of f1 is low and the notations are not similar, the meaning between words is high. When are similar, a high degree of similarity can be obtained by mainly using f2 and using the synthetic similarity of f2 and f1.

対話処理部7は、以上のようにして生成された類似度算出モデル23を用いて入力文と想定入力文との類似度を算出し、最も近い想定入力文を取得する。例えば、図6Bに示したシナリオ表に基づくユーザとの対話において、対話装置10が「記憶装置はどれにしますか?」という質問をしたときに、入力文が「Hard Disk Drive」であった場合、「記憶
装置」の属性における値(HDD、SSD)の中で、どの値に最も近いかを算出する。
The dialogue processing unit 7 calculates the similarity between the input sentence and the assumed input sentence using the similarity calculation model 23 generated as described above, and acquires the closest assumed input sentence. For example, in a dialogue with a user based on the scenario table shown in FIG. 6B, when the dialogue device 10 asks "Which storage device should I use?", The input sentence is "Hard Disk Drive". , Among the values (HDD, SSD) in the attribute of "storage device", which value is closest to is calculated.

以上により、表記が類似している場合には説明性が高い類似度を、また、表記が異なる場合でも意味が類似している場合には高い類似度を得ることができる。また、区別する必要がある用語については類似度を低く算出することができる。これにより応答精度を向上
させることができる。対話装置10は、以上のような類似度算出モデル23を用いることで、入力文と最も類似度が高い想定入力文を特定し、適切な応答文を返すおことができる。
From the above, it is possible to obtain a high degree of similarity when the notations are similar, and a high degree of similarity when the meanings are similar even if the notations are different. In addition, the similarity can be calculated low for terms that need to be distinguished. This makes it possible to improve the response accuracy. By using the similarity calculation model 23 as described above, the dialogue device 10 can identify the assumed input sentence having the highest similarity with the input sentence and return an appropriate response sentence.

ところで、入力文の表現は多様であるため、入力文に対話装置10が適切な応答文を返送するための情報が欠落している場合や、区別用語として区別して入力すべき語と他の語が混在していることがあり、これらは対話装置10の応答精度を低下させる要因となる。図2に示した対話処理部7の入力補助部72は、適切な入力文を入力できるようにユーザを補助して対話装置10の応答精度の向上を図る。 By the way, since the expressions of the input sentence are various, the input sentence lacks information for the dialogue device 10 to return an appropriate response sentence, or a word to be input separately as a distinctive term and another word. May be mixed, and these are factors that reduce the response accuracy of the dialogue device 10. The input assisting unit 72 of the dialogue processing unit 7 shown in FIG. 2 assists the user so that an appropriate input sentence can be input, and aims to improve the response accuracy of the dialogue device 10.

入力補助部72は、ユーザが入力文を入力する過程で、想定入力文で使用されている用語を表示する。対話装置10は、想定入力文に含まれる用語を主要用語リスト24として管理する。 The input assist unit 72 displays the terms used in the assumed input sentence in the process of inputting the input sentence by the user. The dialogue device 10 manages the terms included in the assumed input sentence as the main term list 24.

図2に示すように、対話装置10の主要用語リスト生成部53は、質問応答データ221に基づき主要用語リスト24を生成する。対話処理部7は、ユーザ端末40を介して行われるユーザとの対話処理に際し、質問応答生成部71が想定入力文を推定するとともに、入力補助部72が、主要用語リスト24から、推定した想定入力文に対応する主要語をユーザ端末40に提示する。 As shown in FIG. 2, the main term list generation unit 53 of the dialogue device 10 generates the main term list 24 based on the question answering data 221. In the dialogue processing unit 7, when the dialogue processing with the user is performed via the user terminal 40, the question response generation unit 71 estimates the assumed input sentence, and the input assisting unit 72 estimates from the main term list 24. The main word corresponding to the input sentence is presented to the user terminal 40.

図9に主要用語リスト24の一例を示す。主要用語リスト24は、例えば、主要用語リスト生成部53が、形態素解析によって質問応答データ221の各想定入力文に含まれる特定の品詞(名詞、動詞等)を主要用語として抽出することにより生成する。例示する主要用語リスト24は、図4A及び図5Aに示した質問応答データ221に基づき生成されたものである。 FIG. 9 shows an example of the main term list 24. The main term list 24 is generated, for example, by the main term list generation unit 53 extracting specific parts of speech (nouns, verbs, etc.) included in each assumed input sentence of the question / answer data 221 by morphological analysis. .. The illustrated list of key terms 24 is generated based on the question answering data 221 shown in FIGS. 4A and 5A.

図10A〜図10Dに、ユーザが入力文を入力する過程で入力補助部72が表示する画面の例を示す。 10A to 10D show an example of a screen displayed by the input assisting unit 72 in the process of inputting an input sentence by the user.

例えば、図10Aに示すように、ユーザ端末40に表示されたユーザ入力欄41にユーザが「申込はどこでできますか?」と入力した場合、対話処理部7は、入力文Xに対し、各想定質問文Yに対する類似度f(X,Y)を算出し、類似度が高い上位p件(pは予め定めておく。例えばp=10とする。)を選定する。 For example, as shown in FIG. 10A, when the user inputs "where can I apply?" In the user input field 41 displayed on the user terminal 40, the dialogue processing unit 7 responds to the input sentence X by each. The similarity f (X, Y) with respect to the assumed question sentence Y is calculated, and the upper p cases with high similarity (p is predetermined. For example, p = 10) are selected.

ここでは、もっとも高い類似度の値をM(M=maxf(X、Y))としたとき、二つの想定入力文「サービスA」と「サービスB」を含む想定質問文Yが選定されたものとする。このとき、主要用語リスト24において、選定された想定入力文Yに含まれる主要用語w(この場合には、「サービスA」、「サービスB」、「申込」のいずれか)を入力文Xに加えてX’としたときに、M’=maxf(X’、Y)の値がMよりも予め定めた一定の値K以上大きい場合、即ち、M’−M>Kとなる場合、wを不足情報補完候補42として選定する。つまり入力文Xと想定入力文Yとの類似度が高くなるように、入力文Xに不足情報補完候補42として選定した主要用語wを加える。 Here, when the value of the highest similarity is M (M = maxf (X, Y)), the assumed question sentence Y including the two assumed input sentences "service A" and "service B" is selected. And. At this time, in the main term list 24, the main term w (in this case, any of "service A", "service B", and "application") included in the selected assumed input sentence Y is used as the input sentence X. In addition, when X'is set, when the value of M'= maxf (X', Y) is larger than M by a predetermined constant value K or more, that is, when M'-M> K, w is set. It is selected as a candidate for supplementing insufficient information 42. That is, the main term w selected as the missing information complement candidate 42 is added to the input sentence X so that the similarity between the input sentence X and the assumed input sentence Y is high.

図10Aは、「サービスA」と「サービスB」が不足情報補完候補42として選定された場合である。対話処理部7は、選定した不足情報補完候補42である「サービスA」と「サービスB」を、ユーザ端末40にて選択可能に表示する。図10Aにおいて、ユーザが、例えば、「サービスA」を選択すると、図10Bに示すように、入力補助部72は、選択された「サービスA」の語によって補完された「サービスAの申込みはどこでできますか?」という入力文X’を表示する。 FIG. 10A shows a case where “service A” and “service B” are selected as the missing information complement candidate 42. The dialogue processing unit 7 displays the selected shortage information complement candidate 42 “service A” and “service B” so as to be selectable on the user terminal 40. In FIG. 10A, when the user selects, for example, "service A", the input assisting unit 72, as shown in FIG. 10B, "where is the application for service A" complemented by the selected word "service A". Is it possible? ”Is displayed.

尚、例えば、ユーザ自身が用語を知らない、用語を混同している、等の理由で誤った用語を入力する場合がある。例えば、図10Cに示すように、入力文Xが「サービスAの申込みはどこでできますか?」という文である場合、ユーザが「サービスA」を「サービスB」や「サービスC」と混同している場合がある。この場合、対話処理部7は、入力文Xにおける「サービスA」の表示位置に別の候補43として「サービスB」、「サービスC」を、ユーザ端末40に選択可能に表示する。これによりユーザに用語を混同している可能性があることを認知させることができ、入力文Xの誤入力を低減させることができる。この仕組みは、例えば、ユーザが「サービスA」の申込がどこでできるか質問しており、更に「サービスA」が主要用語リスト24にあることから、「サービスA」をw1とし、主要用語リスト24にある用語をw2として、単語間類似度s(w1、w2)を算出し、w1と類似している用語w2を提示すべき用語として選定することにより実現できる。尚、用語w2は、用語w1との類似度が高い順に所定件数選定してもよいし、予め定めた一定の閾値以上の類似度をもつ用語w2を選定してもよい。ユーザは、必要であれば、提示された用語w2から一つを選択し、用語w1を用語w2に置き換えることによって、入力を修正することができる。 In addition, for example, the user may input an erroneous term because he / she does not know the term or confuses the term. For example, as shown in FIG. 10C, when the input sentence X is the sentence "Where can I apply for service A?", The user confuses "service A" with "service B" or "service C". May be. In this case, the dialogue processing unit 7 displays "service B" and "service C" as different candidates 43 at the display position of "service A" in the input sentence X so as to be selectable on the user terminal 40. As a result, the user can be made aware that the terms may be confused, and erroneous input of the input sentence X can be reduced. In this mechanism, for example, the user is asking where the application for "service A" can be made, and since "service A" is in the main term list 24, "service A" is set to w1 and the main term list 24. It can be realized by calculating the inter-word similarity s (w1, w2) with the term in the above as w2 and selecting the term w2 similar to w1 as the term to be presented. The term w2 may be selected in a predetermined number in descending order of similarity with the term w1, or the term w2 having a similarity of a certain threshold value or more may be selected. The user can modify the input, if desired, by selecting one of the presented terms w2 and replacing the term w1 with the term w2.

ユーザが入力文を入力する際、対話装置10の類似度算出に有効な用語と、そうでない用語とをユーザが知ることができれば、ユーザは効率よく入力文を入力することができる。例えば、入力文の単語集合をS1とし、次に、参照単語集合をS3とする。参照単語集合S3は、全ての想定入力文に掲載されている単語の集合でもよいし、区別用語リスト223に掲載されている用語の集合でもよい。対話装置10は、S1の要素の単語w1について、g=max{s(w1、w2)}を算出する。尚、当該式における「max」は、S3中の全ての単語w2に対してとる。このとき、図10Dに示すように、入力文Xの入力欄(以下、ユーザ入力欄41と称する)において、gの値が予め定めた閾値以上となる用語w1と他の用語とを識別可能に表示させてもよい。同図の例では、用語w1が強調表示(ハイライト表示)されている(図中、矩形点線枠44)。また、閾値以上となる用語w1については、gの値に応じ、濃度を変えたグラデーション表示で示してもよい。このように、用語w1と他の用語とを識別可能にすることで、対話装置10が応答をする上で重視している用語がユーザにも分かり、対話装置10が精度よく応答するための入力をユーザに促すことができる。 When the user inputs an input sentence, if the user can know the terms that are effective for calculating the similarity of the dialogue device 10 and the terms that are not, the user can efficiently input the input sentence. For example, the word set of the input sentence is S1, and then the reference word set is S3. The reference word set S3 may be a set of words listed in all assumed input sentences, or may be a set of terms listed in the distinctive term list 223. The dialogue device 10 calculates g = max {s (w1, w2)} for the word w1 of the element of S1. In addition, "max" in the formula is taken for all words w2 in S3. At this time, as shown in FIG. 10D, in the input field of the input sentence X (hereinafter referred to as the user input field 41), the term w1 in which the value of g is equal to or higher than a predetermined threshold value can be distinguished from other terms. It may be displayed. In the example of the figure, the term w1 is highlighted (highlighted) (rectangular dotted frame 44 in the figure). Further, the term w1 that is equal to or higher than the threshold value may be indicated by a gradation display in which the density is changed according to the value of g. By making the term w1 distinguishable from other terms in this way, the user can understand the term that the dialogue device 10 emphasizes in responding, and the input for the dialogue device 10 to respond accurately. Can be prompted to the user.

尚、上記の単語間類似度s(w1、w2)は、上述した各種単語間類似度(分散表現のコサイン類似度、単語概念間距離等)の一つ、または複数を合成したものを用いればよい。また、単語間類似度s(w1、w2)は、例えば、類似度算出モデルf(X,Y)の合成計数Cに対応する重み付けに用いてもよい。単語同士の類似度s(w1、w2)の代わりに類似度f(X,Y)を用いてもよい。 The word-to-word similarity s (w1, w2) may be one or a combination of the various word-to-word similarities (cosine similarity of distributed expressions, distance between word concepts, etc.). good. Further, the interword similarity s (w1, w2) may be used for weighting corresponding to the synthetic count C of the similarity calculation model f (X, Y), for example. The similarity f (X, Y) may be used instead of the similarity s (w1, w2) between words.

以上、本発明の実施形態につき説明したが、本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。また例えば、上記した実施形態は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また各実施形態の構成の一部について、他の構成に追加、削除、置換することが可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and includes various modifications. Further, for example, the above-described embodiment is described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to add, delete, or replace a part of the configuration of each embodiment with other configurations.

また、上記の各構成、機能部、処理部、処理手段等は、それらの一部または全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、
ICカード、SDカード、DVD等の記録媒体に置くことができる。
Further, each of the above configurations, functional units, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be stored in memory, hard disks, and recording devices such as SSDs (Solid State Drives).
It can be placed on a recording medium such as an IC card, SD card, or DVD.

また、以上に説明した各情報処理装置の各種機能部、各種処理部、各種データベースの配置形態は一例に過ぎない。各種機能部、各種処理部、各種データベースの配置形態は、これらの装置が備えるハードウェアやソフトウェアの性能、処理効率、通信効率等の観点から最適な配置形態に変更し得る。 Further, the arrangement form of various functional units, various processing units, and various databases of each information processing apparatus described above is only an example. The arrangement form of various function units, various processing units, and various databases can be changed to the optimum arrangement form from the viewpoint of the performance, processing efficiency, communication efficiency, and the like of the hardware and software included in these devices.

また、前述した各種のデータを格納するデータベースの構成(スキーマ(Schema)等)は、リソースの効率的な利用、処理効率向上、アクセス効率向上、検索効率向上等の観点から柔軟に変更し得る。 Further, the configuration of the database (schema, etc.) for storing various data described above can be flexibly changed from the viewpoints of efficient use of resources, improvement of processing efficiency, improvement of access efficiency, improvement of search efficiency, and the like.

1 対話システム、5 対話コンテンツ管理部、51 質問応答生成部、52 区別用語リスト生成部、53 主要用語リスト生成部、6 類似度算出モデル生成部、7 対話処理部、21 テキストデータ、22 対話コンテンツ、221 質問応答データ、222
同義語辞書、223 区別用語リスト、23 類似度算出モデル、24 主要用語リスト、30 通信ネットワーク、40 ユーザ端末、41 ユーザ入力欄
1 Dialogue system, 5 Dialogue content management unit, 51 Question response generation unit, 52 Distinguished term list generation unit, 53 Main term list generation unit, 6 Similarity calculation model generation unit, 7 Dialogue processing unit, 21 Text data, 22 Dialogue content 221 Question and answer data, 222
Synonym dictionary, 223 distinct term list, 23 similarity calculation model, 24 main term list, 30 communication network, 40 user terminal, 41 user input field

Claims (16)

情報処理装置を用いて構成される対話システムであって、
入力文に対して応答文を出力する対話処理部と、
前記入力文を想定した文である想定入力文と前記応答文とを対応付けた質問応答データ、同義語辞書、対話のトピックに応じて互いに区別されるべき用語である区別用語のリストである区別用語リスト、及び入力文と想定入力文との類似度を求める類似度算出モデルを記憶する記憶部と、
前記類似度算出モデルを生成する類似度算出モデル生成部と、
を備え、
前記類似度算出モデル生成部は、前記同義語辞書に記録されている同義語同士は類似度が高く、前記区別用語リストの区別用語同士は類似度が低くなるように類似度を算出する類似度算出モデルを生成し、
前記対話処理部は、前記入力文と前記想定入力文との類似度を、前記類似度算出モデルを用いて求め、求めた前記類似度に基づき前記想定入力文を選択し、選択した当該想定入力文に対応する応答文を出力する、
対話システム。
It is a dialogue system configured using an information processing device.
A dialogue processing unit that outputs a response statement to the input statement,
A distinction that is a list of distinctive terms that should be distinguished from each other according to the question response data, the synonym dictionary, and the topic of dialogue in which the assumed input sentence and the response sentence are associated with each other. A storage unit that stores a list of terms, a similarity calculation model for finding the similarity between an input sentence and an assumed input sentence, and a storage unit.
The similarity calculation model generation unit that generates the similarity calculation model,
Equipped with
The similarity calculation model generation unit calculates the similarity so that the synonyms recorded in the synonym dictionary have high similarity and the distinct terms in the distinct term list have low similarity. Generate a calculated model and
The dialogue processing unit obtains the similarity between the input sentence and the assumed input sentence by using the similarity calculation model, selects the assumed input sentence based on the obtained similarity, and selects the assumed input. Output the response statement corresponding to the statement,
Dialogue system.
請求項1に記載の対話システムであって、
前記質問応答データを、章節構造を有する文書からなるテキストデータに基づき生成するとともに、前記区別用語を、当該テキストデータにおける章節の見出し、または章節の分類を示す表記から抽出する対話コンテンツ管理部を更に備える、
対話システム。
The dialogue system according to claim 1.
A dialogue content management unit is further provided to generate the question-and-answer data based on text data consisting of a document having a chapter structure, and to extract the distinctive terms from the chapter headings in the text data or the notation indicating the chapter classification. Prepare, prepare
Dialogue system.
請求項1に記載の対話システムであって、
前記類似度算出モデル生成部は、前記入力文と前記想定入力文の夫々に含まれる用語の集合同士の類似度に基づく第1の類似度算出モデルと、前記入力文と前記想定入力文の夫々に含まれる単語同士の類似度に基づく第2の類似度算出モデルとを生成し、前記第1の類似度算出モデルと前記第2の類似度算出モデルとを合成した関数を前記類似度算出モデルとして生成する、
対話システム。
The dialogue system according to claim 1.
The similarity calculation model generation unit includes a first similarity calculation model based on the similarity between a set of terms included in each of the input sentence and the assumed input sentence, and each of the input sentence and the assumed input sentence. A function obtained by generating a second similarity calculation model based on the similarity between words included in the above and synthesizing the first similarity calculation model and the second similarity calculation model is the similarity calculation model. Generate as,
Dialogue system.
請求項3に記載の対話システムであって、
前記対話処理部は、前記第1の類似度算出モデルで算出した前記入力文と前記想定入力文との類似度が所定の閾値以上である場合に、当該第1の類似度算出モデルを前記類似度算出モデルとして採用する、
対話システム。
The dialogue system according to claim 3.
When the similarity between the input sentence calculated by the first similarity calculation model and the assumed input sentence is equal to or more than a predetermined threshold value, the dialogue processing unit uses the first similarity calculation model as the similarity. Adopted as a degree calculation model,
Dialogue system.
請求項1に記載の対話システムであって、
前記対話処理部は、前記入力文に含まれる用語を、前記同義語辞書または前記区別用語リストを用いて前記想定入力文に含まれる用語に統一した上で前記類似度を算出する、
対話システム。
The dialogue system according to claim 1.
The dialogue processing unit calculates the similarity after unifying the terms included in the input sentence into the terms included in the assumed input sentence using the synonym dictionary or the distinctive term list.
Dialogue system.
請求項1に記載の対話システムであって、
前記記憶部は、前記想定入力文の夫々に含まれる用語を主要用語として抽出した主要用語リストを記憶し、
前記対話処理部は、入力した前記入力文に類似する前記想定入力文についての前記主要用語を、ユーザが選択可能な状態で出力するとともに、前記入力文を当該ユーザによって選択された前記主要用語で補完する、
対話システム。
The dialogue system according to claim 1.
The storage unit stores a list of main terms extracted by using the terms included in each of the assumed input sentences as the main terms.
The dialogue processing unit outputs the main term for the assumed input sentence similar to the input sentence in a state in which the user can select the input sentence, and outputs the input sentence with the main term selected by the user. Complement,
Dialogue system.
請求項1に記載の対話システムであって、
前記記憶部は、前記想定入力文の夫々に含まれる用語を主要用語として抽出した主要用語リストを記憶し、
前記対話処理部は、入力した前記入力文に類似する前記想定入力文についての前記主要用語を、当該入力文に含まれる一部の用語と置換可能な状態で出力するとともに、前記一部の用語を置換する旨のユーザの指示を受け付けると前記入力文の一部を指示された前記主要用語に置換する、
対話システム。
The dialogue system according to claim 1.
The storage unit stores a list of main terms extracted by using the terms included in each of the assumed input sentences as the main terms.
The dialogue processing unit outputs the main terms of the assumed input sentence similar to the input sentence in a state where it can be replaced with some terms included in the input sentence, and outputs some of the terms. When the user's instruction to replace is received, a part of the input sentence is replaced with the instructed main term.
Dialogue system.
請求項1に記載の対話システムであって、
前記記憶部は、前記想定入力文の夫々に含まれる用語を主要用語として抽出した主要用語リストを記憶し、
前記対話処理部は、前記入力文に含まれる単語において、前記想定入力文に含まれる単語との類似度が所定の閾値以上である単語を前記入力文で識別可能に表示する、
対話システム。
The dialogue system according to claim 1.
The storage unit stores a list of main terms extracted by using the terms included in each of the assumed input sentences as the main terms.
The dialogue processing unit displays, among the words included in the input sentence, words whose similarity with the word included in the assumed input sentence is equal to or higher than a predetermined threshold value so as to be identifiable in the input sentence.
Dialogue system.
情報処理装置を用いて構成される対話システムの制御方法であって、
対話システムが、
入力文に対して応答文を出力するステップ、
前記入力文を想定した文である想定入力文と前記応答文とを対応付けた質問応答データ、同義語辞書、対話のトピックに応じて互いに区別されるべき用語である区別用語のリストである区別用語リスト、及び入力文と想定入力文との類似度を求める類似度算出モデルを記憶するステップ、
前記類似度算出モデルを生成するステップ、
前記同義語辞書に記録されている同義語同士は類似度が高く、前記区別用語リストの区別用語同士は類似度が低くなるように類似度を算出する類似度算出モデルを生成するステップ、及び、
前記入力文と前記想定入力文との類似度を、前記類似度算出モデルを用いて求め、求めた前記類似度に基づき前記想定入力文を選択し、選択した当該想定入力文に対応する応答文を出力するステップ、
を実行する、対話システムの制御方法。
It is a control method of a dialogue system configured by using an information processing device.
The dialogue system
Step to output response statement to input statement,
A distinction that is a list of distinct terms that should be distinguished from each other according to the question response data, the synonym dictionary, and the topic of dialogue in which the assumed input sentence and the response sentence are associated with each other. A step to store a list of terms and a similarity calculation model for finding the similarity between an input sentence and an assumed input sentence.
Steps to generate the similarity calculation model,
A step of generating a similarity calculation model for calculating the similarity so that the synonyms recorded in the synonym dictionary have a high degree of similarity and the distinctive terms in the distinction term list have a low degree of similarity, and
The similarity between the input sentence and the assumed input sentence is obtained by using the similarity calculation model, the assumed input sentence is selected based on the obtained similarity, and the response sentence corresponding to the selected assumed input sentence is selected. To output the step,
How to control the dialogue system.
請求項9に記載の対話システムの制御方法であって、
前記対話システムが、前記質問応答データを、章節構造を有する文書からなるテキストデータに基づき生成するとともに、前記区別用語を、当該テキストデータにおける章節の見出し、または章節の分類を示す表記から抽出する対話コンテンツ管理部を更に備えるステップ、
を更に実行する、対話システムの制御方法。
The method for controlling a dialogue system according to claim 9.
The dialogue system generates the question-and-answer data based on the text data consisting of a document having a chapter structure, and extracts the distinctive terms from the chapter headings in the text data or the notation indicating the classification of the chapters. Steps to further prepare the content management department,
How to control the dialogue system to further execute.
請求項9に記載の対話システムの制御方法であって、
前記対話システムが、前記入力文と前記想定入力文の夫々に含まれる用語の集合同士の類似度に基づく第1の類似度算出モデルと、前記入力文と前記想定入力文の夫々に含まれる単語同士の類似度に基づく第2の類似度算出モデルとを生成し、前記第1の類似度算出モデルと前記第2の類似度算出モデルとを合成した関数を前記類似度算出モデルとして生成するステップ、
を更に実行する、対話システムの制御方法。
The method for controlling a dialogue system according to claim 9.
The dialogue system includes a first similarity calculation model based on the similarity between a set of terms included in each of the input sentence and the assumed input sentence, and words included in each of the input sentence and the assumed input sentence. A step of generating a second similarity calculation model based on the similarity between each other, and generating a function obtained by synthesizing the first similarity calculation model and the second similarity calculation model as the similarity calculation model. ,
How to control the dialogue system to further execute.
請求項11に記載の対話システムの制御方法であって、
前記対話システムが、前記第1の類似度算出モデルで算出した前記入力文と前記想定入
力文との類似度が所定の閾値以上である場合に、当該第1の類似度算出モデルを前記類似度算出モデルとして採用するステップ、
を更に実行する、対話システムの制御方法。
The method for controlling a dialogue system according to claim 11.
When the dialogue system has a similarity between the input sentence calculated by the first similarity calculation model and the assumed input sentence of a predetermined threshold value or more, the first similarity calculation model is used as the similarity degree. Steps to be adopted as a calculation model,
How to control the dialogue system to further execute.
請求項9に記載の対話システムの制御方法であって、
前記対話システムが、前記入力文に含まれる用語を、前記同義語辞書または前記区別用語リストを用いて前記想定入力文に含まれる用語に統一した上で前記類似度を算出するステップ、
を更に実行する、対話システムの制御方法。
The method for controlling a dialogue system according to claim 9.
A step in which the dialogue system unifies the terms included in the input sentence into the terms included in the assumed input sentence using the synonym dictionary or the distinctive term list, and then calculates the similarity.
How to control the dialogue system to further execute.
請求項9に記載の対話システムの制御方法であって、
前記対話システムが、
前記想定入力文の夫々に含まれる用語を主要用語として抽出した主要用語リストを記憶するステップ、及び、
入力した前記入力文に類似する前記想定入力文についての前記主要用語を、ユーザが選択可能な状態で出力するとともに、前記入力文を当該ユーザによって選択された前記主要用語で補完するステップ、
を更に実行する、対話システムの制御方法。
The method for controlling a dialogue system according to claim 9.
The dialogue system
A step of storing a list of main terms extracted from the terms included in each of the assumed input sentences as the main terms, and
A step of outputting the main term of the assumed input sentence similar to the input sentence in a state in which the user can select it, and complementing the input sentence with the main term selected by the user.
How to control the dialogue system to further execute.
請求項9に記載の対話システムの制御方法であって、
前記対話システムが、
前記想定入力文の夫々に含まれる用語を主要用語として抽出した主要用語リストを記憶するステップ、及び、
入力した前記入力文に類似する前記想定入力文についての前記主要用語を、当該入力文に含まれる一部の用語と置換可能な状態で出力するとともに、前記一部の用語を置換する旨のユーザの指示を受け付けると前記入力文の一部を指示された前記主要用語に置換するステップ、
を更に実行する、対話システムの制御方法。
The method for controlling a dialogue system according to claim 9.
The dialogue system
A step of storing a list of main terms extracted from the terms included in each of the assumed input sentences as the main terms, and
A user who outputs the main term of the assumed input sentence similar to the input sentence in a state where it can be replaced with a part of the terms included in the input sentence and replaces the part of the terms. When the instruction of the above is received, a part of the input sentence is replaced with the instructed main term.
How to control the dialogue system to further execute.
請求項9に記載の対話システムの制御方法であって、
前記対話システムが、前記想定入力文の夫々に含まれる用語を主要用語として抽出した主要用語リストを記憶するステップ、及び、
前記入力文に含まれる単語において、前記想定入力文に含まれる単語との類似度が所定の閾値以上である単語を前記入力文で識別可能に表示するステップ、
を更に実行する、対話システムの制御方法。
The method for controlling a dialogue system according to claim 9.
A step in which the dialogue system stores a list of main terms extracted from the terms included in each of the assumed input sentences as the main terms, and
A step of identifiablely displaying a word included in the input sentence whose similarity with the word included in the assumed input sentence is equal to or higher than a predetermined threshold value in the input sentence.
How to control the dialogue system to further execute.
JP2020102121A 2020-06-12 2020-06-12 Dialogue system and control method for dialogue system Active JP7416665B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020102121A JP7416665B2 (en) 2020-06-12 2020-06-12 Dialogue system and control method for dialogue system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020102121A JP7416665B2 (en) 2020-06-12 2020-06-12 Dialogue system and control method for dialogue system

Publications (2)

Publication Number Publication Date
JP2021196798A true JP2021196798A (en) 2021-12-27
JP7416665B2 JP7416665B2 (en) 2024-01-17

Family

ID=79195510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020102121A Active JP7416665B2 (en) 2020-06-12 2020-06-12 Dialogue system and control method for dialogue system

Country Status (1)

Country Link
JP (1) JP7416665B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004320A1 (en) * 2022-06-30 2024-01-04 有限会社Bond Education device, education method, and recording medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7814105B2 (en) 2004-10-27 2010-10-12 Harris Corporation Method for domain identification of documents in a document database
JP2006244262A (en) 2005-03-04 2006-09-14 Nec Corp Retrieval system, method and program for answer to question
JP6223744B2 (en) 2013-08-19 2017-11-01 株式会社東芝 Method, electronic device and program
US9141676B2 (en) 2013-12-02 2015-09-22 Rakuten Usa, Inc. Systems and methods of modeling object networks
CN111611798B (en) 2017-01-22 2023-05-16 创新先进技术有限公司 Word vector processing method and device
JP7231190B2 (en) 2018-11-02 2023-03-01 株式会社ユニバーサルエンターテインメント INFORMATION PROVISION SYSTEM AND INFORMATION PROVISION CONTROL METHOD
JP7163143B2 (en) 2018-11-13 2022-10-31 株式会社日立製作所 Question and answer data generation device and question and answer data generation method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004320A1 (en) * 2022-06-30 2024-01-04 有限会社Bond Education device, education method, and recording medium

Also Published As

Publication number Publication date
JP7416665B2 (en) 2024-01-17

Similar Documents

Publication Publication Date Title
US11514235B2 (en) Information extraction from open-ended schema-less tables
US11188537B2 (en) Data processing
US9864741B2 (en) Automated collective term and phrase index
US10489439B2 (en) System and method for entity extraction from semi-structured text documents
Toba et al. Discovering high quality answers in community question answering archives using a hierarchy of classifiers
JP5241828B2 (en) Dictionary word and idiom determination
KR100969447B1 (en) Rendering tables with natural language commands
US20200364233A1 (en) Systems and methods for a context sensitive search engine using search criteria and implicit user feedback
US10452904B2 (en) Blockwise extraction of document metadata
US9817821B2 (en) Translation and dictionary selection by context
US20170103439A1 (en) Searching Evidence to Recommend Organizations
US20240119236A1 (en) Creation of component templates based on semantically similar content
TW201314476A (en) Automated self-service user support based on ontology
CN112417090A (en) Using uncommitted user input data to improve task performance
US20120143895A1 (en) Query pattern generation for answers coverage expansion
US8892423B1 (en) Method and system to automatically create content for dictionaries
JP7416665B2 (en) Dialogue system and control method for dialogue system
US20210295033A1 (en) Information processing apparatus and non-transitory computer readable medium
B. Shelke et al. Marathi SentiWordNet: A lexical resource for sentiment analysis of Marathi
JP7364512B2 (en) Labeling model generation device and labeling model generation method
JP2020149539A (en) Interactive system assisting device, and interactive system assisting method
JP4098764B2 (en) Document processing apparatus and program
US20230351096A1 (en) Dynamic persona-based document navigation
JP2022161196A (en) Information expression structure analysis apparatus and information expression structure analysis method
Webster Above and beyond the file: Preserving digital environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240104

R150 Certificate of patent or registration of utility model

Ref document number: 7416665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150