JP2015176099A - Dialog system construction assist system, method, and program - Google Patents
Dialog system construction assist system, method, and program Download PDFInfo
- Publication number
- JP2015176099A JP2015176099A JP2014054491A JP2014054491A JP2015176099A JP 2015176099 A JP2015176099 A JP 2015176099A JP 2014054491 A JP2014054491 A JP 2014054491A JP 2014054491 A JP2014054491 A JP 2014054491A JP 2015176099 A JP2015176099 A JP 2015176099A
- Authority
- JP
- Japan
- Prior art keywords
- scenario
- dialogue
- utterance
- unit
- utterances
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010276 construction Methods 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims description 36
- 230000009471 action Effects 0.000 claims abstract description 58
- 238000000605 extraction Methods 0.000 claims description 23
- 239000000284 extract Substances 0.000 claims description 10
- 238000012790 confirmation Methods 0.000 claims description 8
- 238000011156 evaluation Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 abstract description 30
- 230000008569 process Effects 0.000 description 20
- 230000002452 interceptive effect Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 7
- 238000012546 transfer Methods 0.000 description 3
- 210000001072 colon Anatomy 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明の実施形態は、対話システム構築支援装置、方法、及びプログラムに関する。 Embodiments described herein relate generally to a dialogue system construction support apparatus, method, and program.
音声自動応答装置などのユーザの発話に対して自動応答する対話システムがある。このような対話システムは、事前に構築されたシナリオに従って応答する。対話システムは、シナリオがユーザの要求に適合していないために、応答に失敗することがある。その場合、オペレータがユーザに応答することになる。その後に同様の要求を受けた場合にうまく応答することができるように、新たなシナリオを対話システムに追加する必要がある。 There is an interactive system that automatically responds to a user's utterance such as an automatic voice response device. Such an interactive system responds according to a pre-built scenario. The interactive system may fail to respond because the scenario does not match the user's request. In that case, the operator responds to the user. A new scenario needs to be added to the dialog system so that it can respond well if a similar request is subsequently received.
対話システムが応答に失敗した件に関するユーザとオペレータとの対話からシナリオを構築できることが求められている。引用文献1には、エージェント及びユーザ間の会話セットを用いて学習を行う自動化応答システムが開示されている。しかしながら、オペレータが応答中に行ったアクション(行動)を考慮してユーザとオペレータとの対話からシナリオを構築する技術はない。
It is required that a scenario can be constructed from a dialogue between a user and an operator regarding a case where the dialogue system fails to respond. Cited
本発明が解決しようとする課題は、ユーザとオペレータとの対話及びオペレータのアクションからシナリオを構築することができる対話システム構築支援装置、方法、及びプログラムを提供することである。 The problem to be solved by the present invention is to provide a dialogue system construction support apparatus, method, and program capable of constructing a scenario from a dialogue between a user and an operator and an action of the operator.
一実施形態に係る対話システム構築支援装置は、音声認識部、意図理解部、対話情報記憶部、及びシナリオ構築部を備える。音声認識部は、ユーザとオペレータとの対話に含まれる複数の発話に対して音声認識を行い、前記複数の発話それぞれに対応する複数のテキストを含む音声認識結果を生成する。意図理解部は、前記複数のテキストそれぞれに基づいて前記複数の発話それぞれの意図を理解し、前記複数の発話それぞれの種類と、前記複数の発話それぞれの意図と、前記複数のテキストに含まれる単語と、前記単語の意味クラスと、を含む意図理解結果を得る。対話情報記憶部は、前記音声認識結果、前記意図理解結果、及び前記オペレータが前記対話に関連して実行したアクションを関連付けて記憶する。シナリオ構築部は、前記対話に含まれる質問の発話と回答の発話とに共通の意味クラスを持つ単語を属性として取得し、前記属性及び前記アクションを用いてシナリオを構築する。 A dialogue system construction support apparatus according to an embodiment includes a voice recognition unit, an intention understanding unit, a dialogue information storage unit, and a scenario construction unit. The voice recognition unit performs voice recognition on a plurality of utterances included in the dialogue between the user and the operator, and generates a voice recognition result including a plurality of texts corresponding to each of the plurality of utterances. The intention understanding unit understands the intention of each of the plurality of utterances based on each of the plurality of texts, and each type of the plurality of utterances, each intention of the plurality of utterances, and words included in the plurality of texts And an intention understanding result including the meaning class of the word. The dialogue information storage unit stores the voice recognition result, the intention understanding result, and the action executed by the operator in relation to the dialogue in association with each other. The scenario construction unit obtains, as an attribute, a word having a semantic class common to the utterance of the question and the utterance of the answer included in the dialogue, and constructs a scenario using the attribute and the action.
以下、図面を参照しながら実施形態を説明する。実施形態は、ユーザの発話に対して自動応答する対話システムに関する。この対話システムは、例えばコンタクトセンターで利用される。対話システムは、予め登録されたシナリオ(対話シナリオ)の中からユーザの発話に適合するシナリオを選択し、そのシナリオに従って応答する。対話システムが応答に失敗した場合には、オペレータがユーザとの対話を通じて応答する。対話システムは、ユーザとオペレータとの対話及びオペレータのアクション(行動)に基づいて新たなシナリオを構築することができる。その結果、対話システムは、その後に同様の要求を受けた場合にうまく応答することが可能になる。さらに、シナリオ構築コストを削減することができる。また、必要なオペレータの人数を低減させることができる。 Hereinafter, embodiments will be described with reference to the drawings. Embodiments relate to an interactive system that automatically responds to a user's utterance. This dialogue system is used in, for example, a contact center. The dialogue system selects a scenario that matches the user's utterance from scenarios registered in advance (dialog scenarios), and responds according to the scenario. If the interactive system fails to respond, the operator responds through interaction with the user. The dialogue system can construct a new scenario based on the dialogue between the user and the operator and the action (action) of the operator. As a result, the interactive system can respond well if it subsequently receives a similar request. Furthermore, scenario construction costs can be reduced. In addition, the number of necessary operators can be reduced.
図1は、実施形態に係る対話システム100を概略的に示している。対話システム100は、図1に示されるように、音声認識部101、意図理解部102、対話制御部103、応答生成部104、対話抽出部105、シナリオ構築部106、シナリオ更新部107、辞書記憶部108、意図モデル記憶部109、シナリオ記憶部110、対話ログ記憶部(対話情報記憶部ともいう)111、対話状態表示部112、シナリオ検索部113、及びシナリオオブジェクトデータベース(DB)114を備える。
FIG. 1 schematically shows an
まず、対話システム100の自動応答処理について簡単に説明する。一例では、ユーザは、携帯電話やスマートフォンなどの端末を用いて、ネットワークを介して対話システム100と通信する。対話システム100は、自動応答処理によって、ネットワークを介して端末にサービスを提供する。例えば、対話システム100は、後述する例のように、ユーザの目的地が示された地図のデータを端末に送信する。
First, the automatic response process of the
対話システム100は、音声認識部101、意図理解部102、対話制御部103、応答生成部104、辞書記憶部108、意図モデル記憶部109、及びシナリオオブジェクトDB114を用いて、自動応答処理を実行する。音声認識部101は、ユーザの発話に対して音声認識を行い、その発話に対応する自然言語テキスト(以下、単にテキストと記載する。)を生成する。意図理解部102は、辞書記憶部108及び意図モデル記憶部109を参照してテキストを分析することで発話の意図を理解し、意図理解結果を出力する。対話制御部103は、シナリオオブジェクトDB114から意図理解結果に対応するシナリオを選択し、選択したシナリオに規定されたアクション(例えば地図データの送信)を実行する。応答生成部104は、対話制御部103が実行するアクションに対応する応答文を生成する。応答文は、音声合成技術によって音声に変換され出力される。
The
次に、対話システム100のシナリオ構築処理について説明する。
対話システム100では、ユーザの要求に適合するシナリオがシナリオオブジェクトDB114中に存在しないなどの理由により、ユーザとの対話に失敗することがある。ユーザとの対話に失敗した場合には、対話制御部103は、ユーザとのコネクションをオペレータに転送する。さらに、規定の条件が応答中に発生した場合にも、対話制御部103は、ユーザとのコネクションをオペレータに転送することができる。それにより、オペレータとユーザとの対話が開始する。
Next, scenario construction processing of the
In the
対話システム100は、ユーザとオペレータとの対話を分析する。対話システム100は、その後に同様の要求を受けた場合にうまく応答することができるように、分析結果に基づいて新たなシナリオを構築する。シナリオ構築処理には、音声認識部101、意図理解部102、対話抽出部105、シナリオ構築部106、シナリオ更新部107、辞書記憶部108、意図モデル記憶部109、シナリオ記憶部110、対話ログ記憶部111、対話状態表示部112、及びシナリオ検索部113が使用される。シナリオ構築処理に関連するこれらの要素を含む部分を対話システム構築支援部と称する。対話システム構築支援部は、図1に示されるように、対話システム100に組み入れられてもよく、対話システム100の外部に設けられていてもよい。対話システム構築支援部が対話システム100に組み入れられている場合、音声認識部101、意図理解部102、辞書記憶部108、及び意図モデル記憶部109は、自動応答処理及びシナリオ構築処理において共用することができる。
The
音声認識部101は、ユーザとオペレータとの発話に含まれる複数の発話に対して音声認識を行い、複数の発話それぞれに対応する複数のテキストを生成する。すなわち、音声認識部101は、音声認識技術によって、複数の発話を複数のテキストにそれぞれ変換する。
The
意図理解部102は、音声認識部101によって生成された各テキストに基づいて、そのテキストに対応する発話の意図を理解する。具体的には、意図理解部102は、テキストに対して形態素解析を行うことによりそのテキストを形態素単位の単語に分解する。続いて、意図理解部102は、辞書記憶部108に記憶されている辞書を参照して、固有表現抽出技術によって、名詞、固有名詞、動詞、未知語の単語それぞれに対して、単語の意味を表す意味クラスを割り当てる。辞書には、複数の単語が意味クラスに関連付けて登録されている。
The
意図理解部102は、形態素や単語の意味クラスや単語の表記などの素性を用いて意図モデル記憶部109に記憶されている意図モデルを参照することにより発話の意図を理解し、意図理解結果を出力する。意図モデルは、多数の発話サンプルから意味クラス及び単語などを素性とした学習により予め生成される。意図理解の方法は、ここで説明した例に限定されない。
The
対話抽出部105は、意図理解部102から意図理解結果を受け取り、オペレータが応答中に対話システム100に対して行った操作をオペレータのアクションとして検出する。アクションの検出は、オペレータが操作するコンピュータ端末から受け取る情報に基づくことができる。具体的には、対話抽出部105は、オペレータが実行したアクションの内容を示す情報をコンピュータ端末から受け取ることができる。対話抽出部105は、ユーザとオペレータとの対話の分析結果及びオペレータのアクションを互いに関連付けて対話ログ記憶部111に記録する。対話の分析結果は、ユーザの発話に関する音声認識結果及び意図理解結果、並びに、オペレータの発話に関する音声認識結果及び意図理解結果を含む。
The
シナリオ構築部106は、対話ログ記憶部111を参照してシナリオを構築し、そのシナリオをシナリオ記憶部110に格納する。シナリオ更新部107は、シナリオ記憶部110を参照してシナリオオブジェクトDB114を更新する。具体的には、シナリオ更新部107は、シナリオ記憶部110に格納されているシナリオを対話制御部103が実行することが可能なオブジェクトに変換し、シナリオオブジェクトDB114に任意のタイミングで追加する。一例では、シナリオ記憶部110に格納されているシナリオはテキストベースのシナリオであり、シナリオオブジェクトDB114に格納されているシナリオはオブジェクトベースのシナリオである。なお、シナリオオブジェクトDB114に格納されているシナリオはテキストベースのシナリオであってもよい。
The
シナリオ検索部113は、ユーザとオペレータとの対話からシナリオ特徴語を抽出し、シナリオ記憶部110からそのシナリオ特徴語に関連付けられているシナリオを類似シナリオとして選択する。シナリオ特徴語については後述する。対話状態表示部112は、類似シナリオを表示する。また、対話状態表示部112は、ユーザとオペレータとの対話の分析結果を表示する。
The
次に、対話システム100の動作について説明する。
図2は、対話システム100の対話ログ記録の手順を概略的に示している。ここでは、図3に示す対話を例に挙げて具体的に説明する。図2のステップS201では、ユーザとオペレータとの対話が開始する。このとき、対話抽出部105は、対話の開始を示す対話開始ラベルを対話ログ記憶部111に記録する。
Next, the operation of the
FIG. 2 schematically shows a procedure of dialog log recording of the
ステップS202では、ユーザ又はオペレータが発話する。図3の対話例では、最初にユーザが「この前予約したレンタカーはどこで受け取るんだったっけ。」と発話する。ステップS203では、音声認識部101は、ステップS202で入力された発話に対して音声認識を行う。図3の対話例では、音声認識結果としてテキスト「この前予約したレンタカーはどこで受け取るんだったっけ。」が得られる。
In step S202, the user or operator speaks. In the dialog example of FIG. 3, the user first utters “Where do I receive the rental car booked last time?”. In step S203, the
ステップS204では、意図理解部102は、音声認識結果から発話の意図を理解し、意図理解結果を出力する。意図理解結果は、発話の種類、意図タグ、及び意味クラスを含む。発話の種類は、対話における発話の役割を示す。発話の種類には、図4に示すように、「要求」、「挨拶」、「質問」、「応答」、「提案」、「確認」、「回答」などがある。発話の種類は、機械が理解できる形態で、例えば、発話種類IDとして出力される。意図タグは、図5に示すような「フライト時刻表表示」、「レンタカー検索」、「レンタカー場所表示」、「ホテル料金検索」、「ホテル予約」などの意図を示す情報である。意図タグは、機械が理解できる形態で、例えば、意図タグIDとして出力される。
In step S204, the
ステップS205では、対話抽出部105は、ステップS202で入力された発話から、意図タグ、属性、属性値、及びアクション内容のいずれかの情報を抽出し、音声認識結果、意図認識結果、抽出した情報を関連付けて対話ログ記憶部111に記録する。ステップS205の処理については後述する。
In step S205, the
ステップS206では、対話が終了したか否かが判断される。例えば、対話終了を示す発話が検出された場合やオペレータがアクションを実行した場合に、対話が終了したと判断される。対話が続く場合、ステップS202に戻る。ステップS202に戻ると、次の発話が生じる。図3の対話例では、オペレータが「レンタカーの受け取り場所ですね?」と発話する。この発話についてステップS203、S204、S205の処理が実行される。同様にして、オペレータの発話「空港はどちらでしょうか?」、ユーザの発話「○○空港です。」、オペレータの発話「どちらの航空会社をお使いですか?」、ユーザの発話「××航空です。」、オペレータの発話「レンタカーの受け取り場所の地図を送付します。」が順次に処理される。オペレータは、「レンタカーの受け取り場所の地図を送付します。」と発話するとともに、コンピュータ端末を操作して地図データをユーザの端末に送信する。対話抽出部105は、発話「レンタカーの受け取り場所の地図を送付します。」の意図理解結果に基づいてオペレータのアクションを検出する。対話抽出部105は、オペレータが応答中に実行したアクションの内容を取得し対話ログ記憶部111に記録する。アクションとしては、例えば、図6に示すように、「レンタカー係り転送」、「フライト時刻表表示」、「空港施設情報表示」、「レンタカー検索」などがある。アクションはアクションIDに対応付けられている。
In step S206, it is determined whether or not the dialogue has ended. For example, when an utterance indicating the end of the dialog is detected or when the operator executes an action, it is determined that the dialog has ended. If the dialogue continues, the process returns to step S202. Returning to step S202, the next utterance occurs. In the dialogue example of FIG. 3, the operator speaks “Are you a rental car? Processing of steps S203, S204, and S205 is executed for this utterance. Similarly, the operator's utterance “Which is the airport?”, The user ’s utterance “XX airport”, the operator ’s utterance “Which airline are you using?”, The user ’s utterance “XX Air The operator's utterance “I will send you a map of where to pick up the rental car” is processed sequentially. The operator speaks “I will send you a map of the rental car reception location” and operates the computer terminal to send the map data to the user terminal. The
対話が終了すると、ステップS207に進む。ステップS207では、対話抽出部105は、ユーザとオペレータとの対話が終了したとして、対話の終了を示す対話終了ラベルを対話ログ記憶部111に記録する。対話ログ記憶部111では、1つの対話に関するログは対話開始ラベル及び対話終了ラベル間に記録される。1つの対話に関する対話ログには、対話の分析結果、シナリオ特徴語、意図タグ、属性及びその意味クラス、属性値及びその意味クラス、並びに、アクション内容が含まれている。
When the dialogue ends, the process proceeds to step S207. In step S207, the
ステップS205の処理をより詳細に説明する。
ステップS205−1では、対話抽出部105は、ステップS202で入力された発話の種類が確認である場合、この発話及びそれと対になる発話からシナリオ特徴語を抽出する。具体的には、対話抽出部105は、一方(例えばオペレータ)の確認の発話とその直前の他方(例えばユーザ)の発話とに共通する単語をシナリオ特徴語として抽出する。図3の対話例では、確認の発話はオペレータの発話「レンタカーの受け取り場所ですね?」である。この発話と対になる発話は、直前のユーザの発話「この前予約したレンタカーはどこで受け取るんだったっけ。」である。共通の単語は、「レンタカー」及び「受け取る」である。従って、「レンタカー」及び「受け取る」がシナリオ特徴語として抽出される。
The process of step S205 will be described in more detail.
In step S205-1, when the type of utterance input in step S202 is confirmation, the
ステップS205−2では、対話抽出部105は、発話の種類が質問であるか否かを判定する。発話の種類が質問である場合、ステップS205−3に進み、そうでなければステップS205−4に進む。ステップS205−4では、対話抽出部105は、発話の種類が回答であるか否かを判定する。発話の種類が回答である場合、ステップS205−5に進み、そうでなければステップS205−6に進む。ステップS205−6では、対話抽出部105は、発話がオペレータのアクションに関連するか否かを判定する。発話がアクションに関連する場合、ステップS205−8に進み、そうでなければステップS205−7に進む。
In step S205-2, the
対話抽出部105は、質問の発話から属性を取得し(ステップS205−3)、その質問の発話と対をなす回答の発話から属性値を取得する(ステップS205−5)。意味クラスは、図7に示すように、階層的に意味を分類したものであり得る。なお、意味クラスは階層構造で表現されなくてもよい。属性値は意図タグによって示される意図を遂行するための引数である。
The
具体的には、対話抽出部105は、質問の発話と回答の発話とに共通の意味クラスを持つ単語のうち、質問の発話中の単語を属性として取得し、回答の発話中の単語を属性値として取得する。図3の対話例では、オペレータの質問「空港はどちらでしょうか?」に対するユーザの回答は「○○空港です。」であり、これらの発話に共通する意味クラスは「Location_STATION_AIR」である。オペレータの発話「空港はどちらでしょうか?」において意味クラスが「Location_STATION_AIR」である単語は「空港」であり、「空港」が属性として抽出される。ユーザの発話「○○空港です。」において意味クラス「Location_STATION_AIR」を持つ単語は「○○空港」であり、「○○空港」が属性値として抽出される。さらに、オペレータの質問「どちらの航空会社をお使いですか?」に対するユーザの回答は「××航空です。」であり、これらの発話に共通する意味クラスは「Organization_COMPANEY_AIR」である。オペレータの発話「どちらの航空会社をお使いですか?」において意味クラスが「Organization_COMPANEY_AIR」である単語は「航空会社」であり、「航空会社」が属性として抽出される。ユーザの発話「××航空です。」において意味クラスが「Organization_COMPANEY_AIR」である単語は「××航空」であり、「××航空」が属性値として抽出される。図3の対話例からは、属性「空港」、属性値「○○空港」、意味クラス「Location_STATION_AIR」の組みと、属性「航空会社」、属性値「××航空」、意味クラス「Organization_COMPANEY_AIR」の組みとが得られる。
Specifically, the
なお、対話抽出部105は、確認の発話とこの発話と対をなす発話とに出現する同じ単語をシナリオ共通語として抽出する上記例に限らず、質問と回答の対などのオペレータの発話とユーザの発話の対に出現する同じ単語をシナリオ共通語として抽出してもよい。
The
対話抽出部105は、オペレータのアクションを検出すると、アクション内容を取得する(ステップS205−8)。アクション内容は、オペレータがシステムに対して実際に行った操作を含む。図8に、図3に示した対話例に関連してオペレータがアプリケーションを操作した場合に得られるアクション内容の例を示す。図8に示されるアクション内容は、レンタカーの受け取り場所を示した地図を送付するものである。
When the
対話抽出部105は、質問、回答、及びアクションに関連する発話のいずれでもない発話から意図タグを取得する(ステップ205−7)。この発話は対話の目的遂行に貢献しない意図を有する発話として対話ログ記憶部111に記録される。
The
図9は、図3に示した対話例に関連する対話ログを示している。図9において、「START OPERATOR」が対話開始ラベルであり、「END OPERATOR」が対話終了ラベルである。発話及びアクションに関する情報は、対話開始ラベル及び対話終了ラベル間に記録されている。図9の例では、発話のログは、コロン区切りで、発話の対象者:発話の種類:発話内容:意図タグのように、記述されている。発話内容は、音声認識結果、単語、その意味クラスを含む。意味クラスは単語の直後の括弧内に記載されている。また、アクションのログは、コロン区切りで、アクションの対象者:アクション内容のように、記述されている。 FIG. 9 shows a dialogue log related to the dialogue example shown in FIG. In FIG. 9, “START OPERATOR” is a dialog start label, and “END OPERATOR” is a dialog end label. Information about the utterance and action is recorded between the dialog start label and the dialog end label. In the example of FIG. 9, the utterance log is described as a utterance target: utterance type: utterance content: intention tag, separated by colons. The utterance content includes a speech recognition result, a word, and its semantic class. The semantic class is listed in parentheses immediately after the word. In addition, the action log is described in the form of action target: action content, separated by a colon.
図10は、対話ログからシナリオを構築する処理手順を概略的に示している。図10のステップS301では、シナリオ構築部106は、対話ログ記憶部111から対話ログを読み込み、読み込んだ対話ログからシナリオ構築の対象となる対話に関する対話開始ラベル及び対話終了ラベルを抽出する。ステップS302では、シナリオ構築部106は、対話開始ラベル及び対話終了ラベル間のログを読み込む。ステップS303では、シナリオ構築部106は、「入力」、「動作」、及び「状態」をシナリオの構成単位として生成する。図11A及び11Bは、図9の対話ログに基づいて構築されたシナリオの例を示す。図11Aに示されるシナリオは、3つの状態を含む。図11Bに示されるシナリオは1つの状態を含む。入力は意図タグ及び属性を含む。動作は動作タグを含む。
FIG. 10 schematically shows a processing procedure for constructing a scenario from the dialogue log. In step S301 of FIG. 10, the
ステップS304では、シナリオ構築部106は、種類が質問である発話と種類が回答である発話とに共通の意味クラス及びその意味クラスの単語を取得する。ここで、「共通」は、「同じ」又は「包含関係にある」という意味を持つ用語として用いている。シナリオ構築部106は、取得した単語(又は意味クラス)を入力の属性として使用する。
In step S304, the
ステップS304の処理をより詳細に説明する。ステップS304−1では、シナリオ構築部106は、種類が質問である発話から単語を属性候補として取得し、メモリ上に保持する。ステップS304−2では、シナリオ構築部106は、その次の発話の種類が回答である場合、その発話から単語を属性候補として取得し、メモリ上に保持する。ステップS304−3では、ステップS304−1及びステップS304−2で取得した単語の意味クラスを比較し、共通の意味クラスを持つ単語を属性であるとする。例えば、オペレータの発話「空港はどちらでしょうか?」とユーザの発話「○○空港です。」の対からは空港が属性として取得される。なお、属性の取得方法は、ステップS205−3の処理に関して説明したものと同様のものであってもよい。図9の対話ログからは、2つの属性「空港」及び「航空会社」が得られる。
The process of step S304 will be described in more detail. In step S304-1, the
ステップS304−3で属性が得られた場合、ステップS304−5に進む。ステップS304−5では、シナリオ構築部106は、ステップS304−3で得られた属性を用いて入力条件を生成する。具体的には、シナリオ構築部106は、属性を、種類が要求である直近の発話の意図タグに対応する入力属性としてシナリオに登録する。
If the attribute is obtained in step S304-3, the process proceeds to step S304-5. In step S304-5, the
質問の発話の次の発話が回答でない場合のように属性が得らなかった場合、ステップS304−4に進む。ステップS304−4では、シナリオ構築部106は、オペレータの質問に対してユーザが質問で返したか否かを判断する。例えば、図12に示される対話例では、オペレータの質問「ターミナルはどちらですか?」に対してユーザが「えっ?わかりません。」と応答している。このように質問に対する発話の種類が回答でない場合、シナリオ構築部106は、シナリオの冗長応答と判定し(他の応答の種類として判定してもよい)、すなわち、効率が悪いと判断し、構築中のシナリオの評価を低く設定する。ステップS304−6では、シナリオ構築部106は、種類が回答である発話を待つ。シナリオ構築部106は、種類が回答である発話を検出すると、質問の発話と回答の発話の対から属性を取得し、その属性に基づいて入力条件を生成する。
When the attribute is not obtained as in the case where the utterance next to the utterance of the question is not an answer, the process proceeds to step S304-4. In step S304-4, the
ステップS304−4において質問の発話の次の発話の種類が質問でない場合、ステップS304−7に進む。S304−7では、意図理解部102により意図タグを取得し、S304−5で生成した入力条件と合わせて「入力」を生成する。
If the type of utterance next to the utterance of the question is not a question in step S304-4, the process proceeds to step S304-7. In S304-7, an intention tag is acquired by the
ステップS305では、シナリオ構築部106は対話ログの読み込みを終了する。ステップS306では、シナリオ構築部106は、アクション内容に含まれる単語を意味クラスで置き換えて変数とする。ステップS307では、シナリオ構築部106は、構築したシナリオをシナリオ記憶部110に保存する。シナリオは、シナリオ特徴語によって検索可能なように、シナリオ特徴語と関連付けて保存される。
In step S305, the
なお、シナリオは、図11Aの例のように、ユーザとオペレータとの対話を忠実に再現するように構築されてもよく、図11Bの例のように、必要な属性を一度に受け付けるように構築されてもよい。 The scenario may be constructed so as to faithfully reproduce the dialogue between the user and the operator as in the example of FIG. 11A, and is constructed so as to accept necessary attributes at one time as in the example of FIG. 11B. May be.
シナリオ更新部107は、シナリオ記憶部110に記憶されたシナリオを対話制御部103が実行できるオブジェクトに変換し、シナリオオブジェクトDB114に追加する。更新のタイミングは、自動でもよく、管理者による操作に基づいていてもよい。複数のオペレータに関して同時に同じようなシナリオが構築される可能性がある。シナリオ記憶部110は、図13に示すように、シナリオを、シナリオ特徴語、状態数、応答ステップ数、応答失敗数に関連付けて格納する。応答失敗数は、オペレータの質問に対してユーザが回答以外の発話をした場合などの応答に失敗した回数を示す。状態数、応答ステップ数、応答失敗数は、対話システム100の管理者がシナリオをシナリオオブジェクトDB111に追加するか否かを決定する際に使用される、シナリオを評価するための評価データの例である。シナリオ更新部107は、対話システム100の管理者がシナリオオブジェクトDB114に追加するシナリオを選択できるように、シナリオとともに評価データを表示することができる。
The
図14は、応答中のオペレータに、実行すべきアクションの候補を提示する手順を示している。図14のステップS401では、シナリオ検索部113は、オペレータの応答中にユーザとオペレータとの対話からシナリオ特徴語を抽出する。具体的には、シナリオ検索部113は、種類が確認である発話とそれと対になる発話とに共通する単語をシナリオ特徴語として抽出する。
FIG. 14 shows a procedure for presenting a candidate for an action to be executed to the responding operator. In step S401 in FIG. 14, the
ステップS402では、シナリオ検索部113は、シナリオ特徴語を検索キーとして用いてシナリオ記憶部110を検索する。ステップS403では、シナリオ特徴語の全て又は一部が一致したシナリオである類似シナリオがあるか否かが判断される。類似シナリオがある場合、ステップS404に進み、そうでなければ処理終了となる。
In step S402, the
ステップS404では、シナリオ検索部113は、類似シナリオに含まれるアクション内容を取得する。ステップS405では、シナリオ検索部113は、対話状態表示部112を通じて、取得したアクション内容をアクション候補として表示する。オペレータは、表示されたアクション候補を参考にして、実行するアクションを決定する。
このようにアクション候補を表示することにより、オペレータを補助することができる。
In step S404, the
Displaying action candidates in this way can assist the operator.
図15は、対話状態表示部112が表示する内容例を示している。対話状態表示部112は、会話モニタ、意図理解モニタ、及び操作モニタを備える。会話モニタは、音声認識部101によるユーザとオペレータとの対話に対する音声認識結果を表示する。意図理解モニタは、意図理解部102によるユーザとオペレータとの対話に対する意図理解結果を表示する。操作モニタは、シナリオ検索部113によって取得されたアクション候補を表示する。図15の例では、3つのアクション候補が表示されている。
FIG. 15 shows an example of contents displayed by the dialog
対話状態表示部112を備えることにより、オペレータがユーザの要求を視覚的に確認することができる。音声認識結果及び意図理解結果に不備がある場合、有用なシナリオを構築するためには、音声認識結果及び意図理解結果を修正する必要がある。図15の例では、音声認識において誤認識が発生したために、意図理解が失敗している。応答中に音声認識結果及び意図理解結果をオペレータに提示することで、オペレータが音声認識結果及び意図理解結果を修正することが可能になる。
By providing the dialog
以上のように、本実施形態によれば、ユーザとオペレータとの対話の分析結果及びオペレータのアクションを含む対話ログに基づいてシナリオを構築することにより、必要なシナリオを対話システムに容易に追加することができる。 As described above, according to the present embodiment, a necessary scenario can be easily added to the dialogue system by constructing a scenario based on the analysis result of the dialogue between the user and the operator and the dialogue log including the action of the operator. be able to.
なお、実施形態の対話システム100は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。すなわち、音声認識部101、意図理解部102、対話制御部103、応答生成部104、対話抽出部105、シナリオ構築部106、シナリオ更新部107、対話状態表示部112、シナリオ検索部113は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、対話システムは、上記のプログラムをコンピュータ装置に予めインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、対話ログ記憶部、シナリオ記憶部、辞書記憶部、及び意図記憶部は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスク若しくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。
Note that the
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
100…対話システム、101…音声認識部、102…意図理解部、103…対話制御部、104…応答生成部、105…対話抽出部、106…シナリオ構築部、107…シナリオ更新部、108…辞書記憶部、109…意図モデル記憶部、110…シナリオ記憶部、111…対話ログ記憶部、112…対話状態表示部、113…シナリオ検索部、114…シナリオオブジェクトデータベース。
DESCRIPTION OF
Claims (9)
前記複数のテキストそれぞれに基づいて前記複数の発話それぞれの意図を理解し、前記複数の発話それぞれの種類と、前記複数の発話それぞれの意図と、前記複数のテキストに含まれる単語と、前記単語の意味クラスと、を含む意図理解結果を得る意図理解部と、
前記音声認識結果、前記意図理解結果、及び前記オペレータが前記対話に関連して実行したアクションを関連付けて記憶する対話情報記憶部と、
前記対話に含まれる質問の発話と回答の発話とに共通の意味クラスを持つ単語を属性として取得し、前記属性及び前記アクションを用いてシナリオを構築するシナリオ構築部と、
を具備する対話システム構築支援装置。 A speech recognition unit that performs speech recognition on a plurality of utterances included in a dialogue between a user and an operator, and generates a speech recognition result including a plurality of texts corresponding to each of the plurality of utterances;
Understand each intention of each of the plurality of utterances based on each of the plurality of texts, and each type of the plurality of utterances, each intention of the plurality of utterances, a word included in the plurality of texts, An intent understanding unit that obtains an intent understanding result including a semantic class;
A dialogue information storage unit for storing the speech recognition result, the intention understanding result, and the action performed by the operator in association with the dialogue;
A scenario construction unit that obtains, as an attribute, a word having a common semantic class for the utterance of a question and the utterance of an answer included in the dialogue, and constructs a scenario using the attribute and the action;
A dialogue system construction support apparatus comprising:
前記シナリオ記憶部を検索して、前記対話抽出部によって抽出されたシナリオ特徴語に関連付けられたシナリオを類似シナリオとして取得するシナリオ検索部と、
前記類似シナリオに含まれるアクションを表示する表示部と、をさらに具備する請求項2に記載の対話システム構築支援装置。 A scenario storage unit for storing the scenario in association with the scenario feature word;
A scenario search unit that searches the scenario storage unit and acquires a scenario associated with the scenario feature word extracted by the dialog extraction unit as a similar scenario;
The dialogue system construction support apparatus according to claim 2, further comprising a display unit that displays an action included in the similar scenario.
前記シナリオ更新部は、前記データベースに前記シナリオを追加するか否かを選択できるように、前記シナリオを前記評価データとともに表示する、請求項6に記載の対話システム構築支援装置。 The scenario construction unit generates evaluation data for evaluating the scenario,
The dialogue system construction support apparatus according to claim 6, wherein the scenario update unit displays the scenario together with the evaluation data so that it can be selected whether or not to add the scenario to the database.
前記複数のテキストそれぞれに基づいて前記複数の発話それぞれの意図を理解し、前記複数の発話それぞれの種類と、前記複数の発話それぞれの意図と、前記複数のテキストに含まれる単語と、前記単語の意味クラスと、を含む意図理解結果を得ることと、
前記音声認識結果、前記意図理解結果、及び前記オペレータが前記対話に関連して実行したアクションを関連付けて記憶することと、
前記対話に含まれる質問の発話と回答の発話とに共通の意味クラスを持つ単語を属性として取得し、前記属性及び前記アクションを用いてシナリオを構築することと、
を具備する対話システム構築支援方法。 Performing speech recognition on a plurality of utterances included in a dialog between a user and an operator, and generating a speech recognition result including a plurality of texts corresponding to each of the plurality of utterances;
Understand each intention of each of the plurality of utterances based on each of the plurality of texts, and each type of the plurality of utterances, each intention of the plurality of utterances, a word included in the plurality of texts, Obtaining intent understanding results including semantic classes;
Storing the speech recognition result, the intention understanding result, and the action performed by the operator in relation to the dialogue in association with each other;
Obtaining a word having a common semantic class for the utterance of the question and the utterance of the answer included in the dialogue as an attribute, and constructing a scenario using the attribute and the action;
A dialogue system construction support method comprising:
ユーザとオペレータとの対話に含まれる複数の発話に対して音声認識を行い、前記複数の発話それぞれに対応する複数のテキストを含む音声認識結果を生成する音声認識手段と、
前記複数のテキストそれぞれに基づいて前記複数の発話それぞれの意図を理解し、前記複数の発話それぞれの種類と、前記複数の発話それぞれの意図と、前記複数のテキストに含まれる単語と、前記単語の意味クラスと、を含む意図理解結果を得る意図理解手段と、
前記音声認識結果、前記意図理解結果、及び前記オペレータが前記対話に関連して実行したアクションを関連付けて記憶する記憶手段と、
前記対話に含まれる質問の発話と回答の発話とに共通の意味クラスを持つ単語を属性として取得し、前記属性及び前記アクションを用いてシナリオを構築するシナリオ構築手段として機能させるための対話システム構築支援プログラム。 Computer
Speech recognition means for performing speech recognition on a plurality of utterances included in a dialogue between a user and an operator, and generating a speech recognition result including a plurality of texts corresponding to each of the plurality of utterances;
Understand each intention of each of the plurality of utterances based on each of the plurality of texts, and each type of the plurality of utterances, each intention of the plurality of utterances, a word included in the plurality of texts, An intent understanding means for obtaining an intent understanding result including a semantic class;
Storage means for associating and storing the speech recognition result, the intention understanding result, and an action performed by the operator in relation to the dialogue;
Constructing a dialogue system for acquiring words having a common semantic class for the utterance of the question and the utterance of the answer included in the dialogue as attributes and functioning as scenario construction means for constructing a scenario using the attributes and the actions Support program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014054491A JP2015176099A (en) | 2014-03-18 | 2014-03-18 | Dialog system construction assist system, method, and program |
PCT/JP2015/057970 WO2015141700A1 (en) | 2014-03-18 | 2015-03-11 | Dialogue system construction support apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014054491A JP2015176099A (en) | 2014-03-18 | 2014-03-18 | Dialog system construction assist system, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015176099A true JP2015176099A (en) | 2015-10-05 |
Family
ID=54144664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014054491A Pending JP2015176099A (en) | 2014-03-18 | 2014-03-18 | Dialog system construction assist system, method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2015176099A (en) |
WO (1) | WO2015141700A1 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017167851A (en) * | 2016-03-16 | 2017-09-21 | 株式会社東芝 | Concept dictionary creation device, method and program |
JP2018036623A (en) * | 2016-08-26 | 2018-03-08 | 株式会社Nextremer | Interaction control device, interaction engine, management terminal, interaction device, and program |
JP2018128576A (en) * | 2017-02-08 | 2018-08-16 | 日本電信電話株式会社 | Business determination device, business determination method and program |
JP2018159729A (en) * | 2017-03-22 | 2018-10-11 | 株式会社東芝 | Interaction system construction support device, method and program |
JP2018185561A (en) * | 2017-04-24 | 2018-11-22 | 株式会社日立製作所 | Dialogue support system, dialogue support method, and dialogue support program |
WO2019026716A1 (en) * | 2017-08-04 | 2019-02-07 | ソニー株式会社 | Information processing device and information processing method |
JP2019197221A (en) * | 2019-07-19 | 2019-11-14 | 日本電信電話株式会社 | Business determination device, business determination method, and program |
US10574821B2 (en) | 2017-09-04 | 2020-02-25 | Toyota Jidosha Kabushiki Kaisha | Information providing method, information providing system, and information providing device |
JP2020042858A (en) * | 2016-03-16 | 2020-03-19 | 株式会社東芝 | Concept dictionary creation device, method and program |
JP2020198065A (en) * | 2019-06-03 | 2020-12-10 | アイドス インタラクティブ コープ | Communication with augmented reality virtual agents |
JPWO2019207909A1 (en) * | 2018-04-23 | 2021-01-14 | 株式会社Nttドコモ | Dialogue server |
CN118280372A (en) * | 2024-06-03 | 2024-07-02 | 中邮消费金融有限公司 | Dialogue assistance method, device, storage medium, and computer program product |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111048084B (en) * | 2019-12-18 | 2022-05-31 | 上海智勘科技有限公司 | Method and system for pushing information in intelligent voice interaction process |
RU2755781C1 (en) * | 2020-06-04 | 2021-09-21 | Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) | Intelligent workstation of the operator and method for interaction thereof for interactive support of a customer service session |
CN112417096B (en) * | 2020-11-17 | 2024-05-28 | 平安科技(深圳)有限公司 | Question-answer pair matching method, device, electronic equipment and storage medium |
CN112837684A (en) * | 2021-01-08 | 2021-05-25 | 北大方正集团有限公司 | Service processing method and system, service processing device and readable storage medium |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7606714B2 (en) * | 2003-02-11 | 2009-10-20 | Microsoft Corporation | Natural language classification within an automated response system |
JP5897389B2 (en) * | 2012-04-23 | 2016-03-30 | Scsk株式会社 | Automatic dialogue scenario creation support device and automatic dialogue scenario creation support program |
-
2014
- 2014-03-18 JP JP2014054491A patent/JP2015176099A/en active Pending
-
2015
- 2015-03-11 WO PCT/JP2015/057970 patent/WO2015141700A1/en active Application Filing
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020042858A (en) * | 2016-03-16 | 2020-03-19 | 株式会社東芝 | Concept dictionary creation device, method and program |
JP2017167851A (en) * | 2016-03-16 | 2017-09-21 | 株式会社東芝 | Concept dictionary creation device, method and program |
JP2018036623A (en) * | 2016-08-26 | 2018-03-08 | 株式会社Nextremer | Interaction control device, interaction engine, management terminal, interaction device, and program |
JP2018128576A (en) * | 2017-02-08 | 2018-08-16 | 日本電信電話株式会社 | Business determination device, business determination method and program |
JP2018159729A (en) * | 2017-03-22 | 2018-10-11 | 株式会社東芝 | Interaction system construction support device, method and program |
JP2018185561A (en) * | 2017-04-24 | 2018-11-22 | 株式会社日立製作所 | Dialogue support system, dialogue support method, and dialogue support program |
WO2019026716A1 (en) * | 2017-08-04 | 2019-02-07 | ソニー株式会社 | Information processing device and information processing method |
JPWO2019026716A1 (en) * | 2017-08-04 | 2020-08-20 | ソニー株式会社 | Information processing apparatus and information processing method |
US11514903B2 (en) | 2017-08-04 | 2022-11-29 | Sony Corporation | Information processing device and information processing method |
US10574821B2 (en) | 2017-09-04 | 2020-02-25 | Toyota Jidosha Kabushiki Kaisha | Information providing method, information providing system, and information providing device |
US10992809B2 (en) | 2017-09-04 | 2021-04-27 | Toyota Jidosha Kabushiki Kaisha | Information providing method, information providing system, and information providing device |
JPWO2019207909A1 (en) * | 2018-04-23 | 2021-01-14 | 株式会社Nttドコモ | Dialogue server |
JP7043593B2 (en) | 2018-04-23 | 2022-03-29 | 株式会社Nttドコモ | Dialogue server |
JP2020198065A (en) * | 2019-06-03 | 2020-12-10 | アイドス インタラクティブ コープ | Communication with augmented reality virtual agents |
JP7440223B2 (en) | 2019-06-03 | 2024-02-28 | スクウェア エニックス、リミテッド | Communication with virtual agents in augmented reality |
JP2019197221A (en) * | 2019-07-19 | 2019-11-14 | 日本電信電話株式会社 | Business determination device, business determination method, and program |
CN118280372A (en) * | 2024-06-03 | 2024-07-02 | 中邮消费金融有限公司 | Dialogue assistance method, device, storage medium, and computer program product |
Also Published As
Publication number | Publication date |
---|---|
WO2015141700A1 (en) | 2015-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015176099A (en) | Dialog system construction assist system, method, and program | |
US11049493B2 (en) | Spoken dialog device, spoken dialog method, and recording medium | |
CN109325091B (en) | Method, device, equipment and medium for updating attribute information of interest points | |
EP2863300B1 (en) | Function execution instruction system, function execution instruction method, and function execution instruction program | |
US10672391B2 (en) | Improving automatic speech recognition of multilingual named entities | |
US11915693B2 (en) | System and method for rule based modifications to variable slots based on context | |
US20170199867A1 (en) | Dialogue control system and dialogue control method | |
US11030400B2 (en) | System and method for identifying and replacing slots with variable slots | |
EP2887229A2 (en) | Communication support apparatus, communication support method and computer program product | |
JP6675788B2 (en) | Search result display device, search result display method, and program | |
CN109616096A (en) | Construction method, device, server and the medium of multilingual tone decoding figure | |
JP2019061482A (en) | Information processing apparatus, dialogue processing method and dialogue system | |
JP6622165B2 (en) | Dialog log analysis apparatus, dialog log analysis method and program | |
US11227116B2 (en) | Translation device, translation method, and program | |
US20150095024A1 (en) | Function execution instruction system, function execution instruction method, and function execution instruction program | |
WO2016136207A1 (en) | Voice interaction device, voice interaction system, control method of voice interaction device, and program | |
JP2011232619A (en) | Voice recognition device and voice recognition method | |
CN111309876A (en) | Service request processing method and device, electronic equipment and storage medium | |
JP2008234427A (en) | Device, method, and program for supporting interaction between user | |
JP2018159729A (en) | Interaction system construction support device, method and program | |
CN104347081A (en) | Method and device for testing scene statement coverage | |
US10600405B2 (en) | Speech signal processing method and speech signal processing apparatus | |
JP6585288B2 (en) | Knowledge building utilization system and program | |
JPWO2016151692A1 (en) | Tag assignment support apparatus, method and program | |
US11308936B2 (en) | Speech signal processing method and speech signal processing apparatus |