JP2019028604A - Interactive device and program - Google Patents

Interactive device and program Download PDF

Info

Publication number
JP2019028604A
JP2019028604A JP2017145620A JP2017145620A JP2019028604A JP 2019028604 A JP2019028604 A JP 2019028604A JP 2017145620 A JP2017145620 A JP 2017145620A JP 2017145620 A JP2017145620 A JP 2017145620A JP 2019028604 A JP2019028604 A JP 2019028604A
Authority
JP
Japan
Prior art keywords
user
question
answer
term
status
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017145620A
Other languages
Japanese (ja)
Other versions
JP6740187B2 (en
Inventor
明日香 三宅
Asuka Miyake
明日香 三宅
晶郁 寺中
Akifumi Teranaka
晶郁 寺中
森西 優次
Yuuji Morinishi
優次 森西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017145620A priority Critical patent/JP6740187B2/en
Publication of JP2019028604A publication Critical patent/JP2019028604A/en
Application granted granted Critical
Publication of JP6740187B2 publication Critical patent/JP6740187B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To improve estimation accuracy of a user who is an interaction partner.SOLUTION: An interactive device has: a reception part receiving an input of a first inquiry from a user; an output part outputting a second inquiry inquiring presence of comprehension of a term related to the first inquiry to the user; an estimation part estimating a level of knowledge of the user for a field related to the first inquiry on the basis of a content of an answer to the second inquiry and status of an input operation of a character string indicating the answer; and a generation part generating a content of an answer to the first inquiry according to the level estimated by the estimation part.SELECTED DRAWING: Figure 2

Description

本発明は、対話装置及びプログラムに関する。   The present invention relates to an interactive apparatus and a program.

現状の対話システムは、ユーザの特性に関わらずどのようなユーザに対しても画一的に応答を行っているものが多い。しかし、ユーザの嗜好や知識の有無に関わらず画一的に応答をしていると、応答内容の満足度や理解度を高められない。そこで、ユーザの特性を自動的に推定し、推定結果に応じた応対内容を提示する必要がある。   Many current interactive systems respond uniformly to any user regardless of the user's characteristics. However, if the response is made uniformly regardless of the user's preference or knowledge, the satisfaction or understanding of the response content cannot be increased. Therefore, it is necessary to automatically estimate the user's characteristics and present the response contents according to the estimation result.

ユーザの特性の一つとして、PCやスマートフォン、タブレットといったICT(Information and Communication Technology)に関する知識量が挙げられる。現在、ICT機器やサービスに関するユーザからの問い合わせに関して、音声やテキストの対話システムが用いられることが多いことから、ICTに関する知識量を対話システムの利用の中から推定し、知識量に応じた対話をすることは重要である。   One of the characteristics of the user is the amount of knowledge related to ICT (Information and Communication Technology) such as a PC, a smartphone, and a tablet. Currently, voice and text dialogue systems are often used for inquiries from users regarding ICT devices and services, so the amount of knowledge related to ICT is estimated from the use of the dialogue system, and dialogue according to the amount of knowledge is conducted. It is important to do.

従来、ユーザのICTに関するリテラシや、機器の操作方法の知識、用語の知識などのレベルに応じて、そのユーザにとって理解しやすい表現に用語を変換する技術が提案されている(特許文献1、2)。また、ユーザのICTに関する知識量を推定する技術も提案されている(特許文献3、4)。   Conventionally, there has been proposed a technique for converting a term into an expression that can be easily understood by the user in accordance with the level of literacy related to the user's ICT, knowledge of device operation methods, knowledge of terms, and the like (Patent Documents 1 and 2). ). In addition, techniques for estimating a knowledge amount related to a user's ICT have been proposed (Patent Documents 3 and 4).

特開2013−250624号公報JP2013-250624A 特開2014−2517号公報JP 2014-2517 A 特開2013−117842号公報JP2013-117842A 特開2014−115719号公報JP 2014-115719 A

特許文献1記載の技術では、コールセンタ等でオペレータがユーザの年齢やインターネット利用年数などに基づいてユーザのリテラシレベルを手動で入力した上で、そのレベルに応じて理解しやすいようにICT用語を変換して出力し、オペレータの応対支援を行なっている。   In the technique described in Patent Document 1, an operator manually inputs a user's literacy level based on the user's age or years of Internet use at a call center or the like, and converts ICT terms so that it can be easily understood according to the level. The output is then supported by the operator.

また、特許文献2記載の技術では、ユーザのICTスキルレベルを事前のアンケートの結果に基づいて予め算出した上で、そのレベルのユーザに対して各ICT用語が与える感覚の程度を推定している。   In the technique described in Patent Document 2, the ICT skill level of the user is calculated in advance based on the result of a preliminary questionnaire, and then the degree of sensation given by each ICT term to the user at that level is estimated. .

このように、特許文献1、2の技術を用いて、ユーザのICTに関する知識量などのレベルに応じて、適切な表現を検討することが可能である。しかし、ユーザのICTに関する知識量などの算出方法は、オペレータの入力やアンケートの回答に基づいており、自動的に推定することができない。   As described above, using the techniques of Patent Documents 1 and 2, it is possible to examine appropriate expressions according to the level of the knowledge amount of the user regarding ICT. However, the calculation method of the amount of knowledge related to the user's ICT is based on the input of the operator or the answer of the questionnaire, and cannot be automatically estimated.

一方で、特許文献3記載の技術では、ユーザやオペレータの質問回数やそのタイミングの情報を用いて、ユーザの知識量を2段階か3段階で「知識量が大きい」、「知識量が中程度」、「知識量が小さい」のように推定している。しかし、この推定結果からは、知識量の大きいユーザはどのような用語を知っていて、知識量の小さいユーザはどのような用語を知らないのかという部分まで、具体的に知ることができない。そのため、推定結果を用いてユーザの知識量に応じた応対をしようとしても、例えば、知識量が小さいユーザに対してどのように説明すれば良いのかを知ることができない。   On the other hand, in the technology described in Patent Document 3, the knowledge amount of the user is divided into two or three stages using the information on the number of questions of the user and the operator and the timing thereof. ”And“ Small amount of knowledge ”. However, from this estimation result, it is impossible to know in detail what terms a user with a large amount of knowledge knows and what terms a user with a small amount of knowledge does not know. For this reason, even if an attempt is made to respond according to the amount of knowledge of the user using the estimation result, it is not possible to know how to explain to a user having a small amount of knowledge, for example.

また、特許文献4記載の技術では、ICT用語の語彙ネットワークを作成し、ICT用語に対応するノードと、この用語を知っていれば別のこの用語も知っているとする有向リンクに従って、ユーザがある用語が既知であるか否かの入力情報から知識を推定している。この技術によって、ユーザの既知と未知の用語を知ることができる。しかし、ユーザからの用語の理解に関する入力情報が不十分である場合には、精度が落ちてしまう。   Further, in the technique described in Patent Document 4, a vocabulary network of ICT terms is created, and a user corresponding to a node corresponding to the ICT term and a directed link that knows this term if another term is known. Knowledge is estimated from input information on whether or not a certain term is known. With this technique, the user's known and unknown terms can be known. However, if the input information related to the understanding of terms from the user is insufficient, the accuracy will drop.

本発明は、上記の点に鑑みてなされたものであって、対話相手のユーザの知識の推定精度を向上させることを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to improve the accuracy of estimation of the knowledge of the user of the conversation partner.

そこで上記課題を解決するため、対話装置は、ユーザから第1の質問の入力を受け付ける受付部と、前記第1の質問に関連する用語の理解の有無をユーザに問う第2の質問を出力する出力部と、前記第2の質問に対する回答の内容及び前記回答を示す文字列の入力操作の状況に基づいて、前記第1の質問に関連する分野に関する前記ユーザの知識のレベルを推定する推定部と、前記推定部が推定したレベルに応じて、前記第1の質問に対する回答の内容を生成する生成部とを有する。   Therefore, in order to solve the above-described problem, the dialogue apparatus outputs a second question that asks the user whether or not the terminology related to the first question is understood, and a reception unit that accepts input of the first question from the user. An output unit, and an estimation unit that estimates a level of knowledge of the user regarding a field related to the first question based on a content of an answer to the second question and a state of an input operation of a character string indicating the answer And a generation unit that generates the content of the answer to the first question according to the level estimated by the estimation unit.

対話相手のユーザの知識の推定精度を向上させることができる。   It is possible to improve the estimation accuracy of the knowledge of the conversation partner user.

本発明の実施の形態における対話装置10のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the dialogue apparatus 10 in embodiment of this invention. 本発明の実施の形態における対話装置10の機能構成例を示す図である。It is a figure which shows the function structural example of the dialogue apparatus 10 in embodiment of this invention. 対話装置10が実行する処理手順の一例を説明するためのフローチャートである。4 is a flowchart for explaining an example of a processing procedure executed by the dialogue apparatus 10. 対話シナリオ記憶部161のシナリオ表の構成例を示す図である。It is a figure which shows the structural example of the scenario table | surface of the dialogue scenario memory | storage part 161. FIG. 文字入力速度記憶部162の構成例を示す図である。5 is a diagram illustrating a configuration example of a character input speed storage unit 162. FIG. 質問文生成処理の処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process sequence of a question sentence production | generation process. 用語理解の有無の判定例を説明するための図である。It is a figure for demonstrating the determination example of the presence or absence of term understanding. 用語理解記憶部163の構成例を示す図である。6 is a diagram illustrating a configuration example of a term understanding storage unit 163. FIG. 用語説明記憶部164の構成例を示す図である。5 is a diagram illustrating a configuration example of a term explanation storage unit 164. FIG. 対話シナリオ記憶部161のTETHERINGのタスク表の構成例を示す図である。FIG. 6 is a diagram showing a configuration example of a THETERING task table in a dialogue scenario storage unit 161. 回答文生成処理の処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process sequence of an answer sentence production | generation process. 用語理解度の算出方法の第1の例を示す図である。It is a figure which shows the 1st example of the calculation method of term understanding. 用語理解度の算出方法の第2の例を示す図である。It is a figure which shows the 2nd example of the calculation method of term understanding degree. 知識量の推定方法の第1の例を示す図である。It is a figure which shows the 1st example of the estimation method of a knowledge amount. 知識量の推定方法の第2の例を示す図である。It is a figure which shows the 2nd example of the estimation method of a knowledge amount. 対話シナリオ記憶部161のTETHERINGの回答文表の構成例を示す図である。6 is a diagram illustrating a configuration example of a response statement table of TEXTERING in a dialogue scenario storage unit 161. FIG.

以下、図面に基づいて本発明の実施の形態を説明する。本実施の形態では、対話装置10が、ユーザのICT(Information and Communication Technology)に関する知識量を、非言語情報と用語の理解に関する入力情報から推定し、知識量に応じた回答を提示する例について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, an example in which the dialogue apparatus 10 estimates a user's knowledge amount related to ICT (Information and Communication Technology) from input information related to non-linguistic information and terminology understanding and presents an answer according to the knowledge amount. explain.

図1は、本発明の実施の形態における対話装置10のハードウェア構成例を示す図である。図1の対話装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、インタフェース装置105、表示装置106、及び入力装置107等を有する。   FIG. 1 is a diagram illustrating a hardware configuration example of an interactive apparatus 10 according to an embodiment of the present invention. 1 includes a drive device 100, an auxiliary storage device 102, a memory device 103, a CPU 104, an interface device 105, a display device 106, an input device 107, and the like that are mutually connected by a bus B.

対話装置10での処理を実現するプログラムは、SDカード、CD−ROM等の記録媒体101によって提供される。プログラムを記憶した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。   A program for realizing processing in the interactive apparatus 10 is provided by a recording medium 101 such as an SD card or a CD-ROM. When the recording medium 101 storing the program is set in the drive device 100, the program is installed from the recording medium 101 to the auxiliary storage device 102 via the drive device 100. However, the program need not be installed from the recording medium 101 and may be downloaded from another computer via a network. The auxiliary storage device 102 stores the installed program and also stores necessary files and data.

メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って対話装置10に係る機能を実現する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。表示装置106はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置107はキーボード及びマウス、又はタッチパネル等で構成され、様々な操作指示を入力させるために用いられる。   The memory device 103 reads the program from the auxiliary storage device 102 and stores it when there is an instruction to start the program. The CPU 104 realizes functions related to the interactive device 10 according to a program stored in the memory device 103. The interface device 105 is used as an interface for connecting to a network. The display device 106 displays a GUI (Graphical User Interface) or the like by a program. The input device 107 includes a keyboard and mouse, a touch panel, or the like, and is used for inputting various operation instructions.

対話装置10は、ユーザが問い合わせをするために使用する端末であってもよいし、当該端末とは別の装置であってもよいが、本実施の形態では、対話装置10は、ユーザが問い合わせをするために使用する端末であるとして説明する。この場合、例えば、携帯電話、スマートフォン、タブレット端末、又はPC(Personal Computer)等が、斯かる端末の一例として挙げられる。但し、対話装置10は、ユーザが操作する端末にネットワークを介して接続する1以上のコンピュータによって実現されてもよい。   The dialog device 10 may be a terminal used by the user to make an inquiry, or may be a device different from the terminal, but in the present embodiment, the dialog device 10 is inquired by the user. It is assumed that the terminal is used for In this case, for example, a mobile phone, a smartphone, a tablet terminal, a PC (Personal Computer), or the like can be cited as an example of such a terminal. However, the dialogue apparatus 10 may be realized by one or more computers connected to a terminal operated by a user via a network.

図2は、本発明の実施の形態における対話装置10の機能構成例を示す図である。対話装置10は、ユーザからの冒頭の質問(以下、「ユーザ冒頭質問」という。)に関連する分野(本実施の形態ではICT分野)に関する知識量を、ユーザと対話装置10との対話中の非言語情報と用語の理解に関するユーザによる入力情報から推定し、知識量に応じた説明を提示する装置である。なお、ユーザと対話装置10との対話は、基本的に、ユーザ冒頭質問に関連する分野に関するユーザの知識量を推定するために対話装置10から出力される質問文と、当該質問文に対するユーザによる回答(以下、「ユーザ回答」という。)を示す文字列の入力との1回以上の繰り返しによって行われる。ユーザの知識量の推定を行うために十分な対話が行われると、対話装置10は、ユーザ冒頭質問に対する回答(以下、「システム回答」という。)をユーザの知識量に応じて生成し、当該システム回答を出力する。   FIG. 2 is a diagram illustrating a functional configuration example of the interactive apparatus 10 according to the embodiment of the present invention. The dialogue apparatus 10 uses the amount of knowledge regarding the field (in this embodiment, the ICT field) related to the initial question from the user (hereinafter referred to as “user initial question”) during the dialogue between the user and the dialogue apparatus 10. It is an apparatus that presents an explanation according to the amount of knowledge, estimated from non-linguistic information and information input by the user regarding understanding of terms. The dialogue between the user and the dialogue device 10 is basically performed by the user with respect to the question sentence output from the dialogue apparatus 10 in order to estimate the knowledge amount of the user regarding the field related to the user initial question, and the question sentence. This is performed by repeating the input of a character string indicating an answer (hereinafter referred to as “user answer”) one or more times. When a sufficient dialogue is performed to estimate the amount of knowledge of the user, the dialogue apparatus 10 generates an answer to the user opening question (hereinafter referred to as “system answer”) according to the amount of knowledge of the user, Output system answer.

図2において、対話装置10は、質問文生成部11、テキスト入力部12、対話制御部13、対話文出力部14及び回答文生成部15等を有する。質問文生成部11は、選択肢判定部111及び用語理解判定部112を含む。また、回答文生成部15は、知識量推定部151を含む。知識量推定部151は、文字入力速度算出部1511及び用語理解度算出部1512を含む。これら各部は、対話装置10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。対話装置10は、また、対話シナリオ記憶部161、文字入力速度記憶部162、用語理解記憶部163及び用語説明記憶部164等を利用する。これら各記憶部は、例えば、補助記憶装置102、又は対話装置10にネットワークを介して接続可能な記憶装置等を用いて実現可能である。   In FIG. 2, the dialogue apparatus 10 includes a question sentence generation unit 11, a text input unit 12, a dialogue control unit 13, a dialogue sentence output unit 14, an answer sentence generation unit 15, and the like. The question sentence generation unit 11 includes an option determination unit 111 and a term understanding determination unit 112. The answer sentence generation unit 15 includes a knowledge amount estimation unit 151. The knowledge amount estimation unit 151 includes a character input speed calculation unit 1511 and a term understanding level calculation unit 1512. Each of these units is realized by processing that one or more programs installed in the interactive apparatus 10 cause the CPU 104 to execute. The dialogue apparatus 10 also uses a dialogue scenario storage unit 161, a character input speed storage unit 162, a term understanding storage unit 163, a term explanation storage unit 164, and the like. Each of these storage units can be realized using, for example, a storage device that can be connected to the auxiliary storage device 102 or the interactive device 10 via a network.

以下、対話装置10が実行する処理手順について説明する。図3は、対話装置10が実行する処理手順の一例を説明するためのフローチャートである。図3のフローチャートは、対話装置10がユーザの知識量を推定し、ユーザ冒頭質問に対して、当該知識量に応じたシステム回答を提示する際に、対話装置10が実行する全体の処理手順を示す。   Hereinafter, a processing procedure executed by the interactive apparatus 10 will be described. FIG. 3 is a flowchart for explaining an example of a processing procedure executed by the interactive apparatus 10. The flowchart of FIG. 3 shows the overall processing procedure executed by the dialog device 10 when the dialog device 10 estimates the user's knowledge amount and presents a system answer corresponding to the knowledge amount to the user's initial question. Show.

ステップS1において、対話装置10は、ユーザによる所定の操作に応じて対話機能を起動する。当該対話機能は、例えば、対話装置10のブラウザ上で動作するテキスト対話システムや、独立した対話アプリ等のプログラムが、CPU104に実行させる処理により実現される、図2に示した機能構成を有する機能である。   In step S1, the dialogue apparatus 10 activates the dialogue function in accordance with a predetermined operation by the user. The interactive function is, for example, a function having the functional configuration shown in FIG. 2 realized by processing executed by the CPU 104 by a program such as a text interactive system that operates on the browser of the interactive apparatus 10 or an independent interactive application. It is.

続いて、対話制御部13は、対話シナリオ記憶部161に記憶されているシナリオ表を参照し、最初に出力する質問文を取得して(S2)、取得した質問文を対話文出力部14へ出力する。対話装置10が最初に出力する質問文が示す質問を、以下「システム冒頭質問」という。   Subsequently, the dialogue control unit 13 refers to the scenario table stored in the dialogue scenario storage unit 161, acquires the question sentence to be output first (S2), and sends the obtained question sentence to the dialogue sentence output unit 14. Output. The question indicated by the question sentence that is first output by the dialogue apparatus 10 is hereinafter referred to as “system opening question”.

図4は、対話シナリオ記憶部161のシナリオ表の構成例を示す図である。シナリオ表は、ユーザと対話装置10との対話のシナリオが定義されたテーブルであり、「ステータス」、「タスク」、「選択肢」、「質問文」、「キーワード」及び「ジャンプ先ステータス」等の列(項目)を有する。なお、図4において、「ステータス」によって区切られる行の単位を以下「ステータスレコード」という。   FIG. 4 is a diagram illustrating a configuration example of a scenario table in the dialogue scenario storage unit 161. The scenario table is a table in which a scenario of a dialogue between the user and the dialogue device 10 is defined, such as “status”, “task”, “option”, “question sentence”, “keyword”, and “jump destination status”. Has columns (items). In FIG. 4, the unit of the line delimited by “status” is hereinafter referred to as “status record”.

「ステータス」は、対話のステータス(状態)を区別する概念である。「質問文」は、対応するステータスにおいてユーザに対して出力されるべき質問文である。すなわち、ステータスと質問文とは1対1に対応する。「キーワード」は、質問文に対してユーザによって入力される文字列の内容に応じて次の遷移先のステータス等(ジャンプ先のステータス等)を区別するためのキーワードである。「キーワード」における「キーワードTRUE」の値は、質問文に対してユーザによって入力された文字列に、指定されたキーワードが含まれない場合を示す。また、キーワードが質問文に含まれていないこと、すなわち、登録されていないことは、質問文の出力後、ユーザからの文字列の入力を待たずに次のステータスへ遷移することを示す。例えば、図4においては、「ステータス」が「AGAIN()」、「EXPLAIN()」に対する「キーワード」の欄が空欄となっている。したがって、「ステータス」が「AGAIN()」、「EXPLAIN()」の「質問文」が出力された場合には、ユーザからの文字列の入力を待たずに次のステータスに対応する質問文が出力される。   "Status" is a concept that distinguishes the status (state) of a dialog. The “question sentence” is a question sentence to be output to the user in the corresponding status. That is, the status and the question sentence correspond one-to-one. The “keyword” is a keyword for distinguishing the next transition destination status or the like (jump destination status or the like) according to the content of the character string input by the user with respect to the question sentence. The value of “keyword TRUE” in “keyword” indicates a case where the specified keyword is not included in the character string input by the user with respect to the question sentence. Further, the fact that the keyword is not included in the question sentence, that is, that the keyword is not registered indicates that the transition to the next status is made without waiting for the input of the character string from the user after the question sentence is output. For example, in FIG. 4, the “keyword” column for “Status” is “AGAIN ()” and “EXPLAIN ()” is blank. Therefore, when “question text” with “AGAIN ()” and “EXPLAIN ()” is output, the question text corresponding to the next status is not waited for the input of the character string from the user. Is output.

「ジャンプ先ステータス」は、ユーザによって入力された文字列に含まれているキーワードに応じた遷移先のステータスを示す。「ジャンプ先ステータス」に複数のステータスが含まれている場合、各ステータスが順番に選択されて、各ステータスに対応する質問文が出力されることを意味する。また、「ジャンプ先ステータス」における「next」は、当該「next」を含むステータスの遷移基であったステータスの「ジャンプ先ステータス」において複数列記されているステータスの次のステータスに遷移することを意味する。すなわち、「ジャンプ先ステータス」に複数のステータスが含まれている場合の末尾以外のステータスの「ジャンプ先ステータス」の値は、「next」とされている。   “Jump destination status” indicates the status of the transition destination according to the keyword included in the character string input by the user. If the “jump destination status” includes a plurality of statuses, it means that each status is selected in order and a question sentence corresponding to each status is output. Further, “next” in “jump destination status” means transition to the status next to the status listed in a plurality of columns in the “jump destination status” of the status that is the transition base of the status including the “next”. To do. That is, the value of “jump destination status” of a status other than the end when the “jump destination status” includes a plurality of statuses is “next”.

「タスク」は、該当するステータスがタスクを実行するステータスであるか否かを示す。具体的には、「タスク」の値が「タスクTRUE」であるステータスは、タスクを実行することを示し、「タスク」が空欄であるステータスは、タスクを実行しないことを示す。タスクとは、ユーザとの対話に応じて対話装置10が最終的に実行する処理をいい、本実施の形態では、ユーザ冒頭質問に対するシステム回答を示す回答文の出力がタスクに相当する。   “Task” indicates whether or not the corresponding status is a status of executing a task. Specifically, a status where the value of “task” is “task TRUE” indicates that the task is executed, and a status where “task” is blank indicates that the task is not executed. A task refers to a process finally executed by the dialogue apparatus 10 in response to a dialogue with a user. In this embodiment, an output of an answer sentence indicating a system answer to a user initial question corresponds to a task.

「選択肢」は、該当するステータスにおける「質問文」の内容が、用語理解へのユーザ回答の選択肢を与える質問文であるか否かを示す。   “Option” indicates whether or not the content of the “question sentence” in the corresponding status is a question sentence that gives a choice of a user answer to term understanding.

対話制御部13は、ステップS2で、例えば図4のようなシナリオ表から現在のステータスに対応する質問文をテキストとして取得する。本実施の形態において最初のステータスは「START」である。したがって、対話制御部13は、「START」ステータスに対応する「質問文」のテキストである「こんにちは!ご用件を教えてね!」を取得する。   In step S2, the dialogue control unit 13 acquires a question sentence corresponding to the current status as a text from a scenario table as shown in FIG. 4, for example. In the present embodiment, the initial status is “START”. Therefore, the dialogue control section 13, to get the text of the "question" corresponding to the "START" status "Hello! Tell me your business!".

続いて、対話制御部13が、取得した質問文のテキストを対話文出力部14に対して出力すると、対話文出力部14が入力された当該質問文のテキストをディスプレイ等の表示装置106に対して出力する(S3)。例えば、表示装置106に質問文がテキストで表示される。続いて、対話制御部13は、シナリオ表(図4)において、現在のステータスに対応するキーワードが登録されているか否かを判定する(S4)。キーワードが登録されていない場合(S4でNo)、ステップS8へ進む。すなわち、シナリオ表(図4)において、「キーワード」の項目が空欄である場合、対話制御部13は、ユーザからの文字列の入力を待機しない。   Subsequently, when the dialog control unit 13 outputs the acquired text of the question sentence to the dialog sentence output unit 14, the dialog sentence output unit 14 outputs the input text of the question sentence to the display device 106 such as a display. And output (S3). For example, the question text is displayed as text on the display device 106. Subsequently, the dialogue control unit 13 determines whether or not a keyword corresponding to the current status is registered in the scenario table (FIG. 4) (S4). If no keyword is registered (No in S4), the process proceeds to step S8. That is, in the scenario table (FIG. 4), when the “keyword” item is blank, the dialogue control unit 13 does not wait for the input of the character string from the user.

現在のステータスにキーワードが登録されている場合(S4でYes)、テキスト入力部12は、質問文に対する文字列の入力をユーザから受け付ける(S5)。例えば、ユーザは、キーボード等の入力装置107を利用して文字列を入力する。この際、テキスト入力部12は、ユーザが入力する文字列を受け付けると共に、ユーザが文字列の入力を開始してから完了するまでの所要時間を計測する。ユーザによる文字列の入力の完了のタイミングは、例えば、当該文字列の入力後における所定の操作(例えば、「送信」ボタンの押下等)によって検知可能である。なお、ステップS5が最初に実行される際には、対話装置10からはシステム冒頭質問を示す質問文が出力されている。この状態においてユーザによって入力される文字列は、通常、ユーザ冒頭質問を示す文字列である。例えば、「テザリングの方法は?」といったユーザ冒頭質問を示す文字列が入力される。一方、ステップS5が2回目以降に実行される際において入力される文字列は、対話装置10が出力した質問文に対するユーザ回答を示す文字列である。ユーザ回答は、ユーザ冒頭質問に関連する分野に関するユーザの知識量を対話装置10が推定するために用いられる。   When the keyword is registered in the current status (Yes in S4), the text input unit 12 receives an input of a character string for the question sentence from the user (S5). For example, the user inputs a character string using the input device 107 such as a keyboard. At this time, the text input unit 12 receives a character string input by the user and measures a time required from the start of the input of the character string to the completion of the input by the user. The completion timing of the input of the character string by the user can be detected by, for example, a predetermined operation (for example, pressing of the “Send” button) after the input of the character string. When step S5 is first executed, a question sentence indicating a system opening question is output from the dialogue apparatus 10. The character string input by the user in this state is usually a character string indicating a user opening question. For example, a character string indicating a user opening question such as “What is a tethering method?” Is input. On the other hand, the character string input when step S5 is executed for the second time or later is a character string indicating a user answer to the question sentence output by the dialogue apparatus 10. The user answer is used by the dialogue apparatus 10 to estimate the amount of knowledge of the user regarding the field related to the user initial question.

続いて、テキスト入力部12は、入力された文字列と当該所要時間とを対話制御部13に対して出力する(S6)。続いて、対話制御部13は、テキスト入力部12から入力された当該文字列及び当該所要時間を文字入力速度記憶部162に保存する(S7)。   Subsequently, the text input unit 12 outputs the input character string and the required time to the dialogue control unit 13 (S6). Subsequently, the dialogue control unit 13 stores the character string and the required time input from the text input unit 12 in the character input speed storage unit 162 (S7).

図5は、文字入力速度記憶部162の構成例を示す図である。図5に示されるように、文字入力速度記憶部162には、質問文に対する文字列がユーザから入力される度に、当該文字列と当該文字列の入力の所要時間とが記憶される。   FIG. 5 is a diagram illustrating a configuration example of the character input speed storage unit 162. As shown in FIG. 5, the character input speed storage unit 162 stores the character string and the time required to input the character string each time a character string corresponding to the question sentence is input from the user.

続いて、対話制御部13は、シナリオ表(図4)を参照して、ステータスを更新する(S8)。すなわち、シナリオ表(図4)と、ユーザに入力された文字列に含まれているキーワードとに基づいて特定される「ジャンプ先ステータス」が新たなステータスとして選択される。例えば、更新前のステータスが「START」であり、ユーザに入力された文字列が「テザリングの方法は?」だった場合「TETHERING」が新たなステータスとされる。なお、「ジャンプ先ステータス」に複数のステータスが登録されている場合であって、当該ステータスが最初に処理対象とされる場合、当該複数のステータスの内の1番目(最上位)のステータスが新たなステータスとして選択される。また、当該複数のステータスのうちの2番目以降のステータスは、当該新たなステータスにおける「ジャンプ先ステータス」の「next」に基づいて選択される。   Subsequently, the dialogue control unit 13 updates the status with reference to the scenario table (FIG. 4) (S8). That is, the “jump destination status” specified based on the scenario table (FIG. 4) and the keyword included in the character string input by the user is selected as a new status. For example, if the status before the update is “START” and the character string input to the user is “What is a tethering method?”, “TETHERING” is set as a new status. In addition, when a plurality of statuses are registered in the “jump destination status” and the status is first processed, the first (highest) status among the statuses is newly set. Selected as the status. The second and subsequent statuses among the plurality of statuses are selected based on “next” of “jump destination status” in the new status.

続いて、対話制御部13は、タスクであるステータスに遷移(ジャンプ)済みであり、かつ、当該タスクに関するパラメータの取得が完了しているか否かを判定する(S9)。タスクであるステータスとは、シナリオ表(図4)において、タスクの値が「タスクTRUE」であるステータスをいう。   Subsequently, the dialog control unit 13 determines whether or not the transition to the status which is a task has been completed (jump) and the acquisition of the parameters regarding the task has been completed (S9). The status that is a task refers to a status in which the value of the task is “task TRUE” in the scenario table (FIG. 4).

タスクであるステータスに遷移済みでない場合、又は当該タスクに関するパラメータの取得が完了していない場合(S9でNo)、対話制御部13からの要求により、質問文生成部11が質問文生成処理を実行する(S10)。なお、最初にステップS9が実行される際には必ず質問文生成処理(S10)が実行される。当該質問文生成処理では、主として、ステップS5においてユーザによって入力されたユーザ冒頭質問に対して対話装置10が適切なシステム回答を行うための質問文が生成される。質問文生成処理に続いてステップS3以降が実行される。すなわち、質問文生成処理において生成された質問文に関してステップS3以降が実行される。   If the status has not been changed to a task status, or if acquisition of parameters related to the task has not been completed (No in S9), the question sentence generation unit 11 executes the question sentence generation process in response to a request from the dialog control unit 13 (S10). Note that the question sentence generation process (S10) is always executed when step S9 is executed for the first time. In the question sentence generation process, a question sentence for the dialogue apparatus 10 to make an appropriate system answer is generated mainly for the user initial question input by the user in step S5. Subsequent to the question sentence generation process, step S3 and subsequent steps are executed. That is, step S3 and subsequent steps are executed for the question sentence generated in the question sentence generation process.

一方、タスクであるステータスに遷移済みであり、かつ、当該タスクに関するパラメータの取得が完了している場合(S9でYes)、対話制御部13からの要求により、回答文生成部15が回答文生成処理を実行する(S11)。回答文生成処理では、ステップS5においてユーザによって入力されたユーザ冒頭質問に対するシステム回答を示す回答文が生成される。続いて、対話制御部13が、回答文生成部15によって生成された回答文を対話文出力部14に出力すると、対話文出力部14が入力された当該回答文を出力する(S12)。なお、図3では、このまま処理が終了する例が示されているが、引き続きステップS2に戻って、別の問い合わせに関して対話が行われてもよい。   On the other hand, when the status has been changed to the task status and the acquisition of the parameters related to the task has been completed (Yes in S9), the response text generation unit 15 generates the response text in response to a request from the dialogue control unit 13. Processing is executed (S11). In the answer sentence generation process, an answer sentence indicating a system answer to the user initial question input by the user in step S5 is generated. Subsequently, when the dialog control unit 13 outputs the response text generated by the response text generation unit 15 to the dialog text output unit 14, the dialog text output unit 14 outputs the input response text (S12). Note that FIG. 3 shows an example in which the processing ends as it is, but it is also possible to return to step S <b> 2 and have a dialog regarding another inquiry.

続いて、ステップS10の詳細について説明する。図6は、質問文生成処理の処理手順の一例を説明するためのフローチャートである。   Next, details of step S10 will be described. FIG. 6 is a flowchart for explaining an example of the processing procedure of the question sentence generation process.

まず、質問文生成部11の選択肢判定部111は、シナリオ表(図4)を参照して(S10−1)、対話装置10が最後に出力した質問文が用語理解へのユーザ回答の選択肢を与える質問文であったか否かを判定する(S10−2)。具体的には、直前のステータス(更新前のステータス)に対応する「選択肢」の値が「選択肢TRUE」であるか否かが判定される。   First, the option determination unit 111 of the question sentence generation unit 11 refers to the scenario table (FIG. 4) (S10-1), and the question sentence output last by the dialogue device 10 indicates the option of the user answer to the term understanding. It is determined whether or not the question sentence is given (S10-2). Specifically, it is determined whether or not the value of “option” corresponding to the immediately preceding status (status before update) is “option TRUE”.

例えば、最初に図6の処理手順が実行される場合、対話装置10が最後に出力した質問文は「こんにちは!ご用件を教えてね!」である。このような質問文は、用語理解へのユーザ回答の選択肢を与える質問文ではない。すなわち、「START」のステータスの「選択肢」の値は「選択肢TRUE」ではない。したがって、この場合(S10−2でNo)、ステップS10−8へ進む。   For example, if the procedure of the first to FIG. 6 is executed, the question statement that interactive device 10 is output to the last is a "Hello! Tell me your business!". Such a question sentence is not a question sentence that gives a user answer option for understanding the terminology. That is, the value of “option” in the status of “START” is not “option TRUE”. Therefore, in this case (No in S10-2), the process proceeds to Step S10-8.

一方、ユーザと対話装置10との対話が進み、対話装置10が最後に出力した質問文に対応するステータス、即ち、直前のステータスが「TETHERING」であったとすれば、対話装置10は、「テザリングの方法だね!ちなみに、テザリング自体は知っている?」という質問文に加えて「はい/いいえ」といった選択肢をユーザにテキストで提示していたことになる。また、直前のステータスが「TETHERING_OS」であったとすれば、「使っている端末のOSはどれ?」という質問文に加えて、「OS−A/OS−B/わからない」といった選択肢をユーザに提示していたことになる。なお、ここで提示する選択肢は、ユーザがいずれを選択するかによって、ユーザによる用語の理解を判定可能な選択肢である。   On the other hand, if the dialog between the user and the dialog device 10 progresses, and the status corresponding to the last question sentence output by the dialog device 10, that is, the previous status is “TETHERING”, the dialog device 10 displays “tethering”. By the way, in addition to the question sentence “Do you know tethering itself?”, The option “Yes / No” was presented to the user in text. If the previous status is “TETHERING_OS”, in addition to the question text “Which OS is the terminal being used?”, An option “OS-A / OS-B / I don't know” is presented to the user. It would have been. Note that the options presented here are options that allow the user to determine the understanding of the term depending on which one the user selects.

対話装置10が最後に出力した質問文が用語理解へのユーザ回答の選択肢を与える質問文であった場合(S10−2でYes)、用語理解判定部112は、当該質問文に対してステップS5において入力された選択肢を入力とし、当該選択肢に基づいてユーザの用語理解の有無を判定し、判定結果を用語理解記憶部163に保存する(S10−3)。   When the question sentence output last by the dialogue apparatus 10 is a question sentence that gives a user answer option for term understanding (Yes in S10-2), the term understanding determination unit 112 performs step S5 on the question sentence. The option entered in is input, and based on the option, it is determined whether or not the user understands the term, and the determination result is stored in the term understanding storage unit 163 (S10-3).

図7は、用語理解の有無の判定例を説明するための図である。用語理解の有無の判定の方法としては、図7のように、例えば、現在使っている端末のOSを尋ねる質問文の回答の選択肢として、「OS−A」、「OS−B」、「わからない」が提示され、ユーザ回答が「OS−A」又は「OS−B」であれば、双方の用語を理解していると解釈し、判定結果を(OS−A,1)、(OS−B,1)とする。ここで、判定結果の表記は(用語,0又は1)であり、0は、理解していないことを意味し、1は理解していることを意味する。   FIG. 7 is a diagram for explaining an example of determining whether or not a term is understood. As a method of determining whether or not there is an understanding of terms, as shown in FIG. 7, for example, “OS-A”, “OS-B”, “I don't know” as answer options for a question message asking for the OS of the terminal currently used ”And the user answer“ OS-A ”or“ OS-B ”, it is interpreted that both terms are understood, and the determination results are (OS-A, 1) and (OS-B). , 1). Here, the notation of the determination result is (term, 0 or 1), 0 means not understood, and 1 means understood.

また、用語そのものを知っているかどうかを直接尋ねる質問文に対するユーザ回答の選択肢として、「はい」、「いいえ」が提示され、ユーザ回答が「はい」であればその用語を理解していると解釈し、「いいえ」であればその用語を理解していないと解釈し、上記同様に判定結果が生成される。なお、用語理解の有無の判定方法はこの限りではない。   In addition, “Yes” and “No” are presented as user answer choices for questions that directly ask whether or not the term itself is known. If the user answer is “Yes”, it is interpreted that the term is understood. If it is “No”, it is interpreted that the term is not understood, and a determination result is generated in the same manner as described above. Note that the method for determining whether or not there is an understanding of terms is not limited to this.

用語理解判定部112は、用語理解の有無の判定結果を、用語理解記憶部163に記憶する。図8は、用語理解記憶部163の構成例を示す図である。用語理解記憶部163には、予め、ICTに関連する用語及びその難易度が記憶されている。用語の難易度は、例えば、予めアンケート調査などに基づいて設定されてもよい。本実施の形態において、難易度は、5が最も難易度が高く、1が最も難易度が低い。ただし、難易度は5段階に限らず、何段階でも、連続的な値でもよい。   The term understanding determination unit 112 stores the determination result of the presence / absence of term understanding in the term understanding storage unit 163. FIG. 8 is a diagram illustrating a configuration example of the term understanding storage unit 163. The term understanding storage unit 163 stores in advance terms related to ICT and their difficulty levels. The difficulty level of the term may be set based on, for example, a questionnaire survey in advance. In the present embodiment, the difficulty level is 5 with the highest difficulty level and 1 with the lowest difficulty level. However, the difficulty level is not limited to five levels, and any number of levels may be used.

ステップS10−3では、用語理解判定部112による用語理解の有無の判定結果が、判定対象とされた用語の理解有無の値として、用語理解記憶部163に記憶される。   In step S <b> 10-3, the determination result of whether or not the term understanding is determined by the term understanding determination unit 112 is stored in the term understanding storage unit 163 as a value indicating whether or not the term is determined.

続いて、質問文生成部11は、用語理解の有無の判定対象とされた用語をユーザが理解しているか否か、すなわち、当該用語に対して用語理解記憶部163に記憶された値が1であったか否かを判定する(S10−4)。ユーザが用語を理解している場合(S10−4でYes)、すなわち、1が記憶された場合はステップS10−8へ進む。   Subsequently, the question sentence generation unit 11 determines whether or not the user understands the term to be determined whether or not the term is understood, that is, the value stored in the term understanding storage unit 163 is 1 for the term. (S10-4). If the user understands the term (Yes in S10-4), that is, if 1 is stored, the process proceeds to step S10-8.

一方、ユーザが用語を理解していない場合(S10−4でNo)、すなわち、0が記憶された場合、質問文生成部11は、対話シナリオ記憶部161を参照して、現在のステータスに対応する質問文を取得する(S10−5)。すなわち、ユーザに入力された文字列に対応する質問文が取得される。   On the other hand, when the user does not understand the term (No in S10-4), that is, when 0 is stored, the question sentence generation unit 11 refers to the dialogue scenario storage unit 161 and corresponds to the current status. To obtain a question sentence (S10-5). That is, a question sentence corresponding to the character string input by the user is acquired.

例えば、図4において、対話装置10が最後に出力した質問文が「TETHERING」ステータスの「テザリングの方法だね!ちなみに、テザリング自体は知っている?はい/いいえ」であり、当該質問文に対してユーザから「いいえ」という文字列が入力されたとする。この場合、対話制御部13が、「いいえ」に対応する「ジャンプ先ステータス」のうちの最初のステータスである「EXPLAIN()」を選択するため、ステータスは、「EXPLAIN()」となる。なお、「EXPLAIN()」ステータスには、ユーザが理解していない用語であると判定された用語が引数として渡される。なお、対話装置10が最後に出力した質問文を構成する用語のうち、用語理解記憶部163に登録されている用語が、ユーザが理解していない用語として特定される。   For example, in FIG. 4, the question sentence that is output last by the dialogue apparatus 10 is “Tethering method! You know tethering itself? Yes / No”. And the user inputs a character string “No”. In this case, since the dialog control unit 13 selects “EXPLAIN ()” that is the first status among the “jump destination status” corresponding to “No”, the status becomes “EXPLAIN ()”. Note that a term determined to be a term that the user does not understand is passed as an argument to the “EXPLAIN ()” status. Of the terms constituting the question sentence output last by the interactive apparatus 10, the terms registered in the term understanding storage unit 163 are specified as terms that the user does not understand.

この場合、図4より、「EXPLAIN()」ステータスに対応する質問文「「"#WORD"」は、"#EXP"のことだよ!」が取得される。ここで、「#WORD」及び「#EXP」は、具体的な文字列の埋め込み箇所を示す。「#WORD」は、「EXPLAIN()」ステータスに対して引数として渡された、ユーザが理解していない用語であると判定された用語を示す。「#EXP」は、当該用語に対応する説明文(用語説明文)を示す。   In this case, as shown in FIG. 4, the question sentence ““ #WORD ”” corresponding to the “EXPLAIN ()” status is “#EXP”! Is acquired. Here, “#WORD” and “#EXP” indicate specific character string embedding locations. “#WORD” indicates a term that is passed as an argument to the “EXPLAIN ()” status and determined to be a term that the user does not understand. “#EXP” indicates an explanation (term explanation) corresponding to the term.

続いて、質問文生成部11は、ステップS10−5において取得した質問文に埋め込み箇所が有るか否かを判定する(S10−6)。「#WORD」又は「#EXP」のような埋め込み箇所が有る場合(S10−6でYes)、質問文生成部11は、用語説明記憶部164を参照して、質問文の埋め込み箇所を埋める(S10−7)。   Subsequently, the question sentence generation unit 11 determines whether or not there is an embedded portion in the question sentence acquired in step S10-5 (S10-6). When there is an embedded part such as “#WORD” or “#EXP” (Yes in S10-6), the question sentence generation unit 11 refers to the term explanation storage part 164 and embeds the embedded part of the question sentence ( S10-7).

図9は、用語説明記憶部164の構成例を示す図である。図9に示されるように、用語説明記憶部164には、用語ごとに、難易度及び用語説明文等が記憶されている。   FIG. 9 is a diagram illustrating a configuration example of the term explanation storage unit 164. As shown in FIG. 9, the term explanation storage unit 164 stores a difficulty level, a term explanation sentence, and the like for each term.

例えば、「質問文」が「「"#WORD"」は、"#EXP"のことだよ!」であり、理解していないと判定された用語が「テザリング」であれば、「「テザリング」は、スマホをモバイルルータ化することにより、スマホの3G回線やLTEを使ってパソコンなどをインターネットに接続できる機能のことだよ!」といった質問文が生成される。なお、本実施の形態では、質問文生成部11が、テンプレート化された「質問文」における「#WORD」や「#EXP」等を埋めることで用語の説明を示す質問文が生成される例を示したが、用語の説明を示す質問文の生成方法は、これに限られない。例えば、質問文生成部11が、理解していないと判定された用語に対応する用語説明文を用語説明記憶部164から取得し、当該用語と当該用語説明文とを含む自然文を自動的に生成してもよい。   For example, “question text” is “#WORD” means “#EXP”! If the term that is determined not to be understood is “tethering”, “Tethering” is a mobile router that turns a smartphone into a mobile router and uses the 3G line of the smartphone or LTE to connect the PC to the Internet. It's a function that can be connected! Is generated. In the present embodiment, an example in which the question sentence generation unit 11 generates a question sentence indicating the explanation of terms by filling in “#WORD”, “#EXP”, and the like in the templated “question sentence”. However, the method of generating the question sentence indicating the explanation of the term is not limited to this. For example, the question sentence generation unit 11 acquires a term explanation corresponding to a term determined not to be understood from the term explanation storage unit 164, and automatically selects a natural sentence including the term and the term explanation sentence. It may be generated.

続いて、質問文生成部11が対話制御部13に対して当該質問文を出力する(S10−9)。この場合、当該質問文が、図3のステップS3で出力される。   Subsequently, the question sentence generation unit 11 outputs the question sentence to the dialogue control unit 13 (S10-9). In this case, the question text is output in step S3 of FIG.

一方、質問文生成部11は、ステップS10−8において、ステップS10−5と同様に、現在のステータスに対応する質問文を取得した後、ステップS10−9において、対話制御部13に対して当該質問文を出力する。   On the other hand, the question sentence generation unit 11 acquires a question sentence corresponding to the current status in step S10-8 in the same manner as step S10-5, and then in step S10-9, the question sentence generation unit 11 Output question text.

なお、図4において、直前のステータスが「TETHERING」であり、質問文に対してユーザによって入力された文字列が「いいえ」であった場合の「ジャンプ先ステータス」には、「EXPLAIN()」の次に「TETHERINGのタスク表参照」が含まれている。また、「EXPLAIN()」ステータスには、対応するキーワードが登録されておらず、「EXPLAIN()」ステータスの「ジャンプ先ステータス」は「next」である。したがって、この場合、「「テザリング」は、スマホをモバイルルータ化することにより、スマホの3G回線やLTEを使ってパソコンなどをインターネットに接続できる機能のことだよ!」といった質問文がステップS3において出力された後、ステップS5〜S7は実行されずにステップS8に進む。ステップS8では、対話制御部13は、「next」に基づいて、「TETHERING」ステータスの「いいえ」に対応する「ジャンプ先ステータス」の内の2番目のステータスである「TETHERINGのタスク表参照」を選択する。   In FIG. 4, “EXPLAIN ()” is the “jump destination status” when the previous status is “TETHERING” and the character string input by the user to the question sentence is “No”. Next to this, “see THETERING task table” is included. In addition, the corresponding keyword is not registered in the “EXPLAIN ()” status, and the “jump destination status” of the “EXPLAIN ()” status is “next”. Therefore, in this case, "Tethering" is a function that allows you to connect your PC to the Internet using your smartphone's 3G line or LTE by turning your smartphone into a mobile router! Is output in step S3, the process proceeds to step S8 without executing steps S5 to S7. In step S8, based on “next”, the dialog control unit 13 displays “TETERING task table reference”, which is the second status among the “jump destination status” corresponding to “NO” in the “TETHERING” status. select.

この場合,ステップS10−5において、質問文生成部11は、現在のステータスが「TETHERINGのタスク表参照」であることに基づいて、対話シナリオ記憶部161に記憶されているTETHERINGのタスク表を参照する。   In this case, in step S 10-5, the question sentence generation unit 11 refers to the THETERING task table stored in the dialogue scenario storage unit 161 based on the current status “refer to the THETERING task table”. To do.

図10は、対話シナリオ記憶部161のTETHERINGのタスク表の構成例を示す図である。タスク表は、「タスク」の値が「タスクTRUE」であるステータスが選択され、当該ステータスにおける質問文に対してユーザによって入力された文字列に基づく「ジャンプ先ステータス」が「TETHERINGのタスク表参照」であるとき、即ち、「TETHERINGのタスク表参照」を実行すると判定されたときに参照される表である。   FIG. 10 is a diagram illustrating a configuration example of a THETERING task table in the dialogue scenario storage unit 161. In the task table, a status in which the value of “task” is “task TRUE” is selected, and the “jump destination status” based on the character string input by the user with respect to the question sentence in the status is “see the task table of“ THETERING ”. ", That is, a table referred to when it is determined to execute" TETHERING task table reference ".

図10において、当該タスク表は、タスクごとに「タスク名」、1以上の「パラメータ」、パラメータごとの「使用ステータス」、パラメータごとの「取得値」、「回答文の取得先」等を記憶可能に構成されている。「タスク名」は、図4におけるシナリオ表において「タスク」の値が「タスクTRUE」であるシナリオレコードの「ステータス」の値に対応する。   In FIG. 10, the task table stores “task name” for each task, one or more “parameters”, “usage status” for each parameter, “acquired value” for each parameter, “acquisition destination of answer sentence”, and the like. It is configured to be possible. The “task name” corresponds to the “status” value of the scenario record whose “task” value is “task TRUE” in the scenario table in FIG.

タスク表の各項目のうち、「取得値」は当初は空である。「取得値」は、ユーザとの対話に応じて記憶されるからである。具体的には、ステップS10−5において、現在のステータスが「TETHERINGのタスク表参照」である場合、質問文生成部11は、「タスク名」が「TETHERING」であるレコードの「パラメータ」のうち、「取得値」が記憶されていない「パラメータ」の「使用ステータス」に対応する質問文をシナリオ表(図4)から取得する。例えば、図10では、「TETHERING」のタスクに対して、「OS」及び「CONNECT」の「パラメータ」が定義されているところ、当初は、いずれの「取得値」も記憶されていないため、質問文生成部11は、まず、「OS」に対応する「使用ステータス」である「TETHERING_OS」に対応する質問文「使っている端末はどれ?・・・・」をシナリオ表(図4)から取得し、対話文出力部14が、当該質問文を、図3のステップS3で出力する。   Of the items in the task table, the “acquired value” is initially empty. This is because the “acquired value” is stored in accordance with the dialogue with the user. Specifically, in step S10-5, when the current status is “refer to task table of THETERING”, the question sentence generation unit 11 includes “parameter” of the record whose “task name” is “TETHERING”. The question text corresponding to the “usage status” of the “parameter” in which the “acquired value” is not stored is acquired from the scenario table (FIG. 4). For example, in FIG. 10, “parameters” of “OS” and “CONNECT” are defined for the “TETHERING” task, but since neither “acquired value” is initially stored, The sentence generation unit 11 first obtains a question sentence “Which terminal is used? ...” corresponding to “TETHERING_OS” which is a “usage status” corresponding to “OS” from the scenario table (FIG. 4). Then, the dialogue sentence output unit 14 outputs the question sentence in step S3 of FIG.

したがって、ユーザから見た場合、「テザリングの方法だね!ちなみに、テザリング自体は知っている?はい/いいえ」という質問文に対して、ユーザが「いいえ」という文字列を入力すると、「「テザリング」は、スマホをモバイルルータ化することにより、スマホの3G回線やLTEを使ってパソコンなどをインターネットに接続できる機能のことだよ!」といった質問文に続いて、「使っている端末はどれ?・・・・」という質問文が出力される。すなわち、2つの質問文が連続して出力される。   Therefore, when viewed from the user, when the user inputs the character string “No” in response to the question “Do you know tethering? Yes / No”, “ "Is a function that allows smartphones to be connected to the Internet using a smartphone's 3G connection or LTE by turning it into a mobile router! Followed by a question sentence such as “Which terminal is used? That is, two question sentences are output in succession.

なお、「TETHERING」ステータスの「テザリングの方法だね!ちなみに、テザリング自体は知っている?はい/いいえ」という質問文に対して、ユーザから「はい」という文字列が入力された場合には、図4より「ジャンプ先ステータス」には「EXPLAIN()」は含まれておらず、「TETHERINGのタスク表参照」のみであるため、「TETHERINGのタスク表参照」が実行される。この場合、質問文生成部11は、図10のタスク表において「取得値」が記憶されていない「パラメータ」の「使用ステータス」を当該タスク表の上方から順に探索していき、最初に検出された、「取得値」が記憶されていない「パラメータ」の「使用ステータス」に対応する質問文をシナリオ表(図4)から取得する。例えば、パラメータ「OS」に対応する「取得値」が記憶されていなかった場合には、質問文生成部11は、上述のようにパラメータ「OS」の「使用ステータス」である「TETHERING_OS」に対応する質問文をシナリオ表(図4)から取得し、「使っている端末はどれ?・・・・」という質問文を対話制御部13に対して出力する。   In addition, if the user inputs the character string “Yes” in response to the question sentence “Tethering, is it a tethering method! Do you know tethering itself? Yes / No”, As shown in FIG. 4, “EXPLAIN ()” is not included in the “jump destination status”, and only “see TETERING task table”, and therefore “see TETERING task table” is executed. In this case, the question sentence generation unit 11 searches “usage status” of “parameter” in which “acquired value” is not stored in the task table of FIG. 10 in order from the upper side of the task table, and is detected first. In addition, a question sentence corresponding to “usage status” of “parameter” in which “acquired value” is not stored is acquired from the scenario table (FIG. 4). For example, when the “acquired value” corresponding to the parameter “OS” is not stored, the question sentence generation unit 11 corresponds to “THETERING_OS” that is the “usage status” of the parameter “OS” as described above. The question sentence to be obtained is acquired from the scenario table (FIG. 4), and the question sentence “Which terminal is used?...

なお、現在のステータスが「TETHERINGのタスク表参照」である場合の質問文の取得方法は、ステップS10−8についても同様である。   Note that the method for acquiring a question sentence when the current status is “refer to the task table of TETERING” is the same as in step S10-8.

タスク表に基づいて出力された質問文に対してステップS5で入力された文字列は、当該質問文のタスク表において当該質問文の元となった「パラメータ」に対応する「取得値」として記憶される。   The character string input in step S5 with respect to the question sentence output based on the task table is stored as an “acquired value” corresponding to the “parameter” that is the source of the question sentence in the task table of the question sentence. Is done.

更に、シナリオ表(図4)において「TETHERING_OS」ステータスの「ジャンプ先ステータス」は、「TETHERINGのタスク表参照」となっている。したがって、この場合、再び、図10のタスク表が参照される。当該タスク表の参照が2度目である場合、ステップS10−5又はS10−8において、質問文生成部11は、パラメータ「CONNECT」の「使用ステータス」である「TETHERING_CONNECT」に対応する質問文を取得し、ステップS10−9において当該質問文を対話制御部13に出力する。なお、図10においては、便宜上、「TETHERING_CONNECT」ステータスのシナリオレコードは省略されている。   Further, in the scenario table (FIG. 4), the “jump destination status” of the “TETHERING_OS” status is “refer to the task table of the THETERING”. Therefore, in this case, the task table of FIG. 10 is referred again. When the task table is referred to for the second time, in step S10-5 or S10-8, the question sentence generation unit 11 obtains a question sentence corresponding to the “usage status” of the parameter “CONNECT” corresponding to “TETHERING_CONNECT”. In step S10-9, the question sentence is output to the dialogue control unit 13. In FIG. 10, for convenience, a scenario record having a “TETHERING_CONNECT” status is omitted.

この場合、図3のステップS5において当該質問文に対する文字列がユーザによって入力され、当該文字列が、図10において「CONNECT」に対する取得値としてタスク表(図10)に記憶される。その結果、「TETHERING」タスクに対応するパラメータは全て取得されたことになる。   In this case, a character string for the question sentence is input by the user in step S5 of FIG. 3, and the character string is stored in the task table (FIG. 10) as an acquired value for “CONNECT” in FIG. As a result, all the parameters corresponding to the “TETHERING” task have been acquired.

この状態において、図3のステップS9における判定はYesとなる。タスク表(図4)において「タスク」の値が「タスクTRUE」である「TETHERING」ステータスに遷移済みであり、「TETHERING」ステータスに係るタスクに対応する全てのパラメータの取得が完了しているからである。この場合に、ステップS11及びS12が実行される。   In this state, the determination in step S9 in FIG. In the task table (FIG. 4), since the value of “task” has been changed to the “TETHERING” status with “task TRUE”, acquisition of all parameters corresponding to the task related to the “TETHERING” status has been completed. It is. In this case, steps S11 and S12 are executed.

なお、対話シナリオ記憶部161に記憶されるタスク表は、例えば、Wi−Fi(登録商標)に関するものや、その他のICT用語に関するもの等、THETHERING以外にも複数あってもよい。この場合、シナリオ表(図4)の「ジャンプ先ステータス」には、各タスク表に対応したステータス(例えば、「Wi−Fi(登録商標)のタスク表参照」等)が設定されればよい。   Note that there may be a plurality of task tables stored in the dialogue scenario storage unit 161 other than THETHERING, such as those relating to Wi-Fi (registered trademark) and those relating to other ICT terms. In this case, a status corresponding to each task table (for example, “refer to task table of Wi-Fi (registered trademark)” or the like may be set in the “jump destination status” of the scenario table (FIG. 4).

続いて、ステップS11の詳細について説明する。図11は、回答文生成処理の処理手順の一例を説明するためのフローチャートである。   Next, details of step S11 will be described. FIG. 11 is a flowchart for explaining an example of a processing procedure of an answer sentence generation process.

ステップS11−1において、回答文生成部15は、ユーザの知識量の推定を知識量推定部151に要求する。   In step S11-1, the answer sentence generation unit 15 requests the knowledge amount estimation unit 151 to estimate the knowledge amount of the user.

続いて、知識量推定部151の文字入力速度算出部1511は、文字入力速度記憶部162(図5)を参照して、文字入力速度を算出する(S11−2)。例えば、ユーザによって入力された文字列ごとに文字数をカウントし、当該文字数を当該文字列の所要時間で除することで、文字列ごとに速度(1秒あたりの入力文字数)が算出される。更に、文字入力速度算出部1511は、これまで入力された全ての文字列ごとの速度の平均値を文字入力速度として算出する。   Subsequently, the character input speed calculation unit 1511 of the knowledge amount estimation unit 151 calculates the character input speed with reference to the character input speed storage unit 162 (FIG. 5) (S11-2). For example, the number of characters is counted for each character string input by the user, and the speed (number of input characters per second) is calculated for each character string by dividing the number of characters by the required time of the character string. Furthermore, the character input speed calculation unit 1511 calculates the average value of the speeds of all the character strings input so far as the character input speed.

例えば、文字入力速度記憶部162の記憶内容が図5に示される通りであるとすると、文字入力速度は以下のように算出される。
No.1の速度=12文字/10秒=1.2文字/秒
No.2の速度=3文字/3秒=1文字/秒
No.3の速度=5文字/3秒=1.667文字/秒
文字入力速度=(1.2+1+1.667)/3=1.289
続いて、知識量推定部151の用語理解度算出部1512は、用語理解記憶部163(図8)を参照して、用語理解度を算出する(S11−3)。
For example, if the stored contents of the character input speed storage unit 162 are as shown in FIG. 5, the character input speed is calculated as follows.
No. 1 speed = 12 characters / 10 seconds = 1.2 characters / second 2 speed = 3 characters / 3 seconds = 1 character / second Speed of 3 = 5 characters / 3 seconds = 1.667 characters / second Character input speed = (1.2 + 1 + 1.667) /3=1.289
Subsequently, the term understanding level calculation unit 1512 of the knowledge amount estimation unit 151 calculates the term understanding level with reference to the term understanding storage unit 163 (FIG. 8) (S11-3).

図12は、用語理解度の算出方法の第1の例を示す図である。図12では、用語理解の有無の判定結果(理解無し=0、理解有り=1)を縦軸とし、難易度を横軸とする座標上に、用語理解記憶部163(図8)の記憶内容がプロットされ、ロジスティック曲線に近似させて、変曲点以下の最大難易度を用語理解度とする例が示されている。図12の例では、用語理解度の算出結果は2となる。   FIG. 12 is a diagram showing a first example of a term comprehension calculation method. In FIG. 12, the content of the term understanding storage unit 163 (FIG. 8) is stored on the coordinates with the vertical axis representing the determination result of whether or not the term is understood (no understanding = 0, with understanding = 1), and the difficulty is the horizontal axis. Is plotted, and an example in which the maximum difficulty level below the inflection point is used as the term comprehension degree by approximating the logistic curve is shown. In the example of FIG. 12, the term comprehension degree calculation result is 2.

なお、用語理解度の算出方法はこれに限らない。図13は、用語理解度の算出方法の第2の例を示す図である。図13では、図12と同様の座標上に、用語理解記憶部163(図8)の記憶内容をプロットした結果、0が存在しない最大難易度を用語理解度とする例が示されている。この場合も、用語理解度の算出結果は2となる。   Note that the term comprehension calculation method is not limited to this. FIG. 13 is a diagram illustrating a second example of a term comprehension calculation method. FIG. 13 shows an example in which the maximum difficulty level in which 0 does not exist is defined as the term comprehension level as a result of plotting the storage contents of the term understanding storage unit 163 (FIG. 8) on the same coordinates as in FIG. In this case as well, the term comprehension calculation result is 2.

続いて、知識量推定部151は、文字入力速度算出部1511で算出された文字入力速度及び用語理解度算出部1512で算出された用語理解度を用いて知識量を推定する(S11−4)。知識量とは、ユーザ冒頭質問に関連する分野(ICT分野)又は当該分野の用語に関するユーザの知識のレベルを示す指標である。   Subsequently, the knowledge amount estimation unit 151 estimates the knowledge amount using the character input speed calculated by the character input speed calculation unit 1511 and the term understanding level calculated by the term understanding level calculation unit 1512 (S11-4). . The amount of knowledge is an index indicating the level of knowledge of the user regarding the field related to the user's initial question (ICT field) or terms in the field.

図14は、知識量の推定方法の第1の例を示す図である。図14では、文字入力速度と用語理解度とに応じた知識量が登録された対応表を用意しておき、算出された文字入力速度及び用語理解度を当該対応表に当てはめて知識量を推定する(求める)例が示されている。当該対応表は、例えば、予め補助記憶装置102等に記憶されていてもよい。   FIG. 14 is a diagram illustrating a first example of a knowledge amount estimation method. In FIG. 14, a correspondence table in which a knowledge amount corresponding to the character input speed and term comprehension level is prepared, and the knowledge amount is estimated by applying the calculated character input speed and term comprehension level to the correspondence table. An example of doing (determining) is shown. For example, the correspondence table may be stored in advance in the auxiliary storage device 102 or the like.

また、図15は、知識量の推定方法の第2の例を示す図である。図15では、文字入力速度と用語理解度とを変数とする計算式を用意し、算出された文字入力速度及び用語理解度を当該計算式に当てはめた計算結果に基づいて知識量を求める例が示されている。   FIG. 15 is a diagram illustrating a second example of the knowledge amount estimation method. FIG. 15 shows an example in which a calculation formula is prepared using the character input speed and the term comprehension as variables, and the knowledge amount is obtained based on the calculation result obtained by applying the calculated character input speed and term comprehension to the calculation formula. It is shown.

なお、図14及び図15においては、文字入力速度と用語理解度両方が離散的な値であるが、文字入力速度及び用語理解度は、連続的な値であってもよい。知識量も、本実施の形態では離散的な値を用いているが、連続的な値でもよい。すなわち、文字入力速度及び用語理解度に基づいて知識量を推定可能であれば、知識量はどのような値であってもよい。   14 and 15, both the character input speed and the term comprehension degree are discrete values, but the character input speed and the term comprehension degree may be continuous values. The knowledge amount is also a discrete value in the present embodiment, but may be a continuous value. In other words, the knowledge amount may be any value as long as the knowledge amount can be estimated based on the character input speed and the term comprehension level.

続いて、回答文生成部15は、実行対象のタスクに対応する回答文の取得先から、回答文を取得する(S11−5)。当該取得先は、当該タスクに対応するタスク表(図10)の「回答文の取得先」の値を参照することで特定可能である。図10の例では、「TETHERING」のタスクについての「回答文の取得先」は、「TETHERING_R(OS,CONNECT)」である。ここで、「TETHERING_R」は、「TETHERING」のタスクに対応付けられて対話シナリオ記憶部161に記憶されている回答文表を意味する。「(OS,CONNECT)」は、当該回答文表に記憶されている複数のレコードの中から1つのレコードを特定するための情報であり、「OS」、「CONNECT」の各値は、各パラメータに対応する具体的な取得値に置き換えられる。   Subsequently, the answer sentence generation unit 15 acquires an answer sentence from the acquisition destination of the answer sentence corresponding to the task to be executed (S11-5). The acquisition destination can be specified by referring to the value of “response sentence acquisition destination” in the task table (FIG. 10) corresponding to the task. In the example of FIG. 10, the “answer text acquisition destination” for the “TETHERING” task is “TETHERING_R (OS, CONNECT)”. Here, “TETHERING_R” means an answer sentence table stored in the dialogue scenario storage unit 161 in association with the task of “TETHERING”. “(OS, CONNECT)” is information for specifying one record from a plurality of records stored in the answer statement table, and each value of “OS” and “CONNECT” It is replaced with a specific acquired value corresponding to.

図16は、対話シナリオ記憶部161のTETHERINGの回答文表の構成例を示す図である。   FIG. 16 is a diagram illustrating a configuration example of a response statement table of THETERING in the dialogue scenario storage unit 161.

図16に示されるように、回答文表には、「条件」に対応づけられて「回答文」が記憶されている。「条件」は、対応する「回答文」が取得対象とされる条件であり、タスク表の「回答文の取得先」の値に対応する。「回答文」は、回答文を構成する文字列である。   As shown in FIG. 16, “answer text” is stored in the answer text table in association with “condition”. “Condition” is a condition for which the corresponding “answer text” is an acquisition target, and corresponds to the value of “answer text acquisition destination” in the task table. “Answer sentence” is a character string constituting the answer sentence.

例えば、「TETHERING」のタスクのパラメータ「OS」に対する「取得値」が「OS−B」であり、パラメータ「CONNECT」に対する「取得値」が「Wi−Fi(登録商標)」である場合、図16において1番目のレコードに記憶されている回答文が取得される。   For example, when the “acquired value” for the parameter “OS” of the “TETHERING” task is “OS-B” and the “acquired value” for the parameter “CONNECT” is “Wi-Fi (registered trademark)”, FIG. In 16, the answer sentence stored in the first record is acquired.

続いて、回答文生成部15は、ステップS11−4で推定した知識量が、定義した段階での最高レベルか否かを判定する(S11−6)。例えば、本実施の形態では、1〜5の5段階で難易度が定義されているため、5が最高レベルとなる。知識量が最高レベルであればステップS11−9に進み、そうでなければステップS11−7に進む。   Subsequently, the answer sentence generation unit 15 determines whether or not the knowledge amount estimated in step S11-4 is the highest level at the defined stage (S11-6). For example, in the present embodiment, since the difficulty level is defined in five stages of 1 to 5, 5 is the highest level. If the knowledge amount is the highest level, the process proceeds to step S11-9, and if not, the process proceeds to step S11-7.

ステップS11−7において、回答文生成部15は、用語理解記憶部163(図8)を参照し、回答文の中から知識量のレベルより難易度が高い用語(以下、「変換対象用語」という。)を抽出する。例えば、図16の回答文表の1番目のレコードの回答文が取得された場合、回答文の中に難易度が2の「Wi−Fi(登録商標)」という用語、難易度が4の「SSID」という用語、難易度が4の「テザリング」という用語等が含まれている。この場合において、ユーザの知識量が3であったとき、難易度がユーザの知識量のレベル以下である「Wi−Fi(登録商標)」は変換対象用語として抽出されず、当該知識量のレベルより難易度が高い「SSID」及び「テザリング」は変換対象用語として抽出される。   In step S11-7, the answer sentence generation unit 15 refers to the term understanding storage part 163 (FIG. 8), and uses a term (hereinafter referred to as “conversion target term”) having a higher difficulty level than the knowledge amount level from the answer sentence. .) Is extracted. For example, when the answer sentence of the first record in the answer sentence table of FIG. 16 is acquired, the term “Wi-Fi (registered trademark)” having a difficulty level of 2 and “ The term “SSID”, the term “tethering” having a difficulty level of 4, and the like are included. In this case, when the user's knowledge amount is 3, “Wi-Fi (registered trademark)” whose difficulty level is equal to or lower than the user's knowledge amount level is not extracted as a conversion target term, and the level of the knowledge amount “SSID” and “tethering” having a higher difficulty level are extracted as conversion target terms.

続いて、回答文生成部15は、用語説明記憶部164(図9)を参照して、変換対象用語の用語説明文を取得し、当該用語説明文を回答文に含めることでユーザ冒頭質問に対するシステム回答を示す回答文を生成する(S11−8)。例えば、「・・・3.「テザリング」を押す・・・」の部分に「・・・3.「テザリング(スマホをモバイルルータ化することにより、スマホの3G回線やLTEを使ってパソコンなどをインターネットに接続できる機能)」を押す・・・」といったように変換対象用語の直後に用語説明文が含められてもよい。なお、回答文生成部15は、回答文表を用いずに、変換対象用語の直後に用語説明文を含む自然文を生成してもよい。   Subsequently, the answer sentence generation unit 15 refers to the term explanation storage unit 164 (FIG. 9), acquires the term explanation sentence of the conversion target term, and includes the term explanation sentence in the answer sentence, thereby responding to the user initial question. An answer sentence indicating the system answer is generated (S11-8). For example, in the “... 3. Press“ Tethering ”...” section, “... 3.“ Tethering (by turning the smartphone into a mobile router, you can use your smartphone's 3G line or LTE to connect your PC etc. A term explanation may be included immediately after the term to be converted, such as “a function capable of connecting to the Internet)”. Note that the answer sentence generation unit 15 may generate a natural sentence including a term explanation sentence immediately after the conversion target term without using the answer sentence table.

ステップS11−9において、回答文生成部15は、対話制御部13に対して回答文を出力する。対話制御部13は、当該回答文を対話文出力部14に出力する。その結果、対話文出力部14は、当該回答文を、図3のステップS12において出力する。   In step S <b> 11-9, the answer sentence generation unit 15 outputs an answer sentence to the dialog control unit 13. The dialogue control unit 13 outputs the answer sentence to the dialogue sentence output unit 14. As a result, the dialogue sentence output unit 14 outputs the answer sentence in step S12 of FIG.

なお、上記において、文字入力速度の代わりに、タイプミス回数(例えば、文字の削除の回数)、又は文字の入力時間(速度ではなく絶対時間)等が回答の入力操作の状況を示す情報(指標)として用いられてもよい。   In the above, instead of the character input speed, the number of typographical errors (for example, the number of character deletions) or the character input time (absolute time, not speed) is the information (index) ).

また、上記では、ユーザ冒頭質問及び質問文に対するユーザによる入力が文字列によって行われ、質問文の出力及び回答文が文字列によって表示装置106に表示される例について説明したが、これらは音声によって入力又は出力されてもよい。例えば、ユーザ冒頭質問はユーザの発話により入力されてもよい。この場合、テキスト入力部12は、ユーザが入力する文字列に代わって、ユーザの発話を図示しない音声認識部によって認識した結果得られるテキストを入力とすると共に、ユーザが発話を開始してから完了するまでの所要時間を計測する。ユーザによる発話の開始と完了時点は、例えば、システムによる直前の出力処理が完了した時点をユーザによる発話の開始のタイミングとし、入力装置107に対する所定の操作(例えば、「送信」ボタンの押下等)時を発話の完了のタイミングとすれば検知可能である。このように、ユーザが入力する文字列に代わって、ユーザの発話を図示しない音声認識部によって認識した結果得られるテキストを文字列として使用すればよい。また、対話装置10による質問文や回答文の出力は、対話装置10のエージェントが音声として発話する形態で出力されてもよい。   In the above description, an example in which the user's opening question and the question sentence are input by the user by a character string and the output of the question sentence and the answer sentence are displayed on the display device 106 by the character string has been described. It may be input or output. For example, the user opening question may be input by the user's utterance. In this case, the text input unit 12 receives the text obtained as a result of recognizing the user's utterance by a voice recognition unit (not shown) instead of the character string input by the user, and is completed after the user starts the utterance. Measure the time required to complete. As for the start and completion time point of the utterance by the user, for example, the time point when the immediately previous output processing by the system is completed is set as the start timing of the utterance by the user, and a predetermined operation on the input device 107 (for example, pressing the “send” button) If time is the completion timing of the utterance, it can be detected. In this way, instead of the character string input by the user, text obtained as a result of recognizing the user's utterance by a voice recognition unit (not shown) may be used as the character string. Moreover, the output of the question sentence and the answer sentence by the dialogue apparatus 10 may be outputted in a form in which the agent of the dialogue apparatus 10 speaks as a voice.

上述したように、本実施の形態によれば、対話相手のユーザに関して、用語の理解の有無を示す入力情報と、当該ユーザの非言語情報(文字入力速度などのユーザ回答の入力操作の状況)とに基づいて、当該ユーザからの質問(ユーザ冒頭質問)に関連する分野における当該ユーザの知識のレベル(知識量)を推定することができる。したがって、対話相手のユーザの知識の推定精度を向上させることができ、より適切な対話(回答文の生成)を可能とすることができる。例えば、ユーザの既知と未知の用語が何であるかという部分まで推定することができる。   As described above, according to the present embodiment, with respect to the user of the conversation partner, the input information indicating whether or not the term is understood and the non-linguistic information of the user (the state of the input operation of the user response such as the character input speed) Based on the above, it is possible to estimate the level of knowledge (knowledge amount) of the user in the field related to the question from the user (user initial question). Therefore, it is possible to improve the estimation accuracy of the knowledge of the user of the conversation partner, and to enable a more appropriate conversation (generation of an answer sentence). For example, it can be estimated up to what the user's known and unknown terms are.

なお、本実施の形態は、ICT以外の分野の知識の推定に関して適用されてもよい。   Note that this embodiment may be applied to estimation of knowledge in a field other than ICT.

なお、本実施の形態において、テキスト入力部12は、受付部の一例である。対話文出力部14は、出力部の一例である。知識量推定部151は、推定部の一例である。回答文生成部15は、生成部の一例である。   In the present embodiment, the text input unit 12 is an example of a reception unit. The dialogue sentence output unit 14 is an example of an output unit. The knowledge amount estimation unit 151 is an example of an estimation unit. The answer sentence generation unit 15 is an example of a generation unit.

以上、本発明の実施の形態について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims. Deformation / change is possible.

10 対話装置
11 質問文生成部
12 テキスト入力部
13 対話制御部
14 対話文出力部
15 回答文生成部
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
106 表示装置
107 入力装置
111 選択肢判定部
112 用語理解判定部
151 知識量推定部
161 対話シナリオ記憶部
162 文字入力速度記憶部
163 用語理解記憶部
164 用語説明記憶部
1511 文字入力速度算出部
1512 用語理解度算出部
B バス
DESCRIPTION OF SYMBOLS 10 Dialogue apparatus 11 Question sentence generation part 12 Text input part 13 Dialogue control part 14 Dialogue sentence output part 15 Answer sentence generation part 100 Drive device 101 Recording medium 102 Auxiliary storage device 103 Memory device 104 CPU
105 interface device 106 display device 107 input device 111 option determination unit 112 term understanding determination unit 151 knowledge amount estimation unit 161 dialogue scenario storage unit 162 character input speed storage unit 163 term understanding storage unit 164 term explanation storage unit 1511 character input speed calculation unit 1512 Term Comprehension Calculation Unit B Bus

Claims (4)

ユーザから第1の質問の入力を受け付ける受付部と、
前記第1の質問に関連する用語の理解の有無をユーザに問う第2の質問を出力する出力部と、
前記第2の質問に対する回答の内容及び前記回答を示す文字列の入力操作の状況に基づいて、前記第1の質問に関連する分野に関する前記ユーザの知識のレベルを推定する推定部と、
前記推定部が推定したレベルに応じて、前記第1の質問に対する回答の内容を生成する生成部と、
を有することを特徴とする対話装置。
A reception unit that receives input of a first question from a user;
An output unit that outputs a second question that asks the user whether or not he / she understands terms related to the first question;
An estimation unit that estimates a level of knowledge of the user related to a field related to the first question, based on a content of an answer to the second question and a state of an input operation of a character string indicating the answer;
According to the level estimated by the estimation unit, a generation unit that generates the content of an answer to the first question;
An interactive apparatus characterized by comprising:
前記生成部は、用語ごとに記憶部に記憶されている難易度と、前記推定部が推定したレベルとに基づいて、前記第1の質問に対する回答に含まれる用語のうち、前記ユーザが理解していないことが推定される用語を特定し、特定した用語に対して記憶部に記憶されている説明文を、前記第1の質問に対する回答に含める、
ことを特徴とする請求項1記載の対話装置。
The generation unit is understood by the user among the terms included in the answer to the first question based on the difficulty level stored in the storage unit for each term and the level estimated by the estimation unit. A term that is presumed not to be identified, and an explanation stored in the storage unit for the identified term is included in the answer to the first question,
The interactive apparatus according to claim 1.
前記推定部は、前記第2の質問に対する回答の内容に基づいて特定される、前記ユーザが理解している用語に対して記憶部に記憶されている難易度に基づいて、前記レベルを推定する、
ことを特徴とする請求項1又は2記載の対話装置。
The estimation unit estimates the level based on a difficulty level stored in a storage unit for a term understood by the user, which is specified based on a content of an answer to the second question. ,
The interactive apparatus according to claim 1 or 2, wherein
ユーザから第1の質問の入力を受け付ける受付手順と、
前記第1の質問に関連する用語の理解の有無をユーザに問う第2の質問を出力する出力手順と、
前記第2の質問に対する回答の内容及び前記回答を示す文字列の入力操作の状況に基づいて、前記第1の質問に関連する分野に関する前記ユーザの知識のレベルを推定する推定手順と、
前記推定手順において推定したレベルに応じて、前記第1の質問に対する回答の内容を生成する生成手順と、
をコンピュータに実行させることを特徴とするプログラム。
An acceptance procedure for accepting an input of a first question from a user;
An output procedure for outputting a second question asking the user whether or not he / she understands terms related to the first question;
An estimation procedure for estimating a level of knowledge of the user regarding a field related to the first question, based on a content of an answer to the second question and a state of an input operation of a character string indicating the answer;
A generation procedure for generating a content of an answer to the first question according to the level estimated in the estimation procedure;
A program that causes a computer to execute.
JP2017145620A 2017-07-27 2017-07-27 Dialogue device and program Active JP6740187B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017145620A JP6740187B2 (en) 2017-07-27 2017-07-27 Dialogue device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017145620A JP6740187B2 (en) 2017-07-27 2017-07-27 Dialogue device and program

Publications (2)

Publication Number Publication Date
JP2019028604A true JP2019028604A (en) 2019-02-21
JP6740187B2 JP6740187B2 (en) 2020-08-12

Family

ID=65478349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017145620A Active JP6740187B2 (en) 2017-07-27 2017-07-27 Dialogue device and program

Country Status (1)

Country Link
JP (1) JP6740187B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11562126B2 (en) 2019-09-12 2023-01-24 Hitachi, Ltd. Coaching system and coaching method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6366639A (en) * 1986-09-08 1988-03-25 Nec Corp Flexible explanation system for knowledge base system
JP2004355108A (en) * 2003-05-27 2004-12-16 Fujitsu Ltd Operator supporting program
JP2009193532A (en) * 2008-02-18 2009-08-27 Oki Electric Ind Co Ltd Dialogue management device, method, and program, and consciousness extraction system
JP2011060218A (en) * 2009-09-14 2011-03-24 Nec Corp Reply system
JP2013092830A (en) * 2011-10-24 2013-05-16 Nifty Corp Information processing unit, program, and information retrieval system
JP2014002470A (en) * 2012-06-15 2014-01-09 Ricoh Co Ltd Processing device, processing system, output method and program
US20150234823A1 (en) * 2014-02-20 2015-08-20 International Business Machines Corporation Dynamic interfacing in a deep question answering system
US20160048772A1 (en) * 2014-08-14 2016-02-18 International Business Machines Corporation Tailoring Question Answering System Output Based on User Expertise

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6366639A (en) * 1986-09-08 1988-03-25 Nec Corp Flexible explanation system for knowledge base system
JP2004355108A (en) * 2003-05-27 2004-12-16 Fujitsu Ltd Operator supporting program
JP2009193532A (en) * 2008-02-18 2009-08-27 Oki Electric Ind Co Ltd Dialogue management device, method, and program, and consciousness extraction system
JP2011060218A (en) * 2009-09-14 2011-03-24 Nec Corp Reply system
JP2013092830A (en) * 2011-10-24 2013-05-16 Nifty Corp Information processing unit, program, and information retrieval system
JP2014002470A (en) * 2012-06-15 2014-01-09 Ricoh Co Ltd Processing device, processing system, output method and program
US20150234823A1 (en) * 2014-02-20 2015-08-20 International Business Machines Corporation Dynamic interfacing in a deep question answering system
US20160048772A1 (en) * 2014-08-14 2016-02-18 International Business Machines Corporation Tailoring Question Answering System Output Based on User Expertise

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11562126B2 (en) 2019-09-12 2023-01-24 Hitachi, Ltd. Coaching system and coaching method

Also Published As

Publication number Publication date
JP6740187B2 (en) 2020-08-12

Similar Documents

Publication Publication Date Title
CN111033464B (en) Generating chat robots from web API specifications
JP7274043B2 (en) Voice conversation processing method and device
US20180366114A1 (en) Exporting dialog-driven applications to digital communication platforms
RU2637874C2 (en) Generation of interactive recommendations for chat information systems
JP5965175B2 (en) Response generation apparatus, response generation method, and response generation program
US8717915B2 (en) Process-integrated tree view control for interactive voice response design
CN107430853B (en) Locally saving data for voice actions with selective offline capability in a voice-enabled electronic device
JP2018511095A5 (en)
CN110050303B (en) Voice-to-text conversion based on third party proxy content
US9349370B2 (en) Speech recognition terminal device, speech recognition system, and speech recognition method
KR102429407B1 (en) User-configured and customized interactive dialog application
CN107844470B (en) Voice data processing method and equipment thereof
US10908883B2 (en) Voice interaction development tool
JP5616390B2 (en) Response generation apparatus, response generation method, and response generation program
JP2014106523A (en) Voice input corresponding device and voice input corresponding program
JP2019219737A (en) Interactive server, interactive method and interactive program
US10235133B2 (en) Tooltip surfacing with a screen reader
KR102527107B1 (en) Method for executing function based on voice and electronic device for supporting the same
JP6740187B2 (en) Dialogue device and program
US20230252242A1 (en) Question based chatbot generator from api specifications
JP2007193422A (en) Interactive information processing system, and method for providing help scenario for service scenario
JP6929960B2 (en) Information processing device and information processing method
JP2021125164A (en) Information processing apparatus, chat bot assisting program, and chat bot assisting method
JP2020136993A (en) Setting device, setting method, and setting program
JP7205962B1 (en) System for automatic dialogue

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200722

R150 Certificate of patent or registration of utility model

Ref document number: 6740187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150