JP6740187B2 - Dialogue device and program - Google Patents

Dialogue device and program Download PDF

Info

Publication number
JP6740187B2
JP6740187B2 JP2017145620A JP2017145620A JP6740187B2 JP 6740187 B2 JP6740187 B2 JP 6740187B2 JP 2017145620 A JP2017145620 A JP 2017145620A JP 2017145620 A JP2017145620 A JP 2017145620A JP 6740187 B2 JP6740187 B2 JP 6740187B2
Authority
JP
Japan
Prior art keywords
question
user
term
answer
status
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017145620A
Other languages
Japanese (ja)
Other versions
JP2019028604A (en
Inventor
明日香 三宅
明日香 三宅
晶郁 寺中
晶郁 寺中
森西 優次
優次 森西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017145620A priority Critical patent/JP6740187B2/en
Publication of JP2019028604A publication Critical patent/JP2019028604A/en
Application granted granted Critical
Publication of JP6740187B2 publication Critical patent/JP6740187B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、対話装置及びプログラムに関する。 The present invention relates to a dialogue device and a program.

現状の対話システムは、ユーザの特性に関わらずどのようなユーザに対しても画一的に応答を行っているものが多い。しかし、ユーザの嗜好や知識の有無に関わらず画一的に応答をしていると、応答内容の満足度や理解度を高められない。そこで、ユーザの特性を自動的に推定し、推定結果に応じた応対内容を提示する必要がある。 Many of the current dialogue systems respond uniformly to any user regardless of their characteristics. However, if the user responds uniformly regardless of the preference or knowledge of the user, the satisfaction and understanding of the response content cannot be improved. Therefore, it is necessary to automatically estimate the characteristics of the user and present the response content according to the estimation result.

ユーザの特性の一つとして、PCやスマートフォン、タブレットといったICT(Information and Communication Technology)に関する知識量が挙げられる。現在、ICT機器やサービスに関するユーザからの問い合わせに関して、音声やテキストの対話システムが用いられることが多いことから、ICTに関する知識量を対話システムの利用の中から推定し、知識量に応じた対話をすることは重要である。 One of the characteristics of users is the amount of knowledge about ICT (Information and Communication Technology) such as PCs, smartphones, and tablets. At present, a voice or text dialogue system is often used for inquiries from users regarding ICT devices and services. Therefore, the amount of knowledge about ICT is estimated from the use of the dialogue system, and a dialogue corresponding to the amount of knowledge is performed. It is important to do.

従来、ユーザのICTに関するリテラシや、機器の操作方法の知識、用語の知識などのレベルに応じて、そのユーザにとって理解しやすい表現に用語を変換する技術が提案されている(特許文献1、2)。また、ユーザのICTに関する知識量を推定する技術も提案されている(特許文献3、4)。 Conventionally, there has been proposed a technique for converting a term into an expression that is easy for the user to understand, depending on the level of literacy about the user's ICT, knowledge of the operation method of the device, and knowledge of the term (Patent Documents 1 and 2). ). In addition, a technique for estimating the amount of knowledge of a user's ICT has been proposed (Patent Documents 3 and 4).

特開2013−250624号公報JP, 2013-250624, A 特開2014−2517号公報JP, 2014-2517, A 特開2013−117842号公報JP, 2013-117842, A 特開2014−115719号公報JP, 2014-115719, A

特許文献1記載の技術では、コールセンタ等でオペレータがユーザの年齢やインターネット利用年数などに基づいてユーザのリテラシレベルを手動で入力した上で、そのレベルに応じて理解しやすいようにICT用語を変換して出力し、オペレータの応対支援を行なっている。 In the technique described in Patent Document 1, an operator manually inputs the literacy level of the user based on the age of the user, the years of Internet use, etc. at a call center, etc., and then converts the ICT terminology for easy understanding according to the level. And outputs it to support the operator's response.

また、特許文献2記載の技術では、ユーザのICTスキルレベルを事前のアンケートの結果に基づいて予め算出した上で、そのレベルのユーザに対して各ICT用語が与える感覚の程度を推定している。 Further, in the technique described in Patent Document 2, the ICT skill level of the user is calculated in advance based on the result of the questionnaire in advance, and then the degree of feeling given by each ICT term to the user of that level is estimated. ..

このように、特許文献1、2の技術を用いて、ユーザのICTに関する知識量などのレベルに応じて、適切な表現を検討することが可能である。しかし、ユーザのICTに関する知識量などの算出方法は、オペレータの入力やアンケートの回答に基づいており、自動的に推定することができない。 As described above, it is possible to study an appropriate expression according to the level of the user's ICT-related knowledge amount and the like using the techniques of Patent Documents 1 and 2. However, the method of calculating the amount of knowledge about the ICT of the user is based on the operator's input or the answer to the questionnaire, and cannot be automatically estimated.

一方で、特許文献3記載の技術では、ユーザやオペレータの質問回数やそのタイミングの情報を用いて、ユーザの知識量を2段階か3段階で「知識量が大きい」、「知識量が中程度」、「知識量が小さい」のように推定している。しかし、この推定結果からは、知識量の大きいユーザはどのような用語を知っていて、知識量の小さいユーザはどのような用語を知らないのかという部分まで、具体的に知ることができない。そのため、推定結果を用いてユーザの知識量に応じた応対をしようとしても、例えば、知識量が小さいユーザに対してどのように説明すれば良いのかを知ることができない。 On the other hand, in the technology described in Patent Document 3, the knowledge amount of the user is "large knowledge amount" in two steps or three steps using the information of the number of questions of the user or operator and the timing thereof, It is estimated such as "," the amount of knowledge is small. However, from this estimation result, it is not possible to specifically know what terms a user with a large amount of knowledge knows and what terms a user with a small amount of knowledge does not know. Therefore, even if an attempt is made to respond to the user's knowledge amount using the estimation result, for example, it is not possible to know how to explain to a user having a small knowledge amount.

また、特許文献4記載の技術では、ICT用語の語彙ネットワークを作成し、ICT用語に対応するノードと、この用語を知っていれば別のこの用語も知っているとする有向リンクに従って、ユーザがある用語が既知であるか否かの入力情報から知識を推定している。この技術によって、ユーザの既知と未知の用語を知ることができる。しかし、ユーザからの用語の理解に関する入力情報が不十分である場合には、精度が落ちてしまう。 In addition, in the technique described in Patent Document 4, a vocabulary network of ICT terms is created, and a user corresponding to a node corresponding to the ICT term and a directed link that knows this term if another user knows the term. Knowledge is estimated from the input information as to whether or not a certain term is known. With this technique, the known and unknown terms of the user can be known. However, if the input information regarding the understanding of the term from the user is insufficient, the accuracy is reduced.

本発明は、上記の点に鑑みてなされたものであって、対話相手のユーザの知識の推定精度を向上させることを目的とする。 The present invention has been made in view of the above points, and an object of the present invention is to improve the accuracy of estimating the knowledge of the user of the other party of the dialogue.

そこで上記課題を解決するため、対話装置は、ユーザから第1の質問の入力を受け付ける受付部と、前記第1の質問に関連する用語の理解の有無をユーザに問う第2の質問を出力する出力部と、前記第2の質問に対する回答の内容及び前記回答を示す文字列の入力操作の状況に基づいて、前記第1の質問に関連する分野に関する前記ユーザの知識のレベルを推定する推定部と、前記推定部が推定したレベルに応じて、前記第1の質問に対する回答の内容を生成する生成部とを有する。 Therefore, in order to solve the above-mentioned problem, the dialog device outputs a second question that asks the user whether or not he/she understands a term related to the first question, and a receiving section that receives an input of the first question from the user. An output unit, and an estimation unit that estimates the level of knowledge of the user in the field related to the first question based on the content of the answer to the second question and the state of the input operation of the character string indicating the answer. And a generation unit that generates the content of the answer to the first question according to the level estimated by the estimation unit.

対話相手のユーザの知識の推定精度を向上させることができる。 It is possible to improve the accuracy of estimating the knowledge of the user with whom the user is interacting.

本発明の実施の形態における対話装置10のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the interactive apparatus 10 in embodiment of this invention. 本発明の実施の形態における対話装置10の機能構成例を示す図である。It is a figure which shows the function structural example of the interactive apparatus 10 in embodiment of this invention. 対話装置10が実行する処理手順の一例を説明するためのフローチャートである。6 is a flowchart for explaining an example of a processing procedure executed by the dialogue device 10. 対話シナリオ記憶部161のシナリオ表の構成例を示す図である。It is a figure which shows the structural example of the scenario table of the dialogue scenario storage part 161. 文字入力速度記憶部162の構成例を示す図である。It is a figure which shows the structural example of the character input speed storage part 162. 質問文生成処理の処理手順の一例を説明するためのフローチャートである。9 is a flowchart for explaining an example of a processing procedure of question sentence generation processing. 用語理解の有無の判定例を説明するための図である。It is a figure for demonstrating the example of determination of the presence or absence of term understanding. 用語理解記憶部163の構成例を示す図である。It is a figure which shows the structural example of the term understanding storage part 163. 用語説明記憶部164の構成例を示す図である。FIG. 6 is a diagram showing a configuration example of a term explanation storage unit 164. 対話シナリオ記憶部161のTETHERINGのタスク表の構成例を示す図である。It is a figure which shows the structural example of the task table of TETHERING of the conversation scenario storage part 161. 回答文生成処理の処理手順の一例を説明するためのフローチャートである。It is a flow chart for explaining an example of a processing procedure of answer sentence generation processing. 用語理解度の算出方法の第1の例を示す図である。It is a figure which shows the 1st example of the calculation method of a term comprehension degree. 用語理解度の算出方法の第2の例を示す図である。It is a figure which shows the 2nd example of the calculation method of term comprehension degree. 知識量の推定方法の第1の例を示す図である。It is a figure which shows the 1st example of the estimation method of a knowledge amount. 知識量の推定方法の第2の例を示す図である。It is a figure which shows the 2nd example of the estimation method of a knowledge amount. 対話シナリオ記憶部161のTETHERINGの回答文表の構成例を示す図である。It is a figure which shows the structural example of the answer sentence table of TETHERING of the conversation scenario storage part 161.

以下、図面に基づいて本発明の実施の形態を説明する。本実施の形態では、対話装置10が、ユーザのICT(Information and Communication Technology)に関する知識量を、非言語情報と用語の理解に関する入力情報から推定し、知識量に応じた回答を提示する例について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, an example in which the dialogue device 10 estimates the amount of knowledge about the user's ICT (Information and Communication Technology) from the input information about the non-linguistic information and the understanding of the term, and presents an answer according to the amount of knowledge explain.

図1は、本発明の実施の形態における対話装置10のハードウェア構成例を示す図である。図1の対話装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、インタフェース装置105、表示装置106、及び入力装置107等を有する。 FIG. 1 is a diagram showing a hardware configuration example of a dialogue device 10 according to an embodiment of the present invention. The dialog device 10 of FIG. 1 includes a drive device 100, an auxiliary storage device 102, a memory device 103, a CPU 104, an interface device 105, a display device 106, and an input device 107, which are connected to each other by a bus B.

対話装置10での処理を実現するプログラムは、SDカード、CD−ROM等の記録媒体101によって提供される。プログラムを記憶した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。 The program that realizes the processing in the dialogue device 10 is provided by the recording medium 101 such as an SD card or a CD-ROM. When the recording medium 101 storing the program is set in the drive device 100, the program is installed in the auxiliary storage device 102 from the recording medium 101 via the drive device 100. However, the program does not necessarily have to be installed from the recording medium 101, and may be downloaded from another computer via a network. The auxiliary storage device 102 stores the installed program and also stores necessary files and data.

メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って対話装置10に係る機能を実現する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。表示装置106はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置107はキーボード及びマウス、又はタッチパネル等で構成され、様々な操作指示を入力させるために用いられる。 The memory device 103 reads the program from the auxiliary storage device 102 and stores the program when an instruction to activate the program is given. The CPU 104 realizes the function related to the dialog device 10 according to the program stored in the memory device 103. The interface device 105 is used as an interface for connecting to a network. The display device 106 displays a GUI (Graphical User Interface) or the like according to a program. The input device 107 includes a keyboard and a mouse, a touch panel, or the like, and is used to input various operation instructions.

対話装置10は、ユーザが問い合わせをするために使用する端末であってもよいし、当該端末とは別の装置であってもよいが、本実施の形態では、対話装置10は、ユーザが問い合わせをするために使用する端末であるとして説明する。この場合、例えば、携帯電話、スマートフォン、タブレット端末、又はPC(Personal Computer)等が、斯かる端末の一例として挙げられる。但し、対話装置10は、ユーザが操作する端末にネットワークを介して接続する1以上のコンピュータによって実現されてもよい。 The dialogue device 10 may be a terminal used by the user to make an inquiry, or may be a device different from the terminal. However, in the present embodiment, the dialogue device 10 makes an inquiry by the user. It will be described as a terminal used to perform. In this case, for example, a mobile phone, a smartphone, a tablet terminal, a PC (Personal Computer), or the like is given as an example of such a terminal. However, the dialogue device 10 may be realized by one or more computers connected to a terminal operated by the user via a network.

図2は、本発明の実施の形態における対話装置10の機能構成例を示す図である。対話装置10は、ユーザからの冒頭の質問(以下、「ユーザ冒頭質問」という。)に関連する分野(本実施の形態ではICT分野)に関する知識量を、ユーザと対話装置10との対話中の非言語情報と用語の理解に関するユーザによる入力情報から推定し、知識量に応じた説明を提示する装置である。なお、ユーザと対話装置10との対話は、基本的に、ユーザ冒頭質問に関連する分野に関するユーザの知識量を推定するために対話装置10から出力される質問文と、当該質問文に対するユーザによる回答(以下、「ユーザ回答」という。)を示す文字列の入力との1回以上の繰り返しによって行われる。ユーザの知識量の推定を行うために十分な対話が行われると、対話装置10は、ユーザ冒頭質問に対する回答(以下、「システム回答」という。)をユーザの知識量に応じて生成し、当該システム回答を出力する。 FIG. 2 is a diagram showing a functional configuration example of the dialogue device 10 in the embodiment of the present invention. The dialog device 10 determines the amount of knowledge about the field (ICT field in this embodiment) related to the initial question from the user (hereinafter referred to as “user initial question”) during the dialog between the user and the interactive device 10. It is a device that estimates from non-linguistic information and information input by a user regarding understanding of terms and presents a description according to the amount of knowledge. Note that the interaction between the user and the dialogue device 10 is basically a question sentence output from the dialogue device 10 in order to estimate the amount of knowledge of the user regarding a field related to the user opening question, and the user's response to the question sentence. It is performed by inputting a character string indicating an answer (hereinafter, referred to as “user answer”) one or more times. When sufficient dialogue is performed to estimate the amount of knowledge of the user, the dialogue device 10 generates an answer to the user's opening question (hereinafter referred to as “system answer”) according to the amount of knowledge of the user. Output the system answer.

図2において、対話装置10は、質問文生成部11、テキスト入力部12、対話制御部13、対話文出力部14及び回答文生成部15等を有する。質問文生成部11は、選択肢判定部111及び用語理解判定部112を含む。また、回答文生成部15は、知識量推定部151を含む。知識量推定部151は、文字入力速度算出部1511及び用語理解度算出部1512を含む。これら各部は、対話装置10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。対話装置10は、また、対話シナリオ記憶部161、文字入力速度記憶部162、用語理解記憶部163及び用語説明記憶部164等を利用する。これら各記憶部は、例えば、補助記憶装置102、又は対話装置10にネットワークを介して接続可能な記憶装置等を用いて実現可能である。 In FIG. 2, the dialogue device 10 includes a question sentence generation unit 11, a text input unit 12, a dialogue control unit 13, a dialogue sentence output unit 14, an answer sentence generation unit 15, and the like. The question sentence generation unit 11 includes an option determination unit 111 and a term understanding determination unit 112. In addition, the answer sentence generation unit 15 includes a knowledge amount estimation unit 151. The knowledge amount estimation unit 151 includes a character input speed calculation unit 1511 and a term understanding level calculation unit 1512. Each of these units is realized by a process that causes the CPU 104 to execute one or more programs installed in the dialog device 10. The dialogue device 10 also uses a dialogue scenario storage unit 161, a character input speed storage unit 162, a term understanding storage unit 163, a term explanation storage unit 164, and the like. Each of these storage units can be realized by using, for example, the auxiliary storage device 102 or a storage device that can be connected to the dialog device 10 via a network.

以下、対話装置10が実行する処理手順について説明する。図3は、対話装置10が実行する処理手順の一例を説明するためのフローチャートである。図3のフローチャートは、対話装置10がユーザの知識量を推定し、ユーザ冒頭質問に対して、当該知識量に応じたシステム回答を提示する際に、対話装置10が実行する全体の処理手順を示す。 Hereinafter, the processing procedure executed by the dialog device 10 will be described. FIG. 3 is a flowchart for explaining an example of a processing procedure executed by the dialogue device 10. The flowchart of FIG. 3 shows the entire processing procedure executed by the dialog device 10 when the dialog device 10 estimates the user's knowledge amount and presents a system answer corresponding to the user's initial question in accordance with the knowledge amount. Show.

ステップS1において、対話装置10は、ユーザによる所定の操作に応じて対話機能を起動する。当該対話機能は、例えば、対話装置10のブラウザ上で動作するテキスト対話システムや、独立した対話アプリ等のプログラムが、CPU104に実行させる処理により実現される、図2に示した機能構成を有する機能である。 In step S1, the dialogue device 10 activates the dialogue function according to a predetermined operation by the user. The interactive function has a functional configuration shown in FIG. 2, which is realized by, for example, a process such as a text interactive system operating on the browser of the interactive apparatus 10 or an independent interactive application program executed by the CPU 104. Is.

続いて、対話制御部13は、対話シナリオ記憶部161に記憶されているシナリオ表を参照し、最初に出力する質問文を取得して(S2)、取得した質問文を対話文出力部14へ出力する。対話装置10が最初に出力する質問文が示す質問を、以下「システム冒頭質問」という。 Subsequently, the dialogue control unit 13 refers to the scenario table stored in the dialogue scenario storage unit 161, obtains the question sentence to be output first (S2), and sends the obtained question sentence to the dialogue sentence output unit 14. Output. The question indicated by the question sentence that the dialogue device 10 first outputs is hereinafter referred to as a "system initial question".

図4は、対話シナリオ記憶部161のシナリオ表の構成例を示す図である。シナリオ表は、ユーザと対話装置10との対話のシナリオが定義されたテーブルであり、「ステータス」、「タスク」、「選択肢」、「質問文」、「キーワード」及び「ジャンプ先ステータス」等の列(項目)を有する。なお、図4において、「ステータス」によって区切られる行の単位を以下「ステータスレコード」という。 FIG. 4 is a diagram showing a configuration example of the scenario table of the dialogue scenario storage unit 161. The scenario table is a table in which a scenario of a dialogue between the user and the dialogue device 10 is defined, such as “status”, “task”, “choice”, “question statement”, “keyword”, and “jump destination status”. Has columns (items). In FIG. 4, the unit of the line delimited by “status” is hereinafter referred to as “status record”.

「ステータス」は、対話のステータス(状態)を区別する概念である。「質問文」は、対応するステータスにおいてユーザに対して出力されるべき質問文である。すなわち、ステータスと質問文とは1対1に対応する。「キーワード」は、質問文に対してユーザによって入力される文字列の内容に応じて次の遷移先のステータス等(ジャンプ先のステータス等)を区別するためのキーワードである。「キーワード」における「キーワードTRUE」の値は、質問文に対してユーザによって入力された文字列に、指定されたキーワードが含まれない場合を示す。また、キーワードが質問文に含まれていないこと、すなわち、登録されていないことは、質問文の出力後、ユーザからの文字列の入力を待たずに次のステータスへ遷移することを示す。例えば、図4においては、「ステータス」が「AGAIN()」、「EXPLAIN()」に対する「キーワード」の欄が空欄となっている。したがって、「ステータス」が「AGAIN()」、「EXPLAIN()」の「質問文」が出力された場合には、ユーザからの文字列の入力を待たずに次のステータスに対応する質問文が出力される。 "Status" is a concept that distinguishes the status of a conversation. The “question sentence” is a question sentence that should be output to the user in the corresponding status. That is, there is a one-to-one correspondence between the status and the question text. The “keyword” is a keyword for distinguishing the status of the next transition destination (jump destination status, etc.) according to the content of the character string input by the user with respect to the question sentence. The value of “keyword TRUE” in “keyword” indicates a case where the specified keyword is not included in the character string input by the user for the question sentence. In addition, the fact that the keyword is not included in the question text, that is, that the keyword is not registered, indicates that the output of the question text transits to the next status without waiting for the input of the character string from the user. For example, in FIG. 4, the “keyword” column for the “status” is “AGAIN( )” and “EXPLAIN( )” is blank. Therefore, when the “question text” whose “status” is “AGAIN( )” or “EXPLAIN( )” is output, the question text corresponding to the next status is displayed without waiting for the user to input a character string. Is output.

「ジャンプ先ステータス」は、ユーザによって入力された文字列に含まれているキーワードに応じた遷移先のステータスを示す。「ジャンプ先ステータス」に複数のステータスが含まれている場合、各ステータスが順番に選択されて、各ステータスに対応する質問文が出力されることを意味する。また、「ジャンプ先ステータス」における「next」は、当該「next」を含むステータスの遷移基であったステータスの「ジャンプ先ステータス」において複数列記されているステータスの次のステータスに遷移することを意味する。すなわち、「ジャンプ先ステータス」に複数のステータスが含まれている場合の末尾以外のステータスの「ジャンプ先ステータス」の値は、「next」とされている。 The “jump destination status” indicates the status of the transition destination according to the keyword included in the character string input by the user. When the “jump destination status” includes a plurality of statuses, it means that each status is selected in order and the question sentence corresponding to each status is output. Further, "next" in the "jump destination status" means that the status is the transition base of the status including the "next" and that the status is the next status after the statuses listed in the "jump destination status". To do. That is, when the "jump destination status" includes a plurality of statuses, the value of the "jump destination status" of the status other than the end is "next".

「タスク」は、該当するステータスがタスクを実行するステータスであるか否かを示す。具体的には、「タスク」の値が「タスクTRUE」であるステータスは、タスクを実行することを示し、「タスク」が空欄であるステータスは、タスクを実行しないことを示す。タスクとは、ユーザとの対話に応じて対話装置10が最終的に実行する処理をいい、本実施の形態では、ユーザ冒頭質問に対するシステム回答を示す回答文の出力がタスクに相当する。 “Task” indicates whether or not the corresponding status is a status for executing the task. Specifically, the status in which the value of “task” is “task TRUE” indicates that the task is executed, and the status in which the “task” is blank indicates that the task is not executed. A task is a process that the dialogue device 10 finally executes in response to a dialogue with a user. In the present embodiment, an output of an answer sentence indicating a system answer to a user opening question corresponds to a task.

「選択肢」は、該当するステータスにおける「質問文」の内容が、用語理解へのユーザ回答の選択肢を与える質問文であるか否かを示す。 The “option” indicates whether or not the content of the “question sentence” in the corresponding status is a question sentence that gives a choice of user answers for term understanding.

対話制御部13は、ステップS2で、例えば図4のようなシナリオ表から現在のステータスに対応する質問文をテキストとして取得する。本実施の形態において最初のステータスは「START」である。したがって、対話制御部13は、「START」ステータスに対応する「質問文」のテキストである「こんにちは!ご用件を教えてね!」を取得する。 In step S2, the dialogue control unit 13 acquires a question sentence corresponding to the current status as a text from the scenario table as shown in FIG. 4, for example. In this embodiment, the first status is "START". Therefore, the dialogue control section 13, to get the text of the "question" corresponding to the "START" status "Hello! Tell me your business!".

続いて、対話制御部13が、取得した質問文のテキストを対話文出力部14に対して出力すると、対話文出力部14が入力された当該質問文のテキストをディスプレイ等の表示装置106に対して出力する(S3)。例えば、表示装置106に質問文がテキストで表示される。続いて、対話制御部13は、シナリオ表(図4)において、現在のステータスに対応するキーワードが登録されているか否かを判定する(S4)。キーワードが登録されていない場合(S4でNo)、ステップS8へ進む。すなわち、シナリオ表(図4)において、「キーワード」の項目が空欄である場合、対話制御部13は、ユーザからの文字列の入力を待機しない。 Subsequently, when the dialogue control unit 13 outputs the acquired text of the question sentence to the dialogue sentence output unit 14, the dialogue sentence output unit 14 outputs the input text of the question sentence to the display device 106 such as a display. And output (S3). For example, the question text is displayed as text on the display device 106. Subsequently, the dialogue control unit 13 determines whether or not the keyword corresponding to the current status is registered in the scenario table (FIG. 4) (S4). When the keyword is not registered (No in S4), the process proceeds to step S8. That is, in the scenario table (FIG. 4 ), when the “keyword” item is blank, the dialogue control unit 13 does not wait for the user to input a character string.

現在のステータスにキーワードが登録されている場合(S4でYes)、テキスト入力部12は、質問文に対する文字列の入力をユーザから受け付ける(S5)。例えば、ユーザは、キーボード等の入力装置107を利用して文字列を入力する。この際、テキスト入力部12は、ユーザが入力する文字列を受け付けると共に、ユーザが文字列の入力を開始してから完了するまでの所要時間を計測する。ユーザによる文字列の入力の完了のタイミングは、例えば、当該文字列の入力後における所定の操作(例えば、「送信」ボタンの押下等)によって検知可能である。なお、ステップS5が最初に実行される際には、対話装置10からはシステム冒頭質問を示す質問文が出力されている。この状態においてユーザによって入力される文字列は、通常、ユーザ冒頭質問を示す文字列である。例えば、「テザリングの方法は?」といったユーザ冒頭質問を示す文字列が入力される。一方、ステップS5が2回目以降に実行される際において入力される文字列は、対話装置10が出力した質問文に対するユーザ回答を示す文字列である。ユーザ回答は、ユーザ冒頭質問に関連する分野に関するユーザの知識量を対話装置10が推定するために用いられる。 When the keyword is registered in the current status (Yes in S4), the text input unit 12 receives the input of the character string for the question sentence from the user (S5). For example, the user inputs a character string using the input device 107 such as a keyboard. At this time, the text input unit 12 accepts the character string input by the user and measures the time required from the start of the input of the character string by the user to the completion thereof. The timing of completion of the input of the character string by the user can be detected by, for example, a predetermined operation after the input of the character string (for example, pressing a “send” button). It should be noted that when step S5 is first executed, the dialogue device 10 outputs a question sentence indicating a system initial question. The character string input by the user in this state is usually a character string indicating the user's initial question. For example, a character string indicating the user's opening question such as “how to tether?” is input. On the other hand, the character string input when step S5 is executed for the second time and thereafter is a character string indicating the user answer to the question sentence output by the dialogue device 10. The user response is used by the interactive device 10 to estimate the amount of knowledge of the user regarding the field related to the user initial question.

続いて、テキスト入力部12は、入力された文字列と当該所要時間とを対話制御部13に対して出力する(S6)。続いて、対話制御部13は、テキスト入力部12から入力された当該文字列及び当該所要時間を文字入力速度記憶部162に保存する(S7)。 Then, the text input unit 12 outputs the input character string and the required time to the dialogue control unit 13 (S6). Then, the dialogue control unit 13 saves the character string and the required time input from the text input unit 12 in the character input speed storage unit 162 (S7).

図5は、文字入力速度記憶部162の構成例を示す図である。図5に示されるように、文字入力速度記憶部162には、質問文に対する文字列がユーザから入力される度に、当該文字列と当該文字列の入力の所要時間とが記憶される。 FIG. 5 is a diagram showing a configuration example of the character input speed storage unit 162. As shown in FIG. 5, the character input speed storage unit 162 stores the character string and the time required to input the character string each time the user inputs a character string for the question sentence.

続いて、対話制御部13は、シナリオ表(図4)を参照して、ステータスを更新する(S8)。すなわち、シナリオ表(図4)と、ユーザに入力された文字列に含まれているキーワードとに基づいて特定される「ジャンプ先ステータス」が新たなステータスとして選択される。例えば、更新前のステータスが「START」であり、ユーザに入力された文字列が「テザリングの方法は?」だった場合「TETHERING」が新たなステータスとされる。なお、「ジャンプ先ステータス」に複数のステータスが登録されている場合であって、当該ステータスが最初に処理対象とされる場合、当該複数のステータスの内の1番目(最上位)のステータスが新たなステータスとして選択される。また、当該複数のステータスのうちの2番目以降のステータスは、当該新たなステータスにおける「ジャンプ先ステータス」の「next」に基づいて選択される。 Subsequently, the dialogue control unit 13 updates the status with reference to the scenario table (FIG. 4) (S8). That is, the “jump destination status” specified based on the scenario table (FIG. 4) and the keyword included in the character string input by the user is selected as the new status. For example, when the status before update is “START” and the character string input by the user is “How to tether?”, “TETHERING” is set as the new status. In addition, when a plurality of statuses are registered in the "jump destination status" and the status is the processing target first, the first (highest) status of the plurality of statuses is newly updated. Selected as the correct status. The second and subsequent statuses of the plurality of statuses are selected based on the "next" of the "jump destination status" in the new status.

続いて、対話制御部13は、タスクであるステータスに遷移(ジャンプ)済みであり、かつ、当該タスクに関するパラメータの取得が完了しているか否かを判定する(S9)。タスクであるステータスとは、シナリオ表(図4)において、タスクの値が「タスクTRUE」であるステータスをいう。 Subsequently, the dialogue control unit 13 determines whether or not the task status has been transitioned (jumped) and the acquisition of the parameter related to the task has been completed (S9). The status as a task means a status in which the value of the task is “task TRUE” in the scenario table (FIG. 4).

タスクであるステータスに遷移済みでない場合、又は当該タスクに関するパラメータの取得が完了していない場合(S9でNo)、対話制御部13からの要求により、質問文生成部11が質問文生成処理を実行する(S10)。なお、最初にステップS9が実行される際には必ず質問文生成処理(S10)が実行される。当該質問文生成処理では、主として、ステップS5においてユーザによって入力されたユーザ冒頭質問に対して対話装置10が適切なシステム回答を行うための質問文が生成される。質問文生成処理に続いてステップS3以降が実行される。すなわち、質問文生成処理において生成された質問文に関してステップS3以降が実行される。 If the task status has not been transitioned to, or if the acquisition of the parameter related to the task is not completed (No in S9), the question statement generation unit 11 executes the question statement generation process according to a request from the dialogue control unit 13. Yes (S10). The question sentence generation process (S10) is always executed when step S9 is first executed. In the question sentence generation process, a question sentence is mainly generated for the dialog device 10 to provide an appropriate system answer to the user initial question input by the user in step S5. Subsequent to the question sentence generation processing, step S3 and subsequent steps are executed. That is, step S3 and subsequent steps are executed for the question text generated in the question text generation processing.

一方、タスクであるステータスに遷移済みであり、かつ、当該タスクに関するパラメータの取得が完了している場合(S9でYes)、対話制御部13からの要求により、回答文生成部15が回答文生成処理を実行する(S11)。回答文生成処理では、ステップS5においてユーザによって入力されたユーザ冒頭質問に対するシステム回答を示す回答文が生成される。続いて、対話制御部13が、回答文生成部15によって生成された回答文を対話文出力部14に出力すると、対話文出力部14が入力された当該回答文を出力する(S12)。なお、図3では、このまま処理が終了する例が示されているが、引き続きステップS2に戻って、別の問い合わせに関して対話が行われてもよい。 On the other hand, when the status of the task has already been transited and the acquisition of the parameter related to the task is completed (Yes in S9), the response sentence generation unit 15 generates the response sentence in response to the request from the dialogue control unit 13. The process is executed (S11). In the answer sentence generation process, an answer sentence indicating a system answer to the user initial question input by the user in step S5 is generated. Subsequently, when the dialogue control unit 13 outputs the answer sentence generated by the answer sentence generation unit 15 to the dialogue sentence output unit 14, the dialogue sentence output unit 14 outputs the input answer sentence (S12). Note that FIG. 3 shows an example in which the process ends as it is, but the process may be returned to step S2 and a dialogue may be performed regarding another inquiry.

続いて、ステップS10の詳細について説明する。図6は、質問文生成処理の処理手順の一例を説明するためのフローチャートである。 Next, details of step S10 will be described. FIG. 6 is a flowchart for explaining an example of the processing procedure of the question sentence generation processing.

まず、質問文生成部11の選択肢判定部111は、シナリオ表(図4)を参照して(S10−1)、対話装置10が最後に出力した質問文が用語理解へのユーザ回答の選択肢を与える質問文であったか否かを判定する(S10−2)。具体的には、直前のステータス(更新前のステータス)に対応する「選択肢」の値が「選択肢TRUE」であるか否かが判定される。 First, the option decision unit 111 of the question sentence generation unit 11 refers to the scenario table (FIG. 4) (S10-1), and the question sentence finally output by the dialogue device 10 indicates the choices of user answers for term understanding. It is determined whether or not the question text is given (S10-2). Specifically, it is determined whether or not the value of “option” corresponding to the immediately preceding status (status before update) is “option TRUE”.

例えば、最初に図6の処理手順が実行される場合、対話装置10が最後に出力した質問文は「こんにちは!ご用件を教えてね!」である。このような質問文は、用語理解へのユーザ回答の選択肢を与える質問文ではない。すなわち、「START」のステータスの「選択肢」の値は「選択肢TRUE」ではない。したがって、この場合(S10−2でNo)、ステップS10−8へ進む。 For example, if the procedure of the first to FIG. 6 is executed, the question statement that interactive device 10 is output to the last is a "Hello! Tell me your business!". Such a question sentence is not a question sentence that gives a choice of user answers to term understanding. That is, the value of "option" in the status of "START" is not "option TRUE". Therefore, in this case (No in S10-2), the process proceeds to step S10-8.

一方、ユーザと対話装置10との対話が進み、対話装置10が最後に出力した質問文に対応するステータス、即ち、直前のステータスが「TETHERING」であったとすれば、対話装置10は、「テザリングの方法だね!ちなみに、テザリング自体は知っている?」という質問文に加えて「はい/いいえ」といった選択肢をユーザにテキストで提示していたことになる。また、直前のステータスが「TETHERING_OS」であったとすれば、「使っている端末のOSはどれ?」という質問文に加えて、「OS−A/OS−B/わからない」といった選択肢をユーザに提示していたことになる。なお、ここで提示する選択肢は、ユーザがいずれを選択するかによって、ユーザによる用語の理解を判定可能な選択肢である。 On the other hand, if the dialogue between the user and the dialogue device 10 progresses and the status corresponding to the question sentence last output by the dialogue device 10, that is, the immediately previous status is “THERING”, the dialogue device 10 displays “tethering”. By the way, in addition to the question sentence "Do you know tethering itself?", the user was presented with the option "Yes/No" in text. If the previous status is “THEHERING_OS”, the user is presented with an option “OS-A/OS-B/don't know” in addition to the question sentence “Which OS of the terminal are you using?”. I was doing it. Note that the options presented here are options that allow the user to determine the understanding of terms depending on which one the user selects.

対話装置10が最後に出力した質問文が用語理解へのユーザ回答の選択肢を与える質問文であった場合(S10−2でYes)、用語理解判定部112は、当該質問文に対してステップS5において入力された選択肢を入力とし、当該選択肢に基づいてユーザの用語理解の有無を判定し、判定結果を用語理解記憶部163に保存する(S10−3)。 When the question sentence finally output by the dialog device 10 is a question sentence that gives a user answer option for term understanding (Yes in S10-2), the term understanding determination unit 112 performs step S5 for the question sentence. The option input in (1) is used as an input, the presence or absence of the user's term understanding is determined based on the option, and the determination result is stored in the term understanding storage unit 163 (S10-3).

図7は、用語理解の有無の判定例を説明するための図である。用語理解の有無の判定の方法としては、図7のように、例えば、現在使っている端末のOSを尋ねる質問文の回答の選択肢として、「OS−A」、「OS−B」、「わからない」が提示され、ユーザ回答が「OS−A」又は「OS−B」であれば、双方の用語を理解していると解釈し、判定結果を(OS−A,1)、(OS−B,1)とする。ここで、判定結果の表記は(用語,0又は1)であり、0は、理解していないことを意味し、1は理解していることを意味する。 FIG. 7 is a diagram for explaining an example of determining whether or not a term is understood. As a method of determining whether or not the term is understood, as shown in FIG. 7, for example, “OS-A”, “OS-B”, “I don't know Is presented and the user answer is “OS-A” or “OS-B”, it is interpreted that both terms are understood, and the determination result is (OS-A, 1), (OS-B). , 1). Here, the notation of the determination result is (term, 0 or 1), 0 means not understood, and 1 means understood.

また、用語そのものを知っているかどうかを直接尋ねる質問文に対するユーザ回答の選択肢として、「はい」、「いいえ」が提示され、ユーザ回答が「はい」であればその用語を理解していると解釈し、「いいえ」であればその用語を理解していないと解釈し、上記同様に判定結果が生成される。なお、用語理解の有無の判定方法はこの限りではない。 In addition, “yes” and “no” are presented as choices for the user answer to the question text that directly asks if the user knows the term itself. If the user answer is “yes”, the term is understood to be understood. However, if “No”, it is interpreted that the term is not understood, and the determination result is generated in the same manner as above. Note that the method of determining whether or not the term is understood is not limited to this.

用語理解判定部112は、用語理解の有無の判定結果を、用語理解記憶部163に記憶する。図8は、用語理解記憶部163の構成例を示す図である。用語理解記憶部163には、予め、ICTに関連する用語及びその難易度が記憶されている。用語の難易度は、例えば、予めアンケート調査などに基づいて設定されてもよい。本実施の形態において、難易度は、5が最も難易度が高く、1が最も難易度が低い。ただし、難易度は5段階に限らず、何段階でも、連続的な値でもよい。 The term understanding determination unit 112 stores the determination result of whether or not the term is understood in the term understanding storage unit 163. FIG. 8 is a diagram showing a configuration example of the term understanding storage unit 163. In the term understanding storage unit 163, terms related to ICT and their difficulty levels are stored in advance. The degree of difficulty of the term may be set in advance based on, for example, a questionnaire survey. In the present embodiment, 5 is the highest difficulty level, and 1 is the lowest difficulty level. However, the difficulty level is not limited to five levels, and may be any level or continuous value.

ステップS10−3では、用語理解判定部112による用語理解の有無の判定結果が、判定対象とされた用語の理解有無の値として、用語理解記憶部163に記憶される。 In step S10-3, the determination result of whether or not the term understanding is determined by the term understanding determination unit 112 is stored in the term understanding storage unit 163 as a value of the presence or absence of understanding of the term that is the determination target.

続いて、質問文生成部11は、用語理解の有無の判定対象とされた用語をユーザが理解しているか否か、すなわち、当該用語に対して用語理解記憶部163に記憶された値が1であったか否かを判定する(S10−4)。ユーザが用語を理解している場合(S10−4でYes)、すなわち、1が記憶された場合はステップS10−8へ進む。 Then, the question sentence generation unit 11 determines whether or not the user understands the term for which the presence or absence of term understanding is determined, that is, the value stored in the term understanding storage unit 163 is 1 for the term. It is determined whether or not (S10-4). When the user understands the term (Yes in S10-4), that is, when 1 is stored, the process proceeds to step S10-8.

一方、ユーザが用語を理解していない場合(S10−4でNo)、すなわち、0が記憶された場合、質問文生成部11は、対話シナリオ記憶部161を参照して、現在のステータスに対応する質問文を取得する(S10−5)。すなわち、ユーザに入力された文字列に対応する質問文が取得される。 On the other hand, when the user does not understand the term (No in S10-4), that is, when 0 is stored, the question sentence generation unit 11 refers to the dialogue scenario storage unit 161, and responds to the current status. The question sentence to ask is acquired (S10-5). That is, the question sentence corresponding to the character string input by the user is acquired.

例えば、図4において、対話装置10が最後に出力した質問文が「TETHERING」ステータスの「テザリングの方法だね!ちなみに、テザリング自体は知っている?はい/いいえ」であり、当該質問文に対してユーザから「いいえ」という文字列が入力されたとする。この場合、対話制御部13が、「いいえ」に対応する「ジャンプ先ステータス」のうちの最初のステータスである「EXPLAIN()」を選択するため、ステータスは、「EXPLAIN()」となる。なお、「EXPLAIN()」ステータスには、ユーザが理解していない用語であると判定された用語が引数として渡される。なお、対話装置10が最後に出力した質問文を構成する用語のうち、用語理解記憶部163に登録されている用語が、ユーザが理解していない用語として特定される。 For example, in FIG. 4, the question message last output by the dialogue device 10 is “Tethering method” in the “THERING” status. By the way, do you know tethering itself? Yes/No. It is assumed that the user inputs the character string "No". In this case, the dialogue control unit 13 selects “EXPLAIN( )” which is the first status of the “jump destination status” corresponding to “NO”, and thus the status becomes “EXPLAIN( )”. Note that the "EXPLAIN()" status is passed as an argument a term that is determined to be a term that the user does not understand. It should be noted that, of the terms constituting the question sentence lastly output by the dialogue device 10, the term registered in the term understanding storage unit 163 is specified as the term that the user does not understand.

この場合、図4より、「EXPLAIN()」ステータスに対応する質問文「「"#WORD"」は、"#EXP"のことだよ!」が取得される。ここで、「#WORD」及び「#EXP」は、具体的な文字列の埋め込み箇所を示す。「#WORD」は、「EXPLAIN()」ステータスに対して引数として渡された、ユーザが理解していない用語であると判定された用語を示す。「#EXP」は、当該用語に対応する説明文(用語説明文)を示す。 In this case, as shown in FIG. 4, the question sentence """#WORD"" corresponding to the "EXPLAIN()" status is "#EXP"! Is acquired. Here, “#WORD” and “#EXP” indicate specific embedding locations of the character string. “#WORD” indicates a term that is determined as a term that the user does not understand, which is passed as an argument to the “EXPLAIN( )” status. “#EXP” indicates an explanation sentence (term explanation sentence) corresponding to the term.

続いて、質問文生成部11は、ステップS10−5において取得した質問文に埋め込み箇所が有るか否かを判定する(S10−6)。「#WORD」又は「#EXP」のような埋め込み箇所が有る場合(S10−6でYes)、質問文生成部11は、用語説明記憶部164を参照して、質問文の埋め込み箇所を埋める(S10−7)。 Subsequently, the question sentence generation unit 11 determines whether or not the question sentence acquired in step S10-5 has an embedded portion (S10-6). When there is an embedding place such as “#WORD” or “#EXP” (Yes in S10-6), the question sentence generation unit 11 refers to the term explanation storage unit 164 and fills the embedding place of the question sentence ( S10-7).

図9は、用語説明記憶部164の構成例を示す図である。図9に示されるように、用語説明記憶部164には、用語ごとに、難易度及び用語説明文等が記憶されている。 FIG. 9 is a diagram showing a configuration example of the term explanation storage unit 164. As shown in FIG. 9, the term explanation storage unit 164 stores the degree of difficulty, the term explanation, and the like for each term.

例えば、「質問文」が「「"#WORD"」は、"#EXP"のことだよ!」であり、理解していないと判定された用語が「テザリング」であれば、「「テザリング」は、スマホをモバイルルータ化することにより、スマホの3G回線やLTEを使ってパソコンなどをインターネットに接続できる機能のことだよ!」といった質問文が生成される。なお、本実施の形態では、質問文生成部11が、テンプレート化された「質問文」における「#WORD」や「#EXP」等を埋めることで用語の説明を示す質問文が生成される例を示したが、用語の説明を示す質問文の生成方法は、これに限られない。例えば、質問文生成部11が、理解していないと判定された用語に対応する用語説明文を用語説明記憶部164から取得し、当該用語と当該用語説明文とを含む自然文を自動的に生成してもよい。 For example, if the "question text" is """#WORD"", it means "#EXP"! , And if the term that is determined not to be understood is “tethering”, “tethering” turns a smartphone into a mobile router, and uses a smartphone's 3G line or LTE to transfer a computer to the Internet. It is a function that can be connected! Is generated. In the present embodiment, an example in which the question sentence generation unit 11 fills in “#WORD”, “#EXP”, and the like in the templated “question sentence” to generate a question sentence that explains the term However, the method of generating the question sentence indicating the explanation of the term is not limited to this. For example, the question sentence generation unit 11 acquires a term explanation sentence corresponding to a term determined not to be understood from the term explanation storage unit 164, and automatically generates a natural sentence including the term and the term explanation sentence. It may be generated.

続いて、質問文生成部11が対話制御部13に対して当該質問文を出力する(S10−9)。この場合、当該質問文が、図3のステップS3で出力される。 Subsequently, the question sentence generation unit 11 outputs the question sentence to the dialogue control unit 13 (S10-9). In this case, the question sentence is output in step S3 of FIG.

一方、質問文生成部11は、ステップS10−8において、ステップS10−5と同様に、現在のステータスに対応する質問文を取得した後、ステップS10−9において、対話制御部13に対して当該質問文を出力する。 On the other hand, in step S10-8, the question sentence generation unit 11 acquires the question sentence corresponding to the current status in the same manner as in step S10-5, and then in step S10-9, the question sentence generation unit 11 issues the question sentence to the dialogue control unit 13. Output question text.

なお、図4において、直前のステータスが「TETHERING」であり、質問文に対してユーザによって入力された文字列が「いいえ」であった場合の「ジャンプ先ステータス」には、「EXPLAIN()」の次に「TETHERINGのタスク表参照」が含まれている。また、「EXPLAIN()」ステータスには、対応するキーワードが登録されておらず、「EXPLAIN()」ステータスの「ジャンプ先ステータス」は「next」である。したがって、この場合、「「テザリング」は、スマホをモバイルルータ化することにより、スマホの3G回線やLTEを使ってパソコンなどをインターネットに接続できる機能のことだよ!」といった質問文がステップS3において出力された後、ステップS5〜S7は実行されずにステップS8に進む。ステップS8では、対話制御部13は、「next」に基づいて、「TETHERING」ステータスの「いいえ」に対応する「ジャンプ先ステータス」の内の2番目のステータスである「TETHERINGのタスク表参照」を選択する。 In FIG. 4, when the last status is “THERING” and the character string input by the user with respect to the question text is “No”, the “jump destination status” is “EXPLAIN( )”. Next to, "See the task table of TETHERING" is included. The corresponding keyword is not registered in the "EXPLAIN()" status, and the "jump destination status" of the "EXPLAIN()" status is "next". Therefore, in this case, "Tethering" is a function that allows you to connect your PC to the Internet using your smartphone's 3G line or LTE by turning it into a mobile router! Is output in step S3, steps S5 to S7 are not executed and the process proceeds to step S8. In step S8, the dialogue control unit 13 refers to "next" and refers to "the task table of Tethering" which is the second status of the "jump destination status" corresponding to "no" of the "tethering" status. select.

この場合,ステップS10−5において、質問文生成部11は、現在のステータスが「TETHERINGのタスク表参照」であることに基づいて、対話シナリオ記憶部161に記憶されているTETHERINGのタスク表を参照する。 In this case, in step S10-5, the question sentence generation unit 11 refers to the task table of TETHERING stored in the dialogue scenario storage unit 161, based on the fact that the current status is “see task table of TETHERING”. To do.

図10は、対話シナリオ記憶部161のTETHERINGのタスク表の構成例を示す図である。タスク表は、「タスク」の値が「タスクTRUE」であるステータスが選択され、当該ステータスにおける質問文に対してユーザによって入力された文字列に基づく「ジャンプ先ステータス」が「TETHERINGのタスク表参照」であるとき、即ち、「TETHERINGのタスク表参照」を実行すると判定されたときに参照される表である。 FIG. 10 is a diagram showing a configuration example of a task table of TTHERING in the dialogue scenario storage unit 161. In the task table, the status in which the value of the “task” is “task TRUE” is selected, and the “jump destination status” based on the character string input by the user with respect to the question text in the status is “TETHERING”. Is a table that is referred to when it is determined to execute the “refer to the task table of TETHERING”.

図10において、当該タスク表は、タスクごとに「タスク名」、1以上の「パラメータ」、パラメータごとの「使用ステータス」、パラメータごとの「取得値」、「回答文の取得先」等を記憶可能に構成されている。「タスク名」は、図4におけるシナリオ表において「タスク」の値が「タスクTRUE」であるシナリオレコードの「ステータス」の値に対応する。 In FIG. 10, the task table stores “task name” for each task, 1 or more “parameters”, “usage status” for each parameter, “acquired value” for each parameter, “acquisition destination of answer sentence”, etc. It is configured to be possible. The "task name" corresponds to the "status" value of the scenario record whose "task" value is "task TRUE" in the scenario table in FIG.

タスク表の各項目のうち、「取得値」は当初は空である。「取得値」は、ユーザとの対話に応じて記憶されるからである。具体的には、ステップS10−5において、現在のステータスが「TETHERINGのタスク表参照」である場合、質問文生成部11は、「タスク名」が「TETHERING」であるレコードの「パラメータ」のうち、「取得値」が記憶されていない「パラメータ」の「使用ステータス」に対応する質問文をシナリオ表(図4)から取得する。例えば、図10では、「TETHERING」のタスクに対して、「OS」及び「CONNECT」の「パラメータ」が定義されているところ、当初は、いずれの「取得値」も記憶されていないため、質問文生成部11は、まず、「OS」に対応する「使用ステータス」である「TETHERING_OS」に対応する質問文「使っている端末はどれ?・・・・」をシナリオ表(図4)から取得し、対話文出力部14が、当該質問文を、図3のステップS3で出力する。 Of the items in the task table, the “acquired value” is initially empty. This is because the “acquired value” is stored according to the interaction with the user. Specifically, in step S10-5, when the current status is “refer to the task table of TETHERING”, the question statement generation unit 11 selects the “parameter” of the record whose “task name” is “TETHERING”. , The question sentence corresponding to the “use status” of the “parameter” in which the “acquired value” is not stored is acquired from the scenario table (FIG. 4). For example, in FIG. 10, the “parameters” of “OS” and “CONNECT” are defined for the task “TETHERING”, but initially, no “acquired value” is stored. The sentence generation unit 11 first obtains from the scenario table (FIG. 4) the question sentence “Which terminal are you using?” corresponding to “TETHERING_OS”, which is the “usage status” corresponding to “OS”. Then, the dialogue sentence output unit 14 outputs the question sentence in step S3 of FIG.

したがって、ユーザから見た場合、「テザリングの方法だね!ちなみに、テザリング自体は知っている?はい/いいえ」という質問文に対して、ユーザが「いいえ」という文字列を入力すると、「「テザリング」は、スマホをモバイルルータ化することにより、スマホの3G回線やLTEを使ってパソコンなどをインターネットに接続できる機能のことだよ!」といった質問文に続いて、「使っている端末はどれ?・・・・」という質問文が出力される。すなわち、2つの質問文が連続して出力される。 Therefore, from the user's point of view, when the user inputs the character string “No” in response to the question “Is this tethering method! By the way, do you know tethering itself? "Is a function that allows you to connect your PC to the Internet using your smartphone's 3G line or LTE by turning your smartphone into a mobile router! The question text "Which terminal are you using?... "is output. That is, two question sentences are continuously output.

なお、「TETHERING」ステータスの「テザリングの方法だね!ちなみに、テザリング自体は知っている?はい/いいえ」という質問文に対して、ユーザから「はい」という文字列が入力された場合には、図4より「ジャンプ先ステータス」には「EXPLAIN()」は含まれておらず、「TETHERINGのタスク表参照」のみであるため、「TETHERINGのタスク表参照」が実行される。この場合、質問文生成部11は、図10のタスク表において「取得値」が記憶されていない「パラメータ」の「使用ステータス」を当該タスク表の上方から順に探索していき、最初に検出された、「取得値」が記憶されていない「パラメータ」の「使用ステータス」に対応する質問文をシナリオ表(図4)から取得する。例えば、パラメータ「OS」に対応する「取得値」が記憶されていなかった場合には、質問文生成部11は、上述のようにパラメータ「OS」の「使用ステータス」である「TETHERING_OS」に対応する質問文をシナリオ表(図4)から取得し、「使っている端末はどれ?・・・・」という質問文を対話制御部13に対して出力する。 In addition, when the user inputs the character string of "Yes" to the question sentence "Is tethering method known, do you know tethering itself? Yes/No" in the "THETHERING" status. As shown in FIG. 4, the “jump destination status” does not include “EXPLAIN( )” and only “refer to the task table of TETHERING”, and thus “refer to the task table of TETHERING” is executed. In this case, the question statement generation unit 11 sequentially searches for “usage status” of “parameter” for which “acquired value” is not stored in the task table of FIG. Further, the question sentence corresponding to the “use status” of the “parameter” in which the “acquired value” is not stored is acquired from the scenario table (FIG. 4). For example, when the “acquired value” corresponding to the parameter “OS” is not stored, the question sentence generation unit 11 corresponds to “TETHERING_OS” that is the “use status” of the parameter “OS” as described above. The question sentence to be asked is acquired from the scenario table (FIG. 4), and the question sentence “Which terminal are you using?

なお、現在のステータスが「TETHERINGのタスク表参照」である場合の質問文の取得方法は、ステップS10−8についても同様である。 The method of acquiring the question sentence when the current status is “refer to the task table of TETHERING” is the same for step S10-8.

タスク表に基づいて出力された質問文に対してステップS5で入力された文字列は、当該質問文のタスク表において当該質問文の元となった「パラメータ」に対応する「取得値」として記憶される。 The character string input in step S5 for the question text output based on the task table is stored as the “acquired value” corresponding to the “parameter” that is the source of the question text in the task table of the question text. To be done.

更に、シナリオ表(図4)において「TETHERING_OS」ステータスの「ジャンプ先ステータス」は、「TETHERINGのタスク表参照」となっている。したがって、この場合、再び、図10のタスク表が参照される。当該タスク表の参照が2度目である場合、ステップS10−5又はS10−8において、質問文生成部11は、パラメータ「CONNECT」の「使用ステータス」である「TETHERING_CONNECT」に対応する質問文を取得し、ステップS10−9において当該質問文を対話制御部13に出力する。なお、図10においては、便宜上、「TETHERING_CONNECT」ステータスのシナリオレコードは省略されている。 Furthermore, in the scenario table (FIG. 4), the “jump destination status” of the “TETHERING_OS” status is “see the TETHERING task table”. Therefore, in this case, the task table of FIG. 10 is referred to again. When the task table is referred to for the second time, in step S10-5 or S10-8, the question sentence generation unit 11 obtains the question sentence corresponding to “TETHERING_CONNECT” that is the “usage status” of the parameter “CONNECT”. Then, in step S10-9, the question sentence is output to the dialogue control unit 13. Note that, in FIG. 10, for convenience, the scenario record of the “TETHERING_CONNECT” status is omitted.

この場合、図3のステップS5において当該質問文に対する文字列がユーザによって入力され、当該文字列が、図10において「CONNECT」に対する取得値としてタスク表(図10)に記憶される。その結果、「TETHERING」タスクに対応するパラメータは全て取得されたことになる。 In this case, the character string for the question sentence is input by the user in step S5 of FIG. 3, and the character string is stored in the task table (FIG. 10) as an acquired value for “CONNECT” in FIG. As a result, all the parameters corresponding to the "TETHERING" task have been acquired.

この状態において、図3のステップS9における判定はYesとなる。タスク表(図4)において「タスク」の値が「タスクTRUE」である「TETHERING」ステータスに遷移済みであり、「TETHERING」ステータスに係るタスクに対応する全てのパラメータの取得が完了しているからである。この場合に、ステップS11及びS12が実行される。 In this state, the determination in step S9 of FIG. 3 is Yes. In the task table (FIG. 4), the value of “task” has already been changed to “TETHERING” status which is “task TRUE”, and acquisition of all the parameters corresponding to the task related to “TETHERING” status has been completed. Is. In this case, steps S11 and S12 are executed.

なお、対話シナリオ記憶部161に記憶されるタスク表は、例えば、Wi−Fi(登録商標)に関するものや、その他のICT用語に関するもの等、THETHERING以外にも複数あってもよい。この場合、シナリオ表(図4)の「ジャンプ先ステータス」には、各タスク表に対応したステータス(例えば、「Wi−Fi(登録商標)のタスク表参照」等)が設定されればよい。 Note that there may be a plurality of task tables stored in the dialogue scenario storage unit 161 other than THETHERING, such as those relating to Wi-Fi (registered trademark) and other ICT terms. In this case, a status corresponding to each task table (for example, “See task table of Wi-Fi (registered trademark)” or the like) may be set in the “jump destination status” of the scenario table (FIG. 4 ).

続いて、ステップS11の詳細について説明する。図11は、回答文生成処理の処理手順の一例を説明するためのフローチャートである。 Next, details of step S11 will be described. FIG. 11 is a flowchart for explaining an example of the processing procedure of the response sentence generation processing.

ステップS11−1において、回答文生成部15は、ユーザの知識量の推定を知識量推定部151に要求する。 In step S<b>11-1, the response sentence generation unit 15 requests the knowledge amount estimation unit 151 to estimate the user's knowledge amount.

続いて、知識量推定部151の文字入力速度算出部1511は、文字入力速度記憶部162(図5)を参照して、文字入力速度を算出する(S11−2)。例えば、ユーザによって入力された文字列ごとに文字数をカウントし、当該文字数を当該文字列の所要時間で除することで、文字列ごとに速度(1秒あたりの入力文字数)が算出される。更に、文字入力速度算出部1511は、これまで入力された全ての文字列ごとの速度の平均値を文字入力速度として算出する。 Then, the character input speed calculation unit 1511 of the knowledge amount estimation unit 151 calculates the character input speed by referring to the character input speed storage unit 162 (FIG. 5) (S11-2). For example, the speed (the number of input characters per second) is calculated for each character string by counting the number of characters for each character string input by the user and dividing the number of characters by the time required for the character string. Further, the character input speed calculation unit 1511 calculates the average value of the speeds of all the character strings input so far as the character input speed.

例えば、文字入力速度記憶部162の記憶内容が図5に示される通りであるとすると、文字入力速度は以下のように算出される。
No.1の速度=12文字/10秒=1.2文字/秒
No.2の速度=3文字/3秒=1文字/秒
No.3の速度=5文字/3秒=1.667文字/秒
文字入力速度=(1.2+1+1.667)/3=1.289
続いて、知識量推定部151の用語理解度算出部1512は、用語理解記憶部163(図8)を参照して、用語理解度を算出する(S11−3)。
For example, assuming that the stored contents of the character input speed storage unit 162 are as shown in FIG. 5, the character input speed is calculated as follows.
No. 1 speed=12 characters/10 seconds=1.2 characters/second No. 2 speed=3 characters/3 seconds=1 character/second No. 3 speed=5 characters/3 seconds=1.667 characters/second Character input speed=(1.2+1+1.667)/3=1.289
Subsequently, the term comprehension degree calculation unit 1512 of the knowledge amount estimation unit 151 refers to the term comprehension storage unit 163 (FIG. 8) to calculate the term comprehension degree (S11-3).

図12は、用語理解度の算出方法の第1の例を示す図である。図12では、用語理解の有無の判定結果(理解無し=0、理解有り=1)を縦軸とし、難易度を横軸とする座標上に、用語理解記憶部163(図8)の記憶内容がプロットされ、ロジスティック曲線に近似させて、変曲点以下の最大難易度を用語理解度とする例が示されている。図12の例では、用語理解度の算出結果は2となる。 FIG. 12 is a diagram showing a first example of the method of calculating the term comprehension level. In FIG. 12, the result of determination as to whether or not the term is understood (no understanding = 0, understanding = 1) is on the vertical axis, and the difficulty is on the horizontal axis on the coordinates, and the storage content of the term understanding storage unit 163 (FIG. 8). Is plotted, and an example in which the maximum difficulty below the inflection point is used as the term comprehension level is shown by approximating the logistic curve. In the example of FIG. 12, the calculation result of the term comprehension degree is 2.

なお、用語理解度の算出方法はこれに限らない。図13は、用語理解度の算出方法の第2の例を示す図である。図13では、図12と同様の座標上に、用語理解記憶部163(図8)の記憶内容をプロットした結果、0が存在しない最大難易度を用語理解度とする例が示されている。この場合も、用語理解度の算出結果は2となる。 The method of calculating the term comprehension level is not limited to this. FIG. 13 is a diagram showing a second example of the method of calculating the term comprehension level. In FIG. 13, an example is shown in which, as a result of plotting the storage content of the term understanding storage unit 163 (FIG. 8) on the same coordinates as in FIG. 12, the maximum difficulty level where 0 does not exist is the term understanding level. Also in this case, the calculation result of the term comprehension degree is 2.

続いて、知識量推定部151は、文字入力速度算出部1511で算出された文字入力速度及び用語理解度算出部1512で算出された用語理解度を用いて知識量を推定する(S11−4)。知識量とは、ユーザ冒頭質問に関連する分野(ICT分野)又は当該分野の用語に関するユーザの知識のレベルを示す指標である。 Subsequently, the knowledge amount estimation unit 151 estimates the knowledge amount using the character input speed calculated by the character input speed calculation unit 1511 and the term comprehension level calculated by the term comprehension level calculation unit 1512 (S11-4). .. The knowledge amount is an index indicating the level of the user's knowledge of a field (ICT field) related to the user's initial question or a term of the field.

図14は、知識量の推定方法の第1の例を示す図である。図14では、文字入力速度と用語理解度とに応じた知識量が登録された対応表を用意しておき、算出された文字入力速度及び用語理解度を当該対応表に当てはめて知識量を推定する(求める)例が示されている。当該対応表は、例えば、予め補助記憶装置102等に記憶されていてもよい。 FIG. 14 is a diagram showing a first example of the knowledge amount estimation method. In FIG. 14, a correspondence table in which the knowledge amount corresponding to the character input speed and the term comprehension degree is registered is prepared, and the calculated character input speed and term comprehension degree are applied to the correspondence table to estimate the knowledge amount. An example is shown (doing). The correspondence table may be stored in the auxiliary storage device 102 or the like in advance, for example.

また、図15は、知識量の推定方法の第2の例を示す図である。図15では、文字入力速度と用語理解度とを変数とする計算式を用意し、算出された文字入力速度及び用語理解度を当該計算式に当てはめた計算結果に基づいて知識量を求める例が示されている。 In addition, FIG. 15 is a diagram illustrating a second example of the knowledge amount estimation method. In FIG. 15, there is an example in which a calculation formula in which the character input speed and the term comprehension degree are variables is prepared, and the knowledge amount is calculated based on the calculation result obtained by applying the calculated character input speed and term comprehension degree to the calculation formula. It is shown.

なお、図14及び図15においては、文字入力速度と用語理解度両方が離散的な値であるが、文字入力速度及び用語理解度は、連続的な値であってもよい。知識量も、本実施の形態では離散的な値を用いているが、連続的な値でもよい。すなわち、文字入力速度及び用語理解度に基づいて知識量を推定可能であれば、知識量はどのような値であってもよい。 14 and 15, both the character input speed and the term comprehension level are discrete values, but the character input speed and the term comprehension level may be continuous values. The knowledge amount is also a discrete value in the present embodiment, but may be a continuous value. That is, the knowledge amount may be any value as long as the knowledge amount can be estimated based on the character input speed and the term comprehension level.

続いて、回答文生成部15は、実行対象のタスクに対応する回答文の取得先から、回答文を取得する(S11−5)。当該取得先は、当該タスクに対応するタスク表(図10)の「回答文の取得先」の値を参照することで特定可能である。図10の例では、「TETHERING」のタスクについての「回答文の取得先」は、「TETHERING_R(OS,CONNECT)」である。ここで、「TETHERING_R」は、「TETHERING」のタスクに対応付けられて対話シナリオ記憶部161に記憶されている回答文表を意味する。「(OS,CONNECT)」は、当該回答文表に記憶されている複数のレコードの中から1つのレコードを特定するための情報であり、「OS」、「CONNECT」の各値は、各パラメータに対応する具体的な取得値に置き換えられる。 Subsequently, the answer sentence generation unit 15 acquires the answer sentence from the acquisition destination of the answer sentence corresponding to the task to be executed (S11-5). The acquisition source can be specified by referring to the value of “acquisition source of answer sentence” in the task table (FIG. 10) corresponding to the task. In the example of FIG. 10, the “acquiring source of the answer sentence” for the task “TETHERING” is “TETHERING_R(OS, CONNECT)”. Here, “TETHERING_R” means the answer sentence table stored in the dialogue scenario storage unit 161 in association with the task of “TETHERING”. “(OS, CONNECT)” is information for identifying one record from a plurality of records stored in the answer statement table, and each value of “OS” and “CONNECT” is a parameter. Is replaced with a concrete acquired value corresponding to.

図16は、対話シナリオ記憶部161のTETHERINGの回答文表の構成例を示す図である。 FIG. 16 is a diagram showing an example of the structure of the TERRORING answer sentence table in the dialogue scenario storage unit 161.

図16に示されるように、回答文表には、「条件」に対応づけられて「回答文」が記憶されている。「条件」は、対応する「回答文」が取得対象とされる条件であり、タスク表の「回答文の取得先」の値に対応する。「回答文」は、回答文を構成する文字列である。 As shown in FIG. 16, the “answer sentence” is stored in the answer sentence table in association with the “condition”. The “condition” is a condition for which the corresponding “answer sentence” is to be acquired, and corresponds to the value of “acquisition destination of answer sentence” in the task table. The “answer sentence” is a character string that constitutes the answer sentence.

例えば、「TETHERING」のタスクのパラメータ「OS」に対する「取得値」が「OS−B」であり、パラメータ「CONNECT」に対する「取得値」が「Wi−Fi(登録商標)」である場合、図16において1番目のレコードに記憶されている回答文が取得される。 For example, when the “obtained value” for the parameter “OS” of the task “TETHERING” is “OS-B” and the “obtained value” for the parameter “CONNECT” is “Wi-Fi (registered trademark)”, In 16, the answer sentence stored in the first record is acquired.

続いて、回答文生成部15は、ステップS11−4で推定した知識量が、定義した段階での最高レベルか否かを判定する(S11−6)。例えば、本実施の形態では、1〜5の5段階で難易度が定義されているため、5が最高レベルとなる。知識量が最高レベルであればステップS11−9に進み、そうでなければステップS11−7に進む。 Subsequently, the response sentence generation unit 15 determines whether the knowledge amount estimated in step S11-4 is the highest level at the defined stage (S11-6). For example, in the present embodiment, the difficulty level is defined in 5 levels of 1 to 5, and 5 is the highest level. If the knowledge amount is the highest level, the process proceeds to step S11-9, and if not, the process proceeds to step S11-7.

ステップS11−7において、回答文生成部15は、用語理解記憶部163(図8)を参照し、回答文の中から知識量のレベルより難易度が高い用語(以下、「変換対象用語」という。)を抽出する。例えば、図16の回答文表の1番目のレコードの回答文が取得された場合、回答文の中に難易度が2の「Wi−Fi(登録商標)」という用語、難易度が4の「SSID」という用語、難易度が4の「テザリング」という用語等が含まれている。この場合において、ユーザの知識量が3であったとき、難易度がユーザの知識量のレベル以下である「Wi−Fi(登録商標)」は変換対象用語として抽出されず、当該知識量のレベルより難易度が高い「SSID」及び「テザリング」は変換対象用語として抽出される。 In step S11-7, the response sentence generation unit 15 refers to the term understanding storage unit 163 (FIG. 8) and refers to a term having a degree of difficulty higher than the knowledge amount level (hereinafter, referred to as “conversion target term”) from the response sentence. .) is extracted. For example, when the answer sentence of the first record in the answer sentence table of FIG. 16 is acquired, the term “Wi-Fi (registered trademark)” with a difficulty level of 2 and the “4” with a difficulty level of 4 are included in the answer sentence. The term “SSID” and the term “tethering” with a difficulty level of 4 are included. In this case, when the user's knowledge amount is 3, "Wi-Fi (registered trademark)" whose difficulty level is equal to or lower than the user's knowledge amount level is not extracted as a conversion target term, and the knowledge amount level is “SSID” and “tethering”, which have a higher degree of difficulty, are extracted as conversion target terms.

続いて、回答文生成部15は、用語説明記憶部164(図9)を参照して、変換対象用語の用語説明文を取得し、当該用語説明文を回答文に含めることでユーザ冒頭質問に対するシステム回答を示す回答文を生成する(S11−8)。例えば、「・・・3.「テザリング」を押す・・・」の部分に「・・・3.「テザリング(スマホをモバイルルータ化することにより、スマホの3G回線やLTEを使ってパソコンなどをインターネットに接続できる機能)」を押す・・・」といったように変換対象用語の直後に用語説明文が含められてもよい。なお、回答文生成部15は、回答文表を用いずに、変換対象用語の直後に用語説明文を含む自然文を生成してもよい。 Subsequently, the answer sentence generation unit 15 refers to the term explanation storage unit 164 (FIG. 9) to acquire the term explanation sentence of the conversion target term, and includes the term explanation sentence in the answer sentence to answer the user's opening question. An answer sentence indicating a system answer is generated (S11-8). For example, "... 3. Press tethering..." is replaced with "... 3. Tethering (By converting your smartphone to a mobile router, you can use a 3G line or LTE to connect a computer, etc. A term explanation may be included immediately after the conversion target term, such as "Pressing a function capable of connecting to the Internet)". Note that the answer sentence generation unit 15 may generate a natural sentence including a term explanation sentence immediately after the conversion target term without using the answer sentence table.

ステップS11−9において、回答文生成部15は、対話制御部13に対して回答文を出力する。対話制御部13は、当該回答文を対話文出力部14に出力する。その結果、対話文出力部14は、当該回答文を、図3のステップS12において出力する。 In step S11-9, the response sentence generation unit 15 outputs the response sentence to the dialogue control unit 13. The dialogue control unit 13 outputs the answer sentence to the dialogue sentence output unit 14. As a result, the dialogue sentence output unit 14 outputs the answer sentence in step S12 of FIG.

なお、上記において、文字入力速度の代わりに、タイプミス回数(例えば、文字の削除の回数)、又は文字の入力時間(速度ではなく絶対時間)等が回答の入力操作の状況を示す情報(指標)として用いられてもよい。 In the above, instead of the character input speed, the number of typographical errors (for example, the number of deletions of a character) or the character input time (absolute time instead of speed) is information (index) indicating the status of the response input operation. ).

また、上記では、ユーザ冒頭質問及び質問文に対するユーザによる入力が文字列によって行われ、質問文の出力及び回答文が文字列によって表示装置106に表示される例について説明したが、これらは音声によって入力又は出力されてもよい。例えば、ユーザ冒頭質問はユーザの発話により入力されてもよい。この場合、テキスト入力部12は、ユーザが入力する文字列に代わって、ユーザの発話を図示しない音声認識部によって認識した結果得られるテキストを入力とすると共に、ユーザが発話を開始してから完了するまでの所要時間を計測する。ユーザによる発話の開始と完了時点は、例えば、システムによる直前の出力処理が完了した時点をユーザによる発話の開始のタイミングとし、入力装置107に対する所定の操作(例えば、「送信」ボタンの押下等)時を発話の完了のタイミングとすれば検知可能である。このように、ユーザが入力する文字列に代わって、ユーザの発話を図示しない音声認識部によって認識した結果得られるテキストを文字列として使用すればよい。また、対話装置10による質問文や回答文の出力は、対話装置10のエージェントが音声として発話する形態で出力されてもよい。 Further, in the above description, an example in which the user's input question and the question sentence are input by the user in the form of a character string, and the output of the question sentence and the answer sentence are displayed in the character string on the display device 106 has been described. It may be input or output. For example, the user opening question may be entered by the user's utterance. In this case, the text input unit 12 inputs the text obtained as a result of recognition of the user's utterance by a voice recognition unit (not shown) instead of the character string input by the user, and completes after the user starts the utterance. Measure the time required to do so. The start and completion times of the user's utterance are, for example, the timing at which the user's utterance starts when the last output process by the system is completed, and a predetermined operation on the input device 107 (for example, pressing of a “send” button) It is possible to detect when time is the timing of completion of utterance. In this way, instead of the character string input by the user, the text obtained as a result of recognition of the user's utterance by a voice recognition unit (not shown) may be used as the character string. Further, the output of the question sentence or the answer sentence by the dialogue device 10 may be outputted in a form in which the agent of the dialogue device 10 speaks as a voice.

上述したように、本実施の形態によれば、対話相手のユーザに関して、用語の理解の有無を示す入力情報と、当該ユーザの非言語情報(文字入力速度などのユーザ回答の入力操作の状況)とに基づいて、当該ユーザからの質問(ユーザ冒頭質問)に関連する分野における当該ユーザの知識のレベル(知識量)を推定することができる。したがって、対話相手のユーザの知識の推定精度を向上させることができ、より適切な対話(回答文の生成)を可能とすることができる。例えば、ユーザの既知と未知の用語が何であるかという部分まで推定することができる。 As described above, according to the present embodiment, with respect to the user with whom the user is interacting, the input information indicating whether or not the term is understood, and the non-linguistic information of the user (the input operation status of the user answer such as character input speed). Based on, the level of knowledge (knowledge amount) of the user in the field related to the question from the user (user initial question) can be estimated. Therefore, the accuracy of estimating the knowledge of the user of the conversation partner can be improved, and a more appropriate conversation (generation of answer sentence) can be realized. For example, it is possible to estimate even what the user's known and unknown terms are.

なお、本実施の形態は、ICT以外の分野の知識の推定に関して適用されてもよい。 Note that this embodiment may be applied to the estimation of knowledge in fields other than ICT.

なお、本実施の形態において、テキスト入力部12は、受付部の一例である。対話文出力部14は、出力部の一例である。知識量推定部151は、推定部の一例である。回答文生成部15は、生成部の一例である。 In addition, in the present embodiment, the text input unit 12 is an example of a reception unit. The dialogue sentence output unit 14 is an example of an output unit. The knowledge amount estimation unit 151 is an example of an estimation unit. The answer sentence generation unit 15 is an example of a generation unit.

以上、本発明の実施の形態について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications are possible within the scope of the gist of the present invention described in the claims. It can be modified and changed.

10 対話装置
11 質問文生成部
12 テキスト入力部
13 対話制御部
14 対話文出力部
15 回答文生成部
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
106 表示装置
107 入力装置
111 選択肢判定部
112 用語理解判定部
151 知識量推定部
161 対話シナリオ記憶部
162 文字入力速度記憶部
163 用語理解記憶部
164 用語説明記憶部
1511 文字入力速度算出部
1512 用語理解度算出部
B バス
10 Dialogue Device 11 Question Sentence Generation Unit 12 Text Input Unit 13 Dialogue Control Unit 14 Dialogue Sentence Output Unit 15 Response Sentence Generation Unit 100 Drive Device 101 Recording Medium 102 Auxiliary Storage Device 103 Memory Device 104 CPU
105 Interface device 106 Display device 107 Input device 111 Choice determination unit 112 Term understanding determination unit 151 Knowledge amount estimation unit 161 Dialog scenario storage unit 162 Character input speed storage unit 163 Term understanding storage unit 164 Term explanation storage unit 1511 Character input speed calculation unit 1512 Term comprehension calculation section B bus

Claims (4)

ユーザから第1の質問の入力を受け付ける受付部と、
前記第1の質問に関連する用語の理解の有無をユーザに問う第2の質問を出力する出力部と、
前記第2の質問に対する回答の内容及び前記回答を示す文字列の入力操作の状況に基づいて、前記第1の質問に関連する分野に関する前記ユーザの知識のレベルを推定する推定部と、
前記推定部が推定したレベルに応じて、前記第1の質問に対する回答の内容を生成する生成部と、
を有することを特徴とする対話装置。
A reception unit that receives input of the first question from the user,
An output unit for outputting a second question asking the user whether he/she understands the term related to the first question;
An estimation unit that estimates the level of knowledge of the user in the field related to the first question based on the content of the answer to the second question and the situation of the input operation of the character string indicating the answer;
A generation unit that generates the content of the answer to the first question according to the level estimated by the estimation unit;
An interactive device comprising:
前記生成部は、用語ごとに記憶部に記憶されている難易度と、前記推定部が推定したレベルとに基づいて、前記第1の質問に対する回答に含まれる用語のうち、前記ユーザが理解していないことが推定される用語を特定し、特定した用語に対して記憶部に記憶されている説明文を、前記第1の質問に対する回答に含める、
ことを特徴とする請求項1記載の対話装置。
The generation unit is configured so that the user understands, among the terms included in the answer to the first question, based on the difficulty level stored in the storage unit for each term and the level estimated by the estimation section. Identifying a term that is presumed not to exist, and including an explanatory note stored in the storage unit for the identified term in the answer to the first question,
The dialogue apparatus according to claim 1, characterized in that:
前記推定部は、前記第2の質問に対する回答の内容に基づいて特定される、前記ユーザが理解している用語に対して記憶部に記憶されている難易度に基づいて、前記レベルを推定する、
ことを特徴とする請求項1又は2記載の対話装置。
The estimation unit estimates the level based on the difficulty level stored in the storage unit for the term understood by the user, which is specified based on the content of the answer to the second question. ,
The dialogue apparatus according to claim 1 or 2, characterized in that.
ユーザから第1の質問の入力を受け付ける受付手順と、
前記第1の質問に関連する用語の理解の有無をユーザに問う第2の質問を出力する出力手順と、
前記第2の質問に対する回答の内容及び前記回答を示す文字列の入力操作の状況に基づいて、前記第1の質問に関連する分野に関する前記ユーザの知識のレベルを推定する推定手順と、
前記推定手順において推定したレベルに応じて、前記第1の質問に対する回答の内容を生成する生成手順と、
をコンピュータに実行させることを特徴とするプログラム。
A reception procedure for receiving the input of the first question from the user,
An output procedure for outputting a second question asking the user whether he/she understands the term related to the first question,
An estimation procedure for estimating the level of knowledge of the user in the field related to the first question based on the content of the answer to the second question and the situation of the input operation of the character string indicating the answer;
A generation procedure for generating the content of the answer to the first question according to the level estimated in the estimation procedure;
A program characterized by causing a computer to execute.
JP2017145620A 2017-07-27 2017-07-27 Dialogue device and program Active JP6740187B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017145620A JP6740187B2 (en) 2017-07-27 2017-07-27 Dialogue device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017145620A JP6740187B2 (en) 2017-07-27 2017-07-27 Dialogue device and program

Publications (2)

Publication Number Publication Date
JP2019028604A JP2019028604A (en) 2019-02-21
JP6740187B2 true JP6740187B2 (en) 2020-08-12

Family

ID=65478349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017145620A Active JP6740187B2 (en) 2017-07-27 2017-07-27 Dialogue device and program

Country Status (1)

Country Link
JP (1) JP6740187B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7187411B2 (en) 2019-09-12 2022-12-12 株式会社日立製作所 Coaching system and coaching method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6366639A (en) * 1986-09-08 1988-03-25 Nec Corp Flexible explanation system for knowledge base system
JP2004355108A (en) * 2003-05-27 2004-12-16 Fujitsu Ltd Operator supporting program
JP2009193532A (en) * 2008-02-18 2009-08-27 Oki Electric Ind Co Ltd Dialogue management device, method, and program, and consciousness extraction system
JP2011060218A (en) * 2009-09-14 2011-03-24 Nec Corp Reply system
JP5787717B2 (en) * 2011-10-24 2015-09-30 ニフティ株式会社 Information processing apparatus, program, and information search system
JP2014002470A (en) * 2012-06-15 2014-01-09 Ricoh Co Ltd Processing device, processing system, output method and program
US9558448B2 (en) * 2014-02-20 2017-01-31 International Business Machines Corporation Dynamic interfacing in a deep question answering system
US10366332B2 (en) * 2014-08-14 2019-07-30 International Business Machines Corporation Tailoring question answering system output based on user expertise

Also Published As

Publication number Publication date
JP2019028604A (en) 2019-02-21

Similar Documents

Publication Publication Date Title
US10460728B2 (en) Exporting dialog-driven applications to digital communication platforms
US8717915B2 (en) Process-integrated tree view control for interactive voice response design
JP2018036621A (en) Information input method and device
US11200893B2 (en) Multi-modal interaction between users, automated assistants, and other computing services
US10908883B2 (en) Voice interaction development tool
JP2018523143A (en) Local maintenance of data for selective offline-capable voice actions in voice-enabled electronic devices
EP4280047A2 (en) Initializing a conversation with an automated agent via selectable graphical element
US11676602B2 (en) User-configured and customized interactive dialog application
JP2005500591A (en) Information processing apparatus and method, and program
US10950240B2 (en) Information processing device and information processing method
JP6442807B1 (en) Dialog server, dialog method and dialog program
CN111902831B (en) Demonstration support system
KR102527107B1 (en) Method for executing function based on voice and electronic device for supporting the same
CN109902163B (en) Intelligent response method, device, equipment and storage medium
JP6740187B2 (en) Dialogue device and program
US20230252242A1 (en) Question based chatbot generator from api specifications
Sheppard et al. Development of voice commands in digital signage for improved indoor navigation using google assistant SDK
JP2007193422A (en) Interactive information processing system, and method for providing help scenario for service scenario
CN113360590B (en) Method and device for updating interest point information, electronic equipment and storage medium
WO2021098876A1 (en) Question and answer method and apparatus based on knowledge graph
CN111966803B (en) Dialogue simulation method and device, storage medium and electronic equipment
JP6929960B2 (en) Information processing device and information processing method
KR20210099629A (en) Technology for generating commands for voice controllable electronic devices
JP2021032921A (en) Automatic update by artificial intelligence of automatic translation machine by voice recognition, update distribution thereof and information system
US11924150B2 (en) System(s) and method(s) for enabling a representative associated with an entity to modify a trained voice bot associated with the entity

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200722

R150 Certificate of patent or registration of utility model

Ref document number: 6740187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150