JP2020061087A - Interactive search system - Google Patents

Interactive search system Download PDF

Info

Publication number
JP2020061087A
JP2020061087A JP2018193547A JP2018193547A JP2020061087A JP 2020061087 A JP2020061087 A JP 2020061087A JP 2018193547 A JP2018193547 A JP 2018193547A JP 2018193547 A JP2018193547 A JP 2018193547A JP 2020061087 A JP2020061087 A JP 2020061087A
Authority
JP
Japan
Prior art keywords
search
interactive
control unit
character string
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018193547A
Other languages
Japanese (ja)
Inventor
俊貴 竹内
Toshiki Takeuchi
俊貴 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Edge Inc
Original Assignee
Toppan Forms Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Forms Co Ltd filed Critical Toppan Forms Co Ltd
Priority to JP2018193547A priority Critical patent/JP2020061087A/en
Publication of JP2020061087A publication Critical patent/JP2020061087A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an interactive search system capable of easily, immediately and accurately obtaining information corresponding to the content of dialogue in an interactive communication tool.SOLUTION: An interactive search system of the present invention includes: an interactive display control part for sequentially displaying character strings input in the dialogue in an interactive display area based on utterance unit; and a search result display control part for displaying information searched by a search keyword extracted from the character strings in a search result display area arranged in parallel with the interactive display area on the same display screen.SELECTED DRAWING: Figure 1

Description

本発明は、対話型検索システムに関する。   The present invention relates to an interactive search system.

近年、双方向通信の手段として、チャットなどの対話式のリアルタイムのコミュニケーションツールが多用されるようになっている。
商品を販売する会社のコールセンターなどにおいても、対話式のコミュニケーションツールを用いて、ユーザからの質問に対して、商品の説明や故障の際の対応を対話式で回答する処理が行なわれている(例えば、特許文献1参照)。
In recent years, interactive real-time communication tools such as chat have been widely used as means for two-way communication.
Even in a call center of a company that sells products, an interactive communication tool is used to interactively answer the user's question about the product and how to respond in case of failure ( See, for example, Patent Document 1).

また、チャットボットなどAI( artificial intelligence)を利用した自動会話プログラムによる対話式のコミュニケーションツールも開発が進んでいる。
このため、自動会話プログラムを用いて、ユーザからの質問に対する回答を行なう対話式のコミュニケーションツールによる対応を行なう事例もある。
しかし、自動会話プログラムがユーザからの質問内容に対応できない場合、人間のオペレータに切替えて、ユーザに対する対応が行なわれる。
Further, an interactive communication tool such as a chatbot using an automatic conversation program utilizing AI (artificial intelligence) is being developed.
For this reason, there are cases in which an automatic communication program is used to respond by using an interactive communication tool that answers a question from the user.
However, if the automatic conversation program cannot respond to the question from the user, the human operator is switched to respond to the user.

すなわち、対話式のコミュニケーションツールにおいては、ユーザからの質問に対して臨機応変な対応が要求される場合があり、自動会話プログラムなどのAIでは対応できない場合が多く、この場合には人間のオペレータが対応する必要がある。
このため、オペレータには、ユーザからの多岐に渡る質問に対して、臨機応変な対応が要求されることになる。
That is, an interactive communication tool may require flexible response to a question from a user, and in many cases, AI such as an automatic conversation program cannot handle it. In this case, a human operator Need to respond.
For this reason, the operator is required to respond flexibly to various questions from the user.

特開2005−229208号公報JP, 2005-229208, A

しかしながら、いずれのオペレータもユーザからの全ての質問に対して、即座に対応するための知識を有することは困難である。
すなわち、オペレータは、ユーザからの質問の内容によって、この質問の回答となる情報を自身の知識として有していない場合もある。
この場合、オペレータは、製本されたマニュアル、あるいはデータベース化されたマニュアルのいずれからか、ユーザの質問に対応した情報を得た後、ユーザの質問に回答する必要がある。
However, it is difficult for any operator to have the knowledge to immediately respond to all the questions from the user.
That is, the operator may not have the information as the answer to this question as his / her own knowledge depending on the content of the question from the user.
In this case, the operator needs to answer the user's question after obtaining the information corresponding to the user's question from either the bound manual or the database manual.

この際、オペレータは、製本されたあるいはデータベース化されたマニュアルから、質問内容に対応するカテゴリや、質問内容から抽出される検索キーワードである単語などに対応して、短時間での検索処理を行なう必要がある。
しかし、ユーザとの対話から検索のカテゴリや検索キーを抽出して検索する作業のため、オペレータは、ユーザとの対話と、マニュアルからの情報の検索との各々の処理を行なわなければならない。
At this time, the operator performs a search process in a short time from the bound or database-manual, corresponding to the category corresponding to the question content, the word that is the search keyword extracted from the question content, and the like. There is a need.
However, in order to extract and retrieve the search category and search key from the interaction with the user, the operator has to carry out each processing of the interaction with the user and the retrieval of information from the manual.

このため、ユーザとの対話を行ないつつ、オペレータが即座にユーザとの対話の内容に対応する情報を得る必要があるが、これらを同時に行なうことができない。このため、ユーザを待たせる時間が多くなり、オペレータは、リアルタイムに臨機応変なユーザ対応を容易に行なうことができない。
また、オペレータは、対話と検索された情報とを簡易に比較する手段を有さないため、検索結果においてユーザとの対話の内容に対応する的確な情報が得られたか否かを容易に確認することができない。
For this reason, it is necessary for the operator to immediately obtain information corresponding to the content of the dialogue with the user while conducting the dialogue with the user, but these cannot be performed simultaneously. For this reason, the user has to wait a lot of time, and the operator cannot easily respond to the user flexibly in real time.
Further, since the operator does not have a means for easily comparing the dialogue with the retrieved information, it is possible to easily confirm whether or not accurate information corresponding to the content of the dialogue with the user is obtained in the search result. I can't.

本発明は、このような事情に鑑みてなされたもので、対話式のコミュニケーションツールにおいて、対話の内容に対応する情報を容易に即座にかつ的確に得ることが可能な対話型検索システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an interactive search system in which an interactive communication tool can easily and promptly and accurately obtain information corresponding to the content of a dialog. The purpose is to

この発明は上述した課題を解決するためになされたもので、本発明の対話型検索システムは、対話において入力された文字列を発言単位に対話表示領域に順次表示する対話表示制御部と、前記対話表示領域と隣接して配置された検索結果表示領域に、前記文字列から抽出された検索キーワードにより検索された情報を並列に表示する検索結果表示制御部とを備えることを特徴とする。   The present invention has been made to solve the above-mentioned problems, and an interactive search system of the present invention includes an interactive display control unit that sequentially displays a character string input in a dialog in an interactive display area in units of utterances, A search result display control unit that displays information searched by the search keyword extracted from the character string in parallel is provided in a search result display area arranged adjacent to the interactive display area.

本発明の対話型検索システムは、前記文字列を変更した場合、当該変更に対応して前記検索が再度行なわれ、新たに検索された情報が前記検索結果表示領域に表示されることを特徴とする。   In the interactive search system of the present invention, when the character string is changed, the search is performed again in response to the change, and newly searched information is displayed in the search result display area. To do.

本発明の対話型検索システムは、前記対話において一定時間が経過した時点、あるいは前記文字列から所定の第1の個数の前記検索キーワードが抽出された時点、または前記発言の個数が所定の第2の個数を超えた時点において前記検索が行なわれることを特徴とする。   In the interactive search system of the present invention, when a certain period of time has elapsed in the dialog, when a predetermined first number of the search keywords are extracted from the character string, or when the number of messages is a predetermined second number. It is characterized in that the above-mentioned search is performed at a time point when the number exceeds the number.

この発明によれば、対話式のコミュニケーションツールにおいて、対話の内容に対応する情報を容易に即座にかつ的確に得ることが可能な対話型検索システムを提供することができる。   According to the present invention, in the interactive communication tool, it is possible to provide an interactive search system capable of easily, promptly and accurately obtaining information corresponding to the content of the dialog.

本発明の一実施形態による対話型検索システムの構成例を示す概念図である。It is a conceptual diagram which shows the structural example of the interactive search system by one Embodiment of this invention. 表示部15の表示画面に表示される、対話表示領域と検索結果表示領域とを含む表示画像を示す図面である。7 is a diagram showing a display image displayed on the display screen of the display unit 15 including an interactive display area and a search result display area. 本実施形態による対話型検索システムの情報ファイルの検索処理の動作例を示すフローチャートである。It is a flow chart which shows an example of operation of information file search processing of an interactive search system by this embodiment.

以下、図面を参照して、本発明の一実施形態について説明する。図1は、本発明の一実施形態による対話型検索システムの構成例を示す概念図である。この図1において、対話型検索システムは、オペレータ端末10、検索サーバ20、音声認識サーバ30、マニュアルデータベース40及びログ記憶部50を備えている。オペレータ端末10、音声認識サーバ30、検索サーバ20、マニュアルデータベース40及びログ記憶部50の各々は、LAN(Local Area Network)などのローカルな(限られた範囲内に設置された)通信網や、インターネットを含む通信網などの情報通信網500を介してデータの送受信を行なう。
ユーザ端末100は、ユーザの保持する端末であり、情報通信網500を介して、オペレータ端末10と対話式のコミュニケーションツール(例えば、チャットやLINE(登録商標)など)によりデータの送受信を行なう。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a conceptual diagram showing a configuration example of an interactive search system according to an embodiment of the present invention. In FIG. 1, the interactive search system includes an operator terminal 10, a search server 20, a voice recognition server 30, a manual database 40, and a log storage unit 50. Each of the operator terminal 10, the voice recognition server 30, the search server 20, the manual database 40, and the log storage unit 50 is a local (installed within a limited range) communication network such as a LAN (Local Area Network), Data is transmitted and received via an information communication network 500 such as a communication network including the Internet.
The user terminal 100 is a terminal held by the user, and transmits / receives data via the information communication network 500 to and from the operator terminal 10 using an interactive communication tool (for example, chat or LINE (registered trademark)).

オペレータ端末10は、キーワード抽出部11、検索制御部12、対話表示制御部13、検索結果表示制御部14及び表示部15を備えている。
キーワード抽出部11は、ユーザ端末100から送信されるユーザの発言及びオペレータの発言を入力し、テキストデータ(文字列)を発言毎に対話表示制御部13に対して出力する。ここで、発言とは、対話を行なうオペレータ及びユーザなどの対話に参加している参加者(チャットボットなどの人工知能も含む)の纏まった文章単位(例えば、後述する図2における文字列201Aから文字列201Eなど)を示す。
The operator terminal 10 includes a keyword extraction unit 11, a search control unit 12, a dialogue display control unit 13, a search result display control unit 14, and a display unit 15.
The keyword extracting unit 11 inputs a user's statement and an operator's statement transmitted from the user terminal 100, and outputs text data (character string) to the interactive display control unit 13 for each statement. Here, the utterance means a collective sentence unit (for example, from a character string 201A in FIG. 2 described later) of participants (including artificial intelligence such as a chatbot) participating in the dialogue such as the operator and the user who perform the dialogue. Character string 201E).

また、キーワード抽出部11は、ユーザの発言及びオペレータの発言が音声の場合、音声をテキストデータの文字列に変換するため、この音声のデータ(音声データ)を音声認識サーバ30に対して送信する。
また、キーワード抽出部11は、発言の文字列(音声認識サーバ30から返信されるテキストデータも含む)を形態素解析し、文字列における単語の抽出を行なう。そして、キーワード抽出部11は、検索制御部12に対して、発言の文字列から抽出した単語を検索制御部12に対して出力する。
When the user's utterance and the operator's utterance are voices, the keyword extracting unit 11 transmits the voice data (voice data) to the voice recognition server 30 in order to convert the voices into character strings of text data. .
The keyword extracting unit 11 also performs morphological analysis on the character string of the statement (including the text data returned from the voice recognition server 30) to extract words in the character string. Then, the keyword extracting unit 11 outputs to the search control unit 12 the words extracted from the character string of the statement to the search control unit 12.

検索制御部12は、キーワード抽出部11から供給される単語を検索キーワードとし、検索サーバ20に送信する。このとき、検索制御部12は、予め設定された所定のタイミングとなった場合、検索サーバ20に対してキーワード検索の処理を依頼する。この所定のタイミングとは、リアルタイム検索か否かによって設定が異なる。
ここで、リアルタイム検索が設定されている場合、検索制御部12は、発言毎に、発言の文字列から抽出された単語を検索キーワードとして、検索サーバ20に検索の依頼を行なう。
The search control unit 12 uses the word supplied from the keyword extraction unit 11 as a search keyword and sends it to the search server 20. At this time, the search control unit 12 requests the search server 20 to perform a keyword search process when a predetermined timing is reached. The setting differs from the predetermined timing depending on whether it is a real-time search or not.
Here, when the real-time search is set, the search control unit 12 requests the search server 20 to search for each utterance using a word extracted from the character string of the utterance as a search keyword.

一方、リアルタイム検索が設定されていない場合、検索制御部12は、オペレータが選択した発言の文字列から抽出された単語を検索キーワードとして、検索サーバ20に検索の依頼を行なう。このとき、文字列から抽出された単語から検索キーワードとして使用するか否かの判定については、カテゴリ毎に生成された機械学習モデルによる判定でも良いし、オペレータが任意に行なう判定でもよい。また、検索キーワードによる検索においては、検索キーワードのアンドによる検索、あるいはオアによる検索が任意に設定できる。   On the other hand, when the real-time search is not set, the search control unit 12 requests the search server 20 to search using a word extracted from the character string of the statement selected by the operator as a search keyword. At this time, whether or not to use the word extracted from the character string as a search keyword may be determined by a machine learning model generated for each category, or may be determined arbitrarily by an operator. Further, in the search by the search keyword, the search by AND of the search keyword or the search by OR can be arbitrarily set.

また、検索制御部12は、対話が開始されてから所定の時間が経過するまでにおける全ての発言の文字列から抽出された単語を検索キーワードとして、検索サーバ20に検索の依頼を行なう構成としても良い。また、検索制御部12は、対話が開始されてからの発言における文字列から抽出される単語の個数(総数、または種類数(類字後も含む))を積算し、予め設定された個数となった時点で、抽出された全ての単語を検索キーワードとして、検索サーバ20に検索の依頼を行なう構成としても良い。   Further, the search control unit 12 may be configured to request the search server 20 to perform a search by using the words extracted from the character strings of all the utterances from the start of the dialogue until the predetermined time elapses as the search keyword. good. Further, the search control unit 12 integrates the number of words (the total number, or the number of types (including after the similar type)) extracted from the character string in the utterance after the dialogue is started, and calculates the number of words set in advance. When all the words are reached, all the extracted words may be used as search keywords and a search request may be sent to the search server 20.

対話表示制御部13は、キーワード抽出部11から供給される発言の文字列を発言単位に、表示部15の表示画面における対話表示領域に時系列に表示する。また、対話表示制御部13は、表示部15の表示画面に表示された発言の文字列から、オペレータにより選択された発言の文字列を検索制御部12に対して通知する。   The interactive display control unit 13 displays the character strings of the comments supplied from the keyword extracting unit 11 in the interactive display area on the display screen of the display unit 15 in chronological order in units of comments. Further, the interactive display control unit 13 notifies the search control unit 12 of the character string of the message selected by the operator from the character strings of the message displayed on the display screen of the display unit 15.

検索結果表示制御部14は、検索サーバ20から返信される、検索制御部12が依頼した検索の検索結果を入力する。そして、検索結果表示制御部14は、入力した検索結果を表示部15の表示画面における検索結果表示領域に時系列に表示する。
表示部15は、例えば液晶ディスプレイの表示画面を有する画像表示装置である。
The search result display control unit 14 inputs the search result of the search requested by the search control unit 12, which is returned from the search server 20. Then, the search result display control unit 14 displays the input search results in a search result display area on the display screen of the display unit 15 in time series.
The display unit 15 is an image display device having a display screen of a liquid crystal display, for example.

図2は、表示部15の表示画面に表示される、対話表示領域と検索結果表示領域とを含む表示画像を示す図面である。この図2におけるマイナンバー(登録商標)は、マイナンバー(登録商標)制度に基づき日本国民に付与された12桁の個人番号である。
図2において示すように、検索キーワードを抽出した発言が表示される対話表示領域201と、検索キーワードにより検索された検索結果が表示される検索結果表示領域202との各々は、並列に配置されている。
対話表示領域201には、ユーザの発言の文字列とオペレータの発言の文字列とが時系列に(下から上に向かって)、対話表示制御部13により、発言が入力される毎に順次表示される。
FIG. 2 is a drawing showing a display image displayed on the display screen of the display unit 15 including an interactive display area and a search result display area. The My Number (registered trademark) in FIG. 2 is a 12-digit personal number given to Japanese citizens based on the My Number (registered trademark) system.
As shown in FIG. 2, each of the interactive display area 201 in which the statement in which the search keyword is extracted is displayed and the search result display area 202 in which the search result searched by the search keyword is displayed are arranged in parallel. There is.
In the interactive display area 201, the character string of the user's statement and the character string of the operator's statement are displayed in chronological order (from the bottom to the top) by the interactive display control unit 13 every time the statement is input. To be done.

また、検索結果表示領域202には、対話における発言から抽出された検索キーワードにより検索された検索結果が、検索結果表示制御部14により表示される。
スイッチ203は、リアルタイム検索を行なうか否かの選択を行なうスイッチであり、オンでリアルタイム検索を行なう設定となり、オフでリアルタイム検索を行なわない設定となる。
スイッチ203がオンの場合、検索制御部12は、キーワード抽出部11から供給される、対話表示領域201に順次表示される発言の文字列から抽出された検索キーワードにより、検索サーバ20に対して検索を依頼する。
Further, the search result display area 202 displays the search result searched by the search keyword extracted from the statement in the dialogue by the search result display control unit 14.
The switch 203 is a switch for selecting whether or not to perform the real-time search. When the switch 203 is on, the real-time search is set, and when the switch 203 is off, the real-time search is not performed.
When the switch 203 is turned on, the search control unit 12 searches the search server 20 with the search keyword extracted from the character string of the utterances sequentially displayed in the interactive display area 201, which is supplied from the keyword extraction unit 11. Ask.

例えば、図2において、キーワード抽出部11は、時系列に表示される発言毎の文字列201Aの「Myナンバー制度について知りたい」、…、文字列201Eの「Myナンバー制度のメリットは」の各々から、検索キーワードを順次抽出して、検索制御部12に対して発言単位で出力する。
このように、キーワード抽出部11は、発言毎の文字列から単語の抽出を行い、検索制御部12に対して順次出力する。
そして、検索制御部12は、リアルタイム検索の場合、上述したように、キーワード抽出部11から供給される発言毎の検索キーワードによる検索を、検索サーバ20に対して依頼する。
For example, in FIG. 2, the keyword extracting unit 11 indicates each of “I want to know about the My number system” in the character string 201A for each statement displayed in time series, ..., and “The merit of the My number system” in the character string 201E. From, the search keywords are sequentially extracted and output to the search control unit 12 in units of statements.
In this way, the keyword extracting unit 11 extracts words from the character string for each statement and sequentially outputs the words to the search control unit 12.
Then, in the case of real-time search, the search control unit 12 requests the search server 20 to perform a search using the search keyword for each statement supplied from the keyword extracting unit 11, as described above.

図2においては、対話表示領域201に表示されている発言の各々において、最新の発言の文字列201Eの「Myナンバー制度のメリットは」から抽出された検索キーワードによる検索結果が検索結果表示領域202に表示されている。
すなわち、キーワード抽出部11が、文字列201Eの「Myナンバー制度のメリットは」を形態素解析して抽出した「ナンバー」、「制度」及び「メリット」の各々の単語を、検索キーワードとして検索制御部12に出力する。
リアルタイム検索であるため、検索制御部12は、「ナンバー」、「制度」及び「メリット」の各々の単語を検索キーワードとして、検索サーバ20に検索を依頼する。
In FIG. 2, in each of the messages displayed in the interactive display area 201, the search result based on the search keyword extracted from “The merit of the My number system is” of the character string 201E of the latest statement is the search result display area 202. Is displayed in.
That is, the keyword extracting unit 11 uses the words “number”, “system”, and “merit” extracted by morphological analysis of “the merit of the My number system” of the character string 201E as search keywords, and the search control unit. Output to 12.
Since the search is a real-time search, the search control unit 12 requests the search server 20 to search using the words “number”, “system”, and “merit” as search keywords.

そして、検索結果表示制御部14は、検索サーバ20から供給される検索結果を、表示部15の表示画面(同一の表示画面)において対話表示領域201と隣接して並列に配置された検索結果表示領域202に対して同一タイミングで並列に表示する。
また、検索結果表示制御部14が、隣接して並列に配置されたパーソナルコンピュータにおいて、一方のパーソナルコンピュータの表示画面における対話表示領域201と、他方のパーソナルコンピュータの表示画面における検索結果表示領域202との各々でそれぞれの文字列を並列に表示する構成としても良い。
このとき、検索結果表示制御部14は、検索結果表示領域202の上から、検索キーワードを多く含む検索結果から順番に(優先順に)表示を行なうように構成しても良い。
また、検索結果表示制御部14は、検索結果表示領域202に表示する検索結果の文字列において、検索に用いられた検索キーワードを明確とするため、検索キーワードと視認できるようにハイライト表示して強調する構成としても良い。
Then, the search result display control unit 14 displays the search results supplied from the search server 20 in parallel on the display screen (same display screen) of the display unit 15 adjacent to the interactive display area 201. The regions 202 are displayed in parallel at the same timing.
In addition, the search result display control unit 14 includes an interactive display area 201 on the display screen of one of the personal computers and a search result display area 202 on the display screen of the other personal computer in the personal computers arranged adjacent to each other in parallel. Each of the character strings may be displayed in parallel.
At this time, the search result display control unit 14 may be configured to display the search results including a large number of search keywords in order (priority order) on the search result display area 202.
Further, the search result display control unit 14 highlights the search keyword used in the search in the character string of the search result displayed in the search result display area 202 so that the search keyword can be visually recognized as the search keyword. The configuration may be emphasized.

また、検索制御部12は、リアルタイム検索ではない場合、キーワード抽出部11から供給される発言毎の検索キーワードによる検索を、対話表示領域201に表示されている発言のなかから選択された範囲の発言に対応して行なう。
図2においては、対話表示領域201に表示されている発言の文字列から、オペレータが文字列201C及び文字列201Eの各々を選択した場合、対話表示制御部13は、文字列201C、文字列201Eのそれぞれが選択されたことを、検索制御部12に対して通知する。
Further, when the search control unit 12 is not the real-time search, the search by the search keyword for each message supplied from the keyword extraction unit 11 is searched in the range selected from the messages displayed in the dialogue display area 201. Corresponding to.
In FIG. 2, when the operator selects each of the character strings 201C and 201E from the character strings of the message displayed in the interactive display area 201, the interactive display control unit 13 causes the interactive display control unit 13 to display the character strings 201C and 201E. The search control unit 12 is notified that each of the above has been selected.

そして、検索制御部12は、文字列201C及び文字列201Eの各々からキーワード抽出部11が抽出した検索キーワードにより、検索サーバ20に対して検索依頼を出力する。
検索依頼の結果が得られた際、検索結果表示制御部14は、リアルタイム検索の場合と同様に、検索サーバ20からの検索結果の文字列を、表示部15の表示画面において対話表示領域201と並列に配置された検索結果表示領域202に対して表示する。
Then, the search control unit 12 outputs a search request to the search server 20 using the search keyword extracted by the keyword extracting unit 11 from each of the character string 201C and the character string 201E.
When the result of the search request is obtained, the search result display control unit 14 displays the character string of the search result from the search server 20 in the interactive display area 201 on the display screen of the display unit 15, as in the case of the real-time search. The search result display areas 202 arranged in parallel are displayed.

スイッチ204は、音声認識を行なうか否かの選択を行なうスイッチであり、オンで音声認識を行なう設定となり、オフで音声認識を行なわない設定となる。
オペレータは、自身とユーザとの対話が音声により行なわれている場合、スイッチ204をオンとし、音声認識を行なう設定とする。これにより、キーワード抽出部11は、ユーザとオペレータとの対話の音声データを、音声認識サーバ30に対してリアルタイムに送信する。
一方、オペレータは、自身とユーザとの対話が文字データ(テキスト)により行なわれている場合、スイッチ204をオフとし、音声認識を行なわない設定とする。
The switch 204 is a switch for selecting whether or not to perform voice recognition. The switch 204 is set to perform voice recognition when turned on, and is set to not perform voice recognition when turned off.
When the dialogue between the operator and the user is performed by voice, the operator turns on the switch 204 to set the voice recognition. Accordingly, the keyword extracting unit 11 transmits the voice data of the dialogue between the user and the operator to the voice recognition server 30 in real time.
On the other hand, when the interaction between the operator and the user is performed by character data (text), the operator turns off the switch 204 and sets the voice recognition not to be performed.

ボタン205は、押下(例えば、マウスなどでクリック)されることにより、対話表示領域201に表示されている、オペレータとユーザとの対話における発言データが、テキストファイル(対話ファイル)として、ログ記憶部50に対して書き込まれて記憶される。   When the button 205 is pressed (for example, clicked with a mouse or the like), the speech data in the dialogue between the operator and the user, which is displayed in the dialogue display area 201, is stored in the log storage unit as a text file (dialog file). 50 is written and stored.

設定欄206は、対話における発言から検索キーワードを抽出して検索を行なうのではなく、後述する入力欄207に対して文字列を入力して検索キーワードとする場合に用いられる。すなわち、オペレータがユーザの質問などに対応する情報があるカテゴリのマニュアルを、この設定欄206において選択バーなどにより選択して設定する欄である。
入力欄207は、上述した設定欄206で選択したカテゴリのマニュアルにおける検索において、オペレータが検索キーワードとして用いる文字列を入力する欄である。
The setting field 206 is used when a search keyword is not extracted from a statement in a dialogue and a search is performed, but a character string is input to an input field 207 described later to be a search keyword. That is, this is a field in which the operator selects and sets a manual in a category having information corresponding to a user's question or the like in the setting field 206 by using a selection bar or the like.
The input field 207 is a field in which the operator inputs a character string used as a search keyword in the manual search of the category selected in the setting field 206 described above.

図1に戻り、検索サーバ20は、検索制御部12からの検索依頼に対応し、この検索依頼に添付された検索キーワードを抽出する。
そして、検索サーバ20は、マニュアルデータベース40を参照して、検索キーワードを含む情報ファイルを検索する。このとき、検索依頼には複数の検索キーワードが含まれる場合があり、これらの検索キーワードのオア検索でもよいし、アンド検索としても良く、このオア検索及びアンド検索のいずれを行なうかは、検索制御部12の検索依頼に添付される構成とする。これにより、オペレータは、検索制御部12に対する検索依頼において、検索キーワードのオア検索及びアンド検索のいずれも任意に設定することができる。
Returning to FIG. 1, the search server 20 responds to the search request from the search control unit 12 and extracts the search keyword attached to this search request.
Then, the search server 20 refers to the manual database 40 and searches for an information file including the search keyword. At this time, the search request may include a plurality of search keywords, and an OR search of these search keywords or an AND search may be performed. Which of the OR search and the AND search should be performed is a search control. The configuration is attached to the search request of the section 12. Thereby, the operator can arbitrarily set either the OR search and the AND search of the search keyword in the search request to the search control unit 12.

マニュアルデータベース40には、オペレータが説明を担当する事務処理の内容や製品の詳細な取り扱いや故障の質問に対応するための情報が記載された情報ファイル(マニュアル)が、Q&A(一問一答)形式などでカテゴリ毎に記憶されている。
また、本実施形態においては、データベース化されている情報ファイルがマニュアルに関連した情報として説明しているが、これは一例である。例えば、他のデータベースの構成としては、辞書フィアルをデータベース化して検索キーワードに対応する単語を抽出する構成、あるいは科学技術などの文献ファイル(情報ファイルの一例)をデータベース化して、検索キーワードで関連性のある文献ファイルを検索する構成としても良い。
In the manual database 40, an information file (manual) that describes the contents of paperwork that the operator is in charge of, the detailed handling of the product, and the information for responding to a question about failure, Q & A (one question one answer) It is stored for each category in a format.
Further, in the present embodiment, the information file in the database is described as the information related to the manual, but this is an example. For example, as another database structure, a dictionary file is made into a database and words corresponding to the search keyword are extracted, or a document file (an example of information file) such as science and technology is made into a database and the relevance is made by the search keyword It is also possible to adopt a configuration in which a document file having

音声認識サーバ30は、ユーザとオペレータとの対話の音声データが供給された場合、この音声データの音声認識を行なう。そして、音声認識サーバ30は、音声認識を行なった結果として、音声データをテキストデータに変換し、変換したテキストデータをオペレータ端末10に対して出力する。   When the voice data of the dialogue between the user and the operator is supplied, the voice recognition server 30 performs voice recognition of this voice data. Then, the voice recognition server 30 converts the voice data into text data as a result of the voice recognition, and outputs the converted text data to the operator terminal 10.

ログ記憶部50は、オペレータとユーザとの対話における発言のテキストデータが、対話単位に対話ファイルとしてタイムスタンプ(対話の開始と終了との各々の時刻を示すデータ)が付与されて、それぞれが書き込まれて記憶されている。
また、対話ファイルにおいては、対話における発言のテキストデータの各々が、オペレータ及びユーザのいずれかであるかを示す識別情報が付与されている。オペレータ及びユーザの各々の識別情報は、オペレータ、ユーザそれぞれを個別に識別できる情報であれば、いずれの情報(例えば、名前やシリアル番号など)を用いてもよい。
In the log storage unit 50, text data of a statement in a dialogue between an operator and a user is written with a time stamp (data indicating each time of start and end of dialogue) added as a dialogue file for each dialogue. Is remembered.
Further, in the dialog file, identification information indicating whether each of the text data of the statements in the dialog is an operator or a user is added. As the identification information of each of the operator and the user, any information (for example, a name or a serial number) may be used as long as the information can individually identify the operator and the user.

また、キーワード抽出部11は、オペレータが対話表示領域201に表示されている発言において誤記や音声認識による誤認識による異なる意味の単語に変換された単語を、正しい記載に変更した場合、新たに変換された発言の文字列から検索キーワードを抽出し、検索制御部12に対して出力する。
これにより、検索制御部12は、新たな検索キーワードを検索サーバに出力して検索を依頼し、返信された新たな情報を検索結果表示制御部14に出力する。
検索結果表示制御部14は、検索結果表示領域202における検索結果の表示を、新たに検索制御部12から供給される情報に変更して表示する。
In addition, the keyword extracting unit 11 newly converts a word, which is converted into a word having a different meaning due to an erroneous recognition or an erroneous recognition by voice recognition, in the utterance displayed in the dialogue display area 201 to a correct description. A search keyword is extracted from the character string of the uttered comment and output to the search control unit 12.
Accordingly, the search control unit 12 outputs a new search keyword to the search server to request a search, and outputs the returned new information to the search result display control unit 14.
The search result display control unit 14 changes the display of the search result in the search result display area 202 to the information newly supplied from the search control unit 12 and displays it.

次に、図1、図2及び図3を用いて、本実施形態による対話型検索システムの情報ファイルの検索処理について説明する。図3は、本実施形態による対話型検索システムの情報ファイルの検索処理の動作例を示すフローチャートである。
以下の動作の説明は、オペレータがユーザからのアクセスを受けて、オペレータとユーザとの対話が行なわれ、その対話が終了し、対話における発言の全てが一つの対話ファイルとして、ログ記憶部50に対して書き込まれるまでの処理である。また、対話における発言については、対話が音声で行われた場合でも、すでにテキストの文字列に変換されていることを前提として説明を行なう。
Next, the information file search process of the interactive search system according to the present embodiment will be described with reference to FIGS. FIG. 3 is a flowchart showing an operation example of an information file search process of the interactive search system according to the present embodiment.
The explanation of the operation below is that the operator receives an access from the user, the operator interacts with the user, the dialog ends, and all the statements in the dialog are stored in the log storage unit 50 as one dialog file. It is the process until it is written. Further, the speech in the dialogue will be described on the assumption that it has already been converted into a text character string even when the dialogue is spoken.

S101:キーワード抽出部11は、入力される発話における発言の文字列を、順次、対話表示制御部13に対して出力する。
そして、対話表示制御部13は、発話における発言の文字列を、対話表示領域201に対して表示する。
S101: The keyword extraction unit 11 sequentially outputs the input character string of the utterance to the interactive display control unit 13.
Then, the interactive display control unit 13 displays the character string of the utterance in the utterance in the interactive display area 201.

S102:キーワード抽出部11は、対話表示領域201に表示されている対話における発言の中から、最新の発言の文字列を順次選択する。
そして、キーワード抽出部11は、選択した文字列から検索キーワードを抽出し、抽出した検索キーワードを検索制御部12に対して出力する。
S102: The keyword extracting unit 11 sequentially selects the character string of the latest statement from the statements in the dialog displayed in the dialog display area 201.
Then, the keyword extracting unit 11 extracts the search keyword from the selected character string and outputs the extracted search keyword to the search control unit 12.

S103:検索制御部12は、スイッチ203がオンであり、リアルタイム検索が設定されているか否かの判定を行なう。
このとき、検索制御部12は、リアルタイム検索が設定されている場合、処理をステップS104へ進め、一方、リアルタイム検索が設定されていない場合、処理をステップS106へ進める。
S103: The search control unit 12 determines whether the switch 203 is on and the real-time search is set.
At this time, the search control unit 12 advances the process to step S104 if the real-time search is set, and advances the process to step S106 if the real-time search is not set.

S104:検索制御部12は、キーワード抽出部11から供給された検索キーワードによる検索処理の依頼指令を、検索サーバ20に対して出力する(検索を依頼する)。
これにより、検索サーバ20は、検索キーワードを含む情報ファイルを、マニュアルデータベース40から検索する。
そして、検索サーバ20は、検索された情報ファイルを、オペレータ端末10に対して出力する。
S104: The search control unit 12 outputs to the search server 20 a request command for a search process using the search keyword supplied from the keyword extraction unit 11 (requests a search).
As a result, the search server 20 searches the manual database 40 for an information file including the search keyword.
Then, the search server 20 outputs the searched information file to the operator terminal 10.

S105:検索結果表示制御部14は、検索指令に対応して検索サーバ20から返信される、検索結果としての情報ファイルの文字列を、検索結果表示領域202に対して表示する。
これにより、検索に用いられた検索キーワードが抽出された発言の文字列と、検索キーワードから検索された情報ファイルの文字列とが、表示部15の表示画面に表示される同一画面において並列に表示される。
S105: The search result display control unit 14 displays the character string of the information file as the search result, which is returned from the search server 20 in response to the search command, in the search result display area 202.
As a result, the character string of the statement in which the search keyword used for the search is extracted and the character string of the information file retrieved from the search keyword are displayed in parallel on the same screen displayed on the display screen of the display unit 15. To be done.

S106:検索制御部12は、対話表示領域201に表示されている発言の数(例えば、図2に示す文字列201Aを一個の発言とする)を計数する。
このとき、検索制御部12は、キーワード抽出部11から供給される発言の文字列から供給される検索キーワードを内部に蓄積する。
S106: The search control unit 12 counts the number of statements displayed in the interactive display area 201 (for example, the character string 201A shown in FIG. 2 is one statement).
At this time, the search control unit 12 internally stores the search keyword supplied from the character string of the statement supplied from the keyword extracting unit 11.

S107:検索制御部12は、計数した発言数が予め設定された閾値の個数を超えたか否かの判定を行なう。
このとき、検索制御部12は、計数した発言数が予め設定された閾値の個数を超えた場合、処理をステップS108へ進める。一方、検索制御部12は、計数した発言数が予め設定された閾値の個数以下の場合、処理をステップS101へ進める。すなわち、検索制御部12は、計数した発言数が閾値を超えた時点を、検索を行なうタイミングとしている。
S107: The search control unit 12 determines whether or not the counted number of messages exceeds the preset threshold number.
At this time, when the counted number of messages exceeds the preset threshold number, the search control unit 12 advances the process to step S108. On the other hand, when the counted number of messages is equal to or smaller than the preset threshold number, the search control unit 12 advances the process to step S101. That is, the search control unit 12 uses the time when the counted number of messages exceeds the threshold as the search timing.

また、図3のフローチャートにおいては、発言の個数を検索を行なうタイミングを決定するパラメータとしている。
しかしながら、すでに説明したように、検索キーワードの数や、リアルタイム検索を行なう設定から行なわない設定となった時点からの経過時間を、検索を行なうタイミングを決定するパラメータとして構成しても良い。
また、リアルタイム検索を行なわない設定となった後、オペレータが検索キーワードとして抽出された単語から、実際に用いる検索キーワードの単語を選択した時点を、あるいはオペレータが検索キーワードを抽出する発言の文字列を選択した時点を、検索を行なうタイミングを決定するパラメータとして構成しても良い。
Further, in the flowchart of FIG. 3, the number of utterances is used as a parameter for determining the timing of searching.
However, as described above, the number of search keywords and the elapsed time from the time when the setting is performed to the time when the real-time search is performed may be configured as the parameter that determines the timing when the search is performed.
Also, after the setting that does not perform real-time search, when the operator selects the word of the search keyword actually used from the words extracted as the search keyword, or the character string of the statement from which the operator extracts the search keyword The selected time point may be configured as a parameter that determines the timing for performing the search.

S108:検索制御部12は、個数として計数された発言の各々から抽出された検索キーワードによる、すなわち内部に蓄積された検索キーワードによる検索処理の依頼指令を、検索サーバ20に対して出力する。
これにより、検索サーバ20は、複数の発言から抽出された検索キーワードを含む情報ファイルを、マニュアルデータベース40から検索する。
そして、検索サーバ20は、検索された情報ファイルを、オペレータ端末10に対して出力する。
S108: The search control unit 12 outputs, to the search server 20, a search processing request command based on the search keyword extracted from each of the statements counted as the number, that is, based on the search keyword stored inside.
As a result, the search server 20 searches the manual database 40 for an information file including the search keyword extracted from the plurality of statements.
Then, the search server 20 outputs the searched information file to the operator terminal 10.

S109:検索結果表示制御部14は、検索指令に対応して検索サーバ20から返信される、複数の発言の文字列から抽出された検索キーワードの検索結果としての情報ファイルの文字列を、検索結果表示領域202に対して表示する。
これにより、検索に用いられた検索キーワードが抽出された複数の発言の文字列と、検索キーワードから検索された情報ファイルの文字列とが、表示部15の表示画面に表示される同一画面において並列に表示される。
S109: The search result display control unit 14 returns the search result of the character string of the information file as the search result of the search keyword extracted from the character strings of the plurality of remarks, which is returned from the search server 20 in response to the search command. It is displayed in the display area 202.
As a result, the character strings of a plurality of remarks in which the search keywords used for the search are extracted and the character strings of the information files searched for from the search keywords are arranged in parallel on the same screen displayed on the display screen of the display unit 15. Is displayed in.

S110:検索制御部12は、オペレータとユーザとの対話が終了したか否かの判定を行なう。ここで、検索制御部12は、対話が終了したか否かを、図2に示すボタン205が押下されたか否かにより判定する。
このとき、検索制御部12は、ボタン205が押下された場合、対話が終了したとして、対話表示領域201に表示されている対話における全ての発言の文字列を、対話ファイルとして、ログ記憶部50に対して書き込んで記憶させる。そして、検索制御部12は、検索キーワードによる検索処理を終了する。
一方、検索制御部12は、ボタン205が押下されていない場合、処理をステップS101に進める。
S110: The search control unit 12 determines whether or not the dialogue between the operator and the user is completed. Here, the search control unit 12 determines whether or not the dialogue has ended, based on whether or not the button 205 shown in FIG. 2 has been pressed.
At this time, when the button 205 is pressed, the search control unit 12 determines that the dialogue has ended, and the character strings of all the remarks in the dialogue displayed in the dialogue display area 201 are set as the dialogue file as the dialogue storage unit 50. Write to and memorize. Then, the search control unit 12 ends the search process using the search keyword.
On the other hand, if the button 205 is not pressed, the search control unit 12 advances the process to step S101.

上述した構成により、本実施形態の対話型検索システムによれば、対話における発言毎の文字列から抽出された検索キーワードにより、この検索キーワードを含む情報ファイルを検索し、検索キーワードを抽出した文字列(発言)と、検索結果の情報ファイルとを同一の画面において並列して表示するため、オペレータが情報ファイルと対話における発言の各々の内容(文字列)を一つの画面で確認することが可能であるため、検索された情報ファイルからユーザが必要とする情報を適時読み出し、対話の相手であるユーザに対して通知することで、ユーザの質問などに臨機応変に回答することができる。   With the configuration described above, according to the interactive search system of the present embodiment, the information file including the search keyword is searched by the search keyword extracted from the character string for each statement in the dialogue, and the character string extracted from the search keyword is searched. (Remark) and the information file of the search result are displayed in parallel on the same screen, so that the operator can check the contents (character string) of each comment in the information file and dialogue on one screen. Therefore, by reading out the information required by the user from the searched information file at a suitable time and notifying the user who is the other party of the dialogue, the user's question can be answered flexibly.

また、本実施形態の対話型検索システムによれば、対話における発言毎の文字列と、個の文字列から抽出した検索キーワードで検索された情報ファイルが同一の画面で並列に表示されるため、対話の発言の文字列と、検索された情報ファイルとを比較することにより、ユーザが必要としている情報を含む情報ファイルが的確に得られたか否かが視認でき、得られていない場合、オペレータが現時点で含まれていない他の検索キーワードを含む発言を行なうことで、情報ファイルの再検索を行い、ユーザが必要としている情報を含む情報ファイルの検索の精度を向上させることができる。   Further, according to the interactive search system of the present embodiment, since the character string for each statement in the dialogue and the information file searched by the search keyword extracted from the character strings are displayed in parallel on the same screen, By comparing the character string of the dialogue and the retrieved information file, it is possible to visually confirm whether or not the information file including the information required by the user has been accurately obtained. By making a statement including another search keyword that is not included at the present time, the information file can be re-searched and the accuracy of the search for the information file that includes the information required by the user can be improved.

また、本実施形態の対話型検索システムによれば、対話表示領域201における発言の文字列を変更することが可能であるため、対話が音声で行われる場合、音声認識による音声データのテキストのデータへの変換において、変換の間違いがあった場合、オペレータが正しい文字列に訂正することができ、この変更後の文字列から検索キーワードを抽出することにより、誤った検索キーワードによる検索を防止し、検索の精度及び効率を向上させることができる。   Further, according to the interactive search system of the present embodiment, it is possible to change the character string of the utterance in the interactive display area 201. Therefore, when the dialog is performed by voice, the text data of the voice data by voice recognition is used. In the conversion to, if there is an error in the conversion, the operator can correct it to a correct character string, and by extracting the search keyword from this changed character string, you can prevent the search by the wrong search keyword, The accuracy and efficiency of the search can be improved.

また、図1における対話型検索システムにおけるオペレータ端末10の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、対話の発言も文字列から抽出された検索キーワードによる情報ファイルの検索を検索サーバ20に行なわせ、オペレータ端末10の表示装置の同一の表示画面に並列に配置して表示させる処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Further, a program for realizing the function of the operator terminal 10 in the interactive search system in FIG. 1 is recorded in a computer-readable recording medium, and the program recorded in this recording medium is read into the computer system and executed. As a result, the dialogue server also causes the search server 20 to search the information file by the search keyword extracted from the character string, and arranges and displays the information files in parallel on the same display screen of the display device of the operator terminal 10. May be. The “computer system” mentioned here includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
In addition, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in a computer system. Further, the "computer-readable recording medium" means to hold a program dynamically for a short time like a communication line when transmitting the program through a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system that serves as a server or a client in that case holds a program for a certain period of time. Further, the above-mentioned program may be a program for realizing a part of the above-mentioned functions, and may be a program that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   Although the embodiment of the present invention has been described in detail above with reference to the drawings, the specific configuration is not limited to this embodiment, and includes a design and the like within a range not departing from the gist of the present invention.

10…オペレータ端末
11…キーワード抽出部
12…検索制御部
13…対話表示制御部
14…検索結果表示制御部
15…表示部
20…検索サーバ
30…音声認識サーバ
40…マニュアルデータベース
50…ログ記憶部
100…ユーザ端末
500…情報通信網
10 ... Operator terminal 11 ... Keyword extraction part 12 ... Search control part 13 ... Interactive display control part 14 ... Search result display control part 15 ... Display part 20 ... Search server 30 ... Speech recognition server 40 ... Manual database 50 ... Log storage part 100 ... user terminal 500 ... information communication network

Claims (3)

対話において入力された文字列を発言単位に対話表示領域に順次表示する対話表示制御部と、
前記対話表示領域と隣接して配置された検索結果表示領域に、前記文字列から抽出された検索キーワードにより検索された情報を並列に表示する検索結果表示制御部と
を備えることを特徴とする対話型検索システム。
An interactive display control unit that sequentially displays the character string input in the dialog in the interactive display area for each utterance,
A search result display control unit that displays information searched by the search keyword extracted from the character string in parallel in a search result display area arranged adjacent to the dialog display area. Type search system.
前記文字列を変更した場合、当該変更に対応して前記検索が再度行なわれ、新たに検索された情報が前記検索結果表示領域に表示される
ことを特徴とする請求項1に記載の対話型検索システム。
The interactive system according to claim 1, wherein when the character string is changed, the search is performed again in response to the change, and newly searched information is displayed in the search result display area. Search system.
前記対話において一定時間が経過した時点、あるいは前記文字列から所定の第1の個数の前記検索キーワードが抽出された時点、または前記発言の個数が所定の第2の個数を超えた時点において前記検索が行なわれる
ことを特徴とする請求項1に記載の対話型検索システム。
The search is performed when a certain time has elapsed in the dialogue, when a predetermined first number of the search keywords are extracted from the character string, or when the number of the utterances exceeds a predetermined second number. The interactive search system according to claim 1, wherein:
JP2018193547A 2018-10-12 2018-10-12 Interactive search system Pending JP2020061087A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018193547A JP2020061087A (en) 2018-10-12 2018-10-12 Interactive search system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018193547A JP2020061087A (en) 2018-10-12 2018-10-12 Interactive search system

Publications (1)

Publication Number Publication Date
JP2020061087A true JP2020061087A (en) 2020-04-16

Family

ID=70220836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018193547A Pending JP2020061087A (en) 2018-10-12 2018-10-12 Interactive search system

Country Status (1)

Country Link
JP (1) JP2020061087A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0543382U (en) * 1991-11-15 1993-06-11 株式会社ケンウツド Playback device
JP2007304776A (en) * 2006-05-10 2007-11-22 Nippon Telegr & Teleph Corp <Ntt> Document retrieval device
JP2012164239A (en) * 2011-02-09 2012-08-30 Mitsubishi Electric Corp Search processing apparatus
JP2017049427A (en) * 2015-09-01 2017-03-09 カシオ計算機株式会社 Dialogue control apparatus, dialogue control method, and program
JP2018128869A (en) * 2017-02-08 2018-08-16 日本電信電話株式会社 Search result display device, search result display method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0543382U (en) * 1991-11-15 1993-06-11 株式会社ケンウツド Playback device
JP2007304776A (en) * 2006-05-10 2007-11-22 Nippon Telegr & Teleph Corp <Ntt> Document retrieval device
JP2012164239A (en) * 2011-02-09 2012-08-30 Mitsubishi Electric Corp Search processing apparatus
JP2017049427A (en) * 2015-09-01 2017-03-09 カシオ計算機株式会社 Dialogue control apparatus, dialogue control method, and program
JP2018128869A (en) * 2017-02-08 2018-08-16 日本電信電話株式会社 Search result display device, search result display method, and program

Similar Documents

Publication Publication Date Title
CN108897867B (en) Data processing method, device, server and medium for knowledge question answering
US10031983B2 (en) Query tree navigation
US8738384B1 (en) Method and system for creating natural language understanding grammars
US8204751B1 (en) Relevance recognition for a human machine dialog system contextual question answering based on a normalization of the length of the user input
US7216080B2 (en) Natural-language voice-activated personal assistant
AU2020104421A4 (en) Method and system for interactive learning
US11163778B2 (en) Integrating virtual and human agents in a multi-channel support system for complex software applications
JP2000339314A (en) Automatic answering method, dialog analyzing method, answer sentence generating method and their device and medium with their program recorded thereon
US20090144051A1 (en) Method of providing personal dictionary
JP2004212895A (en) System, method and program to support education
US20240080283A1 (en) Information processing system and information processing method
US7383171B2 (en) Semantic stenography using short note input data
US7249011B2 (en) Methods and apparatus for automatic training using natural language techniques for analysis of queries presented to a trainee and responses from the trainee
TWI277948B (en) Method and system for template inquiry dialogue system
JP2020061087A (en) Interactive search system
JP2007265131A (en) Dialog information extraction device, dialog information extraction method, and program
JP2019144755A (en) Dialog management server, dialog management method, and program
KR102281642B1 (en) System for providing question for english study through user equipment
JP2004118856A (en) Information retrieval method and information retrieval system using agent
Boroghina et al. Conversational Agent in Romanian for Storing User Information in a Knowledge Graph.
CN113422875B (en) Voice seat response method, device, equipment and storage medium
JP7475922B2 (en) Knowledge information creation support device
JP2002014751A (en) On-line help system
Latha et al. Automated Interview Evaluation
TW202409856A (en) System and method for providing recommendation knowledge

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230228