JP2013025609A - Explanation support system, explanation support method and explanation support program - Google Patents
Explanation support system, explanation support method and explanation support program Download PDFInfo
- Publication number
- JP2013025609A JP2013025609A JP2011160626A JP2011160626A JP2013025609A JP 2013025609 A JP2013025609 A JP 2013025609A JP 2011160626 A JP2011160626 A JP 2011160626A JP 2011160626 A JP2011160626 A JP 2011160626A JP 2013025609 A JP2013025609 A JP 2013025609A
- Authority
- JP
- Japan
- Prior art keywords
- explanation
- display
- recognition result
- word
- keyword
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 142
- 239000000463 material Substances 0.000 claims description 49
- 238000013500 data storage Methods 0.000 claims description 35
- 230000006870 function Effects 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 34
- 238000000605 extraction Methods 0.000 abstract description 16
- 230000008030 elimination Effects 0.000 abstract 1
- 238000003379 elimination reaction Methods 0.000 abstract 1
- 238000012790 confirmation Methods 0.000 description 51
- 238000004891 communication Methods 0.000 description 30
- 238000012546 transfer Methods 0.000 description 26
- 238000001514 detection method Methods 0.000 description 16
- 230000014509 gene expression Effects 0.000 description 8
- 230000001360 synchronised effect Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000008033 biological extinction Effects 0.000 description 4
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、コンピュータ端末を利用して行なわれる説明を支援するための説明支援システム、説明支援方法及び説明支援プログラムに関する。 The present invention relates to an explanation support system, an explanation support method, and an explanation support program for supporting an explanation performed using a computer terminal.
営業活動等において商品説明を行なう場合、表現等に注意しなければならない場合がある(例えば、特許文献1を参照。)。例えば、金融商品の販売においては、各種リスクや権利行使・中途解約等の制限等の重要事項について購入希望者に説明する必要がある。通常、このような商品は、購入希望者と対面して商品のリスク等の重要事項を説明する。 When explaining a product in a sales activity or the like, there are cases where attention must be paid to the expression or the like (see, for example, Patent Document 1). For example, in the sale of financial products, it is necessary to explain to buyers important matters such as various risks and restrictions such as the exercise of rights and cancellation of mid-term. Usually, such products face important buyers and explain important matters such as product risks.
また、コールセンタにおけるオペレータが使う表現の不適切性を指摘するためのオペレータ業務支援方法も検討されている(例えば、特許文献2を参照。)。この文献に記載された技術では、入力された音声をテキストに変換する音声認識を行なう。そして、キーワードを記憶させた言い換え規則記憶手段から、テキストデータに含まれるキーワードを検出し、検出情報を出力する。 Also, an operator work support method for pointing out the inappropriateness of expressions used by operators in a call center has been studied (see, for example, Patent Document 2). The technique described in this document performs speech recognition that converts input speech into text. And the keyword contained in text data is detected from the paraphrase rule memory | storage means which memorize | stored the keyword, and detection information is output.
特許文献に記載されているように、商品説明においては、各種表現に注意したり、説明義務がある項目に注意したりする必要がある。このような場合、タイムリーに注意喚起する必要がある。 As described in the patent literature, in the product description, it is necessary to pay attention to various expressions and to pay attention to items that have an obligation to explain. In such a case, it is necessary to call attention in a timely manner.
また、管理者等の第三者が、担当者の表現を確認した方がよい場合もある。この場合には、第三者が説明時の状況を的確に把握する必要がある。更に、状況把握の負担が軽いことが望ましい。 In addition, it may be better for a third party such as an administrator to confirm the expression of the person in charge. In this case, it is necessary for a third party to accurately grasp the situation at the time of explanation. Furthermore, it is desirable that the burden of grasping the situation is light.
本発明は、上記問題点を解決するためになされたものであり、コンピュータ端末を利用して行なわれる説明を支援するための説明支援システム、説明支援方法及び説明支援プログラムを提供することにある。 The present invention has been made to solve the above-described problems, and provides an explanation support system, an explanation support method, and an explanation support program for supporting an explanation performed using a computer terminal.
上記問題点を解決するために、請求項1に記載の発明は、説明資料ファイルと、前記説明資料ファイルに関連付けられて、キーワードが記録されたチェックリストとを記憶したデータ記憶手段と、前記説明資料ファイルを表示するディスプレイと、音声認識結果を記録する認識結果記憶手段と、バックヤード端末に接続された制御手段とを備えたコンピュータ端末を備えた説明支援システムであって、前記制御手段が、前記ディスプレイに表示された説明資料ファイルに基づいてチェックリストを特定する手段と、集音した音声を音声認識によりテキストに変換した音声認識結果を前記認識結果記憶手段に記録する手段と、前記音声認識結果において、前記チェックリストに含まれるキーワードを検知した場合には、検知したキーワードを含めたメッセージを前記ディスプレイに表示するとともに、前記認識結果記憶手段から前記キーワードの集音時期の音声認識結果を抽出し、前記バックヤード端末に説明状況を送信する手段とを備えたことを要旨とする。
In order to solve the above-mentioned problem, the invention described in
請求項2に記載の発明は、請求項1に記載の説明支援システムにおいて、前記キーワードは、説明時に使用を避けるNGワードであり、前記制御手段が、前記ディスプレイに、前記NGワードに対応した注意喚起メッセージを出力することを要旨とする。 According to a second aspect of the present invention, in the explanation support system according to the first aspect, the keyword is an NG word that is avoided during the explanation, and the control means has a caution corresponding to the NG word on the display. The gist is to output an alert message.
請求項3に記載の発明は、請求項2に記載の説明支援システムにおいて、前記制御手段が、前記ディスプレイに表示された注意喚起メッセージに対して、検知したNGワードに対する対応済み入力が行なわれた場合、前記対応済み入力された時期までの音声認識結果をバックヤード端末に送信する手段を更に備えたことを要旨とする。 According to a third aspect of the present invention, in the explanation support system according to the second aspect of the present invention, an input corresponding to the detected NG word is performed by the control means in response to the alert message displayed on the display. In this case, the gist of the present invention is further provided with means for transmitting the speech recognition result up to the corresponding input time to the backyard terminal.
請求項4に記載の発明は、請求項2又は3に記載の説明支援システムにおいて、前記NGワードは、複数のキーワードの組み合わせから構成され、前記制御手段が、前記ディスプレイに、前記NGワードに対応した注意喚起メッセージを出力することを要旨とする。
The invention according to
請求項5に記載の発明は、請求項1〜4のいずれか一つに記載の説明支援システムにおいて、前記制御手段が、前記バックヤード端末から、前記説明状況に応じた支援情報を受信した場合には、前記ディスプレイに支援情報を出力する手段を更に備えたことを要旨とする。 According to a fifth aspect of the present invention, in the explanation support system according to any one of the first to fourth aspects, the control means receives support information corresponding to the explanation situation from the backyard terminal. The gist of the invention is that it further includes means for outputting support information to the display.
請求項6に記載の発明は、請求項1〜5のいずれか一つに記載の説明支援システムにおいて、前記キーワードは、説明が必要な項目についてのキーワードであり、前記制御手段が、前記チェックリストを、前記ディスプレイに表示する手段を更に備え、前記音声認識結果に基づいて、前記ディスプレイに表示されたチェックリストに含まれるキーワードに関連する項目を消し込むことを要旨とする。 According to a sixth aspect of the present invention, in the explanation support system according to any one of the first to fifth aspects, the keyword is a keyword for an item that needs to be explained, and the control means includes the check list. Is displayed on the display, and an item related to the keyword included in the check list displayed on the display is erased based on the voice recognition result.
請求項7に記載の発明は、説明資料ファイルと、前記説明資料ファイルに関連付けられて、キーワードが記録されたチェックリストとを記憶したデータ記憶手段と、前記説明資料ファイルを表示するディスプレイと、音声認識結果を記録する認識結果記憶手段と、バックヤード端末に接続された制御手段とを備えたコンピュータ端末を備えた説明支援システムを用いて、説明支援を行なう方法であって、前記制御手段が、前記ディスプレイに表示された説明資料ファイルに基づいてチェックリストを特定する段階と、集音した音声を音声認識によりテキストに変換した音声認識結果を前記認識結果記憶手段に記録する段階と、前記音声認識結果において、前記チェックリストに含まれるキーワードを検知した場合には、検知したキーワードを含めたメッセージを前記ディスプレイに表示するとともに、前記認識結果記憶手段から前記キーワードの集音時期の音声認識結果を抽出し、前記バックヤード端末に説明状況を送信する段階とを実行することを要旨とする。 According to a seventh aspect of the present invention, there is provided a data storage means for storing an explanatory material file, a check list associated with the explanatory material file and recorded with a keyword, a display for displaying the explanatory material file, an audio A method for providing explanation support using an explanation support system comprising a computer terminal comprising a recognition result storage means for recording a recognition result and a control means connected to a backyard terminal, wherein the control means comprises: Identifying a checklist based on the explanatory material file displayed on the display, recording a voice recognition result obtained by converting the collected voice into text by voice recognition in the recognition result storage means, and the voice recognition In the result, if a keyword included in the checklist is detected, the detected keyword is And a step of extracting a voice recognition result of the keyword sound collection time from the recognition result storage means and transmitting an explanation status to the backyard terminal. To do.
請求項8に記載の発明は、説明資料ファイルと、前記説明資料ファイルに関連付けられて、キーワードが記録されたチェックリストとを記憶したデータ記憶手段と、前記説明資料ファイルを表示するディスプレイと、音声認識結果を記録する認識結果記憶手段と、バックヤード端末に接続された制御手段とを備えたコンピュータ端末を備えた説明支援システムを用いて、説明支援を行なうためのプログラムであって、前記制御手段を、前記ディスプレイに表示された説明資料ファイルに基づいてチェックリストを特定する手段、集音した音声を音声認識によりテキストに変換した音声認識結果を前記認識結果記憶手段に記録する手段、前記音声認識結果において、前記チェックリストに含まれるキーワードを検知した場合には、検知したキーワードを含めたメッセージを前記ディスプレイに表示するとともに、前記認識結果記憶手段から前記キーワードの集音時期の音声認識結果を抽出し、前記バックヤード端末に説明状況を送信する手段として機能させることを要旨とする。 According to an eighth aspect of the present invention, there is provided data storage means for storing an explanatory material file, a check list associated with the explanatory material file and recorded with a keyword, a display for displaying the explanatory material file, an audio A program for providing explanation support using an explanation support system comprising a computer terminal comprising a recognition result storage means for recording a recognition result and a control means connected to a backyard terminal, the control means Means for specifying a checklist based on the explanatory material file displayed on the display, means for recording a voice recognition result obtained by converting the collected voice into text by voice recognition, in the recognition result storage means, the voice recognition In the result, if a keyword included in the checklist is detected, the detected key Display a message including a message on the display, extract a voice recognition result of the keyword sound collection time from the recognition result storage means, and cause the backyard terminal to function as a means for transmitting an explanation status. The gist.
(作用)
請求項1、7又は8に記載の発明によれば、制御手段が、ディスプレイに表示された説明資料ファイルに基づいてチェックリストを特定する。そして、集音した音声を音声認識によりテキストに変換した音声認識結果を認識結果記憶手段に記録する。そして、音声認識結果において、チェックリストに含まれるキーワードを検知した場合には、検知したキーワードを含めたメッセージをディスプレイに表示するとともに、認識結果記憶手段からキーワードの集音時期の音声認識結果を抽出し、バックヤード端末に説明状況を送信する。これにより、チェックリストを用いて、説明内容を確認することができる。更に、バックヤード端末においては、音声認識結果により説明状況を確認することができる。
(Function)
According to the first, seventh, or eighth aspect of the invention, the control means specifies the check list based on the explanatory material file displayed on the display. Then, the voice recognition result obtained by converting the collected voice into text by voice recognition is recorded in the recognition result storage means. When a keyword included in the checklist is detected in the speech recognition result, a message including the detected keyword is displayed on the display, and the speech recognition result of the keyword sound collection time is extracted from the recognition result storage unit. Then, the explanation status is transmitted to the backyard terminal. As a result, the contents of the explanation can be confirmed using the check list. Further, in the backyard terminal, the explanation status can be confirmed from the voice recognition result.
請求項2に記載の発明によれば、キーワードとして、説明時に使用を避けるNGワードを用いる。そして、制御手段が、NGワードについて注意喚起メッセージを出力する。これにより、NGワードが含まれる場合、注意を喚起して訂正させることができる。 According to the second aspect of the present invention, an NG word that is avoided during the explanation is used as a keyword. And a control means outputs a warning message about NG word. Thus, when an NG word is included, it is possible to call attention and correct it.
請求項3に記載の発明によれば、制御手段が、ディスプレイに表示された注意喚起メッセージに対して、検知したNGワードに対する対応済み入力が行なわれた場合、対応済み入力された時期までの音声認識結果をバックヤード端末に送信する。これにより、バックヤード端末において、対応状況を確認することができる。 According to the third aspect of the present invention, when the control means performs a corresponding input for the detected NG word in response to the alert message displayed on the display, the voice until the time when the corresponding input is performed is performed. The recognition result is transmitted to the backyard terminal. Thereby, a response | compatibility state can be confirmed in a backyard terminal.
請求項4に記載の発明によれば、NGワードは、複数のキーワードの組み合わせから構成されており、制御手段が、ディスプレイに、NGワードに対応した注意喚起メッセージを出力する。これにより、組み合わせによって問題が生じる場合にも対応を促すことができる。 According to the fourth aspect of the present invention, the NG word is composed of a combination of a plurality of keywords, and the control means outputs a warning message corresponding to the NG word on the display. As a result, it is possible to prompt a response even when a problem occurs due to the combination.
請求項5に記載の発明によれば、制御手段が、バックヤード端末から、説明状況に応じた支援情報を受信した場合には、ディスプレイに支援情報を出力する。これにより、バックヤードからの支援を受けて対応することができる。 According to the fifth aspect of the present invention, when the control means receives support information corresponding to the explanation situation from the backyard terminal, the control means outputs the support information on the display. Thereby, it can respond with the support from a backyard.
請求項6に記載の発明によれば、キーワードとして、説明が必要な項目についてのキーワードを用いる。そして、制御手段が、説明が必要な項目についてのチェックリストを、ディスプレイに表示する。そして、音声認識結果に基づいて、ディスプレイに表示されたチェックリストに含まれるキーワードに関連する項目を消し込む。これにより、説明すべき内容を把握することができる。従って、説明が必要な項目について漏れなく説明することができる。 According to the sixth aspect of the present invention, a keyword for an item that needs to be explained is used as a keyword. And a control means displays the check list about the item which needs description on a display. Based on the voice recognition result, items related to the keyword included in the check list displayed on the display are erased. Thereby, the content which should be demonstrated can be grasped | ascertained. Therefore, items that need to be explained can be explained without omission.
本発明によれば、コンピュータ端末を利用して行なわれる説明を支援するための説明支援システム、説明支援方法及び説明支援プログラムを提供することができる。 According to the present invention, it is possible to provide an explanation support system, an explanation support method, and an explanation support program for supporting an explanation performed using a computer terminal.
以下、本発明を具体化した説明支援システムの一実施形態を図1〜図7に従って説明する。本実施形態では、営業担当者が、顧客との対面販売において、説明資料を用いて商品説明を行なう場合を説明する。本実施形態では、図1に示すように、無線通信可能な範囲に設置されたタブレット端末10(第2の端末)、タブレット端末20(第1の端末)を用いる。更に、タブレット端末20は、ネットワークを介してバックヤード端末30に接続される。
Hereinafter, an embodiment of an explanation support system embodying the present invention will be described with reference to FIGS. In the present embodiment, a case will be described in which a salesperson performs product explanation using explanatory materials in face-to-face sales with a customer. In the present embodiment, as illustrated in FIG. 1, a tablet terminal 10 (second terminal) and a tablet terminal 20 (first terminal) installed in a wireless communicable range are used. Furthermore, the
タブレット端末10は、商品説明を受ける顧客が用いるコンピュータ端末(子機)である。一方、タブレット端末20は、商品説明を行なう営業担当者が用いるコンピュータ端末(親機)である。タブレット端末10とタブレット端末20とは、後述するように相互に通信を行なう。通信方式としては、例えば、Bluetooth (登録商標)等を用いることにより、近距離通信を行なう。そして、親機であるタブレット端末20に表示された説明資料を、子機であるタブレット端末10にも表示させて、商品説明を行なう。なお、通信方式は無線通信に限定されるものではなく、有線通信を用いることも可能である。
The tablet terminal 10 is a computer terminal (child device) used by a customer who receives a product description. On the other hand, the
タブレット端末10は、図1に示すように、制御部11、データ記憶部12、タッチパネルディスプレイ15、マイク16、無線通信部17を備えている。一方、タブレット端末20は、制御部21、データ記憶部22、タッチパネルディスプレイ25、マイク26、無線通信部27を備えている。
As illustrated in FIG. 1, the tablet terminal 10 includes a control unit 11, a
タッチパネルディスプレイ(15、25)は入出力手段として機能し、ディスプレイ上に情報を出力するとともに、ディスプレイ表面へのタッチを検知した場合、タッチ位置(座標)を特定して各種操作処理(ポインティング処理、キー入力処理等)を行なう。 The touch panel display (15, 25) functions as an input / output means, outputs information on the display, and when a touch on the display surface is detected, specifies a touch position (coordinate) and performs various operation processes (pointing process, Key input processing).
図3に示すように、タッチパネルディスプレイ15には同期エリア151、タッチパネルディスプレイ25には同期エリア251が設定される。タッチパネルディスプレイ25の同期エリア251に表示されている内容が、タッチパネルディスプレイ15の同期エリア151(同期画面)に拡大されて表示される。本実施形態では、同期エリア(151、251)には、説明資料ファイルが表示される。同期エリア251のフレームをタッチした状態でスライドさせた場合、フレームを水平移動させる制御を行なう。これにより、同期エリア251の全体移動や拡大、縮小を行なうことができる。
As shown in FIG. 3, a
更に、タブレット端末20のタッチパネルディスプレイ25の同期エリア251においてタッチされた位置a1(第1ポインタ位置)は、後述するようにタブレット端末10のタッチパネルディスプレイ15上に、親機ポインタb1(第1ポインタ表示)が表示される。また、タブレット端末10のタッチパネルディスプレイ15においてタッチされた位置b2(第2ポインタ位置)は、後述するようにタブレット端末20のタッチパネルディスプレイ25上に、子機ポインタa2(第2ポインタ表示)として表示される。
Further, a position a1 (first pointer position) touched in the
更に、タッチパネルディスプレイ25において、同期エリア251以外の画面領域には、同期開始ボタン252、同期停止ボタン253、説明義務リスト表示エリア254、バックヤード支援要請ボタン255、バックヤードメッセージエリア256等が表示される。
Further, on the
同期開始ボタン252は、同期エリア251の表示内容を同期エリア151に表示させる同期処理の開始を指示するアイコンである。一方、同期停止ボタン253は同期処理の停止を指示するアイコンである。
The
説明義務リスト表示エリア254には、説明資料ファイルを用いた商品説明において、説明すべき項目が列挙された説明義務リストが表示される。そして、この説明義務リスト表示エリア254において、説明済みの項目については、消込表示が行なわれる。
The explanation obligation
バックヤード支援要請ボタン255は、バックヤード端末30を利用している管理者に支援を要請するためのアイコンである。このバックヤード端末30から、管理者からのメッセージを受信した場合、タッチパネルディスプレイ25のバックヤードメッセージエリア256に表示される。
The backyard
マイク(16、26)は集音手段として機能する。ここでは、マイク16では主に顧客の音声、マイク26では主に営業担当者の音声を集音する。
無線通信部(17、27)は、通信可能な距離範囲内に存在する他の通信端末との間で、上述の通信方式により無線通信を行なう。この無線通信部(17、27)は、ペアリングにより他の通信端末と通信するための端末識別子に関するデータを保持している。
The microphones (16, 26) function as sound collecting means. Here, the microphone 16 mainly collects customer's voice and the
The wireless communication units (17, 27) perform wireless communication with other communication terminals existing within a communicable distance range by the above-described communication method. The wireless communication units (17, 27) hold data relating to terminal identifiers for communicating with other communication terminals by pairing.
子機であるタブレット端末10の制御部11は、制御手段(CPU、RAM、ROM等)を備え、後述する処理(画面操作段階、表示制御段階、録画段階、ポインタ転送段階、録音段階等の各処理等)を行なう。そのための説明支援プログラム(子機用)を実行することにより、制御部11は、図2に示すように、画面操作手段110、表示制御手段111、録画手段113、ポインタ転送手段114、録音手段115として機能する。 The control unit 11 of the tablet terminal 10 that is a slave unit includes control means (CPU, RAM, ROM, etc.), and each of the processes (screen operation stage, display control stage, recording stage, pointer transfer stage, recording stage, etc.) to be described later. Process). By executing the explanation support program (for the slave unit) for that purpose, the control unit 11, as shown in FIG. 2, displays the screen operation means 110, the display control means 111, the recording means 113, the pointer transfer means 114, and the recording means 115. Function as.
画面操作手段110は、タッチパネルディスプレイ15におけるタッチ操作による入力情報を取得する処理を実行する。
表示制御手段111は、タッチパネルディスプレイ15の表示を制御する処理を実行する。本実施形態では、タブレット端末20から同期エリア251の画面データを取得し、タブレット端末10のタッチパネルディスプレイ15の同期エリア151に表示する。表示制御手段111は、この同期エリア151を、タッチパネルディスプレイ15上において可能な範囲で大きく表示させる。具体的には、同期エリア251と相似形状の同期エリア151を生成するとともに、同期エリア151の横幅又は高さが、タッチパネルディスプレイ15の横幅又は高さに一致するように表示する。
The screen operation means 110 executes processing for acquiring input information by a touch operation on the
The display control unit 111 executes processing for controlling display on the
録画手段113は、タッチパネルディスプレイ15に表示された画面を、定期的にキャプチャしたキャプチャ画像データを生成する。そして、表示時刻情報に関連付けて、録画ファイルとしてデータ記憶部12に記録する処理を実行する。この録画手段113は、タブレット端末10とタブレット端末20との間で画面同期処理が行なわれている期間中、録画ファイルを記録する。
The
ポインタ転送手段114は、タッチパネルディスプレイ15にタッチされた位置b2を特定し、この位置情報を親機のタブレット端末20に送信する処理を実行する。ここでは、同期エリア151における相対位置を特定する座標情報を転送する。例えば、同期エリア151の横幅及び高さに対する比率によって表現された座標情報を用いる。
The pointer transfer means 114 executes a process of specifying the position b2 touched on the
録音手段115は、マイク16を用いて集音した音声を用いて録音ファイルを生成し、録音時刻情報に関連付けて、データ記憶部12に記録する処理を実行する。この録音手段115は、タブレット端末20から取得した説明開始指示から説明終了指示までの期間中、録音ファイルを記録する。
The
データ記憶部12には、録音ファイル、録画ファイルが記録される。本実施形態では、録音手段115によって生成された録音ファイルや、録画手段113によって生成された録画ファイルが記録される。録画ファイル領域は録画データ記憶手段として機能する。そして、録音ファイル領域や録画ファイル領域には、時刻に関する情報(録音時刻、表示時刻情報)が関連付けられた音声データや録画データが記録される。
In the
親機であるタブレット端末20の制御部21は、制御手段(CPU、RAM、ROM等)を備え、後述する処理(画面操作段階、表示制御段階、同期エリア設定段階、画面転送段階、ポインタ転送段階等の各処理等)を行なう。そのための説明支援プログラム(親機用)を実行することにより、制御部21は、図2に示すように、画面操作手段210、表示制御手段211、同期エリア設定手段212、画面転送手段213、ポインタ転送手段214として機能する。更に、制御部21は、後述する処理(録音段階、キーワード抽出段階、NGワード確認段階、説明義務確認段階、バックヤード連絡段階等の各処理等)を行なう。そして、制御部21は、図2に示すように、録音手段215、キーワード抽出手段216、NGワード確認手段217、説明義務確認手段218、バックヤード連絡手段219として機能する。
The
画面操作手段210は、タッチパネルディスプレイ25におけるタッチ操作による画面操作を制御する処理を実行する。
表示制御手段211は、タッチパネルディスプレイ25における表示を制御する処理を実行する。
The
The
同期エリア設定手段212は、タッチパネルディスプレイ25において指定された同期表示領域(同期エリア251)を特定する処理を実行する。同期エリア設定手段212は、タッチパネルディスプレイ25において指定された同期エリア251の座標に関するデータを記憶する。この同期エリア251内に表示された画像が、子機のタブレット端末10のタッチパネルディスプレイ15に表示される。
The synchronization
画面転送手段213は、同期エリア251内に表示された内容(画像データ)を、タブレット端末10に転送する処理を実行する。
ポインタ転送手段214は、タッチパネルディスプレイ25においてタッチされた位置a1の位置情報をタブレット端末10に転送する処理を実行する。ここでは、同期エリア251における相対位置を特定する座標情報を転送する。例えば、同期エリア251の横幅及び高さに対する比率によって表現された座標情報を用いる。
The
The
録音手段215は、マイク26によって集音された音声を用いて録音ファイルを生成し、データ記憶部22に記録する処理を実行する。
キーワード抽出手段216は、マイク26によって集音された音声の音声認識処理により、テキストに変換した音声認識結果をデータ記憶部22に記録する処理を実行する。そして、キーワード抽出手段216は、音声認識結果と、データ記憶部22の説明義務リスト及びNGワードリストに記録されたキーワードとをマッチングする処理(キーワードスポッティング処理)を実行する。
The
The
NGワード確認手段217は、キーワードスポッティングされたテキストを用いて、発言の中で含まれるNGワードを特定する処理を実行する。更に、NGワード確認手段217は、NGワードに対する対応状況に応じて、バックヤード端末30に通知の要否を判定するためのNGワード通知判定基準時間に関するデータを保持している。更に、NGワード確認手段217は、バックヤード端末30に送信する録音データの録音期間(所定時間)に関するデータを保持している。
The NG
説明義務確認手段218は、キーワードスポッティングされたテキストを用いて、説明すべき内容の説明状況を確認する処理を実行する。更に、説明義務確認手段218は、説明義務項目の消込状況に応じて、バックヤード端末30に通知の要否を判定するための説明義務通知判定基準時間に関するデータを保持している。更に、説明義務確認手段218は、バックヤード端末30に送信する録音データの録音期間(所定時間)に関するデータを保持している。
バックヤード連絡手段219は、バックヤード端末30に、説明状況(説明義務項目の消込状況やNGワードの対応状況)を通知する処理を実行する。
The explanation obligation confirmation means 218 executes processing for confirming the explanation status of the contents to be explained using the text spotted by the keyword. Furthermore, the accountability confirmation means 218 holds data related to the accountability notification determination reference time for determining whether the
The backyard contact means 219 executes processing for notifying the
データ記憶部22には、説明資料ファイル、説明義務リスト、NGワードリスト、確認対象データ、録音ファイル、音声認識結果ファイルが記録される。本実施形態では、説明義務リスト及びNGワードリストが、キーワードが記録されたチェックリストとして機能する。
The
説明資料ファイル領域には、商品説明において用いる文書ファイルが記録される。本実施形態では、スライド形式のファイルを用いる。この説明資料ファイルには、説明対象の商品を特定する商品コードや商品名を関連付けられて記録されている。 A document file used in the product description is recorded in the explanation material file area. In this embodiment, a slide format file is used. In the explanation material file, a merchandise code and a merchandise name for specifying a merchandise to be explained are associated and recorded.
説明義務リスト領域には、商品コードに関連付けられた説明義務リストが記録されている。説明義務リストには、この商品コードの商品の説明時に説明する必要がある項目のキーワードが記録されている。説明すべき項目が複数ある場合には、すべての項目に対応するキーワードが記録されている。 The accountability list associated with the product code is recorded in the accountability list area. In the explanation obligation list, keywords of items that need to be explained at the time of explanation of the commodity of this commodity code are recorded. When there are a plurality of items to be explained, keywords corresponding to all items are recorded.
NGワードリスト領域には、商品説明時に使用を避ける単語等、注意すべき表現に含まれるキーワード(NGワード)が記録されている。
確認対象データ領域には、商品説明の対象商品の説明義務リストや、検知したNGワードが仮記憶される。この説明義務リストには、説明資料ファイルがオープンされた時刻(説明開始時刻)に関するデータが関連付けられて記録される。更に、説明義務リストの各項目には、音声認識においてキーワードを検知した時刻(確認時刻)に関するデータが関連付けられて記録される。また、NGワードには、NGワードを検知した検知時刻に関するデータが関連付けられて記録される。更に、対応済み入力が行なわれた場合には、NGワードに対して対応時刻に関するデータが関連付けられて記録される。
In the NG word list area, keywords (NG words) included in expressions that should be noted, such as words that should not be used during product descriptions, are recorded.
In the confirmation target data area, the explanation obligation list of the target product of the product description and the detected NG word are temporarily stored. In this explanation obligation list, data relating to the time when the explanation material file is opened (explanation start time) is recorded in association with each other. Furthermore, each item in the explanation obligation list is associated with data related to the time (confirmation time) when the keyword is detected in the voice recognition. In addition, data relating to the detection time at which the NG word is detected is associated with the NG word and recorded. Further, when a corresponding input is made, data relating to the corresponding time is recorded in association with the NG word.
録音ファイル領域は録音データ記憶手段として機能する。そして、録音ファイル領域には、録音手段215によって生成された録音ファイルが記録される。録音ファイルには、音声を集音した時刻に関する情報(録音時刻情報)が関連付けられて、音声データが記録される。
The recording file area functions as recording data storage means. The recording file generated by the
音声認識結果ファイル領域は、認識結果記憶手段として機能する。そして、音声認識結果ファイル領域には、音声認識処理により、音声をテキストに変換した認識結果ファイルが記録される。音声認識結果ファイルには、テキストを生成した音声を集音した時刻(集音時期)に関する情報が関連付けられて、音声データが記録される。 The voice recognition result file area functions as a recognition result storage unit. In the voice recognition result file area, a recognition result file obtained by converting voice into text by voice recognition processing is recorded. Information related to the time (sound collection time) when the sound that generated the text is collected is associated with the voice recognition result file, and the voice data is recorded.
バックヤード端末30は、営業担当者を支援する管理者が用いるコンピュータ端末である。このバックヤード端末30には、ディスプレイ等の出力手段や、マイク、ポインティングデバイスやキーボードからなる入力手段を備える。更に、バックヤード端末30は、マイクにより集音した音声をテキスト化する音声認識手段を備える。
The
次に、この説明支援システムにおける動作を、図4〜図7を用いて説明する。ここでは、画面連携処理、キーワード対応処理、NGワード対応処理、バックヤード支援処理の順番に説明する。 Next, the operation of this explanation support system will be described with reference to FIGS. Here, the screen cooperation process, the keyword handling process, the NG word handling process, and the backyard support process will be described in this order.
(画面連携処理)
まず、画面連携処理を、図4を用いて説明する。この処理は、顧客と対面して商品説明を行なう場合に行なわれる。この場合、無線通信部(17、27)を介して、タブレット端末10とタブレット端末20とをペアリングしておく。
(Screen linkage processing)
First, the screen cooperation process will be described with reference to FIG. This process is performed when a product explanation is given in the face of a customer. In this case, the tablet terminal 10 and the
そして、タブレット端末20の制御部21は、説明開始処理を実行する(ステップS1−1)。具体的には、営業担当者が、顧客に対して商品説明を行なう場合、タブレット端末20において説明支援プログラムを起動し、説明開始指示を入力する。そして、営業担当者は、タブレット端末20のデータ記憶部22に格納された説明資料ファイルの中から、商品説明に用いる説明資料ファイルのアイコンを選択する。この場合、制御部21の画面操作手段210は、アイコンに対応する説明資料ファイルの展開処理を行なう。そして、表示制御手段211は、タッチパネルディスプレイ25上に、説明資料ファイルを表示する。
And the
説明開始指示の入力を検知したタブレット端末20の制御部21は、録音処理を実行する(ステップS1−2)。具体的には、制御部21の録音手段215は、マイク26において集音を開始する。そして、録音手段215は、録音時刻に関連付けて、集音した音声の録音ファイルを生成し、データ記憶部22に記録する。更に、録音手段215は、タブレット端末10に対して、無線通信部27を介して、録音開始指示を送信する。
The
無線通信部17を介して、録音開始指示を受信したタブレット端末10の制御部11は、録音処理を実行する(ステップS1−3)。具体的には、制御部11の録音手段115は、マイク16において集音を開始する。そして、録音手段115は、録音時刻に関連付けて、集音した音声の録音ファイルを生成し、データ記憶部12に記録する。
The control unit 11 of the tablet terminal 10 that has received the recording start instruction via the
なお、営業担当者が、顧客に対する商品説明を終了する場合、タブレット端末20において説明終了を入力する。この場合、録音手段215は、録音処理(ステップS1−2)を終了するとともに、タブレット端末10に対して、無線通信部27を介して、録音終了指示を送信する。そして、録音手段115も、録音処理(ステップS1−3)を終了する。
When the sales representative ends the product description for the customer, the
次に、タブレット端末20の制御部21は、同期エリアの設定処理を実行する(ステップS1−4)。具体的には、制御部21の同期エリア設定手段212は、タッチパネルディスプレイ25に、同期エリアの設定を促すメッセージを出力する。この場合、営業担当者は、タッチパネルディスプレイ25上に、同期エリアを特定するための座標を入力する。本実施形態では、タッチパネルディスプレイ25において、同期エリアの始点と終点となる位置をタッチすることにより、両点を対角線上に有する矩形領域を同期エリア251として設定する。例えば、商品説明において、タッチパネルディスプレイ25に表示された説明資料ファイル全体を用いる場合には、説明資料ファイルが表示された領域を同期エリア251として設定する。また、商品説明において、説明資料ファイルの表示の一部を用いて説明する場合には、説明に用いる部分を同期エリア251として設定する。また、設定した同期エリア251を、縮小や拡大、スライド移動させる場合には、同期エリア251のフレームにタッチしてスライドさせる。
Next, the
次に、タブレット端末20の制御部21は、同期開始処理を実行する(ステップS1−5)。具体的には、制御部21の同期エリア設定手段212は、タッチパネルディスプレイ25上において、同期エリア251以外の領域に、同期開始ボタン252と同期停止ボタン253とを表示する。ここで、画面操作手段210が同期開始ボタン252の選択を検知した場合、画面転送手段213に対して、同期処理の開始を指示する。
Next, the
そして、タブレット端末20の制御部21は、画面同期処理を実行する(ステップS1−6)。具体的には、制御部21の画面転送手段213は、同期エリア251に表示されている内容(画面データ)を、無線通信部27を介してタブレット端末10に転送する。この画面同期処理は、同期停止ボタン253が選択されるまで継続して行なわれる。
And the
無線通信部17を介して画面データを受信したタブレット端末10の制御部11は、画面表示処理を実行する(ステップS1−7)。具体的には、制御部11の表示制御手段111は、画面データのサイズに合わせて、タッチパネルディスプレイ15に同期エリア151を設定する。本実施形態では、上述したように、タッチパネルディスプレイ15の横幅又は高さと一致するように同期エリア151として設定する。そして、表示制御手段111は、タブレット端末20から取得した画面データを、タッチパネルディスプレイ15上の同期エリア151に表示する。
The control unit 11 of the tablet terminal 10 that has received the screen data via the
更に、タブレット端末10の制御部11は、画面録画処理を実行する(ステップS1−8)。具体的には、制御部11の録画手段113は、タッチパネルディスプレイ15に表示された内容を定期的にキャプチャした録画ファイルを生成し、表示時刻に関連付けてデータ記憶部12に記録する。
Furthermore, the control part 11 of the tablet terminal 10 performs a screen recording process (step S1-8). Specifically, the
商品説明を中断や終了する場合、タブレット端末20の制御部21は、同期停止処理を実行する(ステップS1−9)。具体的には、制御部21の画面操作手段210が、同期停止ボタン253の選択を検知した場合、画面転送手段213に対して、画面転送の停止を指示する。再度、同期させる場合には、同期開始ボタン252を選択することにより、ステップS1−5以降の処理が繰り返される。更に、画面転送手段213は、タブレット端末10に対して録画停止指示を送信する。
When the product description is interrupted or terminated, the
録画停止指示を受信したタブレット端末10の制御部11は、録画停止処理を実行する(ステップS1−10)。具体的には、制御部11の録画手段113は、録画ファイルの記録を停止する。
The control unit 11 of the tablet terminal 10 that has received the recording stop instruction executes a recording stop process (step S1-10). Specifically, the
また、画面同期処理(ステップS1−6)中においては、営業担当者は、必要に応じて説明資料ファイルの所定箇所を指差して説明する。この場合、タブレット端末20の制御部21は、画面上での指示検知処理を実行する(ステップS1−11)。具体的には、制御部21の画面操作手段210が、同期エリア251上でタッチを検知する。この場合、画面操作手段210は、この位置a1にポインタを表示する。そして、画面操作手段210が、同期エリア251上のタッチ位置(座標)をポインタ転送手段214に通知する。
Further, during the screen synchronization process (step S1-6), the salesperson points to a predetermined location of the explanation material file as necessary and explains. In this case, the
この場合、タブレット端末20の制御部21は、指示位置の通知処理を実行する(ステップS1−12)。具体的には、制御部21のポインタ転送手段214は、タッチ位置について、同期エリア251上の相対座標を特定する。そして、ポインタ転送手段214は、無線通信部27を介して、ポインタ表示指示をタブレット端末10に送信する。このポインタ表示指示には、特定した位置情報(相対座標)を含める。
In this case, the
無線通信部17を介して、ポインタ表示指示を受信したタブレット端末10の制御部11は、ポインタ表示処理を実行する(ステップS1−13)。具体的には、制御部11の表示制御手段111は、同期エリア151において、タブレット端末20から取得した位置情報に対応する座標(同期エリア251上と相対した位置)に親機ポインタb1を表示する。このように表示された親機ポインタb1も、画面録画処理(ステップS1−8)において、録画ファイルに記録される。
The control unit 11 of the tablet terminal 10 that has received the pointer display instruction via the
また、顧客が、必要に応じて説明資料ファイルの所定箇所を指差すこともある。この場合、タブレット端末10の制御部11は、画面上での指示検知処理を実行する(ステップS1−14)。具体的には、制御部11の画面操作手段110が、同期エリア151上でタッチを検知する。この場合、画面操作手段110は、この位置b2にポインタを表示する。そして、画面操作手段110が、同期エリア151上のタッチ位置(座標)をポインタ転送手段114に通知する。この位置b2に表示されたポインタも、画面録画処理(ステップS1−8)において、録画ファイルに記録される。
Further, the customer may point to a predetermined part of the explanation material file as necessary. In this case, the control unit 11 of the tablet terminal 10 executes an instruction detection process on the screen (step S1-14). Specifically, the
この場合、タブレット端末10の制御部11は、指示位置の通知処理を実行する(ステップS1−15)。具体的には、制御部11のポインタ転送手段114は、タッチ位置について、同期エリア151上の相対座標を特定する。そして、ポインタ転送手段114は、無線通信部17を介して、ポインタ表示指示をタブレット端末20に送信する。このポインタ表示指示には、特定した位置情報(相対座標)を含める。
In this case, the control unit 11 of the tablet terminal 10 executes a notification process of the designated position (step S1-15). Specifically, the
無線通信部27を介して、ポインタ表示指示を受信したタブレット端末20の制御部21は、ポインタ表示処理を実行する(ステップS1−16)。具体的には、制御部21の表示制御手段211は、同期エリア251において、タブレット端末10から取得した位置情報に対応する座標(同期エリア151上と相対した位置)に、子機ポインタa2を出力する。
The
(キーワード対応処理)
次に、キーワード対応処理を、図5を用いて説明する。このキーワード対応処理は、営業担当者が、タブレット端末20を用いて、商品説明を行なっている場合に実行される。
(Keyword handling process)
Next, the keyword correspondence processing will be described with reference to FIG. This keyword handling process is executed when the sales representative is explaining the product using the
ここでは、タブレット端末20の制御部21は、説明義務リストの特定処理を実行する(ステップS2−1)。具体的には、制御部21の説明義務確認手段218は、タッチパネルディスプレイ25に表示されている説明資料ファイルの商品コードを特定する。次に、説明義務確認手段218は、データ記憶部22から、この商品コードに関連付けられている説明義務リストを抽出し、確認対象データ領域に記録する。そして、説明義務確認手段218は、確認対象データ領域に記録した説明義務リストに関連付けて、説明開始時刻を記録する。
Here, the
次に、タブレット端末20の制御部21は、説明義務リストの表示処理を実行する(ステップS2−2)。具体的には、制御部21の説明義務確認手段218は、図3に示すように、タッチパネルディスプレイ25上の説明義務リスト表示エリア254に説明義務リストを出力する。この段階では、説明義務リストの全項目が未消込の状態で表示される。
Next, the
次に、タブレット端末20の制御部21は、音声取得処理を実行する(ステップS2−3)。具体的には、制御部21のキーワード抽出手段216は、マイク26において集音した音声を取得する。
Next, the
次に、タブレット端末20の制御部21は、キーワード抽出処理を実行する(ステップS2−4)。具体的には、制御部21のキーワード抽出手段216は、取得した音声の音声認識処理を実行して、テキストに変換する。そして、キーワード抽出手段216は、このテキストを音声認識結果として、集音時刻に関連付けて、データ記憶部22の音声認識結果ファイルに記録する。次に、キーワード抽出手段216は、音声認識したテキストにおいて、形態素解析により、テキストに含まれる単語を特定する。そして、キーワード抽出手段216は、説明対象商品の説明義務リスト(確認対象データ領域に記録された説明義務リスト)及びNGワードリストに記録されているキーワードと、音声認識された単語とを比較する。
Next, the
次に、タブレット端末20の制御部21は、説明義務項目かどうかについての判定処理を実行する(ステップS2−5)。具体的には、制御部21のキーワード抽出手段216は、音声認識されたキーワードが、説明義務リストのキーワードとして記録されている場合には、説明義務項目と判定する。
Next, the
説明義務項目と判定した場合(ステップS2−5において「YES」の場合)、タブレット端末20の制御部21は、説明義務リストの消込処理を実行する(ステップS2−6)。具体的には、制御部21の説明義務確認手段218は、データ記憶部22の確認対象データ領域に記録された説明義務リストにおいて、キーワードを検知した確認時刻を記録する。更に、説明義務確認手段218は、タッチパネルディスプレイ25の説明義務リスト表示エリア254に表示された説明義務リストにおいて、特定したキーワードに対応する項目の消込表示を行なう。そして、ステップS2−3の処理に戻る。
If it is determined that the item is an explanation obligation item (in the case of “YES” in step S2-5), the
一方、説明義務項目でないと判定した場合(ステップS2−5において「NO」の場合)、タブレット端末20の制御部21は、NGワードかどうかについての判定処理を実行する(ステップS2−7)。具体的には、制御部21のキーワード抽出手段216は、音声認識されたキーワードが、NGワードリストのキーワードとして記録されている場合には、NGワードと判定する。
On the other hand, when it is determined that the item is not an explanation obligation item (in the case of “NO” in step S2-5), the
ここで、NGワードでないと判定した場合(ステップS2−7において「NO」の場合)、タブレット端末20の制御部21は、ステップS2−3以降の処理を繰り返す。
一方、NGワードと判定した場合(ステップS2−7において「YES」の場合)、タブレット端末20の制御部21は、NGワード対応処理を実行する(ステップS2−8)。ここでは、検知したNGワードについては、図6に示すNGワード対応処理を実行するととともに、ステップS2−3以降の処理を繰り返す。
Here, when it determines with it not being an NG word (in the case of "NO" in step S2-7), the
On the other hand, if it is determined as an NG word (“YES” in step S2-7), the
そして、タブレット端末20の制御部21は、定期的に説明義務項目の状況確認処理を実行する。
ここでは、タブレット端末20の制御部21は、説明義務リストの消込状況の取得処理を実行する(ステップS2−9)。具体的には、制御部21の説明義務確認手段218は、確認対象データ領域に記録された説明義務リストにおいて、確認時刻の記録状況を取得する。
And the
Here, the
次に、タブレット端末20の制御部21は、未消込の項目が残っているかどうかについての判定処理を実行する(ステップS2−10)。具体的には、制御部21の説明義務確認手段218は、確認時刻が記録されていない項目がある場合には、未消込の項目があると判定する。
Next, the
未消込の項目が残っていない場合(ステップS2−10において「NO」の場合)、タブレット端末20の制御部21は、説明義務項目の状況確認処理を終了する。
一方、未消込の項目が残っている場合(ステップS2−10において「YES」の場合)、タブレット端末20の制御部21は、時間超過かどうかについての判定処理を実行する(ステップS2−11)。具体的には、制御部21の説明義務確認手段218は、システムタイマから現在時刻を取得し、説明開始時刻から現在時刻までの経過時間を算出する。そして、この経過時間と説明義務通知判定基準時間とを比較し、この基準時間を超過しているかどうかを判定する。
When there is no unapplied item remaining (in the case of “NO” in step S2-10), the
On the other hand, when an unapplied item remains (in the case of “YES” in step S2-10), the
説明義務通知判定基準時間を超過していない場合(ステップS2−11において「NO」の場合)には、説明義務リストの消込状況の取得処理を継続する。
一方、説明義務通知判定基準時間を超過していると判定した場合(ステップS2−11において「YES」の場合)、タブレット端末20の制御部21は、注意喚起処理を実行する(ステップS2−12)。具体的には、制御部21の説明義務確認手段218は、説明義務リストにおいて、説明されていない説明義務項目があることを示したメッセージを、タッチパネルディスプレイ25に出力する。更に、説明義務確認手段218は、バックヤード連絡手段219に対して、バックヤード端末30への連絡を指示する。この場合、バックヤード連絡手段219は、バックヤード端末30に対して、説明状況通知を送信する。この説明状況通知には、未消込の項目に関するデータを含める。管理者は、バックヤード端末30において説明状況を確認する。そして、管理者は、バックヤード端末30を用いて、必要に応じて、タブレット端末20にメッセージを送信する。
If the description obligation notification determination reference time has not been exceeded (in the case of “NO” in step S2-11), the process of acquiring the explanation obligation list consumption state is continued.
On the other hand, when it is determined that the explanation obligation notification determination reference time has been exceeded (in the case of “YES” in step S2-11), the
(NGワード対応処理)
次に、NGワード対応処理を、図6を用いて説明する。このNGワード対応処理は、NGワードを検知した場合に実行される。
(NG word processing)
Next, the NG word handling process will be described with reference to FIG. This NG word handling process is executed when an NG word is detected.
ここでは、タブレット端末20の制御部21は、注意喚起の出力処理を実行する(ステップS3−1)。具体的には、制御部21のNGワード確認手段217は、データ記憶部22の確認対象データ領域に、検知したNGワード及び検知時刻を記録する。次に、NGワード確認手段217は、タッチパネルディスプレイ25に注意喚起画面を出力する。この注意喚起画面には、音声認識により検知したNGワードを含める。更に、この注意喚起画面には、NGワード対応ボタンを含める。NGワードに対して的確な説明に訂正し直した場合や、NGワードの誤検出の場合には、このNGワード対応ボタンを選択する。
Here, the
次に、タブレット端末20の制御部21は、対応済みかどうかについての判定処理を実行する(ステップS3−2)。具体的には、制御部21のNGワード確認手段217は、確認対象データ領域に記録されたNGワードにおいて、対応時刻が記録されていないNGワードが残っているかどうかを確認する。
Next, the
対応時刻が記録されておらず、対応済み入力されていないNGワードが残っている場合(ステップS3−2において「NO」の場合)、タブレット端末20の制御部21は、時間超過かどうかについての判定処理を実行する(ステップS3−3)。具体的には、制御部21のNGワード確認手段217は、システムタイマから現在時刻を取得し、NGワードの検知時刻から現在時刻までの経過時間を算出する。そして、この経過時間とNGワード通知判定基準時間とを比較し、この基準時間を超過しているかどうかを判定する。
When the corresponding time is not recorded and there is an NG word that has not been input and has been input (in the case of “NO” in step S3-2), the
NGワード通知判定基準時間を超過していないと判定した場合(ステップS3−3において「NO」の場合)には、ステップS3−2の処理を継続する。
一方、注意喚起画面においてNGワード対応ボタンが選択され、対応済みと判定した場合(ステップS3−2において「YES」の場合)、タブレット端末20の制御部21は、注意喚起の消去処理を実行する(ステップS3−4)。具体的には、制御部21のNGワード確認手段217は、データ記憶部22の確認対象データ領域に記録されたNGワードに関連付けて対応時刻を記録する。
If it is determined that the NG word notification determination reference time has not been exceeded (“NO” in step S3-3), the process of step S3-2 is continued.
On the other hand, when the NG word corresponding button is selected on the alert screen and it is determined that the correspondence has been completed (in the case of “YES” in step S3-2), the
注意喚起の消去処理を実行した後や、NGワード通知判定基準時間を超過している場合(ステップS3−3において「YES」の場合)、タブレット端末20の制御部21は、バックヤード通知処理を実行する(ステップS3−5)。具体的には、制御部21のNGワード確認手段217は、NGワードの検知時刻を特定し、認識結果ファイルにおいて、この検知時刻前後の所定時間の集音時刻範囲(集音時期)の音声認識結果を抽出する。ここで、対応時刻が記録されているNGワードについては、検知時刻の所定時間前から対応時刻までの音声認識結果を抽出する。そして、NGワード確認手段217は、バックヤード連絡手段219に対して、バックヤード端末30への連絡を指示する。この場合、バックヤード連絡手段219は、バックヤード端末30に対して、NGワード通知を送信する。このNGワード通知には、確認対象データ領域に記録されたNGワードに対する対応状況(検知時刻や対応時刻)や、NGワード確認手段217が抽出した音声認識結果を含める。
After executing the alert deletion process or when the NG word notification determination reference time is exceeded (in the case of “YES” in step S3-3), the
次に、バックヤード端末30は、確認処理を実行する(ステップS3−6)。具体的には、NGワード通知を受信したバックヤード端末30は、ディスプレイにNGワード通知を出力する。この場合、バックヤード端末30を利用している管理者は、タブレット端末20から取得したNGワード通知を確認する。更に、管理者は、タブレット端末20から取得した音声認識結果を閲覧して、NGワードの検知状況や、その後の対応を確認する。
Next, the
次に、バックヤード端末30は、必要に応じてメッセージ送信処理を実行する(ステップS3−7)。具体的には、管理者は、NGワードの検知状況や対応状況を確認して、支援が必要と判断した場合にはメッセージを入力する。この場合、バックヤード端末30は、タブレット端末20に、管理者のメッセージを送信する。
Next, the
次に、タブレット端末20の制御部21は、メッセージ表示処理を実行する(ステップS3−8)。具体的には、制御部21の表示制御手段211は、バックヤード端末30から取得したメッセージを、タッチパネルディスプレイ25の同期エリア251以外に設けられたバックヤードメッセージエリア256に出力する。
Next, the
(バックヤード支援処理)
次に、バックヤード支援処理を、図7を用いて説明する。このバックヤード支援処理は、バックヤードが営業担当者に対して支援を行なう場合に実行される。
(Backyard support processing)
Next, the backyard support process will be described with reference to FIG. This backyard support process is executed when the backyard supports the sales staff.
まず、タブレット端末20の制御部21は、バックヤード支援要請の入力処理を実行する(ステップS4−1)。具体的には、制御部21のバックヤード連絡手段219は、タッチパネルディスプレイ25にバックヤード支援要請ボタン255を表示する。そして、画面操作手段210がバックヤード支援要請ボタン255の選択を検知した場合、バックヤード連絡手段219に対して、バックヤード支援要請の検知を通知する。
First, the
次に、タブレット端末20の制御部21は、説明状況情報の抽出処理を実行する(ステップS4−2)。具体的には、制御部21のバックヤード連絡手段219は、データ記憶部22に記録された音声認識結果ファイルから、所定時間を遡った時刻から現在時刻までの時間範囲の音声認識結果を抽出する。
Next, the
次に、タブレット端末20の制御部21は、バックヤード支援要請の送信処理を実行する(ステップS4−3)。具体的には、制御部21のバックヤード連絡手段219は、バックヤード端末30に、バックヤード支援要請を送信する。このバックヤード支援要請には、データ記憶部22の音声認識結果ファイルから抽出した音声認識結果を含める。
Next, the
次に、バックヤード端末30は、確認処理を実行する(ステップS4−4)。具体的には、バックヤード支援要請を受信したバックヤード端末30は、ディスプレイにバックヤード支援要請を出力する。この場合、バックヤード端末30を利用している管理者は、タブレット端末20から取得した音声認識結果を閲覧して、説明状況を確認する。
Next, the
次に、バックヤード端末30は、メッセージ作成処理を実行する(ステップS4−5)。具体的には、バックヤード端末30は、メッセージ入力画面を表示して、テキスト入力を促す。また、バックヤード端末30は、管理者の音声を、マイクを介して取得し、音声認識してテキストを作成するようにしてもよい。
Next, the
次に、バックヤード端末30は、メッセージ送信処理を実行する(ステップS4−6)。具体的には、バックヤード端末30は、支援メッセージ(支援情報)をタブレット端末20に送信する。この支援メッセージには、音声認識により作成されたテキストを含める。更に、商品説明に利用するファイルを、メッセージとともに送信するようにしてもよい。
Next, the
次に、タブレット端末20の制御部21は、メッセージ出力処理を実行する(ステップS4−7)。具体的には、制御部21の表示制御手段211は、バックヤード端末30から取得したメッセージを、タッチパネルディスプレイ25の同期エリア251以外に設けられたバックヤードメッセージエリア256に出力する。また、バックヤード端末30から、商品説明に利用するファイルを受信した場合には、このファイルのアイコンを、同期エリア251以外の領域に表示する。そして、営業担当者は、このメッセージやファイルを確認して、商品説明を継続する。
Next, the
以上、本実施形態によれば、以下に示す効果を得ることができる。
(1)上記実施形態では、タブレット端末20の制御部21は、同期エリアの設定処理を実行する(ステップS1−4)。そして、タブレット端末20の制御部21は、同期開始処理(ステップS1−5)、画面同期処理(ステップS1−6)を実行する。無線通信部17を介して画面データを受信したタブレット端末10の制御部11は、画面表示処理を実行する(ステップS1−7)。この画面同期処理は、同期停止処理(ステップS1−9)まで継続される。これにより、親機であるタブレット端末20のタッチパネルディスプレイ25に表示された内容において、必要部分のみを、子機であるタブレット端末10のタッチパネルディスプレイ25に表示させることができる。
As described above, according to the present embodiment, the following effects can be obtained.
(1) In the embodiment described above, the
(2)上記実施形態では、タブレット端末10の制御部11は、画面録画処理を実行する(ステップS1−8)。これにより、録画ファイルが記録されるので、顧客に対して行なわれた商品の説明状況を把握することができる。 (2) In the above embodiment, the control unit 11 of the tablet terminal 10 executes screen recording processing (step S1-8). Thereby, since the recording file is recorded, it is possible to grasp the explanation state of the product made to the customer.
(3)上記実施形態では、タブレット端末20の制御部21は、画面上での指示検知処理(ステップS1−11)、指示位置の通知処理(ステップS1−12)を実行する。無線通信部17を介して、ポインタ表示指示を受信したタブレット端末10の制御部11は、ポインタ表示処理を実行する(ステップS1−13)。これにより、営業担当者が同期エリア251において指し示した位置を、顧客はタブレット端末10のタッチパネルディスプレイ15上で把握することができる。
(3) In the said embodiment, the
(4)上記実施形態では、タブレット端末10の制御部11は、画面上での指示検知処理(ステップS1−14)、指示位置の通知処理(ステップS1−15)を実行する。無線通信部27を介して、ポインタ表示指示を受信したタブレット端末20の制御部21は、ポインタ表示処理を実行する(ステップS1−16)。これにより、顧客が同期エリア151において指し示した位置を、営業担当者はタブレット端末20のタッチパネルディスプレイ25上で把握することができる。
(4) In the said embodiment, the control part 11 of the tablet terminal 10 performs the instruction | indication detection process (step S1-14) on a screen, and the notification process (step S1-15) of an instruction | indication position. The
(5)上記実施形態では、タブレット端末20の制御部21は、録音処理を実行する(ステップS1−2)。そして、無線通信部17を介して、録音開始指示を受信したタブレット端末10の制御部11は、録音処理を実行する(ステップS1−3)。これにより、営業担当者や顧客の発言を、手元のタブレット端末(10、20)において録音することができる。そして、この録音ファイルを確認することにより、商品の説明状況を把握することができる。
(5) In the said embodiment, the
(6)上記実施形態では、タブレット端末20の制御部21は、説明義務リストの特定処理(ステップS2−1)、説明義務リストの表示処理(ステップS2−2)を実行する。そして、タブレット端末20の制御部21は、音声取得処理(ステップS2−3)、キーワード抽出処理(ステップS2−4)を実行する。キーワードを用いて説明義務項目と判定した場合(ステップS2−5において「YES」の場合)、タブレット端末20の制御部21は、説明義務リストの消込処理を実行する(ステップS2−6)。これにより、タブレット端末20を利用している営業担当者は、商品説明において説明すべき内容を把握することができる。そして、説明義務項目を考慮して、商品説明を行なうことができる。
(6) In the above embodiment, the
(7)上記実施形態では、タブレット端末20の制御部21は、説明義務リストの消込状況の取得処理を実行する(ステップS2−9)。そして、未消込の項目が残っており、説明義務通知判定基準時間に対して時間超過していると判定した場合(ステップS2−10、S2−11において「YES」の場合)、タブレット端末20の制御部21は、注意喚起処理を実行する(ステップS2−12)。これにより、説明義務がある項目についての説明が遅れている場合には、営業担当者に対して注意喚起することができる。
(7) In the above-described embodiment, the
(8)上記実施形態では、NGワード対応処理において、タブレット端末20の制御部21は、注意喚起の出力処理を実行する(ステップS3−1)。これにより、NGワードが含まれている場合には、営業担当者に注意喚起を行なうことができる。
(8) In the above embodiment, in the NG word handling process, the
更に、タブレット端末20の制御部21は、対応済みかどうかについての判定処理を実行する(ステップS3−2)。注意喚起画面においてNGワード対応ボタンが選択され、対応済みと判定した場合(ステップS3−2において「YES」の場合)、タブレット端末20の制御部21は、注意喚起の消去処理(ステップS3−4)、バックヤード通知処理(ステップS3−5)を実行する。これにより、NGワードに対する対応状況を、バックヤード端末30において確認することができる。
Furthermore, the
(9)上記実施形態では、バックヤード支援処理において、タブレット端末20の制御部21は、バックヤード支援要請の入力処理(ステップS4−1)、説明状況情報の抽出処理(ステップS4−2)、バックヤード支援要請の送信処理(ステップS4−3)を実行する。これにより、営業担当者が支援を希望する場合には、バックヤード端末30に支援要請を行なうことができる。バックヤード端末30においては、音声認識結果を確認することにより、説明状況を把握して、支援を行なうことができる。
(9) In the above embodiment, in the backyard support process, the
(10)上記実施形態では、バックヤード端末30はメッセージ作成処理(ステップS4−5)、メッセージ送信処理(ステップS4−6)を実行し、タブレット端末20はメッセージ出力処理(ステップS4−7)を実行する。これにより、バックヤード端末30を用いて、効率的に支援情報を提供することができる。更に、バックヤード端末30からのメッセージは、同期エリア251以外の領域に表示されるため、顧客に知られることなく、メッセージを確認することができる。
(10) In the above embodiment, the
なお、上記実施形態は、以下の態様に変更してもよい。
・ 上記実施形態では、本願発明を商品説明において適用したが、適用範囲は商品説明に限定されるものではなく、2つのディスプレイを用いた説明に応用することができる。また、第1、第2の端末もタブレット端末に限定されるものでなく、例えばノートパソコン等を用いることができる。
In addition, you may change the said embodiment into the following aspects.
In the above embodiment, the present invention is applied in the product description, but the application range is not limited to the product description, and can be applied to the description using two displays. Further, the first and second terminals are not limited to tablet terminals, and for example, a notebook personal computer can be used.
・ 上記実施形態では、データ記憶部22には、NGワードリストが記録される。ここで、説明資料ファイル毎に、NGワードリストを変更するようにしてもよい。この場合には、商品コードに関連付けてNGワードリストをデータ記憶部22に記録しておく。そして、制御部21は、タッチパネルディスプレイ25に表示された説明資料ファイルの商品コードを用いて、NGワードリストを特定する。このNGワードリストを確認対象データ領域に記録し、制御部21は、NGワードかどうかについての判定処理を実行する(ステップS2−7)。これにより、説明内容に応じたNGワードを検知することができる。
In the above embodiment, an NG word list is recorded in the
・ 上記実施形態では、タブレット端末20の制御部21は、画面同期処理を実行する(ステップS1−6)。具体的には、制御部21の画面転送手段213は、同期エリア251に表示されている内容(画面データ)を、無線通信部27を介してタブレット端末10に転送する。これに代えて、タブレット端末10のデータ記憶部12にも説明資料ファイルを格納しておき、この説明資料ファイルを用いて、タブレット端末20の同期エリア251と同期した画面を出力するようにしてもよい。この場合、制御部21は、同期エリア251に表示されている説明資料ファイルのファイル識別子、表示ページ、このページにおいて同期エリア251が設定されている座標に関するデータを含めた同期データを、タブレット端末10に送信する。同期データを受信したタブレット端末10の制御部11は、データ記憶部12に記録されたファイル識別子の説明資料ファイルにおいて、表示ページ、座標により特定される内容を、タッチパネルディスプレイ15上の同期エリア151に表示する。
In the above embodiment, the
・ 上記実施形態のNGワード対応処理において、説明義務項目でないと判定した場合(ステップS2−5において「NO」の場合)、タブレット端末20の制御部21は、NGワードかどうかについての判定処理を実行する(ステップS2−7)。ここで、複数のキーワードを組み合わせて、NGワードと判定することも可能である。具体的には、NGワードリストにおいて、NGワードとして、複数のキーワードを組み合わせて記録しておく。例えば、「絶対に」というキーワードと、「儲かる」や「収益」というキーワードを組み合わせておく。そして、制御部21は、NGワードリストに記録されたキーワードの組み合わせに含まれる一語を検出した場合に、この組み合わせに含まれる他語が所定時間内の発言において検知できるかどうかを判定する。そして、所定時間内の発言において、NGワードリストに記録されたキーワードの組み合わせを検出した場合に、NGワード対応処理を実行する(ステップS2−8)。これにより、キーワードの組み合わせにより、使用すべきでない表現を含む発言を検知することができる。
In the NG word handling process of the above embodiment, when it is determined that the item is not an explanation obligation item (in the case of “NO” in step S2-5), the
更に、NGワードかどうかについての判定処理において、キーワードの前後関係を考慮してもよい。この場合、NGワードリストに、キーワードの組み合わせとともに、前後関係を記録しておく。そして、NGワードリストに記録された前後関係の順番でキーワードを検出した場合、NGワード対応処理を実行する(ステップS2−8)。これにより、キーワードの前後関係により、使用すべきでない表現を含む発言を検知することができる。 Further, in the determination process as to whether or not the word is an NG word, the context of keywords may be taken into consideration. In this case, the context is recorded in the NG word list together with the combination of keywords. When keywords are detected in the order of the context recorded in the NG word list, NG word handling processing is executed (step S2-8). Thereby, it is possible to detect an utterance including an expression that should not be used, based on the context of the keyword.
更に、NGワードかどうかについての判定処理において、発言内容における文章構成を考慮してもよい。この場合、音声認識において検出される文章の区切りにより文章構成を特定する。そして、文章構成(例えば、一文)に、NGワードリストに記録されたキーワードの組み合わせが含まれる場合に、NGワード対応処理を実行する(ステップS2−8)。これにより、キーワードの文章構成により、使用すべきでない表現を含む発言を検知することができる。 Furthermore, in the determination process as to whether or not the word is an NG word, the sentence structure in the content of the statement may be considered. In this case, a sentence structure is specified by a sentence break detected in speech recognition. Then, when the combination of keywords recorded in the NG word list is included in the sentence structure (for example, one sentence), an NG word handling process is executed (step S2-8). As a result, it is possible to detect an utterance including an expression that should not be used, based on the keyword sentence structure.
また、これらのNGワードかどうかについての判定を組み合わせて使用することも可能である。この場合には、NGワードリストにおいて、キーワードに関連付けて、判定方法(1語、組み合わせ、前後関係、文章構成等)を特定する情報を記録しておく。 It is also possible to use a combination of these determinations as to whether the word is an NG word. In this case, in the NG word list, information specifying a determination method (one word, combination, context, sentence structure, etc.) is recorded in association with the keyword.
・ 上記実施形態のNGワード対応処理において、説明義務項目でないと判定した場合(ステップS2−5において「NO」の場合)、タブレット端末20の制御部21は、NGワードかどうかについての判定処理を実行する(ステップS2−7)。ここで、NGワードの重み付けにより、対応処理を変更するようにしてもよい。具体的には、NGワードリストにおいて、NGワードに対して重み付け値を記録しておく。そして、重み付け値が小さいNGワードを検出した場合には、制御部21は、第1の対応処理として、タッチパネルディスプレイ25に注意喚起を出力する。一方、重み付け値が大きい場合には、制御部21は、第1の対応処理として、注意喚起の出力、及びバックヤード端末30への通知を行なう。これにより、NGワードの重要性に応じて、臨機応変に対応することができる。
In the NG word handling process of the above embodiment, when it is determined that the item is not an explanation obligation item (in the case of “NO” in step S2-5), the
・ 上記実施形態では、データ記憶部22には、商品コードに関連付けられた説明義務リストが記録されている。これに代えて、説明資料の頁に対応して、説明義務項目を表示するようにしてもよい。この場合には、説明義務リストにおいて、商品コードに関連付けられた説明資料ファイルの頁に対して、説明義務項目のキーワードを設定しておく。そして、タブレット端末20の制御部21は、タッチパネルディスプレイ25上の同期エリア251に表示された説明資料ファイルの頁に対して、説明義務項目を出力する。これにより、説明資料ファイルの各頁の内容に応じて、説明すべき項目を確認することができる。
In the above embodiment, the
・ 上記実施形態のNGワード対応処理において、タブレット端末20の制御部21は、バックヤード通知処理を実行する(ステップS3−5)。ここでは、バックヤード端末30に対して、検知時刻前後の所定の時間範囲の音声認識結果を送信する。また、バックヤード支援処理において、タブレット端末20の制御部21は、説明状況情報の抽出処理を実行する(ステップS4−2)。ここでは、所定時間を遡った時刻から現在時刻までの時間範囲の音声認識結果を抽出する。ここで、音声認識結果の送信に代えて、音声データを送信するようにしてもよい。この場合には、データ記憶部22に記録されている録音ファイルから、所定の時間範囲の音声データを抽出し、バックヤード端末30に送信する。これにより、バックヤード端末30において、音声データにより説明状況を把握することができる。
-In the NG word corresponding | compatible process of the said embodiment, the
・ 上記実施形態では、タブレット端末20の制御部21は、同期エリアの設定処理を実行する(ステップS1−4)。具体的には、タッチパネルディスプレイ25において、同期エリアの始点と終点となる位置をタッチすることにより、両点を対角線上に有する矩形領域を同期エリア251として設定する。この同期エリア上に加えて、同期させないエリアを設けるようにしてもよい。この場合には、タッチパネルディスプレイ25上の同期エリア内において、非同期エリアを指定する。この場合、同期エリア251と同様に、エリアの始点と終点となる位置をタッチすることにより、両点を対角線上に有する矩形領域を非同期エリアとして特定する。また、作図ツールにおけるマーカ機能やブラシ機能等を用いて、塗りつぶされた領域を非同期エリアとして特定するようにしてもよい。そして、この非同期エリアの指定後に、同期開始処理を実行する(ステップS1−5)。これにより、同期エリア251において非同期エリアを設定することにより、タブレット端末10の同期エリア151において非表示にして、相手に見せたくない情報を部分的に隠すことができる。なお、タブレット端末20の同期エリア251においては、非同期エリアの内容を表示してもよいし、非表示にしてもよい。
In the above embodiment, the
・ 上記実施形態では、注意喚起の消去処理を実行した後や、NGワード通知判定基準時間を超過している場合(ステップS3−3において「YES」の場合)、タブレット端末20の制御部21は、バックヤード通知処理を実行する(ステップS3−5)。バックヤードに通知する内容は、これらに限定されるものではない。NGワードを検知した場合にも通知してもよい。また、NGワード通知判定基準時間を超過している場合のみ、通知するようにしてもよい。
In the above embodiment, after executing the alert deletion process or when the NG word notification determination reference time is exceeded (in the case of “YES” in step S3-3), the
10,20…タブレット端末、11,21…制御部、12,22…データ記憶部、15,25…タッチパネルディスプレイ、16,26…マイク、17,27…無線通信部、151,251…同期エリア、110…画面操作手段、111…表示制御手段、113…録画手段、114…ポインタ転送手段、115…録音手段、210…画面操作手段、211…表示制御手段、212…同期エリア設定手段、213…画面転送手段、214…ポインタ転送手段、215…録音手段、216…キーワード抽出手段、217…NGワード確認手段、218…説明義務確認手段、219…バックヤード連絡手段、30…バックヤード端末。
DESCRIPTION OF
Claims (8)
前記説明資料ファイルを表示するディスプレイと、
音声認識結果を記録する認識結果記憶手段と、
バックヤード端末に接続された制御手段とを備えたコンピュータ端末を備えた説明支援システムであって、
前記制御手段が、
前記ディスプレイに表示された説明資料ファイルに基づいてチェックリストを特定する手段と、
集音した音声を音声認識によりテキストに変換した音声認識結果を前記認識結果記憶手段に記録する手段と、
前記音声認識結果において、前記チェックリストに含まれるキーワードを検知した場合には、検知したキーワードを含めたメッセージを前記ディスプレイに表示するとともに、前記認識結果記憶手段から前記キーワードの集音時期の音声認識結果を抽出し、前記バックヤード端末に説明状況を送信する手段と
を備えたことを特徴とする説明支援システム。 A data storage means for storing an explanation material file and a check list in which keywords are recorded in association with the explanation material file;
A display for displaying the explanation material file;
A recognition result storage means for recording a voice recognition result;
An explanation support system comprising a computer terminal comprising control means connected to a backyard terminal,
The control means is
Means for identifying a checklist based on the explanatory material file displayed on the display;
Means for recording the voice recognition result obtained by converting the collected voice into text by voice recognition in the recognition result storage means;
When a keyword included in the checklist is detected in the voice recognition result, a message including the detected keyword is displayed on the display, and voice recognition of the sound collection time of the keyword is performed from the recognition result storage unit. An explanation support system comprising means for extracting a result and transmitting an explanation status to the backyard terminal.
前記制御手段が、前記ディスプレイに、前記NGワードに対応した注意喚起メッセージを出力することを特徴とする請求項1に記載の説明支援システム。 The keyword is an NG word that is avoided during explanation,
The explanation support system according to claim 1, wherein the control unit outputs a warning message corresponding to the NG word to the display.
前記ディスプレイに表示された注意喚起メッセージに対して、検知したNGワードに対する対応済み入力が行なわれた場合、前記対応済み入力された時期までの音声認識結果をバックヤード端末に送信する手段を更に備えたことを特徴とする請求項2に記載の説明支援システム。 The control means is
In response to a warning message displayed on the display, when a corresponding input to the detected NG word is performed, the voice recognition result until the corresponding input time is further transmitted to a backyard terminal. The explanation support system according to claim 2 characterized by things.
前記制御手段が、前記ディスプレイに、前記NGワードに対応した注意喚起メッセージを出力することを特徴とする請求項2又は3に記載の説明支援システム。 The NG word is composed of a combination of a plurality of keywords,
4. The explanation support system according to claim 2, wherein the control means outputs a warning message corresponding to the NG word to the display.
前記制御手段が、前記チェックリストを、前記ディスプレイに表示する手段を更に備え、
前記音声認識結果に基づいて、前記ディスプレイに表示されたチェックリストに含まれるキーワードに関連する項目を消し込むことを特徴とする請求項1〜5のいずれか一つに記載の説明支援システム。 The keyword is a keyword for an item that needs to be explained,
The control means further comprises means for displaying the checklist on the display;
6. The explanation support system according to claim 1, wherein an item related to a keyword included in a check list displayed on the display is erased based on the voice recognition result.
前記説明資料ファイルを表示するディスプレイと、
音声認識結果を記録する認識結果記憶手段と、
バックヤード端末に接続された制御手段とを備えたコンピュータ端末を備えた説明支援システムを用いて、説明支援を行なう方法であって、
前記制御手段が、
前記ディスプレイに表示された説明資料ファイルに基づいてチェックリストを特定する段階と、
集音した音声を音声認識によりテキストに変換した音声認識結果を前記認識結果記憶手段に記録する段階と、
前記音声認識結果において、前記チェックリストに含まれるキーワードを検知した場合には、検知したキーワードを含めたメッセージを前記ディスプレイに表示するとともに、前記認識結果記憶手段から前記キーワードの集音時期の音声認識結果を抽出し、前記バックヤード端末に説明状況を送信する段階と
を実行することを特徴とする説明支援方法。 A data storage means for storing an explanation material file and a check list in which keywords are recorded in association with the explanation material file;
A display for displaying the explanation material file;
A recognition result storage means for recording a voice recognition result;
A method for providing explanation support using an explanation support system comprising a computer terminal comprising control means connected to a backyard terminal,
The control means is
Identifying a checklist based on the explanatory material file displayed on the display;
Recording the voice recognition result obtained by converting the collected voice into text by voice recognition in the recognition result storage means;
When a keyword included in the checklist is detected in the voice recognition result, a message including the detected keyword is displayed on the display, and voice recognition of the sound collection time of the keyword is performed from the recognition result storage unit. An explanation support method comprising: extracting a result and transmitting an explanation situation to the backyard terminal.
前記説明資料ファイルを表示するディスプレイと、
音声認識結果を記録する認識結果記憶手段と、
バックヤード端末に接続された制御手段とを備えたコンピュータ端末を備えた説明支援システムを用いて、説明支援を行なうためのプログラムであって、
前記制御手段を、
前記ディスプレイに表示された説明資料ファイルに基づいてチェックリストを特定する手段、
集音した音声を音声認識によりテキストに変換した音声認識結果を前記認識結果記憶手段に記録する手段、
前記音声認識結果において、前記チェックリストに含まれるキーワードを検知した場合には、検知したキーワードを含めたメッセージを前記ディスプレイに表示するとともに、前記認識結果記憶手段から前記キーワードの集音時期の音声認識結果を抽出し、前記バックヤード端末に説明状況を送信する手段
として機能させることを特徴とする説明支援プログラム。 A data storage means for storing an explanation material file and a check list in which keywords are recorded in association with the explanation material file;
A display for displaying the explanation material file;
A recognition result storage means for recording a voice recognition result;
A program for providing explanation support using an explanation support system comprising a computer terminal comprising control means connected to a backyard terminal,
The control means;
Means for identifying a checklist based on the explanatory material file displayed on the display;
Means for recording the voice recognition result obtained by converting the collected voice into text by voice recognition in the recognition result storage means;
When a keyword included in the checklist is detected in the voice recognition result, a message including the detected keyword is displayed on the display, and voice recognition of the sound collection time of the keyword is performed from the recognition result storage unit. An explanation support program that extracts a result and functions as means for transmitting an explanation status to the backyard terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011160626A JP5329610B2 (en) | 2011-07-22 | 2011-07-22 | Explanation support system, explanation support method, and explanation support program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011160626A JP5329610B2 (en) | 2011-07-22 | 2011-07-22 | Explanation support system, explanation support method, and explanation support program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013025609A true JP2013025609A (en) | 2013-02-04 |
JP5329610B2 JP5329610B2 (en) | 2013-10-30 |
Family
ID=47783879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011160626A Expired - Fee Related JP5329610B2 (en) | 2011-07-22 | 2011-07-22 | Explanation support system, explanation support method, and explanation support program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5329610B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015090658A (en) * | 2013-11-07 | 2015-05-11 | 沖電気工業株式会社 | Information processing system and program |
JP2015099290A (en) * | 2013-11-20 | 2015-05-28 | 日本電信電話株式会社 | In-utterance important word extraction device and in-utterance important word extraction using the device, and method and program thereof |
JP2016057973A (en) * | 2014-09-11 | 2016-04-21 | 株式会社インタラクティブソリューションズ | Business information management device |
CN107577155A (en) * | 2017-09-19 | 2018-01-12 | 深圳安顺视智能科技有限公司 | Intelligent domestic Internet of Things control main frame and its system and method |
JP2018128925A (en) * | 2017-02-09 | 2018-08-16 | 富士通株式会社 | Information output program, information output method and information output device |
WO2019171645A1 (en) * | 2018-03-08 | 2019-09-12 | 株式会社インタラクティブソリューションズ | Presentation support method and support system using computer |
WO2020066778A1 (en) * | 2018-09-27 | 2020-04-02 | パナソニックIpマネジメント株式会社 | Description support device and description support method |
WO2020153111A1 (en) * | 2019-01-25 | 2020-07-30 | 株式会社インタラクティブソリューションズ | Presentation assistance system |
WO2020153109A1 (en) * | 2019-01-22 | 2020-07-30 | 株式会社インタラクティブソリューションズ | Presentation assistance device for calling attention to words that are forbidden to speak |
JP2020160336A (en) * | 2019-03-27 | 2020-10-01 | 株式会社博報堂Dyホールディングス | Evaluation system, evaluation method, and computer program |
JP2021012700A (en) * | 2020-08-06 | 2021-02-04 | 株式会社インタラクティブソリューションズ | Presentation support system |
JP7102035B1 (en) | 2021-08-02 | 2022-07-19 | 株式会社インタラクティブソリューションズ | Explanation support system |
JP7198952B1 (en) | 2022-01-04 | 2023-01-04 | 株式会社アドバンスクリエイト | Insurance consultation system, solicitor terminal, and insurance consultation program |
JP7539756B2 (en) | 2020-07-05 | 2024-08-26 | 修 濱田 | System and method for assessing risk of communication language |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7531164B2 (en) | 2019-07-04 | 2024-08-09 | パナソニックIpマネジメント株式会社 | Speech analysis device, speech analysis method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06110416A (en) * | 1992-09-28 | 1994-04-22 | Ricoh Co Ltd | Sales assisting device |
JP2003016035A (en) * | 2001-06-29 | 2003-01-17 | Sony Corp | System for user support, method therefor and information processing apparatus |
JP2006085418A (en) * | 2004-09-16 | 2006-03-30 | Fuji Photo Film Co Ltd | Presentation support device, presentation support method and presentation support program |
JP2008123447A (en) * | 2006-11-15 | 2008-05-29 | Mitsubishi Electric Information Systems Corp | Operator business support system |
JP2008211533A (en) * | 2007-02-27 | 2008-09-11 | Hitachi Ltd | Contact center system |
-
2011
- 2011-07-22 JP JP2011160626A patent/JP5329610B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06110416A (en) * | 1992-09-28 | 1994-04-22 | Ricoh Co Ltd | Sales assisting device |
JP2003016035A (en) * | 2001-06-29 | 2003-01-17 | Sony Corp | System for user support, method therefor and information processing apparatus |
JP2006085418A (en) * | 2004-09-16 | 2006-03-30 | Fuji Photo Film Co Ltd | Presentation support device, presentation support method and presentation support program |
JP2008123447A (en) * | 2006-11-15 | 2008-05-29 | Mitsubishi Electric Information Systems Corp | Operator business support system |
JP2008211533A (en) * | 2007-02-27 | 2008-09-11 | Hitachi Ltd | Contact center system |
Non-Patent Citations (4)
Title |
---|
CSNH200900233008; 吉田 裕美 外2名: '金融業向け音声認識ボイスロギングソリューション' 三菱電機技報 第83巻,第7号, 20090725, p.39-42, 三菱電機エンジニアリング株式会社 * |
CSNH201000027005; 小此木 崇宏: '音声認識製品' NEC技報 第63巻,第1号, 20100225, p.56-58, 日本電気株式会社 * |
JPN6013033298; 小此木 崇宏: '音声認識製品' NEC技報 第63巻,第1号, 20100225, p.56-58, 日本電気株式会社 * |
JPN6013033300; 吉田 裕美 外2名: '金融業向け音声認識ボイスロギングソリューション' 三菱電機技報 第83巻,第7号, 20090725, p.39-42, 三菱電機エンジニアリング株式会社 * |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015090658A (en) * | 2013-11-07 | 2015-05-11 | 沖電気工業株式会社 | Information processing system and program |
JP2015099290A (en) * | 2013-11-20 | 2015-05-28 | 日本電信電話株式会社 | In-utterance important word extraction device and in-utterance important word extraction using the device, and method and program thereof |
JP2016057973A (en) * | 2014-09-11 | 2016-04-21 | 株式会社インタラクティブソリューションズ | Business information management device |
JP2018128925A (en) * | 2017-02-09 | 2018-08-16 | 富士通株式会社 | Information output program, information output method and information output device |
CN107577155A (en) * | 2017-09-19 | 2018-01-12 | 深圳安顺视智能科技有限公司 | Intelligent domestic Internet of Things control main frame and its system and method |
WO2019171645A1 (en) * | 2018-03-08 | 2019-09-12 | 株式会社インタラクティブソリューションズ | Presentation support method and support system using computer |
CN112334923A (en) * | 2018-09-27 | 2021-02-05 | 松下知识产权经营株式会社 | Description support device and description support method |
WO2020066778A1 (en) * | 2018-09-27 | 2020-04-02 | パナソニックIpマネジメント株式会社 | Description support device and description support method |
JP2020052809A (en) * | 2018-09-27 | 2020-04-02 | パナソニックIpマネジメント株式会社 | Explanation support device and explanation support method |
US11942086B2 (en) | 2018-09-27 | 2024-03-26 | Panasonic Intellectual Property Management Co., Ltd. | Description support device and description support method |
US11373638B2 (en) | 2019-01-22 | 2022-06-28 | Interactive Solutions Corp. | Presentation assistance device for calling attention to words that are forbidden to speak |
JP2020119112A (en) * | 2019-01-22 | 2020-08-06 | 株式会社インタラクティブソリューションズ | Presentation support apparatus for calling attention to prohibited term |
CN112805734A (en) * | 2019-01-22 | 2021-05-14 | 互动解决方案公司 | Speech assistance device for calling attention to speech inhibition words |
WO2020153109A1 (en) * | 2019-01-22 | 2020-07-30 | 株式会社インタラクティブソリューションズ | Presentation assistance device for calling attention to words that are forbidden to speak |
US11922929B2 (en) | 2019-01-25 | 2024-03-05 | Interactive Solutions Corp. | Presentation support system |
CN111902831A (en) * | 2019-01-25 | 2020-11-06 | 互动解决方案公司 | Demonstration support system |
JP2020119399A (en) * | 2019-01-25 | 2020-08-06 | 株式会社インタラクティブソリューションズ | Presentation support system |
WO2020153111A1 (en) * | 2019-01-25 | 2020-07-30 | 株式会社インタラクティブソリューションズ | Presentation assistance system |
JP2020160336A (en) * | 2019-03-27 | 2020-10-01 | 株式会社博報堂Dyホールディングス | Evaluation system, evaluation method, and computer program |
WO2020196743A1 (en) * | 2019-03-27 | 2020-10-01 | 株式会社博報堂Dyホールディングス | Evaluation system and evaluation method |
JP7539756B2 (en) | 2020-07-05 | 2024-08-26 | 修 濱田 | System and method for assessing risk of communication language |
JP2021012700A (en) * | 2020-08-06 | 2021-02-04 | 株式会社インタラクティブソリューションズ | Presentation support system |
JP7102035B1 (en) | 2021-08-02 | 2022-07-19 | 株式会社インタラクティブソリューションズ | Explanation support system |
JP2023021856A (en) * | 2021-08-02 | 2023-02-14 | 株式会社インタラクティブソリューションズ | Explanation support system |
WO2023013226A1 (en) * | 2021-08-02 | 2023-02-09 | 株式会社インタラクティブソリューションズ | Description assistance system |
JP2023099954A (en) * | 2022-01-04 | 2023-07-14 | 株式会社アドバンスクリエイト | Insurance consultation system, recruiter terminal, and program for insurance consultation |
JP7198952B1 (en) | 2022-01-04 | 2023-01-04 | 株式会社アドバンスクリエイト | Insurance consultation system, solicitor terminal, and insurance consultation program |
Also Published As
Publication number | Publication date |
---|---|
JP5329610B2 (en) | 2013-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5329610B2 (en) | Explanation support system, explanation support method, and explanation support program | |
US10665335B2 (en) | Integrated system and method for the acquisition, processing and production of health care records and services | |
JP2013025608A (en) | Explanation support system, explanation support method and explanation support program | |
CN110073385A (en) | Document links in e-mail system | |
WO2013178118A1 (en) | Information processing method and device | |
TW200928892A (en) | Electronic apparatus and operation method thereof | |
US20140214622A1 (en) | Product information providing system, product information providing device, and product information outputting device | |
CN106233311A (en) | Quickly drawing up project in main work queue | |
JP5882388B2 (en) | Explanation support system and explanation support method | |
JP5244945B2 (en) | Document display system, document display method, and document display program | |
JP5795869B2 (en) | Intent confirmation system and method | |
CN110164048A (en) | A kind of medicine management system and the intelligent medicine box using medicine management system | |
CN112184168B (en) | Reminding task generation method and device and electronic equipment | |
JP5220953B1 (en) | Product information providing system, product information providing device, and product information output device | |
CN111078102B (en) | Method for determining point reading area through projection and terminal equipment | |
JP2012137907A (en) | Order entry system | |
KR20230045516A (en) | system for settlement according to garbage collection | |
JP5758865B2 (en) | Information display device, terminal device, information display system, and program | |
CN211062075U (en) | Shopping guide assisting system | |
JP2017187986A (en) | Fixture | |
JP2005346711A (en) | Information providing method | |
KR101640060B1 (en) | Decision menu generation method using gesture input and computer readable recording medium for executing the same | |
CN103294186A (en) | Operation supporting display apparatus and control method thereof | |
EP4254158A1 (en) | Display apparatus, display method, information sharing system, and carrier means | |
TWI531208B (en) | An information-interactive system and its interaction methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130724 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5329610 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |