JP2018128577A - Summary sentence display device, summary sentence display method, and program - Google Patents

Summary sentence display device, summary sentence display method, and program Download PDF

Info

Publication number
JP2018128577A
JP2018128577A JP2017021612A JP2017021612A JP2018128577A JP 2018128577 A JP2018128577 A JP 2018128577A JP 2017021612 A JP2017021612 A JP 2017021612A JP 2017021612 A JP2017021612 A JP 2017021612A JP 2018128577 A JP2018128577 A JP 2018128577A
Authority
JP
Japan
Prior art keywords
summary sentence
message
customer
display
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017021612A
Other languages
Japanese (ja)
Other versions
JP6639431B2 (en
Inventor
喜昭 野田
Yoshiaki Noda
喜昭 野田
節夫 山田
Setsuo Yamada
節夫 山田
杉崎 正之
Masayuki Sugizaki
正之 杉崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017021612A priority Critical patent/JP6639431B2/en
Publication of JP2018128577A publication Critical patent/JP2018128577A/en
Application granted granted Critical
Publication of JP6639431B2 publication Critical patent/JP6639431B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To accurately and automatically create and display a summary sentence of reception utterance from the voices of a customer and a person in charge of reception.SOLUTION: A summary sentence display device 1 comprises: a voice recognition part 11 that performs voice recognition processing on the voices of a customer and a person in charge of reception to create a voice recognition result; a business extraction part 12 that extracts business from the voice recognition result; a summary sentence creation part 13 that creates a summary sentence including the business; and a display control part 14 that displays the summary sentence on a display part 15.SELECTED DRAWING: Figure 1

Description

本発明は、データベースに基づく要約文を表示する要約文表示装置、要約文表示方法、及びプログラムに関する。   The present invention relates to a summary sentence display device, a summary sentence display method, and a program for displaying a summary sentence based on a database.

従来、コールセンタ・オペレータ、窓口受付などの応対担当者は、顧客との応対が終了した後に、応対音声の音声認識結果を閲覧しながら一部の発話を転記する事で、応対発話の要約を応対記録として作成していた。   Traditionally, call centers, operators, reception desks, etc., respond to the customer's summary by answering the customer's speech recognition results and transcribe some utterances. It was made as a record.

また、近年では、コールセンタのオペレータ業務を支援するため、通話内容をリアルタイムに音声認識し、自然言語処理技術を駆使して適切な応対ナレッジをオペレータの画面に表示する機能を備えたシステムが開発されている(例えば、非特許文献1参照)。   In recent years, in order to support operator operations at call centers, systems have been developed that have the ability to recognize speech content in real time and display appropriate response knowledge on the operator's screen using natural language processing technology. (For example, refer nonpatent literature 1).

河村誠司、外4名、「コールセンタにおけるAIの活用」、[online]、2016年2月、[2017年1月6日検索]、インターネット<URL:http://www.ntt.co.jp/journal/1602/files/jn201602035.pdf>Seiji Kawamura, 4 others, “Utilization of AI in call centers”, [online], February 2016, [Search January 6, 2017], Internet <URL: http://www.ntt.co.jp/ journal / 1602 / files / jn201602035.pdf>

非特許文献1には、顧客の電話の用件を抽出する「用件自動抽出」と、通話中の重要な発言のみを抽出する「重要文自動抽出」から構成される要約文を生成する通話自動要約機能が開示されている。しかし、この用件や重要文というのは、会話の中からフィラーを取り除いたりする程度のものであり、用件そのものを適切に抽出して要約文を自動で作成することは困難であった。そのため、応対担当者は、要約文をそのまま利用して応対記録を作成することができなかった。   Non-Patent Document 1 describes a call that generates a summary sentence composed of “automatic message extraction” for extracting a customer's telephone requirements and “important sentence automatic extraction” for extracting only important utterances during the call. An automatic summarization function is disclosed. However, these requirements and important sentences are such that the filler is removed from the conversation, and it is difficult to automatically extract the requirements themselves and automatically generate a summary sentence. For this reason, the person in charge of the service was unable to create a service record using the summary sentence as it was.

かかる事情に鑑みてなされた本発明の目的は、顧客との応答内容の要約文を高精度且つ自動的に生成して表示させることが可能な要約文表示装置、要約文表示方法、及びプログラムを提供することにある。   An object of the present invention made in view of such circumstances is to provide a summary sentence display device, a summary sentence display method, and a program capable of automatically generating and displaying a summary sentence of response contents with a customer with high accuracy. It is to provide.

上記課題を解決するため、本発明に係る要約文表示装置は、顧客及び応対担当者の応対発話の要約を自動生成する要約文表示装置であって、顧客及び応対担当者の音声について音声認識処理を行って音声認識結果を生成する音声認識部と、前記音声認識結果から用件を抽出する用件抽出部と、前記用件を含む要約文を生成する要約文生成部と、前記要約文を表示部に表示させる表示制御部と、を備えることを特徴とする。   In order to solve the above-mentioned problem, the summary sentence display device according to the present invention is a summary sentence display device that automatically generates a summary of the response utterances of the customer and the person in charge of the customer. A speech recognition unit for generating a speech recognition result, a requirement extracting unit for extracting a requirement from the speech recognition result, a summary statement generating portion for generating a summary statement including the requirement, and the summary sentence A display control unit to be displayed on the display unit.

また、上記課題を解決するため、本発明に係る要約文表示方法は、顧客及び応対担当者の応対発話の要約を自動生成する要約文表示装置における要約文表示方法であって、顧客及び応対担当者の音声について音声認識処理を行って音声認識結果を生成するステップと、前記音声認識結果から用件を抽出するステップと、前記用件を含む要約文を生成するステップと、前記要約文を表示部に表示させるステップと、を含むことを特徴とする。   In order to solve the above-mentioned problem, a summary sentence display method according to the present invention is a summary sentence display method in a summary sentence display device for automatically generating a summary of a response utterance of a customer and a person in charge of a customer, Performing speech recognition processing on a person's voice to generate a speech recognition result, extracting a requirement from the speech recognition result, generating a summary including the requirement, and displaying the summary And a step of displaying on the section.

また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記要約文表示装置として機能させることを特徴とする。   In order to solve the above problems, a program according to the present invention causes a computer to function as the summary sentence display device.

本発明によれば、コールセンタや窓口などで顧客応対を行う際に、顧客との応答内容の要約文を高精度且つ自動的に表示させることができる。そのため、応対記録の作成にかかる時間を短縮することができるようになる。さらに、端末操作スキルが高くない応対担当者であっても、容易に要約文を作成することができるようになる。   ADVANTAGE OF THE INVENTION According to this invention, when performing customer reception at a call center, a window, etc., the summary sentence of the response content with a customer can be displayed with high precision and automatically. Therefore, it is possible to shorten the time required for creating the response record. Furthermore, even a person in charge who does not have high terminal operation skills can easily create a summary sentence.

本発明の一実施形態に係る要約文表示装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the summary sentence display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る要約文表示装置における用件抽出を説明する図である。It is a figure explaining the requirement extraction in the summary sentence display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る要約文表示装置における表示部の表示画面例を示す図である。It is a figure which shows the example of a display screen of the display part in the summary sentence display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る要約文表示方法の一例を示すフローチャートである。It is a flowchart which shows an example of the summary sentence display method which concerns on one Embodiment of this invention.

以下、本発明の一実施形態について、図面を参照して詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1に、本発明の一実施形態に係る要約文表示装置の構成例を示す。図1に示す要約文表示装置1は、音声認識部11と、用件抽出部12と、要約文生成部13と、表示制御部14と、表示部15とを備える。 FIG. 1 shows a configuration example of a summary sentence display device according to an embodiment of the present invention. The summary sentence display device 1 shown in FIG. 1 includes a voice recognition unit 11, a requirement extraction unit 12, a summary sentence generation unit 13, a display control unit 14, and a display unit 15.

要約文表示装置1は、応対担当者が顧客と応答する際に、応対担当者及び顧客の音声から応対発話の要約を自動で生成して表示させる装置である。応対担当者の代表例は、コールセンタのオペレータである。   The summary sentence display device 1 is a device that automatically generates and displays a summary of a response utterance from the voices of the service representative and the customer when the service representative responds with the customer. A representative example of the person in charge is a call center operator.

音声認識部11は、顧客及び応対担当者の音声をそれぞれ異なるチャンネル(2チャンネル)で入力する。そして、顧客及び応対担当者の音声についてそれぞれ音声認識処理を行い、該音声に対応した音声認識結果を示すテキストを生成し、用件抽出部12及び表示制御部14に出力する。ここで、音声認識処理においては、誤りが発生することがある。そこで、発話に含まれる単語の音声認識処理による認識結果として複数の候補を用意するN−best法を用いた処理を行ってもよい。   The voice recognition unit 11 inputs the voices of the customer and the person in charge of service through different channels (two channels). Then, voice recognition processing is performed for each of the voices of the customer and the person in charge of the customer, and a text indicating a voice recognition result corresponding to the voice is generated and output to the message extracting unit 12 and the display control unit 14. Here, an error may occur in the speech recognition process. Therefore, a process using the N-best method of preparing a plurality of candidates as a recognition result by a speech recognition process of a word included in an utterance may be performed.

用件抽出部12は、音声認識部11から入力されたテキストから、顧客の用件発話を特定して該用件発話から用件を抽出し、用件を示す情報(用件情報)を要約文生成部13に出力する。また、応対担当者による応対が終了した場合には、応対が終了した旨を示す応対終了情報を要約文生成部13に出力する。   The message extraction unit 12 identifies a customer's message utterance from the text input from the voice recognition unit 11, extracts a message from the message utterance, and summarizes information indicating the message (message information). Output to the sentence generator 13. Further, when the response by the person in charge of the response is completed, the response end information indicating that the response is completed is output to the summary sentence generation unit 13.

用件抽出部12は、上述した用件を抽出するとともに、さらに応対担当者の用件確認発話を特定して該用件確認発話から用件確認を抽出し、両者を示す情報を用件情報として要約文生成部13に出力してもよい。   The message extraction unit 12 extracts the above-described message, further identifies the message confirmation utterance of the person in charge, extracts the message confirmation from the message confirmation utterance, and displays information indicating both of the message information May be output to the summary sentence generator 13.

図2は、用件発話の抽出及び用件確認発話の抽出について説明する図である。図2の左側には顧客と応対担当者の応対の一例を示しており、実線の枠内には顧客の発話を示し、点線の枠内には応対担当者の発話を示している。この例では、顧客の発話のうち、「あのー、先日、息子が車の免許を取りまして」、及び「息子が運転しても、自動車保険の対象になるように変更をしたいのですが。」が用件発話である。そして、この用件発話を繋げて、「あのー」というフィラーを削除することにより、「先日、息子が車の免許を取りまして、息子が運転しても、自動車保険の対象になるように変更をしたいのですが。」という用件を抽出する。   FIG. 2 is a diagram for explaining extraction of a business utterance and extraction of a business confirmation utterance. The left side of FIG. 2 shows an example of the customer and the person in charge of the customer. The customer's utterance is shown in the solid line frame, and the customer's utterance is shown in the dotted line frame. In this example, among the customer's utterances, “Oh, the other day, my son got a car license” and “I want to change my son to be eligible for car insurance even if I drive.” Is a business utterance. Then, by connecting this utterance and deleting the filler “Ano”, “The other day, my son got a car license, and even if my son drove, it was changed to be covered by car insurance. I want to do this.

また、応対担当者の発話のうち、「新しく免許を取られた息子さんを自動車保険の対象にしたいという事で、よろしいでしょうか。」が用件確認発話である。この用件確認発話にはフィラーが含まれないため、そのまま用件確認とする。   Also, among the utterances of the staff in charge, “Is it okay if I want my newly licensed son to be covered by car insurance?” Is a business confirmation utterance. Since this business confirmation utterance does not include a filler, the business confirmation is performed as it is.

顧客との応対においては、顧客が用件に該当する発話(用件発話)をした直後に、応対担当者が用件を復唱して確認するための発話(用件確認発話)をすることが一般的である。用件抽出部12は、このような対話構造を利用することができる。すなわち、用件抽出部12は、用件確認発話を参照して用件を抽出することができる。   When responding to a customer, immediately after the customer utters an utterance that corresponds to the business (a business utterance), the person in charge of the service may make a utterance (a business confirmation utterance) for reviewing and confirming the business. It is common. The requirement extraction unit 12 can use such an interactive structure. That is, the message extraction unit 12 can extract a message with reference to the message confirmation utterance.

例えば、図2に示した例では、顧客が「あのー、先日、息子が車の免許を取りまして」、「息子が運転しても、自動車保険の対象になるように変更をしたいのですが。」という用件発話を行うと、応対担当者は「新しく免許を取られた息子さんを自動車保険の対象にしたいという事で、よろしいでしょうか。」という用件確認発話を行っている。このような対話構造を利用すると、応対担当者の発話が「〜でしょうか」、「〜ですか」、「〜ですね」といった確認を表す用語で終了し、かつ直前の顧客の発話と共通する用語が多い場合には、該応対担当者の発話を用件確認発話と特定することができる。また、応対担当者が「ご用件内容は、〜ですね。」というように、発話の先頭に用件を明示的に示す用語が含まれる場合には、該発話を用件確認発話と特定することができる。そして、用件確認発話の直前の顧客の発話を用件発話として特定することができる。なお、用件発話から用件を抽出する際、及び用件確認発話から用件確認を抽出する際には、「あのー」や「はい」といったフィラーを除去するのが望ましい。   For example, in the example shown in FIG. 2, the customer wants to change so that his son gets a car license the other day. When the business utterance is said, the person in charge of the service makes a business utterance confirming, “Are you sure you want to make your newly licensed son eligible for car insurance?” Using such a dialogue structure, the utterance of the person in charge of the response ends with a term indicating confirmation such as “Is it?”, “Is it?”, “Is it?”, And is common to the utterance of the customer just before When there are many terms, the utterance of the person in charge can be identified as the utterance for confirming the requirement. Also, if the person in charge of the response includes a term that explicitly indicates the message at the beginning of the utterance, such as “The content of the message is ~”, the utterance is identified as a message for confirming the message. can do. The customer's utterance immediately before the business confirmation utterance can be specified as the business utterance. It should be noted that when extracting a requirement from a requirement utterance and when extracting a requirement confirmation from a requirement confirmation utterance, it is desirable to remove fillers such as “ano” and “yes”.

要約文生成部13は、用件抽出部12から用件情報を取得すると、用件を含む要約文、あるいは、用件及び用件確認を含む要約文を生成し、表示制御部14に出力する。要約文生成部13は、用件情報によって示される用件を順次繋ぎ合せ、応対終了情報を取得した直後に要約文として表示制御部14に出力してもよいが、リアルタイム性を重視する場合には、用件情報を取得するごとに要約文として表示制御部14に出力する。用件及び用件確認は、要約の中で区別可能な状態とすることが望ましい。また、要約には、応対担当者が応対した日付や時間、応対担当者の名前などを含めてもよい。   When the summary information generation unit 13 acquires the requirement information from the requirement extraction unit 12, the summary statement generation unit 13 generates a summary statement including the requirement or a summary statement including the requirement and the requirement confirmation and outputs the summary statement to the display control unit 14. . The summary sentence generation unit 13 may sequentially connect the requirements indicated by the requirement information and output the summary information immediately after acquiring the response end information to the display control unit 14. Is output to the display control unit 14 as a summary sentence each time the business information is acquired. It is desirable that the requirements and the requirements confirmation be in a state that can be distinguished in the summary. Also, the summary may include the date and time of the person in charge, the name of the person in charge, and the like.

表示制御部14は、要約文生成部13から要約文を示す情報を取得すると、要約文を表示部15に表示させる。また、表示制御部14は、音声認識部11から音声認識結果であるテキストを取得し、表示部15に表示させる。表示制御部14は、要約文が用件及び用件確認を含む場合には、両者を区別して表示部15に表示させることが望ましい。   When the display control unit 14 acquires information indicating the summary sentence from the summary sentence generation unit 13, the display control unit 14 causes the display unit 15 to display the summary sentence. In addition, the display control unit 14 acquires text that is a voice recognition result from the voice recognition unit 11 and causes the display unit 15 to display the text. When the summary sentence includes a message and a message confirmation, the display control unit 14 desirably distinguishes both of them from the display unit 15 and displays them.

また、表示制御部14は、表示部15に表示させた要約文のうち、応対担当者により選択された部分を応対記録として表示部15にさらに表示させるようにしてもよい。   The display control unit 14 may further cause the display unit 15 to display a portion selected by the person in charge of the summary sentence displayed on the display unit 15 as a response record.

表示部15は、表示制御部14から入力されたデータを表示するディスプレイである。なお、本実施形態では、要約文表示装置1が表示部15を備える構成としているが、表示部15は要約文表示装置1とは独立した装置であってもよい。   The display unit 15 is a display that displays data input from the display control unit 14. In the present embodiment, the summary sentence display device 1 includes the display unit 15, but the display unit 15 may be a device independent of the summary sentence display device 1.

図3に、表示部15の表示画面例を示す。表示部15が表示する画面は、左側画面領域151と、右上側画面領域152と、右下側画面領域153とを含む。   FIG. 3 shows a display screen example of the display unit 15. The screen displayed by the display unit 15 includes a left screen area 151, an upper right screen area 152, and a lower right screen area 153.

左側画面領域151は、音声認識部11による音声認識結果がリアルタイムで表示される。なお、顧客の音声認識結果と応対担当者の音声認識結果は区別して表示される。図3では、顧客の音声認識結果を実線の枠内で示し、応対担当者の音声認識結果を点線の枠内で示している。   In the left screen area 151, the voice recognition result by the voice recognition unit 11 is displayed in real time. The voice recognition result of the customer and the voice recognition result of the person in charge are displayed separately. In FIG. 3, the voice recognition result of the customer is shown in a solid line frame, and the voice recognition result of the person in charge is shown in a dotted frame.

右上側画面領域152は、要約結果を表示する。要約結果として、用件発話から抽出された「用件」のみを表示してもよいし、図3に示すように、用件確認発話から抽出された「用件確認」をあわせて表示してもよい。音声認識部11による音声認識、及び用件抽出部12による用件抽出はリアルタイムで行われるため、用件が抽出されるごとに要約結果も更新される。   The upper right screen area 152 displays the summary result. As the summary result, only the “business” extracted from the business utterance may be displayed, or as shown in FIG. 3, the “business confirmation” extracted from the business utterance is displayed together. Also good. Since the speech recognition by the speech recognition unit 11 and the requirement extraction by the requirement extraction unit 12 are performed in real time, the summary result is updated every time the requirement is extracted.

図3に示す例では、右上側画面領域152に「応対記録入力へ転記」というボタンが表示される。応対担当者により「用件」又は「用件確認」のうち、必要な部分を選択して「応対記録入力へ転記」というボタンがクリックされると、表示制御部14は右下側画面領域153に選択された部分を表示させる(すなわち選択した文が転記される)。応対記録入力欄では、応対担当者による編集作業も可能である。したがって、自動で作成表示された要約結果のうち、必要な部分のみを利用でき、その後編集も可能とすることにより、応対記録を短時間で容易に作成することができる。   In the example shown in FIG. 3, a button “transcribe to reception record input” is displayed in the upper right screen area 152. When a person in charge selects a necessary part of “business” or “confirmation of business” and clicks a “transfer to service record input” button, the display control unit 14 displays the lower right screen area 153. The selected part is displayed (that is, the selected sentence is transcribed). In the reception record input field, editing work by the person in charge of the reception is also possible. Accordingly, only necessary portions of the summary results automatically created and displayed can be used, and editing can be performed thereafter, so that a response record can be easily created in a short time.

次に、要約文表示装置1による要約文表示方法について説明する。図4は、要約文表示方法の一例を示すフローチャートである。   Next, a summary sentence display method by the summary sentence display device 1 will be described. FIG. 4 is a flowchart showing an example of the summary sentence display method.

まず、顧客及び応対担当者の音声を別チャンネルで入力し、音声認識部11により顧客及び応対担当者の音声についてそれぞれ音声認識処理を行い(ステップS101)、音声認識結果を示すテキストを生成する(ステップS102)。   First, the voices of the customer and the person in charge of the customer are input through different channels, and the voice recognition unit 11 performs voice recognition processing on the voices of the customer and the person in charge of the customer (step S101), thereby generating a text indicating the voice recognition result (step S101). Step S102).

次に、用件抽出部12によりステップS102で生成されたテキストを解析し、用件(及び用件確認)を抽出し(ステップS103)、要約文生成部13により要約文を生成する(ステップS104)。   Next, the text generated in step S102 is analyzed by the message extraction unit 12, a message (and a message confirmation) is extracted (step S103), and a summary sentence is generated by the summary sentence generation unit 13 (step S104). ).

次に、表示制御部14により、要約文生成部13により生成された要約文を、表示部15に表示させる(ステップS105)。   Next, the display control unit 14 causes the display unit 15 to display the summary sentence generated by the summary sentence generation unit 13 (step S105).

なお、上述した要約文表示装置1として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、要約文表示装置1の各機能を実現する処理内容を記述したプログラムを該コンピュータのデータベースに格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。   In addition, a computer can be suitably used for causing the above-described summary sentence display device 1 to function, and such a computer stores a program that describes processing contents for realizing each function of the summary sentence display device 1. This can be realized by storing the program in a database and reading and executing the program by the CPU of the computer.

また、プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD−ROMやDVD−ROMなどの記録媒体であってもよい。   The program may be recorded on a computer readable medium. If a computer-readable medium is used, it can be installed on a computer. Here, the computer-readable medium on which the program is recorded may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, but may be a recording medium such as a CD-ROM or a DVD-ROM.

上述したように、本発明では、顧客及び応対担当者の音声認識結果から用件を抽出し、該用件を含む要約文を表示させる。本発明をコールセンタや窓口などで適用すると、顧客応対を行う際に、応対担当者が応対記録の作成にかかる時間を大幅に短縮させることができるようになる。したがって、コールセンタであれば、着台までの期間を短縮することができる。また、応対担当者は複雑な操作を要することなく、要約結果を自動表示させることができ、端末操作スキルが高くない応対担当者であっても、要約文の作成を容易に行うことができるようになる。   As described above, in the present invention, a requirement is extracted from the voice recognition results of the customer and the person in charge of the customer, and a summary sentence including the requirement is displayed. When the present invention is applied at a call center, a window, etc., it becomes possible to greatly reduce the time required for the reception person to create an answer record when dealing with a customer. Therefore, in the case of a call center, the period until landing can be shortened. In addition, the person in charge can automatically display the summary results without requiring complicated operations, so that even a person in charge who does not have high terminal operation skills can easily create a summary sentence. become.

さらに、顧客の用件発話から用件を抽出するとともに、応対担当者の用件確認発話から用件確認を抽出し、両者を要約文として表示することにより、応対記録作成時にいずれかを選択することができ、より利便性を高めることができるようになる。   In addition, a message is extracted from the customer's message, and a message confirmation is extracted from the message confirmation message of the person in charge, and both are displayed as a summary sentence. It is possible to improve convenience.

上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態の構成図に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。   Although the above embodiment has been described as a representative example, it will be apparent to those skilled in the art that many changes and substitutions can be made within the spirit and scope of the invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments, and various modifications and changes can be made without departing from the scope of the claims. For example, it is possible to combine a plurality of constituent blocks described in the configuration diagram of the embodiment into one, or to divide one constituent block.

1 要約文表示装置
11 音声認識部
12 用件抽出部
13 要約文生成部
14 表示制御部
15 表示部
151 左側画面領域
152 右上側画面領域
153 右下側画面領域
DESCRIPTION OF SYMBOLS 1 Summary sentence display apparatus 11 Voice recognition part 12 Message extraction part 13 Summary sentence generation part 14 Display control part 15 Display part 151 Left screen area 152 Upper right side screen area 153 Right lower side screen area

Claims (6)

顧客及び応対担当者の応対発話の要約を自動生成する要約文表示装置であって、
顧客及び応対担当者の音声について音声認識処理を行って音声認識結果を生成する音声認識部と、
前記音声認識結果から用件を抽出する用件抽出部と、
前記用件を含む要約文を生成する要約文生成部と、
前記要約文を表示部に表示させる表示制御部と、
を備えることを特徴とする要約文表示装置。
A summary sentence display device that automatically generates a summary of customer utterances and customer utterances,
A voice recognition unit that generates voice recognition results by performing voice recognition processing on the voices of the customer and the person in charge;
A message extraction unit for extracting messages from the speech recognition result;
A summary sentence generation unit for generating a summary sentence including the requirement;
A display control unit for displaying the summary sentence on a display unit;
A summary sentence display device comprising:
前記用件抽出部は、前記応対担当者の用件確認発話を参照して前記用件を抽出することを特徴とする、請求項1に記載の要約文表示装置。   The summary message display device according to claim 1, wherein the message extraction unit extracts the message with reference to a message confirmation utterance of the person in charge. 前記用件抽出部は、前記顧客の用件発話から前記用件を抽出するとともに、前記応対担当者の用件確認発話から用件確認を抽出し、
前記要約文生成部は、前記用件及び前記用件確認を含む要約文を生成し、
前記表示制御部は、前記用件及び前記用件確認を区別して前記要約文を前記表示部に表示させることを特徴とする、請求項1又は2に記載の要約文表示装置。
The message extraction unit extracts the message from the customer's message utterance, and extracts a message confirmation from the message confirmation utterance of the person in charge.
The summary sentence generation unit generates a summary sentence including the requirement and the requirement confirmation,
The summary display device according to claim 1, wherein the display control unit displays the summary sentence on the display unit by distinguishing between the message and the message confirmation.
前記表示制御部は、前記要約文のうち、選択された部分を応対記録として表示させることを特徴とする、請求項1から3のいずれか一項に記載の要約文表示装置。   4. The summary sentence display device according to claim 1, wherein the display control unit displays a selected portion of the summary sentence as a response record. 5. コンピュータを、請求項1から4のいずれか一項に記載の要約文表示装置として機能させるためのプログラム。   The program for functioning a computer as a summary sentence display apparatus as described in any one of Claim 1 to 4. 顧客及び応対担当者の応対発話の要約を自動生成する要約文表示装置における要約文表示方法であって、
顧客及び応対担当者の音声について音声認識処理を行って音声認識結果を生成するステップと、
前記音声認識結果から用件を抽出するステップと、
前記用件を含む要約文を生成するステップと、
前記要約文を表示部に表示させるステップと、
を含むことを特徴とする要約文表示方法。

A summary sentence display method in a summary sentence display device that automatically generates a summary of customer utterances and reception utterances,
Performing voice recognition processing on the voice of the customer and the person in charge and generating a voice recognition result;
Extracting a requirement from the speech recognition result;
Generating a summary sentence including the message;
Displaying the summary sentence on a display unit;
The summary sentence display method characterized by including this.

JP2017021612A 2017-02-08 2017-02-08 Item judgment device, summary sentence display device, task judgment method, summary sentence display method, and program Active JP6639431B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017021612A JP6639431B2 (en) 2017-02-08 2017-02-08 Item judgment device, summary sentence display device, task judgment method, summary sentence display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017021612A JP6639431B2 (en) 2017-02-08 2017-02-08 Item judgment device, summary sentence display device, task judgment method, summary sentence display method, and program

Publications (2)

Publication Number Publication Date
JP2018128577A true JP2018128577A (en) 2018-08-16
JP6639431B2 JP6639431B2 (en) 2020-02-05

Family

ID=63172886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017021612A Active JP6639431B2 (en) 2017-02-08 2017-02-08 Item judgment device, summary sentence display device, task judgment method, summary sentence display method, and program

Country Status (1)

Country Link
JP (1) JP6639431B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020150408A (en) * 2019-03-13 2020-09-17 株式会社日立情報通信エンジニアリング Call center system and telephone conversation monitoring method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107044A (en) * 2004-10-04 2006-04-20 Oki Consulting Solutions Co Ltd Conversation recording device and conversation recording method
JP2011172163A (en) * 2010-02-22 2011-09-01 Nippon Telegr & Teleph Corp <Ntt> Business section extracting method for contact center, device therefor, and program
JP2015156062A (en) * 2014-02-19 2015-08-27 株式会社東芝 business support system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107044A (en) * 2004-10-04 2006-04-20 Oki Consulting Solutions Co Ltd Conversation recording device and conversation recording method
JP2011172163A (en) * 2010-02-22 2011-09-01 Nippon Telegr & Teleph Corp <Ntt> Business section extracting method for contact center, device therefor, and program
JP2015156062A (en) * 2014-02-19 2015-08-27 株式会社東芝 business support system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020150408A (en) * 2019-03-13 2020-09-17 株式会社日立情報通信エンジニアリング Call center system and telephone conversation monitoring method
JP7274315B2 (en) 2019-03-13 2023-05-16 株式会社日立情報通信エンジニアリング Call center system and call monitoring method

Also Published As

Publication number Publication date
JP6639431B2 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
US10489112B1 (en) Method for user training of information dialogue system
US9484034B2 (en) Voice conversation support apparatus, voice conversation support method, and computer readable medium
US20150179173A1 (en) Communication support apparatus, communication support method, and computer program product
JP6675788B2 (en) Search result display device, search result display method, and program
CN106126157B (en) Pronunciation inputting method and device based on hospital information system
KR102076793B1 (en) Method for providing electric document using voice, apparatus and method for writing electric document using voice
JP2015176099A (en) Dialog system construction assist system, method, and program
US20160189103A1 (en) Apparatus and method for automatically creating and recording minutes of meeting
CN109256133A (en) A kind of voice interactive method, device, equipment and storage medium
KR101534413B1 (en) Method and apparatus for providing counseling dialogue using counseling information
CA3147813A1 (en) Method and system of generating and transmitting a transcript of verbal communication
US20190121860A1 (en) Conference And Call Center Speech To Text Machine Translation Engine
CN111858897A (en) Customer service staff speech guiding method and system
CN111902831B (en) Demonstration support system
JP2014179010A (en) Minutes creation support device, minutes creation support method, and program
WO2019003395A1 (en) Call center conversational content display system, method, and program
JP6639431B2 (en) Item judgment device, summary sentence display device, task judgment method, summary sentence display method, and program
JPWO2014208298A1 (en) Text classification device, text classification method, and text classification program
JP5892598B2 (en) Spoken character conversion work support device, phonetic character conversion system, phonetic character conversion work support method, and program
JPWO2020036189A1 (en) Response history creation support device, response history creation support method, data structure, program, display device, and editing support device
JP5818753B2 (en) Spoken dialogue system and spoken dialogue method
JP5341732B2 (en) Discourse summary generation system and discourse summary generation program
CN114462376A (en) RPA and AI-based court trial record generation method, device, equipment and medium
JP2012226651A (en) Information processing apparatus, information processing method, and program
JP2021125164A (en) Information processing apparatus, chat bot assisting program, and chat bot assisting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191224

R150 Certificate of patent or registration of utility model

Ref document number: 6639431

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150