JP2010021681A - Reception flow creation program, reception flow creation method, and reception flow creating apparatus - Google Patents
Reception flow creation program, reception flow creation method, and reception flow creating apparatus Download PDFInfo
- Publication number
- JP2010021681A JP2010021681A JP2008178803A JP2008178803A JP2010021681A JP 2010021681 A JP2010021681 A JP 2010021681A JP 2008178803 A JP2008178803 A JP 2008178803A JP 2008178803 A JP2008178803 A JP 2008178803A JP 2010021681 A JP2010021681 A JP 2010021681A
- Authority
- JP
- Japan
- Prior art keywords
- procedure
- keyword
- time
- customer
- section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、応対フロー作成プログラム、応対フロー作成方法及び応対フロー作成装置に係り、特に顧客に対する応対の通話を録音した通話録音データから応対フローを作成する応対フロー作成プログラム、応対フロー作成方法及び応対フロー作成装置に関する。 The present invention relates to a reception flow creation program, a reception flow creation method, and a reception flow creation device, and more particularly to a reception flow creation program, a reception flow creation method, and a reception flow for creating a reception flow from call recording data obtained by recording a call to a customer. The present invention relates to a flow creation device.
例えばヘルプデスクのような顧客からの質問に回答するコールセンタでは、同じ質問に対する回答時間が応対者(エージェント)によって異なっている。これは、エージェント毎に質問内容の状況・要因を切り分け,質問の本質課題を得るまでの手順、回答を説明する手順が異なる為と考えられている。 For example, in a call center that answers a question from a customer such as a help desk, the answering time for the same question varies depending on an agent (agent). This is thought to be because the procedure for separating the situation / factor of the question contents for each agent and obtaining the essential problem of the question and the procedure for explaining the answer are different.
一方、コールセンタの管理者は一つの応対に要する時間を、応対の品質を損なうことなく短縮し、コールセンタの業務の効率化を図りたいと考えている。このため、管理者は質問内容の状況・要因を切り分け,質問の本質課題を得るまでの手順、回答を説明する手順の違いを明らかにし、どのエージェントも最適な手順で回答できるようにしたい。 On the other hand, the call center manager wants to shorten the time required for one response without impairing the quality of the response and to improve the efficiency of the call center operations. For this reason, the administrator wants to identify the situation / factors of the question content, clarify the difference between the procedure for obtaining the essential problem of the question and the procedure for explaining the answer, and make it possible for any agent to answer in the optimal procedure.
現状のコールセンタでは、顧客からの質問内容(例えばフレキシブルディスクが読み込めない)と、その質問内容に対する最終回答(例えばプログラムディスクの×××.EXEを実行していただき、再起動後、フレキシブルディスクが開けることを御確認いただきました)と、が応対記録として残されている。 At the current call center, the customer's question (for example, the flexible disk cannot be read) and the final answer to the question (for example, xxx.EXE of the program disk is executed, and the flexible disk can be opened after rebooting. I have confirmed this), and is recorded as a response record.
しかし、応対記録には最終回答に至るまでの経緯が残されていない。例えばプログラムディスクの×××.EXEを実行したことは記載されているが、どのような手順でプログラムディスクの×××.EXEを実行したのか記載されていない。このように、残されている応対記録からは、質問内容の状況・要因を切り分け,質問の本質課題を得るまでの手順(問題切り分け手順)、回答を説明する手順(回答手順)が分からなかった。 However, there is no history in the response record until the final answer. For example, xxx. Although it is described that EXE has been executed, the procedure of xxx. It is not described whether EXE is executed. In this way, from the remaining response records, we did not know the procedure (question isolation procedure) to separate the situation / factors of the question contents and obtain the essential question of the question, and the procedure (answer procedure) to explain the answer. .
ところで、コールセンタでは顧客に対する各対応の全通話を録音し、通話録音データとして残してある。この通話録音データを聴けば、コールセンタでは問題切り分け手順と回答手順(説明手順)とが後からでも全て分かる。しかし、実際に人間が通話録音データを聴いて問題切り分け手順と説明手順とを調べる為には膨大な時間が掛かる。 By the way, in the call center, all calls corresponding to each customer are recorded and left as call recording data. By listening to the call recording data, the call center can understand the problem isolation procedure and the answer procedure (explanation procedure) later. However, it takes an enormous amount of time for humans to actually listen to call recording data and examine the problem isolation procedure and the explanation procedure.
通話録音データのような音声対話データから特徴的な箇所を抽出する技術としては例えば特許文献1があり、質問−応答箇所をその発話特徴を利用して抽出するものがある。また、コールセンタにおけるコール情報を利用した技術として例えば特許文献2があり、一つの案件に対する処理時間をそれに関わるコールの時間から計測するものがある。
通話録音データから説明手順等の各手順を抽出し、各手順の所要時間を抽出する為には通話録音データから手順を抽出する手段と、各手順の所要時間を算出する手段と、コールセンタでの通話に特有の無音区間(通話中断区間)を処理する手段とが必要である。特に従来のコールセンタでは、通話に特有の無音区間を、どのように処理するかが検討されていなかった。 In order to extract each procedure such as the explanation procedure from the call recording data and extract the time required for each procedure, means for extracting the procedure from the call recording data, means for calculating the time required for each procedure, A means for processing a silent section (call interruption section) peculiar to a call is necessary. In particular, in a conventional call center, it has not been studied how to process a silent section peculiar to a call.
コールセンタにおけるエージェントと顧客との通話中には、通話が中断する無音区間が存在する。無音区間が生じる要因は、エージェントが回答内容を調べているため顧客を待たせている、エージェントが顧客情報(過去の応対内容など)を検索しているため顧客を待たせている、顧客が質問内容の詳細を確認するためエージェントを待たせている、顧客がエージェントに説明された対処を実際に行っているためエージェントを待たせている等であり、誰が何のために生じさせたのかは、その都度異なっている。 During a call between an agent and a customer in a call center, there is a silent section where the call is interrupted. The reason for the silent section is that the agent is waiting for the customer because the agent is examining the response, the customer is waiting for the customer because the agent is searching for customer information (such as past response contents), and the customer is asking The agent is waiting to check the details of the content, the customer is waiting for the agent because the customer is actually doing the action explained to the agent, etc. It is different each time.
したがって、無音区間が通話中に存在する場合には、どの手順によって引き起こされた無音区間であり、どの手順の所要時間に含ませるのか、誰が生じさせた無音区間なのかを判定する必要があった。 Therefore, when there is a silent section during a call, it is necessary to determine which procedure is the silent section caused by which procedure, which time is included in the required time, and who the silent section is caused by .
本発明の一実施形態は、上記の点に鑑みなされたもので、通話中に存在する無音区間を適切に扱うことができ、各手順の問題点を容易に抽出することができる応対フロー作成プログラム、応対フロー作成方法及び応対フロー作成装置を提供することを目的とする。 One embodiment of the present invention has been made in view of the above points, and it is possible to appropriately handle a silent section existing during a call and to easily extract a problem of each procedure. An object is to provide a reception flow creation method and a reception flow creation apparatus.
上記課題を解決するため、本発明の一実施形態は、顧客に対する応対の通話を録音した通話録音データから応対フローを作成するためにコンピュータを、顧客に対する応対の手順ごとに、前記手順を説明する為に応対者が発話するキーワード及び前記手順の説明に呼応して顧客が発話するキーワードを対応付けて手順キーワード表として予め記録しておく手順キーワード表記録手段と、前記通話録音データから抽出された韻律情報に基づき、顧客及び応対者の発話区間を抽出する発話区間抽出手段と、前記通話録音データを音声認識し、認識したキーワード,話者,及び出現時間を音声認識結果として出力する音声認識手段と、前記手順キーワード表を読み出し、前記音声認識結果に含まれる認識したキーワードに対応する前記手順を、前記手順キーワード表に基づき抽出する手順抽出手段と、前記発話区間抽出手段が抽出した前記発話区間,前記音声認識手段が出力した前記音声認識結果,及び前記手順抽出手段が抽出した前記認識したキーワードに対応する前記手順に基づき、前記手順の開始から終了までの時間を算出すると共に、前記発話区間以外の無音区間がある場合、前記無音区間の直後の発話者を前記無音区間の発生者とし、前記無音区間の時間を前記手順の開始から終了までの時間に加算する手順時間算出手段と、前記手順の開始から終了までの時間に基づき、前記応対フローを作成して出力する応対フロー作成手段として機能させるための応対フロー作成プログラムである。 In order to solve the above-described problem, an embodiment of the present invention describes a computer for creating a reception flow from call recording data obtained by recording a reception call for a customer, and the procedure for each reception procedure for a customer. Therefore, a procedure keyword table recording means for pre-recording a keyword as a procedure keyword table in association with a keyword spoken by a responder and a keyword spoken by a customer in response to the description of the procedure, and extracted from the call recording data Speech segment extraction means for extracting speech segments of customers and respondents based on prosodic information, and speech recognition means for speech recognition of the call recording data and outputting the recognized keyword, speaker, and appearance time as speech recognition results And reading the procedure keyword table, the procedure corresponding to the recognized keyword included in the speech recognition result, Corresponding to the procedure extraction means for extracting based on the forward keyword table, the utterance section extracted by the utterance section extraction means, the speech recognition result output by the speech recognition means, and the recognized keyword extracted by the procedure extraction means Based on the procedure, the time from the start to the end of the procedure is calculated, and when there is a silent section other than the speech section, the speaker immediately after the silent section is set as the generator of the silent section, and the silence A procedure time calculating means for adding the time of the section to a time from the start to the end of the procedure, and a response flow creating means for creating and outputting the response flow based on the time from the start to the end of the procedure This is a response flow creation program.
なお、本発明の一実施形態の構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも本発明の態様として有効である。 In addition, what applied the component, the expression, or arbitrary combinations of the component of one Embodiment of this invention to a method, an apparatus, a system, a computer program, a recording medium, a data structure, etc. is also effective as an aspect of this invention. .
上述の如く、本発明の一実施形態によれば、通話中に存在する無音区間を適切に扱うことができ、各手順の問題点を容易に抽出することができる応対フロー作成プログラム、応対フロー作成方法及び応対フロー作成装置を提供可能である。 As described above, according to one embodiment of the present invention, a reception flow creation program and a reception flow creation that can appropriately handle a silent section existing during a call and can easily extract the problems of each procedure. A method and a service flow creation apparatus can be provided.
次に、本発明を実施するための最良の形態を、以下の実施例に基づき図面を参照しつつ説明していく。 Next, the best mode for carrying out the present invention will be described based on the following embodiments with reference to the drawings.
図1は本実施例の概要を表した一例の説明図である。本実施例の応対フロー作成装置1は顧客に対する各対応の全通話を録音した通話録音データを入力とする。応対フロー作成装置1は入力された通話録音データから後述のように手順箇所を特定し、各手順の所要時間を算出する。
FIG. 1 is an explanatory diagram showing an example of an outline of the present embodiment. The response
応対フロー作成装置1は、特定した手順箇所の前後に無音区間が存在する場合、どの手順によって引き起こされた無音区間であり、その無音区間をどの手順に入れるか後述のように判定する。また、応対フロー作成装置1は特定した手順箇所及び各手順の所要時間から後述のように応対フロー(説明手順等の各手順のフロー)を作成する。対応フロー作成装置1は各手順のフローと各手順の所要時間とを出力とする。
When there is a silent section before and after the specified procedure location, the reception
図2は、入力された通話録音データから手順箇所を特定し、各手順の所要時間を算出する処理を表した一例のイメージ図である。応対フロー作成装置1は、入力された通話録音データから手順箇所を特定するとき、エージェントの手順を示すキーワード(KW)と、そのエージェントのキーワードに呼応する顧客のキーワードとが出現する箇所を通話録音データから探す。応対フロー作成装置1は、エージェントのキーワードを含む発話区間の開始から、エージェントのキーワードに呼応する顧客のキーワードを含む発話区間の終了までを、そのキーワードが示す手順に掛かった時間(所要時間)とする。
FIG. 2 is an image diagram showing an example of processing for specifying a procedure part from input call recording data and calculating a time required for each procedure. When the response
例えば図2ではエージェントのキーワード「プログラムディスク、ダブルクリック」を含む発話区間10の開始から、エージェントのキーワード「プログラムディスク、ダブルクリック」に呼応する顧客のキーワード「プログラムディスク」を含む発話区間11の終了までを、そのキーワード「プログラムディスク、ダブルクリック」が示す手順の所要時間とする。
For example, in FIG. 2, from the start of the
図3は、各手順の所要時間を算出する処理のうち、隙間があいた場合の処理を表した一例のイメージ図である。応対フロー作成装置1は、音声認識で全てのキーワードを確実に抽出できる訳ではないため、特定した手順に隙間があいた場合、その隙間に入る手順を推定する。
FIG. 3 is an image diagram illustrating an example of a process when there is a gap among processes for calculating the time required for each procedure. Since the response
例えば図3ではエージェントのキーワード「プログラムディスク、ダブルクリック」を含む発話区間20の開始から、エージェントのキーワード「プログラムディスク、ダブルクリック」に呼応する顧客のキーワード「はい」を含む発話区間21の終了までを、そのキーワード「プログラムディスク、ダブルクリック」が示す手順2とする。
For example, in FIG. 3, from the start of the
また、図3ではエージェントのキーワード「フォルダ、開いて」を含む発話区間24の開始から、エージェントのキーワード「フォルダ、開いて」に呼応する顧客のキーワード「開きました」を含む発話区間25の終了までを、そのキーワード「フォルダ、開いて」が示す手順4とする。
Further, in FIG. 3, from the start of the
手順2と手順4との間に手順3があることが分かっていれば、応対フロー作成装置1は手順2と手順4との間にあいた隙間の発話区間22の開始から発話区間23の終了までを手順3と推定する。
If it is known that there is a
図4は、各手順の所要時間を算出する処理のうち、無音区間に対する処理を表した一例のイメージ図である。応対フロー作成装置1は、無音区間の出現する箇所によって、どの手順に対応する無音区間であるか、妥当な無音区間であるかを特定する。
FIG. 4 is an image diagram showing an example of a process for a silent section among the processes for calculating the time required for each procedure. The response
例えば図4ではエージェントのキーワード「プログラムディスク、ダブルクリック」を含む発話区間30の開始から、エージェントのキーワード「プログラムディスク、ダブルクリック」に呼応する顧客のキーワード「はい」を含む発話区間32の終了までを、そのキーワード「プログラムディスク、ダブルクリック」が示す手順とする。
For example, in FIG. 4, from the start of the utterance section 30 including the agent keyword “program disk, double click” to the end of the
キーワード「プログラムディスク、ダブルクリック」が示す手順には、発話区間31と発話区間32との間に無音区間33が含まれている。応対フロー作成装置1は無音区間33の直後の最初の発話者が誰であるかによって、その無音区間33が誰によって引き起こされたかを特定する。
The procedure indicated by the keyword “program disc, double click” includes a
具体的に、応対フロー作成装置1は無音区間33の直後の発話区間32の発話者が顧客であることから無音区間33が顧客によって引き起こされたものと推定する。なお、応対フロー作成装置1は、無音区間33の直後の発話区間32の発話者がエージェントである場合、無音区間33がエージェントによって引き起こされたものと推定する。
Specifically, the response
図5は、各手順の所要時間を算出する処理のうち、無音区間に対する処理を表した他の例のイメージ図である。図5ではエージェントのキーワード「プログラムディスク、ダブルクリック」に呼応する顧客のキーワード「はい」を含む発話区間41の後に、無音区間44が出現している。
FIG. 5 is a conceptual diagram showing another example of the process for the silent section among the processes for calculating the time required for each procedure. In FIG. 5, a
応対フロー作成装置1は、エージェントのキーワード「プログラムディスク、ダブルクリック」が示す手順に付随するエージェント操作の有無により、後述のように無音区間44が妥当なものであるか、無音区間44をエージェントのキーワード「プログラムディスク、ダブルクリック」が示す手順の一部とみなすのか、を判定する。
The response
具体的に、応対フロー作成装置1は発話区間40の開始から発話区間41の終了までの手順に付随するエージェント操作の後作業があれば、その後作業を無音区間44で行っていると推定し、その無音区間44を発話区間40の開始から発話区間41の終了までの手順の所要時間に加算する。また、応対フロー作成装置1は発話区間40の開始から発話区間41の終了までの手順に付随するエージェント操作の後作業があれば、無音区間44を妥当なものと判定する。
Specifically, if there is a post-operation of the agent operation accompanying the procedure from the start of the utterance section 40 to the end of the
なお、応対フロー作成装置1は発話区間40の開始から発話区間41の終了までの手順に付随するエージェント操作の後作業が無く、且つ発話区間42の開始から発話区間43の終了までの手順に付随するエージェント操作の前作業が無ければ、その無音区間44を発話区間40の開始から発話区間41の終了までの手順の所要時間に加算する。また、応対フロー作成装置1は無音区間44を妥当でないものと判定する。
Note that the response
図6は応対フロー作成装置の一例のハードウェア構成図である。応対フロー作成装置1は、それぞれバスBで相互に接続されている入力装置51,出力装置52,ドライブ装置53,補助記憶装置54,主記憶装置55,演算処理装置56およびインターフェース装置57を有するように構成される。
FIG. 6 is a hardware configuration diagram of an example of a reception flow creation apparatus. The response
入力装置51はキーボードやマウスなどで構成され、各種信号を入力するために用いられる。出力装置52はディスプレイ装置などで構成され、各種ウインドウやデータ等を表示するために用いられる。インターフェース装置57は、モデム,LANカードなどで構成されており、ネットワークに接続する為に用いられる。
The
本実施例の応対フロー作成プログラムは、応対フロー作成装置1を制御する各種プログラムの少なくとも一部である。応対フロー作成プログラムは例えば記録媒体58の配布やネットワークからのダウンロードなどによって提供される。応対フロー作成プログラムを記録した記録媒体58は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
The reception flow creation program of this embodiment is at least a part of various programs that control the reception
また、応対フロー作成プログラムを記録した記録媒体58がドライブ装置53にセットされると、応対フロー作成プログラムは記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。ネットワークからダウンロードされた応対フロー作成プログラムは、インターフェース装置57を介して補助記憶装置54にインストールされる。補助記憶装置54は、インストールされた応対フロー作成プログラムを格納すると共に、必要なファイル,データ等を格納する。
When the
主記憶装置55は、応対フロー作成プログラムの起動時に、補助記憶装置54から応対フロー作成プログラムを読み出して格納する。そして、演算処理装置56は主記憶装置55に格納された応対フロー作成プログラムに従って、ソフトウェアとハードウェア資源とが協働した処理部(具体的手段)によって、後述するような各種処理を実現している。
The
図7は応対フロー作成装置の処理部とデータとの関係を表した構成図である。図7の応対フロー作成装置1は、韻律情報抽出部61と、発話区間抽出部62と、フェーズ推定部63と、音声認識部64と、手順抽出部65と、手順時間算出部66と、応対フロー作成部67とを有する構成である。
FIG. 7 is a configuration diagram showing the relationship between the processing unit and data of the reception flow creation apparatus. 7 includes a prosodic
また、図7の応対フロー作成装置1は、通話録音データ71,韻律データ72,発話区間情報73,フェーズ情報74,音声認識キーワードリスト75,音声認識結果76,手順キーワード表77,手順抽出データ78,応対フローデータ79,応対手順時間情報80を利用している。
Also, the response
ここでは、応対フロー作成装置1の処理部とデータとの関係を、図8のフローチャートに従って説明する。図8は応対フロー作成装置の処理手順を表した一例のフローチャートである。
Here, the relationship between the processing unit of the reception
ステップS1に進み、韻律情報抽出部61は通話録音データ71を入力される。通話録音データ71は、例えばエージェントの音声及び顧客の音声を別チャネルで録音したステレオファイルである。通話録音データ71は各コールの最初から最後までの全通話が録音されている。通話録音データ71には、例えば応対記録と紐付けられるインシデントIDや録音開始日時などの情報が付随している。
Proceeding to step
韻律情報抽出部61は、入力された通話録音データ71からエージェント及び顧客の韻律データ72を抽出して出力する。韻律情報抽出部61の処理及び韻律データ72の詳細は後述する。
The prosody
発話区間抽出部62はステップS2に進み、入力された韻律データ72からエージェント及び顧客の発話区間を抽出して発話区間情報73として出力する。発話区間抽出部62の処理及び発話区間情報73の詳細は後述する。また、フェーズ推定部63はステップS3に進み、入力された発話区間情報73から質問フェーズと問題切り分け・回答フェーズとを推定し、フェーズ情報74として出力する。なお、フェーズ推定部63による処理は必須ではない。フェーズ推定部63の処理及びフェーズ情報74の詳細は後述する。
In
ステップS4に進み、音声認識部64は通話録音データ71,フェーズ情報74,音声認識キーワードリスト75が入力される。音声認識部64は、入力されたフェーズ情報74及び音声認識キーワードリスト75を利用して通話録音データ71の音声認識を行って音声認識結果76を出力する。なお、音声認識部76の処理,音声認識キーワードリスト75及び音声認識結果76の詳細は後述する。
In step S4, the
ステップS5に進み、手順抽出部65は音声認識結果76及び手順キーワード表77が入力される。手順抽出部65は、入力された音声認識結果76及び手順キーワード表77を利用して手順箇所の特定を行って手順抽出データ78を出力する。なお、手順抽出部65の処理,手順キーワード表77及び手順抽出データ78の詳細は後述する。
In step S5, the
ステップS6に進み、手順時間算出部66は発話区間情報73,音声認識結果76及び手順キーワード表77が入力される。手順時間算出部66は、入力された発話区間情報73,音声認識結果76及び手順キーワード表77を利用して手順時間算出を行って手順抽出データ78にデータを追加する。なお、手順時間算出部66の処理,手順抽出データ78に追加するデータの詳細は後述する。
In step S6, the procedure
ステップS7に進み、応対フロー作成部67は手順抽出データ78を入力される。応対フロー作成部67は、入力された手順抽出データ78を利用して応対フローデータ79及び応対手順時間情報80を作成して出力する。なお、応対フロー作成部67の処理,応対フローデータ79及び応対手順時間情報80の詳細は後述する。
In
以下では、図7に示した応対フロー作成装置1の各処理部が行う処理について詳細に説明していく。
Below, the process which each process part of the reception
(韻律情報抽出部61)
韻律情報抽出部61は、エージェントの音声及び顧客の音声を別チャネルで録音したステレオデータである通話音声データ71が入力される。韻律情報抽出部61は、入力された通話音声データ71の韻律情報(パワー値)を一定時間ごとに算出し、エージェント及び顧客の韻律データ72を抽出して出力する。
(Prosodic information extraction unit 61)
The prosodic
図9はエージェント及び顧客の韻律データの一例を示す説明図である。図9に示した韻律データ72は一行が時間とパワー値との組であり、一定時間(12.8msec)ごとのパワー値列を表している。
FIG. 9 is an explanatory diagram showing an example of prosodic data of agents and customers. In the
(発話区間抽出部62)
発話区間抽出部62は、エージェント及び顧客の韻律データ72を入力される。発話区間抽出部62は、入力されたエージェントの韻律データ72から閾値以上のパワー値が連続しており、且つ、その連続時間が最低発話時間以上の箇所をエージェントの発話区間として抽出し、エージェントの発話区間情報73として出力する。
(Speech section extraction unit 62)
The utterance
また、発話区間抽出部62は入力された顧客の韻律データ72から閾値以上のパワー値が連続しており、且つ、その連続時間が最低発話時間以上の箇所を顧客の発話区間として抽出し、顧客の発話区間情報73として出力する。
Further, the utterance
図10はエージェント及び顧客の発話区間情報の一例を示す説明図である。図10に示した発話区間情報73は発話ID,開始時間及び終了時間の組であり、発話区間ごとの開始時間及び終了時間を表している。
FIG. 10 is an explanatory diagram showing an example of agent and customer utterance section information. The
(フェーズ推定部63)
フェーズ推定部63が行う処理は必須でない。フェーズ推定部63が行う処理は、精度向上に寄与するものである。フェーズ推定部63はエージェント及び顧客の発話区間情報73を入力される。フェーズ推定部63は、入力されたエージェント及び顧客の発話区間情報73から発話区間の主導権話者を推定する。なお、発話区間の主導権話者を推定する方法は周知であるが、例えば特開2007−184699号公報に記載されている方法を利用できる。
(Phase estimation unit 63)
The processing performed by the
フェーズ推定部63は、通話録音データ71の開始直後の顧客が主導権話者となっている発話区間を質問フェーズと推定する。また、フェーズ推定部63は、質問フェーズ後のエージェントが主導権話者となっている発話区間を、問題切り分け・回答フェーズと推定する。フェーズ推定部63は、推定した質問フェーズと問題切り分け・回答フェーズとをフェーズ情報74として出力する。
The
図11は、フェーズ情報の一例を示す説明図である。図11に示したフェーズ情報74はフェーズ,開始時間及び終了時間の組である。フェーズ情報74は、質問フェーズ及び問題切り分け・回答フェーズごとの開始時間及び終了時間を表している。
FIG. 11 is an explanatory diagram showing an example of phase information. The
(音声認識部64)
音声認識部64は、通話録音データ71及び音声認識キーワードリスト75が入力される。なお、フェーズ情報74を利用する場合、音声認識部64はフェーズ情報74も入力される。
(Voice recognition unit 64)
The
図12は音声認識キーワードリストの一例を示す説明図である。音声認識キーワードリスト75は音声認識辞書である。音声認識キーワードリスト75は、マニュアル,FAQや手順書等から後述のように作成される。音声認識キーワードリスト75は、エージェント及び顧客それぞれに用意される。なお、図12に示した音声認識キーワードリスト75はキーワードと読みとの組である。
FIG. 12 is an explanatory diagram showing an example of a voice recognition keyword list. The voice
音声認識部64は、音声認識にワードスポッティングを利用する。音声認識部64は通話録音データ71の音声認識を行う。なお、フェーズ情報74を利用する場合は、通話録音データ71の切り分け・回答フェーズに限定して音声認識を行う。例えばエージェントの音声を録音した通話音声データ71の場合、音声認識部64はエージェント用音声認識キーワードリスト75を利用する。また、音声認識部64は顧客の音声を録音した通話音声データ71の場合、顧客用音声認識キーワードリスト75を利用する。
The
音声認識部64は通話録音データ71の音声認識を行った結果である音声認識結果76を出力する。図13は音声認識結果の一例を示す説明図である。図13に示した音声認識結果76は、認識結果ID,認識キーワード,話者及び出現時刻の組である。音声認識結果76は、認識結果IDごとの認識キーワード,話者及び出現時刻を表している。
The
認識結果IDは、音声認識結果を識別するものである。認識キーワードは音声認識により認識した認識キーワードを表す。話者は認識キーワードを発話したエージェント又は顧客を表す。また、出現時刻は認識キーワードが出現する通話録音データ71の先頭からの経過時刻を表す。
The recognition result ID is for identifying the voice recognition result. The recognition keyword represents a recognition keyword recognized by voice recognition. The speaker represents an agent or a customer who has spoken the recognition keyword. The appearance time represents the elapsed time from the beginning of the
(手順抽出部65)
手順抽出部65は、音声認識結果76及び手順キーワード表77が入力される。図14は手順キーワード表の一例を示す説明図である。図14の手順キーワード表77は、手順ID,エージェント操作,抽出キーワード,品詞及び対応語句の組である。手順IDは手順を識別するものである。エージェント操作は、各手順におけるエージェントの操作内容を表すものである。
(Procedure extraction unit 65)
The
抽出キーワードは手順を説明するためにエージェントが発話する、手順を特定するためのキーワードである。品詞は抽出キーワードの品詞情報である。対応語句はエージェントの手順説明に対する顧客応答で発話される語句である。なお、手順キーワード表77はマニュアル,FAQや手順書等から後述のように作成される。 The extracted keyword is a keyword for specifying the procedure that the agent speaks to explain the procedure. The part of speech is the part of speech information of the extracted keyword. The corresponding word / phrase is a word / phrase uttered by a customer response to the agent's procedure explanation. The procedure keyword table 77 is created from a manual, FAQ, procedure manual, etc. as described later.
手順抽出部65は、手順箇所の特定を次のように行う。手順抽出部65は入力された音声認識結果76から話者がエージェントの認識キーワードを抽出キーワードとして順番に取り出す。手順抽出部65は、取り出したエージェントの抽出キーワードに対応する手順IDと対応語句とを手順キーワード表77から取り出す。
The
手順抽出部65は音声認識結果76からエージェントの抽出キーワード直後の話者が顧客の認識キーワードで対応語句であるものを顧客キーワードとして取り出す。なお、ここで言うエージェントの抽出キーワード直後とは、次のエージェントの認識キーワードが出現するまで、且つ、予め定めた時間の範囲内を言う。
The
手順抽出部65は、エージェントの抽出キーワードと、エージェントの抽出キーワード直後の話者が顧客の認識キーワードで対応語句である顧客キーワードと、抽出キーワードに対応する手順IDと、認識結果IDとを一つの手順箇所を示すものとして特定し、手順抽出データ78に記入する。
The
図15は手順抽出部により記入された手順抽出データの一例を示す説明図である。図15の手順抽出データ78は、エージェントキーワード,エージェントキーワードの認識結果ID,顧客キーワード,顧客キーワードの認識結果ID,手順ID,開始時間,終了時間,無音区間,無音区間の発生者,及び無音区間の妥当性の組である。
FIG. 15 is an explanatory diagram showing an example of procedure extraction data entered by the procedure extraction unit. The
図15の手順抽出データ78は、エージェントキーワードと、エージェントキーワードの認識結果IDと、顧客キーワードと、顧客キーワードの認識結果IDと、手順IDとが記入された状態を表している。
The
図16は手順抽出部の処理手順を表した一例のフローチャートである。ステップS11に進み、手順抽出部65は音声認識結果76から話者がエージェントの認識キーワードを抽出キーワードとして順番に取り出す。手順抽出部65は、取り出したエージェントの抽出キーワードに対応する手順IDと対応語句とを手順キーワード表77から取り出す。
FIG. 16 is a flowchart illustrating an example of the processing procedure of the procedure extracting unit. In step S11, the
ステップS12に進み、手順抽出部65は音声認識結果76から話者が顧客である次の認識キーワードの取得を試みる。ステップS13に進み、手順抽出部65は音声認識結果76から話者が顧客である次の認識キーワードがあれば、その話者が顧客である次の認識キーワードを取得し、ステップS14の処理に進む。
In step S12, the
ステップS14に進み、手順抽出部65は、取得した顧客の次の認識キーワードの出現時刻が、エージェントの認識キーワードの出現時刻+α(予め定めた時間)の範囲内であり、且つエージェントの次の認識キーワードの出現時刻より前であり、且つ取得した顧客の次の認識キーワードがエージェントの認識キーワードの対応語句であるか否かを判定する。
In step S14, the
取得した顧客の次の認識キーワードの出現時刻が、エージェントの認識キーワードの出現時刻+α(予め定めた時間)の範囲内であり、且つエージェントの次の認識キーワードの出現時刻より前であり、且つ取得した顧客の次の認識キーワードがエージェントの認識キーワードの対応語句であれば、手順抽出部65はステップS15に進む。
The appearance time of the next recognition keyword of the acquired customer is within the range of the appearance time of the recognition keyword of the agent + α (predetermined time), and is earlier than the appearance time of the next recognition keyword of the agent. If the next recognized keyword of the customer is the corresponding phrase of the recognized keyword of the agent, the
取得した顧客の次の認識キーワードの出現時刻が、エージェントの認識キーワードの出現時刻+α(予め定めた時間)の範囲内であり、且つエージェントの次の認識キーワードの出現時刻より前であり、且つ取得した顧客の次の認識キーワードがエージェントの認識キーワードの対応語句でなければ、手順抽出部65はステップS12に戻る。
The appearance time of the next recognition keyword of the acquired customer is within the range of the appearance time of the recognition keyword of the agent + α (predetermined time), and is earlier than the appearance time of the next recognition keyword of the agent. If the next recognized keyword of the customer is not the corresponding phrase of the recognized keyword of the agent, the
ステップS15に進み、手順抽出部65は、エージェントキーワードと、エージェントキーワードの認識結果IDと、顧客キーワードと、顧客キーワードの認識結果IDと、手順IDとを一つの手順箇所を示すものとして手順抽出データ78に記入する。ステップS11〜S15の処理は未処理の音声認識結果76がある限り、繰り返し行われる。
In step S15, the
(手順時間算出部66)
手順時間算出部66は、発話区間情報73,音声認識結果76及び手順キーワード表77が入力される。手順時間算出部66は、図17に示す処理手順により各手順の時間算出を行う。
(Procedure time calculation unit 66)
The procedure
図17は手順時間算出部が行う処理手順を表した一例のフローチャートである。ステップS21に進み、手順時間算出部66は手順抽出部65によって手順抽出データ78に記入された各手順の開始時間と終了時間とを求める。なお、ステップS21の処理の詳細は後述する。
FIG. 17 is a flowchart illustrating an example of a processing procedure performed by the procedure time calculation unit. In step S21, the procedure
ステップS22に進み、手順時間算出部66は手順抽出データ78に記入された各手順のうち、連続している同一手順を重複する手順として同一手順としてまとめ、抽出漏れの手順を推定して挿入する。なお、ステップS22の処理の詳細は後述する。ステップS23に進み、手順時間算出部66は無音区間の処理を行う。なお、ステップS23の詳細は後述する。
Proceeding to step S22, the procedure
ステップS21の処理は次のように行う。ステップS21の処理は、手順抽出部65によって手順抽出データ78に記入された全ての手順について開始時間と終了時間とを記入するものである。
The process of step S21 is performed as follows. The process of step S21 is to enter the start time and end time for all the procedures entered in the
まず、手順時間算出部66は、手順抽出部65によって手順抽出データ78に記入された全ての手順を順番に取り出す。手順時間算出部66は、取り出した手順のエージェントキーワードの認識結果IDに基づき、音声認識結果76からエージェントキーワードの出現時刻を取得する。そして、手順時間算出部66はエージェントキーワードの出現時刻を含む発話区間をエージェントの発話区間情報73から取得し、その発話区間の開始時間を手順の開始時間とする。
First, the procedure
手順時間算出部66は、取り出した手順の顧客キーワードの認識結果IDに基づき、音声認識結果76から顧客キーワードの出現時刻を取得する。そして、手順時間算出部66は顧客キーワードの出現時刻を含む発話区間を顧客の発話区間情報73から取得し、その発話区間の終了時間を手順の終了時間とする。
The procedure
そして、手順時間算出部66は、手順の開始時間と終了時間とを手順抽出データ67に記入する。図18は、手順時間算出部により開始時間と終了時間とが記入された手順抽出データの一例を示す説明図である。
Then, the procedure
図19はステップS21の処理手順を表した一例のフローチャートである。ステップS31に進み、手順時間算出部66は、手順のエージェントキーワードの認識結果IDに基づき、音声認識結果76からエージェントキーワードの出現時刻を取得する。手順時間算出部66は、エージェントキーワードの出現時刻を含む発話区間をエージェントの発話区間情報73から取得し、その発話区間の開始時間を手順の開始時間とする。
FIG. 19 is a flowchart illustrating an example of the processing procedure of step S21. In step S31, the procedure
ステップS32に進み、手順時間算出部66は、手順の顧客キーワードの認識結果IDに基づき、音声認識結果76から顧客キーワードの出現時刻を取得する。そして、手順時間算出部66は顧客キーワードの出現時刻を含む発話区間を顧客の発話区間情報73から取得し、その発話区間の終了時間を手順の終了時間とする。
In step S32, the procedure
ステップS33に進み、手順時間算出部66は、手順の開始時間と終了時間とを手順抽出データ67に記入する。ステップS34に進み、手順時間算出部66は処理対象とする手順を手順抽出データ78の次の手順に進める。ステップS31〜S34の処理は未処理の手順が手順抽出データ78にある限り、繰り返し行われる。
In
ステップS22の処理は次のように行う。ステップS22の処理は、手順抽出部65によって手順抽出データ78に記入された全ての手順について、重複する手順の修正および抽出漏れの手順の挿入するものである。
The process of step S22 is performed as follows. The process of step S22 is to insert duplicate procedure corrections and extraction omission procedures for all procedures entered in the
まず、手順時間算出部66は、手順抽出部65によって手順抽出データ78に記入された全ての手順を順番に取り出す。手順時間算出部66は、処理対象の手順の手順IDと次の手順の手順IDとが同じであるかを調べる。処理対象の手順の手順IDと次の手順の手順IDとが同じである場合、手順時間算出部66は処理対象の手順と次の手順とをマージする。このとき、手順時間算出部66は手順の開始時間に処理対象の手順の開始時間を採用し、手順の終了時間に次の手順の終了時間を採用する。
First, the procedure
なお、手順時間算出部66は、エージェントキーワード,エージェントキーワードの認識結果ID,顧客キーワード,顧客キーワードの認識結果IDを処理対象の手順と次の手順とをマージし、マージした次の手順を削除する。
The procedure
また、手順時間算出部66は、処理対象の手順の手順IDと次の手順の手順IDとの間に手順が存在し、且つ、処理対象の手順の終了と次の手順の開始との間に発話区間が存在するかを調べる。処理対象の手順の手順IDと次の手順の手順IDとの間に手順が存在するか否かは、手順キーワード表77から調べることができる。また、処理対象の手順の終了と次の手順の開始との間に発話区間が存在するか否かは、発話区間情報73から調べることができる。
Further, the procedure
処理対象の手順の手順IDと次の手順の手順IDとの間に手順が存在し、且つ、処理対象の手順の終了と次の手順の開始との間に発話区間が存在する場合、手順時間算出部66は抽出漏れの手順があると推定し、手順抽出データ78の処理対象の手順と次の手順との間に抽出漏れの手順を挿入し、処理対象の手順の終了と次の手順の開始との間にある発話区間の開始時間及び終了時間を手順の開始時間及び終了時間として記入する。
If there is a procedure between the procedure ID of the procedure to be processed and the procedure ID of the next procedure, and there is an utterance section between the end of the procedure to be processed and the start of the next procedure, the procedure time The
図20は、手順時間算出部により重複する手順の修正および抽出漏れの手順の挿入がされた手順抽出データの一例を示す説明図である。図20の手順抽出データ78は手順IDが「A−1」の手順が同一手順としてまとめられ、手順IDが「A−3」の手順が抽出漏れの手順として挿入されている。
FIG. 20 is an explanatory diagram illustrating an example of procedure extraction data in which the procedure time calculation unit corrects duplicate procedures and inserts an extraction failure procedure. In the
図21はステップS22の処理手順を表した一例のフローチャートである。ステップS41に進み、手順時間算出部66は処理対象の手順と次の手順とが同じであるか否かを判定する。
FIG. 21 is a flowchart illustrating an example of the processing procedure of step S22. In step S41, the procedure
処理対象の手順と次の手順とが同じである場合、手順時間算出部66はステップS42に進み、処理対象の手順と次の手順とをマージする。このとき、手順時間算出部66は手順の開始時間に処理対象の手順の開始時間を採用し、手順の終了時間に次の手順の終了時間を採用して、ステップS43に進む。なお、処理対象の手順と次の手順とが同じでない場合、手順時間算出部66はステップS41からステップS43に進む。
If the procedure to be processed and the next procedure are the same, the procedure
ステップS43では、手順時間算出部66が、処理対象の手順と次の手順との間に手順が存在し、且つ、処理対象の手順と次の手順との間に、発話区間が存在するか否かを判定する。
In step S43, the procedure
処理対象の手順と次の手順との間に手順が存在し、且つ、処理対象の手順と次の手順との間に発話区間が存在する場合、手順時間算出部66はステップS44に進み、抽出漏れの手順があると推定し、手順抽出データ78の処理対象の手順と次の手順との間に一行挿入し、処理対象の手順と次の手順との間に存在する手順の手順IDを記入し,処理対象の手順と次の手順との間にある発話区間の開始時間及び終了時間を手順の開始時間及び終了時間として記入して、ステップS45に進む。
If there is a procedure between the procedure to be processed and the next procedure, and there is an utterance section between the procedure to be processed and the next procedure, the procedure
なお、処理対象の手順と次の手順との間に手順が存在せず、又は、処理対象の手順と次の手順との間に発話区間が存在しない場合、手順時間算出部66はステップS43からステップS45に進む。ステップS45に進み、手順時間算出部66は処理対象とする手順を手順抽出データ78の次の手順に進める。ステップS41〜S45の処理は未処理の手順が手順抽出データ78にある限り、繰り返し行われる。
When there is no procedure between the procedure to be processed and the next procedure, or when there is no utterance section between the procedure to be processed and the next procedure, the procedure
ステップS23の処理は次のように行う。ステップS23の処理は、無音区間の処理を行うものである。まず、手順時間算出部66は無音区間情報を作成する。手順時間算出部66は、発話区間情報73から各話者の発話区間を順番に取得し、発話の存在しない区間が一定時間以上であれば、その一定期間以上の発話の存在しない区間を無音区間として無音区間情報を作成する。なお、無音区間を判定する為の一定時間とは、通常の対話において自然に生じる間として許容される時間である。
The process of step S23 is performed as follows. The process of step S23 performs a silent section. First, the procedure
図22は無音区間情報の一例を示す説明図である。図22に示した無音区間情報は開始時間,終了時間及び区間の組であり、無音区間ごとの開始時間,終了時間及び区間を表している。 FIG. 22 is an explanatory diagram showing an example of silent section information. The silent section information shown in FIG. 22 is a set of start time, end time and section, and represents the start time, end time and section for each silent section.
次に、手順時間算出部66は処理対象とする手順の開始時間及び終了時間をみて、処理対象とする手順に無音区間があるかを判定する。無音区間があれば、手順時間算出部66は無音区間の出現直後の話者および付随する作業(エージェント操作)から、無音区間を生じさせた話者(無音区間の発生者)を判定すると共に、その無音区間が生じることのあり得る手順なのか(妥当性のある手順なのか)を判定する。
Next, the procedure
手順時間算出部66は判定した結果から手順抽出データ78の無音区間,無音区間の発生者及び無音区間の妥当性を記入する。
The procedure
また、手順時間算出部66は処理対象とする手順の開始時間と次に手順の終了時間とをみて、処理対象とする手順と次の手順との間に無音区間があるかを判定する。無音区間があれば、手順時間算出部66は無音区間の出現直後の話者、及び、対象とする手順と次の手順とに付随する作業(エージェント操作)から、無音区間を生じさせている手順,それに伴って修正される開始時間及び終了時間,無音区間を生じさせた話者,無音区間の妥当性を判定する。
Further, the procedure
手順時間算出部66は判定した結果から手順抽出データ78の無音区間,無音区間の発生者及び無音区間の妥当性を記入すると共に、必要があれば開始時間及び終了時間を修正する。
The procedure
図23は、無音区間の処理を行った手順抽出データの一例を示す説明図である。図23の手順抽出データ78は手順IDが「A−2」の手順に、無音区間,無音区間の発生者及び無音区間の妥当性が記入されている。
FIG. 23 is an explanatory diagram showing an example of procedure extraction data obtained by processing a silent section. In the
図24はステップS23の処理手順を表した一例のフローチャートである。ステップS51に進み、手順時間算出部66は無音区間情報を作成する。ステップS52に進み、手順時間算出部66は処理対象とする手順の開始時間から終了時間までに無音区間があるか否かを判定する。無音区間があれば、手順時間算出部66はステップS53に進み、後述の無音区間の処理Aを行ったあと、ステップS54に進む。
FIG. 24 is a flowchart illustrating an example of the processing procedure of step S23. In step S51, the procedure
ステップS54に進み、手順時間算出部66は、ステップS53の無音区間の処理Aの結果から手順抽出データ78の無音区間,無音区間の発生者及び無音区間の妥当性を記入したあと、ステップS56に進む。処理対象とする手順の開始時間から終了時間までに無音区間が無ければ、手順時間算出部66はステップS55に進み、手順抽出データ78の無音区間に、無音区間の時間が0であることを表す「0」を記入したあと、ステップS56に進む。
Proceeding to step S54, the procedure
ステップS56に進み、手順時間算出部66は処理対象とする手順の開始時間と次に手順の終了時間との間に無音区間があるかを判定する。無音区間があれば、手順時間算出部66はステップS57に進み、後述の無音区間の処理Bを行ったあと、ステップS58に進む。ステップS58に進み、手順時間算出部66は、ステップS57の無音区間の処理Bの結果から手順抽出データ78の無音区間,無音区間の発生者及び無音区間の妥当性を記入すると共に、必要があれば開始時間及び終了時間を修正したあと、ステップS60に進む。
In step S56, the procedure
処理対象とする手順の開始時間と次に手順の終了時間との間に無音区間が無ければ、手順時間算出部66はステップS59に進み、手順抽出データ78の無音区間に、無音区間の時間が0であることを表す「0」を記入したあと、ステップS60に進む。ステップS60に進み、手順時間算出部66は処理対象とする手順を手順抽出データ78の次の手順に進める。ステップS52〜S60の処理は未処理の手順が手順抽出データ78にある限り、繰り返し行われる。
If there is no silence interval between the start time of the procedure to be processed and the end time of the next procedure, the procedure
図25はステップS53の処理手順を表した一例のフローチャートである。ステップS71に進み、手順時間算出部66は無音区間の出現直後の話者がエージェントであるか否かを判定する。無音区間の出現直後の話者がエージェントであれば、手順時間算出部66は無音区間を生じさせた話者をエージェントとし、ステップS73に進む。
FIG. 25 is a flowchart illustrating an example of the processing procedure of step S53. In step S71, the procedure
ステップS73に進み、手順時間算出部66は手順キーワード表77を参照し、処理対象とする手順のエージェント操作が空を表す「なし」であるか判定する。処理対象とする手順のエージェント操作が空であれば、手順時間算出部66はステップS74に進み、無音区間の妥当性が無いと判定する。
In step S73, the procedure
なお、ステップS71において、無音区間の出現直後の話者が顧客であれば、手順時間算出部66は無音区間を生じさせた話者を顧客とする。ステップS73において、処理対象とする手順のエージェント操作が空でなければ、手順時間算出部66はステップS76に進む。
In step S71, if the speaker immediately after the appearance of the silent section is a customer, the procedure
ステップS76に進み、手順時間算出部66は手順キーワード表77を参照し、処理対象とする手順のエージェント操作が「途中処理」以外であるか判定する。処理対象とする手順のエージェント操作が「途中処理」以外であれば、手順時間算出部66はステップS74に進み、無音区間の妥当性が無いと判定する。処理対象とする手順のエージェント操作が「途中処理」であれば、手順時間算出部66はステップS77に進み、無音区間の妥当性があると判定する。
In step S76, the procedure
図26はステップS57の処理手順を表した一例のフローチャートである。ステップS81に進み、手順時間算出部66は無音区間の出現直後の話者がエージェントであるか否かを判定する。無音区間の出現直後の話者がエージェントであれば、手順時間算出部66は無音区間を生じさせた話者をエージェントとし、ステップS83に進む。
FIG. 26 is a flowchart showing an example of the processing procedure of step S57. In step S81, the procedure
ステップS83に進み、手順時間算出部66は手順キーワード表77を参照し、処理対象とする手順のエージェント操作が空を表す「後処理」であるか判定する。処理対象とする手順のエージェント操作が「後処理」であれば、手順時間算出部66はステップS84に進み、処理対象とする手順の終了を無音区間の終了時間に修正し、無音区間を対象とする手順に加算する。ステップS85に進み、手順時間算出部66は無音区間の妥当性があると判定する。
Proceeding to step S83, the procedure
なお、ステップS81において、無音区間の出現直後の話者が顧客であれば、手順時間算出部66は無音区間を生じさせた話者を顧客とする。ステップS83において、処理対象とする手順のエージェント操作が「後処理」でなければ、手順時間算出部66はステップS87に進む。
In step S81, if the speaker immediately after the appearance of the silent section is a customer, the procedure
ステップS87に進み、手順時間算出部66は手順キーワード表77を参照し、処理対象とする手順のエージェント操作が「前処理」であるか判定する。
In step S87, the procedure
処理対象とする手順のエージェント操作が「前処理」であれば、手順時間算出部66はステップS88に進み、処理対象とする手順の開始を無音区間の開始時間に修正し、無音区間を次の手順に加算する。ステップS85に進み、手順時間算出部66は無音区間の妥当性があると判定する。
If the agent operation of the procedure to be processed is “pre-processing”, the procedure
処理対象とする手順のエージェント操作が「前処理」でなければ、手順時間算出部66はステップS89に進み、処理対象とする手順の終了を無音区間の終了時間に修正し、無音区間を次の手順に加算する。ステップS90に進み、手順時間算出部66は無音区間の妥当性がないと判定する。
If the agent operation of the procedure to be processed is not “pre-processing”, the procedure
(応対フロー作成部67)
応対フロー作成部67は、手順抽出データ78が入力される。応対フロー作成部67は手順抽出データ78の上から順番に、一手順を一マスとして図27の応対フローデータ79を作成する。
(Responding flow creation unit 67)
The
図27は応対フローデータの一例のイメージ図である。応対フローデータ79は各手順が無音区間を含むか、その無音区間が妥当であるか否かを、色分けなどにより区別して表示する。例えば応対フロー作成部67は無音区間のある手順の場合、枠の色を変え、その無音区間が妥当でないときに色で塗りつぶす。
FIG. 27 is an image diagram of an example of reception flow data. The response flow data 79 displays whether each procedure includes a silent section or whether the silent section is valid or not by distinguishing it by color coding or the like. For example, in the case of a procedure with a silent section, the reception
標準となる応対フローデータ(標準フロー)が予めある場合には、応対フローデータ79と標準フローとを比較する。標準フローより手順が多い場合、応対フロー作成部67は例えば多い手順にマーク付けをし、又は手順名に記号を入れる。
When there is standard response flow data (standard flow), the response flow data 79 is compared with the standard flow. When there are more procedures than the standard flow, the reception
標準フローより手順が少ない場合、応対フロー作成部67は、例えば応対フローデータ79にあるべき標準フローの手順にマーク付けをし、又は線を変える。標準フローと手順の順番が異なっている場合、応対フロー作成部67は例えば異なっている手順の手順名に記号を入れる。
When the procedure is fewer than the standard flow, the reception
応対フロー作成部67は、各手順の処理時間を手順抽出データ78から算出し、各手順の処理時間を合計して総処理時間を算出し、応対手順時間情報80を作成する。図28は応対手順時間情報の一例を示す説明図である。図28の応対手順時間情報80は、手順ID,時間,無音区間の有無,無音区間の妥当性の組である。
The reception
応対手順時間情報80は、手順ごとの時間,無音区間の有無,無音区間の妥当性を表している。また、応対手順時間情報80は総処理時間と、無音区間の有無(全手順の無音区間の有無のOR)とを表している。
The response
応対フロー作成部67は、作成した応対フローデータ79及び応対手順時間情報80を出力する。即ち、応対フロー作成部67は通話録音データ71から抽出した説明の手順を表す応対フローデータ79と、各手順の所要時間及び説明フェーズに要した総所要時間を表す応対手順時間情報80とを出力する。
The reception
(音声認識キーワードリスト75と手順キーワード表77との作成)
図29は音声認識キーワードリストと手順キーワード表とを作成する手順を示す説明図である。手順キーワード抽出部100はマニュアル,FAQ,手順書などから重要語句を抽出し、各手順と紐付ける。
(Creation of voice
FIG. 29 is an explanatory diagram showing a procedure for creating a voice recognition keyword list and a procedure keyword table. The procedure
図30は手順キーワード抽出部が行う処理を表したイメージ図である。なお、重要語句の決め方は、周知技術であるテキストからのキーワード抽出方法を用いる。図30の場合は重要語句として、「プログラムディスク」,「ダブルクリック」,「フォルダ」などが抽出されている。手順キーワード抽出部100は抽出した重要語句を、マニュアル,FAQ,手順書などに記載されている手順に紐付ける。また、手順キーワード抽出部100は手順で行うエージェント操作を紐付ける。手順キーワード抽出部100は手順キーワード表77を出力する。
FIG. 30 is an image diagram showing processing performed by the procedure keyword extraction unit. Note that a keyword extraction method from text, which is a well-known technique, is used to determine an important phrase. In the case of FIG. 30, “program disk”, “double click”, “folder”, and the like are extracted as important words. The procedure
図31は対応語句作成部が行う処理を表したイメージ図である。対応語句作成部101は手順キーワード抽出部100が抽出した抽出キーワードについて、対応語句を作成するものである。例えば抽出キーワードが名詞の場合、対応語句作成部101は同じ語句やその語句の詳細語句を対応語句とする。また、抽出キーワードが動詞の場合、対応語句作成部101は同じ語句や「はい」,「できました」等の応答する語を対応語句とする。対応語句作成部101は作成した対応語句を手順キーワード表77に書き込む。
FIG. 31 is an image diagram showing processing performed by the corresponding phrase creating unit. The corresponding
図32は音声認識キーワードリスト作成部が行う処理を表したイメージ図である。音声認識キーワードリスト作成部102は手順キーワード表77から音声認識キーワードリスト75を作成する。音声認識キーワードリスト作成部102は手順キーワード表77の抽出キーワードからエージェント用音声認識キーワードリスト75を作成する。また、音声認識キーワードリスト作成部102は手順キーワード表77の対応語句から顧客用音声認識キーワードリスト75を作成する。音声認識キーワードリスト作成部102は、動詞について活用形を全て登録する。「はい」等の応答する語は、例えば「ええ」,「うん」などのバリエーションを登録する。
FIG. 32 is an image diagram showing processing performed by the voice recognition keyword list creation unit. The voice recognition keyword
本実施例によれば、応対フローにおける問題箇所の抽出が容易となる。すなわち、妥当性のない無音区間を含む手順、言い換えればエージェントが顧客を待たせている手順を見つけて、その無音区間の時間を算出することにより、エージェントが顧客を待たせている箇所(手順)と、その時間とが得られる。また、標準フローがある場合、標準フローと異なる手順を直ぐに見つけることができる。 According to the present embodiment, it becomes easy to extract a problem portion in the reception flow. In other words, a procedure including an invalid silence interval, in other words, a procedure where the agent waits for the customer, and calculating the time of the silence interval so that the agent waits for the customer (procedure) And that time. If there is a standard flow, a procedure different from the standard flow can be found immediately.
また、本実施例によれば、同じような問い合わせに対する応対フローの比較が容易となる。すなわち、応対フローデータ79を利用することで、同じような問い合わせに対する応対フローの比較ができる。また、応対手順時間情報80を利用することで、各手順の所要時間を比較できる。このとき、無音区間の時間を参照することで、その無音区間の影響度を調べることができる。
In addition, according to the present embodiment, it becomes easy to compare response flows for similar inquiries. That is, by using the response flow data 79, it is possible to compare response flows for similar inquiries. Further, by using the response
本実施例の応対フロー作成装置1は最適説明手順抽出装置として利用できる。例えば最適説明手順抽出装置は、顧客からの問い合わせ別の手順を抽出し、その手順の中で最も時間が短い手順を抽出し、最適な説明手順として出力する。
The reception
最適説明手順抽出装置は応対フロー作成装置1の手法により手順を抽出する。最適説明手順抽出装置は顧客による無音区間がある場合、無音区間を対処時間に含めない。最適説明手順抽出装置は、各問い合わせ別の最短事例である説明手順を抽出し、その最短事例である説明手順を出力する。
The optimum explanation procedure extracting device extracts a procedure by the method of the reception
図33は最適説明手順抽出装置の処理手順の一例を表すフローチャートである。ステップS100に進み、最適説明手順抽出装置は、応対記録から同じ問い合わせに相当する通話録音データ71を選別する。
FIG. 33 is a flowchart showing an example of the processing procedure of the optimum explanation procedure extracting device. Proceeding to step S100, the optimum explanation procedure extracting apparatus selects
ステップS101に進み、最適説明手順抽出装置は選別した各通話録音データ71に対して応対フロー作成装置1の手法により応対フローデータ79を生成する。ステップS102に進み、最適説明手順抽出装置は処理時間が最短の事例を選択する。ステップS103に進み、最適説明手順抽出装置は処理時間が最短の事例を出力する。
In step S101, the optimum explanation procedure extracting device generates response flow data 79 for each selected
本発明は、以下に記載する付記のような構成が考えられる。
(付記1)
顧客に対する応対の通話を録音した通話録音データから応対フローを作成するためにコンピュータを、
顧客に対する応対の手順ごとに、前記手順を説明する為に応対者が発話するキーワード及び前記手順の説明に呼応して顧客が発話するキーワードを対応付けて手順キーワード表として予め記録しておく手順キーワード表記録手段と、
前記通話録音データから抽出された韻律情報に基づき、顧客及び応対者の発話区間を抽出する発話区間抽出手段と、
前記通話録音データを音声認識し、認識したキーワード,話者,及び出現時間を音声認識結果として出力する音声認識手段と、
前記手順キーワード表を読み出し、前記音声認識結果に含まれる認識したキーワードに対応する前記手順を、前記手順キーワード表に基づき抽出する手順抽出手段と、
前記発話区間抽出手段が抽出した前記発話区間,前記音声認識手段が出力した前記音声認識結果,及び前記手順抽出手段が抽出した前記認識したキーワードに対応する前記手順に基づき、前記手順の開始から終了までの時間を算出すると共に、前記発話区間以外の無音区間がある場合、前記無音区間の直後の発話者を前記無音区間の発生者とし、前記無音区間の時間を前記手順の開始から終了までの時間に加算する手順時間算出手段と、
前記手順の開始から終了までの時間に基づき、前記応対フローを作成して出力する応対フロー作成手段と
して機能させるための応対フロー作成プログラム。
(付記2)
前記手順キーワード表記録手段は顧客に対する応対の前記手順ごとに、更に、前記手順に付随する前作業又は後作業を、応対者の操作内容として前記手順キーワード表に対応付けて記録しており、
前記手順時間算出手段は前記発話区間以外の無音区間がある場合、前記手順キーワード表に含まれる前記応対者の操作内容に基づいて、前記手順の前または後に前記手順に付随する前作業又は後作業が有るか無いかを判定し、その判定結果に基づいて前記無音区間を加算する前記手順を選択する付記1記載の応対フロー作成プログラム。
(付記3)
前記手順キーワード表に含まれる前記応対者の操作内容に基づき、前記無音区間に対応する位置に、前記手順に付随する前作業又は後作業が有れば前記無音区間を妥当性のあるものとして判定し、前記手順に付随する前作業又は後作業が無ければ前記無音区間を妥当性のないものとして判定する付記2記載の応対フロー作成プログラム。
(付記4)
前記手順時間算出手段は、前記手順キーワード表を読み出し、前記手順抽出手段が抽出した前記認識したキーワードに対応する前記手順に抜けがあり、抜けている前記手順に対応する位置に前記発話区間がある場合、その発話区間に応じて、抜けている前記手順を追加する付記1乃至3何れか一項記載の応対フロー作成プログラム。
(付記5)
前記手順時間算出手段は、前記音声認識手段が出力した音声認識結果に含まれる認識したキーワード,前記手順を説明する為に応対者が発話するキーワード及び前記手順の説明に呼応して顧客が発話するキーワードに基づき、前記発話区間を含む前記手順を判定する付記1乃至4何れか一項記載の応対フロー作成プログラム。
(付記6)
コンピュータを、更に、前記発話区間抽出手段が抽出した前記発話区間の主導権話者を推定し、前記通話録音データの開始直後の前記顧客が主導権話者となっている前記発話区間を質問フェーズ、前記質問フェーズ後の前記発話区間を回答フェーズとし、前記音声認識手段による音声認識を、前記回答フェーズに限定させるフェーズ推定手段として機能させるための付記1乃至5何れか一項記載の応対フロー作成プログラム。
(付記7)
コンピュータが、顧客に対する応対の通話を録音した通話録音データから応対フローを作成する応対フロー作成方法であって、
顧客に対する応対の手順ごとに、前記手順を説明する為に応対者が発話するキーワード及び前記手順の説明に呼応して顧客が発話するキーワードを対応付けて手順キーワード表として予め記録される手順キーワード表記録ステップと、
前記通話録音データから抽出された韻律情報に基づき、顧客及び応対者の発話区間を抽出する発話区間抽出ステップと、
前記通話録音データを音声認識し、認識したキーワード,話者,及び出現時間を音声認識結果として出力する音声認識ステップと、
前記手順キーワード表を読み出し、前記音声認識結果に含まれる認識したキーワードに対応する前記手順を、前記手順キーワード表に基づき抽出する手順抽出ステップと、
前記発話区間抽出ステップで抽出した前記発話区間,前記音声認識ステップで出力した前記音声認識結果,及び前記手順抽出ステップで抽出した前記認識したキーワードに対応する前記手順に基づき、前記手順の開始から終了までの時間を算出すると共に、前記発話区間以外の無音区間がある場合、前記無音区間の直後の発話者を前記無音区間の発生者とし、前記無音区間の時間を前記手順の開始から終了までの時間に加算する手順時間算出ステップと、
前記手順の開始から終了までの時間に基づき、前記応対フローを作成して出力する応対フロー作成ステップと
を有する応対フロー作成方法。
(付記8)
顧客に対する応対の通話を録音した通話録音データから、応対フローを作成する応対フロー作成装置であって、
顧客に対する応対の手順ごとに、前記手順を説明する為に応対者が発話するキーワード及び前記手順の説明に呼応して顧客が発話するキーワードを対応付けて手順キーワード表として予め記録しておく手順キーワード表記録手段と、
前記通話録音データから抽出された韻律情報に基づき、顧客及び応対者の発話区間を抽出する発話区間抽出手段と、
前記通話録音データを音声認識し、認識したキーワード,話者,及び出現時間を音声認識結果として出力する音声認識手段と、
前記手順キーワード表を読み出し、前記音声認識結果に含まれる認識したキーワードに対応する前記手順を、前記手順キーワード表に基づき抽出する手順抽出手段と、
前記発話区間抽出手段が抽出した前記発話区間,前記音声認識手段が出力した前記音声認識結果,及び前記手順抽出手段が抽出した前記認識したキーワードに対応する前記手順に基づき、前記手順の開始から終了までの時間を算出すると共に、前記発話区間以外の無音区間がある場合、前記無音区間の直後の発話者を前記無音区間の発生者とし、前記無音区間の時間を前記手順の開始から終了までの時間に加算する手順時間算出手段と、
前記手順の開始から終了までの時間に基づき、前記応対フローを作成して出力する応対フロー作成手段と
を有する応対フロー作成装置。
The present invention may have the following configurations as described below.
(Appendix 1)
In order to create a response flow from the call recording data recorded from the customer response,
Procedure keywords that are recorded in advance as a procedure keyword table by associating a keyword uttered by the responder to explain the procedure and a keyword uttered by the customer in response to the explanation of the procedure for each procedure of dealing with the customer Table recording means;
Based on prosodic information extracted from the call recording data, utterance interval extraction means for extracting the utterance interval of the customer and the respondent;
Voice recognition means for voice recognition of the call recording data and outputting the recognized keyword, speaker, and appearance time as a voice recognition result;
A procedure extracting means for reading out the procedure keyword table and extracting the procedure corresponding to the recognized keyword included in the speech recognition result based on the procedure keyword table;
Based on the procedure corresponding to the speech segment extracted by the speech segment extraction unit, the speech recognition result output by the speech recognition unit, and the recognized keyword extracted by the procedure extraction unit, the procedure ends from the start. And when there is a silent section other than the speech section, the speaker immediately after the silent section is set as the generator of the silent section, and the time of the silent section is determined from the start to the end of the procedure. A procedure time calculating means for adding to the time;
A reception flow creation program for functioning as reception flow creation means for creating and outputting the reception flow based on the time from the start to the end of the procedure.
(Appendix 2)
The procedure keyword table recording means records the pre-operation or post-operation associated with the procedure in association with the procedure keyword table as the operation contents of the responder for each procedure of the customer response.
When there is a silent section other than the utterance section, the procedure time calculating means performs a pre-work or post-work associated with the procedure before or after the procedure based on the operation content of the responder included in the procedure keyword table. The reception flow creation program according to
(Appendix 3)
Based on the operation details of the responder included in the procedure keyword table, if there is a pre-operation or a post-operation associated with the procedure at a position corresponding to the silence interval, the silence interval is determined to be valid. The response flow creation program according to
(Appendix 4)
The procedure time calculation means reads the procedure keyword table, the procedure corresponding to the recognized keyword extracted by the procedure extraction means is missing, and the utterance section is at a position corresponding to the missing procedure In this case, the response flow creation program according to any one of
(Appendix 5)
The procedure time calculation means includes a recognized keyword included in the voice recognition result output from the voice recognition means, a keyword spoken by the responder to explain the procedure, and a customer uttered in response to the explanation of the procedure. 5. The response flow creation program according to any one of
(Appendix 6)
The computer further estimates the initiative speaker of the speech segment extracted by the speech segment extraction means, and determines the speech segment in which the customer is the initiative speaker immediately after the start of the call recording data. The response flow creation according to any one of
(Appendix 7)
A reception flow creation method in which a computer creates a reception flow from call recording data obtained by recording a reception call to a customer.
A procedure keyword table that is recorded in advance as a procedure keyword table in association with a keyword uttered by the responder for explaining the procedure and a keyword uttered by the customer in response to the explanation of the procedure for each procedure of dealing with the customer Recording step;
Based on the prosodic information extracted from the call recording data, the utterance interval extraction step of extracting the utterance interval of the customer and the responder;
A voice recognition step of voice-recognizing the call recording data and outputting the recognized keyword, speaker, and appearance time as a voice recognition result;
A procedure extracting step of reading out the procedure keyword table and extracting the procedure corresponding to the recognized keyword included in the speech recognition result based on the procedure keyword table;
Based on the procedure corresponding to the speech segment extracted in the speech segment extraction step, the speech recognition result output in the speech recognition step, and the recognized keyword extracted in the procedure extraction step And when there is a silent section other than the speech section, the speaker immediately after the silent section is set as the generator of the silent section, and the time of the silent section is determined from the start to the end of the procedure. A procedure time calculation step to add to the time;
And a reception flow creation step of creating and outputting the reception flow based on the time from the start to the end of the procedure.
(Appendix 8)
A service flow creation device for creating a service flow from call recording data obtained by recording a service call to a customer,
Procedure keywords that are recorded in advance as a procedure keyword table by associating a keyword uttered by the responder to explain the procedure and a keyword uttered by the customer in response to the explanation of the procedure for each procedure of dealing with the customer Table recording means;
Based on prosodic information extracted from the call recording data, utterance interval extraction means for extracting the utterance interval of the customer and the respondent;
Voice recognition means for voice recognition of the call recording data and outputting the recognized keyword, speaker, and appearance time as a voice recognition result;
A procedure extracting means for reading out the procedure keyword table and extracting the procedure corresponding to the recognized keyword included in the speech recognition result based on the procedure keyword table;
Based on the procedure corresponding to the speech segment extracted by the speech segment extraction unit, the speech recognition result output by the speech recognition unit, and the recognized keyword extracted by the procedure extraction unit, the procedure ends from the start. And when there is a silent section other than the speech section, the speaker immediately after the silent section is set as the generator of the silent section, and the time of the silent section is determined from the start to the end of the procedure. A procedure time calculating means for adding to the time;
A reception flow creation device comprising reception flow creation means for creating and outputting the reception flow based on the time from the start to the end of the procedure.
本発明は、具体的に開示された実施例に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば音声認識がエラーになった発話区間があった場合は周知の技術により推定しても無視してもよい。 The present invention is not limited to the specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims. For example, if there is an utterance section in which speech recognition has caused an error, it may be estimated by a known technique or ignored.
1 応対フロー作成装置
51 入力装置
52 出力装置
53 ドライブ装置
54 補助記憶装置
55 主記憶装置
56 演算処理装置
57 インターフェース装置
61 韻律情報抽出部
62 発話区間抽出部
63 フェーズ推定部
64 音声認識部
65 手順抽出部
66 手順時間算出部
67 応対フロー作成部
71 通話録音データ
72 韻律データ
73 発話区間情報
74 フェーズ情報
75 音声認識キーワードリスト
76 音声認識結果
77 手順キーワード表
78 手順抽出データ
79 応対フローデータ
80 応対手順時間情報
DESCRIPTION OF
Claims (6)
顧客に対する応対の手順ごとに、前記手順を説明する為に応対者が発話するキーワード及び前記手順の説明に呼応して顧客が発話するキーワードを対応付けて手順キーワード表として予め記録しておく手順キーワード表記録手段と、
前記通話録音データから抽出された韻律情報に基づき、顧客及び応対者の発話区間を抽出する発話区間抽出手段と、
前記通話録音データを音声認識し、認識したキーワード,話者,及び出現時間を音声認識結果として出力する音声認識手段と、
前記手順キーワード表を読み出し、前記音声認識結果に含まれる認識したキーワードに対応する前記手順を、前記手順キーワード表に基づき抽出する手順抽出手段と、
前記発話区間抽出手段が抽出した前記発話区間,前記音声認識手段が出力した前記音声認識結果,及び前記手順抽出手段が抽出した前記認識したキーワードに対応する前記手順に基づき、前記手順の開始から終了までの時間を算出すると共に、前記発話区間以外の無音区間がある場合、前記無音区間の直後の発話者を前記無音区間の発生者とし、前記無音区間の時間を前記手順の開始から終了までの時間に加算する手順時間算出手段と、
前記手順の開始から終了までの時間に基づき、前記応対フローを作成して出力する応対フロー作成手段と
して機能させるための応対フロー作成プログラム。 In order to create a response flow from the call recording data recorded from the customer response,
Procedure keywords that are recorded in advance as a procedure keyword table by associating a keyword uttered by the responder to explain the procedure and a keyword uttered by the customer in response to the explanation of the procedure for each procedure of dealing with the customer Table recording means;
Based on prosodic information extracted from the call recording data, utterance interval extraction means for extracting the utterance interval of the customer and the respondent;
Voice recognition means for voice recognition of the call recording data and outputting the recognized keyword, speaker, and appearance time as a voice recognition result;
A procedure extracting means for reading out the procedure keyword table and extracting the procedure corresponding to the recognized keyword included in the speech recognition result based on the procedure keyword table;
Based on the procedure corresponding to the speech segment extracted by the speech segment extraction unit, the speech recognition result output by the speech recognition unit, and the recognized keyword extracted by the procedure extraction unit, the procedure ends from the start. And when there is a silent section other than the speech section, the speaker immediately after the silent section is set as the generator of the silent section, and the time of the silent section is determined from the start to the end of the procedure. A procedure time calculating means for adding to the time;
A reception flow creation program for functioning as reception flow creation means for creating and outputting the reception flow based on the time from the start to the end of the procedure.
前記手順時間算出手段は前記発話区間以外の無音区間がある場合、前記手順キーワード表に含まれる前記応対者の操作内容に基づいて、前記手順の前または後に前記手順に付随する前作業又は後作業が有るか無いかを判定し、その判定結果に基づいて前記無音区間を加算する前記手順を選択する請求項1記載の応対フロー作成プログラム。 The procedure keyword table recording means records the pre-operation or post-operation associated with the procedure in association with the procedure keyword table as the operation contents of the responder for each procedure of the customer response.
When there is a silent section other than the utterance section, the procedure time calculating means performs a pre-work or post-work associated with the procedure before or after the procedure based on the operation content of the responder included in the procedure keyword table. The reception flow creation program according to claim 1, wherein it is determined whether or not there is, and the procedure for adding the silent section is selected based on the determination result.
顧客に対する応対の手順ごとに、前記手順を説明する為に応対者が発話するキーワード及び前記手順の説明に呼応して顧客が発話するキーワードを対応付けて手順キーワード表として予め記録される手順キーワード表記録ステップと、
前記通話録音データから抽出された韻律情報に基づき、顧客及び応対者の発話区間を抽出する発話区間抽出ステップと、
前記通話録音データを音声認識し、認識したキーワード,話者,及び出現時間を音声認識結果として出力する音声認識ステップと、
前記手順キーワード表を読み出し、前記音声認識結果に含まれる認識したキーワードに対応する前記手順を、前記手順キーワード表に基づき抽出する手順抽出ステップと、
前記発話区間抽出ステップで抽出した前記発話区間,前記音声認識ステップで出力した前記音声認識結果,及び前記手順抽出ステップで抽出した前記認識したキーワードに対応する前記手順に基づき、前記手順の開始から終了までの時間を算出すると共に、前記発話区間以外の無音区間がある場合、前記無音区間の直後の発話者を前記無音区間の発生者とし、前記無音区間の時間を前記手順の開始から終了までの時間に加算する手順時間算出ステップと、
前記手順の開始から終了までの時間に基づき、前記応対フローを作成して出力する応対フロー作成ステップと
を有する応対フロー作成方法。 A reception flow creation method in which a computer creates a reception flow from call recording data obtained by recording a reception call to a customer.
A procedure keyword table that is recorded in advance as a procedure keyword table in association with a keyword uttered by the responder for explaining the procedure and a keyword uttered by the customer in response to the explanation of the procedure for each procedure of dealing with the customer Recording step;
Based on the prosodic information extracted from the call recording data, the utterance interval extraction step of extracting the utterance interval of the customer and the responder;
A voice recognition step of voice-recognizing the call recording data and outputting the recognized keyword, speaker, and appearance time as a voice recognition result;
A procedure extracting step of reading out the procedure keyword table and extracting the procedure corresponding to the recognized keyword included in the speech recognition result based on the procedure keyword table;
Based on the procedure corresponding to the speech segment extracted in the speech segment extraction step, the speech recognition result output in the speech recognition step, and the recognized keyword extracted in the procedure extraction step And when there is a silent section other than the speech section, the speaker immediately after the silent section is set as the generator of the silent section, and the time of the silent section is determined from the start to the end of the procedure. A procedure time calculation step to add to the time;
And a reception flow creation step of creating and outputting the reception flow based on the time from the start to the end of the procedure.
顧客に対する応対の手順ごとに、前記手順を説明する為に応対者が発話するキーワード及び前記手順の説明に呼応して顧客が発話するキーワードを対応付けて手順キーワード表として予め記録しておく手順キーワード表記録手段と、
前記通話録音データから抽出された韻律情報に基づき、顧客及び応対者の発話区間を抽出する発話区間抽出手段と、
前記通話録音データを音声認識し、認識したキーワード,話者,及び出現時間を音声認識結果として出力する音声認識手段と、
前記手順キーワード表を読み出し、前記音声認識結果に含まれる認識したキーワードに対応する前記手順を、前記手順キーワード表に基づき抽出する手順抽出手段と、
前記発話区間抽出手段が抽出した前記発話区間,前記音声認識手段が出力した前記音声認識結果,及び前記手順抽出手段が抽出した前記認識したキーワードに対応する前記手順に基づき、前記手順の開始から終了までの時間を算出すると共に、前記発話区間以外の無音区間がある場合、前記無音区間の直後の発話者を前記無音区間の発生者とし、前記無音区間の時間を前記手順の開始から終了までの時間に加算する手順時間算出手段と、
前記手順の開始から終了までの時間に基づき、前記応対フローを作成して出力する応対フロー作成手段と
を有する応対フロー作成装置。 A service flow creation device for creating a service flow from call recording data obtained by recording a service call to a customer,
Procedure keywords that are recorded in advance as a procedure keyword table by associating a keyword uttered by the responder to explain the procedure and a keyword uttered by the customer in response to the explanation of the procedure for each procedure of dealing with the customer Table recording means;
Based on prosodic information extracted from the call recording data, utterance interval extraction means for extracting the utterance interval of the customer and the respondent;
Voice recognition means for voice recognition of the call recording data and outputting the recognized keyword, speaker, and appearance time as a voice recognition result;
A procedure extracting means for reading out the procedure keyword table and extracting the procedure corresponding to the recognized keyword included in the speech recognition result based on the procedure keyword table;
Based on the procedure corresponding to the speech segment extracted by the speech segment extraction unit, the speech recognition result output by the speech recognition unit, and the recognized keyword extracted by the procedure extraction unit, the procedure ends from the start. And when there is a silent section other than the speech section, the speaker immediately after the silent section is set as the generator of the silent section, and the time of the silent section is determined from the start to the end of the procedure. A procedure time calculating means for adding to the time;
A reception flow creation device comprising reception flow creation means for creating and outputting the reception flow based on the time from the start to the end of the procedure.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008178803A JP5136246B2 (en) | 2008-07-09 | 2008-07-09 | Reception flow creation program, reception flow creation method, and reception flow creation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008178803A JP5136246B2 (en) | 2008-07-09 | 2008-07-09 | Reception flow creation program, reception flow creation method, and reception flow creation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010021681A true JP2010021681A (en) | 2010-01-28 |
JP5136246B2 JP5136246B2 (en) | 2013-02-06 |
Family
ID=41706169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008178803A Expired - Fee Related JP5136246B2 (en) | 2008-07-09 | 2008-07-09 | Reception flow creation program, reception flow creation method, and reception flow creation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5136246B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000106602A (en) * | 1998-09-28 | 2000-04-11 | Mitsubishi Electric Corp | System for generating customer information database |
JP2003298748A (en) * | 2002-04-05 | 2003-10-17 | Nec Corp | Call center information analyzing system |
JP2005242891A (en) * | 2004-02-27 | 2005-09-08 | Fujitsu Ltd | Case retrieving program |
JP2007004001A (en) * | 2005-06-27 | 2007-01-11 | Tokyo Electric Power Co Inc:The | Operator answering ability diagnosing device, operator answering ability diagnosing program, and program storage medium |
JP2007074175A (en) * | 2005-09-06 | 2007-03-22 | Fujitsu Ltd | Telephone service inspection system and program thereof |
JP2007288242A (en) * | 2006-04-12 | 2007-11-01 | Nippon Telegr & Teleph Corp <Ntt> | Operator evaluation method, device, operator evaluation program, and recording medium |
-
2008
- 2008-07-09 JP JP2008178803A patent/JP5136246B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000106602A (en) * | 1998-09-28 | 2000-04-11 | Mitsubishi Electric Corp | System for generating customer information database |
JP2003298748A (en) * | 2002-04-05 | 2003-10-17 | Nec Corp | Call center information analyzing system |
JP2005242891A (en) * | 2004-02-27 | 2005-09-08 | Fujitsu Ltd | Case retrieving program |
JP2007004001A (en) * | 2005-06-27 | 2007-01-11 | Tokyo Electric Power Co Inc:The | Operator answering ability diagnosing device, operator answering ability diagnosing program, and program storage medium |
JP2007074175A (en) * | 2005-09-06 | 2007-03-22 | Fujitsu Ltd | Telephone service inspection system and program thereof |
JP2007288242A (en) * | 2006-04-12 | 2007-11-01 | Nippon Telegr & Teleph Corp <Ntt> | Operator evaluation method, device, operator evaluation program, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP5136246B2 (en) | 2013-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7219050B2 (en) | Automatic interpreting system including a system for recognizing errors | |
JP4478939B2 (en) | Audio processing apparatus and computer program therefor | |
US7711105B2 (en) | Methods and apparatus for processing foreign accent/language communications | |
JP4481972B2 (en) | Speech translation device, speech translation method, and speech translation program | |
JP4901738B2 (en) | Machine learning | |
JP6334815B2 (en) | Learning apparatus, method, program, and spoken dialogue system | |
WO2017071226A1 (en) | Training method and apparatus for language model, and device | |
US10242669B1 (en) | Enhanced transcription of audio data with punctuation markings based on silence durations | |
US20040190687A1 (en) | Speech recognition assistant for human call center operator | |
US8285539B2 (en) | Extracting tokens in a natural language understanding application | |
US11120802B2 (en) | Diarization driven by the ASR based segmentation | |
US11336767B2 (en) | Methods and apparatus for bypassing holds | |
Kopparapu | Non-linguistic analysis of call center conversations | |
JP2012113542A (en) | Device and method for emotion estimation, program and recording medium for the same | |
CN110853627B (en) | Method and system for voice annotation | |
US20060100854A1 (en) | Computer generation of concept sequence correction rules | |
US10468031B2 (en) | Diarization driven by meta-information identified in discussion content | |
JP5136246B2 (en) | Reception flow creation program, reception flow creation method, and reception flow creation device | |
JP4861941B2 (en) | Transcription content confirmation method, transcription content confirmation device, computer program | |
JP2017215555A (en) | Voice translation device and voice translation system | |
CN108364654B (en) | Voice processing method, medium, device and computing equipment | |
JP5099218B2 (en) | Problem solving time estimation processing program, processing apparatus, and processing method | |
CN116013303A (en) | Audio optimization method, device, electronic equipment and storage medium | |
CN113763921A (en) | Method and apparatus for correcting text | |
WO2012098838A1 (en) | Report document creation assistance system, report document creation assistance method, and report document creation assistance program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121016 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121029 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151122 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |