JP5099218B2 - Problem solving time estimation processing program, processing apparatus, and processing method - Google Patents
Problem solving time estimation processing program, processing apparatus, and processing method Download PDFInfo
- Publication number
- JP5099218B2 JP5099218B2 JP2010509012A JP2010509012A JP5099218B2 JP 5099218 B2 JP5099218 B2 JP 5099218B2 JP 2010509012 A JP2010509012 A JP 2010509012A JP 2010509012 A JP2010509012 A JP 2010509012A JP 5099218 B2 JP5099218 B2 JP 5099218B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- data
- time
- speaker
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 79
- 238000003672 processing method Methods 0.000 title claims description 17
- 238000000034 method Methods 0.000 claims description 53
- 238000004364 calculation method Methods 0.000 claims description 24
- 230000003993 interaction Effects 0.000 claims description 19
- 238000010801 machine learning Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 5
- 238000013506 data mapping Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 claims 1
- 230000004044 response Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 15
- 239000011159 matrix material Substances 0.000 description 12
- 238000012937 correction Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000013075 data extraction Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 240000001973 Ficus microcarpa Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Entrepreneurship & Innovation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Telephonic Communication Services (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は,コンピュータに,顧客と顧客の電話応対を行うオペレータとの対話内容が録音された音声対話データを用いて,顧客から問い合わせられた問題の解決所要時間を推定する処理を実行させるための問題解決時間推定処理に関する。 According to the present invention, there is provided a computer for executing a process for estimating a time required for solving a problem inquired by a customer using voice dialogue data in which a dialogue between the customer and an operator who handles the telephone is recorded. It relates to problem solving time estimation processing.
顧客がコールセンタへ問い合わせる内容は,応答したオペレータが即座に回答できるようなものから,調査結果や解決方法の提示まで時間を要するためにオペレータがコールバックしなければならないようなものまで,様々な難易度のものがある。 The contents of customer inquiries to the call center vary from those that can be answered immediately by the responding operator to those that require the operator to call back because it takes time to present the survey results and solutions. There is something of a degree.
コールセンタの管理者,運営者は,顧客からの問い合わせを問題として認識した場合に,この問題を解決するまでの所要時間(問題解決時間)を把握し,応対業務の効率や顧客満足度の向上を図りたいという要求がある。 When a call center manager or operator recognizes an inquiry from a customer as a problem, the call center manager grasps the time required to resolve this problem (problem resolution time), and improves the efficiency of customer service and customer satisfaction. There is a demand to plan.
従来では,顧客の入電があると,音声対話データとは別に,これに対するオペレータの応答内容,受付時刻,調査,二次ライン(別部署)への転送などの対応処理を記録した応対履歴情報を蓄積する応対履歴管理システムを設け,顧客の問い合わせに対するコールバックの履歴情報を記録したり,コールバック情報を応対の履歴情報に関連付けて記録したりしていた。 Conventionally, when there is a customer's incoming call, in addition to the voice dialogue data, the response history information that records the response processing of the operator's response, reception time, investigation, transfer to the secondary line (separate department), etc. A response history management system was established to record callback history information for customer inquiries, and record callback information in association with response history information.
一方,コールセンタでは,顧客とオペレータとの対話内容を後から聴取できるように,全対話内容を録音した音声対話データを蓄積している。蓄積された大量の音声対話データは,単に対話内容の確認資料として利用されるだけではなく,様々な目的の分析資料として利用可能であるが,利用目的に応じて必要な部分を特定する必要がある。 On the other hand, in the call center, voice conversation data recording all conversation contents is accumulated so that the conversation contents between the customer and the operator can be heard later. The accumulated large amount of spoken dialogue data can be used not only as confirmation data for dialogue content but also as analysis material for various purposes. However, it is necessary to identify the necessary parts according to the purpose of use. is there.
音声対話データのうち,オペレータと顧客の応答の核心的部分である問い合わせ内容を含む部分を特定し再生可能とするために,音声認識処理などによって抽出したキーワードやオペレータの端末画面の操作情報などを音声対話録音データにインデックスとして付与しておき,音声対話データ再生時に再生開始位置を特定するために利用できるようにする従来方法がある(例えば,特許文献1参照)。
顧客からの問い合わせられた内容を問題として認識し,この問題に対する解決に要した時間を把握したい場合に,顧客の入電への応対時間内に回答できるときは,応対の開始時刻と終了時刻とを記録して応対時間を解決所要時間とみなすことができる。 If the customer's inquiry content is recognized as a problem and the time required to resolve this problem is known, if the customer can respond within the response time for incoming calls, the start time and end time of the response can be set. The response time can be regarded as the time required for resolution by recording.
しかし,問題によっては,オペレータが一旦応対を終了し,問題の解決方法を得るなどして回答できる状況になってから顧客へコールバックしなければならないケースがある。このコールバックして回答した場合に,問題の認識から回答提示までの所要時間を推計できるシステムは実現されていなかった。 However, depending on the problem, there is a case where the operator has to call back to the customer after completing the response and getting a solution to the problem. When answering with this callback, a system that can estimate the time required from problem recognition to answer presentation has not been realized.
従来の応対履歴管理システムは,単に応対履歴情報をデータベースで管理するものであり,各応対の内容,受付時刻,終了時刻,担当者などの情報とともにコールバック時刻が記録されるが,対応する応答の履歴情報にコールバックに関する情報を記録する操作や処理が必要であった。 Conventional response history management systems simply manage response history information in a database, and the callback time is recorded along with information such as the contents of each response, reception time, end time, person in charge, etc. Operation and processing to record the information about the callback in the history information.
また,録音・蓄積された音声対話データでは,顧客の入電による対話と,オペレータのコールバックの対話との対応付けがないため,音声対話データから問題解決時間を推定する技術は存在しなかった。 In addition, there is no technology for estimating the problem solving time from the voice conversation data because the voice conversation data recorded and stored has no correspondence between the customer's incoming call dialogue and the operator's callback dialogue.
本発明の目的は,録音時刻付きの音声対話データのみから,問題解決時間を推計できる処理手法を提供することである。 An object of the present invention is to provide a processing method capable of estimating a problem solving time only from voice conversation data with a recording time.
まず,本発明の原理を説明する。 First, the principle of the present invention will be described.
音声対話データにおいて,問題は,顧客が質問を発話する部分として出現し,この問題に対する解決は,この顧客の発話を受けたオペレータが回答を発話する部分として出現する。したがって,問題の認識時から回答提示完了時までの時間は,顧客が質問を行っている対話の開始から,この顧客に対してオペレータが回答している対話の終了までを問題解決時間とみなすことができる。 In the spoken dialogue data, a problem appears as a part where a customer utters a question, and a solution to this problem appears as a part where an operator who receives the customer's utterance utters an answer. Therefore, the time from the recognition of the problem to the completion of the presentation of the answer is regarded as the problem solving time from the start of the dialogue in which the customer asks the question until the end of the dialogue in which the operator answers the customer. Can do.
ところで,一般的に,対話中の話者間において,主導的に発話している発話者は,発話の応対者に比べて,一定の大きさの音声で継続的に発話する傾向がある。顧客とオペレータとの対話では,顧客が何か問い合わせを行っている場合には,顧客が先行して主導的に発話している状況が想定される。また,オペレータが顧客へコールバックして回答している対話では,顧客の質問を含む対話後にオペレータが先行して主導的に発話している状況が想定される。 By the way, in general, a speaker who speaks predominantly among speakers during a conversation tends to continuously utter with a certain amount of speech, compared to a speaker. In the dialogue between the customer and the operator, when the customer makes an inquiry, it is assumed that the customer is leading and speaking in advance. In the dialogue in which the operator calls back to the customer and answers, it is assumed that the operator is leading and speaking after the dialogue including the customer's question.
また,顧客が先行して主導的に発話している対話のみが存在し,これに続くオペレータが主導的に発話している対話が存在しない場合には,先の顧客の対話中に回答されている状況が想定される。 In addition, when there is only a dialogue that the customer leads and speaks first, and there is no dialogue that the operator leads, the response is answered during the previous customer's dialogue. The situation is assumed.
そこで,本発明では,顧客とオペレータとの音声対話データの集合から,同一の顧客とオペレータと対話とみなせる音声対話データを抽出し,各対話の先行主導話者を特定することによって対話の種別が「質問」か「非質問」かを判断する。さらに,「質問」の対話に続いて「非質問」の対話があるような対応関係にある音声対話データを取り出し,「質問およびその回答」と判断し,先の質問の対話の開始から回答の対話の終了までの時間を問題解決時間とみなして推計する。 Therefore, in the present invention, voice conversation data that can be regarded as a dialogue with the same customer and operator is extracted from a set of voice dialogue data between the customer and the operator, and the type of dialogue is determined by specifying the leading speaker of each dialogue. Determine whether “question” or “non-question”. Furthermore, voice dialogue data having a correspondence relationship such that there is a “non-question” dialogue following the “question” dialogue is extracted, and it is judged as “question and answer”. Estimate the time until the end of the dialogue as the problem solving time.
具体的には,開示するプログラムは,コンピュータを,1)オペレータの音声が録音された第1チャネルと顧客の音声が録音された第2チャネルとで構成された録音時刻付き音声対話データの集合を入力する処理部と,2)前記音声対話データ各々に対して,一方の話者が他方の話者より大きな音声で所定の長さ以上継続して発話している主導発話区間を特定し,さらに,最も先に存在する主導発話区間を特定して先行主導発話区間とし,当該先行主導発話区間が第2チャネルに含まれる場合に当該音声対話データの種別を質問と設定し,当該先行主導発話区間が第1チャネルに含まれる場合に当該音声対話データの種別を非質問と設定する処理部と,3)前記音声対話データ各々について,各チャネルの音声データの話者特徴を,予め定められた機械学習処理方法によって学習する処理部と,4)前記話者特徴をもとに,前記音声対話データの第1チャネルおよび第2チャネルそれぞれの話者特徴が一定の類似範囲内にある音声対話データを集めて類似話者集合とする処理部と,5)前記類似話者集合ごとに,前記音声対話データを録音時刻に従って並べ,前記種別が質問である音声対話データを一つ取り出し,当該質問である音声対話データと時間的に後続するデータであって種別が非質問の音声対話データと対応づける処理部と,6)前記対応付けられた音声対話データの組の最先の録音開始時刻から最後の録音終了時刻までの時間を算出して問題解決時間とする処理部として機能させるためのものである。 Specifically, the program disclosed discloses a computer as a set of voice interaction data with recording time, which is composed of 1) a first channel in which operator's voice is recorded and a second channel in which customer's voice is recorded. A processing unit for input; and 2) for each of the voice conversation data, identify a lead utterance section in which one speaker continuously speaks for a predetermined length or longer with a louder voice than the other speaker; , Identify the earliest initiative utterance section as the preceding initiative utterance section, and if the preceding initiative utterance section is included in the second channel, the type of the voice dialogue data is set as a question, and the preceding initiative utterance section A processing unit that sets the type of the voice conversation data as non-question when the first channel is included in the first channel, and 3) for each of the voice conversation data, speaker characteristics of the voice data of each channel are determined in advance. A processing unit that learns by the machine learning processing method, and 4) a voice in which the speaker characteristics of the first channel and the second channel of the voice interaction data are within a certain similar range based on the speaker characteristics. A processing unit that collects dialogue data and sets it as a similar speaker set; and 5) arranges the voice dialogue data according to the recording time for each similar speaker set, takes out one voice dialogue data whose type is a question, A processing unit that associates the voice dialogue data that is a question with the voice dialogue data that is temporally succeeding and is a non-question type, and 6) the earliest recording start time of the pair of the voice dialogue data that is associated It is for functioning as a processing unit that calculates the time from the recording end time to the last recording end time and sets it as the problem solving time.
開示するプログラムがインストールされ実行されるコンピュータは,まず,オペレータの音声が録音された第1チャネルと顧客の音声が録音された第2チャネルとで構成された録音時刻付き音声対話データの集合を入力する。入力した音声対話データ各々に対して,第1,第2の各チャネルの音声データから,一方の話者が他方の話者より大きな音声で所定の長さ以上継続して発話している主導発話区間を特定する。さらに,最先の主導発話区間を先行主導発話区間と特定し,先行主導発話区間が第2チャネルに含まれる場合にその音声対話データの種別を質問と設定し,第1チャネルに含まれる場合に種別を非質問と設定する。 The computer on which the disclosed program is installed and executed first inputs a set of voice interactive data with recording time, which is composed of a first channel in which the operator's voice is recorded and a second channel in which the customer's voice is recorded. To do. For each input voice dialogue data, one speaker speaks continuously for a predetermined length or longer from the voice data of the first and second channels. Identify the interval. In addition, when the earliest initiative utterance section is identified as the preceding initiative utterance section, and when the preceding initiative utterance section is included in the second channel, the type of the voice conversation data is set as a question, and when it is included in the first channel Set the type as non-question.
また,音声対話データ各々について,各チャネルの音声データの話者特徴を,予め定められた機械学習処理方法によって学習し,学習した話者特徴をもとに,音声対話データの第1チャネルおよび第2チャネルそれぞれの話者特徴が一定の類似範囲内にある音声対話データを集めて類似話者対話集合とする。 Further, for each voice conversation data, the speaker characteristics of the voice data of each channel are learned by a predetermined machine learning processing method, and based on the learned speaker characteristics, the first channel and the second channel of the voice conversation data are learned. Speech dialogue data in which the speaker characteristics of the two channels are within a certain similar range is collected to form a similar speaker dialogue set.
さらに,類似話者対話集合の各々について,集合を構成する音声対話データを録音時刻に従って並べ,種別が質問である音声対話データを一つ取り出し,この音声対話データと時間的に後続する,種別が非質問の音声対話データと対応づける。 Furthermore, for each of similar speaker conversation sets, the voice conversation data constituting the set is arranged according to the recording time, one voice conversation data whose type is a question is taken out, and the type of temporal conversation that follows this voice conversation data is Correlate with non-questional voice dialogue data.
さらに,対応づけられた音声対話データの組の最先の録音開始時刻から最後の録音終了時刻までの時間を算出して問題解決時間とする。 Further, the time from the earliest recording start time to the last recording end time of the set of the spoken dialogue data associated is calculated as the problem solving time.
これにより,入電された顧客との応対中に顧客の質問に回答せず,一旦断電して調査等を行った後にオペレータがコールバックして回答したケースについても,録音時刻付きの音声対話データのみを用いて問題解決時間を算出することができる。 As a result, voice dialogue data with recording time is also available for cases in which the operator does not answer the customer's question while responding to the incoming customer, and the operator calls back and answers after conducting a survey. The problem solving time can be calculated using only
さらに開示する処理装置は,前記プログラムがコンピュータに実行させる処理を実現する各処理手段を有する処理装置である。 Further, the disclosed processing apparatus is a processing apparatus having processing units for realizing processing that the program causes the computer to execute.
さらに開示する処理方法は,コンピュータが,前記プログラムによって実行する各処理ステップで構成される処理方法である。 Further, the disclosed processing method is a processing method configured by each processing step executed by the computer by the program.
本発明によれば,応対確認用に蓄積されている録音時刻情報付きの音声対話データから,顧客が問い合わせた問題の解決所要時間を自動的に推計することができる。 According to the present invention, it is possible to automatically estimate the time required for solving a problem inquired by a customer from voice dialogue data with recording time information accumulated for response confirmation.
特に,コールバックによって回答されたケースでも,顧客の入電による応対情報にコールバックの情報を対応付ける作業・処理が不要となり,簡単に問題解決時間を推計することができる。 In particular, even when a response is made by a callback, work / processing for associating the callback information with the customer's incoming call information is not required, and the problem solving time can be estimated easily.
計測された問題解決時間によって,応対個々のレベルでの問題解決時間を推定することができ,コールセンタ業務の分析,計画立案等の資料として使用することができる。 Based on the measured problem solving time, it is possible to estimate the problem solving time at the individual level of response, and it can be used as data for call center business analysis and planning.
また,同一人がなした別出願にかかる,音声対話データから顧客の問い合わせ傾向を推定する処理手法を,開示した問題解決時間の推定処理と組み合わせることによって,質問内容ごとの問題解決時間を分析する等,種々の分析資料として使用することができる。 In addition, the problem solving time for each question content is analyzed by combining the processing method for estimating customer inquiry tendency from voice dialogue data for another application made by the same person with the disclosed problem solving time estimation process. It can be used as various analysis materials.
1 問題解決時間推定処理装置
11 データ入力部
13 対話種別推定部
15 類似話者集合算出部
17 対話データ対応付け部
19 問題解決時間算出部
3 音声対話データ(時刻情報付き)
4 音声パワー情報
5 問題解決時間DESCRIPTION OF
4
図1は,問題解決時間推定処理装置の構成例を示す図である。 FIG. 1 is a diagram illustrating a configuration example of a problem solving time estimation processing apparatus.
問題解決時間推定処理装置1は,顧客からの問い合わせを受けて回答する業務を行うコールセンタで録音されたオペレータと顧客の対話が録音されている音声対話データから,顧客から提示された問題の解決に要した問題解決時間を推定装置である。
The problem solving time
問題解決時間推定処理装置1は,データ入力部11,対話種別推定部13,類似話者集合算出部15,対話データ対応付け部17,および問題解決時間算出部19を備える。
The problem solving time
データ入力部11は,音声対話データ3の集合を入力する。
The
対話種別推定部13は,入力された音声対話データ3の各々から,一方の話者が他方の話者より大きな音声で所定の長さ以上継続して発話している区間(以下,主導発話区間)を特定し,さらに,最先に現れる主導発話区間を先行主導発話区間とする。そして,先行主導発話区間が顧客またはオペレータのどちらの話者の側であるかを判定する。先行主導区間の発話者(先行主導発話者)が顧客(第2チャネル)であれば,その音声対話データの種別を「質問」と設定する。先行主導発話者がオペレータ(第1チャネル)であれば,その音声対話データ3の種別を「非質問」と設定する。
The dialogue
類似話者集合算出部15は,入力された音声対話データ3の各々について,顧客とオペレータ各々の話者特徴を,予め定められた機械学習処理方法によって学習する。さらに,学習した話者特徴をもとに,顧客およびオペレータの両方の話者特徴が,それぞれ一定の類似範囲内にある音声対話データ3を集めて分類し,音声対話データ3の分類を類似話者集合とする。
The similar speaker set
対話データ対応付け部17は,類似話者対話集合の各々について,類似話者対話集合を構成する音声対話データ3を応対時刻(録音時刻)に従って並べ,所定の対応付け条件を用いて,該当する音声対話データ同士を対応づける。
The dialogue
例えば,以下の条件を備えておく。 For example, the following conditions are prepared.
・種別“質問”の音声対話データを起点として対応付けを行う。 ・ Associating with the voice conversation data of type “question” as the starting point.
・種別“質問”と“非質問”とは,時間順に連続する。 • The types “question” and “non-question” are consecutive in time order.
・種別“非質問”と“非質問”とは,時間順に連続する。 • The types “non-question” and “non-question” are consecutive in time order.
・上記以外の種別の組は,連続させない。 ・ Sets of types other than the above are not consecutive.
この条件のもと,種別が「質問」である音声対話データ3xを一つ取り出し,取り出した音声対話データ3xと時間上で後続する種別が「非質問」の音声対話データ3yがあるかを調べる。該当する音声対話データ3yがあれば,音声対話データ3x,3yを対応付ける。該当する音声対話データがなければ対応付けを行わない。 Under this condition, one voice conversation data 3x whose type is “Question” is extracted, and it is checked whether there is voice dialog data 3y whose type is “Non-Question” that is subsequent to the extracted voice conversation data 3x. . If there is the corresponding voice dialogue data 3y, the voice dialogue data 3x and 3y are associated with each other. If there is no corresponding voice dialogue data, no association is performed.
問題解決時間算出部19は,対応付けられた音声対話データ3x,3yの最先の録音開始時刻から最後の録音終了時刻までの時間を算出して問題解決時間5とし,問題解決時間5を出力する。
The problem solving
図2は,問題解決時間推定処理装置1の処理フローを示す図である。
FIG. 2 is a diagram showing a processing flow of the problem solving time
ステップS1: 問題解決時間推定処理装置1のデータ入力部11が,音声対話データの集合3を入力する。
Step S1: The
図3は,音声対話データ3となるオペレータおよび顧客の発話の内容例を,図4は,音声対話データ3のデータ構成を示す図である。
FIG. 3 shows an example of the contents of the speech of the operator and the customer as the
音声対話データ3は,図3に示すようなオペレータと顧客の対話の音声を,既知の録音装置によって録音した音声データである。音声対話データ3は2チャネルで構成される。第1チャネル(例えば,Lチャネル)にオペレータの音声データが,第2チャネル(例えば,Rチャネル)に顧客の音声データが,それぞれ独立して録音される。
The
音声対話データ3の先頭には,データインデックスとして,データの識別情報(録音1),オペレータ名(山田),録音年月日(05/10/11),録音開始時刻(15:25:20)および録音終了時刻(15:31:32)が格納される。
At the beginning of the
なお,録音開始時刻/終了時刻が,応答開始時刻/終了時刻として使用される。 The recording start time / end time is used as the response start time / end time.
ステップS2: 対話種別推定部13が,入力された音声対話データ3の対話種別を推定する。
Step S2: The dialogue
ここで,対話種別は,対話内で顧客が質問を行っている対話を示す「質問」と,顧客の質問ではない対話を示す「その他(非質問)」を予め設定しておく。 Here, as the dialogue type, “question” indicating a dialogue in which a customer asks a question in the dialogue and “other (non-question)” indicating a dialogue that is not a customer question are set in advance.
具体的には,対話種別推定部13が,音声対話データ3に対し,L/Rチャネルそれぞれの音声データから,話者が他方の話者より大きな音声で所定の長さ以上継続して発話している主導発話区間を特定し,さらに,最先に出現する主導発話区間である先行主導発話区間を含むチャネルを判定し,そのチャネルを先行主導発話者(先行主導発話チャネル)とする。
Specifically, the conversation
より詳細に説明すると,対話種別推定部13は,音声対話データ3の各チャネルについて,所定単位区間ごとの音声のパワー値を算出し,当該パワー値を時系列で並べた音声パワー情報を生成する。そして,各チャネルの音声パワー情報同士を,時系列で先頭から比較し,所定の判定単位区間各々において,前記パワー値の当該判定単位区間の総計または割合が,より大きい値となるチャネルを当該判定単位区間での主導発話者と判定する。
More specifically, the conversation
さらに,時系列でより先頭に近い判定単位区間の主導発話者を先行主導発話者と特定する。先行主導発話者の判定単位区間から連続し,かつ先行主導発話者と同一の主導発話者の判定単位区間を先行主導発話区間とする。 Further, the leading speaker in the determination unit section closer to the head in time series is identified as the preceding leading speaker. The determination unit section of the leading speaker that is continuous from the determination unit section of the preceding initiative speaker and that is the same as the preceding initiative speaker is defined as the preceding initiative section.
その後,先行主導発話区間がRチャネルに含まれている場合にその音声対話データ3の種別を「質問」と設定し,先行主導発話区間がLチャネルに含まれている場合にその音声対話データ3の種別を「非質問」と設定する。
Thereafter, when the preceding initiative utterance section is included in the R channel, the type of the
なお,対話種別推定部13処理の詳細は後述する。
Details of the dialogue
ステップS3: 類似話者集合算出部15は,音声対話データ3の各々について,各チャネルの音声データの話者特徴を所定の処理方法によって学習処理する。
Step S3: The similar speaker set
ステップS4: さらに,類似話者集合算出部15は,学習処理によって得た話者特徴をもとに,音声対話データ3のLチャネルおよびRチャネルそれぞれについて,音声対話データ3間の類似関係を求め,LチャネルおよびRチャネルの両方について話者特徴が一定の類似範囲内にある音声対話データ3を集めて分類し,類似話者対話集合とする。
Step S4: Further, the similar speaker set
これによって,音声対話データ3の集合が,同一の顧客とオペレータとの対話に分類される。
As a result, the set of
ステップS5: 対話データ対応付け部17は,類似話者対話集合ごとに,音声対話データ3を録音時刻(例えば,録音開始時刻)に従って並べ,種別が「質問」である音声対話データを一つ取り出す。そして,所定の条件を満たす音声対話データを取り出して対応付ける。例えば,時間上後続する,種別が「非質問」の音声対話データがあれば,これを取り出して対応付ける。
Step S5: The dialogue
これにより,同一の顧客とオペレータとの複数の対話のうち,顧客が質問した対話とその質問に対するオペレータの回答の対話とが対応付けられる。 As a result, among a plurality of dialogues between the same customer and the operator, a dialogue asked by the customer is associated with a dialogue of the operator's answer to the question.
ステップS6: 問題解決時間算出部19は,対応付けられた音声対話データの先の対話の音声対話データの録音開始時刻から後の音声対話データの録音終了時刻までの時間を算出して問題解決時間とする。
Step S6: The problem solving
また,問題解決時間算出部19は,対応付けされていない,種別が質問である音声対話データ3を取り出し,この音声対話データの録音開始時刻から録音終了時刻までの時間を算出して問題解決時間とする。
In addition, the problem solving
これにより,顧客の質問に対してコールバックして回答したケース,質問された応対中に回答したケースの問題解決時間を推定することができる。 As a result, it is possible to estimate the problem solving time of the case where the customer's question is called back and answered and the case where the question was answered during the answering.
以下,問題解決時間推定処理装置1が行う,図2の処理フローの各処理をより詳細に説明する。
〔対話種別推定処理〕
図5は,ステップS2の処理のより詳細な処理フローを示す図である。Hereinafter, each processing of the processing flow of FIG. 2 performed by the problem solving time
[Dialogue type estimation process]
FIG. 5 is a diagram showing a more detailed processing flow of the processing in step S2.
ステップS20: 音声対話データ3を所定の単位区間に分割する。単位区間は,例えば,1〜2秒の値とする。
Step S20: Divide the
ステップS21: 各単位区間の音声のパワー値の平均を求め,時系列のパワー値の連続である音声パワー情報4に変換する。
Step S21: The average of the power values of the voices in each unit section is obtained and converted to voice
音声パワー情報4は,各チャネルの音声データの所定単位区間での大きさ(パワー)の平均値を,所定の閾値thを用いてビット列へ変換し,時系列で並べたビット列の情報である。したがって,発話の音声パワーが一定の閾値th以上の大きさであれば,ビットに“1”を格納し,そうでなければ“0”のままとなる。
The
図6に,ステップS21の音声パワー情報4の生成処理の処理フローを示す。
FIG. 6 shows a processing flow of the generation processing of the
音声対話データ3の各チャネルに対して,フーリエ変換処理を適応し,[パワー,ピッチ]の列を得る(ステップS111)。さらに,パワー列の最少時間単位である単位区間mを定める(ステップS112)。音声パワー情報4として,音声対話データ3の先頭から単位区間mごとに,平均パワー値を求め,平均パワー値が閾値th以上であれば,“1”を,閾値th未満であれば“0”を付与した,ビット列を出力する(ステップS113)。
A Fourier transform process is applied to each channel of the
図7は,音声対話データ(録音1)3の音声パワー情報4を示す図である。図7に示す音声パワー情報4において,[発話開始:発話終了]の形式で,発話開始時刻から発話終了時刻までの間で値“1”が付与されているビット列を表す。例えば,単位区間m=1秒の場合に,[発話開始=0:発話終了=3]は,開始0秒から3までの間が,値“1”が付与されている区間,すなわち,閾値th以上の大きさで発話があった時間を意味する。
FIG. 7 is a diagram showing the
ステップS22: 変換された音声パワー情報4から,属性情報として,総応対時間,先行発話チャネル,先行主導発話者(チャネル),先行主導発話時間を取得する。
Step S22: From the converted
総応対時間は,音声対話データ3の実際の対話の総時間を示す。図8に示すように,音声対話データのインデックス情報の対話の録音の開始時刻と終了時刻の差で求める。図9は,音声対話データ(録音1,2,…)3各々の総応対時間例を示す図である。
The total response time indicates the total actual dialogue time of the
先行発話チャネルは,顧客とオペレータの対話において先行して発話があったチャネルを示す。音声パワー情報4のパワー値のビット列において,ビットに“1”が付与されている最先の単位区間を持つチャネルを,先行発話チャネルとする。先行発話チャネルの値は,“L”,“R”,“LR”とする。
The preceding utterance channel indicates a channel in which an utterance precedes in the dialogue between the customer and the operator. In the bit string of the power value of the
コールセンタで録音される音声対話データ3では,一般的に,電話の発呼の受け手側が対話を開始,すなわち最初に発話する。したがって,通常の問い合わせ時の顧客側発呼の場合には最初の発話はオペレータである。反対に,オペレータが顧客にコールバックする場合,オペレータが発呼し,最初の発話は顧客である。一般的にコールバックの対話に顧客の質問が含まれることはほとんどないことから,オペレータと顧客のどちらの音声が録音されたチャネルが先行発話チャネルに該当するかを特定することによって,オペレータのコールバック時の対話を特定することができる。
In the
図10に示す音声パワー情報4のビット列では,Lチャネルでビット列に“1”が付与された単位区間=0,Rチャネルでビット列に“1”が付与された単位区間=3であるので,先行発話チャネル=Lと求まる。図11は,音声対話データ(録音1,2,…)3各々の先行発話チャネルを表す図である。
In the bit sequence of the
先行主導発話者(先行主導発話チャネル)は,所定の判定単位区間における主導発話者のうち,先頭に最も近い判定単位区間の主導発話者(チャネル)である。 The leading initiative utterer (preceding initiative utterance channel) is the initiative utterer (channel) in the determination unit interval closest to the head among the initiative utterers in the predetermined determination unit interval.
対話種別推定部13は,所定の判定単位区間内で音声パワー情報4のパワー値のビットが“1”となっている単位区間の合計数が大きい(又は割合が高い)チャネルを主導発話者と判定する。そして先頭に最も近い判定単位区間(時系列の最先の判定単位区間)における主導発話者を先行主導発話として特定する。
The conversation
さらに,先行発話チャネルに設定されたチャネルの音声パワー情報4において,最初にパワー値に“1”が付与された単位区間から,先行主導発話チャネルが主導発話者として判定されている単位判定区間の連続を,先行主導発話時間とする。
Furthermore, in the
図12は,先行主導発話者および先行主導発話時間を説明するための図である。 FIG. 12 is a diagram for explaining the preceding initiative utterer and the precedence initiative utterance time.
対話種別推定部13は,所定の判定処理の対象とする単位区間の範囲を示すウィンドウを,所定の移動単位でずらして判定処理を行う。パワー値の単位区間m=1秒のときに,単位判定時間に相当する処理のウィンドウサイズn=15秒(単位区間),ウィンドウをずらす移動単位k=3秒(単位区間)として,ウィンドウサイズn内で,チャネルごとにパワー値として“1”が付与されている単位区間数を計算し,単位区間数の多いチャネルを主導発話者として判定する。さらに,移動単位(サイズ)k=3秒ずらしたウィンドウサイズn内で,同様に,“1”の単位区間数が多いチャネルを主導発話者として判定する。
The dialogue
図12では,1回目〜5回目の判定処理では,主導発話者として“Rチャネル”が,6回目の判定処理で“Lチャネル”が,7回目の判定処理では“LR”がそれぞれ判定されている。したがって,最先の判定単位区間で主導発話者に判定された“Rチャネル”が先行主導発話者(先行主導発話チャネル)と判定される。 In FIG. 12, “R channel” is determined as the leading speaker in the first to fifth determination processes, “L channel” is determined in the sixth determination process, and “LR” is determined in the seventh determination process. Yes. Therefore, the “R channel” determined as the leading speaker in the earliest determination unit section is determined as the preceding leading speaker (preceding leading utterance channel).
次に,先行発話者チャネルに特定されたLチャネルにおいて,パワー値のビットに“1”が付与されている最先の単位判定区間から,先行主導発話チャネルが主導発話者として判定されている単位判定区間の連続区間を先行主導発話時間とする。 Next, in the L channel specified as the preceding speaker channel, the unit in which the preceding initiative utterance channel is determined as the initiative speaker from the first unit determination section in which “1” is assigned to the power value bit. The continuous section of the determination section is set as the preceding initiative utterance time.
ここでは,主導発話者がRチャネルからLチャネルに変わった場合に,その時のウィンドウサイズnの半分を加えた単位区間までの連続区間を,先行主導発話期間として計算する。 Here, when the lead speaker changes from the R channel to the L channel, a continuous section up to a unit section plus half of the window size n at that time is calculated as the preceding lead speech period.
図13および図14は,先行主導発話者および先行主導発話時間を求める処理フロー図である。 FIG. 13 and FIG. 14 are processing flowcharts for obtaining the preceding initiative utterer and the precedence initiative utterance time.
対話種別推定部13は,先行発話チャネルに特定されたLチャネルを選択する(ステップS131)。ウィンドウサイズnを設定し(ステップS132),音声パワー情報のビット列の先頭にポインタをセットする(ステップS133)。
The conversation
ウィンドウ内でLチャネル側でのビットが“1”となっている単位区間数を計算して値Aとする(ステップS134)。さらに,ウィンドウ内でRチャネル側でのビットが“1”となっている単位区間数を計算して値Bとする(ステップS135)。 The number of unit sections in which the bit on the L channel side is “1” in the window is calculated as a value A (step S134). Further, the number of unit sections in which the bit on the R channel side is “1” in the window is calculated as a value B (step S135).
値Aが値Bより大きいかを判定し(ステップS136),値Aが値Bより大きい場合は主導発話者=Lチャネルとする(ステップS137)。値Aが値Bより大きくない場合は,さらに,値Aが値Bと等しいかを判定し(ステップS138),値Aが値Bと等しければ,主導発話者=LRチャネルとする(ステップS139)。値Aが値Bと等しくなければ,主導発話者=Rチャネルとする(ステップS1310)。 It is determined whether the value A is greater than the value B (step S136). If the value A is greater than the value B, the lead speaker = L channel is set (step S137). If the value A is not greater than the value B, it is further determined whether or not the value A is equal to the value B (step S138). If the value A is equal to the value B, the lead speaker = LR channel is set (step S139). . If the value A is not equal to the value B, the lead speaker = R channel is set (step S1310).
そして,[ポインタ位置,主導発話者値]の組を出力する(ステップS1311)。 Then, a set of [pointer position, initiative speaker value] is output (step S1311).
次に,ウィンドウを移動単位k分ずらし(ステップS1312),ウィンドウが音声パワー情報4のビット列の最後まで到達していれば(図14:ステップS1313),ステップS1314の処理へ進み,ウィンドウが音声パワー情報4のビット列の最後まで到達していなければ,ステップS134の処理へ戻る。ステップS1314の処理では,ポインタ位置が“0”の主導発話者値を先行主導発話者の値とする。
Next, the window is shifted by the movement unit k (step S1312), and if the window has reached the end of the bit string of the audio power information 4 (FIG. 14: step S1313), the process proceeds to step S1314. If the end of the bit string of
そして,先行主導発話者と主導発話者の値が連続して同じ値をとる単位区間の範囲(L)を求める(ステップS1315)。ポインタ位置=0からポインタ位置=Lまでの区間を,発話時刻に変換し,先行主導発話時間とする(ステップS1316)。 Then, a unit interval range (L) in which the values of the preceding initiative speaker and the initiative speaker continuously take the same value is obtained (step S1315). The section from the pointer position = 0 to the pointer position = L is converted into the utterance time and is set as the preceding initiative utterance time (step S1316).
図15は,音声対話データ(録音1)3の先行主導発話時間の計算結果を示す図である。図15の図において,開始秒は,ウィンドウの開始位置を示し,窓サイズは,ウィンドウサイズnを示す。主導チャネルは主導発話者と判定されたチャネル,L割合およびR割合は,ウィンドウ内で,“1”が付与された単位区分数を示す。 FIG. 15 is a diagram illustrating a calculation result of the preceding initiative utterance time of the voice conversation data (recording 1) 3. In FIG. 15, the start second indicates the start position of the window, and the window size indicates the window size n. The lead channel is the channel determined to be the lead speaker, and the L ratio and the R ratio indicate the number of unit sections to which “1” is assigned in the window.
音声対話データ(録音1)3の先行主導発話者(チャネル)=Rチャネル,先行主導発話時間=55.5秒である。 In the voice conversation data (recording 1) 3, the preceding initiative speaker (channel) = R channel, and the precedence initiative speech time = 55.5 seconds.
ステップS23: 対話種別推定部13は,先行主導発話者(チャネル)および先行主導発話時間から,質問発話部を判定する。例えば,先行主導発話チャネルがRチャネル,すなわち顧客の音声が録音されたチャネルである場合に,先行主導発話時間に該当する時間を質問発話部として特定する。
Step S23: The dialogue
図16は,ルールベースによって質問発話部を判定する処理フロー図である。 FIG. 16 is a process flow diagram for determining a question utterance unit based on a rule base.
対話種別推定部13は,図17に示すような,判定対象の音声対象データに対する,[先行発話者(チャネル),先行主導発話者(チャネル),先行主導発話時間,総応対時間]の組を入力する(ステップS141)。
The dialogue
そして,図18に示すルールベースにもとづいて,ステップS142〜ステップS147の判定処理を行う。 Then, based on the rule base shown in FIG. 18, the determination processing in steps S142 to S147 is performed.
図18のルールベースでは,以下の判定条件が定義されている。 In the rule base of FIG. 18, the following determination conditions are defined.
ルール1:先行発話者=先行主導発話者であれば,“reject”;
ルール2:先行発話者=LRであれば,“reject”;
ルール3:先行主導発話者=Lまたは先行主導発話者=LRであれば,“reject”;
ルール4:総応対時間が,平均応対時間の1/3以下であれば,“reject”;
ルール5:先行主導発話時間が5秒以下であれば,“reject”;
初期値: ルール1〜ルール5のいずれでもなければ,“accept”とする。
ここで,“reject”=質問発話部は存在しない,“accept”=先行主導発話部分を質問発話部分とする。Rule 1: If the preceding speaker is a leading initiative speaker, “reject”;
Rule 2: If the preceding speaker = LR, “reject”;
Rule 3: If “rejection-led” speaker = L or “first-led” speaker = LR, “reject”;
Rule 4: If the total response time is 1/3 or less of the average response time, “reject”;
Rule 5: If the lead-led utterance time is 5 seconds or less, “reject”;
Initial value: If none of
Here, “reject” = no question utterance part exists, and “accept” = preceding initiative utterance part is a question utterance part.
ステップS141の入力が,ルール1に該当するかを判定し(ステップS142),ルール1に該当すれば,さらに,ルール2に該当するかを判定し(ステップS143),ルール2に該当すれば,さらに,ルール3に該当するかを判定し(ステップS144),ルール3に該当すれば,さらに,ルール4に該当するかを判定し(ステップS145),ルール4に該当すれば,さらに,ルール5に該当するかを判定し(ステップS146),ルール5に該当すれば,質問発話部はない(reject)と判定する(ステップS147)。一方,ルール1〜ルール5のいずれにも該当しなければ,質問発話部を含むと判定する(ステップS148)。
It is determined whether the input of step S141 corresponds to rule 1 (step S142). If it corresponds to rule 1, it is further determined whether it corresponds to rule 2 (step S143). If it corresponds to rule 2, Further, it is determined whether it corresponds to rule 3 (step S144). If it corresponds to rule 3, it is further determined whether it corresponds to rule 4 (step S145). (Step S146), and if it falls under
この判定処理により,図17の各音声対話データのうち,例えば,録音1および録音2の音声対話データについて質問発話部を含む(accept)と判定され,一方,録音3および録音4の音声対話データについて質問発話部を含まない(reject)と判定される。
By this determination processing, it is determined that, for example, the voice dialogue data of
ステップS24: 対話種別推定部13は,音声対話データ3に質問発話部が存在するかを判定する。
Step S24: The dialogue
ステップS25: ステップS24の処理で“accept”と判定された場合,すなわち,その音声対話データ3に質問発話部が存在する場合に(ステップS24のYES),その音声対話データ3の対話種別を“質問”とする。
Step S25: When it is determined as “accept” in the process of Step S24, that is, when a question utterance part exists in the voice dialogue data 3 (YES in Step S24), the dialogue type of the
ステップS26: ステップS24の処理で“reject”と判定された場合,すなわち,その音声対話データ3に質問発話部が存在しない場合に(ステップS24のNO),その音声対話データ3の対話種別を“その他”とする。
〔話者特徴学習処理〕
類似話者集合算出部15は,話者特徴学習処理に用いる学習データとして,音声対話データのうち一定のパワーおよび長さで録音されているチャネルごとの音声データを抽出し,抽出した音声データ各々について話者特徴を学習し,全ての音声データに対して話者特徴の類似度を算出する。類似度の算出は,音声データの総当たり方式で算出する。Step S26: When it is determined as “reject” in the process of Step S24, that is, when there is no question utterance part in the voice dialogue data 3 (NO in Step S24), the dialogue type of the
[Speaker feature learning process]
The similar speaker set
図19は,ステップS3の処理における学習データ抽出の処理フローを示す図である。 FIG. 19 is a diagram showing a process flow of learning data extraction in the process of step S3.
ステップS300: 類似話者集合算出部15は,音声対話データ3の各チャネルに対してフーリエ変換処理を適用し,[パワー,ピッチ]の列を得る。
Step S300: The similar speaker set
ステップS301: パワー列の最少時間単位である単位区間mを定める。 Step S301: A unit interval m which is the minimum time unit of the power train is determined.
ステップS302: 音声対話データ3の各チャネルの音声データに対して,先頭から単位区間mごとに平均パワー値を求め,平均パワー値が閾値th2以上である箇所を出力する。出力箇所に対応する音声データを音声集合Aに格納する。
Step S302: For the voice data of each channel of the
ステップS303: 各音声データに対応付けて,出力した音声データの総録音時間を記録する。 Step S303: The total recording time of the output audio data is recorded in association with each audio data.
図20は,ステップS3の処理における学習処理の処理フローを示す図である。音声集合Aの各音声データについて,以下の処理が行われる。 FIG. 20 is a diagram showing a processing flow of the learning process in the process of step S3. The following processing is performed for each piece of voice data in the voice set A.
学習処理は既知のものであればどのような学習処理手法でもよいが,例えばマハラノビスの距離判定を使用する。マハラノビスの距離による判定処理は,参考文献に詳説されている(P.C. Mahalanobis, "On the generalized distance in statistics", Proceedings of the National Institute of Science of India, 12 (1936) 49-55, 1936)
ステップS310: 類似話者集合算出部15は,音声集合Aから音声データを一つ取り出す。As long as the learning processing is known, any learning processing method may be used. For example, Mahalanobis distance determination is used. The decision process based on Mahalanobis distance is detailed in the reference (PC Mahalanobis, "On the generalized distance in statistics", Proceedings of the National Institute of Science of India, 12 (1936) 49-55, 1936).
Step S310: The similar speaker set
ステップS311: 取り出した音声データを用いて話者特徴を学習し,学習結果(話者特徴データセット)を学習集合Bに格納する。 Step S311: The speaker features are learned using the extracted voice data, and the learning results (speaker feature data set) are stored in the learning set B.
ステップS312: 音声集合Aから使用した音声データを取り除く。 Step S312: The used voice data is removed from the voice set A.
ステップS313: 音声集合Aに残りの音声データがあれば,ステップS310の処理へ戻り,全ての音声データを使用したら,処理を終了する。 Step S313: If there is remaining voice data in the voice set A, the process returns to step S310, and if all voice data is used, the process is terminated.
図21は,ステップS3の処理における類似度算出処理の処理フローを示す図である。音声集合Aの各音声データについて,以下の処理が行われる。 FIG. 21 is a diagram illustrating a processing flow of similarity calculation processing in step S3. The following processing is performed for each piece of voice data in the voice set A.
ステップS320: 類似話者集合算出部15は,学習集合Bから話者特徴データセットを一つ取り出す。
Step S320: The similar speaker set
ステップS321: 音声集合Aの全ての音声データに対する類似度を算出する。 Step S321: The similarity to all the audio data of the audio set A is calculated.
類似度算出の場合に,信頼度情報として,各音声データの総学習対象時間,平均類似度を計算しておく。図22に,音声集合Aを構成する音声データ(A,B,C,…)の総学習対象時間,平均類似度を示す。 When calculating similarity, the total learning target time and average similarity of each voice data is calculated as reliability information. FIG. 22 shows the total learning target time and average similarity of speech data (A, B, C,...) Constituting speech set A.
総学習対象時間は,話者特徴を学習するために使用した音声データの録音時間である。平均類似度は,他の音声データとの類似度を出力した際の類似度の平均値である。 The total learning target time is the recording time of voice data used to learn speaker characteristics. The average similarity is an average value of similarities when outputting similarities with other audio data.
ステップS322: 学習集合Bから使用した話者特徴データセットを取り除く。 Step S322: The speaker feature data set used is removed from the learning set B.
ステップS323: 学習集合Bに残りの話者特徴データセットがあれば,ステップS320の処理へ戻り,全ての話者特徴データセットを使用したら,処理を終了する。 Step S323: If there is any remaining speaker feature data set in the learning set B, the process returns to step S320, and if all speaker feature data sets are used, the process is terminated.
図23は,算出された類似度マトリックスの例を示す図である。この類似度マトリックスにおいて,類似度は,“0”を最大(距離最小)として,値が大きいほど類似していないことを示す。 FIG. 23 is a diagram illustrating an example of the calculated similarity matrix. In this similarity matrix, the similarity is “0” as the maximum (minimum distance), and the greater the value, the less similar.
図23に示す類似度マトリックスのAの列は,音声データAに対する,他の音声データ(B,C,…)の類似度であり,音声データAは,音声データA,B,C,D,E,…と,それぞれ,“0,30,1500,25000,230,…”の類似度であることを示す。 The column A of the similarity matrix shown in FIG. 23 is the similarity of the other audio data (B, C,...) With respect to the audio data A, and the audio data A includes the audio data A, B, C, D, E,..., And “0, 30, 1500, 25000, 230,.
〔類似話者集合算出〕
類似話者集合算出部15は,各音声データの類似度をもとに話者認証,すなわち,同一の話者とみなすことができる音声データの集合(類似話者集合)を算出する。ここで,判定精度を向上させるため,類似度の補正処理を行う。[Similar speaker set calculation]
The similar speaker set
図24は,ステップS4の処理のより詳細な処理フローを示す図である。 FIG. 24 is a diagram showing a more detailed processing flow of the processing in step S4.
ステップS40: 類似話者集合算出部15は,類似話者候補とみなす音声データを判定するための閾値th3を決定する。例えば,閾値th3を“類似度=1000”とする。
Step S40: The similar speaker set
ステップS41: 全音声データの平均類似度を求める。 Step S41: The average similarity of all audio data is obtained.
ステップS42: 平均類似度に対して一定の程度以上低い音声データに“不定”を設定して,排除する。平均類似度が“23000000”である場合に,図25に示すように,“平均類似度の1/4以下”の音声データに“不定”を設定する。 Step S42: “Undetermined” is set for the audio data lower than a certain level with respect to the average similarity, and is excluded. When the average similarity is “23000000”, “undefined” is set to the audio data “1/4 or less of the average similarity” as shown in FIG.
ステップS43: 音声データのうち,対応する音声対話データのLチャネル側(オペレータ)の話者特徴が同一話者とみなされない2つの音声データについて“類似度なし”を設定する。 Step S43: Among the voice data, “no similarity” is set for two voice data whose speaker characteristics on the L channel side (operator) of the corresponding voice dialogue data are not regarded as the same speaker.
音声データBと音声データDのLチャネルの音声データが一定の類似範囲でないと仮定すると,図26に示す類似マトリックスのように,該当する項目に“類似度なし(−)”を設定する。 Assuming that the L channel audio data of the audio data B and the audio data D are not in a certain similar range, “no similarity (−)” is set in the corresponding item as in the similarity matrix shown in FIG.
ステップS44: 対応する平均類似度の値に応じて,音声データの類似度を補正し,図27(A)に示すように,補正係数,正規化類似度を算出する。 Step S44: The similarity of the audio data is corrected according to the corresponding average similarity value, and the correction coefficient and the normalized similarity are calculated as shown in FIG.
補正係数=(各音声対話データの平均類似度/音声対話データ全体の平均類似度)の2乗
正規化類似度=元の類似度*補正係数
これにより,図27(B)に示すように,各音声対話データの補正係数を計算し,図28に示す,各音声データの正規化類似度マトリックスを得る。Correction coefficient = (average similarity of each voice conversation data / average similarity of the whole voice conversation data) squared normalized similarity = original similarity * correction coefficient Thus, as shown in FIG. The correction coefficient of each voice interaction data is calculated, and the normalized similarity matrix of each voice data shown in FIG. 28 is obtained.
ステップS45: 処理対象とする音声データと他の音声データとの対の類似度を,それぞれの音声データの正規化類似度の平均値として計算する。 Step S45: The pair similarity between the audio data to be processed and other audio data is calculated as an average value of the normalized similarity of each audio data.
すなわち,音声データA,Bの類似度は,音声データAの音声データBに対する類似度(A→B類似度)と,音声データBの音声データAに対する類似度(B→A類似度)の平均とする。 That is, the similarity between the audio data A and B is the average of the similarity between the audio data A and the audio data B (A → B similarity) and the similarity between the audio data B and the audio data A (B → A similarity). And
また,「A→B類似度」,「B→A類似度」のうち一方が“不定”である場合に,不定でない方の類似度とする。「A→B類似度」,「B→A類似度」の両方が“不定”である場合には,同一話者でないと判定する。 Further, when one of “A → B similarity” and “B → A similarity” is “indefinite”, it is determined as the non-indeterminate similarity. If both “A → B similarity” and “B → A similarity” are “undefined”, it is determined that they are not the same speaker.
図29は,各音声対話データの平均類似度マトリックスの例を示す。 FIG. 29 shows an example of the average similarity matrix of each voice interaction data.
ステップS46: 音声対話データの平均類似度マトリックスを用いて,同一話者かを判定する。音声データの平均類似度が閾値th3(=1000)以上であれば,非同一話者(1),閾値th3未満であれば同一話者(0)とする。 Step S46: Using the average similarity matrix of the voice conversation data, it is determined whether or not they are the same speaker. If the average similarity of the voice data is equal to or greater than the threshold th3 (= 1000), the speaker is not the same speaker (1), and if it is less than the threshold th3, the speaker is the same speaker (0).
図30に示すように,音声データAについては,音声データB,C,Eが同一話者とみなすことができ,類似話者集合{A,B,C,E}が算出される。 As shown in FIG. 30, for the voice data A, the voice data B, C, E can be regarded as the same speaker, and a similar speaker set {A, B, C, E} is calculated.
同様に,音声データBについては,音声データEが同一話者とみなすことができ,類似話者集合{B,E}が,音声データCについては,音声データDが同一話者とみなすことができ,類似話者集合{C,D}が,算出される。
〔対話データ対応付け処理〕
対話データ対応付け部17は,音声対話データの対応付けのための条件として,以下のような条件を予め設定しておく。Similarly, for voice data B, voice data E can be regarded as the same speaker, for similar speaker set {B, E}, for voice data C, voice data D can be regarded as the same speaker. A similar speaker set {C, D} is calculated.
[Interaction data mapping process]
The dialogue
・対話種別“質問”のデータを起点として対応付けを行う。 ・ Association is started from the data of the dialogue type “question”.
・対話種別“質問”と“その他”は,時間順に連続する。 • The dialogue types “Question” and “Others” continue in chronological order.
・対話種別“その他”と“その他”は,時間順に連続する。 • The dialogue types “Other” and “Other” continue in chronological order.
・上記以外の対話種別の組は,連続しない。 -Other than the above types of dialogue types are not consecutive.
図31は,ステップS5の処理のより詳細な処理フロー図である。 FIG. 31 is a more detailed process flow diagram of the process of step S5.
ステップS50: 対話データ対応付け部17は,類似話者集合を構成する音声データについて,その音声データの対話種別をもとに,条件を満たす音声データを残す。
Step S50: The dialogue
図32(A)に示す同一話者の判断結果にもとづいて,対応付け処理を行うとする。 Assume that the association processing is performed based on the determination result of the same speaker shown in FIG.
類似話者集合{A,B,C,E}を対象とすると,図32(B)に示す対話種別から,音声データAが“質問”であるので,これを起点とする。音声データB,Cは“質問”であって条件を満たさないので,排除する。音声データEは“その他”であり条件を満たすので残し,この類似話者集合に{A,E}が残される。 If the similar speaker set {A, B, C, E} is targeted, since the voice data A is a “question” from the conversation type shown in FIG. 32B, this is the starting point. Since the voice data B and C are “questions” and do not satisfy the condition, they are excluded. The voice data E is “other” and satisfies the condition, and is left, and {A, E} is left in this similar speaker set.
また,類似話者集合{B,E}については,音声データBが“質問”であるので,これを起点とすると,音声データEが“その他”であり条件を満たす。しかし,音声データEは,音声データAとの類似度がより高いため,音声データEを排除し,類似話者集合に{B}が残される。 For the similar speaker set {B, E}, since the voice data B is “question”, the voice data E is “other” and satisfies the condition. However, since the voice data E has a higher similarity to the voice data A, the voice data E is excluded and {B} is left in the similar speaker set.
また,類似話者集合{C,D}については,音声データCが“質問”であるので,これを起点とすると,音声データDが“その他”であり条件を満たすので残す。よって,この類似話者集合に{C,D}が残される。 For the similar speaker set {C, D}, since the voice data C is a “question”, the voice data D is “other” and satisfies the condition since it is the starting point. Therefore, {C, D} is left in this similar speaker set.
ステップS51: 各類似話者集合に残された音声データに対応する音声対話データを時間順に出力する。 Step S51: Output voice dialogue data corresponding to the voice data left in each similar speaker set in time order.
ステップS50の処理結果から,各音声対話データの録音時間が,図32(C)に示す順序である場合に,図33に示す「音声データA→E」,「音声データB」,「音声データC→D」の3つの対応付けが出力される。 From the processing result of step S50, when the recording time of each voice conversation data is in the order shown in FIG. 32C, “voice data A → E”, “voice data B”, “voice data” shown in FIG. Three associations “C → D” are output.
〔問題解決時間算出処理〕
問題解決時間算出部19は,対話データ対応付け部17の出力を得て,各音声対話データのヘッダに記録された録音開始時刻および録音終了時刻をもとに,問題解決時間を算出する。[Problem solving time calculation process]
The problem solving
図34(A)に示すように,「音声データA→E」について,音声対話データAの録音開始時刻から音声対話データEの録音終了時刻までの時間t1を,問題解決時間とする。同様に,図34(B)に示すように,「音声対話データC→D」について,音声対話データCの録音開始時刻から音声対話データDの録音終了時刻までの時間t2を,図34(C)に示すように,「音声対話データB」について,音声対話データBの録音開始時刻から録音終了時刻までの時間t3を,問題解決時間とする。 As shown in FIG. 34A, for “voice data A → E”, the time t1 from the recording start time of the voice dialogue data A to the recording end time of the voice dialogue data E is set as the problem solving time. Similarly, as shown in FIG. 34 (B), for “voice dialogue data C → D”, the time t2 from the recording start time of the voice dialogue data C to the recording end time of the voice dialogue data D is shown in FIG. As shown in (2), for “voice dialogue data B”, the time t3 from the recording start time to the recording end time of the voice dialogue data B is set as the problem solving time.
以上,本発明をその実施の形態により説明したが,本発明はその主旨の範囲において種々の変形が可能であることは当然である。 Although the present invention has been described above with reference to the embodiments, it is obvious that the present invention can be variously modified within the scope of the gist thereof.
また,問題解決時間推定処理装置1は,コンピュータプログラムとして実現することができ,このプログラムは,コンピュータが読み取り可能な,可搬媒体メモリ,半導体メモリ,ハードディスクなどの適当な記録媒体に格納することができ,これらの記録媒体に記録して提供され,または,通信インタフェースを介して種々の通信網を利用した送受信により提供されうるものである。
The problem solving time
Claims (9)
コンピュータを,
オペレータの音声が録音された第1チャネルと顧客の音声が録音された第2チャネルとで構成された録音時刻付き音声対話データの集合を入力する処理部と,
前記音声対話データ各々に対して,一方の話者が他方の話者より大きな音声で所定の長さ以上継続して発話している主導発話区間を特定し,さらに,最も先に存在する主導発話区間を特定して先行主導発話区間とし,当該先行主導発話区間が第2チャネルに含まれる場合に当該音声対話データの種別を質問と設定し,当該先行主導発話区間が第1チャネルに含まれる場合に当該音声対話データの種別を非質問と設定する処理部と,
前記音声対話データ各々について,各チャネルの音声データの話者特徴を,予め定められた機械学習処理方法によって学習する処理部と,
前記話者特徴をもとに,前記音声対話データの第1チャネルおよび第2チャネルそれぞれの話者特徴が一定の類似範囲内にある音声対話データを集めて類似話者集合とする処理部と,
前記類似話者集合ごとに,前記音声対話データを録音時刻に従って並べ,前記種別が質問である音声対話データを一つ取り出し,当該質問である音声対話データと時間的に後続するデータであって種別が非質問の音声対話データと対応付ける処理部と,
前記対応付けられた音声対話データの組の最先の録音開始時刻から最後の録音終了時刻までの時間を算出して問題解決時間とする処理部,
として機能させることを特徴とする問題解決時間推定処理プログラム。A problem solving time estimation processing program for estimating a problem solving time required for solving a problem presented by a customer from voice dialogue data in which a dialogue between an operator and a customer is recorded.
Computer
A processing unit for inputting a set of voice conversation data with recording time, which is composed of a first channel in which the voice of the operator is recorded and a second channel in which the voice of the customer is recorded;
For each of the voice dialogue data, a leading utterance section in which one speaker continuously speaks for a predetermined length or longer with a louder voice than the other speaker is identified, and the leading utterance existing first When the section is identified as a leading initiative utterance section, and when the preceding initiative utterance section is included in the second channel, the type of the voice interaction data is set as a question, and the preceding initiative utterance section is included in the first channel A processing unit for setting the type of the voice interaction data as non-question,
For each of the voice interaction data, a processing unit that learns speaker characteristics of the voice data of each channel by a predetermined machine learning processing method;
Based on the speaker characteristics, a processing unit that collects voice conversation data in which the speaker characteristics of the first channel and the second channel of the voice conversation data are within a certain similar range to form a similar speaker set;
For each set of similar speakers, the voice dialogue data is arranged according to the recording time, one voice dialogue data whose type is a question is taken out, and the voice dialogue data which is the question is temporally succeeding data. Is a processing unit for associating with non-question voice dialogue data;
A processing unit that calculates a time from the earliest recording start time to the last recording end time of the set of the spoken dialogue data associated with each other and sets it as a problem solving time;
A problem solving time estimation processing program characterized in that it functions as:
前記質問である音声対話データと時間的に後続するデータの前に,前記種別が質問である音声対話データが複数ある場合に,前記話者類似の度合いが最も高い音声対話データを選択して対応づける処理を行う
ことを特徴とする
請求項1に記載の問題解決時間推定処理プログラム。The processing unit for associating the voice dialogue data is:
When there is a plurality of voice dialogue data whose type is a question before the voice dialogue data which is the question, the voice dialogue data having the highest degree of speaker similarity is selected and dealt with. The problem solving time estimation processing program according to claim 1, wherein the processing is performed.
前記音声対話データの対応付けがなされていない音声対話データであって,前記種別が質問である音声対話データを取り出し,当該音声対話データの録音開始時刻から録音終了時刻までの時間を算出して問題解決時間とする処理を行う
ことを特徴とする
請求項1または請求項2に記載の問題解決時間推定処理プログラム。The processing unit for calculating the problem solving time is:
The voice dialogue data that is not associated with the voice dialogue data, the type of which is a question, the voice dialogue data is taken out, and the time from the recording start time to the recording end time of the voice dialogue data is calculated. The problem solving time estimation processing program according to claim 1, wherein processing for solving time is performed.
オペレータの音声が録音された第1チャネルと顧客の音声が録音された第2チャネルとで構成された録音時刻付き音声対話データの集合を入力するデータ入力部と,
前記音声対話データ各々に対して,一方の話者が他方の話者より大きな音声で所定の長さ以上継続して発話している主導発話区間を特定し,さらに,最も先に存在する主導発話区間を特定して先行主導発話区間とし,当該先行主導発話区間が第2チャネルに含まれる場合に当該音声対話データの種別を質問と設定し,当該先行主導発話区間が第1チャネルに含まれる場合に当該音声対話データの種別を非質問と設定する対話種別推定部と,
前記音声対話データ各々について,各チャネルの音声データの話者特徴を,予め定められた機械学習処理方法によって学習する話者特徴学習部と,
前記話者特徴をもとに,前記音声対話データの第1チャネルおよび第2チャネルそれぞれの話者特徴が一定の類似範囲内にある音声対話データを集めて類似話者集合とする類似話者集合算出部と,
前記類似話者集合ごとに,前記音声対話データを録音時刻に従って並べ,前記種別が質問である音声対話データを一つ取り出し,当該質問である音声対話データと時間的に後続するデータであって種別が非質問の音声対話データと対応づける対話データ対応付け部と,
前記対応付けられた音声対話データの組の最先の録音開始時刻から最後の録音終了時刻までの時間を算出して問題解決時間とする問題解決時間算出部とを,
有することを特徴とする問題解決時間推定処理装置。A processing device for estimating problem solving time required to solve a problem presented by a customer from voice dialogue data in which a dialogue between an operator and a customer is recorded.
A data input unit for inputting a set of voice conversation data with recording time, which is composed of a first channel in which the operator's voice is recorded and a second channel in which the customer's voice is recorded;
For each of the voice dialogue data, a leading utterance section in which one speaker continuously speaks for a predetermined length or longer with a louder voice than the other speaker is identified, and the leading utterance existing first When the section is identified as a leading initiative utterance section, and when the preceding initiative utterance section is included in the second channel, the type of the voice interaction data is set as a question, and the preceding initiative utterance section is included in the first channel A dialogue type estimation unit that sets the type of the voice dialogue data as non-question,
A speaker feature learning unit that learns speaker features of voice data of each channel for each of the voice conversation data by a predetermined machine learning processing method;
Based on the speaker features, a similar speaker set is obtained by collecting voice dialogue data in which the speaker features of the first channel and the second channel of the voice dialogue data are within a certain similar range. A calculation unit;
For each set of similar speakers, the voice dialogue data is arranged according to the recording time, one voice dialogue data whose type is a question is taken out, and the voice dialogue data which is the question is temporally succeeding data. A dialog data mapping unit that maps non-question voice dialog data,
A problem solving time calculation unit for calculating a time from the earliest recording start time to the last recording end time of the set of the spoken dialogue data set as the problem solving time;
A problem solving time estimation processing device characterized by comprising:
ことを特徴とする
請求項4に記載の問題解決時間推定処理装置。The dialogue data associating unit has the highest degree of speaker similarity when there is a plurality of voice dialogue data of which the type is a question before the voice dialogue data which is the question and the temporally subsequent data. The problem solving time estimation processing apparatus according to claim 4, wherein processing for selecting and correlating voice dialogue data is performed.
ことを特徴とする
請求項4または請求項5に記載の問題解決時間推定処理装置。The problem solving time calculation unit extracts voice dialogue data that is not associated with the voice dialogue data and whose type is a question, and records a recording end time from a recording start time of the voice dialogue data. The problem solving time estimation processing device according to claim 4, wherein a process for calculating a time until a problem solving time is calculated.
オペレータの音声が録音された第1チャネルと顧客の音声が録音された第2チャネルとで構成された録音時刻付き音声対話データの集合を入力する処理ステップと,
前記音声対話データ各々に対して,一方の話者が他方の話者より大きな音声で所定の長さ以上継続して発話している主導発話区間を特定し,さらに,最も先に存在する主導発話区間を特定して先行主導発話区間とし,当該先行主導発話区間が第2チャネルに含まれる場合に当該音声対話データの種別を質問と設定し,当該先行主導発話区間が第1チャネルに含まれる場合に当該音声対話データの種別を非質問と設定する処理ステップと,
前記音声対話データ各々について,各チャネルの音声データの話者特徴を,予め定められた機械学習処理方法によって学習する処理ステップと,
前記話者特徴をもとに,前記音声対話データの第1チャネルおよび第2チャネルそれぞれの話者特徴が一定の類似範囲内にある音声対話データを集めて類似話者集合とする処理ステップと,
前記類似話者集合ごとに,前記音声対話データを録音時刻に従って並べ,前記種別が質問である音声対話データを一つ取り出し,当該質問である音声対話データと時間的に後続するデータであって種別が非質問の音声対話データと対応づける処理ステップと,
前記対応付けられた音声対話データの組の最先の録音開始時刻から最後の録音終了時刻までの時間を算出して問題解決時間とする処理ステップとを,
備える問題解決時間推定処理方法。A processing method executed by a computer in order to estimate a problem solving time required for solving a problem presented by a customer from voice conversation data in which a dialogue between an operator and a customer is recorded.
Processing step of inputting a set of voice dialogue data with recording time, which is composed of a first channel in which the voice of the operator is recorded and a second channel in which the voice of the customer is recorded;
For each of the voice dialogue data, a leading utterance section in which one speaker continuously speaks for a predetermined length or longer with a louder voice than the other speaker is identified, and the leading utterance existing first When the section is identified as a leading initiative utterance section, and when the preceding initiative utterance section is included in the second channel, the type of the voice interaction data is set as a question, and the preceding initiative utterance section is included in the first channel A processing step for setting the type of the voice interaction data as non-question,
A processing step of learning speaker characteristics of the voice data of each channel for each of the voice conversation data by a predetermined machine learning processing method;
Based on the speaker characteristics, processing steps for collecting voice conversation data in which the speaker characteristics of the first channel and the second channel of the voice conversation data are within a certain similar range to form a similar speaker set;
For each set of similar speakers, the voice dialogue data is arranged according to the recording time, one voice dialogue data whose type is a question is taken out, and the voice dialogue data which is the question is temporally succeeding data. Processing steps for associating with non-questional voice interaction data;
A processing step of calculating a time from the earliest recording start time to the last recording end time of the associated voice dialogue data set as a problem solving time;
A problem solving time estimation processing method provided.
ことを特徴とする
請求項7に記載の問題解決時間推定処理方法。In the processing step of associating the voice dialogue data, if there is a plurality of voice dialogue data whose type is a question before the subsequent dialogue, the voice dialogue data having the highest degree of speaker similarity is selected and dealt with. The problem solving time estimation processing method according to claim 7, wherein the processing is performed.
ことを特徴とする
請求項7または請求項8に記載の問題解決時間推定処理方法。In the processing step of calculating the problem solving time, voice dialogue data that is not associated with the voice dialogue data and whose type is a question is extracted, and from the recording start time of the voice dialogue data The problem solving time estimation processing method according to claim 7 or 8, characterized in that a process up to a recording end time is calculated to obtain a problem solving time.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2008/058056 WO2009130785A1 (en) | 2008-04-25 | 2008-04-25 | Problem solving time estimation program, processing apparatus, and processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2009130785A1 JPWO2009130785A1 (en) | 2011-08-11 |
JP5099218B2 true JP5099218B2 (en) | 2012-12-19 |
Family
ID=41216534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010509012A Expired - Fee Related JP5099218B2 (en) | 2008-04-25 | 2008-04-25 | Problem solving time estimation processing program, processing apparatus, and processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5099218B2 (en) |
WO (1) | WO2009130785A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019194868A1 (en) * | 2018-04-05 | 2019-10-10 | The Fin Exploration Company | Allocating resources in response to estimated completion times for requests |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113011692A (en) * | 2019-12-20 | 2021-06-22 | 江苏省城市轨道交通研究设计院股份有限公司 | Urban rail transit general contract site safety management system and method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331624A (en) * | 2000-05-22 | 2001-11-30 | Hitachi Ltd | Method and system for evaluating technical level of customer consultant |
JP2004096149A (en) * | 2002-08-29 | 2004-03-25 | Casio Comput Co Ltd | Call content managing device and program thereof |
JP2005338610A (en) * | 2004-05-28 | 2005-12-08 | Toshiba Tec Corp | Information input device and information storing and processing device |
JP2007312186A (en) * | 2006-05-19 | 2007-11-29 | Nec Corp | Call sound recording and reproducing apparatus and call sound recording and reproducing method |
-
2008
- 2008-04-25 WO PCT/JP2008/058056 patent/WO2009130785A1/en active Application Filing
- 2008-04-25 JP JP2010509012A patent/JP5099218B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331624A (en) * | 2000-05-22 | 2001-11-30 | Hitachi Ltd | Method and system for evaluating technical level of customer consultant |
JP2004096149A (en) * | 2002-08-29 | 2004-03-25 | Casio Comput Co Ltd | Call content managing device and program thereof |
JP2005338610A (en) * | 2004-05-28 | 2005-12-08 | Toshiba Tec Corp | Information input device and information storing and processing device |
JP2007312186A (en) * | 2006-05-19 | 2007-11-29 | Nec Corp | Call sound recording and reproducing apparatus and call sound recording and reproducing method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019194868A1 (en) * | 2018-04-05 | 2019-10-10 | The Fin Exploration Company | Allocating resources in response to estimated completion times for requests |
Also Published As
Publication number | Publication date |
---|---|
WO2009130785A1 (en) | 2009-10-29 |
JPWO2009130785A1 (en) | 2011-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11776547B2 (en) | System and method of video capture and search optimization for creating an acoustic voiceprint | |
US11636860B2 (en) | Word-level blind diarization of recorded calls with arbitrary number of speakers | |
US9881617B2 (en) | Blind diarization of recorded calls with arbitrary number of speakers | |
US9672825B2 (en) | Speech analytics system and methodology with accurate statistics | |
US10789943B1 (en) | Proxy for selective use of human and artificial intelligence in a natural language understanding system | |
JP2019053126A (en) | Growth type interactive device | |
US11238869B2 (en) | System and method for reconstructing metadata from audio outputs | |
JP5099211B2 (en) | Voice data question utterance extraction program, method and apparatus, and customer inquiry tendency estimation processing program, method and apparatus using voice data question utterance | |
JP2006279111A (en) | Information processor, information processing method and program | |
JP2020160425A (en) | Evaluation system, evaluation method, and computer program | |
JP5099218B2 (en) | Problem solving time estimation processing program, processing apparatus, and processing method | |
US11107476B2 (en) | Speaker estimation method and speaker estimation device | |
JP2020160336A (en) | Evaluation system, evaluation method, and computer program | |
JP7162783B2 (en) | Information processing device, estimation method, and estimation program | |
US12087307B2 (en) | Method and apparatus for performing speaker diarization on mixed-bandwidth speech signals | |
JP2022038498A (en) | Selection program, selection method and selection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120828 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120910 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151005 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |