JP4728868B2 - 応対評価装置、その方法、プログラムおよびその記録媒体 - Google Patents

応対評価装置、その方法、プログラムおよびその記録媒体 Download PDF

Info

Publication number
JP4728868B2
JP4728868B2 JP2006114038A JP2006114038A JP4728868B2 JP 4728868 B2 JP4728868 B2 JP 4728868B2 JP 2006114038 A JP2006114038 A JP 2006114038A JP 2006114038 A JP2006114038 A JP 2006114038A JP 4728868 B2 JP4728868 B2 JP 4728868B2
Authority
JP
Japan
Prior art keywords
emotion
response
score
unit
evaluation apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006114038A
Other languages
English (en)
Other versions
JP2007286377A (ja
Inventor
厚徳 小川
浩和 政瀧
敏 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006114038A priority Critical patent/JP4728868B2/ja
Publication of JP2007286377A publication Critical patent/JP2007286377A/ja
Application granted granted Critical
Publication of JP4728868B2 publication Critical patent/JP4728868B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は例えば、コールセンタにおけるオペレータの顧客に対する応対や銀行、官庁などの窓口業務における顧客に対する応対を自動的に評価し、オペレータや窓口業務員の教育に利用することができる応対評価装置、方法、プログラムおよびその記録媒体である。
コールセンタ市場は、年平均5%で成長しており、2008年には、約4000億円の市場になると予想されている。コールセンタ運営者のニーズはオペレータに応対業務効率化による生産性の向上と、顧客に対するサービスレベル・平均応答時間の向上による品質向上にある。一方で、オペレータの応対業務の多様化・複雑化、オペレータの入れ替わりが激しいという悩みを持っている。このような状況の中で、上記2つのニーズを満たすために、オペレータ教育の重要度が高まってきている。オペレータの教育方法としては非特許文献1に示すようにスーパバイザがリアルタイムでオペレータの応対をモニタリングし、適宜指導する方法や、応対を一旦録音しておき、後にそれを聞き返して、業務後に指導する方法など、人手をかける方法が取られていた。
「コールセンタ白書2005」、コンピュータテレフォニー編集部・編(株)リックテレコム、pp6−43、2005.
例えば、コールセンタ、一般の窓口業務などの顧客応対業務のオペレータや窓口業務員などの教育の重要度が高まっているが、人手がかかるために、その負担が高まっている。この発明の目的は、オペレータの顧客に対する電話応対や窓口業務における顧客に対する応対を自動的に評価し、コールセンタ等のオペレータや窓口業務員の教育の負担を軽減する。
入力された顧客の音声信号から音声分析部で音声特徴量を検出し、予め定義された複数の感情のそれぞれを多次元混合正規分布によりモデル化した感情モデル集合と上記音声特徴量の時系列的なマッチングを取ることで、感情系列を生成し、上記複数の感情とこれらの感情点数を対応させた感情点数リストと上記感情系列との対応から感情点数系列を出力し、上記感情点数系列を基に応対評点を算出する。
以上の構成によれば、例えば、コールセンタのオペレータや窓口業務員の顧客に対する応対を自動的に評点することができ、オペレータ、窓口業務員などの教育の負担を軽減することが可能である。
実施例1
この発明の実施例1を説明するにあたって、コールセンタにおけるオペレータとその顧客との応対について説明する。また、この実施例において、オペレータが顧客に対する応対を始めた時を応対開始と定義し、オペレータが顧客に対する応対を終了した時を応対終了と定義し、応対開始から応対終了までの応対を1コールと定義する。また、この実施例は、オペレータの音声は使用せず、顧客の音声のみを使用するものである。
図1、図2にこの実施例1の機能構成例を示し、図3に実施例1の処理の流れを示す。
図1中の感情系列推定部2は音声分析部4、特徴量ベクトル記憶部6、感情モデル集合記憶部8、マッチング部10とで構成されている。更にマッチング部10は尤度計算部12、発話検出部14、発話単位マッチング部16、とで構成され、入力部30は感情入力部32と点数入力部34とで構成されている。
オペレータの応対が開始すると(ステップS200)、顧客の入力音声信号がサンプリングされ、ディジタル信号化された状態で、入力端子1に入力され、1コール分の入力音声信号が音声分析部4に入力される。応対開始は例えば、顧客からの着信に基づき、オペレータが送受信機のフックスイッチなどの電話応対開始用ボタンを操作すると、その操作を検出して、応対開始とする。
入力音声信号は、音声分析部4において音声特徴量ベクトルの時系列に変換される(ステップS202)。そして、音声特徴量ベクトルは特徴量ベクトル記憶部6で記憶される。音声分析部4における音声分析方法としてよく用いられるのはケプストラム分析である。音声特徴量としてはMFCC(Mel Frequency Cepstral Coefficient)、ΔMFCC、ΔΔMFCC、対数パワー、Δ対数パワーなどが用いられ、これらの組み合わせで、10〜100次元程度の音声特徴量ベクトルが構成される。音声特徴量ベクトルの代表的な例としては、(1)MFCC12次元、ΔMFCC12次元、Δ対数パワー1次元の計25次元から構成されるものや(2)MFCC12次元、ΔMFCC12次元、ΔΔMFCC12次元、対数パワー1次元、Δ対数パワー1次元、ΔΔ対数パワー1次元の計39次元から構成されるものなどがある。音声分析は、分析フレーム幅30ミリ秒程度、分析フレームシフト幅10ミリ秒程度で実行される。
また、予め顧客の好ましい感情から好ましくない感情まで複数の感情を定義しておく必要がある。感情定義の一例を図4に示す。この例では、「感謝している(好ましい感情)」から「怒っている(好ましくない感情)」まで5段階の感情を定義している。具体的には、「感謝している」「快い」「普通」「不快である」「怒っている」の5段階である。この感情定義は、オペレータ教育において何を重視するかにより、コールセンタごとに定義すればよい。例えば、オペレータのクレーム応対能力を強化したいのであれば、好ましくない感情を更に細かく定義し、詳細な分析に基づく教育を行えるようにすればよい。
また感情定義に対応した感情モデル集合を事前に構築しておく必要がある。図4の感情定義に対応した感情モデル集合の一例を図5に示す。感情モデル集合中の各感情モデルは、例えば、音声認識の分野で汎用される確率・統計理論に基づいてモデル化された多次元混合正規分布(Gaussian Mixture Model 略してGMM)で表現することができる。GMMの詳細については、例えば、「D.A.Reynolds and R.C.Rose,“Robust Text−Independent speaker Indentification using Gaussian mixture speaker models,” IEEE Trans.Speech Audio Process.,vol.3,no.1,pp.72−83,Jan.1995.」に記載されている。
GMMの構造例を図6に示す。GMM中の各多次元正規分布としては、次元間に相関がない(共分散行列の対角成分が0である)多次元無相関正規分布が最もよく用いられる。多次元無相関正規分布の各次元は、上記の音声特徴量ベクトルの各次元に対応する。図6では、4つの多次元正規分布(N1〜N4)を要素分布とする多次元無相関混合正規分布によりGMMが構成されている。ここでμmi、σmiは多次元無相関正規分布中のそれぞれm番目(図6の場合はm=1、...、4)の分布の次元i(i番目の次元)における平均値、分散である。また図6では、音声特徴量ベクトルのある次元i(i番目の次元)について示しているが、上記音声特徴量ベクトルの各次元について同様に表現される。そして、感情モデル集合に含まれる各感情モデルはGMMにより構成されている。この実施例では「感謝している」はGMM1、「快い」はGMM2、「普通」はGMM3、「不快である」はGMM4、「怒っている」はGMM5であり、これらの感情モデル集合が感情モデル集合記憶部8に記憶されている。
特徴量ベクトル記憶部6よりの音声特徴量ベクトルがマッチング部10に入力される。マッチング部10では、音声特徴量ベクトルと感情モデル集合記憶部8中の感情モデル集合に含まれる各感情モデル(GMM1〜GMM5)との照合が行われ、最も高い尤度を示した感情モデルが表現する感情が推定結果として出力される。
以下に、マッチング部10における音声特徴量ベクトルとGMM1〜5との照合処理すなわち、尤度計算について説明する。またこの手法の詳細は、例えば、「鹿野清宏、伊藤克亘、河原達也、武田一哉、山本幹雄、「IT Text 音声認識システム」、pp.1−51,2001,オーム社」に記されている。
特徴量ベクトル記憶部6よりの音声特徴量ベクトルがマッチング部10中の尤度計算部12に入力される。尤度計算部12では、フレームごとに、処理が行われ(ステップS204)、当該フレームをt番目のフレームとすると、t番目のフレームの音声特徴量ベクトルXtがGMMから出力される確率(以下、尤度という)b(X)は、式(1)のように計算される。ただし、Pm(X)は、音声特徴量ベクトルXが上記のGMM中のm番目の多次元無相関正規分布からの出力確率とする。
Figure 0004728868
ここでWmはm番目の多次元無相関正規分布の分布重みである。Wmについては以下が満たされる。
Figure 0004728868
また、m番目の多次元無相関正規分布からの出力確率Pm(X)は以下のように計算される。
Figure 0004728868
tiは、音声特徴量ベクトルXの次元iの値である。Iは音声特徴量特徴ベクトル(多次元無相関正規分布)の次元数である。
このように計算されたフレームごとの尤度b(Xt)が発話単位マッチング部16に入力される。
一方、入力端子1よりのディジタル信号化された入力音声信号は、発話検出部14に入力され、発話検出部14で発話単位に分割される。発話単位に区切る方法としては、音声パワーのレベルがある一定の閾値以上である区間を発話として認識する方法等が考えられる。区切られた発話単位は発話単位マッチング部16に入力される。この例では、1コールにおける入力音声信号が図2に示すように、10個の発話単位で構成された場合を想定する。
発話単位マッチング部16では、発話単位ごとの各音声モデルGMMの出力確率、つまり尤度が計算される。具体的な計算方法を以下に示す。検出されたある発話単位において、開始されたフレーム番号をsとし、rフレーム含まれていたとすると、当該発話単位の音声モデルGMMからの出力尤度P(X│GMM)は、各フレームごとの特徴ベクトルXに対するそのモデルGMMの出力尤度b(X)の積として求める。つまり、発話単位の音声モデルに対する尤度は、以下の計算式で計算できる。ただしrは自然数とする。
Figure 0004728868
上記のような音声特徴量ベクトルとGMMの照合処理(尤度計算)が、感情モデル集合に含まれる図5記載の各感情モデルGMM1〜GMM5に対して行われる(ステップS206)。各発話単位ごとに、最も高い尤度を出力するGMMが表現する感情が、推定された感情として発話単位マッチング部16から出力される(ステップS208)。つまり、例えば、図2の感情系列推定部2に示すように、各発話単位ごとに5つのGMM中の最も高い尤度を出した感情モデルが表現する感情(図2では太字と太線枠内で示している感情とする)がその発話単位の感情として出力される。このようにして、感情系列推定部2中のマッチング部10から発話単位ごとに求められた感情の系列が出力される。
なお、上記の尤度計算では、確率値をそのまま扱ったが、実際には、アンダーフローを防ぐために、確率値の対数をとって計算を行う。
また、GMMを表現する各パラメータ(分布重みWm、多次元無相関正規分布の各次元の平均μmiおよび分散σmi)の推定アルゴリズムとしては、バウム−ウェルチ(Baum−Welch)アルゴリズムが最もよく用いられる。各感情を表現するGMMは、対応する感情の音声データベースを用いて構築される。
また、上記の処理では発話単位ごとに尤度計算を行ったが、発話単位よりも短い時間間隔で尤度計算を行うことも考えられる。つまり、評価単位として発話単位のみならず、これより短い時間間隔を用いてもよい。短い時間間隔で尤度計算を行うことで、顧客の感情の時系列的な変化をより細かく捉えることが可能である。具体的には、マッチング部10内に破線で示す短時間マッチング部18を設け、尤度計算部12よりのフレームごとの尤度を入力とし、感情モデル集合記憶部8内の感情モデル集合を使用して、短時間毎に各感情モデルに対する出力尤度の計算を行う。そして、短時間毎に最も高い尤度を出力するGMMが表現する感情が短時間マッチング部18つまりマッチング部10で推定され、1コールにおける感情系列が得られる。なお、この時間間隔とは、一番短い時間間隔でおよそ0.5秒が好ましい。それは、音声特徴量ベクトルの系列により、感情モデルを用いて、感情が安定して得られるには少なくとも0.5秒程度必要と考えられるからである。なお、分析フレームシフト幅として、10msが一般的なので、0.5秒は50フレームに相当する。
マッチング部10から推定され、出力された感情の系列を示す感情系列は感情系列記憶部20に記憶される。
また、感情定義に対応した感情点数リストを事前に作成しておく。図1中の感情入力部32から感情定義を入力し、点数入力部34からこの感情定義に対応した点数を入力して、感情点数リストとして感情点数リスト記憶部28に記憶しておく。この実施例における感情点数リストの例を図7に示す。図7では「感謝している」には「+2」、「快い」には「+1」、「普通」には「0」、「不快である」には「−1」、「怒っている」には「−2」と付与している。なお、この例では、等間隔かつ整数で、5段階の点数(−2〜+2)が付与されているが、感情の点数の付け方は任意であり、等間隔または整数である必要もなければ、範囲を−2〜+2に規定する必要もなく、感情定義に合わせて適切に付与すればよい。例えば、上記のように、オペレータのクレーム応対能力を強化するため、感情定義において、好ましくない感情を細かく定義したのであれば、それに合わせて、好ましくない感情に対する点数を細かく付与すればよい。
感情系列記憶部20よりの感情系列を入力とし、感情点数系列生成部22で、感情点数リスト記憶部28中の感情点数リストを参照して、感情系列の各感情を感情点数に単純に変換する(ステップS210)。具体的には図2の感情系列記憶部20に示すように、例えば、4番目の発話単位の感情が「怒っている」と推定されているため、感情点数リスト記憶部28中の感情点数リストでは、「怒っている」の感情点数は「−2」なので、「−2」に変換して、出力する。このようにして、全ての発話単位について感情を感情点数に変換して、感情点数系列として出力する。出力された感情点数系列は感情点数系列記憶部24で記憶され、感情点数系列記憶部24から応対評点算出部26に入力される。
実施例1では、応対評点算出部26における第1の応対評点算出部による第1の応対評点の算出方法を説明する(ステップS212)。この方法は、通常は、応対終了時の感情が応対開始時の感情よりも好ましくなっている方が、オペレータがよい応対を行ったと考えられるため、式(5)のように、応対終了時の感情点数Sから応対開始時の感情点数Sを差し引いた値を応対評点とする方法である。
Figure 0004728868
ここで、uは第1の応対評点、Nは1コール内の顧客の発話数、Sはi番目の発話の感情点数である(i=1、...、N)。図3の例では、顧客の感情が応対開始時の「怒っている」である「−2点」から応対終了時には「感謝している」である「+2点」にまで改善しているため、オペレータは非常によい応対を行ったことになる。ちなみに図2の場合であると、u=+4となり、この実施例では、uは−4〜+4まで取り得る。
具体的な処理の流れを説明する。図8に応対評点算出部26の具体的構成例とこれに関係する他の部分を示す。なお、この実施例では、第1の応対評点算出部100について説明する。第1の応対評点算出部100は、応対開始時点数読み取り部102と応対終了時点数読み取り部104と減算部106より構成される。
まず、感情点数系列記憶部24から応対開始時点数読み取り部102が応対開始時の感情点数Sを読み取り、応対終了時点数読み取り部104が応対終了時の感情点数Sを読み取り、感情点数Sと感情点数Sがそれぞれ、減算部106に入力され、減算部106で感情点数Sから感情点数Sが減算され、第1の応対評点が計算され、出力部134から出力される。
また、発話単位よりも短い時間でマッチング処理を行った場合は、最後の短時間の感情点数から最初の短時間の感情点数を減算部106で減算して求めればよい。
実施例2
この発明の実施例2は、実施例1と比較して、応対評点算出部26の具体的構成例のみが変更となり、他の部分は同一である。なお、以下で説明する実施例3、4についても同様である。
応対評点算出部26としての第2の応対評点算出部108の第2の応対評点の算出方法を説明する。応対開始時から応対終了時までの顧客の感情点数系列の平均値を、つまり式(6)の計算結果を応対評点とする方法が考えられる。この応対評点は、1コール中のオペレータの応対に対して、顧客が平均的にどの程度好感を持っていたかを示すものである。
Figure 0004728868
ここで、vは第2の応対評点であり、N、sは式(5)と同じである。図3の例では、v=−0.7となり、1コール中で、平均的には、顧客は「普通」以下の好ましくない感情を持っていたことになる。またこの例では、vは−2〜+2まで取り得る。
具体的な処理の流れを説明する。実施例2では、実施例1同様、図8中の第2の応対評点算出部108を参照して説明する。第2の応対評点算出部108は点数総加算部110、除算部112、評価単位計数部114とで構成されている。
まず、発話単位ごとにマッチング処理をしている場合を説明する。感情点数系列記憶部24から発話単位ごとの感情点数が点数総加算部110により、読み取られ、これら読み取られた全ての感情点数が加算されて、総加算された感情点数SSUMが求められる。また発話検出部14で発話単位が検出されるごとに、その検出を示す信号が評価単位計数部114に入力され、発話単位の数が計数され、1コール中の発話単位数Nが求められる。総加算された感情点数SSUMと発話単位数Nが除算部112に入力され、除算部112はSSUMをNで割算する。その割算結果が第2の応対評点vとして出力部134より出力される。
発話単位よりも短い時間間隔でマッチング処理をした場合は、上記同様、点数総加算部110で、総加算された感情点数SSUMを加算し、評価単位計数部114で1コール中の短い時間間隔の総個数Mを計数する。総加算された感情点数SSUMと個数Mが除算部112に入力され、除算部112で第2’の応対評点v’が次式で計算される。
Figure 0004728868
評価単位計数部114による1コール中における評価単位の個数の計数は、発話単位マッチング部16または、短時間マッチング部18において、マッチング処理を行うごとに、つまり、推定された情報が1つ得られる毎に、1を加算計数してもよい。
実施例3
実施例3における応対評点算出部26としての第3の応対評点算出部113で第3の応対評点の算出方法を説明する。この方法は、1コール中の顧客の感情の揺れに注目し、感情の揺れが小さいほど、オペレータが落ち着いて顧客に対して適切な応対をしていたとして評価するものである。例えば、式(6)で計算される平均値が0であっても、元の感情点数系列が、−2、+2、−2、+2、−2、+2、・・・となっていれば、顧客の感情が大きく揺れていたことになり、オペレータの応対はよいものとはいえない。この評価を定式化する方法としては、応対開始時から応対終了時までの隣り合う感情点数の差分の絶対値の平均を、前記差分絶対値の最高値の1/2から引いた値を応対評点とする方法が考えられる。つまり、次式を計算して求める。
Figure 0004728868
ここで、wは第3の応対評点、max|s−sj+1|は、隣り合う感情点数の差分の絶対値の取り得る最大値を表し、この例では4である。N、sは式(5)と同じである。また、図2の場合、w≒1.3となり、好ましくない感情から好ましい感情まで、特に大きな感情の揺れもなくほぼ単調に感情が改善されているため、オペレータは落ち着いて応対をしていたと評価できる。またこの例では、wは−2〜+2まで取り得る。
具体的な処理の流れを説明する。実施例3では、実施例1同様、図8中の第3の応対評点算出部113を参照して説明する。
第3の応対評点算出部113は評価単位計数部114、−1計算部116、隣接点数差絶対値化部118、合計部120、除算部122、最大値検出部124、1/2乗算部126、減算部128とで構成されている。
まず、発話単位ごとにマッチング処理をしている場合を説明する。感情点数系列記憶部24から隣接点数差絶対値化部118に、発話単位ごとに、隣接点数差絶対値化部118により、感情点数が読み出され、隣接する感情点数の差の絶対値|si+1−s|が計算される。そして、絶対値|si+1−s|が合計部120と最大値検出部124に入力される。合計部120で隣接する感情点数の差の絶対値の合計値SAが計算され、つまり、次式が計算される。
Figure 0004728868
合計値SAは除算部122に入力される。
一方、最大値検出部124では、差の絶対値中の最大値max|si+1−s|が検出され、max|si+1−s|は1/2乗算部126に入力される。1/2乗算部126で1/2max|si+1−s|が計算され、1/2max|si+1−s|は減算部128に入力される。
一方、実施例2と同様、評価単位計数部114で1コール中の発話単位数Nが計数され、発話単位数Nは−1計算部116に入力される。−1計算部116でN−1が計算され、N−1は除算部122に入力される。除算部122の除算結果SA/N−1が減算部128に入力される。
減算部128で1/2max|si+1−s|−SA/N−1が計算され、すなわち第3の応対評点算出部113で式(8)が計算され、その計算結果が第3の応対評点wとして出力部134から出力される。
次に、発話単位よりも短い時間間隔で、マッチング処理を行った場合は、評価単位計数部114でマッチング処理を行った個数(前記短い時間間隔の個数)Mを計数する。後の処理は発話単位ごとにマッチング処理をした場合と同じである。以下にこの場合の応対評点w’の計算式を次式に示す。
Figure 0004728868
実施例4
実施例4における、応対評点算出部26としての第4の応対評点算出部26の第4の応対評点算出方法を説明する。この方法は実施例1〜3で示した第1〜3応対評点u、v、wをそれぞれ重み付けして加算する方法である。ここで、第1の応対評点uの取り得る値−4〜+4と、第2の応対評点v及び第3の応対評点wの取り得る値が−2〜+2が異なるため、u’=(1/2)uとして、第4の応対評点xを次式で定義する。
Figure 0004728868
ここで、xは第4の応対評点算出方法で得られる応対評点、α、β、γはそれぞれ、u’、v、wに対する重み係数である。これら重み係数は、u’、v、wのどれをどの程度重要視するかにより調整すればよい。ただしα+β+γ=1、0≦α<1、0≦β<1、0≦γ<1とする。つまり、応対評点u’、v、w中の2つ以上を重み付け加算して第4の応対評点xを求める。
なお、以上で示した、応対評点算出部26における4つの応対評点算出方法は一例であり、この他にも様々な応対評点算出方法を設定することが可能である。
以下に具体的な処理の流れを説明する。実施例4では、図8で示すように、応対評点算出部26は第1の応対評点算出部100、第2の応対評点算出部108、第3の応対評点算出部113、破線で示した1/2乗算部131と重み付け加算部132と、で構成されている。
予め定数入力部130からα、β、γが重み付け加算部132に入力される。第1の応対評点算出部100よりのuが1/2乗算部131に入力され、1/2乗算部131でu’=1/2uが計算され、u’が重み付け加算部132に入力される。また、第2の応対評点算出部108よりのv、第3の応対評点算出部113よりのw、がそれぞれ重み付け加算部132に入力される。重み付け加算部132で式(11)が計算され、第4の応対評点xが計算され、その結果が出力部134から算出される。
また、実施例4では、応対評点算出部26に第1の応対評点算出部100、第2の応対評点算出部108、第3の応対評点算出部113のうちの2つを設けて実施してもよく、3つ設けた場合でも、α、β、γのいずれかを0とし、2つの応対評点を加算してもよい。
この発明は、上述の通り、コールセンタなどの電話による顧客に対する応対に限らず、例えば銀行窓口業務のような音声による顧客応対を行う場合にも応用できる。この場合は、顧客の音声をマイクロホンにより、音声信号に変換し、リアルタイムに、あるいは、一旦、記憶した後にこの発明の応対評価装置に入力すればよい。また、応対評点算出部26よりの応対評点に基づいて、映像や記号などに変換して出力してもよく、また、オペレータと顧客の応対中に逐次的(リアルタイム)に行うことも可能であるし、オペレータと顧客の応対を一旦録音しておき、後にまとめて行うことも可能である。
この発明の装置はコンピュータにより機能させることもできる。例えば、図9に示すように、入力部52、出力部54、CPU56、メモリ58、がバス50に接続され、バス50には感情モデル集合記憶部8、感情点数リスト記憶部28が接続されている。図1に示した応対評価装置としてコンピュータを機能させるための応対評価プログラム60がコンピュータ内のメモリ58内のプログラム領域内に記憶され、そのプログラムを実行する上に必要なデータがデータ領域62に記憶されている。この発明による上記応対評価プログラム60はCD−ROM、磁気ディスク、半導体メモリなどからインストールし、又は、通信回線を介して、ダウンロードして、このプログラムを実行させればよい。
また、上記応対評価装置における処理機能をコンピュータによって実現する場合、応対評価装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記応対評価装置における処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto−Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable−Read Only Memory)等を用いることができる。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、応対評価装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
この発明の装置の機能構成例を示すブロック図。 音声信号波形、各種発話単位ごとの最大尤度の音声モデル、これら各モデルが表現する感情、これら各感情を点数変換した例を示す図。 この発明の方法処理の流れの例を示すフローチャート図。 この発明における感情定義の一例を示す図。 感情モデルを多次元混合正規分布により構成された場合の感情モデル集合の一例を示す図。 感情モデルとしての多次元混合正規分布での構造例を示す図。 感情点数リストの一例を示す図。 この発明の実施例1〜4における応対評点算出部26の具体的構成例を示すブロック図。 この発明装置をコンピュータに機能させた場合の構成例を示すブロック図。

Claims (10)

  1. 入力された顧客の音声信号から音声分析部で音声特徴量を検出し、予め定義された複数の感情のそれぞれをモデル化した感情モデル集合と上記音声特徴量の時系列的なマッチングをマッチング部で取ることで、感情系列を生成する感情系列推定部と、
    上記感情モデル集合を記憶する感情モデル集合記憶部と、
    上記複数の感情とこれらの感情点数を対応させた感情点数リストを記憶する感情点数リスト記憶部と、
    上記感情点数リストと上記感情系列との対応から感情点数系列を出力する感情点数系列生成部と、
    上記感情点数系列を基に応対評点を算出する応対評点算出部と、
    を備え
    上記感情モデル集合記憶部に記憶されている感情モデル集合に含まれる各感情モデルは多次元混合正規分布により構成されていることを特徴とする応対評価装置。
  2. 請求項1に記載の応対評価装置において、
    上記感情系列推定部は、
    上記顧客の音声信号の発話単位を検出する発話検出部と、
    上記発話単位毎に、上記音声特徴量と上記感情モデル集合の時系列的なマッチングを取る発話単位マッチング部と、を備えることを特徴とする応対評価装置。
  3. 請求項1に記載の応対評価装置において、
    上記感情系列推定部は、上記顧客の音声信号を請求項記載の発話単位より短い時間間隔で分割し、当該時間間隔で、上記音声特徴量と上記感情モデル集合の時系列的なマッチングを取る短時間マッチング部を備えることを特徴とする応対評価装置。
  4. 請求項1〜何れかに記載の応対評価装置において、
    上記応対評点算出部は、応対開始時の上記感情点数と応対終了時の上記感情点数の差分に基づき応対評点を算出する第1の応対評点算出部であることを特徴とする応対評価装置。
  5. 請求項1〜何れかに記載の応対評価装置において、
    上記応対評点算出部は、応対開始時から応対終了時までの上記感情点数の平均に基づき応対評点を算出する第2の応対評点算出部であることを特徴とする応対評価装置。
  6. 請求項1〜何れかに記載の応対評価装置において、
    上記応対評点算出部は、応対開始時から応対終了時までの隣り合う感情点数の差分の絶対値の最大値の1/2から、応対開始時から応対終了時までの隣り合う感情点数の差分の絶対値の平均を引いた値に基づき応対評点を算出する第3の応対評点算出部であることを特徴とする応対評価装置。
  7. 請求項1〜何れかに記載の応対評価装置において、
    上記応対評点算出部は、請求項に記載の第1〜3の応対評点算出部のうち少なくとも2つ以上を含み、
    当該含まれた応対評点算出部の少なくとも2つによりそれぞれ応対評点を算出し、これら算出した応対評点を重み付けて加算して応対評点を算出する重み付け計算部を含む第4の応対評点算出部であることを特徴とする応対評価装置。
  8. 入力された顧客の音声信号から音声分析部で音声特徴量を検出し、予め定義された複数の感情のそれぞれをモデル化した感情モデル集合と上記音声特徴量の時系列的なマッチングを取ることで、感情系列を生成する過程と、
    上記複数の感情とこれらの感情点数を対応させた感情点数リストと上記感情系列との対応から感情点数系列を生成する過程と、
    上記感情点数系列を基に応対評点を算出する過程と、を有し、
    上記感情モデル集合に含まれる各感情モデルは多次元混合正規分布により構成されていることを特徴とする応対評価方法。
  9. 請求項1〜何れかに記載した応対評価装置としてコンピュータを機能させるための応対評価プログラム。
  10. 請求項記載の応対評価プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2006114038A 2006-04-18 2006-04-18 応対評価装置、その方法、プログラムおよびその記録媒体 Expired - Fee Related JP4728868B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006114038A JP4728868B2 (ja) 2006-04-18 2006-04-18 応対評価装置、その方法、プログラムおよびその記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006114038A JP4728868B2 (ja) 2006-04-18 2006-04-18 応対評価装置、その方法、プログラムおよびその記録媒体

Publications (2)

Publication Number Publication Date
JP2007286377A JP2007286377A (ja) 2007-11-01
JP4728868B2 true JP4728868B2 (ja) 2011-07-20

Family

ID=38758197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006114038A Expired - Fee Related JP4728868B2 (ja) 2006-04-18 2006-04-18 応対評価装置、その方法、プログラムおよびその記録媒体

Country Status (1)

Country Link
JP (1) JP4728868B2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5278952B2 (ja) * 2009-03-09 2013-09-04 国立大学法人福井大学 乳幼児の感情診断装置及び方法
WO2010148141A2 (en) * 2009-06-16 2010-12-23 University Of Florida Research Foundation, Inc. Apparatus and method for speech analysis
JP5691174B2 (ja) * 2010-01-05 2015-04-01 富士通株式会社 オペレータ選定装置、オペレータ選定プログラム、オペレータ評価装置、オペレータ評価プログラム及びオペレータ評価方法
JP5477153B2 (ja) * 2010-05-11 2014-04-23 セイコーエプソン株式会社 接客データ記録装置、接客データ記録方法およびプログラム
JP5672156B2 (ja) * 2011-05-31 2015-02-18 富士通株式会社 情報管理装置、情報管理プログラムおよび情報管理方法
JP2014123813A (ja) * 2012-12-20 2014-07-03 Ntt Comware Corp オペレータ対顧客会話自動採点装置およびその動作方法
JP6110283B2 (ja) * 2013-11-20 2017-04-05 日本電信電話株式会社 共感反感箇所検出装置、共感反感箇所検出方法及びプログラム
JP6556436B2 (ja) * 2014-09-22 2019-08-07 株式会社日立システムズ 作業管理装置、感情解析端末、作業管理プログラムおよび作業管理方法
JP6758890B2 (ja) * 2016-04-07 2020-09-23 キヤノン株式会社 音声判別装置、音声判別方法、コンピュータプログラム
JP6759927B2 (ja) 2016-09-23 2020-09-23 富士通株式会社 発話評価装置、発話評価方法、および発話評価プログラム
JP6957915B2 (ja) * 2017-03-21 2021-11-02 日本電気株式会社 情報処理装置、注意喚起方法、およびプログラム
WO2019017462A1 (ja) * 2017-07-21 2019-01-24 日本電信電話株式会社 満足度推定モデル学習装置、満足度推定装置、満足度推定モデル学習方法、満足度推定方法、およびプログラム
JP6805112B2 (ja) 2017-11-08 2020-12-23 株式会社東芝 対話システム、対話方法および対話プログラム
JP6996570B2 (ja) * 2017-11-29 2022-01-17 日本電信電話株式会社 緊急度推定装置、緊急度推定方法、プログラム
CN108197115B (zh) * 2018-01-26 2022-04-22 上海智臻智能网络科技股份有限公司 智能交互方法、装置、计算机设备和计算机可读存储介质
JP6594577B1 (ja) * 2019-03-27 2019-10-23 株式会社博報堂Dyホールディングス 評価システム、評価方法、及びコンピュータプログラム。
JPWO2022097204A1 (ja) * 2020-11-04 2022-05-12
WO2023119672A1 (ja) * 2021-12-24 2023-06-29 日本電信電話株式会社 推定方法、推定装置及び推定プログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981632A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 情報公開装置
JP2002091482A (ja) * 2000-09-13 2002-03-27 Agi:Kk 感情検出方法及び感情検出装置ならびに記録媒体
JP2004037989A (ja) * 2002-07-05 2004-02-05 Nippon Telegr & Teleph Corp <Ntt> 音声受付システム
JP2004252668A (ja) * 2003-02-19 2004-09-09 Fujitsu Ltd コンタクトセンタ運用管理プログラム、装置および方法
JP2005192024A (ja) * 2003-12-26 2005-07-14 Fujitsu I-Network Systems Ltd コールセンタにおける通話音声データ管理方式およびそれに用いるオペレータ端末
JP2005252845A (ja) * 2004-03-05 2005-09-15 Nec Fielding Ltd Ctiシステムおよびcsレベル判断方法ならびに音声分析サーバおよびプログラム
JP2006071936A (ja) * 2004-09-01 2006-03-16 Matsushita Electric Works Ltd 対話エージェント
JP2007004001A (ja) * 2005-06-27 2007-01-11 Tokyo Electric Power Co Inc:The オペレータ応対能力診断装置、オペレータ応対能力診断プログラム、プログラム格納媒体
JP2007052212A (ja) * 2005-08-17 2007-03-01 Nec Fielding Ltd 保守スキル者選定装置、選定システム、選定方法、及び選定プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003122890A (ja) * 2001-10-16 2003-04-25 Hochiki Corp 相談情報処理装置、相談情報処理方法、および、プログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981632A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 情報公開装置
JP2002091482A (ja) * 2000-09-13 2002-03-27 Agi:Kk 感情検出方法及び感情検出装置ならびに記録媒体
JP2004037989A (ja) * 2002-07-05 2004-02-05 Nippon Telegr & Teleph Corp <Ntt> 音声受付システム
JP2004252668A (ja) * 2003-02-19 2004-09-09 Fujitsu Ltd コンタクトセンタ運用管理プログラム、装置および方法
JP2005192024A (ja) * 2003-12-26 2005-07-14 Fujitsu I-Network Systems Ltd コールセンタにおける通話音声データ管理方式およびそれに用いるオペレータ端末
JP2005252845A (ja) * 2004-03-05 2005-09-15 Nec Fielding Ltd Ctiシステムおよびcsレベル判断方法ならびに音声分析サーバおよびプログラム
JP2006071936A (ja) * 2004-09-01 2006-03-16 Matsushita Electric Works Ltd 対話エージェント
JP2007004001A (ja) * 2005-06-27 2007-01-11 Tokyo Electric Power Co Inc:The オペレータ応対能力診断装置、オペレータ応対能力診断プログラム、プログラム格納媒体
JP2007052212A (ja) * 2005-08-17 2007-03-01 Nec Fielding Ltd 保守スキル者選定装置、選定システム、選定方法、及び選定プログラム

Also Published As

Publication number Publication date
JP2007286377A (ja) 2007-11-01

Similar Documents

Publication Publication Date Title
JP4728868B2 (ja) 応対評価装置、その方法、プログラムおよびその記録媒体
US9536525B2 (en) Speaker indexing device and speaker indexing method
US9093081B2 (en) Method and apparatus for real time emotion detection in audio interactions
JP6341092B2 (ja) 表現分類装置、表現分類方法、不満検出装置及び不満検出方法
JP5229219B2 (ja) 話者選択装置、話者適応モデル作成装置、話者選択方法、話者選択用プログラムおよび話者適応モデル作成プログラム
JP6234060B2 (ja) ターゲットドメインの学習用音声データの生成方法、生成装置、および生成プログラム
US10789943B1 (en) Proxy for selective use of human and artificial intelligence in a natural language understanding system
US20150310877A1 (en) Conversation analysis device and conversation analysis method
JP4746533B2 (ja) 多音源有音区間判定装置、方法、プログラム及びその記録媒体
JP2012037619A (ja) 話者適応化装置、話者適応化方法および話者適応化用プログラム
US11355099B2 (en) Word extraction device, related conference extraction system, and word extraction method
US20130246064A1 (en) System and method for real-time speaker segmentation of audio interactions
US10089978B2 (en) Detecting customers with low speech recognition accuracy by investigating consistency of conversation in call-center
JP2004347761A (ja) 音声認識装置、音声認識方法、該音声認識方法をコンピュータに対して実行させるためのコンピュータ実行可能なプログラムおよび記憶媒体
WO2018147193A1 (ja) モデル学習装置、推定装置、それらの方法、およびプログラム
JP6553015B2 (ja) 話者属性推定システム、学習装置、推定装置、話者属性推定方法、およびプログラム
JP7167554B2 (ja) 音声認識装置、音声認識プログラムおよび音声認識方法
JP4705414B2 (ja) 音声認識装置、音声認識方法、音声認識プログラムおよび記録媒体
JP2015099304A (ja) 共感反感箇所検出装置、共感反感箇所検出方法及びプログラム
Ozerov et al. GMM-based classification from noisy features
JP6327252B2 (ja) 分析対象決定装置及び分析対象決定方法
Pattanayak et al. Pitch-robust acoustic feature using single frequency filtering for children’s KWS
JP6784255B2 (ja) 音声処理装置、音声処理システム、音声処理方法、およびプログラム
Wu et al. Speaker identification based on the frame linear predictive coding spectrum technique
JP3912089B2 (ja) 音声認識方法および音声認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110405

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110415

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees