JP2010175684A - 通話状態判定装置、通話状態判定方法、プログラム、記録媒体 - Google Patents

通話状態判定装置、通話状態判定方法、プログラム、記録媒体 Download PDF

Info

Publication number
JP2010175684A
JP2010175684A JP2009016335A JP2009016335A JP2010175684A JP 2010175684 A JP2010175684 A JP 2010175684A JP 2009016335 A JP2009016335 A JP 2009016335A JP 2009016335 A JP2009016335 A JP 2009016335A JP 2010175684 A JP2010175684 A JP 2010175684A
Authority
JP
Japan
Prior art keywords
utterance
speaker
state
time
call state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009016335A
Other languages
English (en)
Other versions
JP4972107B2 (ja
Inventor
Narihisa Nomoto
済央 野本
Satoshi Takahashi
敏 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009016335A priority Critical patent/JP4972107B2/ja
Publication of JP2010175684A publication Critical patent/JP2010175684A/ja
Application granted granted Critical
Publication of JP4972107B2 publication Critical patent/JP4972107B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】正確な話者の通話状態を判定する。
【解決手段】第2話者と通話をしている第1話者が、第1状態か第2状態かを判定する通話状態判定装置であって、第1話者と第2話者の発話区間を検出し、予め定められた数の発話対をセグメントとして抽出し、発話対毎に、発話状況に関わる対話的特徴量を算出し、対話的特徴量をセグメント毎に集計することで特徴ベクトルを求め、予め定められた判別式に特徴ベクトルの各要素を代入することで、第1状態スコアを求め、第1状態スコアが予め定められた第1閾値以上であれば、そのセグメントを第1状態セグメントとして判定し、第1状態セグメントが予め定められた第2閾値以上であれば、通話状態は第1状態である旨の情報を出力する。
【選択図】図1

Description

本発明は例えば、二人の話者が対話する状況下の入力音声信号から、各話者の感情状態を推定する通話状態判定装置、通話状態判定方法、プログラム、記録媒体に関する。
近年、企業の抱えるコールセンタに集まる顧客からの要望や不満といった生の声から企業にとって何か有益な情報を得ようとする動きが盛んである。また、コールセンタは企業の顔という機能も重要視され始め、顧客が企業に対し抱くイメージを向上させるために、コールセンタのサービスの質の向上も企業が力を入れている。そのような中で、顧客が怒っている通話(以下、「クレーム通話」という。)を自動で見つけ出す技術がこれまで以上に望まれている。クレーム通話を分析することで、顧客の強い要望や不満、商品・サービスの不具合や問題点などといったことや、クレーム通話を引き起こすようなオペレータ対応の問題点を見つけ出したり、リアルタイムでオペレータの対応状況を監視することで、クレームの発生を迅速に検出して対応するといったことが可能になる。
クレーム通話を見つけ出すための話者の「怒り」音声の感情認識技術として、従来は音声の高さ(ピッチ周波数)や大きさ(パワー)、またはそれらの変化成分(Δ成分)、話速などといった音声特徴に着目した発話音声区間の音響的特徴量が一般的に用いられている(特許文献1参照、以下、「先行技術1」という。)。
その他、通話におけるオペレータの相槌に着目した手法も提案されている(特許文献2参照、以下、「先行技術2」という。)。これは、予め登録しておいた相槌単語を音声認識し、通話開始時刻から初めて相槌がうたれた開始時刻に基づいて、クレーム状態であるか、否かの判定を行うものである。
特開2005−345496号公報 特開2007−286097号公報
先行技術1の問題点について説明する。コールセンタで収録される顧客の音声は電話音声であり、収録されるノイズや帯域制限フィルタがかかっているため、ピッチ周波数(ピッチパタン)の抽出が困難で誤検出しやすい。また、電話機のボリューム設定や、話し手の口と受話器の距離により話者が同じ音声で話したとしても、受信側録音機で計算されるパワー値が異なってしまう。また、分析する顧客の音声(またはオペレータの音声)は、話し方や電話環境により変動する。従って、声の高さ(ピッチ周波数)や大きさ(パワー)などの音響的な特徴量を正確に算出することは困難であり、クレーム判定を高精度で頑健に行うことは難しい。また、怒り方は話者によって様々であり、怒声を上げて怒る場合もあれば、冷静な声で怒る場合もある。また怒声を上げて怒る話者でも、会話のはじめから終わりまで常に怒声を上げ続けているわけではない。そのため、声の高さや大きさなどの音響的な特徴だけから顧客が怒っているか否かを判定することは難しい。
先行技術2の問題点について説明する。この技術は、通話開始からの通話でないとクレームを判定できない。従って、例えばオペレータの対応が悪く、通話の途中から顧客が怒り出すような場合には、クレーム通話を認識することは難しかった。
上記の課題を解決するために、本願の通話状態判定装置は、第2話者と通話をしている第1話者が、第1状態か第2状態かを判定する通話状態判定装置であり、検出部と、抽出部と、算出部と、ベクトル化部と、スコア計算部と、判定部と、出力部と、を有する。検出部は、第1話者と第2話者の発話区間を検出する。抽出部は、予め定められた数の発話対をセグメントとして抽出する。算出部は、発話対毎に、発話状況に関わる対話的特徴量を算出する。ベクトル化部は、対話的特徴量をセグメント毎に集計することで特徴ベクトルを求める。スコア計算部は、予め定められた判別式に特徴ベクトルの各要素を代入することで、第1状態スコアを求める。判定部は、第1状態スコアが予め定められた第1閾値以上であれば、そのセグメントを第1状態セグメントとして判定する。出力部は、第1状態セグメントが予め定められた第2閾値以上であれば、通話状態は第1状態である旨の情報を出力する。
本発明の通話判定装置によれば、先行技術1のように声の高さや大きさなどの音響的特徴量ではなく、対話的な特徴である対話的特徴量を用いて、顧客がクレーム状態か否かを判定する。対話的特徴量は、顧客の電話環境、顧客の音声または話し方などに変動されることはないため、先行技術1の問題点を解決でき、頑健にかつ精度よくクレーム判定を行うことができる。
また、先行技術2のように通話開始から初めて相槌が打たれた時の開始時間に基づいてクレーム状態であるか否かの判定をしていたが、本発明では、通話中の発話対毎の対話的特徴量を用いて、クレーム状態であるか否かの判定をするので、顧客が通話途中から怒り出したとしても、頑健にかつ精度よくクレーム判定を行うことができ、先行技術2の問題点を解決できる。
本実施例の通話状態判定装置の機能構成例を示した図である。 本実施例の通話状態判定装置の処理フローを示した図である。 A〜Dはそれぞれ発話対について示した図である。 セグメントについて示した図である。 A〜Cはそれぞれ対話的特徴量について示した図である。
以下の説明では、コールセンタにおいて、第1話者を顧客とし、第2話者をオペレータとし、第1状態を顧客が怒っている状態(以下、「クレーム状態」という。)とし、第2状態を顧客が怒っていない状態(つまり、平常状態、以下、「非クレーム状態」という。)とする。また、顧客、オペレータがそれぞれ話していることを発話といい、発話の集合を通話という。
図1に通話状態判定装置100などの機能構成例を示し、図2に処理フローを示す。顧客とオペレータの通話音声が入力端2に入力されると、検出部4は、顧客(第1話者)とオペレータ(第2話者)の発話区間を検出する(ステップS2)。具体的には、既存の分離アダプタ等のハードウェアや音源分離技術により、顧客とオペレータの音声を分離し、各発話毎に開始時刻と終了時刻を求める。発話区間検出のための技術として、任意で定めた予め定められた第3閾値L以上の音声パワーがある一定時間以上続いた区間を発話区間とする手法などがある。
図3A〜Dにオペレータの発話と顧客の発話とを模式的に示す。ハッチングしていない矩形がオペレータの発話区間を示し、ハッチングしている矩形が顧客の発話区間を示し、横軸が時間軸を示す。図3に示すように、オペレータと顧客が別にステレオ録音された場合は、モノラル録音より発話区間検出は容易になる。モノラル録音の場合には、顧客とオペレータとの音声を識別するための手段と併用する必要がある。例えば、音声スペクトルを特徴量とし、GMM(Gaussian Miqture Model)を用いて、顧客とオペレータの音声を分離すればよい。
ここで、図3Aに示すように、(図3Aの例ではオペレータの)連続的な発話が終了して、相手(図3Aの例では顧客)が話し始めた場合に発話権が交代したとみなす。そして発話開始時点からこの発話終了時点までを発話区間とする。図3B記載のオペレータの発話については、途中で発話をやめているが、発話権が交代することなく、再度オペレータは発話し始めている。この場合も、オペレータの1つの発話区間とする。また、図3Cに示すように、オペレータの発話に重なるように顧客は相槌をうっているが、この場合も発話権は交代しておらず、この場合もオペレータの1つの発話とみなす。また、1つの顧客の1つの発話とオペレータの1つの発話との対を発話対という。つまり、図3A〜Cの例では、オペレータの発話と顧客の発話との対が発話対である。また、図3A〜Cでは、オペレータ→顧客の順番での発話対を示したが、図3Dに示すように、顧客→オペレータの順番に発話している場合も発話対と呼ぶ。
次に、抽出部6は、予め定められた数Qの発話対をセグメントとして抽出する(ステップS4)。図4にセグメント抽出の模式図を示す。図4の例では、Q=3、つまり、3つの発話対を1つのセグメントとした場合を示す。まず、3つの発話対を抽出すると、一定間隔ごと、または、1発話区間ごとにスライドさせて、再度、予め定められた数Q(この例では3つ)の発話対を抽出する。この処理を繰り返し、セグメントを抽出していく。また、予め定められた数Qを1としてもよく、この場合は、1つの発話対が1つのセグメントとなる。
次に、算出部8は、第1話者(顧客)と第2話者(オペレータ)の発話対毎に、発話状況に関わる対話的特徴量Rを算出する(ステップS6)。上記先行技術1で示されているような発話単位での声の大きさや高さなどの音響的特徴ではなく、この対話的特徴量Rとは、第1話者、第2話者の間の発話集合からなる対話についての特徴量である。
この実施例では、対話的特徴量Rとして、(1)発話対毎の顧客(第1話者)の発話時間A(2)発話対毎のオペレータ(第2話者)の発話時間B(3)発話対毎のオペレータの発話時間と顧客の発話時間の離散度C(4)発話対毎の顧客の相槌回数D(5)発話対毎のオペレータの相槌回数E(6)発話対毎の顧客の発話とオペレータの発話についての無音時間F(7)発話対毎の顧客の発話とオペレータの発話についての重複時間G、などを用いる。それぞれを詳細に説明する。また、(1)〜(7)の対話的特徴量の模式図を図5A〜図5Cに示す。
(1)顧客の発話時間A
図5Aに顧客の発話時間Aを示す。対話的特徴量として、顧客の発話時間を用いる理由は、
顧客の発話時間Aが長い・・・顧客がクレーム状態にある。
顧客の発話時間Aが短い・・・顧客が非クレーム状態にある。
という現象が経験的に分かっており、この現象を利用するためである。なぜなら、顧客がクレーム状態にある場合には、顧客はオペレータに対して一方的に話す場合が多く、顧客の発話時間Aが長くなる傾向にあるからである。
この場合には、算出部8には、第1算出手段81を具備させる(図1参照)。第1算出手段81は顧客の発話時間を算出するものである。発話時間の算出方法の一例として、顧客の発話開始時点から発話終了時点までの時間を測定する。
(2)オペレータの発話時間B
図5Aにオペレータの発話時間Bについて示す。対話的特徴量として、オペレータの発話時間Bを用いる理由は、
オペレータの発話時間Bが長い・・・顧客が非クレーム状態にある。
オペレータの発話時間Bが短い・・・顧客がクレーム状態にある。
という現象が経験的に分かっており、この現象を利用するためである。なぜなら、顧客がクレーム状態にある場合には、顧客はオペレータに対して一方的に話す場合が多く、オペレータがあまり発話せず、オペレータの発話時間Bは短くなる傾向があるからである。
この場合には、算出部8には、第2算出手段82を具備させる。第2算出手段82はオペレータの発話時間を算出するものである。発話時間の算出方法の一例として、オペレータの発話開始時点から発話終了時点までの時間を測定する。
(3)顧客の発話時間とオペレータの発話時間の離散度C
離散度Cについて図5Bに示す。ここで離散度Cとは、顧客の発話時間Aがオペレータの発話時間Bと比較して、AとBの離散している度合いを示すものであり、例えば、差(A−B)または比(A/B)である。対話的特徴量として、顧客の発話時間とオペレータの発話時間の離散度Cを用いる理由は、
離散度Cが大きい(A−BやA/Bの値が大きい、つまり、オペレータの発話時間Bと比較して、顧客の発話時間Aが大きい)・・・顧客がクレーム状態にある。
離散度Cが小さい(A−BやA/Bの値が小さい、つまり、オペレータの発話時間Bと比較して、顧客の発話時間Aが小さい)・・・顧客が非クレーム状態にある。
という現象が経験的に分かっており、この現象を利用するためである。なぜなら、顧客がクレーム状態にある場合には、顧客が一方的に話しをするため、顧客の発話時間が長くなり、オペレータの発話時間が短くなることで顧客の発話時間Aとオペレータの発話時間Bとの離散度Cが大きくなるからである。
また、通話において、顧客の発話時間が長い場合に(例えば、顧客の質問が長い場合に)、その長い発話に返答するオペレータの発話時間が長くなる場合がある。この場合には、実際には顧客はクレーム状態にないのであるが、対話特徴量Rとして顧客の発話時間Aを用いると、顧客の発話時間が長いことから顧客はクレーム状態にあるといった誤判断(判断の手法は後述する)を行う場合がある。ところが、離散度Cを用いることで、顧客の発話時間とオペレータの発話時間とが正規化され、このような場合であっても、クレーム状態であるという誤判断を行うことはない。
一方、顧客の発話時間が短い場合に、その短い発話に返答するオペレータの発話時間が短くなる場合がある。この場合には、実際には顧客はクレーム状態にないのであるが、対話特徴量Rとしてオペレータの発話時間Bを用いると、オペレータの発話時間が短いことから顧客がクレーム状態にあるといった誤判断を行う場合がある。ところが、離散度Cを用いることで、顧客の発話時間とオペレータの発話時間とが正規化され、このような場合であっても、クレーム状態であるという誤判断を行うことはない。
この場合には、算出部8には、第3算出手段83を具備させる。第3算出手段83は、顧客の発話時間Aとオペレータの発話時間Bを算出し、AとBの離散度(A−B、A/B)を求める。
(4)顧客の相槌回数D
図5Aに顧客の相槌回数Dについて示す。対話的特徴量として、顧客の相槌回数Dを用いる理由は、
顧客の相槌回数Dが多い・・・顧客が非クレーム状態にある。
顧客の相槌回数Dが少ない・・・顧客がクレーム状態にある。
という現象が経験的に分かっており、この現象を利用するためである。なぜなら、顧客がクレーム状態にある場合には、顧客がオペレータの話しを聞かず、一方的に話しをするので顧客の相槌回数が少なくなるからである。
この場合には、算出部8には、第4算出手段84を具備させる。第4算出手段84は、顧客の相槌回数Dを求める。ここで、相槌回数を求める手法例について説明する。例えば、顧客が相槌をうつ時に発話するであろう単語(例えば、「うん」「ああ」「ええ」等)を定めておき、図示しない音声認識手段で、顧客の音声を音声認識し、相槌単語の数を測定する手法を用いればよい。
(5)オペレータの相槌回数E
図5Aにオペレータの相槌回数Eを示す。対話的特徴量として、オペレータの相槌回数Eを用いる理由は、
オペレータの相槌回数Eが少ない・・・顧客が非クレーム状態にある。
オペレータの相槌回数Eが多い・・・顧客がクレーム状態にある。
という現象が経験的に分かっており、この現象を利用するためである。なぜなら、顧客がクレーム状態にある場合には、顧客がオペレータの話しを聞かず、一方的に話しをするのでオペレータの相槌回数が多くなるからである。
この場合には、算出部8には、第5算出手段85を具備させる。第5算出手段85は、オペレータの相槌回数Eを求める。ここで、相槌回数を求める手法例について説明する。例えば、オペレータが相槌をうつ時に発話するであろう単語(例えば、「はい」「そうです」「申し訳ございません」等)を定めておき、図示しない音声認識手段(「(4)顧客の相槌回数D」で説明)で、オペレータの音声を音声認識し、相槌単語の数を測定する手法を用いればよい。
(6)無音時間F
図5Aに無音時間Fについて示す。ここで、無音時間とは発話対について、顧客、オペレータの両方が発話していない時間をいう。発話対について、顧客の発話とオペレータの発話についての無音時間Fを用いる理由は、
無音時間Fが長い・・・顧客がクレーム状態にある。
無音時間Fが短い・・・顧客が非クレーム状態にある。
という現象が経験的に分かっており、この現象を利用するためである。なぜなら、顧客が怒っている場合には、オペレータは黙り込む(無音時間Fが長くなる)場合が多く、顧客が怒っていない場合には、オペレータの発話と顧客の発話との間に無音が生じない(無音時間Fが短くなる)場合が多いからである。
この場合には、算出部8には、第6算出手段86を具備させる。第6算出手段86は、無音時間Fを求める。ここで、無音時間Fを求める手法例について説明する。例えば、第6算出手段86は、発話をしている話者(図5Aの例では、オペレータ)の発話終了時刻Tと、この話者の発話が終了し、もう一方の話者(図5の例では、顧客)の発話開始時刻Tと、を測定する。図5Aでは、T>Tとなり、この場合に無音時間Fが生じることになり、そして、第6算出手段86は、T−Tを算出すればよい。T−Tは正の値となり、無音時間Fの値となる。
(7)重複時間G
重複時間Gを図5Cに示す。ここで、重複時間Gとは、発話対について、顧客とオペレータの両方が重複して発話している時間をいう。重複時間Gを用いる理由は、
重複時間Gが長い・・・顧客がクレーム状態にある。
重複時間Gが短い・・・顧客が非クレーム状態にある。
という現象が経験的に分かっており、この現象を利用するためである。なぜなら、顧客が怒っている場合には、顧客がオペレータの発話を遮って話すなど場合が多く、顧客が怒っていない場合には、オペレータの発話と顧客の発話との間に重複が生じない(重複時間Gが短くなる)場合が多いからである。
この場合には、算出部8には、第7算出手段87を具備させる。第7算出手段87は、重複時間Gを求める。ここで、重複時間Gを求める手法例について説明する。例えば、第7算出手段87は発話をしている話者(図5の例では、オペレータ)の発話終了時刻Tと、この話者の発話が終了し、もう一方の話者(図5の例では、顧客)の発話開始時刻Tと、を測定する。図5Cでは、T<Tとなり、この場合に重複時間Gが生じることになり、T−Tは負の値となり、重複時間Fとなる。
従って、上述のように、対話的特徴量Rとは、顧客の発話時間A、オペレータの発話時間B、離散度C、顧客の相槌回数D、オペレータの相槌回数E、無音時間F、重複時間Gのうち少なくとも1つであり、算出部8には、上記第1算出手段81〜第7算出手段87のうち少なくとも1つを具備させればよい。これらA〜Gのうちどの対話的特徴量を用いるかは、適宜決定すればよい。また、対話的特徴量RはこれらA〜Gに限られるものではない。
また、算出部8の処理は、セグメントとして抽出された後の発話対について行ってもよく、セグメントとして抽出される前の発話対について行っても良い。また、上記対話的特徴量に加え、従来の音響的特徴量(例えば、声の高さ(ピッチ周波数)や大きさ(パワー)、話速など)を算出しても良い。
ベクトル化部10は、対話的特徴量をセグメント毎に集計することで特徴ベクトルを求める(ステップS8)。具体的には、Q個(セグメントを構成する発話対の数)の発話対について、対話的特徴量R(A〜Gのうち少なくとも1つ)から特徴ベクトルのベクトル要素を求める。ベクトル要素を求める手法として、Q個の発話対について、例えば平均値、分散、最大値、最小値、を求めればよい。Q個の発話対のうち、q番目(1、...、q、...、Q)の発話対の対話的特徴量A〜Gの値をそれぞれa、b、c、d、e、f、gとすると、対話的特徴量A〜Gを全て用いた場合には、ベクトル化部10で求められる1セグメント毎の特徴ベクトルは、
(全てのaの平均値、全てのaの分散、全てのaのうちの最大値、全てのaのうちの最小値、...、全てのgの平均値、全てのgの分散、全てのgのうちの最大値、全てのgのうちの最小値)となる。この場合は、特徴ベクトルの要素数は28個となる。上述したように、用いる対話的特徴量はA〜Gのうち少なくとも1つなので、用いた対話的特徴量に応じた特徴ベクトルが生成される。
スコア計算部12は、予め定められた判別式F(X)に特徴ベクトルの各要素を代入することで、第1状態スコア(クレームスコア)を求める(ステップS10)。判別式Hは予め学習装置200により求められる。学習装置200は、通話状態判定装置100の同じ検出部4、抽出部6、算出部8、ベクトル化部10と、学習部18が設けられる。以下、判別式F(X)の求め方について、説明する。
通話データベース記憶部20には、複数のクレーム通話、非クレーム通話が格納されている。そして、複数のクレーム通話、非クレーム通話について、通話状態判定装置100と同様に検出部4〜ベクトル化部10の処理が行われる。また、学習装置200で用いられる特徴量ベクトルR(上述したA〜G)、特徴ベクトルRのベクトル要素(上述した平均値、分散、最大値、最小値)は、通話状態判定装置100で用いられるそれらと同一にしなければならない。学習部18は、ベクトル化部10よりの特徴ベクトルの機械学習を行う。学習方法として様々あるが、例えば、線形判別法やサポートベクターマシン、ニューラルネットワーク等を用いれば良い。
そして、学習装置200から求められる判別式F(X)は、線形判別法を用いた場合では例えば以下の式になる。
Figure 2010175684
ここで、Mの値は特徴ベクトルの要素の数となり、特徴ベクトルの各要素は、それぞれXに代入される。また、判別式F(X)として、顧客がクレーム状態にあるセグメントの特徴ベクトルの各要素が代入されると、算出されるクレームスコアは大であり、非クレーム状態にあるセグメントの特徴ベクトルの各要素が代入されると、算出されるクレームスコアは小となるような式が学習により求まる。学習装置200のが学習により上記式(1)の重み係数α(m=1、...、M)が求められる。
そして、判定部14は、各セグメント毎に、クレームスコアが、予め定められた第1閾値以上か否かを判定する(ステップS12)。第1閾値より大きければ、そのセグメントをクレームセグメント(クレーム状態である区間)とし、第1閾値Lより小さければ、そのセグメントを非クレーム状態セグメント(非クレーム状態である区間)とする。
出力部16は、クレームセグメント(第1状態セグメント)の状態が予め定められた第2閾値L以上であれば、通話状態は第1状態である旨の情報を出力する(ステップS14)。クレームセグメントの状態とは、クレームセグメントの個数や全セグメントに占めるクレームセグメントの割合を示す。例えば、第2閾値Lを1とし、1つでもクレームセグメントがあると、その通話をクレーム通話(つまり、顧客が怒っている)とみなしてもよい。また、クレームセグメントの個数が第2閾値L以上である場合や、全セグメントに占めるクレームセグメントの割合が第2閾値L以上である場合にもその通話をクレーム通話とみなしてもよい。
このように、本発明の通話判定装置によれば、先行技術1のように声の高さや大きさなどの音響的特徴量ではなく、対話的な特徴である対話的特徴量を用いて、顧客はクレーム状態か否かを判定する。対話的特徴量は、顧客の電話環境、顧客の音声または話し方などに変動されず、ばらつきが小さいため、頑健にかつ精度よくクレーム判定を行うことができる。また、この発明では冷静に怒っている顧客のクレーム状態も判定できる。
また、本発明では、通話中の発話対毎の対話的特徴量を用いて、クレーム状態であるか否かの判定をしていたので、顧客が通話途中から怒り出したとしても、頑健にかつ精度よくクレーム判定を行うことができる。
また、顧客が怒っている状態中に現れる現象を捉えたものであるため、怒っている発話の集合(=通話)かどうかを判定するのに適している。
<ハードウェア構成>
本発明は上述の実施の形態に限定されるものではない。また、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
また、上述の構成をコンピュータによって実現する場合、通話状態判定装置100が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記憶しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよいが、具体的には、例えば、磁気記憶装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。
また、このプログラムの流通は、例えば、そのプログラムを記憶したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記憶されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
また、本実施例で説明した通話状態判定装置100は、CPU(Central Processing Unit)、入力部、出力部、補助記憶装置、RAM(Random Access Memory)、ROM(Read Only Memory)及びバスを有している(何れも図示せず)。
CPUは、読み込まれた各種プログラムに従って様々な演算処理を実行する。補助記憶装置は、例えば、ハードディスク、MO(Magneto-Optical disc)、半導体メモリ等であり、RAMは、SRAM(Static Random Access Memory)、DRAM (Dynamic Random Access Memory)等である。また、バスは、CPU、入力部、出力部、補助記憶装置、RAM及びROMを通信可能に接続している。
<ハードウェアとソフトウェアとの協働>
本実施例の単語追加装置は、上述のようなハードウェアに所定のプログラムが読み込まれ、CPUがそれを実行することによって構築される。以下、このように構築される各装置の機能構成を説明する。
通話状態判定装置100の入力部、出力部は、所定のプログラムが読み込まれたCPUの制御のもと駆動するLANカード、モデム等の通信装置である。その他の算出部8などは、所定のプログラムがCPUに読み込まれ、実行されることによって構築される演算部である。記憶部は前記補助記憶装置として機能する。

Claims (9)

  1. 第2話者と通話をしている第1話者が、第1状態か第2状態かを判定する通話状態判定装置であって、
    第1話者と第2話者の発話区間を検出する検出部と、
    予め定められた数の発話対をセグメントとして抽出する抽出部と、
    発話対毎に、発話状況に関わる対話的特徴量を算出する算出部と、
    対話的特徴量をセグメント毎に集計することで特徴ベクトルを求めるベクトル化部と、
    予め定められた判別式に特徴ベクトルの各要素を代入することで、第1状態スコアを求めるスコア計算部と、
    前記第1状態スコアが予め定められた第1閾値以上であれば、そのセグメントを第1状態セグメントとして判定する判定部と、
    前記第1状態セグメントの状態が予め定められた第2閾値以上であれば、通話状態は第1状態である旨の情報を出力する出力部と、を有する通話状態判定装置。
  2. 請求項1記載の通話状態判定装置であって、
    前記算出部は、前記対話的特徴量として、第1話者の発話時間を算出する第1算出手段または第2話者の発話時間を算出する第2算出手段のうち、少なくとも一方を有することを特徴とする通話状態判定装置。
  3. 請求項1または2記載の通話状態判定装置であって、
    前記算出部は、前記対話的特徴量として、第1話者の発話時間と第2話者の発話時間の離散度を算出する第3算出手段を有することを特徴とする通話状態判定装置。
  4. 請求項1〜3何れかに記載の通話状態判定装置であって、
    前記算出部は、前記対話的特徴量として、第1話者の相槌回数を算出する第4算出手段または第2話者の相槌回数を算出する第5算出手段のうち、少なくとも一方を有することを特徴とする通話状態判定装置。
  5. 請求項1〜4何れかに記載の通話状態判定装置であって、
    前記算出部は、前記対話的特徴量として、第1話者の発話と第2話者の発話について、無音時間を算出する第6算出手段または、重複時間を算出する第7算出手段のうち少なくとも一方を有することを特徴とする通話状態判定装置。
  6. 第2話者と通話をしている第1話者が、第1状態か第2状態かを判定する通話状態判定方法であって、
    第1話者と第2話者の発話区間を検出する検出過程と、
    予め定められた数の発話対をセグメントとして抽出する抽出過程と、
    発話対毎に、発話状況に関わる対話的特徴量を算出する算出過程と、
    対話的特徴量をセグメント毎に集計することで特徴ベクトルを求めるベクトル化過程と、
    予め定められた判別式に特徴ベクトルの各要素を代入することで、第1状態スコアを求めるスコア計算過程と、
    前記第1状態スコアが予め定められた第1閾値以上であれば、そのセグメントを第1状態セグメントとして判定する判定過程と、
    前記第1状態セグメントが予め定められた第2閾値以上であれば、通話状態は第1状態である旨の情報を出力する出力過程と、を有する通話状態判定方法。
  7. 請求項6記載の通話状態判定方法であって、
    前記算出過程は、前記対話的特徴量として、
    第1話者の発話時間を算出する第1算出ステップ、
    第2話者の発話時間を算出する第2算出ステップ、
    第1話者の発話時間と第2話者の発話時間の離散度を算出する第3算出ステップ、
    第1話者の相槌回数を算出する第4算出ステップ、
    第2話者の相槌回数を算出する第5算出ステップ、
    第1話者の発話と第2話者の発話について、無音時間を算出する第6算出ステップ、
    第1話者の発話と第2話者の発話について、重複時間を算出する第7算出ステップ、
    のうち、少なくとも1つを有することを特徴とする通話状態判定方法。
  8. 請求項1〜5何れかに記載の通話状態判定装置としてコンピュータを動作させるプログラム。
  9. 請求項8記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。











JP2009016335A 2009-01-28 2009-01-28 通話状態判定装置、通話状態判定方法、プログラム、記録媒体 Active JP4972107B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009016335A JP4972107B2 (ja) 2009-01-28 2009-01-28 通話状態判定装置、通話状態判定方法、プログラム、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009016335A JP4972107B2 (ja) 2009-01-28 2009-01-28 通話状態判定装置、通話状態判定方法、プログラム、記録媒体

Publications (2)

Publication Number Publication Date
JP2010175684A true JP2010175684A (ja) 2010-08-12
JP4972107B2 JP4972107B2 (ja) 2012-07-11

Family

ID=42706747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009016335A Active JP4972107B2 (ja) 2009-01-28 2009-01-28 通話状態判定装置、通話状態判定方法、プログラム、記録媒体

Country Status (1)

Country Link
JP (1) JP4972107B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159596A (ja) * 2011-01-31 2012-08-23 Internatl Business Mach Corp <Ibm> 情報処理装置、情報処理方法、情報処理システム、およびプログラム
JP2012215668A (ja) * 2011-03-31 2012-11-08 Fujitsu Ltd 話者状態検出装置、話者状態検出方法及び話者状態検出用コンピュータプログラム
JP2012248065A (ja) * 2011-05-30 2012-12-13 Nippon Telegr & Teleph Corp <Ntt> 怒り感情推定装置、怒り感情推定方法およびそのプログラム
JP2013072979A (ja) * 2011-09-27 2013-04-22 Fuji Xerox Co Ltd 音声解析システムおよび音声解析装置
WO2014069075A1 (ja) * 2012-10-31 2014-05-08 日本電気株式会社 不満会話判定装置及び不満会話判定方法
WO2015019662A1 (ja) * 2013-08-07 2015-02-12 日本電気株式会社 分析対象決定装置及び分析対象決定方法
JP2016006440A (ja) * 2014-06-20 2016-01-14 富士通株式会社 音声処理装置、音声処理方法および音声処理プログラム
JP2016133774A (ja) * 2015-01-22 2016-07-25 富士通株式会社 音声処理装置、音声処理方法および音声処理プログラム
JPWO2014069121A1 (ja) * 2012-10-31 2016-09-08 日本電気株式会社 会話分析装置及び会話分析方法
EP3136388A1 (en) 2015-08-31 2017-03-01 Fujitsu Limited Utterance condition determination apparatus and method
JP6953597B1 (ja) * 2020-09-17 2021-10-27 ベルフェイス株式会社 情報処理装置、プログラム及び情報処理方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007033754A (ja) * 2005-07-26 2007-02-08 Nec Corp 音声監視システムと方法並びにプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007033754A (ja) * 2005-07-26 2007-02-08 Nec Corp 音声監視システムと方法並びにプログラム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159596A (ja) * 2011-01-31 2012-08-23 Internatl Business Mach Corp <Ibm> 情報処理装置、情報処理方法、情報処理システム、およびプログラム
JP2012215668A (ja) * 2011-03-31 2012-11-08 Fujitsu Ltd 話者状態検出装置、話者状態検出方法及び話者状態検出用コンピュータプログラム
US9002704B2 (en) 2011-03-31 2015-04-07 Fujitsu Limited Speaker state detecting apparatus and speaker state detecting method
JP2012248065A (ja) * 2011-05-30 2012-12-13 Nippon Telegr & Teleph Corp <Ntt> 怒り感情推定装置、怒り感情推定方法およびそのプログラム
JP2013072979A (ja) * 2011-09-27 2013-04-22 Fuji Xerox Co Ltd 音声解析システムおよび音声解析装置
JPWO2014069075A1 (ja) * 2012-10-31 2016-09-08 日本電気株式会社 不満会話判定装置及び不満会話判定方法
WO2014069075A1 (ja) * 2012-10-31 2014-05-08 日本電気株式会社 不満会話判定装置及び不満会話判定方法
JPWO2014069121A1 (ja) * 2012-10-31 2016-09-08 日本電気株式会社 会話分析装置及び会話分析方法
WO2015019662A1 (ja) * 2013-08-07 2015-02-12 日本電気株式会社 分析対象決定装置及び分析対象決定方法
JPWO2015019662A1 (ja) * 2013-08-07 2017-03-02 日本電気株式会社 分析対象決定装置及び分析対象決定方法
JP2016006440A (ja) * 2014-06-20 2016-01-14 富士通株式会社 音声処理装置、音声処理方法および音声処理プログラム
JP2016133774A (ja) * 2015-01-22 2016-07-25 富士通株式会社 音声処理装置、音声処理方法および音声処理プログラム
EP3136388A1 (en) 2015-08-31 2017-03-01 Fujitsu Limited Utterance condition determination apparatus and method
CN106486134A (zh) * 2015-08-31 2017-03-08 富士通株式会社 话语状态确定装置及方法
JP2017049364A (ja) * 2015-08-31 2017-03-09 富士通株式会社 発話状態判定装置、発話状態判定方法、及び判定プログラム
US10096330B2 (en) 2015-08-31 2018-10-09 Fujitsu Limited Utterance condition determination apparatus and method
CN106486134B (zh) * 2015-08-31 2019-07-19 富士通株式会社 话语状态确定装置及方法
JP6953597B1 (ja) * 2020-09-17 2021-10-27 ベルフェイス株式会社 情報処理装置、プログラム及び情報処理方法
WO2022059446A1 (ja) * 2020-09-17 2022-03-24 ベルフェイス株式会社 情報処理装置、プログラム及び情報処理方法
JP2022049784A (ja) * 2020-09-17 2022-03-30 ベルフェイス株式会社 情報処理装置、プログラム及び情報処理方法

Also Published As

Publication number Publication date
JP4972107B2 (ja) 2012-07-11

Similar Documents

Publication Publication Date Title
JP4972107B2 (ja) 通話状態判定装置、通話状態判定方法、プログラム、記録媒体
US10388279B2 (en) Voice interaction apparatus and voice interaction method
US10878823B2 (en) Voiceprint recognition method, device, terminal apparatus and storage medium
JP6759509B2 (ja) 音声の始点及び終点の検出方法、装置、コンピュータ設備及びプログラム
US9368116B2 (en) Speaker separation in diarization
US11545139B2 (en) System and method for determining the compliance of agent scripts
US8165874B2 (en) System, method, and program product for processing speech ratio difference data variations in a conversation between two persons
CN109767765A (zh) 话术匹配方法及装置、存储介质、计算机设备
JP5385677B2 (ja) 対話状態分割装置とその方法、そのプログラムと記録媒体
JP6341092B2 (ja) 表現分類装置、表現分類方法、不満検出装置及び不満検出方法
JP5664480B2 (ja) 異常状態検出装置、電話機、異常状態検出方法、及びプログラム
WO2014069076A1 (ja) 会話分析装置及び会話分析方法
US20120197644A1 (en) Information processing apparatus, information processing method, information processing system, and program
US20180122377A1 (en) Voice interaction apparatus and voice interaction method
CN108039181B (zh) 一种声音信号的情感信息分析方法和装置
KR102019470B1 (ko) 음성 발화 양식을 이용한 발화자 감정인식 방법 및 시스템
JP2015099304A (ja) 共感反感箇所検出装置、共感反感箇所検出方法及びプログラム
US20180366127A1 (en) Speaker recognition based on discriminant analysis
JP6365304B2 (ja) 会話分析装置及び会話分析方法
Hidajat et al. Emotional speech classification application development using android mobile applications
CN112837688A (zh) 语音转写方法、装置、相关系统及设备
WO2014069443A1 (ja) 不満通話判定装置及び不満通話判定方法
JP4408665B2 (ja) 音声認識用発話データ収集装置、音声認識用発話データ収集方法、及びコンピュータプログラム
CN113689886B (zh) 语音数据情感检测方法、装置、电子设备和存储介质
US20240127846A1 (en) Articulation abnormality detection method, articulation abnormality detection device, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110106

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120406

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4972107

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350