JP2021076845A - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP2021076845A
JP2021076845A JP2020187007A JP2020187007A JP2021076845A JP 2021076845 A JP2021076845 A JP 2021076845A JP 2020187007 A JP2020187007 A JP 2020187007A JP 2020187007 A JP2020187007 A JP 2020187007A JP 2021076845 A JP2021076845 A JP 2021076845A
Authority
JP
Japan
Prior art keywords
voice data
evaluation
unit
speaker
customer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020187007A
Other languages
English (en)
Inventor
貴明 下地
Takaaki Shimoji
貴明 下地
真史 諏訪
Masashi Suwa
真史 諏訪
裕介 中野
Yusuke Nakano
裕介 中野
惠介 許
Xiaodong Wang
惠介 許
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Empath Inc
Empath Inc Japan
Original Assignee
Empath Inc
Empath Inc Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Empath Inc, Empath Inc Japan filed Critical Empath Inc
Publication of JP2021076845A publication Critical patent/JP2021076845A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】より効果的に話者の評価を推定できる情報処理装置、情報処理方法及び情報処理プログラムを提供する。【解決手段】情報処理装置(サーバ5)のCPU500Cは、第1話者及び第2話者の会話の音声データから会話の終了時を検出する終点検出部と、終点検出部で検出した会話の終了時以前の所定期間又は所定回数の発話を含む音声データを取得する音声データ取得部と、音声データ取得部で取得した音声データを解析し、第1話者による第2話者の評価を推定する推定部と、を備える。【選択図】図4

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
今日、コールセンタでは、顧客からの電話を受けることを主体としたインバウンド業務と、コールセンタから積極的に電話をかけるアウトバウンド業務とを兼ね備えていることが多い。そのため、コールセンタは、単なる企業の問い合わせ窓口にとどまらず、企業の営業活動の一環ともなっている。このように、コールセンタの重要性はますます高まっている。
このため、従来から、コールセンタのオペレータの会話を分析して評価することが行われている。例えば、特許文献1には、コールセンタのオペレータと顧客の会話の音声を分析する音声分析部と、評価パラメータを入力し、前記コールセンタの特徴に合わせて、前記評価パラメータを使って評価基準を設定する評価パラメータ入力部と、前記音声分析部による分析結果と、前記評価基準とを基に、前記会話の採点を行う自動採点部とを備えることを特徴とするオペレータ対顧客会話自動採点装置が提案されている。
特開2015−070326号公報
しかしながら、従来の発明では、オペレータと顧客との会話を全て解析する必要があり、解析に時間がかかるという問題がある。
本発明は、上記課題を鑑みてなされたものであり、より効果的に話者の評価を推定できる情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。
上記の課題を解決すべく、本発明の情報処理装置は、情報処理装置は、第1話者及び第2話者の会話の音声データから会話の終了時を検出する検出部と、検出部で検出された会話の終了時以前の所定期間又は所定数の発話を含む音声データを取得する音声データ取得部と、音声データ取得部で取得された音声データを解析し、第1話者による第2話者の評価を推定する推定部と、を備える。
本発明によれば、より効果的に話者の評価を推定できる情報処理装置、情報処理方法及び情報処理プログラムを提供することができる。
実施形態に係る情報処理システムの概略構成の一例を示す図である。 実施形態に係るOP端末の構成の一例を示す図である。 実施形態に係るSV端末の構成の一例を示す図である。 実施形態に係るサーバの構成の一例を示す図である。 実施形態に係るサーバの記憶装置に格納されるデータベースの一例を示す図である。 実施形態に係る情報処理システムによるメイン処理の一例を示すフローチャートである。 実施形態に係る情報処理システムによる音声データ取得処理の一例を示すフローチャートである。 実施形態に係る情報処理システムによる感情解析処理の一例を示すフローチャートである。 実施形態に係る情報処理システムによる評価推定処理の一例を示すフローチャートである。 実施形態に係る情報処理システムによるフィードバック処理の一例を示すフローチャートである。 実施形態で利用する音声データを説明する図である。 実施例における時間と正答率との関係を示すグラフの一例である。 実施例における時間と正答率との関係を示すグラフの一例である。 実施例における発話数と正答率との関係を示すグラフの一例である。 実施例における発話数と正答率との関係を示すグラフの一例である。
以下、図面を参照して本発明の実施形態について説明する。なお、以下の実施形態では、本発明をコールセンタに適用した例について説明しているが、本発明は、コールセンタに限られず適用可能である。
[実施形態]
(情報処理システム1の構成)
図1に示すように、実施形態の情報処理システム1は、顧客CS(第1話者)の通話端末2Aから公衆網7を介して接続されるIP−PBX(Internet Protocol−Private Branch eXchange、IP回線対応構内交換機)装置6(以下、PBX装置6ともいう)がネットワーク8を介して、オペレータOP(第2話者)の通話端末2Bと接続し通話をする構成を有する。また、ネットワーク8には、オペレータ用端末3(以下、OP端末3ともいう)、スーパーバイザー用端末4(以下、SV端末4ともいう)及びサーバ5(情報処理装置)が通信可能に接続されている。なお、情報処理システム1が具備する通話端末2A,2B、OP端末3、SV端末4、サーバ5及びPBX装置6の数は任意である。
(OP端末3の構成)
OP端末3は、オペレータOPが利用する端末であり、例えば、デスクトップ型PCやノート型PCなどである。図2(a)に示すように、OP端末3は、通信IF300A、記憶装置300B、入力装置300C、表示装置300D及びCPU300Eを備える。
通信IF300Aは、他の装置と通信するためのインターフェースである。
記憶装置300Bは、例えば、HDD(Hard Disk Drive)や半導体記憶装置(SSD(Solid State Drive))であり、例えば、情報処理プログラムや端末IDなどが記憶されている。なお、端末IDは、OP端末3を識別するための識別子である。OP端末3から送信する情報に端末IDを付与することで、サーバ5は、受信した情報がどのOP端末3から送信されたものであるかを判定することができる。なお、端末IDは、IP(Internet Protocol)アドレス、MAC(Media Access Control)アドレスなどを利用してもよく、サーバ5がOP端末3に対して付与するようにしてもよい。
入力装置300Cは、例えば、キーボード、マウスなどの入力デバイスであるが、入力可能であれば、他の装置や機器(例えば、タッチパネル)であってもよい。
表示装置300Dは、例えば、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイなどであるが、表示可能であれば他の装置や機器(例えば、CRT:Cathode Ray Tube)であってもよい。
CPU300Eは、OP端末3を制御する。CPU300Eは、図示しないROM(Read Only Memory)及びRAM(Random Access Memory)を備えている。
本実施形態では、OP端末3が記憶装置300Bを備える構成となっているが、ネットワーク8を介して接続された他の装置(例えば、サーバ)が記憶装置300Bの全部又はその一部を備える構成であってもよい。この場合、OP端末3は、他の装置が備える記憶装置300Bを参照する。また、ネットワーク8を介して接続された他の装置から情報処理プログラムをダウンロード可能に構成されていてもよい。
(OP端末3の機能構成)
図2(b)に示すように、OP端末3は、受信部301、記憶装置制御部302、入力受付部303、表示装置制御部304及び送信部305などの機能を有する。
受信部301は、サーバ5から送信される情報を受信する。
記憶装置制御部302は、記憶装置300Bを制御する。具体的には、記憶装置制御部302は、記憶装置300Bを制御して情報の書き込みや読み出しを行う。
入力受付部303は、オペレータOPによる入力装置300Cからの入力操作を受け付ける。
表示装置制御部304は、表示装置300Dを制御する。
送信部305は、入力受付部303で受け付けた入力操作の情報をサーバ5へと送信する。
(SV端末4の構成)
SV端末4は、オペレータOPの管理者であるスーパーバイザーSVが利用する端末であり、携帯可能なタブレット型PCなどであることが好ましい。SV端末4を携帯可能なタブレット型PCとすることにより、スーパーバイザーSVは、SV端末4を持ち歩いてコールセンタ内を巡回することができ利便性に優れる。なお、SV端末4は、携帯可能であれば、タブレット型PC以外のデバイスであってもよい。
図3(a)に示すように、SV端末4は、通信IF400A、記憶装置400B、入力装置400C、表示装置400D及びCPU400Eを備える。
通信IF400Aは、他の装置と通信するためのインターフェースである。
記憶装置400Bは、例えば、HDD(Hard Disk Drive)や半導体記憶装置(SSD(Solid State Drive))であり、例えば、情報処理プログラムや端末IDなどが記憶されている。なお、端末IDは、SV端末4を識別するための識別子である。SV端末4から送信する情報に端末IDを付与することで、サーバ5は、受信した情報がどのSV端末4から送信されたものであるかを判定することができる。なお、端末IDは、IP(Internet Protocol)アドレス、MAC(Media Access Control)アドレスなどを利用してもよく、サーバ5がSV端末4に対して付与するようにしてもよい。
入力装置400Cは、例えば、タッチパネルなどの入力デバイスであるが、入力可能であれば、他の装置や機器(例えば、キーボード)であってもよい。
表示装置400Dは、例えば、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイなどであるが、表示可能であれば他の装置や機器であってもよい。
CPU400Eは、SV端末4を制御する。CPU400Eは、図示しないROM(Read Only Memory)及びRAM(Random Access Memory)を備えている。
本実施形態では、SV端末4が記憶装置400Bを備える構成となっているが、ネットワーク8を介して接続された他の装置(例えば、サーバ)が記憶装置400Bの全部又はその一部を備える構成であってもよい。この場合、SV端末4は、他のサーバが備える記憶装置400Bを参照する。また、ネットワーク8を介して接続された他のサーバから情報処理プログラムをダウンロード可能に構成されていてもよい。
(SV端末4の機能構成)
図3(b)に示すように、SV端末4は、受信部401、記憶装置制御部402、入力受付部403、表示装置制御部404及び送信部405などの機能を有する。
受信部401は、サーバ5から送信される情報を受信する。
記憶装置制御部402は、記憶装置400Bを制御する。具体的には、記憶装置制御部302は、記憶装置400Bを制御して情報の書き込みや読み出しを行う。
入力受付部403は、入力装置400Cによる入力操作を受け付ける。
表示装置制御部404は、表示装置400Dを制御する。
送信部405は、入力受付部403で受け付けた入力操作の情報をサーバ5へと送信する。
(サーバ5の構成)
図4(a)に示すように、サーバ5は、通信IF500A、記憶装置500B、CPU500Cを備える。
通信IF500Aは、他の装置と通信するためのインターフェースである。
記憶装置500Bは、例えば、HDD(Hard Disk Drive)や半導体記憶装置(SSD(Solid State Drive))であり、各種データベース(以下、DBともいう)や情報処理プログラムなどが記憶されている。なお、記憶装置500Bは、情報(データ)の書き込み、読み出しが可能であれば、他の装置や機器であってもよい。なお、本実施形態では、サーバ5が記憶装置500Bを備えているが、コンピュータ読み取り可能な外部記憶媒体(例えば、USBメモリや外付けHDD)に格納されていてもよいし、ネットワーク8を介して他のコンピュータやサーバなどから読出可能及び/又は書込可能に構成されていてもよい。
(記憶装置)
図5は、サーバ5の記憶装置500Bに格納されるデータベースの一例を示す図である。記憶装置500Bには、顧客DB1〜評価推定用DB4、アンケート用のフォーマットデータ(以下、単にアンケート情報という)、情報処理プログラムなどが格納されている。以下、各DBに記憶されている情報について説明する。なお、本実施形態では、記憶装置500Bに顧客DB1〜評価推定用DB4が格納された構成となっているが、必ずしもDB構造として記憶装置500Bに格納されている必要はない。
(顧客DB1)
顧客DB1には、顧客CSごとに属性情報が顧客IDに関連付けて格納されている。属性情報は、例えば、氏名、性別、年齢、住所、職業、連絡先(電話番号、メールアドレス、SNSのアカウントの情報など)などであるが、これに限られず、顧客CSの属性を表す情報であれば顧客IDに関連付けて顧客DB1に格納するようにしてもよい。
(感情解析用DB2)
感情解析用DB2には、感情を解析するための情報が格納されている。具体的には、感情解析用DB2には、感情(本実施形態では、「不安」「緊張」「恐怖」)ごとの音響特性(声の高低(音声の周波数)、話す速さ、声の大小(音声の振幅)、抑揚などの特性)を学習したモデルが格納されている。なお、上記「不安」「緊張」「恐怖」だけに限られず、「平常」「喜び」「怒り」「哀しみ」「楽しみ」などの感情を加えても良いし、さらに細分化したモデルを感情解析用DB2に格納するようにしてもよい。細かな感情の機微にも対応することができ、より精度の高い解析を行うことができる。このように感情ごとの音響特性を学習したモデルを感情解析用DB2に格納することにより、感情解析用DB2を参照することで、顧客CSがどのような感情であるかを解析することができる。
(音声データDB3)
音声データDB3には、音声データ取得部504により取得された顧客CSとオペレータOPとの会話の音声データが1通話ごとにIDに関連付けて格納されている。また、各音声データには、会話したオペレータOPのIDと顧客CSのID、会話開始日時、会話終了日時、会話時間、推定部509で推定された評価などの情報が関連付けられて、音声データDB3に格納されている。なお、本実施形態では、音声データには、モノラルデータ、ステレオデータの双方が含まれる。
(評価推定用DB4)
評価推定用DB4には、音響指標抽出部508により音声データから抽出された顧客CSの音響指標及び感情解析部507で解析された顧客CSの感情と、アンケートにより得られた顧客CSの評価との相関関係を学習したモデル(以下、評価推定用モデルともいう)が格納されている。より具体的には、評価推定用DB4には、オペレータOPと会話した顧客CSから無作為に複数の顧客(全体の1.1%、3051人)を抽出し、オペレータを評価するアンケート調査を行い、音響指標抽出部508により抽出された音響指標及び感情解析部507で解析された感情と、アンケート調査の結果との相関関係を学習させた評価推定用モデルが格納されている。
なお、本実施形態において、音声データから抽出される顧客CSの音響指標は、以下(1−1)から(1−3)であるが、抽出する音響指標は、以下(1−1)から(1−3)に限られず、他の音響指標を抽出するようにしてもよい。
(1−1)顧客CSの話す速度
(1−2)顧客CSの声のピッチ(フォルマント)
(1−3)顧客CSの音量
なお、本実施形態では、(1−2)の顧客CSの声のピッチとは、フォルマントのことであり、発話している人物の音声のスペクトルにおいて時間的に移動している複数のピークのことをいう。ここで、複数のピークは、それぞれ、周波数の低い順に、第一フォルマント(F0)、第二フォルマント(F1)、・・・といわれることもある。
また、本実施形態において、音声データから解析される顧客CSの感情は、以下(2−1)から(2−3)であるが、解析する感情は、以下(2−1)から(2−3)に限られず、他の感情を解析するようにしてもよい。
(2−1)不安
(2−2)緊張
(2−3)恐怖
(アンケート情報)
また、記憶装置500Bには、後述する評価抽出部510により抽出された評価に関連付けられた顧客へ通知するためのアンケート情報が格納されている。ここで、アンケート情報には、「問題は解決しましたか?」、「オペレータの対応はいかがでしたか?」、「そのほかご意見がありましらご記入ください。」などの質問が含まれる。アンケート情報は、実際に会話を行ったオペレータOPに対する満足度や不満度のフィードバックを受けるため顧客CSへ通知される。なお、ここで記述したアンケート情報の内容はあくまで一例であり、どのようなアンケート内容とするかは任意である。
CPU500Cは、サーバ5を制御する。CPU500Cは、図示しないROM(Read Only Memory)及びRAM(Random Access Memory)を備えている。
(サーバ5の機能構成)
図4(b)に示すように、サーバ5は、受信部501、送信部502(出力部)、記憶装置制御部503、音声データ取得部504、終点検出部505(検出部)、音響特徴抽出部506、感情解析部507、音響指標抽出部508、推定部509、評価抽出部510などの機能を有する。
受信部501は、通話端末2Bから送信される情報(例えば、オペレータOPの音声データなど)、SV端末4から送信される情報及びPBX装置6を介して通話端末2Aから送信される情報(例えば、顧客CSの音声データなど)を受信する。
送信部502は、推定部509で推定された評価結果をOP端末3及びSV端末4の少なくとも一方へ送信(出力)する。また、送信部502は、評価抽出部510で抽出された所定条件(評価の値が第1所定値未満である、評価の値が第2所定値を超える、などの条件(第1所定値と第2所定値とは、同じ値であってもよく、異なる値であってもよい))を満たすオペレータOPの評価及び該オペレータOPと会話した顧客CSの情報を、該顧客CSと会話したオペレータのOP端末3及び該オペレータOPを担当するスーパーバイザーSVのSV端末4へ送信(出力)する。また、送信部502は、評価抽出部510で抽出された顧客CSの連絡先(例えば、電子メールやSNSのアカウント)へアンケート情報を送信(出力)する。
記憶装置制御部503は、記憶装置500Bを制御する。具体的には、記憶装置制御部503は、記憶装置500Bを制御して記憶装置500Bへ情報を書き込んだり、記憶装置500Bから情報を読み出したりする。
音声データ取得部504は、通話端末2A及び通話端末2Bから送信される顧客CS及びオペレータOPの音声データを取得する。また、音声データ取得部504は、後述の終点検出部505で検出された顧客CS及びオペレータOPの会話の終了時以前の所定期間又は所定数の発話を含む音声データを取得する。
終点検出部505は、顧客CS及びオペレータOPの会話の音声データから会話の終了時を検出する。終点検出部505による終点検出は、例えば、通話端末2Aと通話端末2Bとの通話を遮断する遮断信号を検知し、この遮断信号の受信前に発話が終了した時点を会話の終了時として検出してもよい。なお、顧客CS及びオペレータOPの会話の発話の終了時を検出することができればよく、その手法は任意である。
音響特徴抽出部506は、音声データ取得部504で取得され、記憶装置制御部503によりDB3に格納された音声データから顧客CSの音響特徴を抽出する。ここで、音響特徴とは、例えば、声の高低(音声の周波数)、話す速さ、声の大小(音声の振幅)、抑揚などの特性である。
感情解析部507は、音響特徴抽出部506により抽出された顧客CSの音響特徴から顧客CSの感情を解析する。具体的には、感情解析部507は、感情解析用DB2に格納されている音響特徴と感情との関係を参照することで、顧客CSの感情を解析する。なお、本実施形態では、感情解析部507は、顧客CSの感情を感情値(推定された感情の度合い(大きさ)を表す数値)として算出する。つまり、感情値の時系列のデータが感情の推移パタンとなる。換言すると、感情値は、感情の推移パタンの一部であり、感情の推移パタンからある一時点の値を抽出したものが感情値となる。
音響指標抽出部508は、音声データ取得部504で取得された音声データから以下(1−1)から(1−3)の音響指標を抽出する。
(1−1)顧客CSの話す速度
(1−2)顧客CSの声のピッチ
(1−3)顧客CSの音量
推定部509は、音響指標抽出部508が音声データから抽出した顧客CSの音響指標及び感情解析部507で解析された顧客CSの感情と、評価推定用DBに格納された評価推定用モデル(音響指標抽出部508により音声データから抽出された顧客CSの音響指標及び感情解析部507で解析された顧客CSの感情と、アンケートにより得られた顧客CSの評価との相関関係)とに基づいて、顧客CSによるオペレータOPの評価を推定する。なお、本実施形態では、推定部509は、オペレータOPの評価を数値(例えば、1点から5点の5段階評価など)で推定するが、オペレータOPの評価を必ずしも数値で推定する必要はなく、どのように評価を推定するかは任意である。
評価抽出部510は、推定部509で推定されたオペレータOPの評価から所定条件(評価の値が第1所定値未満である、評価の値が第2所定値を超える、などの条件)を満たす評価を抽出する。
PBX装置6は、ネットワーク8と公衆網7のプロトコル変換、発着信の呼制御など実行する。
(情報処理システムによる処理)
図6から図10は、情報処理システム1による処理の一例を示すフローチャートである。以下、図6から図10を参照して、情報処理システム1による処理について説明する。
(メイン処理)
図6は、情報処理システム1によるメイン処理の一例を示すフローチャートである。以下、図6を参照して情報処理システム1のメイン処理について説明する。
(ステップS101)
サーバ5は、音声データ取得処理を実行する。この音声データ取得処理では、音声データ取得部504は、通話端末2A及び通話端末2Bから送信される顧客CS及びオペレータOPの音声データを取得する。なお、音声データ取得処理の詳細は、図7を参照して後述する。
(ステップS102)
サーバ5は、音響特徴抽出処理を実行する。具体的には、サーバ5の音響特徴抽出部506は、ステップS101で取得された音声データから顧客CSの音響特徴を抽出する。
(ステップS103)
サーバ5は、感情解析処理を実行する。なお、感情解析処理の詳細は、図8を参照して後述する。
(ステップS104)
サーバ5は、音響指標抽出処理を実行する。具体的には、サーバ5の音響指標抽出部508は、ステップS101で取得された音声データから以下(1−1)から(1−3)の音響指標を抽出する。
(1−1)顧客CSの話す速度
(1−2)顧客CSの声のピッチ
(1−3)顧客CSの音量
(ステップS105)
サーバ5は、評価推定処理を実行する。なお、評価推定処理の詳細は図9を参照して後述する。
(ステップS106)
サーバ5は、評価出力処理を実行する。具体的には、サーバ5の送信部502(出力部)は、推定部509で推定された評価結果をOP端末3及びSV端末4の少なくとも一方へ送信(出力)する。より具体的には、送信部502は、推定部509で推定された評価結果を、評価結果の対象である会話を行ったオペレータOPのオペレータ用端末3及び該オペレータOPを担当するスーパーバイザーSVのSV端末4の少なくとも一方へ送信(出力)する。
(ステップS107)
サーバ5は、フィードバック処理を実行する。なお、フィードバック処理の詳細は図10を参照して後述する。
(音声データ取得処理)
図7は、情報処理システム1による音声データ取得処理の一例を示すフローチャートである。以下、図7を参照して情報処理システム1の音声データ取得処理について説明する。
(ステップS201)
サーバ5の音声データ取得部504は、顧客CSとオペレータOPとの会話が開始されたか否かを判定する。通話が開始されたと判定した場合(YES)、音声データ取得部504は、ステップS202の処理を実行する。また、通話が開始されていないと判定した場合(NO)、音声データ取得部504は、音声データ取得処理を終了する。
(ステップS202)
サーバ5の音声データ取得部504は、顧客CSとオペレータOPとの会話の音声データの取得を開始する。また、記憶装置制御部503は、音声データ取得部504が取得する音声データを音声データDB3に随時格納する。
(ステップS203)
サーバ5の終点検出部505は、顧客CS及びオペレータOPの会話の音声データから会話の終了時を検出する。終点検出部505が会話の終了時を検出するまで、記憶装置制御部503は、会話の音声データを音声データDB3に随時格納する。なお、顧客CS及びオペレータOPの会話の終了時を検出することができればよく、その手法は任意である。
(ステップS204)
サーバ5の音声データ取得部504は、顧客CSとオペレータOPとの会話の音声データの取得を終了する。また、音声データ取得部504は、取得した顧客CSとオペレータOPとの会話の音声データにIDを付与する(関連付ける)とともに、オペレータOPのIDと顧客CSのID、会話開始日時、会話終了日時、会話時間などの情報を関連付けて音声データDB3に格納するよう指示する。記憶装置制御部503は、音声データに、ID、オペレータOPのIDと顧客CSのID、会話開始日時、会話終了日時、会話時間などの情報を関連付けて音声データDB3に格納する。
(ステップS205)
サーバ5の音声データ取得部504は、推定部509での評価の推定に必要となる所定期間の音声データ以外の期間の音声データを削除する。これにより、音声データを格納する容量を削減することができる。また、音声データの解析の負荷(例えば、音響特徴抽出部506、感情解析部507、推定部509、音響指標抽出部508などでの処理に必要となる負荷)を低減することができ、推定部509での評価の推定までに必要な時間を短縮することができる。なお、推定部509での評価の推定に必要となる所定期間の音声データ以外の期間の音声データを削除せずに、取得した全ての音声データを音声データDB3に格納したままにしておいてもよい。
なお、上記説明では、会話の音声データを一旦音声データDB3に格納し、終点検出部505が顧客CS及びオペレータOPの会話の音声データから会話の終了時を検出すると、推定部509での評価の推定に必要となる所定期間以外の期間の音声データを削除する構成となっているが、会話の音声データを所定時間だけ音声データDB3に格納するようにしてもよい。具体的には、会話の音声データが所定時間を超える場合、所定時間を超える会話の音声データを、古い会話の音声データに上書きし、終点検出部505が顧客CS及びオペレータOPの会話の音声データから会話の終了時を検出すると、上書き処理を停止するようにすればよい。
また、顧客CSによるオペレータOPの評価を所定の精度で推定することができれば、終点検出部505で検出された顧客CS及びオペレータOPの会話の終了時時点から何秒から何秒までの音声データを音声データ取得部504が取得するかは任意である。
(感情解析処理)
図8は、情報処理システム1による感情解析処理の一例を示すフローチャートである。以下、図8を参照して情報処理システム1による感情解析処理について説明する。
(ステップS301)
感情解析部507は、感情解析用DB2に格納されている学習済みのモデルのうち、第1モデル(例えば、「不安」の学習モデル)の音響特性を読み込む。
(ステップS302)
感情解析部507は、音響特徴抽出部506で抽出された顧客CSの音響特徴を、それぞれ、読み込んだ第1モデルの音響特性と比較して類似度を算出する。なお、類似度は、種々の既知の手法を利用して算出することができる。例えば、ユークリッド距離、ピアソンの積率相関係数、Jaccard係数などを利用して、音響特徴抽出部506で抽出された顧客CS及びオペレータOPの音響特徴と、第1モデルの音響特性との類似度を算出することができる。
(ステップS303)
感情解析部507は、感情解析用DB2に格納されている学習済みのモデルのうち、第2モデル(例えば、「緊張」の学習モデル)の音響特性を読み込む。
(ステップS304)
感情解析部507は、音響特徴抽出部506で抽出された顧客CSの音響特徴を、それぞれ、読み込んだ第2モデルの音響特性と比較して類似度を算出する。なお、類似度の算出については、ステップS302と同じ手法を利用することができる。
(ステップS305)
感情解析部507は、感情解析用DB2に格納されている学習済みのモデルのうち、第3モデル(例えば、「恐怖」の学習モデル)の音響特性を読み込む。
(ステップS306)
感情解析部507は、音響特徴抽出部506で抽出された顧客CSの音響特徴を、それぞれ、読み込んだ第3モデルの音響特性と比較して類似度を算出する。なお、類似度の算出については、ステップS302と同じ手法を利用することができる。
(ステップS307)
感情解析部507は、第1〜第3モデルと比較した類似度にそれぞれ重みづけなどを行い、類似度を調整する。
(ステップS308)
感情解析部507は、調整された各第1〜第3モデルとの類似度に基づいて、顧客CSの感情を推定する。より具体的には、感情解析部507は、顧客CSの音響特徴が、第1から第3のどのモデルにどれだけ近いかにより、顧客CSの感情をそれぞれ推定する。なお、顧客CSの音響特徴が、第1から第3のどのモデルにどれだけ近いかの算出は、ステップS302と同じ手法を利用することができる。
なお、上記感情解析処理(図8)では、第1〜第3モデルの3つモデルとの類似度に基づいて、顧客CSの感情を推定しているが、学習済みのモデルは、3つ(例えば、「不安」「緊張」「恐怖」)だけに限られず任意であり、「平常」「喜び」「怒り」「哀しみ」「楽しみ」などの学習済みのモデルとの類似度を加えても良いし、さらに細分化して「信頼」「心配」「驚き」「嫌悪感」「関心」などの学習済みのモデルとの類似度を加えてもよい。
(評価推定処理)
図9は、情報処理システム1による評価推定処理の一例を示すフローチャートである。以下、図9を参照して情報処理システム1の評価推定処理について説明する。
(ステップS401)
サーバ5の推定部509は、音響指標抽出部508が音声データから抽出した顧客CSの音響指標を取得する。
(ステップS402)
サーバ5の推定部509は、感情解析部507が音声データから解析した顧客CSの感情を取得する。
(ステップS403)
サーバ5の推定部509は、評価推定用DB4を参照する。
(ステップS404)
サーバ5の推定部509は、ステップS401で取得した音響指標及びステップS402で取得した顧客CSの感情と、評価推定用DB4に格納されている顧客CSの評価との相関関係を学習した評価推定用モデル(音響指標抽出部508により音声データから抽出された顧客CSの音響指標及び感情解析部507で解析された顧客CSの感情と、アンケートにより得られた顧客CSの評価との相関関係)に基づいて、顧客CSによるオペレータOPの評価を推定する。
なお、推定部509は、推定した評価を、評価を行った音声データに関連付けて音声データDB3に格納するよう指示する。記憶装置制御部503は、推定した評価を、評価を行った音声データに関連付けて音声データDB3に格納する。
(フィードバック処理)
図10は、情報処理システム1によるフィードバック処理の一例を示すフローチャートである。以下、図10を参照して情報処理システム1のフィードバック処理について説明する。
(ステップS501)
サーバ5の評価抽出部510は、推定部509で推定された評価を取得する。
(ステップS502)
サーバ5の評価抽出部510は、取得した評価の値が第1所定値未満であるか否かを判定する。取得した評価の値が第1所定値未満であると判定した場合(YES)、評価抽出部510は、ステップS504の処理を実行する。取得した評価の値が第1所定値未満でないと判定した場合(NO)、評価抽出部510は、ステップS503の処理を実行する。
(ステップS503)
サーバ5の評価抽出部510は、取得した評価の値が第2所定値を超えるか否かを判定する。取得した評価の値が第2所定値を超えると判定した場合(YES)、評価抽出部510は、ステップS504の処理を実行する。取得した評価の値が第2所定値を超えないと判定した場合(NO)、評価抽出部510は、フィードバック処理を終了する。
(ステップS504)
送信部502は、評価抽出部510は、評価が所定条件を満たす場合、換言するとステップS502で第1所定値未満であり、かつ、ステップS503で第2所定値を超える場合、該評価を抽出する。また、評価抽出部510は、ステップS502で第1所定値未満であり、かつ、ステップS503で第2所定値を超える評価及び該評価に関連付けられた顧客CSとオペレータOPのIDを抽出する。
(ステップS505)
送信部502は、評価抽出部510で抽出された評価と、該評価に関連付けられたオペレータOPと会話した顧客CSの情報を、該顧客CSと会話したオペレータのOP端末3及び該オペレータOPを担当するスーパーバイザーSVのSV端末4へ送信(出力)する。
(ステップS506)
送信部502は、評価抽出部510で抽出された評価に関連付けられた顧客CSの連絡先(例えば、電子メールやSNSのアカウント)へアンケート情報を送信(出力)する。
なお、上記説明では、ステップS502で第1所定値未満である場合も、ステップS503で第2所定値を超える場合も、同じ内容のアンケート情報を送信しているが、ステップS502で第1所定値未満である場合と、ステップS503で第2所定値を超える場合とで、異なる内容のアンケート情報を送信するようにしてもよい。
なお、上記説明では、音声データ取得部504は、終点検出部505で検出された顧客CS及びオペレータOPの会話の終了時以前の所定期間の音声データを取得しているが、会話の終了時以前の所定期間ではなく、終点検出部505で検出された顧客CS及びオペレータOPの会話の終了時から遡って、所定数までの発話を含む音声データを取得するようにしてもよい。
この場合、音響指標抽出部508は、会話の終了時から遡って、顧客CSの所定数の発話を含む音声データから抽出した顧客CSの音響指標及び感情解析部507で解析された顧客CSの感情と、評価推定用DBに格納された評価推定用モデルとに基づいて、顧客CSによるオペレータOPの評価を推定する。
なお、顧客CSによるオペレータOPの評価を推定することができれば、終点検出部505で検出された顧客CS及びオペレータOPの会話の終了時から顧客CSの何番目の発話まで遡って音声データ取得部504が音声データを取得するかは任意である。
図11は、実施形態で利用する音声データを説明する図である。図11(a)は、終点検出部505で検出された会話の終了時から所定期間の音声データの説明図である。図11(a)に示すように、本実施形態では、会話の終了時として、顧客CSとオペレータOPとの会話における最終発話(顧客CSの最終発話としてもよい)の終了時点を会話の終了時とし、この終了時点から遡った所定時間の音声データを利用して顧客CSによるオペレータOPの評価を推定している。また、図11(b)は、終点検出部505で検出された会話の終了時から遡って所定数の発話を含む音声データの説明図である。図11(b)に示すように、本実施形態では、会話の終了時として、顧客CSとオペレータOPとの会話における最終発話(顧客CSの最終発話としてもよい)の終了時点を会話の終了時とし、この終了時点から遡った顧客CSの所定数の発話を含む音声データを利用して顧客CSによるオペレータOPの評価を推定している。
上記のように、本実施形態では、顧客CS(第1話者)及びオペレータOP(第2話者)の会話の音声データから会話の終了時を検出し、この会話の終了時以前の所定期間又は所定数の発話を含む音声データから顧客CSによるオペレータOPの評価を推定しているが、前記会話の終了時以前の所定期間又は所定数の発話を含む音声データには、顧客CSの最終発話が含まれることが好ましい。これは、顧客CSとオペレータOPとの会話が進むことにより、会話の終盤において顧客CSの本音が出やすくなると推定されることから、音声データに顧客CSの最終発話を含むことにより、推定部509での推定精度の向上が期待されるためである。
なお、音声データがステレオデータである場合には、音声データ取得部504は、ステレオ分離後(顧客CSとオペレータOPの音声データ分離後)に顧客CSの音声データだけを取得するようにしてもよい。この場合、音響特徴抽出部506は、顧客CSの音声データから音響特徴を抽出する。また、音響指標抽出部508は、顧客CSの音声データから音響指標を抽出する。
次に実施例について説明する。発明者らは、実施形態で説明したアンケート調査の結果との相関関係を学習させた評価推定用モデルの正答率を確認した。具体的には、発明者らは、顧客からアンケートで得た回答(評価)と、音響指標抽出部508が音声データから抽出した顧客CSの音響指標及び感情解析部507で解析された顧客CSの感情と、評価推定用DBに格納された評価推定用モデルとに基づいて、推定部509が推定した評価との一致度(正答率)を確認した。
図12は、実施例における時間と正答率との関係を示すグラフの一例である。具体的には、顧客CSとオペレータOPとの会話の終了時以前の所定時間と正答率との関係を示すグラフの一例である。なお、図12は、コール終了音が含まれた通話を取り除いた音声のみを対象とした場合の時間と正答率との関係を示すグラフである。なお、図12において、実線が正答率であり、破線が近似曲線(決定係数(R2)=0.7468)である。
図12に示すように、会話の終了時から19秒までの正答率は0.83(83%)を下回ることはほとんどないが、会話の終了時から19秒を超える場合、正答率が0.83(83%)以下となるまで落ちてしまう。このため、顧客CSとオペレータOPの会話の終了時以前の所定期間は、19秒以内とすることが好ましいことがわかる。また、19秒以内であれば、9秒から12秒に少し落ち込みがあるものの正答率が0.83(83%)以上であることから、音声データの処理負荷を考えると(音声データが長いほど処理負荷も大きくなる)、顧客CSとオペレータOPの会話の終了時以前の所定期間は、数秒程度(1〜3秒程度)であることがより好ましいことがわかる。
図13は、実施例における時間と正答率との関係を示すグラフの一例である。具体的には、顧客CSとオペレータOPとの会話の終了時以前の所定時間と正答率との関係を示すグラフの一例である。なお、図13は、コール終了音が含まれた通話を取り除いていない全通話の音声を対象とした場合のグラフである。なお、図13において、実線が正答率であり、破線が近似曲線(決定係数(R2)=0.7404)である。
図13に示すように、会話の終了時から18秒までの正答率は0.83(83%)を下回ることはないが、会話の終了時から18秒を超える場合、正答率が0.83(83%)以下となるまで落ちてしまう。このため、顧客CSとオペレータOPの会話の終了時以前の所定期間は、18秒以内とすることが好ましいことがわかる。また、18秒以内であれば、所定期間が短い方がむしろ正答率が向上する傾向になることから、音声データの処理負荷も考慮すると(音声データが長いほど処理負荷も大きくなる)、顧客CSとオペレータOPの会話の終了時以前の所定期間は、数秒程度(1〜3秒程度)であることがより好ましいことがわかる。
図14は、実施例における発話数と正答率との関係を示すグラフの一例である。具体的には、顧客CSとオペレータOPとの会話の終了時以前の発話数と正答率との関係を示すグラフの一例である。なお、図14は、コール終了音が含まれた通話を取り除いた音声のみを対象とした場合の時間と正答率との関係を示すグラフである。なお、図14において、実線が正答率であり、破線が近似曲線(決定係数(R2)=0.6166)である。
図14に示すように、会話の終了時からの発話数が6までの正答率は0.82(82%)を下回ることはないが、会話の終了時からの発話数が7以上である場合、正答率が0.82(82%)以下となるまで落ちてしまう。このため、顧客CSとオペレータOPの会話の終了時以前の発話数は、6個以内とすることが好ましいことがわかる。また、発話数が6個以内であれば、発話数が少ない方がむしろ正答率が向上する傾向になることから、音声データの処理負荷も考慮すると(発話数が多いほど処理負荷も大きくなる)、顧客CSとオペレータOPの会話の終了時以前の発話数は、数個程度(1〜3個程度)であることがより好ましいことがわかる。
図15は、実施例における発話数と正答率との関係を示すグラフの一例である。具体的には、顧客CSとオペレータOPとの会話の終了時以前の発話数と正答率との関係を示すグラフの一例である。なお、図15は、コール終了音が含まれた通話を取り除いていない全通話の音声を対象とした場合のグラフである。なお、図15において、実線が正答率であり、破線が近似曲線(決定係数(R2)=0.4349)である。
図15に示すように、会話の終了時からの発話数が9までの正答率は、発話数が5の位置に少し落ち込みがあるものの正答率が略0.82(82%)であるが、会話の終了時からの発話数が10以上である場合、正答率が0.82(82%)以下となるまで落ちてしまう。このため、顧客CSとオペレータOPの会話の終了時以前の発話数は、9個以内とすることが好ましいことがわかる。また、発話数が9個以内であれば、正答率は0.82〜0.83の間にあることから、音声データの処理負荷も考慮すると(発話数が多いほど処理負荷も大きくなる)、顧客CSとオペレータOPの会話の終了時以前の発話数は、数個程度(1〜3個程度)であることがより好ましいことがわかる。なお、図15に示す例では、発話数が21以上で、正答率が向上しているか、上述したように、音声データの処理負荷を考慮すると(発話数が多いほど処理負荷も大きくなる)、顧客CSとオペレータOPの会話の終了時以前の発話数は、数個程度(1〜3個程度)であることがより好ましい。
本実施例からは、会話の終了時以前の所定期間(所定時間)の発話を含む音声データを取得する場合、所定期間は、19秒〜18秒以内とすることが好ましく、数秒程度(1〜3秒程度)であることがより好ましいことがわかった。
また、会話の終了時以前の所定回数の発話を含む音声データを取得する場合、発話数は、6〜9個以内とすることが好ましく、数個程度(1〜3個程度)であることがより好ましいことがわかった。
以上のように、本実施形態に係る情報処理システム1のサーバ5は、顧客CS(第1話者)及びオペレータOP(第2話者)の会話の音声データから会話の終了時を検出する終点検出部505(検出部)と、終点検出部505で検出された会話の終了時以前の所定期間又は所定数の発話を含む音声データを取得する音声データ取得部504と、音声データ取得部504で取得された音声データを解析し、顧客CSによるオペレータOPの評価を推定する推定部509と、を備えている。
本実施形態に係る情報処理システム1のサーバ5によれば、オペレータと顧客との会話を全て解析する必要がなく、音声データの解析の負荷(例えば、音響特徴抽出部506、感情解析部507、推定部509、音響指標抽出部508などでの処理に必要となる負荷)を低減することができ、推定部509での評価の推定までに必要な時間を短縮することができる。このように、より効果的に話者の評価を推定できる。
本実施形態に係る情報処理システム1のサーバ5の推定部509で推定されたオペレータOP(第2話者)の評価のうち所定条件を満たすオペレータOPの評価を抽出する評価抽出部510と、評価抽出部510で抽出されたオペレータOPの評価を送信(出力)する送信部502(出力部)と、を備えている。
本実施形態に係る情報処理システム1のサーバ5によれば、推定部509で推定されたオペレータOPの評価のうち所定条件を満たすオペレータOPの評価を抽出し、この抽出されたオペレータOPの評価を送信するので、自動的に評価が通知され利便性が向上する。
本実施形態に係る情報処理システム1のサーバ5の推定部509は、
(1−1)顧客CS(第1話者)の話す速度
(1−2)顧客CSの声のピッチ
(1−3)顧客CSの音量
の少なくとも1以上に基づいて、顧客CSによるオペレータOPの評価を推定する。
本実施形態に係る情報処理システム1のサーバ5によれば、上記(1−1)〜(1−3)の少なくとも1以上に基づいて、顧客CSによるオペレータOPの評価を推定するので、精度よく顧客CSによるオペレータOPの評価を行うことができる。
本実施形態に係る情報処理システム1は、音声データから顧客CS(第1話者)の感情を解析する感情解析部507を備えている。そして、推定部509は、感情解析部507で解析された顧客CSの感情に基づいて、顧客CSによるオペレータOP(第2話者)の評価を推定する。
本実施形態に係る情報処理システム1のサーバ5によれば、音声データから顧客CSの感情を解析し、この解析された顧客CSの感情に基づいて、顧客CSによるオペレータOPの評価を推定するので、感情を考慮してさらに精度よく顧客CSによるオペレータOPの評価を行うことができる。
本実施形態に係る情報処理システム1の送信部502(出力部)は、評価抽出部510で抽出された評価に関連付けられた音声データの会話を行った顧客CS(第1話者)に対して、会話を行ったオペレータOP(第2話者)の評価を求めるアンケート情報を送信(出力)する。
本実施形態に係る情報処理システム1のサーバ5によれば、所定条件(評価の値が第1所定値未満である、評価の値が第2所定値を超える、などの条件((第1所定値と第2所定値とは、同じ値であってもよく、異なる値であってもよい)))を満たす評価に関連付けられた音声データの会話を行った顧客CSに対して、会話を行ったオペレータOPの評価を求めるアンケート情報を送信するので、顧客CSからフィードバックを受けて推定部509の推定精度を高めることができる。また、評価が高い又は低いと推定された顧客に対するフォローを行うことにもなるため、顧客CSの満足度向上や不満低減の効果が期待できる。
[実施形態の変形例1]
上記実施形態では、推定部509は、音響指標抽出部508が音声データから抽出した顧客CSの音響指標及び感情解析部507で解析された顧客CSの感情と、評価推定用DBに格納された評価推定用モデルとに基づいて、顧客CSによるオペレータOPの評価を推定している。しかしながら、推定部509での推定に、顧客CSの音響指標及び感情に加え、オペレータOPの音響指標及び感情を加えるようにしてもよい。
具体的には、音響指標抽出部508により顧客CS及びオペレータOPの音声データから抽出された音響指標及び感情解析部507で解析された顧客CS及びオペレータOPの感情と、アンケートにより得られた顧客CSの評価との相関関係を学習した評価推定用モデルを評価推定用DBに格納し、音響指標抽出部508が顧客CS及びオペレータOPの音声データから音響指標を抽出し、感情解析部507が顧客CS及びオペレータOPの感情を解析する。
そして、推定部509は、音響指標抽出部508が、顧客CS及びオペレータOPの音声データから抽出した音響指標と、感情解析部507で解析された顧客CS及びオペレータOPの感情と、評価推定用DBに格納された評価推定用モデル(音響指標抽出部508により顧客CS及びオペレータOPの音声データから抽出された音響指標及び感情解析部507で解析された顧客CS及びオペレータOPの感情と、アンケートにより得られた顧客CSの評価との相関関係)とに基づいて、顧客CSによるオペレータOPの評価を推定するようにしてもよい。
[実施形態の変形例2]
上記実施形態では、音響特徴抽出部506は、音声データ取得部504で取得された終点検出部505(検出部)で検出された会話の終了時から所定期間又は所定回数の発話を含む音声データから顧客CSの音響特徴を抽出しているが、顧客CSとオペレータOPの会話全てを記憶した音声データから顧客CSの音響特徴を抽出するようにしてもよい。顧客CSの感情をより正確に推定できることが期待できる。
[実施形態の変形例3]
上記実施形態では、評価推定用DB4に、音響指標抽出部508により顧客CSとオペレータOPとの会話の音声データから抽出された音響指標及び感情解析部507で解析された顧客CSの感情と、アンケートにより得られた顧客CSの評価との相関関係を学習した評価推定用モデルが格納されているが、学習モデルを、顧客CSの属性(例えば、性別、職業など)ごとに評価推定用DB4に格納するようにしてもよい。この場合、推定部509は、顧客CSの属性を顧客DB1から取得し、この取得した顧客CSの属性に応じた学習モデルに基づいて、顧客CSによるオペレータOPの評価を推定する。推定部509による評価の推定の精度向上が期待できる。
[実施形態の変形例4]
また、上記実施形態及び変形例1〜3では、評価推定用DB4に、音響指標抽出部508により顧客CSとオペレータOPとの会話の音声データから抽出された音響指標及び感情解析部507で解析された顧客CSの感情と、アンケートにより得られた顧客CSの評価との相関関係とを学習した評価推定用モデルが格納されているが、送信部502により送信されたアンケート情報に対する顧客CSの返信内容を取得し、該返信内容に基づいて、評価推定用DB4に格納された学習モデルを更新する更新部を備えるようにしてもよい。
[実施形態の変形例5]
また、上記実施形態及び変形例1〜4では、オペレータOPが通話端末2Bから顧客CSの通話端末2Aへ架電する形態となっているが、サーバ5及び/又はOP端末3から顧客CSの通話端末2Aへ架電する構成を除外するものではなく、サーバ5及び/又はOP端末3から顧客CSの通話端末2Aへ架電可能な構成としてもよい。
[実施形態の変形例6]
また、上記実施形態及び変形例1〜5では、図1に示すように、情報処理システム1は、PBX装置6がネットワーク8を介して、オペレータOPの通話端末2Bと接続し通話をする構成を有し、ネットワーク8には、OP端末3、SV端末4及びサーバ5(情報処理装置)が通信可能に接続されているが、以下のように構成されていてもよい。
(1)PBX装置6が公衆網7に接続され、ネットワーク8がPBX装置6を介さずに公衆網7に接続されており、ネットワーク8に通話端末2B、サーバ5(情報処理装置)、OP端末3及びSV端末4が通信可能に接続された構成。
(2)PBX装置6及びサーバ5(情報処理装置)が公衆網7に接続され、ネットワーク8がPBX装置6を介さずに公衆網7に接続されており、ネットワーク8に通話端末2B、OP端末3及びSV端末4が通信可能に接続された構成。
[実施形態の変形例7]
なお、サーバ5の感情解析部507は、顧客CS及びオペレータOPの発話内容を考慮して両話者各々の感情を解析するようにしてもよい。このように、発話内容を考慮して感情を解析することで、精度よく顧客CSによるオペレータOPの評価を推定することができる。
[実施形態の変形例8]
また、上記実施形態及び変形例1〜7では、音声データ取得部504は、通話端末2A及び通話端末2Bから送信される顧客CS及びオペレータOPの音声データを取得しているが、この音声データから顧客CS及びオペレータOPの音声以外の音データ、例えば、オペレータOP以外の音声等による音声案内や通話を切断する際の音など(以下、ノイズともいう)を除去するノイズ除去部をサーバ2に備えるようにしてもよい。この場合、ノイズ除去部でノイズを除去した音声データを音声データ取得部504が取得してもよいし、音声データ取得部504が取得した音声データからノイズ除去部がノイズを除去するようにしてもよい。
なお、音声データからノイズを除去することで、推定部509による、顧客CSによるオペレータOPの評価の推定精度が向上することが期待できる。例えば、音声データを取得する際に、より短い所定期間や、より少ない発話回数としても精度よく顧客CSによるオペレータOPの評価を推定できることが期待できる。また、音声データからノイズを除去する手法については種々の手法を適用することができる。例えば、人間の音声の波長域以外の音をフィルター等で除去してもよいし、所定の波形を人間の音声以外の音として除去してもよい。また、逆に、所定の波形を人間の音声であるとして、それ以外の波形の音を除去してもよい。また、決まった音声(例えば、合成音による案内用の音声)が含まれる場合には、これを除去するようにしてもよい。なお、これらに限られず、種々のノイズ除去の技術を適用することができることは上述の通りである。
以上のように、本発明は、人の評価を推定できるので、コールセンタ他、種々の産業で利用できる。
1 情報処理システム
2A 通話端末(顧客用)
2B 通話端末(オペレータ用)
3 オペレータ用端末(OP端末)
300A 通信IF
300B 記憶装置
300C 入力装置
300D 表示装置
300E CPU
301 受信部
302 記憶装置制御部
303 入力受付部
304 表示装置制御部
305 送信部
4 スーパーバイザー用端末(SV端末)
400A 通信IF
400B 記憶装置
400C 入力装置
400D 表示装置
400E CPU
401 受信部
402 記憶装置制御部
403 入力受付部
404 表示装置制御部
405 送信部
5 サーバ(情報処理装置)
500A 通信IF
500B 記憶装置
500C CPU
501 受信部
502 送信部(出力部)
503 記憶装置制御部
504 音声データ取得部
505 終点検出部(検出部)
506 音響特徴抽出部
507 感情解析部
508 音響指標抽出部
509 推定部
510 評価抽出部
6 PBX装置
7 公衆網
8 ネットワーク
DB1 顧客データベース
DB2 感情解析用データベース
DB3 音声データデータベース
DB4 評価推定用データベース
CS 顧客
OP オペレータ
SV スーパーバイザー

Claims (11)

  1. 第1話者及び第2話者の会話の音声データから前記会話の終了時を検出する検出部と、
    前記検出部で検出された前記会話の終了時以前の所定期間又は所定回数の発話を含む前記音声データを取得する音声データ取得部と、
    前記音声データ取得部で取得された前記音声データを解析し、前記第1話者による前記第2話者の評価を推定する推定部と、
    を備えることを特徴とする情報処理装置。
  2. 前記推定部で推定された前記第2話者の評価のうち所定条件を満たす前記第2話者の評価を抽出する評価抽出部と、
    前記評価抽出部で抽出された前記第2話者の評価を出力する出力部と、
    を備えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記推定部は、
    (1)前記第1話者の話す速度
    (2)前記第1話者の声のピッチ
    (3)前記第1話者の音量
    の少なくとも1以上に基づいて、前記第1話者による前記第2話者の評価を推定する、
    ことを特徴とする請求項1又は請求項2に記載の情報処理装置。
  4. 前記音声データから前記第1話者の感情を解析する感情解析部を備え、
    前記推定部は、
    前記感情解析部で解析された前記第1話者の感情に基づいて、前記第1話者による前記第2話者の評価を推定する、
    ことを特徴とする請求項1乃至請求項3のいずれかに記載の情報処理装置。
  5. 前記出力部は、
    前記評価抽出部で抽出された評価に関連付けられた音声データの会話を行った前記第1話者に対して、前記第2話者の評価を求めるアンケート情報を出力する、
    ことを特徴とする請求項2に記載の情報処理装置。
  6. 前記所定期間は、19秒以内である
    ことを特徴とする請求項1乃至請求項5のいずれかに記載の情報処理装置。
  7. 前記所定期間は、1〜3秒以内である
    ことを特徴とする請求項6のいずれかに記載の情報処理装置。
  8. 前記所定回数は、9以内である
    ことを特徴とする請求項1乃至請求項5のいずれかに記載の情報処理装置。
  9. 前記所定回数は、1〜3以内である
    ことを特徴とする請求項8のいずれかに記載の情報処理装置。
  10. 検出部が、第1話者及び第2話者の会話の音声データから前記会話の終了時を検出する工程と、
    音声データ取得部が、前記検出部で検出された前記会話の終了時以前の所定期間又は所定回数の発話を含む前記音声データを取得する工程と、
    推定部が、前記音声データ取得部で取得された前記音声データを解析し、前記第1話者による前記第2話者の評価を推定する工程と、
    を有することを特徴とする情報処理方法。
  11. コンピュータを、
    第1話者及び第2話者の会話の音声データから前記会話の終了時を検出する検出部、
    前記検出部で検出された前記会話の終了時以前の所定期間又は所定回数の発話を含む前記音声データを取得する音声データ取得部、
    前記音声データ取得部で取得された前記音声データを解析し、前記第1話者による前記第2話者の評価を推定する推定部、
    として機能させることを特徴とする情報処理プログラム。

JP2020187007A 2019-11-12 2020-11-10 情報処理装置、情報処理方法及び情報処理プログラム Pending JP2021076845A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019204970 2019-11-12
JP2019204970 2019-11-12

Publications (1)

Publication Number Publication Date
JP2021076845A true JP2021076845A (ja) 2021-05-20

Family

ID=75898011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020187007A Pending JP2021076845A (ja) 2019-11-12 2020-11-10 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP2021076845A (ja)

Similar Documents

Publication Publication Date Title
US10194029B2 (en) System and methods for analyzing online forum language
CN107818798B (zh) 客服服务质量评价方法、装置、设备及存储介质
US10044864B2 (en) Computer-implemented system and method for assigning call agents to callers
US9571638B1 (en) Segment-based queueing for audio captioning
JP6604836B2 (ja) 対話テキスト要約装置及び方法
JP4662861B2 (ja) モニタリング装置、評価データ選別装置、応対者評価装置、応対者評価システムおよびプログラム
US9711167B2 (en) System and method for real-time speaker segmentation of audio interactions
JP5042194B2 (ja) 話者テンプレートを更新する装置及び方法
KR101795593B1 (ko) 전화상담원 보호 장치 및 그 방법
CN110705309B (zh) 服务质量评测方法及系统
JP6664757B1 (ja) 営業支援装置、営業支援方法、営業支援プログラム
KR20190053982A (ko) 고객 응대용 감정 분석 장치
JP2015094811A (ja) 通話録音可視化システムおよび通話録音可視化方法
US11463587B1 (en) Predictive mapping for routing telephone calls
JP6647722B1 (ja) 情報処理装置、情報処理方法、情報処理プログラム
US11743384B2 (en) Real-time agent assistance using real-time automatic speech recognition and behavioral metrics
JP2010002973A (ja) 音声データ主題推定装置およびこれを用いたコールセンタ
JP2021076845A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
CN112565242B (zh) 基于声纹识别的远程授权方法、系统、设备及存储介质
CN115118820A (zh) 一种通话处理方法、装置、计算机设备及存储介质
EP3641286B1 (en) Call recording system for automatically storing a call candidate and call recording method
WO2014069443A1 (ja) 不満通話判定装置及び不満通話判定方法
JP7262362B2 (ja) 判定装置、判定方法及びプログラム
CN115689131A (zh) 一种确定意向客户的方法、装置及计算机存储介质

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231027