JP2021076845A - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法及び情報処理プログラム Download PDFInfo
- Publication number
- JP2021076845A JP2021076845A JP2020187007A JP2020187007A JP2021076845A JP 2021076845 A JP2021076845 A JP 2021076845A JP 2020187007 A JP2020187007 A JP 2020187007A JP 2020187007 A JP2020187007 A JP 2020187007A JP 2021076845 A JP2021076845 A JP 2021076845A
- Authority
- JP
- Japan
- Prior art keywords
- voice data
- evaluation
- unit
- speaker
- customer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 73
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 238000011156 evaluation Methods 0.000 claims abstract description 162
- 238000001514 detection method Methods 0.000 claims abstract description 33
- 230000008451 emotion Effects 0.000 claims description 103
- 238000000605 extraction Methods 0.000 claims description 61
- 238000004458 analytical method Methods 0.000 claims description 58
- 238000000034 method Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 23
- 239000000284 extract Substances 0.000 claims description 14
- 238000012545 processing Methods 0.000 description 31
- 230000005540 biological transmission Effects 0.000 description 14
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 208000019901 Anxiety disease Diseases 0.000 description 5
- 230000036506 anxiety Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Abstract
Description
(情報処理システム1の構成)
図1に示すように、実施形態の情報処理システム1は、顧客CS(第1話者)の通話端末2Aから公衆網7を介して接続されるIP−PBX(Internet Protocol−Private Branch eXchange、IP回線対応構内交換機)装置6(以下、PBX装置6ともいう)がネットワーク8を介して、オペレータOP(第2話者)の通話端末2Bと接続し通話をする構成を有する。また、ネットワーク8には、オペレータ用端末3(以下、OP端末3ともいう)、スーパーバイザー用端末4(以下、SV端末4ともいう)及びサーバ5(情報処理装置)が通信可能に接続されている。なお、情報処理システム1が具備する通話端末2A,2B、OP端末3、SV端末4、サーバ5及びPBX装置6の数は任意である。
OP端末3は、オペレータOPが利用する端末であり、例えば、デスクトップ型PCやノート型PCなどである。図2(a)に示すように、OP端末3は、通信IF300A、記憶装置300B、入力装置300C、表示装置300D及びCPU300Eを備える。
図2(b)に示すように、OP端末3は、受信部301、記憶装置制御部302、入力受付部303、表示装置制御部304及び送信部305などの機能を有する。
SV端末4は、オペレータOPの管理者であるスーパーバイザーSVが利用する端末であり、携帯可能なタブレット型PCなどであることが好ましい。SV端末4を携帯可能なタブレット型PCとすることにより、スーパーバイザーSVは、SV端末4を持ち歩いてコールセンタ内を巡回することができ利便性に優れる。なお、SV端末4は、携帯可能であれば、タブレット型PC以外のデバイスであってもよい。
図3(b)に示すように、SV端末4は、受信部401、記憶装置制御部402、入力受付部403、表示装置制御部404及び送信部405などの機能を有する。
図4(a)に示すように、サーバ5は、通信IF500A、記憶装置500B、CPU500Cを備える。
図5は、サーバ5の記憶装置500Bに格納されるデータベースの一例を示す図である。記憶装置500Bには、顧客DB1〜評価推定用DB4、アンケート用のフォーマットデータ(以下、単にアンケート情報という)、情報処理プログラムなどが格納されている。以下、各DBに記憶されている情報について説明する。なお、本実施形態では、記憶装置500Bに顧客DB1〜評価推定用DB4が格納された構成となっているが、必ずしもDB構造として記憶装置500Bに格納されている必要はない。
顧客DB1には、顧客CSごとに属性情報が顧客IDに関連付けて格納されている。属性情報は、例えば、氏名、性別、年齢、住所、職業、連絡先(電話番号、メールアドレス、SNSのアカウントの情報など)などであるが、これに限られず、顧客CSの属性を表す情報であれば顧客IDに関連付けて顧客DB1に格納するようにしてもよい。
感情解析用DB2には、感情を解析するための情報が格納されている。具体的には、感情解析用DB2には、感情(本実施形態では、「不安」「緊張」「恐怖」)ごとの音響特性(声の高低(音声の周波数)、話す速さ、声の大小(音声の振幅)、抑揚などの特性)を学習したモデルが格納されている。なお、上記「不安」「緊張」「恐怖」だけに限られず、「平常」「喜び」「怒り」「哀しみ」「楽しみ」などの感情を加えても良いし、さらに細分化したモデルを感情解析用DB2に格納するようにしてもよい。細かな感情の機微にも対応することができ、より精度の高い解析を行うことができる。このように感情ごとの音響特性を学習したモデルを感情解析用DB2に格納することにより、感情解析用DB2を参照することで、顧客CSがどのような感情であるかを解析することができる。
音声データDB3には、音声データ取得部504により取得された顧客CSとオペレータOPとの会話の音声データが1通話ごとにIDに関連付けて格納されている。また、各音声データには、会話したオペレータOPのIDと顧客CSのID、会話開始日時、会話終了日時、会話時間、推定部509で推定された評価などの情報が関連付けられて、音声データDB3に格納されている。なお、本実施形態では、音声データには、モノラルデータ、ステレオデータの双方が含まれる。
評価推定用DB4には、音響指標抽出部508により音声データから抽出された顧客CSの音響指標及び感情解析部507で解析された顧客CSの感情と、アンケートにより得られた顧客CSの評価との相関関係を学習したモデル(以下、評価推定用モデルともいう)が格納されている。より具体的には、評価推定用DB4には、オペレータOPと会話した顧客CSから無作為に複数の顧客(全体の1.1%、3051人)を抽出し、オペレータを評価するアンケート調査を行い、音響指標抽出部508により抽出された音響指標及び感情解析部507で解析された感情と、アンケート調査の結果との相関関係を学習させた評価推定用モデルが格納されている。
(1−1)顧客CSの話す速度
(1−2)顧客CSの声のピッチ(フォルマント)
(1−3)顧客CSの音量
(2−1)不安
(2−2)緊張
(2−3)恐怖
また、記憶装置500Bには、後述する評価抽出部510により抽出された評価に関連付けられた顧客へ通知するためのアンケート情報が格納されている。ここで、アンケート情報には、「問題は解決しましたか?」、「オペレータの対応はいかがでしたか?」、「そのほかご意見がありましらご記入ください。」などの質問が含まれる。アンケート情報は、実際に会話を行ったオペレータOPに対する満足度や不満度のフィードバックを受けるため顧客CSへ通知される。なお、ここで記述したアンケート情報の内容はあくまで一例であり、どのようなアンケート内容とするかは任意である。
図4(b)に示すように、サーバ5は、受信部501、送信部502(出力部)、記憶装置制御部503、音声データ取得部504、終点検出部505(検出部)、音響特徴抽出部506、感情解析部507、音響指標抽出部508、推定部509、評価抽出部510などの機能を有する。
(1−1)顧客CSの話す速度
(1−2)顧客CSの声のピッチ
(1−3)顧客CSの音量
図6から図10は、情報処理システム1による処理の一例を示すフローチャートである。以下、図6から図10を参照して、情報処理システム1による処理について説明する。
図6は、情報処理システム1によるメイン処理の一例を示すフローチャートである。以下、図6を参照して情報処理システム1のメイン処理について説明する。
サーバ5は、音声データ取得処理を実行する。この音声データ取得処理では、音声データ取得部504は、通話端末2A及び通話端末2Bから送信される顧客CS及びオペレータOPの音声データを取得する。なお、音声データ取得処理の詳細は、図7を参照して後述する。
サーバ5は、音響特徴抽出処理を実行する。具体的には、サーバ5の音響特徴抽出部506は、ステップS101で取得された音声データから顧客CSの音響特徴を抽出する。
サーバ5は、感情解析処理を実行する。なお、感情解析処理の詳細は、図8を参照して後述する。
サーバ5は、音響指標抽出処理を実行する。具体的には、サーバ5の音響指標抽出部508は、ステップS101で取得された音声データから以下(1−1)から(1−3)の音響指標を抽出する。
(1−1)顧客CSの話す速度
(1−2)顧客CSの声のピッチ
(1−3)顧客CSの音量
サーバ5は、評価推定処理を実行する。なお、評価推定処理の詳細は図9を参照して後述する。
サーバ5は、評価出力処理を実行する。具体的には、サーバ5の送信部502(出力部)は、推定部509で推定された評価結果をOP端末3及びSV端末4の少なくとも一方へ送信(出力)する。より具体的には、送信部502は、推定部509で推定された評価結果を、評価結果の対象である会話を行ったオペレータOPのオペレータ用端末3及び該オペレータOPを担当するスーパーバイザーSVのSV端末4の少なくとも一方へ送信(出力)する。
サーバ5は、フィードバック処理を実行する。なお、フィードバック処理の詳細は図10を参照して後述する。
図7は、情報処理システム1による音声データ取得処理の一例を示すフローチャートである。以下、図7を参照して情報処理システム1の音声データ取得処理について説明する。
サーバ5の音声データ取得部504は、顧客CSとオペレータOPとの会話が開始されたか否かを判定する。通話が開始されたと判定した場合(YES)、音声データ取得部504は、ステップS202の処理を実行する。また、通話が開始されていないと判定した場合(NO)、音声データ取得部504は、音声データ取得処理を終了する。
サーバ5の音声データ取得部504は、顧客CSとオペレータOPとの会話の音声データの取得を開始する。また、記憶装置制御部503は、音声データ取得部504が取得する音声データを音声データDB3に随時格納する。
サーバ5の終点検出部505は、顧客CS及びオペレータOPの会話の音声データから会話の終了時を検出する。終点検出部505が会話の終了時を検出するまで、記憶装置制御部503は、会話の音声データを音声データDB3に随時格納する。なお、顧客CS及びオペレータOPの会話の終了時を検出することができればよく、その手法は任意である。
サーバ5の音声データ取得部504は、顧客CSとオペレータOPとの会話の音声データの取得を終了する。また、音声データ取得部504は、取得した顧客CSとオペレータOPとの会話の音声データにIDを付与する(関連付ける)とともに、オペレータOPのIDと顧客CSのID、会話開始日時、会話終了日時、会話時間などの情報を関連付けて音声データDB3に格納するよう指示する。記憶装置制御部503は、音声データに、ID、オペレータOPのIDと顧客CSのID、会話開始日時、会話終了日時、会話時間などの情報を関連付けて音声データDB3に格納する。
サーバ5の音声データ取得部504は、推定部509での評価の推定に必要となる所定期間の音声データ以外の期間の音声データを削除する。これにより、音声データを格納する容量を削減することができる。また、音声データの解析の負荷(例えば、音響特徴抽出部506、感情解析部507、推定部509、音響指標抽出部508などでの処理に必要となる負荷)を低減することができ、推定部509での評価の推定までに必要な時間を短縮することができる。なお、推定部509での評価の推定に必要となる所定期間の音声データ以外の期間の音声データを削除せずに、取得した全ての音声データを音声データDB3に格納したままにしておいてもよい。
図8は、情報処理システム1による感情解析処理の一例を示すフローチャートである。以下、図8を参照して情報処理システム1による感情解析処理について説明する。
感情解析部507は、感情解析用DB2に格納されている学習済みのモデルのうち、第1モデル(例えば、「不安」の学習モデル)の音響特性を読み込む。
感情解析部507は、音響特徴抽出部506で抽出された顧客CSの音響特徴を、それぞれ、読み込んだ第1モデルの音響特性と比較して類似度を算出する。なお、類似度は、種々の既知の手法を利用して算出することができる。例えば、ユークリッド距離、ピアソンの積率相関係数、Jaccard係数などを利用して、音響特徴抽出部506で抽出された顧客CS及びオペレータOPの音響特徴と、第1モデルの音響特性との類似度を算出することができる。
感情解析部507は、感情解析用DB2に格納されている学習済みのモデルのうち、第2モデル(例えば、「緊張」の学習モデル)の音響特性を読み込む。
感情解析部507は、音響特徴抽出部506で抽出された顧客CSの音響特徴を、それぞれ、読み込んだ第2モデルの音響特性と比較して類似度を算出する。なお、類似度の算出については、ステップS302と同じ手法を利用することができる。
感情解析部507は、感情解析用DB2に格納されている学習済みのモデルのうち、第3モデル(例えば、「恐怖」の学習モデル)の音響特性を読み込む。
感情解析部507は、音響特徴抽出部506で抽出された顧客CSの音響特徴を、それぞれ、読み込んだ第3モデルの音響特性と比較して類似度を算出する。なお、類似度の算出については、ステップS302と同じ手法を利用することができる。
感情解析部507は、第1〜第3モデルと比較した類似度にそれぞれ重みづけなどを行い、類似度を調整する。
感情解析部507は、調整された各第1〜第3モデルとの類似度に基づいて、顧客CSの感情を推定する。より具体的には、感情解析部507は、顧客CSの音響特徴が、第1から第3のどのモデルにどれだけ近いかにより、顧客CSの感情をそれぞれ推定する。なお、顧客CSの音響特徴が、第1から第3のどのモデルにどれだけ近いかの算出は、ステップS302と同じ手法を利用することができる。
図9は、情報処理システム1による評価推定処理の一例を示すフローチャートである。以下、図9を参照して情報処理システム1の評価推定処理について説明する。
サーバ5の推定部509は、音響指標抽出部508が音声データから抽出した顧客CSの音響指標を取得する。
サーバ5の推定部509は、感情解析部507が音声データから解析した顧客CSの感情を取得する。
サーバ5の推定部509は、評価推定用DB4を参照する。
サーバ5の推定部509は、ステップS401で取得した音響指標及びステップS402で取得した顧客CSの感情と、評価推定用DB4に格納されている顧客CSの評価との相関関係を学習した評価推定用モデル(音響指標抽出部508により音声データから抽出された顧客CSの音響指標及び感情解析部507で解析された顧客CSの感情と、アンケートにより得られた顧客CSの評価との相関関係)に基づいて、顧客CSによるオペレータOPの評価を推定する。
図10は、情報処理システム1によるフィードバック処理の一例を示すフローチャートである。以下、図10を参照して情報処理システム1のフィードバック処理について説明する。
サーバ5の評価抽出部510は、推定部509で推定された評価を取得する。
サーバ5の評価抽出部510は、取得した評価の値が第1所定値未満であるか否かを判定する。取得した評価の値が第1所定値未満であると判定した場合(YES)、評価抽出部510は、ステップS504の処理を実行する。取得した評価の値が第1所定値未満でないと判定した場合(NO)、評価抽出部510は、ステップS503の処理を実行する。
サーバ5の評価抽出部510は、取得した評価の値が第2所定値を超えるか否かを判定する。取得した評価の値が第2所定値を超えると判定した場合(YES)、評価抽出部510は、ステップS504の処理を実行する。取得した評価の値が第2所定値を超えないと判定した場合(NO)、評価抽出部510は、フィードバック処理を終了する。
送信部502は、評価抽出部510は、評価が所定条件を満たす場合、換言するとステップS502で第1所定値未満であり、かつ、ステップS503で第2所定値を超える場合、該評価を抽出する。また、評価抽出部510は、ステップS502で第1所定値未満であり、かつ、ステップS503で第2所定値を超える評価及び該評価に関連付けられた顧客CSとオペレータOPのIDを抽出する。
送信部502は、評価抽出部510で抽出された評価と、該評価に関連付けられたオペレータOPと会話した顧客CSの情報を、該顧客CSと会話したオペレータのOP端末3及び該オペレータOPを担当するスーパーバイザーSVのSV端末4へ送信(出力)する。
送信部502は、評価抽出部510で抽出された評価に関連付けられた顧客CSの連絡先(例えば、電子メールやSNSのアカウント)へアンケート情報を送信(出力)する。
また、会話の終了時以前の所定回数の発話を含む音声データを取得する場合、発話数は、6〜9個以内とすることが好ましく、数個程度(1〜3個程度)であることがより好ましいことがわかった。
本実施形態に係る情報処理システム1のサーバ5によれば、オペレータと顧客との会話を全て解析する必要がなく、音声データの解析の負荷(例えば、音響特徴抽出部506、感情解析部507、推定部509、音響指標抽出部508などでの処理に必要となる負荷)を低減することができ、推定部509での評価の推定までに必要な時間を短縮することができる。このように、より効果的に話者の評価を推定できる。
本実施形態に係る情報処理システム1のサーバ5によれば、推定部509で推定されたオペレータOPの評価のうち所定条件を満たすオペレータOPの評価を抽出し、この抽出されたオペレータOPの評価を送信するので、自動的に評価が通知され利便性が向上する。
(1−1)顧客CS(第1話者)の話す速度
(1−2)顧客CSの声のピッチ
(1−3)顧客CSの音量
の少なくとも1以上に基づいて、顧客CSによるオペレータOPの評価を推定する。
本実施形態に係る情報処理システム1のサーバ5によれば、上記(1−1)〜(1−3)の少なくとも1以上に基づいて、顧客CSによるオペレータOPの評価を推定するので、精度よく顧客CSによるオペレータOPの評価を行うことができる。
本実施形態に係る情報処理システム1のサーバ5によれば、音声データから顧客CSの感情を解析し、この解析された顧客CSの感情に基づいて、顧客CSによるオペレータOPの評価を推定するので、感情を考慮してさらに精度よく顧客CSによるオペレータOPの評価を行うことができる。
本実施形態に係る情報処理システム1のサーバ5によれば、所定条件(評価の値が第1所定値未満である、評価の値が第2所定値を超える、などの条件((第1所定値と第2所定値とは、同じ値であってもよく、異なる値であってもよい)))を満たす評価に関連付けられた音声データの会話を行った顧客CSに対して、会話を行ったオペレータOPの評価を求めるアンケート情報を送信するので、顧客CSからフィードバックを受けて推定部509の推定精度を高めることができる。また、評価が高い又は低いと推定された顧客に対するフォローを行うことにもなるため、顧客CSの満足度向上や不満低減の効果が期待できる。
上記実施形態では、推定部509は、音響指標抽出部508が音声データから抽出した顧客CSの音響指標及び感情解析部507で解析された顧客CSの感情と、評価推定用DBに格納された評価推定用モデルとに基づいて、顧客CSによるオペレータOPの評価を推定している。しかしながら、推定部509での推定に、顧客CSの音響指標及び感情に加え、オペレータOPの音響指標及び感情を加えるようにしてもよい。
上記実施形態では、音響特徴抽出部506は、音声データ取得部504で取得された終点検出部505(検出部)で検出された会話の終了時から所定期間又は所定回数の発話を含む音声データから顧客CSの音響特徴を抽出しているが、顧客CSとオペレータOPの会話全てを記憶した音声データから顧客CSの音響特徴を抽出するようにしてもよい。顧客CSの感情をより正確に推定できることが期待できる。
上記実施形態では、評価推定用DB4に、音響指標抽出部508により顧客CSとオペレータOPとの会話の音声データから抽出された音響指標及び感情解析部507で解析された顧客CSの感情と、アンケートにより得られた顧客CSの評価との相関関係を学習した評価推定用モデルが格納されているが、学習モデルを、顧客CSの属性(例えば、性別、職業など)ごとに評価推定用DB4に格納するようにしてもよい。この場合、推定部509は、顧客CSの属性を顧客DB1から取得し、この取得した顧客CSの属性に応じた学習モデルに基づいて、顧客CSによるオペレータOPの評価を推定する。推定部509による評価の推定の精度向上が期待できる。
また、上記実施形態及び変形例1〜3では、評価推定用DB4に、音響指標抽出部508により顧客CSとオペレータOPとの会話の音声データから抽出された音響指標及び感情解析部507で解析された顧客CSの感情と、アンケートにより得られた顧客CSの評価との相関関係とを学習した評価推定用モデルが格納されているが、送信部502により送信されたアンケート情報に対する顧客CSの返信内容を取得し、該返信内容に基づいて、評価推定用DB4に格納された学習モデルを更新する更新部を備えるようにしてもよい。
また、上記実施形態及び変形例1〜4では、オペレータOPが通話端末2Bから顧客CSの通話端末2Aへ架電する形態となっているが、サーバ5及び/又はOP端末3から顧客CSの通話端末2Aへ架電する構成を除外するものではなく、サーバ5及び/又はOP端末3から顧客CSの通話端末2Aへ架電可能な構成としてもよい。
また、上記実施形態及び変形例1〜5では、図1に示すように、情報処理システム1は、PBX装置6がネットワーク8を介して、オペレータOPの通話端末2Bと接続し通話をする構成を有し、ネットワーク8には、OP端末3、SV端末4及びサーバ5(情報処理装置)が通信可能に接続されているが、以下のように構成されていてもよい。
(1)PBX装置6が公衆網7に接続され、ネットワーク8がPBX装置6を介さずに公衆網7に接続されており、ネットワーク8に通話端末2B、サーバ5(情報処理装置)、OP端末3及びSV端末4が通信可能に接続された構成。
(2)PBX装置6及びサーバ5(情報処理装置)が公衆網7に接続され、ネットワーク8がPBX装置6を介さずに公衆網7に接続されており、ネットワーク8に通話端末2B、OP端末3及びSV端末4が通信可能に接続された構成。
なお、サーバ5の感情解析部507は、顧客CS及びオペレータOPの発話内容を考慮して両話者各々の感情を解析するようにしてもよい。このように、発話内容を考慮して感情を解析することで、精度よく顧客CSによるオペレータOPの評価を推定することができる。
また、上記実施形態及び変形例1〜7では、音声データ取得部504は、通話端末2A及び通話端末2Bから送信される顧客CS及びオペレータOPの音声データを取得しているが、この音声データから顧客CS及びオペレータOPの音声以外の音データ、例えば、オペレータOP以外の音声等による音声案内や通話を切断する際の音など(以下、ノイズともいう)を除去するノイズ除去部をサーバ2に備えるようにしてもよい。この場合、ノイズ除去部でノイズを除去した音声データを音声データ取得部504が取得してもよいし、音声データ取得部504が取得した音声データからノイズ除去部がノイズを除去するようにしてもよい。
2A 通話端末(顧客用)
2B 通話端末(オペレータ用)
3 オペレータ用端末(OP端末)
300A 通信IF
300B 記憶装置
300C 入力装置
300D 表示装置
300E CPU
301 受信部
302 記憶装置制御部
303 入力受付部
304 表示装置制御部
305 送信部
4 スーパーバイザー用端末(SV端末)
400A 通信IF
400B 記憶装置
400C 入力装置
400D 表示装置
400E CPU
401 受信部
402 記憶装置制御部
403 入力受付部
404 表示装置制御部
405 送信部
5 サーバ(情報処理装置)
500A 通信IF
500B 記憶装置
500C CPU
501 受信部
502 送信部(出力部)
503 記憶装置制御部
504 音声データ取得部
505 終点検出部(検出部)
506 音響特徴抽出部
507 感情解析部
508 音響指標抽出部
509 推定部
510 評価抽出部
6 PBX装置
7 公衆網
8 ネットワーク
DB1 顧客データベース
DB2 感情解析用データベース
DB3 音声データデータベース
DB4 評価推定用データベース
CS 顧客
OP オペレータ
SV スーパーバイザー
Claims (11)
- 第1話者及び第2話者の会話の音声データから前記会話の終了時を検出する検出部と、
前記検出部で検出された前記会話の終了時以前の所定期間又は所定回数の発話を含む前記音声データを取得する音声データ取得部と、
前記音声データ取得部で取得された前記音声データを解析し、前記第1話者による前記第2話者の評価を推定する推定部と、
を備えることを特徴とする情報処理装置。 - 前記推定部で推定された前記第2話者の評価のうち所定条件を満たす前記第2話者の評価を抽出する評価抽出部と、
前記評価抽出部で抽出された前記第2話者の評価を出力する出力部と、
を備えることを特徴とする請求項1に記載の情報処理装置。 - 前記推定部は、
(1)前記第1話者の話す速度
(2)前記第1話者の声のピッチ
(3)前記第1話者の音量
の少なくとも1以上に基づいて、前記第1話者による前記第2話者の評価を推定する、
ことを特徴とする請求項1又は請求項2に記載の情報処理装置。 - 前記音声データから前記第1話者の感情を解析する感情解析部を備え、
前記推定部は、
前記感情解析部で解析された前記第1話者の感情に基づいて、前記第1話者による前記第2話者の評価を推定する、
ことを特徴とする請求項1乃至請求項3のいずれかに記載の情報処理装置。 - 前記出力部は、
前記評価抽出部で抽出された評価に関連付けられた音声データの会話を行った前記第1話者に対して、前記第2話者の評価を求めるアンケート情報を出力する、
ことを特徴とする請求項2に記載の情報処理装置。 - 前記所定期間は、19秒以内である
ことを特徴とする請求項1乃至請求項5のいずれかに記載の情報処理装置。 - 前記所定期間は、1〜3秒以内である
ことを特徴とする請求項6のいずれかに記載の情報処理装置。 - 前記所定回数は、9以内である
ことを特徴とする請求項1乃至請求項5のいずれかに記載の情報処理装置。 - 前記所定回数は、1〜3以内である
ことを特徴とする請求項8のいずれかに記載の情報処理装置。 - 検出部が、第1話者及び第2話者の会話の音声データから前記会話の終了時を検出する工程と、
音声データ取得部が、前記検出部で検出された前記会話の終了時以前の所定期間又は所定回数の発話を含む前記音声データを取得する工程と、
推定部が、前記音声データ取得部で取得された前記音声データを解析し、前記第1話者による前記第2話者の評価を推定する工程と、
を有することを特徴とする情報処理方法。 - コンピュータを、
第1話者及び第2話者の会話の音声データから前記会話の終了時を検出する検出部、
前記検出部で検出された前記会話の終了時以前の所定期間又は所定回数の発話を含む前記音声データを取得する音声データ取得部、
前記音声データ取得部で取得された前記音声データを解析し、前記第1話者による前記第2話者の評価を推定する推定部、
として機能させることを特徴とする情報処理プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019204970 | 2019-11-12 | ||
JP2019204970 | 2019-11-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021076845A true JP2021076845A (ja) | 2021-05-20 |
Family
ID=75898011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020187007A Pending JP2021076845A (ja) | 2019-11-12 | 2020-11-10 | 情報処理装置、情報処理方法及び情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021076845A (ja) |
-
2020
- 2020-11-10 JP JP2020187007A patent/JP2021076845A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10194029B2 (en) | System and methods for analyzing online forum language | |
CN107818798B (zh) | 客服服务质量评价方法、装置、设备及存储介质 | |
US10044864B2 (en) | Computer-implemented system and method for assigning call agents to callers | |
US9571638B1 (en) | Segment-based queueing for audio captioning | |
JP6604836B2 (ja) | 対話テキスト要約装置及び方法 | |
JP4662861B2 (ja) | モニタリング装置、評価データ選別装置、応対者評価装置、応対者評価システムおよびプログラム | |
US9711167B2 (en) | System and method for real-time speaker segmentation of audio interactions | |
JP5042194B2 (ja) | 話者テンプレートを更新する装置及び方法 | |
KR101795593B1 (ko) | 전화상담원 보호 장치 및 그 방법 | |
CN110705309B (zh) | 服务质量评测方法及系统 | |
JP6664757B1 (ja) | 営業支援装置、営業支援方法、営業支援プログラム | |
KR20190053982A (ko) | 고객 응대용 감정 분석 장치 | |
JP2015094811A (ja) | 通話録音可視化システムおよび通話録音可視化方法 | |
US11463587B1 (en) | Predictive mapping for routing telephone calls | |
JP6647722B1 (ja) | 情報処理装置、情報処理方法、情報処理プログラム | |
US11743384B2 (en) | Real-time agent assistance using real-time automatic speech recognition and behavioral metrics | |
JP2010002973A (ja) | 音声データ主題推定装置およびこれを用いたコールセンタ | |
JP2021076845A (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
CN112565242B (zh) | 基于声纹识别的远程授权方法、系统、设备及存储介质 | |
CN115118820A (zh) | 一种通话处理方法、装置、计算机设备及存储介质 | |
EP3641286B1 (en) | Call recording system for automatically storing a call candidate and call recording method | |
WO2014069443A1 (ja) | 不満通話判定装置及び不満通話判定方法 | |
JP7262362B2 (ja) | 判定装置、判定方法及びプログラム | |
CN115689131A (zh) | 一种确定意向客户的方法、装置及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20230509 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231027 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20231027 |