JP2024036073A - 情報処理装置、及び情報処理方法 - Google Patents
情報処理装置、及び情報処理方法 Download PDFInfo
- Publication number
- JP2024036073A JP2024036073A JP2022140790A JP2022140790A JP2024036073A JP 2024036073 A JP2024036073 A JP 2024036073A JP 2022140790 A JP2022140790 A JP 2022140790A JP 2022140790 A JP2022140790 A JP 2022140790A JP 2024036073 A JP2024036073 A JP 2024036073A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- information processing
- reception
- user
- evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 67
- 238000003672 processing method Methods 0.000 title claims description 4
- 230000008451 emotion Effects 0.000 claims abstract description 207
- 238000011156 evaluation Methods 0.000 claims abstract description 81
- 230000007704 transition Effects 0.000 claims abstract description 75
- 238000004364 calculation method Methods 0.000 claims abstract description 18
- 230000004044 response Effects 0.000 claims description 38
- 238000010801 machine learning Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 18
- 230000002996 emotional effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000008439 repair process Effects 0.000 description 5
- 230000000399 orthopedic effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】顧客の感情の推移に基づいて応対を適切に評価することの可能な情報処理装置を提供する。【解決手段】本発明の一実施形態に係る情報処理装置は、第1ユーザに対する第2ユーザの応対を含む音声データを取得する取得部と、音声データに基づいて、応対の少なくとも2つの異なる時点における第1ユーザの感情の推定値を算出する感情推定部と、推定値に基づいて、第1ユーザの感情の推移を示す指標を算出する感情推移算出部と、指標に基づいて、応対に対する評価を算出する応対評価部と、評価を出力する出力制御部と、を備える。【選択図】図1
Description
本発明は、情報処理装置、及び情報処理方法に関する。
コールセンタにおける通話対応では、顧客の問い合わせに対し、トラブルを生じせることなく回答することが求められる。例えば、特許文献1には、予め学習した感情識別器を用いて、発話内容冗長性特徴量等に基づいて、対話テキストの対話が怒り対話か否かを推定する感情識別部を備える感情推定装置が記載されている。これにより、顧客の怒り感情を推定することが可能となる。
しかしながら、応対の時間の経過に応じて顧客の感情は常に一定であるとは限らない。むしろ、オペレータによる応対が適切か否かなどの要素によって、顧客の感情は変動し得るのが一般的である。そのため、応対中における顧客の感情の推移を把握した上で、これに基づいて応対を評価することが望まれている。
そこで、本発明の一実施形態では、顧客の感情の推移に基づいて応対を適切に評価することの可能な情報処理装置を提供することを目的の一つとする。
本発明の一実施形態に係る情報処理装置は、第1ユーザに対する第2ユーザの応対を含む音声データを取得する取得部と、音声データに基づいて、応対の少なくとも2つの異なる時点における第1ユーザの感情の推定値を算出する感情推定部と、推定値に基づいて、第1ユーザの感情の推移を示す指標を算出する感情推移算出部と、指標に基づいて、応対に対する評価を算出する応対評価部と、評価を出力する出力制御部と、を備える。
本発明の一実施形態によれば、第1ユーザに対する第2ユーザの応対を含む音声データ音声データに基づいて、応対の少なくとも2つの異なる時点における第1ユーザの感情の推定値が算出された上で、当該推定値に基づいて、第1ユーザの感情の推移を示す指標が算出される。そして、当該指標に基づいて、応対に対する評価が算出される。そのため、顧客の感情の推移に基づいて応対を適切に評価することの可能な情報処理装置を提供することが可能となる。
本発明の一実施形態によれば、顧客の感情の推移に基づいて応対を適切に評価することの可能な情報処理装置を提供することが可能となる。
添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
(1)管理システム1の概要
図1は、本発明の一実施形態に係る管理システム1のブロック図である。管理システム1は、例えば、保険に関するコールセンタ等における応対業務に用いられる。なお、管理システム1は、保険に関するコールセンタ業務に限らず、銀行業務や販売業務その他の任意の業務に適用することができる。
図1は、本発明の一実施形態に係る管理システム1のブロック図である。管理システム1は、例えば、保険に関するコールセンタ等における応対業務に用いられる。なお、管理システム1は、保険に関するコールセンタ業務に限らず、銀行業務や販売業務その他の任意の業務に適用することができる。
管理システム1は、例えば、カスタマが利用するカスタマ端末10と、カスタマに対して応対を行うオペレータが利用するオペレータ端末20と、情報処理装置30とを有する。カスタマ端末10、オペレータ端末20、及び情報処理装置30は、インターネットやPSTN(Public Switched Telephone Networks)等のような公衆網、無線ネットワーク等の通信網Nに接続されている。ここで、カスタマは、第2ユーザから応対を受ける第1ユーザの一例である。応対を受ける第1ユーザは、カスタマに限らず、例えば、カスタマの関係者(家族、友人、知人)、カスタマが関与した事故の相手方、当該相手方が加入している保険契約の保険会社の従業員、カスタマが関与した事故において損害を受けた自動車等の修理を行う修理業者、代車の手配等を行うレンタカー業者、整形外科や接骨院等における医療従事者等、当該保険に関連する任意の者であってよい。また、オペレータは、第2ユーザの一例であって、カスタマ等の第1ユーザに対して応対を行う任意のユーザであってよい。
カスタマ端末10とオペレータ端末20とは、例えば通信網Nを介して、音声通話可能に接続されてもよい。これにより、カスタマ端末10を利用するカスタマと、オペレータ端末20を利用するオペレータとが、これら端末を介して音声通話を行うことが可能となる。オペレータ端末20は、カスタマ端末10との間の音声通話に基づく音声データを生成し、情報処理装置30に送信してもよい。音声データには、通話開始時間、通話終了時間、通話開始を示すタグ及び通話終了開始を示すタグや、音声データを区別するための識別情報が付与されてもよい。なお、音声データの生成や情報処理装置30への送信は、カスタマ端末10が実行してもよい。
情報処理装置30は、カスタマに対するオペレータの応対を含む音声データを取得した上で、音声データに基づいて応対の少なくとも2つの異なる時点におけるカスタマの感情の推定値を算出する。そして、情報処理装置30は、当該少なくとも2つの異なる時点におけるカスタマの感情の推定値に基づいて、カスタマの感情の推移を示す指標を算出する。そして、情報処理装置30は、当該指標に基づいて、カスタマの怒り等の感情の対象や、応対の善し悪しを示す指標等を含み得る応対に対する評価を算出し、これを出力する。これにより、カスタマの感情の推移に基づいて、カスタマに対するオペレータの応対を適切に評価することが可能となる。
(2)情報処理装置30の構成
(2-1)機能構成
図1を参照して、情報処理装置30の機能構成について説明する。図1に示すとおり、情報処理装置30は、記憶部31と、制御部32とを備える。記憶部31は、例えば、後述するメモリ102及びストレージ103により実現され、機械学習モデル311と、応対評価テーブル312とを記憶する。制御部32は、例えば、後述するプロセッサ101により実現され、取得部321と、音声認識部322と、感情推定部323と、感情推移算出部324と、応対評価部325と、出力制御部326とを有する。
(2-1)機能構成
図1を参照して、情報処理装置30の機能構成について説明する。図1に示すとおり、情報処理装置30は、記憶部31と、制御部32とを備える。記憶部31は、例えば、後述するメモリ102及びストレージ103により実現され、機械学習モデル311と、応対評価テーブル312とを記憶する。制御部32は、例えば、後述するプロセッサ101により実現され、取得部321と、音声認識部322と、感情推定部323と、感情推移算出部324と、応対評価部325と、出力制御部326とを有する。
<取得部321>
取得部321は、カスタマ端末10とオペレータ端末20との間の音声通話による音声データを取得する。当該音声データには、カスタマとオペレータとの間の会話の音声データが含まれていてもよく、特に、カスタマに対するオペレータの応対の音声データが含まれていてもよい。音声データには、通話開始時間、通話終了時間、通話開始を示すタグ及び通話終了開始を示すタグや、音声データを区別するための識別情報が付与されてもよい。なお、音声データの生成や情報処理装置30への送信は、カスタマ端末10が実行してもよい。
取得部321は、カスタマ端末10とオペレータ端末20との間の音声通話による音声データを取得する。当該音声データには、カスタマとオペレータとの間の会話の音声データが含まれていてもよく、特に、カスタマに対するオペレータの応対の音声データが含まれていてもよい。音声データには、通話開始時間、通話終了時間、通話開始を示すタグ及び通話終了開始を示すタグや、音声データを区別するための識別情報が付与されてもよい。なお、音声データの生成や情報処理装置30への送信は、カスタマ端末10が実行してもよい。
<音声認識部322>
音声認識部322は、音声データをテキストデータに変換する音声認識処理を実行する。具体的には、音声認識部322は、音声データを音響分析するとともに、音響分析の結果と音声認識辞書を照合する。音声認識辞書は、一例として、音響モデル、言語モデルおよび発音辞書を備えている。音響モデルとは、認識対象の音の周波数成分や時間変化の分析を行うことにより生成された周波数特性である。一般的な音響モデルは、数千人、数千時間の音声を統計的に処理したものを基礎としている。言語モデルは、文字列や単語列が日本語として適切か否かを評価するためのものであって、日本語テキストを多く集め、統計処理したものである。発音辞書は、言語モデルの単語と音響モデルを結びつける役割を果たす。音響モデルは声の最小単位の音素ごとにモデル化されており、音素音響モデルを発音辞書に従って連結して、単語発話に相当する単語音響モデルを構成する。
音声認識部322は、音声データをテキストデータに変換する音声認識処理を実行する。具体的には、音声認識部322は、音声データを音響分析するとともに、音響分析の結果と音声認識辞書を照合する。音声認識辞書は、一例として、音響モデル、言語モデルおよび発音辞書を備えている。音響モデルとは、認識対象の音の周波数成分や時間変化の分析を行うことにより生成された周波数特性である。一般的な音響モデルは、数千人、数千時間の音声を統計的に処理したものを基礎としている。言語モデルは、文字列や単語列が日本語として適切か否かを評価するためのものであって、日本語テキストを多く集め、統計処理したものである。発音辞書は、言語モデルの単語と音響モデルを結びつける役割を果たす。音響モデルは声の最小単位の音素ごとにモデル化されており、音素音響モデルを発音辞書に従って連結して、単語発話に相当する単語音響モデルを構成する。
<感情推定部323>
感情推定部323は、音声データに基づいて、カスタマの感情の推定値(感情推定値)を算出する。具体的には、感情推定部323は、機械学習モデル311を用いることにより、感情推定値を算出してもよい。機械学習モデル311は、所定のパラメータを入力することに応じて、感情推定値を出力する。機械学習モデル311の入力は、音声データを含んでもよい。機械学習モデル311の入力は、音声認識部322が音声データに対して音声認識処理を実行することにより得られるテキストデータを含んでもよい。
感情推定部323は、音声データに基づいて、カスタマの感情の推定値(感情推定値)を算出する。具体的には、感情推定部323は、機械学習モデル311を用いることにより、感情推定値を算出してもよい。機械学習モデル311は、所定のパラメータを入力することに応じて、感情推定値を出力する。機械学習モデル311の入力は、音声データを含んでもよい。機械学習モデル311の入力は、音声認識部322が音声データに対して音声認識処理を実行することにより得られるテキストデータを含んでもよい。
機械学習モデル311が出力する感情の推定値は、機械学習モデル311の設計に応じた、感情に関する定性的な値、定量的な値、及びこれらの組み合わせ等であってもよい。定性的な値としての感情推定値は、例えば、感情を示すラベルであってよい。ここで、感情を示すラベルは、特に限定されないが、喜び、怒り、哀しみ、楽しさ、満足、不満、普通その他の任意に設定されたものであってよい。また、感情を示すラベルは、程度(とても、やや等)を含んでもよい。定量的な値としての感情推定値は、例えば、百分率(0~100)やその他の任意のスケールで感情に対応するように定量化された値であってもよい。定性的な値と定量的な値とを組み合わせた値としての感情推定値は、例えば、「怒り85%」や「喜び95%」のように表されてもよい。
機械学習モデル311は、対象となる時点の前後の所定期間のパラメータ(音声データやテキストデータ)が入力されることにより、当該時点に対応する感情推定値を出力する。機械学習モデル311に入力するパラメータの所定期間の長さは特に限定されず、機械学習モデル311の設計に応じて任意に設定することが可能である。
感情推定部323は、機械学習モデル311を用いることにより、応対のうち少なくとも2つの異なる時点における感情推定値を算出してもよい。少なくとも2つの異なる時点は、特に限定されないが、例えば、応対の開始時の1時点と、応対の終了時の1時点とを含んでもよい。ここで、応対の開始時の1時点は、応対が丁度開始された1時点に限らず、応対の開始から所定の第1時間後までの期間に含まれる時点(第1時点の一例)であってもよい。当該所定の第1時間は、特に限定されず、数秒、数十秒、数分等であってもよい。また、応対の終了時の1時点は、応対が丁度終了した1時点に限らず、応対の終了から所定の第2時間前までの期間に含まれる時点(第2時点の一例)であってもよい。当該所定の第2時間は、特に限定されず、数秒、数十秒、数分等であってもよい。感情推定部323が感情推定値を算出する時点は、2つに限らず、3つ以上であってもよい。また、それら時点は、所定の間隔を有する周期的な時点であってもよいし、所定の条件が満たされた場合等の非周期的な時点であってもよい。
機械学習モデル311は、音声データを少なくとも含む学習データを用いた機械学習によって生成されてもよく、情報処理装置30は、このような機械学習モデル311についての機械学習を行う機能を有していてもよい。学習データは、音声データから抽出された所定の特徴量を含んでいてもよい。また、学習データは、音声データの他に、当該音声データに基づいた音声認識処理によって生成されるテキスト(音声データを表すテキスト)を含んでいてもよい。また、学習データは、オペレータ等の任意の者が付した感情を示すラベルを含んでいてもよい。当該ラベルは、上述した機械学習モデル311の出力としてのラベルに対応するものであってよく、具体的には、感情に関する定性的な値、定量的な値、及びこれらの組み合わせ等であってよい。学習データに付す当該ラベルは、音声データに対応する応対を行ったオペレータや当該音声データを視聴した他の者が入力したものであってもよいし、カスタマが入力した情報(例えば、応対に対する感想等)に基づいて決定されたものであってもよい。また、学習データは、応対を行う案件に関する情報や、応対内容を表すものとして選択された所定の定型文等を含んでもよい。
機械学習モデル313の生成における機械学習のアルゴリズムは、特に限定されないが、例えば、ロジスティック回帰、ニューラルネットワーク、サポートベクターマシン、ランダムフォレスト、及びナイーブベイズ等を含んでもよい。なお、機械学習モデル311は、記憶部31等に記憶された音声データ等に基づいて、所定の期間毎の再学習により更新されもよい。
<感情推移算出部324>
感情推移算出部324は、カスタマの感情の推移を示す指標(感情推移指標)を算出する。感情推移算出部324は、例えば、感情推定部323により算出された、応対の少なくとも2つの異なる時点における感情推定値に基づいて、感情推移指標を算出してもよい。
感情推移算出部324は、カスタマの感情の推移を示す指標(感情推移指標)を算出する。感情推移算出部324は、例えば、感情推定部323により算出された、応対の少なくとも2つの異なる時点における感情推定値に基づいて、感情推移指標を算出してもよい。
感情推移算出部324は、少なくとも2つの異なる時点のそれぞれにおける感情推定値を要素として含む組合せ、リスト、及びベクトル等の任意の表現形式で表された感情推移指標を算出してもよい。具体的には、感情推定値が感情を示すラベルとして表される場合、感情推移指標は、例えば、「(不満、満足)」などと表されてもよい。ここで、「(不満、満足)」のうちの第1の要素「不満」は、応対のうちの第1の時点(例えば、応対の開始時点)における感情のラベルが「不満」であることを示しており、「(不満、満足)」のうちの第2の要素「満足」は、応対のうちの第2の時点(例えば、応対の終了時点)における感情のラベルが「満足」であることを示している。感情推移指標は、「満足」や「不満」に限らず、喜び、怒り、哀しみ、楽しさ、普通その他の任意に設定された感情やその程度を示すラベルを要素として含んでもよい。感情推定値が定量的な値として表される場合は、感情推移指標は、例えば、「(75、90)」などと表されてもよい。ここで、「(75、90)」のうちの第1の要素「70」は、応対のうちの第1の時点(例えば、応対の開始時点)における定量的な値としての感情推定値が「70」であることを示しており、「(75、90)」のうちの第2の要素「90」は、応対のうちの第2の時点(例えば、応対の終了時点)における定量的な値としての感情推定値が「90」であることを示している。
感情推移算出部324は、例えば、所定のテーブル等を参照することにより、応対の少なくとも2つの異なる時点における感情推定値に基づいて、感情の推移を示す所定のラベル(感情推移ラベル)として表された感情推移指標を算出してもよい。感情推移算出部324は、例えば、感情推定部323が算出した感情推定値の組合せ毎に、所定の感情推移ラベルが対応付けられたテーブルを参照することにより、感情推移ラベルを感情推移指標として算出してもよい。感情推移ラベルは、例えば、感情推定値が良いものに変化したことを示す「改善」、感情推定値に変化はないことを示す「変化なし」、感情推定値が「悪化」などの定性的なラベルであってよい。
<応対評価部325>
応対評価部325は、感情推移指標に基づいて、応対に対する評価(応対評価)を算出してもよい。応対評価部325は、例えば、感情推移指標と、応対評価とを対応付けた所定のテーブルを参照することにより、感情推移指標に基づいて、応対評価を算出してもよい。
応対評価部325は、感情推移指標に基づいて、応対に対する評価(応対評価)を算出してもよい。応対評価部325は、例えば、感情推移指標と、応対評価とを対応付けた所定のテーブルを参照することにより、感情推移指標に基づいて、応対評価を算出してもよい。
図2は、このようなテーブルの一例である応対評価テーブル312のデータ構造を示す概略図である。応対評価テーブル312は、行毎に感情推移指標と応対評価とが対応付けられている。応対評価テーブル312の第1列は、応対の開始時における感情推定値を、第2列は、応対の終了時における感情推定値を、それぞれ示している。応対評価テーブル312の第3列は、第1列及び第2列に示された感情推定値に基づいて算出された感情推移指標を示している。
応対評価部325は、例えば、応対評価テーブル312を参照することにより、感情推移指標に基づいて応対評価を算出する。応対評価部325が算出する応対評価は、カスタマの感情の対象を含んでもよい。ここで、カスタマの感情の内容は特に限定されないが、例えば、喜び、怒り、哀しみ、楽しさ、満足、不満、普通その他の任意に設定されたものであってよい。当該カスタマの感情は、感情推定値としての感情を示すラベルと同様であってもよいし、同様でなくてもよい。カスタマの感情の対象は、任意に設定可能であってよく、例えば、オペレータ、カスタマの関係者(家族、友人、知人)、カスタマが関与した事故の相手方、当該相手方が加入している保険契約の保険会社の従業員、カスタマが関与した事故において損害を受けた自動車等の修理を行う修理業者(修理工場)、代車の手配等を行うレンタカー業者、整形外科や接骨院等における医療従事者等を含んでもよい。
図2に示す応対評価テーブル312の第4列には、カスタマの感情の対象の一例が示されている。特に、当該第4列は、第1行において「怒りの対象」と表示されているように、カスタマの感情のうちの「怒り」の対象を示している。例えば、応対評価テーブル312の第2行において、感情推移指標(第3列)は「(不満、不満)」であるが、これに対応する怒りの対象(第4列)は「オペレータ」に設定されている。これは、応対評価部325が、感情推移指標が「(不満、不満)」だった場合に、その応対の評価として、当該応対を受けるカスタマの怒りの感情の対象が「オペレータ」であると算出することを意味している。同様に、第3行によれば、応対評価部325は、感情推移指標が「(不満、普通)」だった場合に、その応対の評価として、当該応対を受けるカスタマの怒りの感情の対象は「相手方」であると算出することとなる。
なお、上述したとおり、図2において、感情推移指標「(不満、不満)」には感情の対象「オペレータ」が対応付けられ、感情推移指標「(不満、普通)」には感情の対象「相手方」が対応付けられている。しかしながら、応対評価テーブル312において、いずれの感情推移指標に対していずれの感情の対象を対応付けるかは、管理者等が任意に設定可能であってよい。このように、例えば管理者やコールセンタ等において蓄積された経験則やノウハウを反映可能となる。
応対評価部325が算出する応対評価は、応対の善し悪しを示す指標を含んでもよい。応対の善し悪しを示す指標は、点数やスコア等を示す定量的な値であってもよい。図2に示す応対評価テーブル312の第5列には、応対の善し悪しを示す指標の一例としての「点数」が示されている。例えば、応対評価テーブル312の第2行において、感情推移指標(第3列)は「(不満、不満)」であるが、これに対応する点数(第5列)は「70」である。これは、応対評価部325が、感情推移指標が「(不満、不満)」だった場合に、その応対の評価として、当該応対の善し悪しを示す指標としての点数が「70」であると算出することを意味している。同様に、第3行によれば、応対評価部325は、感情推移指標が「(不満、普通)」だった場合に、その応対の評価として、当該応対の善し悪しを示す指標としての点数は「80」であると算出することとなる。
なお、図2に示した「点数」の値は一例であって、応対評価テーブル312において、各感情推移指標に対応付ける「点数」の値は管理者等が任意に設定可能であってよい。このように、例えば管理者やコールセンタ等において蓄積された経験則やノウハウを反映可能となる。
図2に示した応対評価テーブル312のデータ構造はあくまで一例である。また、応対評価は、応対評価テーブル312に示した「怒りの対象」に限らず、他の感情(喜び、哀しみ、楽しさ、満足、普通、不満等)の対象を含んでもよい。また、応対評価は、応対の善し悪しを示す指標として、「点数」に限らず、他の定性的な評価等を含んでもよい。
<出力制御部326>
出力制御部326は、各種の情報を出力する。ここで、出力制御部326による出力処理は、例えば、情報処理装置30が備える出力装置(表示装置や音声出力装置)を制御することにより所定の情報を出力すること(表示させること、又は音声出力させること)を含んでもよい。また、出力制御部326による出力処理は、例えば、情報処理装置30が備える通信I/F105を制御することにより、所定の情報を他の任意の情報処理装置に送信することを含んでもよい。
出力制御部326は、各種の情報を出力する。ここで、出力制御部326による出力処理は、例えば、情報処理装置30が備える出力装置(表示装置や音声出力装置)を制御することにより所定の情報を出力すること(表示させること、又は音声出力させること)を含んでもよい。また、出力制御部326による出力処理は、例えば、情報処理装置30が備える通信I/F105を制御することにより、所定の情報を他の任意の情報処理装置に送信することを含んでもよい。
出力制御部326は、例えば、応対評価部325が算出した応対評価を出力してもよい。出力制御部326は、例えば、応対評価として、カスタマの感情の対象や、応対の善し悪しを示す指標等を出力してもよい。また、出力制御部326は、例えば、感情推定部323が算出した感情推定値を算出してもよい。また、出力制御部326は、例えば、感情推移算出部324が算出した感情推移指標を算出してもよい。
(2-2)ハードウェア構成
図3は、実施形態に係る情報処理装置30のハードウェア構成の一例を示す図である。なお、カスタマ端末10、及びオペレータ端末20のそれぞれも、以下の情報処理装置30のハードウェア構成と同様のハードウェア構成を有していてもよい。
図3は、実施形態に係る情報処理装置30のハードウェア構成の一例を示す図である。なお、カスタマ端末10、及びオペレータ端末20のそれぞれも、以下の情報処理装置30のハードウェア構成と同様のハードウェア構成を有していてもよい。
情報処理装置30は、プロセッサ101と、メモリ102と、ストレージ103と、入出力インターフェース(入出力I/F)104と、通信インターフェース(通信I/F)105とを含む。情報処理装置30のハードウェアの各構成要素は、限定でなく例として、バスBを介して相互に接続される。
情報処理装置30は、プロセッサ101と、メモリ102と、ストレージ103と、入出力I/F104と、通信I/F105との協働により、本開示に記載される機能、および/または、方法を実現する。
プロセッサ101は、ストレージ103に記憶されるプログラムに含まれるコードまたは命令によって実現する機能、および/または、方法を実行する。プロセッサ101は、限定でなく例として、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ(Micro Processor)、プロセッサコア(Processor Core)、マルチプロセッサ(Multiprocessor)、ASIC(Application―Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって実施形態に開示される各処理を実現してもよい。また、これらの回路は、1つまたは複数の集積回路により実現されてよく、実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。
メモリ102は、ストレージ103からロードしたプログラムを一時的に記憶し、プロセッサ101に対して作業領域を提供する。メモリ102には、プロセッサ101がプログラムを実行している間に生成される各種データも一時的に格納される。メモリ102は、限定でなく例として、RAM(Random Access Memory)、ROM(Read Only Memory)などを含む。
ストレージ103は、プログラムを記憶する。ストレージ103は、限定でなく例として、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリなどを含む。
入出力I/F104は、情報処理装置30に対する各種操作を入力する入力装置、および、情報処理装置30で処理された処理結果を出力する出力装置を含む。入出力I/F104は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。
入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報をプロセッサ101に伝達できる全ての種類の装置のいずれか、または、その組み合わせにより実現される。入力装置は、限定でなく例として、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(画像を介した操作入力)、マイク(音声による操作入力)を含む。
出力装置は、プロセッサ101で処理された処理結果を出力することができる全ての種類の装置のいずれか、または、その組み合わせにより実現される。当該処理結果を映像、および/または、動画像として出力する場合、出力装置は、フレームバッファに書き込まれた表示データ(画面情報)に従って、当該表示データを表示することができる全ての種類の装置(表示装置)のいずれかまたはその組み合わせにより実現される。出力装置は、限定でなく例として、タッチパネル、タッチディスプレイ、モニタ(限定でなく例として、液晶ディスプレイ、OELD(Organic Electroluminescence Display)など)、ヘッドマウントディスプレイ(HDM:Head Mounted Display)、プロジェクションマッピング、ホログラム、空気中など(真空であってもよい)に画像やテキスト情報等を表示可能な装置、スピーカ(音声出力装置)、プリンターなどを含む。なお、これらの出力装置は、3Dで表示データを表示可能であってもよい。
通信I/F105は、通信網Nを介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F105は、通信網Nを介して、他の情報処理装置との通信を実行する機能を有する。通信I/F105は、各種データをプロセッサ101からの指示に従って、他の情報処理装置に送信する。また、通信I/F105は、他の情報処理装置から送信された各種データを受信し、プロセッサ101に伝達する。
本開示の実施形態のプログラムは、コンピュータに読み取り可能な記憶媒体に記憶された状態で提供されてもよい。記憶媒体は、「一時的でない有形の媒体」に、プログラムを記憶可能である。プログラムは、限定でなく例として、ソフトウェアプログラムやコンピュータプログラムを含む。
記憶媒体は適切な場合、1つまたは複数の半導体ベースの、または他の集積回路(IC)(限定でなく例として、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向けIC(ASIC)など)、ハード・ディスク・ドライブ(HDD)、ハイブリッド・ハード・ドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピィ・ディスケット、フロッピィ・ディスク・ドライブ(FDD)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュア・デジタル・カードもしくはドライブ、任意の他の適切な記憶媒体、またはこれらの2つ以上の適切な組合せを含むことができる。記憶媒体は、適切な場合、揮発性、不揮発性、または揮発性と不揮発性の組合せでよい。
また、本開示のプログラムは、当該プログラムを伝送可能な任意の伝送媒体(ネットワークや放送波等)を介して、情報処理装置30に提供されてもよい。
また、本開示の実施形態は、プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
なお、本開示のプログラムは、限定でなく例として、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective-C、Java(登録商標)などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装される。
情報処理装置30における処理の少なくとも一部は、1つ以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。
情報処理装置30における処理の少なくとも一部を、他の情報処理装置により行う構成としてもよい。この場合、プロセッサ101により実現される各機能部の処理のうち少なくとも一部の処理を、他の情報処理装置で行う構成としてもよい。
(3)情報処理装置30の動作フロー
図5は、情報処理装置30が実行する動作処理の一例を示す動作フロー図である。
図5は、情報処理装置30が実行する動作処理の一例を示す動作フロー図である。
(S11)
取得部321は、カスタマ端末10とオペレータ端末20との間の音声通話による音声データを取得する。当該音声データには、カスタマとオペレータとの間の会話の音声データが含まれていてもよく、特に、カスタマに対するオペレータの応対の音声データが含まれていてもよい。音声データには、通話開始時間、通話終了時間、通話開始を示すタグ及び通話終了開始を示すタグや、音声データを区別するための識別情報が付与されてもよい。なお、音声データの生成や情報処理装置30への送信は、カスタマ端末10が実行してもよい。
取得部321は、カスタマ端末10とオペレータ端末20との間の音声通話による音声データを取得する。当該音声データには、カスタマとオペレータとの間の会話の音声データが含まれていてもよく、特に、カスタマに対するオペレータの応対の音声データが含まれていてもよい。音声データには、通話開始時間、通話終了時間、通話開始を示すタグ及び通話終了開始を示すタグや、音声データを区別するための識別情報が付与されてもよい。なお、音声データの生成や情報処理装置30への送信は、カスタマ端末10が実行してもよい。
(S12)
音声認識部322は、音声データに対して音声認識処理を実行する。これにより、当該音声データに基づいてテキストデータが生成される。
音声認識部322は、音声データに対して音声認識処理を実行する。これにより、当該音声データに基づいてテキストデータが生成される。
(S13)
感情推定部323は、対象となる時点について、感情推定値を算出する。具体的には、感情推定部323は、対象となる時点の前後の所定期間(対象期間)を決定し、ステップS11で取得された音声データのうち当該対象期間に含まれる部分と、ステップS12で生成されたテキストデータのうち当該対象期間に含まれる部分とを抽出する。そして、感情推定部323は、抽出された音声データ及びテキストデータを、機械学習モデル311に入力する。ことにより、当該機械学習モデル311の出力として、対象となる時点におけるカスタマの感情推定値が算出される。感情推定部323は、少なくとも2つの異なる時点のそれぞれについて、当該ステップS13の処理を実行する。これにより、少なくとも2つの異なる時点について、各時点の感情推定値が算出される。
感情推定部323は、対象となる時点について、感情推定値を算出する。具体的には、感情推定部323は、対象となる時点の前後の所定期間(対象期間)を決定し、ステップS11で取得された音声データのうち当該対象期間に含まれる部分と、ステップS12で生成されたテキストデータのうち当該対象期間に含まれる部分とを抽出する。そして、感情推定部323は、抽出された音声データ及びテキストデータを、機械学習モデル311に入力する。ことにより、当該機械学習モデル311の出力として、対象となる時点におけるカスタマの感情推定値が算出される。感情推定部323は、少なくとも2つの異なる時点のそれぞれについて、当該ステップS13の処理を実行する。これにより、少なくとも2つの異なる時点について、各時点の感情推定値が算出される。
(S14)
感情推移算出部324は、ステップS13において感情推定部323により算出された、応対の少なくとも2つの異なる時点における感情推定値に基づいて、感情推移指標を算出する。感情推移算出部324は、少なくとも2つの異なる時点のそれぞれにおける感情推定値を要素として含む組合せ、リスト、及びベクトル等の任意の表現形式で表された感情推移指標を算出してもよい。感情推移算出部324は、例えば、所定のテーブル等を参照することにより、応対の少なくとも2つの異なる時点における感情推定値に基づいて、感情の推移を示す所定のラベル(感情推移ラベル)として表された感情推移指標を算出してもよい。
感情推移算出部324は、ステップS13において感情推定部323により算出された、応対の少なくとも2つの異なる時点における感情推定値に基づいて、感情推移指標を算出する。感情推移算出部324は、少なくとも2つの異なる時点のそれぞれにおける感情推定値を要素として含む組合せ、リスト、及びベクトル等の任意の表現形式で表された感情推移指標を算出してもよい。感情推移算出部324は、例えば、所定のテーブル等を参照することにより、応対の少なくとも2つの異なる時点における感情推定値に基づいて、感情の推移を示す所定のラベル(感情推移ラベル)として表された感情推移指標を算出してもよい。
(S15)
応対評価部325は、応対評価テーブル312を参照して、感情推移指標に基づいて応対評価を算出する。応対評価部325は、例えば、カスタマの感情の対象を算出してもよいし、応対の善し悪しを示す指標を算出してもよい。また、応対評価部325は、応対評価テーブル312に示した「怒りの対象」に限らず、他の感情(喜び、哀しみ、楽しさ、満足、普通、不満等)の対象を算出してもよい。
応対評価部325は、応対評価テーブル312を参照して、感情推移指標に基づいて応対評価を算出する。応対評価部325は、例えば、カスタマの感情の対象を算出してもよいし、応対の善し悪しを示す指標を算出してもよい。また、応対評価部325は、応対評価テーブル312に示した「怒りの対象」に限らず、他の感情(喜び、哀しみ、楽しさ、満足、普通、不満等)の対象を算出してもよい。
(S16)
出力制御部326は、例えば、応対評価部325が算出した応対評価を出力する。出力制御部326は、例えば、応対評価として、カスタマの感情の対象や、応対の善し悪しを示す指標等を出力してもよいし、他の感情(喜び、哀しみ、楽しさ、満足、普通、不満等)の対象を出力してもよい。なお、出力制御部326は、例えば、感情推定部323が算出した感情推定値を出力してもよいし、感情推移算出部324が算出した感情推移指標を出力してもよい。なお、出力制御部326は、例えば、情報処理装置30が備える出力装置(表示装置や音声出力装置)を制御することによりこれら情報を出力してもよい。また、出力制御部326による出力処理は、例えば、情報処理装置30が備える通信I/F105を制御することにより、これら情報を他の任意の情報処理装置に送信することを含んでもよい。
出力制御部326は、例えば、応対評価部325が算出した応対評価を出力する。出力制御部326は、例えば、応対評価として、カスタマの感情の対象や、応対の善し悪しを示す指標等を出力してもよいし、他の感情(喜び、哀しみ、楽しさ、満足、普通、不満等)の対象を出力してもよい。なお、出力制御部326は、例えば、感情推定部323が算出した感情推定値を出力してもよいし、感情推移算出部324が算出した感情推移指標を出力してもよい。なお、出力制御部326は、例えば、情報処理装置30が備える出力装置(表示装置や音声出力装置)を制御することによりこれら情報を出力してもよい。また、出力制御部326による出力処理は、例えば、情報処理装置30が備える通信I/F105を制御することにより、これら情報を他の任意の情報処理装置に送信することを含んでもよい。
(4)表示画面
図5は、管理システム1において表示される表示画面の一例を示す概略図である。当該表示画面は、例えば、上述したステップS16において出力制御部326により、情報処理装置30の表示装置に表示されてもよいし、オペレータ端末20等の他の情報処理装置の表示装置に表示されてもよい。図5に示すとおり、当該表示画面は、例えば、領域41~43を含む。
図5は、管理システム1において表示される表示画面の一例を示す概略図である。当該表示画面は、例えば、上述したステップS16において出力制御部326により、情報処理装置30の表示装置に表示されてもよいし、オペレータ端末20等の他の情報処理装置の表示装置に表示されてもよい。図5に示すとおり、当該表示画面は、例えば、領域41~43を含む。
「案件情報」と題された領域41には、例えば、案件に関する情報(案件情報)が表示される。図5に示す例では、領域41には、案件番号41A、通話情報41B、カスタマ41C、及びオペレータ41Dが含まれる。案件番号41Aは、案件を識別するための識別情報等である。通話情報41Bは、通話が行われた時間等に関する情報である。カスタマ41Cは、応対を受けるカスタマを示す氏名や識別情報等である。オペレータ41Dは、応対を行うオペレータを示す氏名や識別情報等である。領域41には、図5に示したものに限らず、案件管理アプリケーションに登録される任意の案件情報が表示されてもよい。
「通話テキスト」と題された領域42には、例えば、カスタマの発話によるメッセージ情報42Aと、オペレータの発話によるメッセージ情報42Bとが時系列に沿って表示される。図6に示す画面例では、カスタマやオペレータの発話や入力による最新のメッセージ情報が順次、領域42内の上方に表示される。領域42においては、スクロール操作等によって過去のメッセージ情報から最新のメッセージ情報までを選択的に表示させることが可能であってよい。
「感情情報」と題された領域43には、例えば、情報処理装置30により算出されるカスタマの感情に関する各種の値や指標等が表示される。領域43には、感情推定値のグラフ43A、開始時点における感情推定値43B、終了時点における感情推定値43C、感情推移指標43D、怒りの対象43E、及び点数43Fが含まれる。
グラフ43Aの横軸は、通話の経過時間であり、グラフ43Aの縦軸は、感情推定部323が算出した感情推定値である。なお、グラフ43Aでは、縦軸の感情推定値は、定量的な値として0から100までの百分率(例えば、「100」は最も満足しており、「0」は満足の度合が最低(最も不満)である)として示されており、また、通話の経過時間に沿って連続的に感情推定値が表示されている。しかしながら、グラフ43Aでは、感情推定部323の構成に応じて、感情推定値は感情を示すラベル等の定性的な値が表示されてもよい。また、グラフ43Aでは、感情推定部323が感情推定値を算出する処理を行うタイミングに応じて、離散的に(横軸の経過時間のうちの複数の異なる時点において)のみ感情推定値が表示されてもよい。
図5には、感情推定値の具体的な数値として、開始時点における感情推定値43Bと、終了時点における感情推定値43Cとが表示されている。開始時点における感情推定値43Bは「50」であり、終了時点における感情推定値43Cは「85」である。なお、同図に示す例では、開始時点及び終了時点の2時点についての感情推定値が表示されている、管理者やオペレータ等のユーザが任意に選択した特定の時点についての感情推定値が表示されてもよい。選択は、グラフ43Aや横軸上において時点を指定することで行えるようにしてもよい。情報処理装置30の感情推定部323は、選択された時点を示す情報を取得した上で、選択された時点における感情推定値を算出してもよい。そして、出力制御部326は、このように算出された特定の時点における感情推定値を領域43に表示させてもよい。
図5には、感情推移指標43Dが表示されている。同図には、開始時点における感情推定値43Bと、終了時点における感情推定値43Cとが表示されているが、感情推移指標43Dは、これら2つの感情推定値43B及び43Cに基づいて算出されたものであってよい。具体的には、感情推移指標43Dは、「+35」として示されている。これは、終了時点における感情推定値43Cである「85」から、開始時点における感情推定値43Bである「50」を差し引いた値であることを示している。
図5には、応対評価の一例として、怒りの対象43E「相手方」が表示されている。怒りの対象43E「相手方」は、応対評価部325が感情推移指標43Dに基づいて算出した応対評価の一例であってよい。図5には、応対評価の一例として、応対の善し悪しを示す指標(点数)43F「92」が表示されている。
(5)変形例
情報処理装置30は、案件に関する案件情報を管理するための案件管理アプリケーションの機能を、オペレータ端末20に提供してもよい。オペレータは、オペレータ端末20を介して案件管理アプリケーションの機能を利用することが可能である。案件管理アプリケーションでは、例えば、案件毎に当該案件を担当するオペレータに対応付けて登録されてもよい。担当のオペレータは、カスタマに対して応対を行う際に、案件管理アプリケーションに登録された案件情報を閲覧することが可能であってよい。更に、担当のオペレータは、応対中や応対後の任意のタイミングにおいて、案件情報の追加、削除、及び変更等の編集を行うことが可能であってもよい。なお、案件管理アプリケーションにおいては、担当のオペレータ以外のオペレータが案件情報を閲覧や編集等することが可能であってもよい。
情報処理装置30は、案件に関する案件情報を管理するための案件管理アプリケーションの機能を、オペレータ端末20に提供してもよい。オペレータは、オペレータ端末20を介して案件管理アプリケーションの機能を利用することが可能である。案件管理アプリケーションでは、例えば、案件毎に当該案件を担当するオペレータに対応付けて登録されてもよい。担当のオペレータは、カスタマに対して応対を行う際に、案件管理アプリケーションに登録された案件情報を閲覧することが可能であってよい。更に、担当のオペレータは、応対中や応対後の任意のタイミングにおいて、案件情報の追加、削除、及び変更等の編集を行うことが可能であってもよい。なお、案件管理アプリケーションにおいては、担当のオペレータ以外のオペレータが案件情報を閲覧や編集等することが可能であってもよい。
情報処理装置30は、カスタマとオペレータとが通話している最中においても、上述した各種の処理を実行してもよい。例えば、取得部321は、カスタマ端末10とオペレータ端末20との間の音声通話によって部分的に音声データが生成されるのに沿って、生成された部分的な音声データをストリーミング等によって順次に取得してもよい。また、音声認識部322は、取得部321が取得した部分的な音声データに対して音声認識処理を実行し、順次にテキストデータを生成してよい。また、感情推定部323は、順次に生成されたテキストデータ毎に、順次に感情推定値の算出を実行してもよい。また、感情推移算出部324は、順次に算出された少なくとも2つの異なる時点における感情推定値に基づいて、感情推移指標を算出してもよい。出力制御部326は、順次に算出された感情推移指標に基づいて、処理が実行された時点における、カスタマの感情の対象や応対の善し悪しを示す指標等を含む応対評価を算出してもよい。出力制御部326は、これら順次に算出される応対評価や、感情推定値、感情推移指標等を出力してもよい。これにより、オペレータ等のユーザは、カスタマの応対を行っている最中等において、カスタマの感情や応対に関する各種の指標(応対評価、感情推定値、感情推移指標等)を把握することが可能となり、これら指標に基づいて応対の方法を調整することが可能となる。
(6)付記
本発明の一実施形態に係る情報処理装置30は、第1ユーザに対する第2ユーザの応対を含む音声データを取得する取得部321と、音声データに基づいて、応対の少なくとも2つの異なる時点における第1ユーザの感情の推定値を算出する感情推定部323と、推定値に基づいて、第1ユーザの感情の推移を示す指標を算出する感情推移算出部324と、指標に基づいて、応対に対する評価を算出する応対評価部325と、評価を出力する出力制御部326と、を備える。
本発明の一実施形態に係る情報処理装置30は、第1ユーザに対する第2ユーザの応対を含む音声データを取得する取得部321と、音声データに基づいて、応対の少なくとも2つの異なる時点における第1ユーザの感情の推定値を算出する感情推定部323と、推定値に基づいて、第1ユーザの感情の推移を示す指標を算出する感情推移算出部324と、指標に基づいて、応対に対する評価を算出する応対評価部325と、評価を出力する出力制御部326と、を備える。
上記態様において、感情推定部323は、音声データを入力とした機械学習モデルの出力として推定値を算出してもよい。
上記態様において、推定値は、感情を示すラベルであってもよい。
上記態様において、ラベルは、満足、普通、及び不満の少なくともいずれかを含んでもよい。
上記態様において、推定値は、感情に対応する定量化された値であってもよい。
上記態様において、少なくとも2つの異なる時点は、応対の開始から所定の第1時間後までの期間に含まれる第1時点と、応対の終了から所定の第2時間前までの期間に含まれる第2時点と、を含んでもよい。
上記態様において、評価は、第1ユーザの感情の対象を含んでもよい。
上記態様において、対象は、第1ユーザの怒りの対象を含んでもよい。
上記態様において、評価は、応対の善し悪しを示す指標を含んでもよい。
本発明の他の一実施形態に係る情報処理方法は、1つ又は複数のコンピュータが、第1ユーザに対する第2ユーザの応対を含む音声データを取得するステップと、音声データに基づいて、応対の少なくとも2つの異なる時点における第1ユーザの感情の推定値を算出するステップと、推定値に基づいて、第1ユーザの感情の推移を示す指標を算出するステップと、指標に基づいて、応対に対する評価を算出するステップと、評価を出力するステップと、を実行する。
1…管理システム、10…カスタマ端末、20…オペレータ端末、30…情報処理装置、101…プロセッサ、102…メモリ、103…ストレージ、104…入出力I/F、105…通信I/F、31…記憶部、311…機械学習モデル、312…応対評価テーブル、32…制御部、321…取得部、322…音声認識部、323…感情推定部、324…感情推移算出部、325…応対評価部、326…出力制御部
Claims (10)
- 第1ユーザに対する第2ユーザの応対を含む音声データを取得する取得部と、
前記音声データに基づいて、前記応対の少なくとも2つの異なる時点における前記第1ユーザの感情の推定値を算出する感情推定部と、
前記推定値に基づいて、前記第1ユーザの感情の推移を示す指標を算出する感情推移算出部と、
前記指標に基づいて、前記応対に対する評価を算出する応対評価部と、
前記評価を出力する出力制御部と、
を備える情報処理装置。 - 前記感情推定部は、前記音声データを入力とした機械学習モデルの出力として前記推定値を算出する、請求項1に記載の情報処理装置。
- 前記推定値は、感情を示すラベルである、請求項2に記載の情報処理装置。
- 前記ラベルは、満足、普通、及び不満の少なくともいずれかを含む、請求項3に記載の情報処理装置。
- 前記推定値は、感情に対応する定量化された値である、請求項2に記載の情報処理装置。
- 前記少なくとも2つの異なる時点は、前記応対の開始から所定の第1時間後までの期間に含まれる第1時点と、前記応対の終了から所定の第2時間前までの期間に含まれる第2時点と、を含む、請求項1に記載の情報処理装置。
- 前記評価は、前記第1ユーザの感情の対象を含む、請求項1に記載の情報処理装置。
- 前記対象は、前記第1ユーザの怒りの対象を含む、請求項7に記載の情報処理装置。
- 前記評価は、前記応対の善し悪しを示す指標を含む、請求項1に記載の情報処理装置。
- 1つ又は複数のコンピュータが、
第1ユーザに対する第2ユーザの応対を含む音声データを取得するステップと、
前記音声データに基づいて、前記応対の少なくとも2つの異なる時点における前記第1ユーザの感情の推定値を算出するステップと、
前記推定値に基づいて、前記第1ユーザの感情の推移を示す指標を算出するステップと、
前記指標に基づいて、前記応対に対する評価を算出するステップと、
前記評価を出力するステップと、
を実行する情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022140790A JP2024036073A (ja) | 2022-09-05 | 2022-09-05 | 情報処理装置、及び情報処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022140790A JP2024036073A (ja) | 2022-09-05 | 2022-09-05 | 情報処理装置、及び情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024036073A true JP2024036073A (ja) | 2024-03-15 |
Family
ID=90198343
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022140790A Pending JP2024036073A (ja) | 2022-09-05 | 2022-09-05 | 情報処理装置、及び情報処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024036073A (ja) |
-
2022
- 2022-09-05 JP JP2022140790A patent/JP2024036073A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10044864B2 (en) | Computer-implemented system and method for assigning call agents to callers | |
US10592611B2 (en) | System for automatic extraction of structure from spoken conversation using lexical and acoustic features | |
US9437215B2 (en) | Predictive video analytics system and methods | |
US20190385597A1 (en) | Deep actionable behavioral profiling and shaping | |
JP5394118B2 (ja) | 行動分析装置及びコールセンターシステム | |
JP2018206085A (ja) | 事象評価支援システム、事象評価支援装置、及び事象評価支援プログラム | |
JP2017508188A (ja) | 適応型音声対話のための方法 | |
CN111028007B (zh) | 用户画像信息提示方法、装置及系统 | |
CN112235470B (zh) | 基于语音识别的来电客户跟进方法、装置及设备 | |
US12079573B2 (en) | Tool for categorizing and extracting data from audio conversations | |
JP7040593B2 (ja) | 接客支援装置、接客支援方法、及び、接客支援プログラム | |
JP2011065304A (ja) | 接客業務用サーバ、並びに、当該サーバを用いる接客システム及び接客業務の予測終了時間算出方法 | |
KR20160142949A (ko) | 컨택 센터를 위한 감성 분석 장치 및 그 방법 | |
WO2019003395A1 (ja) | コールセンター会話内容表示システム、方法及びプログラム | |
JP2024036073A (ja) | 情報処理装置、及び情報処理方法 | |
KR20190116044A (ko) | 대화 이해 ai 시스템에 의한, 사용자간 온라인 채팅 세션의 능동적 분석 및 분석 결과의 사용자에 대한 시각적 제시 방법 및 컴퓨터 판독가능 기록 매체 | |
JP2024036103A (ja) | 支援装置、及び支援方法 | |
JP2022187611A (ja) | 接客支援システム、接客支援装置、接客支援方法および接客支援プログラム | |
JP2023109461A (ja) | 面談支援装置、面談支援方法及びコンピュータプログラム | |
JP2023108346A (ja) | 面談支援装置、面談支援方法及びコンピュータプログラム | |
CN117896463A (zh) | 一种装修行业通话数据智能质检方法 | |
JP2023055296A (ja) | 相性評価システム、方法およびプログラム | |
CN117591968A (zh) | 视频坐席数据处理方法、装置、计算机设备、介质和产品 | |
CN115758114A (zh) | 基于多模态特征自适应的抑郁定量方法、装置及电子设备 | |
US20150066603A1 (en) | Method and apparatus to analyse skill of contact center employees from the behavior displayed during interactions with customers using computer software |