JP6751305B2 - 分析装置、分析方法および分析プログラム - Google Patents

分析装置、分析方法および分析プログラム Download PDF

Info

Publication number
JP6751305B2
JP6751305B2 JP2016064591A JP2016064591A JP6751305B2 JP 6751305 B2 JP6751305 B2 JP 6751305B2 JP 2016064591 A JP2016064591 A JP 2016064591A JP 2016064591 A JP2016064591 A JP 2016064591A JP 6751305 B2 JP6751305 B2 JP 6751305B2
Authority
JP
Japan
Prior art keywords
speaker
time
analysis
voice
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016064591A
Other languages
English (en)
Other versions
JP2017181596A (ja
Inventor
康司 酒井
康司 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu FSAS Inc
Original Assignee
Fujitsu FSAS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu FSAS Inc filed Critical Fujitsu FSAS Inc
Priority to JP2016064591A priority Critical patent/JP6751305B2/ja
Publication of JP2017181596A publication Critical patent/JP2017181596A/ja
Application granted granted Critical
Publication of JP6751305B2 publication Critical patent/JP6751305B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)

Description

本発明は、分析装置等に関する。
音声によるコミュニケーションには、電話による会話、相談窓口などによる対話、会議での議論、雑談、ロボットとの会話など様々な種類がある。ここで、話者が他の話者とコミュニケーションを行う場合に、話者が他の話者にとって優れたコミュニケーションを行っているか否かを判定し、話者にフィードバックできれば、話者にとって有用な情報となり得る。
コミュニケーションの優劣を判定する従来技術1,2について説明する。従来技術1には、音声ファイルの顧客の声のトーンに基づいて、顧客によるクレームの有無を判断する技術が開示されている。従来技術2には、対話の重複の有無、発話割合、沈黙、話速等を評価基準にして、オペレータの会話を評価する技術が開示されている。
特開2013−51529号公報 特開2014−123813号公報 国際公開第2012/124104号
しかしながら、上述した従来技術では、コミュニケーションの優劣を適切に判定することができないという問題がある。
1つの側面では、本発明は、コミュニケーションの優劣を適切に判定することができる分析装置、分析方法および分析プログラムを提供することを目的とする。
第1の案では、分析装置は、取得部と、分析部とを有する。取得部は、複数の話者の間でなされたコミュニケーションの音声情報から、第1話者が発話した時間を示す第1発話時間と、第2話者が発話した時間を示す第2発話時間とを取得する。分析部は、第1話者および2話者の優先関係情報と、第1発話時間および第2発話時間の関係とを基にして、コミュニケーションの優劣を分析する。
コミュニケーションの優劣を適切に判定することができる。
図1は、本実施例1に係る分析装置の構成を示す図である。 図2は、音声録音機が録音する会話のパターンを説明するための図(1)である。 図3は、音声録音機が録音する会話のパターンを説明するための図(2)である。 図4は、音声録音機が録音する会話のパターンを説明するための図(3)である。 図5は、音声テーブルのデータ構造の一例を示す図である。 図6は、会話パターンテーブルのデータ構造の一例を示す図である。 図7は、分析項目テーブルのデータ構造の一例を示す図である。 図8は、分析結果テーブルのデータ構造の一例を示す図である。 図9は、「開始時のあいさつ」を分析する従来技術を説明するための図である。 図10は、「開始時のあいさつ」を分析する分析部の処理を説明するための図である。 図11は、「適切なあいづち」を分析する従来技術を説明するための図である。 図12は、「適切なあいづち」を分析する分析部の処理を説明するための図(1)である。 図13は、「適切なあいづち」を分析する分析部の処理を説明するための図(2)である。 図14は、「さえぎり」を分析する従来技術を説明するための図である。 図15は、「さえぎり」を分析する分析部の処理を説明するための図である。 図16は、「さえぎり」を分析する分析部の例外処理を説明するための図である。 図17は、「だまりこみ」を分析する従来技術を説明するための図である。 図18は、「だまりこみ」を分析する分析部の処理を説明するための図(1)である。 図19は、「だまりこみ」を分析する分析部の処理を説明するための図(2)である。 図20は、分析結果表示画面の一例を示す図である。 図21は、本実施例に係る分析装置の処理手順の一例を示すフローチャートである。
以下に、本願の開示する分析装置、分析方法および分析プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例1に係る分析装置の構成を示す図である。図1に示すように、この分析装置100は、インタフェース部110と、入力部120と、表示部130と、スピーカ135と、記憶部140と、制御部150とを有する。
インタフェース部110は、ネットワークを介して他の外部装置と通信を行う処理部である。なお、インタフェース部110は、直接、外部装置と接続し、通信を実行しても良い。インタフェース部110は、通信装置に対応する。後述する制御部150は、インタフェース部110を介して、外部装置とデータをやり取りする。
例えば、外部装置は、複数の話者の間でなされたコミュニケーションの音声情報を録音する音声録音機に対応する。話者は、顧客、オペレータ、窓口担当者、会社の同僚などである。図2〜図4は、音声録音機が録音する会話のパターンを説明するための図である。
図2について説明する。図2は、電話での会話を録音する例である。電話機3aおよび電話機3bが接続され、電話機3bは、音声録音機10に接続される。図2において、話者1は、顧客とし、話者2を、オペレータとする。音声録音機10は、話者1と話者2との間でなされたコミュニケーションの音声情報を録音する。
図3について説明する。図3は、窓口での会話を録音する例である。マイク4a,4bが音声録音機10に接続される。図3において、話者1は、顧客とし、話者2を、窓口担当者とする。音声録音機10を、話者1と話者2との間でなされたコミュニケーションの音声情報を録音する。
図4について説明する。図4は、会議での会話を録音する例である。マイク4a,4b,4cが音声録音機10に接続される。図4において、話者1〜話者3は、会社の同僚とする。音声録音機10は、話者1〜3の間でなされたコミュニケーションの音声情報を録音する。
図1の説明に戻る。入力部120は、各種の情報を分析装置100に入力するための装置である。例えば、入力部120は、キーボードやマウス、タッチパネル等に対応する。例えば、利用者は、入力部120を操作して、コミュニケーションの優劣に関する分析結果を参照する。
表示部130は、制御部150から出力される各種の情報を表示する表示装置である。例えば、表示部130は、コミュニケーションの優劣に関する分析結果を表示する。表示部130は、液晶モニタやタッチパネル等に対応する。スピーカ135は、各種の音情報を出力するスピーカである。
記憶部140は、音声テーブル141、会話パターンテーブル142、分析項目テーブル143、分析結果テーブル144を有する。記憶部140は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
音声テーブル141は、音声録音機10によって録音された音声情報を保持するテーブルである。図5は、音声テーブルのデータ構造の一例を示す図である。図5に示すように、この音声テーブル141は、音声ID、会話ID、音声情報を対応付ける。音声IDは、音声情報を一意に識別する情報である。会話IDは、会話を一意に識別する情報である。また、会話IDによって、図6に示す会話パターンテーブル142のレコードと対応付けられる。
音声情報は、各話者を識別する話者IDと、話者の音声情報とをそれぞれ対応付ける。例えば、音声ID「A001」の音声情報では、第1話者ID「1001」と第1音声情報とが対応付けられ、第2話者ID「2001」と第2音声情報とが対応付けられる。
会話パターンテーブル142は、会話のパターンや、話者の優先順に関する情報を保持するテーブルである。図6は、会話パターンテーブルのデータ構造の一例を示す図である。図6に示すように、この会話パターンテーブル142は、会話ID、会話パターン、優先順位、話者数、各話者を識別する話者IDと、各話者名を対応付ける。
会話IDは、会話を一意に識別する情報である。また、会話IDによって、音声テーブル141のレコードと対応付けられる。会話パターンは、会話パターンの内容を示すものである。優先順位は、話者の優先順位を示す情報である。話者数は、コミュニケーションを行った話者の人数を示すものである。例えば、会話ID「T001」のレコードについて説明する。このレコードは、コールセンターでの電話対応に関するものであり、第1話者(お客様)と第2話者(オペレータ)とが会話しており、第1話者が第2話者よりも優先である旨の情報が格納されている。
分析項目テーブル143は、分析対象となる項目や、分析する場合に利用する各種の情報を保持するテーブルである。図7は、分析項目テーブルのデータ構造の一例を示す図である。図7に示すように、この分析項目テーブル143は、分析項目ID、項目名、前方猶予時間、後方猶予時間、最小判定時間、最大判定時間、パラメータを対応付ける。分析項目IDは、分析項目を一意に識別する情報である。項目名は、分析項目の名称である。前方猶予時間および後方猶予時間については、後述する。最小判定時間は、分析対象となる音声情報の最小判定時間である。最大判定時間は、分析対象となる音声情報の最大判定時間である。パラメータは、分析を行う場合に利用するパラメータである。
分析結果テーブル144は、分析結果に関する情報を保持するテーブルである。図8は、分析結果テーブルのデータ構造の一例を示す図である。図8に示すように、この分析結果テーブル144は、分析結果ID、分析項目ID、タグ番号、開始時刻、終了時刻、分析結果、コメントを有する。分析結果IDは、分析結果に関するレコードを一意に識別する情報である。分析項目IDは、分析項目を一意に識別する情報である。タグ番号は、タグの番号を示すものである。タグに関する説明は後述する。開始時刻は、分析範囲の開始時刻である。終了時刻は、分析範囲の終了時刻である。分析結果は、分析結果を示すものである。分析結果は「優」、「劣」、「−(優でも劣でもない)」のいずれかとなる。コメントは、分析結果のコメントである。
図1の説明に戻る。制御部150は、取得部151と、分析部152と、表示制御部153とを有する。制御部150は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部150は、例えば、CPUやMPU(Micro Processing Unit)等の電子回路に対応する。
取得部151は、インタフェース部110を介して、音声録音機10から音声情報を取得する処理部である。例えば、音声録音機10から取得する音声情報には、音声ID、会話IDが添付されている。取得部151は、音声IDと、会話IDと、音声情報とを対応付けて、音声テーブル141に登録する。図5に示す音声情報は、初めから、第1話者の音声情報と、第2話者の音声情報が分かれている場合について説明したがこれに限定されない。取得部151は、第1、2話者の音声が混在する音声情報に対して、音声クリーニングを実行し、第1話者の音声情報と、第2話者の音声情報とを分離しても良い。
分析部152は、音声情報を分析することで、コミュニケーションの優劣を判定する処理部である。分析部152が分析する分析項目には「開始時あいさつ」、「適切なあいづち」、「さえぎり」、「だまりこみ」がある。各分析項目に関する、分析部152の処理の一例を順に説明する。
まず、「開始時のあいさつ」を分析することで、コミュニケーションの優劣を判定する処理の一例を従来技術と比較して説明する。図9は、「開始時のあいさつ」を分析する従来技術を説明するための図である。分析結果例1について説明する。第1話者の音声が、時刻tに開始し、時刻tに終了し、第1話者の音声に「開始時のあいさつ」が含まれているものとする。開始時のあいさつは「おはようございます、おつかれさまです」等に対応する。また、第2話者の音声が、時刻tに開始し、時刻tに終了し、第2話者の音声に「開始時のあいさつ」が含まれているものとする。分析範囲をt〜tとする。従来技術では、第1話者の開始時のあいさつに続き、第2話者が開始時のあいさつをしているため、分析範囲の分析結果を「優」と判定する。
分析結果例2について説明する。第2話者の音声が、tに開始し、tに終了し、第2話者の音声に「開始時のあいさつ」が含まれているものとする。また、第1話者の音声が、tに開始し、tに終了し、第1話者の音声に「開始時のあいさつ」が含まれているものとする。分析範囲をt〜tとする。従来技術では、第2話者の開始時のあいさつに続き、第1話者が開始時のあいさつをしているため、分析範囲の分析結果を「優」と判定する。
しかしながら、従来技術では、優先する話者を判断基準に入れていないため、適切に分析できていない。例えば、第1話者が第2話者よりも優先であるとすると、図9の分析結果例1は、第1話者が第2話者よりも先にあいさつしているため、印象がわるく、「優」とは言えない。
図10は、「開始時のあいさつ」を分析する分析部の処理を説明するための図である。分析結果例3について説明する。例えば、分析部152は、音声テーブル141にアクセスし、会話ID「T001」の音声情報を取得することで、第1話者と第2話者との音声情報を取得する。第1話者の音声が、時刻tに開始し、時刻tに終了し、第1話者の音声に「開始時のあいさつ」が含まれているものとする。また、第2話者の音声が、時刻tに開始し、時刻tに終了し、第2話者の音声に「開始時のあいさつ」が含まれているものとする。分析部152は、会話ID「T001」をキーとして、会話パターンテーブル142を参照することで、第1話者が第2話者よりも優先であると判定する。
分析部152は、「開始時のあいさつ」を分析するため、分析項目テーブル143の分析項目ID「B001」のレコードを取得する。分析部152は、時刻t〜tを分析範囲とし、時刻t〜tをタグ用前方猶予時間に設定し、時刻t〜tをタグ用後方猶予時間に設定する。分析部152は、第1話者の開始時のあいさつに続き、第2話者が開始時のあいさつをしているが、優先される第1話者の方が先にあいさつをしているため、第1話者に対する印象がわるい。このため、分析部152は、分析範囲の分析結果を「劣」と判定する。
分析結果例4について説明する。例えば、分析部152は、音声テーブル141にアクセスし、会話ID「T001」の音声情報を取得することで、第1話者と第2話者との音声情報を取得する。第1話者の音声が、時刻tに開始し、時刻tに終了し、第1話者の音声に「開始時のあいさつ」が含まれているものとする。また、第2話者の音声が、時刻tに開始し、時刻tに終了し、第2話者の音声に「開始時のあいさつ」が含まれているものとする。分析部152は、会話ID「T001」をキーとして、会話パターンテーブル142を参照することで、第1話者が第2話者よりも優先であると判定する。
分析部152は、「開始時のあいさつ」を分析するため、分析項目テーブル143の分析項目ID「B001」のレコードを取得する。分析部152は、時刻t〜tを分析範囲とし、t〜tをタグ用前方猶予時間に設定し、t〜tをタグ用後方猶予時間に設定する。分析部152は、第2話者の開始時のあいさつに続き、第1話者が開始時のあいさつをしており、優先されない第2話者の方が先にあいさつをしているため、第1話者に対する印象がよい。このため、分析部152は、分析範囲の分析結果を「優」と判定する。
ここで、分析部152が、音声情報に「開始時のあいさつ」が含まれているか否かをどのように判定しても良い。例えば、開始時のあいさつの音声の特徴を示すテンプレートと、話者の音声情報とを比較して、開始時のあいさつが含まれているか否かを判定しても良い。
続いて、「適切なあいづち」を分析することで、コミュニケーションの優劣を判定する処理の一例を従来技術と比較して説明する。図11は、「適切なあいづち」を分析する従来技術を説明するための図である。分析結果例1について説明する。第1話者の音声が、tに開始し、tに終了する。また、第2話者の音声が、tに開始し、tに終了し、第2話者の音声に「あいづち」が含まれているものとする。分析範囲をt〜tとする。従来技術では、第1話者の会話中に、第2話者があいづちを打っているため、分析範囲の分析結果を「優」と判定する。
分析結果例2について説明する。第1話者の音声が、tに開始し、tに終了し、第1話者の音声に「あいづち」が含まれているものとする。また、第2話者の音声が、tに開始し、tに終了する。分析範囲をt〜tとする。従来技術では、第2話者の会話中に、第1話者があいづちを打っているため、分析範囲の分析結果を「優」と判定する。
しかしながら、従来技術では、優先する話者を判断基準にいれていないため、適切に分析できていない。例えば、第1話者が第2話者よりも優先であるとすると、図11の分析結果例2では、優先される第1話者があいづちを打っているため、実際には優劣には関係がなく、従来技術による「優」の判定結果は適切でない。
図12は、「適切なあいづち」を分析する分析部の処理を説明するための図(1)である。分析結果例3について説明する。例えば、分析部152は、音声テーブル141にアクセスし、会話ID「T001」の音声情報を取得することで、第1話者と第2話者との音声情報を取得する。第1話者の音声が、時刻tに開始し、時刻tに終了する。また、第2話者の音声が、時刻tに開始し、時刻tに終了し、第2話者の音声に「あいづち」が含まれているものとする。分析部152は、会話ID「T001」をキーとして、会話パターンテーブル142を参照することで、第1話者が第2話者よりも優先であると判定する。
分析部152は、「適切なあいづち」を分析するため、分析項目テーブル143の分析項目ID「B002」のレコードを取得する。分析部152は、時刻t〜tを分析範囲とし、時刻t〜tをタグ用前方猶予時間に設定し、時刻t〜tをタグ用後方猶予時間に設定する。分析部152は、優先される第1話者の発話中に、第2話者があいづちを打っているため、第1話者に対する印象が良いと考えられ、分析範囲の分析結果を「優」と判定する。
分析結果例4について説明する。例えば、分析部152は、音声テーブル141にアクセスし、会話ID「T001」の音声情報を取得することで、第1話者と第2話者との音声情報を取得する。第1話者の音声が、tに開始し、tに終了し、第1話者の音声に「あいづち」が含まれているものとする。また、第2話者の音声が、tに開始し、tに終了する。分析部152は、会話ID「T001」をキーとして、会話パターンテーブル142を参照することで、第1話者が第2話者よりも優先であると判定する。
分析部152は、「適切なあいづち」を分析するため、分析項目テーブル143の分析項目ID「B002」のレコードを取得する。分析部152は、時刻t〜tを分析範囲とし、時刻t〜tをタグ用前方猶予時間に設定し、時刻t〜tをタグ用後方猶予時間に設定する。分析部152は、優先されない第2話者の発話中に、第1話者があいづちを打っているため、このあいづちについては、優劣には関係がないため、分析範囲の分析結果を「−」と判定する。
また、分析部152は、所定時間(例えば、30秒)あたりのあいづちの回数を更に利用して、「適切なあいづち」を分析しても良い。例えば、図12で説明したように、分析部152は、「優」と判定したあいづちの回数が、最小あいづち数以上、最大あいづち未満である場合に、あいづちに対応する分析範囲の判定結果を、そのまま「優」とする。最小あいづち数および最大あいづち数は、分析項目テーブル143の分析項目ID「B002」のレコードに設定されている。
図13は、「適切なあいづち」を分析する分析部の処理を説明するための図(2)である。例えば、最小あいづち数を「2」、最大あいづち数を「3」とすると、図13に示す例では、「優」と判定したあいづちの数が「2」であるため、各あいづちに対する分析範囲の分析結果を「優」のままとする。
これに対して、分析部152は、「優」と判定したあいづちの回数が、最小あいづち数以上、最大あいづち未満でない場合に、あいづちに対する分析範囲の判定結果を、「優」から「劣」に変更してもよい。あいづちが多すぎる、または、すくなすぎる場合には、印象が悪いと考えられるためである。
ここで、分析部152が、音声情報があいづちであるか否かを判定する処理の一例について説明する。分析部152は、分析範囲が最小時間以上、かつ、最大時間未満である場合に、分析範囲に含まれる音声情報を、あいづちと判定する。これに対して、分析部152は、分析範囲が、最小時間未満である場合や、最大時間以上である場合には、雑音であると判定する。分析部152は、分析項目テーブル143を参照し、最小時間および最大時間の情報を取得する。
「さえぎり」を分析することで、コミュニケーションの優劣を判定する処理の一例を従来技術と比較して説明する。図14は、「さえぎり」を分析する従来技術を説明するための図である。分析結果例1について説明する。第1話者の音声が、時刻tに開始し、時刻tに終了する。第2話者の音声が、時刻tに開始し、時刻tに終了する。第1話者の音声と、第2話者の音声とが重複しており、重複する範囲を、分析範囲t〜tとする。従来技術では、この分析範囲において、さえぎりが発生していると判定する。さえぎりは、相手の会話をさえぎって会話を始めることである。一般的に、さえぎりが発生すると、相手方に対する印象が悪いため、従来技術では、分析範囲t〜tの分析結果を「劣」と判定する。
分析結果例2について説明する。第1話者の音声が、時刻tに開始し、時刻tに終了する。第2話者の音声が、時刻tに開始し、時刻tに終了する。第1話者の音声と、第2話者の音声とが重複しており、重複する範囲を、分析範囲t〜tとする。従来技術では、分析結果例1と同様にして、分析範囲t〜tにおいて、さえぎりが発生していると判定する。このため、分析範囲t〜tの分析結果を「劣」と判定する。
上記のように、さえぎりが発生した場合には、相手方に対する印象が悪いといえるが、これは、各話者の優先度を考慮しないことが前提となる。例えば、優先される話者が、優先されない話者の会話をさえぎることは、相手方に対する印象が悪いのではなく、印象が良いと判定すべきである。優先する話者が、優先しない話者の発言をさえぎって、発言を訂正している場合などが考えられる。このため、従来技術による判定結果は、適切に優劣を判定できていない。
図15は、「さえぎり」を分析する分析部の処理を説明するための図である。分析結果例3について説明する。例えば、分析部152は、音声テーブル141にアクセスし、会話ID「T001」の音声情報を取得することで、第1話者と第2話者との音声情報を取得する。第1話者の音声が、時刻tに開始し、時刻tに終了する。また、第2話者の音声が、時刻tに開始し、時刻tに終了する。分析部152は、会話ID「T001」をキーとして、会話パターンテーブル142を参照することで、第1話者が第2話者よりも優先であると判定する。
分析部152は、「さえぎり」を分析するため、分析項目テーブル143の分析項目ID「B003」のレコードを取得する。分析部152は、時刻t〜tを分析範囲とし、時刻t〜tをタグ用前方猶予時間に設定し、時刻t〜tをタグ用後方猶予時間に設定する。分析部152は、分析範囲t〜tが、最大判定時間以上の場合には、分析範囲が「さえぎり」であると判定する。分析結果例3における分析範囲t〜tは、最大判定時間以上とする。
分析部152は、優先される第1話者の会話を、優先されない第2話者がさえぎっているため、分析範囲t〜tの分析結果を「劣」と判定する。
分析結果例4について説明する。例えば、分析部152は、音声テーブル141にアクセスし、会話ID「T001」の音声情報を取得することで、第1話者と第2話者との音声情報を取得する。第1話者の音声が、時刻tに開始し、時刻tに終了する。また、第2話者の音声が、時刻tに開始し、時刻tに終了する。分析部152は、会話ID「T001」をキーとして、会話パターンテーブル142を参照することで、第1話者が第2話者よりも優先であると判定する。
分析部152は、「さえぎり」を分析するため、分析項目テーブル143の分析項目ID「B003」のレコードを取得する。分析部152は、時刻t〜tを分析範囲とし、時刻t〜tをタグ用前方猶予時間に設定し、時刻t〜tをタグ用後方猶予時間に設定する。分析部152は、分析範囲t〜tが、最大判定時間以上の場合には、分析範囲が「さえぎり」であると判定する。分析結果例4における分析範囲t〜tは、最大判定時間以上とする。
分析部152は、優先されない第2話者の会話を、優先される第1話者がさえぎっているため、分析範囲t〜tの分析結果を「優」と判定する。上記のように、優先される話者が、優先されない話者の会話をさえぎることは、相手方に対する印象が悪いのではなく、印象が良いと判定すべきである。
ここで、分析部152の例外的な処理について説明する。分析部152は、優先される第1話者の会話を、優先されない第2話者がさえぎっている場合には、「劣」と判定していたが、第2話者が直ちに会話を終了した場合には、判定結果を「−」に修正する。
図16は、「さえぎり」を分析する分析部の例外処理を説明するための図である。図16の分析結果例5において、第1話者の音声が、時刻tに開始し、時刻tに終了する。また、第2話者の音声が、時刻tに開始し、時刻tに終了する。第1話者が第2話者よりも優先であるものとする。
分析部152は、時刻t〜tを分析範囲とし、時刻t〜tをタグ用前方猶予時間に設定し、時刻t〜tをタグ用後方猶予時間に設定する。分析部152は、分析範囲t〜tが、最大判定時間以上の場合には、分析範囲が「さえぎり」であると判定する。分析結果例5における分析範囲t〜tは、最大判定時間以上とする。ここで、さえぎりが発生した後、時刻tまでに、第2話者の会話が終了しているため、分析部152は、分析範囲t〜tの分析結果を「−」と判定する。
「だまりこみ」を分析することで、コミュニケーションの優劣を判定する処理の一例を従来技術と比較して説明する。図17は、「だまりこみ」を分析する従来技術を説明するための図である。分析結果例1について説明する。第2話者の音声が時刻tに開始し、時刻tに終了する。また、第2話者の音声が時刻tに開始し、時刻tに終了する。分析範囲を時刻t〜tとする。一般的に、無音は、相手に与える印象が悪いと考えられるため、従来技術では、分析範囲に無音区間があると、分析結果を「劣」と判定している。このため、従来技術では、分析範囲t〜tの分析結果を「劣」と判定する。
分析結果例2について説明する。第2話者の音声が時刻tに開始し、時刻tに終了する。また、第1話者の音声が時刻tに開始し、時刻tに終了する。分析範囲を時刻t〜tとする。分析範囲t〜tは、無音区間であるため、判定結果は「劣」となる。
しかしながら、分析範囲が無音区間である場合において、必ずしも、相手に悪い印象を与えているわけではないので、適切に分析できていない。例えば、会話の一時中断や、相手の会話を待っている状況の無音区間は、コミュニケーションの優劣に関係しない。
図18及び図19は、「だまりこみ」を分析する分析部の処理を説明するための図である。分析結果例3について説明する。例えば、分析部152は、音声テーブル141にアクセスし、会話ID「T001」の音声情報を取得することで、第2話者の音声情報を取得する。第2話者の音声が、時刻tに開始し、時刻tに終了する。また、第2話者の音声が、時刻tに開始し、時刻tに終了する。
分析部152は、「だまりこみ」を分析するため、分析項目テーブル143の分析項目ID「B004」のレコードを取得する。分析部152は、時刻t〜tを分析範囲とし、時刻t〜tをタグ用前方猶予時間に設定し、時刻t〜tをタグ用後方猶予時間に設定する。分析部152は、分析範囲t〜tが最小判定時間よりも小さい場合には、分析範囲t〜tの無音区間は、会話一時中断であるとして、分析範囲t〜tの分析結果を「−」に設定する。
分析結果例4について説明する。例えば、分析部152は、音声テーブル141にアクセスし、会話ID「T001」の音声情報を取得することで、第1話者と第2話者との音声情報を取得する。第2話者の音声が、時刻tに開始し、時刻tに終了する。また、第1話者の音声が、時刻tに開始し、時刻tに終了する。分析部152は、会話ID「T001」をキーとして、会話パターンテーブル142を参照することで、第1話者が第2話者よりも優先であると判定する。
分析部152は、「だまりこみ」を分析するため、分析項目テーブル143の分析項目ID「B004」のレコードを取得する。分析部152は、時刻t〜tを分析範囲とし、時刻t〜tをタグ用前方猶予時間に設定し、時刻t〜tをタグ用後方猶予時間に設定する。分析部152は、分析範囲t〜tが最小時間よりも短い場合には、分析範囲t〜tの無音区間は、相手の会話待ちであるとして、分析範囲t〜tの分析結果を「−」に設定する。
分析結果例5について説明する。例えば、分析部152は、音声テーブル141にアクセスし、会話ID「T001」の音声情報を取得することで、第2話者の音声情報を取得する。第2話者の音声が、時刻tに開始し、時刻tに終了する。また、第2話者の音声が、時刻tに開始し、時刻tに終了する。
分析部152は、「だまりこみ」を分析するため、分析項目テーブル143の分析項目ID「B004」のレコードを取得する。分析部152は、時刻t〜tを分析範囲とし、時刻t〜tをタグ用前方猶予時間に設定し、時刻t〜tをタグ用後方猶予時間に設定する。分析部152は、分析範囲t〜tが最小判定時間よりも大きく、最大判定時間未満の場合には、分析範囲t〜tの無音区間は、長期間の中断であるとして、分析範囲t〜tの分析結果を「劣」に設定する。
ここで、分析部152が、「だまりこみ」の分析範囲を判定する処理の一例について説明する。分析部152は、第1音声の終了時刻を基準とするタグ化用後方猶予時間に、第1音声に続く第2音声が含まれ、かつ、第2音声の開示時刻を基準とする前方タグ化用前方猶予時間に、第1音声が含まれる場合に、第1音声の終了時刻から第2音声の開始時刻までの間を、だまりこみの分析範囲と判定する。分析部152は、分析範囲を特定した後に、上記処理を実行する。
以上説明してきたように、分析部152は、音声テーブル141から分析対象となる音声情報を取得し、音声情報の会話IDと、会話パターンテーブル142に基づいて、各音声情報の話者の優先を判定したうえで、「開始時あいさつ」、「適切なあいづち」、「さえぎり」、「だまりこみ」の分析を実行する処理を、各音声情報に対し実行し、分析範囲の「優」、「劣」、「−」を判定する。分析部152は、判定結果を分析結果テーブル144に格納する。
図8に示すように、分析部152は、分析結果にユニークな分析結果IDを割り当て、分析結果ID、分析項目ID、タグ番号、開始時刻、終了時刻、分析結果を対応づけて、分析結果テーブル144に格納する。ここで、タグ番号は、上述した分析範囲を示す番号である。
ところで、分析部152は、各話者の立場が対等である場合には、従来技術と同様の判定基準によって、コミュニケーションの優劣を判定しても良い。
図1の説明に戻る。表示制御部153は、分析結果テーブル144の情報を基にして、コミュニケーションの優劣の分析結果を、時間と対応付けて表示部130に表示させる処理部である。例えば、表示制御部153は、分析結果テーブル144を基にして、分析結果表示画面を生成する。
図20は、分析結果表示画面の一例を示す図である。図20に示すように、分析結果表示画面50は、第1話者音声情報の時間変化に伴う波形を示す領域51と、第2話者音声情報の時間変化に伴う波形を示す領域52とを有する。分析結果表示画面50は、各分析項目の分析結果を表示する結果表示領域53〜56を有する。また、表示制御部153は、優先する話者の情報を、領域50aに表示させても良い。
各結果表示領域53には、分析範囲に対応する複数のタグが、表示される。例えば、分析項目「開始時のあいさつ」の結果表示領域53には、タグ53aが表示される。分析項目「適切なあいづち」の結果表示領域54には、タグ54a,54b,54cが表示される。分析項目「さえぎり」の結果表示領域55には、タグ55aが表示される。分析項目「だまりこみ」の結果表示領域56には、タグ56a,56b,56cが表示される。
各タグに対応する時刻は、分析結果テーブル144の開始時刻、終了時刻に定義されている。利用者は、入力部120を操作することで、気になる分析結果を表示するタグを選択し、話者の音声を視聴することができる。例えば、表示制御部153は、利用者によって、タグが選択されると、タグに対応する時刻の、第1利用者の音声、第2利用者の音声を再生する。
表示制御部153は、タグ53aが選択された場合には時間Tにおける第1話者の音声、第2話者の音声を、音声テーブル141から検索し、スピーカ135から出力させる。表示制御部153は、タグ54aが選択された場合には時間Tにおける第1話者の音声、第2話者の音声を、音声テーブル141から検索し、スピーカ135から出力させる。表示制御部153は、タグ54bが選択された場合には時間Tにおける第1話者の音声、第2話者の音声を、音声テーブル141から検索し、スピーカ135から出力させる。表示制御部153は、タグ54cが選択された場合には時間Tにおける第1話者の音声、第2話者の音声を、音声テーブル141から検索し、スピーカ135から出力させる。
表示制御部153は、タグ55aが選択された場合には時間Tにおける第1話者の音声、第2話者の音声を、音声テーブル141から検索し、スピーカ135から出力させる。表示制御部153は、タグ56aが選択された場合には時間Tにおける第1話者の音声、第2話者の音声を、音声テーブル141から検索し、スピーカ135から出力させる。表示制御部153は、タグ56bが選択された場合には時間Tにおける第1話者の音声、第2話者の音声を、音声テーブル141から検索し、スピーカ135から出力させる。表示制御部153は、タグ56cが選択された場合には時間Tにおける第1話者の音声、第2話者の音声を、音声テーブル141から検索し、スピーカ135から出力させる。
次に、本実施例に係る分析装置の処理手順の一例について説明する。図21は、本実施例に係る分析装置の処理手順の一例を示すフローチャートである。図21に示すように、分析装置100の取得部151は、音声テーブル141から音声情報を取得する(ステップS101)。分析部100は、音声情報を、第1音声情報と、第2音声情報に分離する(ステップS102)。
分析装置100の分析部152は、音声情報の会話IDと、会話パターンテーブル142とを比較して、第1話者と第2話者とのうち、どちらの話者を優先するのかを判定する(ステップS103)。分析部152は、分析項目を選択し(ステップS104)、分析項目に応じて、分析範囲の優劣を判定する(ステップS105)。分析部152は、分析結果を、分析テーブル144に格納する(ステップS106)。
分析部152は、他の分析項目を選択するか否かを判定する(ステップS107)。分析152は、他の分析項目を選択する場合には(ステップS107,Yes)、ステップS104に移行する。一方、分析部152は、他の分析項目を選択しない場合には(ステップS107,No)、ステップS108に移行する。
分析部152は、他の音声情報を分析するか否かを判定する(ステップS108)。分析部152は、他の音声情報を分析する場合には(ステップS108,Yes)、ステップS101に移行する。分析部152は、他の音声情報を分析しない場合には(ステップS108,No)、ステップS109に移行する。
分析装置100の表示制御部153は、分析結果表示画面を生成する(ステップS109)。表示制御部153は、分析結果表示画面を表示し、タグ選択に応じて、音声情報を出力する(ステップS110)。
次に、本実施例に係る分析装置100の効果について説明する。分析装置100は、第1話者の発話時間と、第2話者の発話時間との関係に加えて、第1話者と第2話者との立場の優先順位を判断基準に加えることで、コミュニケーションの優劣を判定する。このため、コミュニケーションの優劣を適切に判定することができる。
なお、分析装置100は、上述したように、会話IDをキーにして、第1話者と第2話者との立場の優先順位を判定しても良いし、会話パターンに基づいて、第1話者と第2話者との立場の優先順位を判定しても良い。例えば、図6の会話パターンテーブル142を用いて説明すると、分析部152は、会話パターンが「コールセンターでの電話対応」である場合には、「第1話者優先」であると判定する。会話パターンは、例えば、音声情報に対応付けられているものとする。
ところで、本実施例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部あるいは一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
さらに、各装置にて行われる各処理機能は、その全部または任意の一部がCPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
100 分析装置
110 インタフェース部
120 入力部
130 表示部
135 スピーカ
140 記憶部
141 音声テーブル
142 会話パターンテーブル
143 分析項目テーブル
144 分析結果テーブル
150 制御部
151 取得部
152 分析部
153 表示制御部

Claims (9)

  1. 第1話者および第2話者のうち、どちらの話者を優先するのかを示す優先関係情報と、コミュニケーションの状況を一意に識別する項目とを対応付けたテーブルとを記憶する記憶装置と、
    複数の話者の間でなされた前記コミュニケーションの音声情報から、前記第1話者が発話した時間を示す第1発話時間と、前記第2話者が発話した時間を示す第2発話時間とを取得する取得部と、
    分析対象とするコミュニケーションの状況に応じた項目に対応付けられる優先関係情報を前記記憶装置に記憶されたテーブルから選択し、選択した優先関係情報を基にして、前記第1話者が前記第2話者よりも優先されるか否かを判定し、前記第1話者が第2話者よりも優先されるか否かの判定結果と、前記第1発話時間および前記第2発話時間の関係とを基にして、前記コミュニケーションの優劣を分析する分析部と
    を有することを特徴とする分析装置。
  2. 前記分析部は、前記第1話者が前記第2話者よりも優先され、前記第1発話時間と前記第2発話時間との一部が重複し、前記第2発話時間の開始時刻よりも、前記第1発話時間の開始時刻の方が遅い場合に、前記コミュニケーションが優れていると判定することを特徴とする請求項1に記載の分析装置。
  3. 前記分析部は、前記第2発話時間の終了時刻が、前記第2発話時間の猶予時間経過前である場合に、前記コミュニケーションの優劣を判定することをスキップすることを特徴とする請求項に記載の分析装置。
  4. 前記分析部は、前記第1話者が前記第2話者よりも優先され、前記第1発話時間に所定の単語が含まれており、前記第1発話時間の開始時刻が、前記第2発話時間の開始時刻よりも早い場合に、前記コミュニケーションが劣っていると判定することを特徴とする請求項1、2または3に記載の分析装置。
  5. 前記分析部は、前記第1話者が前記第2話者よりも優先され、前記第1発話時間に前記第2発話時間が含まれ、かつ、前記第2発話時間の時間幅が所定時間幅未満である場合に、前記コミュニケーションが優れていると判定することを特徴とする請求項1〜のいずれか一つに記載の分析装置。
  6. 前記分析部は、前記第1話者が前記第2話者よりも優先され、前記第2発話時間の終了時刻から前記第1発話時間の開始時刻までの時間が所定時間以内である場合に、前記コミュニケーションの優劣を判定することをスキップすることを特徴とする請求項1〜のいずれか一つに記載の分析装置。
  7. 前記分析部によるコミュニケーションの優劣の分析結果と、時間とを対応付けて表示部に表示させる表示制御部を更に有することを特徴とする請求項1〜のいずれか一つに記載の分析装置。
  8. コンピュータが実行する分析方法であって、
    前記コンピュータは、第1話者および第2話者のうち、どちらの話者を優先するのかを示す優先関係情報と、コミュニケーションの状況を一意に識別する項目とを対応付けたテーブルとを記憶する記憶装置を有し、
    複数の話者の間でなされた前記コミュニケーションの音声情報から、前記第1話者が発話した時間を示す第1発話時間と、前記第2話者が発話した時間を示す第2発話時間とを取得し、
    分析対象とするコミュニケーションの状況に応じた項目に対応付けられる優先関係情報を前記記憶装置に記憶されたテーブルから選択し、
    選択した前記記憶装置に記憶された優先関係情報を基にして、前記第1話者が前記第2話者よりも優先されるか否かを判定し、
    前記第1話者が第2話者よりも優先されるか否かの判定結果と、前記第1発話時間および前記第2発話時間の関係とを基にして、前記コミュニケーションの優劣を分析する
    処理を実行することを特徴とする分析方法。
  9. 第1話者および第2話者のうち、どちらの話者を優先するのかを示す優先関係情報と、コミュニケーションの状況を一意に識別する項目とを対応付けたテーブルとを記憶する記憶装置を有するコンピュータに、
    複数の話者の間でなされたコミュニケーションの音声情報から、前記第1話者が発話した時間を示す第1発話時間と、前記第2話者が発話した時間を示す第2発話時間とを取得し、
    分析対象とするコミュニケーションの状況に応じた項目に対応付けられる優先関係情報を前記記憶装置に記憶されたテーブルから選択し、
    選択した優先関係情報を基にして、前記第1話者が前記第2話者よりも優先されるか否かを判定し、
    前記第1話者が第2話者よりも優先されるか否かの判定結果と、前記第1発話時間および前記第2発話時間の関係とを基にして、前記コミュニケーションの優劣を分析する
    処理を実行させることを特徴とする分析プログラム。
JP2016064591A 2016-03-28 2016-03-28 分析装置、分析方法および分析プログラム Active JP6751305B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016064591A JP6751305B2 (ja) 2016-03-28 2016-03-28 分析装置、分析方法および分析プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016064591A JP6751305B2 (ja) 2016-03-28 2016-03-28 分析装置、分析方法および分析プログラム

Publications (2)

Publication Number Publication Date
JP2017181596A JP2017181596A (ja) 2017-10-05
JP6751305B2 true JP6751305B2 (ja) 2020-09-02

Family

ID=60004283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016064591A Active JP6751305B2 (ja) 2016-03-28 2016-03-28 分析装置、分析方法および分析プログラム

Country Status (1)

Country Link
JP (1) JP6751305B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6859283B2 (ja) * 2017-11-30 2021-04-14 日本電信電話株式会社 好感度推定装置、好感度推定方法、プログラム
JP6517419B1 (ja) * 2018-10-31 2019-05-22 株式会社eVOICE 対話要約生成装置、対話要約生成方法およびプログラム
JP6594577B1 (ja) * 2019-03-27 2019-10-23 株式会社博報堂Dyホールディングス 評価システム、評価方法、及びコンピュータプログラム。

Also Published As

Publication number Publication date
JP2017181596A (ja) 2017-10-05

Similar Documents

Publication Publication Date Title
US9992336B2 (en) System for analyzing interactions and reporting analytic results to human operated and system interfaces in real time
US8731935B2 (en) Issuing alerts on detection of contents of interest introduced during a conference
US9936066B1 (en) Reviewing portions of telephone call recordings in a contact center using topic meta-data records
US9880807B1 (en) Multi-component viewing tool for contact center agents
WO2014069120A1 (ja) 分析対象決定装置及び分析対象決定方法
US8494149B2 (en) Monitoring device, evaluation data selecting device, agent evaluation device, agent evaluation system, and program
US7961860B1 (en) Systems and methods for graphically displaying and analyzing call treatment operations
US8599704B2 (en) Assessing gateway quality using audio systems
JP6751305B2 (ja) 分析装置、分析方法および分析プログラム
US9854097B2 (en) Configuring contact center components for real time speech analytics
EP1632083A1 (en) Apparatus and method for event-driven content analysis
JP4522345B2 (ja) 電話業務検査システム及びそのプログラム
WO2003013113A2 (en) Automatic interaction analysis between agent and customer
JP5558792B2 (ja) 複合イベント・プロセッサを使用して対話式音声応答システムのパフォーマンスを動的に改善する方法、システム、及びコンピュータ・プログラム
JP2006251898A (ja) 情報処理装置、情報処理方法およびプログラム
CN112839195A (zh) 一种会议记录的查阅方法、装置、计算机设备及存储介质
JP5347455B2 (ja) 会話異常検知装置、会話異常検知方法、及び会話異常検知プログラム
US20140010362A1 (en) Operator evaluation support device and operator evaluation support method
JP5424332B2 (ja) 電話応答結果予測装置、方法、およびそのプログラム
JP5790757B2 (ja) オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラム
JP6963497B2 (ja) 音声認識システム、通話評価設定方法
JP2018170611A (ja) コールセンタシステム及び通話監視方法
JP5679005B2 (ja) 会話異常検知装置、会話異常検知方法、及び会話異常検知プログラム
WO2023162009A1 (ja) 感情情報活用装置、感情情報活用方法及びプログラム
WO2020258168A1 (en) A method for managing incoming calls on a communication device and the corresponding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200814

R150 Certificate of patent or registration of utility model

Ref document number: 6751305

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533