WO2020184631A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2020184631A1
WO2020184631A1 PCT/JP2020/010634 JP2020010634W WO2020184631A1 WO 2020184631 A1 WO2020184631 A1 WO 2020184631A1 JP 2020010634 W JP2020010634 W JP 2020010634W WO 2020184631 A1 WO2020184631 A1 WO 2020184631A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
user
call
voice
call destination
Prior art date
Application number
PCT/JP2020/010634
Other languages
English (en)
French (fr)
Inventor
武史 會田
健勝 平村
敏巳 川田
Original Assignee
株式会社RevComm
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2019043549 priority Critical
Priority to JP2019-043549 priority
Application filed by 株式会社RevComm filed Critical 株式会社RevComm
Publication of WO2020184631A1 publication Critical patent/WO2020184631A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06QDATA PROCESSING SYSTEMS OR METHODS, SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL, SUPERVISORY OR FORECASTING PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL, SUPERVISORY OR FORECASTING PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management

Abstract

客観的な指標を考慮しつつ、より効率的な営業活動の実現を補助する手法を提供することを課題とする。 通話先Cと通話するユーザUを支援するサーバ1において、取得部101は、ユーザUと通話先Cとの通話の間で録音された情報を通話情報として取得する。抽出部102は、取得された通話情報から音声が存在する発話区間VS1乃至VSnを検出し、発話区間VS1乃至VSnの夫々の音声情報VI1乃至VImを抽出する。解析部103は、抽出された音声情報VI1乃至VImに基づいて、要素E1乃至Epに基づく解析を行う。生成部104は、解析の結果に基づいて、ユーザUの通話を支援する営業支援情報を生成する。提示部105は、生成された営業支援情報をユーザUに提示する。これにより、上記の課題を解決する。

Description

情報処理装置
 本発明は、情報処理装置に関する。
 従来より、電話を利用した営業活動は一般的に行われており、これを支援する技術も存在する(例えば特許文献1)。
特開2002-269335号公報
 しかしながら、特許文献1に記載された技術を含め、従来の技術では、電話による営業活動を評価する場合、営業活動を管理する立場にある上司等の主観に基づいて行われることが一般的であった。
 このため、営業活動の客観的な評価は、営業成績(例えば成約率、成約数)や、顧客からの評価(例えばアンケート)等に限られていた。その結果、営業担当者の教育は、上司等が個別に行ったり、社内で研修や講義等を開催したりする必要があり、コストがかかっていた。
 本発明は、このような状況に鑑みてなされたものであり、客観的な指標を考慮しつつ、より効率的な営業活動の実現を補助することを目的とする。
 上記目的を達成するため、本発明の一態様の表示制御装置は、
 通話先と通話するユーザを支援する情報処理装置において、
 前記ユーザと前記通話先との通話の間で録音された情報を、通話情報として取得する取得手段と、
 取得された前記通話情報から、音声が存在する発話区間を検出し、前記発話区間毎の音声情報を抽出する抽出手段と、
 抽出された1以上の前記音声情報に基づいて、1以上の要素に基づく解析を行う解析手段と、
 前記解析の結果に基づいて、前記ユーザの通話を支援する支援情報を生成する生成手段と、
 生成された前記支援情報を前記ユーザに提示する提示手段と、
 を備える。
 また、前記1以上の要素には、保留音に関する情報を含めることができる。
 また、前記1以上の要素には、音の信号に関する情報を含めることができる。
 また、前記1以上の要素には、前記発話区間内の文字に関する情報をさらに含むことができる。
 また、前記支援情報には、前記ユーザの話し方、前記通話先が話す内容、又は前記ユーザに対するアドバイスのうち少なくとも1つの情報を含むことができる。
 本発明によれば、客観的な指標を考慮しつつ、より効率的な営業活動の実現を補助することができる。
本発明の情報処理装置の一実施形態に係る管理サーバを含む、情報処理システムにより実現可能な営業支援サービスの概要を示すイメージ図である。 本発明の情報処理装置の一実施形態に係る管理サーバを含む、情報処理システムの構成を示す図である。 図2の情報処理システムを構成する管理サーバのハードウェア構成の一例を示すブロック図である。 図3の管理サーバを含む情報処理システムの機能的構成のうち、営業支援処理を実行するための機能的構成を示す機能ブロック図である。 管理サーバにより生成される営業支援情報の具体例を示す図である。 図5の営業支援情報に含まれる、応対メモ選択登録画面の具体例を示す図である。 応対メモ設定画面の具体例を示す図である。 ユーザから通話先に架電する場合における情報処理システムの処理の流れを示す図である。 ユーザが通話先からの架電を受電する場合における情報処理システムの処理の流れを示す図である。 音声認識結果の文中のフィラーが識別されて除去される具体例を示す図である。 各種各様なシステムと連携して利用可能なUIを有する発着信画面 支援情報がリアルタイムで活用される場合の具体例を示す図である。 音声認識結果の訂正機能の具体例を示す図である。
 以下、本発明の一実施形態について図面を適宜参照しつつ説明する。
 [サービス概要]
 図1は、本発明の情報処理装置の一実施形態に係る管理サーバ1を含む、情報処理システムにより実現可能な営業支援サービス(以下、「本サービス」と呼ぶ)の概要を示すイメージ図である。
 まず図1を参照しつつ、後述する図2の情報処理システムの適用対象となる本サービスの概略について説明する。
 本サービスは、電話等の通話手段を用いた営業業務(以下、「電話営業」と呼ぶ)を行う者(以下、「ユーザ」と呼ぶ)に対し、電話営業を支援するための情報(以下、「営業支援情報」と呼ぶ)を提供するサービスである。
 ここで、「通話」とは、一般的な電話による音声のやり取りに限定されず、通信による音声のやり取り、及び無音部分を含む概念とする。
 また、「音声」とは、人が発声器官を通じて発する音(声)を意味しており、典型的には例えば、ユーザUと通話先Cとの間で電話を介して取り交わされる声等がこれに含まれる。しかしながら、本明細書における「音声」には、通話に関連して発生し得る各種音、例えば、保留音や周囲の雑音等が含まれるものとする。
 図1に示すように、本サービスでは、解析用ソフトウェア(第1発明)と、通話用ハードウェア(第2発明)とが用いられる。解析用ソフトウェアが用いられることで、ユーザの電話営業の内容の解析及び評価が可能となり、通話用ハードウェアが用いられることで、ユーザによる電話営業が可能となる。
 その結果、定性的な面からも、また定量的な面からも、利益の増加とコストの削減とを図ることが可能となる。
 [第1発明]
 (解析用ソフトウェア)
 本サービスにおいて、ユーザによる架電又は受電の相手方となる者(以下、「通話先」と呼ぶ)との間の通話に関する情報は、通話情報として記憶され、ビッグデータ化される。また、ビッグデータ化された通話情報は、AI(人工知能)による解析の対象となり、その解析結果に基づいて営業支援情報が生成される。
 本サービスにおける解析用ソフトウェアを用いることにより、全ての受発信のログをクラウド(図2の管理サーバ1)に記憶させて保存することができるので、膨大な通話情報をビッグデータとして資産化することができる。これにより、AI(人工知能)を利用した処理にビッグデータを活用することができる。具体的には例えば、AI(人工知能)が、ユーザの通話をリアルタイムでフィードバックすることもできるので、電話営業の質を向上させて、成約率の向上を図ることができる。
 また、業務上、管理職にある者やスーパーバイザー等、ユーザを管理する立場にある者(以下、「管理者」と呼ぶ)は、管理される側のユーザ全員の稼動状況をリアルタイムでモニタリングすることができるので、「良かった点」や「悪かった点」などを含め、的確な指示や教育を行うことができる。
 また、応対に関する履歴が自動で作成されるので、顧客データと成約に関する情報とが紐付けられた通話情報に容易にアクセスすることができる。このため、本サービスと顧客関係管理(CRM/Customer Relationship Management)とを連携させることができる。
 また、社内で別途管理されているデータベース等に本サービスを連携させることもできるので、社内システムの一括管理を実現させることもできる。
 また、ビッグデータ化された通話情報について、キーワードでタグ付けを行うこともできる。即ち、音声認識を利用して、事前に登録されたキーワードの出現が検知された場合に、検知されたキーワードと出現場所に関する情報とを付記することもできる。また、ユーザの発話時間と通話先の発話時間との比率(Talk:Listen比率)、被りが生じた回数、沈黙が生じた回数、話すスピード(以下、「話速」と呼ぶ)、音声認識結果、自動的に要約された文書等について解析を行うことができる。また、通話の中身を対象とする解析を行うこともできる。さらに、通話の内容を文字に起こすこともできるので、ユーザは、入力作業やメモをとる作業を省いて、通話先との会話に集中することができる。さらに、音声認識結果の文中のフィラー(例えばえー、あのー、などの言い淀み)を識別して除去することができる。これにより、音声認識結果の読み易さを向上させることができる。なお、音声認識結果の文中のフィラーが識別されて除去される具体例については、図10を参照して後述する。
 これにより、本サービスを利用するユーザは、営業支援情報を活用することにより、従来から存在する以下の問題を解決することができる。
 即ち、「電話営業におけるノウハウが蓄積されていないため電話営業をどのように行えばよいのかがわからない」という問題、「受注を逃した案件(以下、「失注」と呼ぶ)の原因を追究せずにそのままの状態になっている」という問題、「通話先にニュアンスやパーソナリティまで細かく伝達することができない」という問題、「顧客情報を確認しながら架電することを面倒に感じてしまう」という問題を、営業支援情報を活用することで解決することができる。
 また、管理者は、営業支援情報を活用することにより、従来から存在する以下の問題を解決することができる。
 即ち、「誰によるどのような理由で失注が生じたのかを特定することができない」という問題、「営業成績の優秀なユーザの話術を他のユーザに効率良く学んでもらう方法がない」という問題、「トラブルが生じた際、過去の通話実績を確認することが困難である」という問題を、営業支援情報を活用することで解決することができる。
 さらに、本サービスによれば、各種設定の変更等の操作が容易であるため、「ユーザの不在時や営業時間外における着信設定の変更が面倒である」という問題を容易に解決することもできる。
 また、本サービスを利用するユーザに提供される営業支援情報は、グラフや具体的な数値を用いたダッシュボード機能による「見える化」がなされる。これにより、ユーザ全員の通話を対象とする解析を行うことができる。具体的には例えば、図示はしないが、担当者(ユーザ)毎の実績比較、商談が成功した応対との数値の比較、類似する商談戦略を持った他の担当者(ユーザ)と比較してどのような指標が乖離しているのかを図示することができる。
 これにより、ユーザ同士で協力し、または切磋琢磨して組織全体の生産性を向上させることができる。
 このように、本サービスによれば、管理者(図示せず)は、管理される側のユーザを教育する際、営業支援情報を活用することで費用をかけずに効率的に教育することができる。また、ユーザは、通話先との通話において、支援情報をリアルタイムで活用することができる。
 その結果、ユーザ(営業担当者)の教育にかかるコストを低減させながらも成約率を向上させることが可能となる。
 (システム構成)
 次に、図1に示す本サービスの提供を実現化させる情報処理システムの構成について説明する。
 図2は、本発明の情報処理装置の一実施形態に係る管理サーバ1を含む、情報処理システムの構成を示す図である。
 図2に示す情報処理システムは、管理サーバ1と、専用通信装置2と、ユーザ端末3と、音声サーバ(PBX/Private Branch eXchanger)4と、通話先端末5とを含むように構成されている。
 管理サーバ1、専用通信装置2、ユーザ端末3、及び音声サーバ(PBX)4は、インターネット等の所定のネットワークNを介して相互に接続されている。また、音声サーバ(PBX)4と、通話先端末5とは、電話網Tを介して接続されている。
 (管理サーバ)
 管理サーバ1は、サービス提供者(図示せず)により管理される情報処理装置である。管理サーバ1は、専用通信装置2、ユーザ端末3、及び音声サーバ(PBX)4と適宜通信をしながら、本サービスを実現するための各種処理を実行する。
 具体的には、管理サーバ1は、ユーザUと通話先Cとの通話で録音された通話情報から、音声が存在する区間(以下、「発話区間」と呼ぶ)VS1乃至VSn(nは1以上の整数値)を検出し、発話区間VS1乃至VSnの夫々について、音声情報VI1乃至VIm(mは1以上の整数値)を抽出する。また、抽出された音声情報VI1乃至VImの夫々について、声、保留音、及びその他の雑音の判別が行われる。なお、これらを判別するための具体的手法は特に限定されない。例えば信号処理技術、AI(人工知能)を利用した機械学習や深層学習によって判別してもよい。
 以下、発話区間VS1乃至VSvを区別する必要がない場合、これらをまとめて「発話区間VS」と呼ぶ。また、音声情報VI1乃至VImを区別する必要がない場合、これらをまとめて「音声情報V」と呼ぶ。
 また、管理サーバ1は、抽出した音声情報VIに基づいて、要素E1乃至Ep(pは1以上の整数値)に基づく解析を行い、その解析結果に基づいて、営業支援情報を生成する。以下、要素E1乃至Epを区別する必要がない場合、これらをまとめて要素Eと呼ぶ。
 なお、要素Eの内容は特に限定されない。例えば、「保留音」に関する情報を要素Eとする解析が行われる場合には、抽出された音声情報VIのうち、保留音の時間や回数等についての解析が行われる。また、「ユーザUのみが発話している箇所」に関する情報を要素Eとする解析が行われる場合には、抽出された音声情報VIのうち、ユーザUが発話している時間や回数、又は内容についての解析が行われる。また、「通話先Cのみが発話している箇所」に関する情報を要素Eとする解析が行われる場合には、抽出された音声情報VIのうち、通話先Cが発話している時間や回数、又は内容についての解析が行われる。また、「被りが生じた箇所」に関する情報を要素Eとする解析が行われる場合には、抽出された音声情報VIのうち、ユーザUによる発話と、通話先Cによる発話とが同時に行われている箇所(被っている箇所)の時間や回数、又は内容についての解析が行われる。また、「沈黙が生じた箇所」に関する情報を要素Eとする解析が行われる場合には、抽出された音声情報VIのうち、ユーザU及び通話先Cのいずれもが発話していない箇所(無音部分)の時間や回数についての解析が行われる。
 また、管理サーバ1は、生成された営業支援情報をユーザUに提示する。なお、管理サーバ1は、単に営業支援情報をユーザ端末3に送信する制御を実行する。そして、ユーザ端末3では、取得した営業支援情報を出力して、ユーザに認識されることになる。
 その意味において、本明細書において、管理サーバ1は、生成された営業支援情報をユーザUに提示することが可能となる。
 (専用通信装置)
 専用通信装置2は、ユーザUから通話先Cへの架電、及び通話先CからユーザUへの架電に対する受電を制御する装置である。専用通信装置2は、独立した筐体を有する装置であってもよいし、一部又は全ての機能を、後述するユーザ端末3(例えば図2に描画されたPC)に搭載させてもよい。また、専用通信装置2は、ユーザUのヘッドセット(例えば図2に描画されたヘッドセット)に搭載させてもよい。
 なお、専用通信装置2の態様については、第2発明の説明において後述する。
 (ユーザ端末)
 ユーザ端末3は、ユーザUが電話営業を行うために操作する情報処理装置であって、例えばパーソナルコンピュータ、スマートフォン、タブレット等で構成される。ユーザ端末3は、管理サーバ1により生成された営業支援情報を表示する。これにより、ユーザUは、ユーザ端末3に表示された営業支援情報を自身の電話営業に活かすことができる。
 ユーザ端末3には、本サービスの提供を受けるための各種のアプリケーションプログラム(以下、「アプリ」と呼ぶ)がインストールされている。なお、以下、断りのない限り、「ユーザUがユーザ端末3を操作する」と表現している場合、それは、ユーザUが、ユーザ端末3にインストールされたアプリを起動して各種操作を行うことを意味するものとする。
 (音声サーバ(PBX))
 音声サーバ4は、ネットワークNと電話網Tとを互いに接続することで専用通信装置2と通話先端末5との間における通話を可能とする交換機として機能するサーバである。音声サーバ4は、通話先CからユーザUに対する架電があった場合に、専用通信装置2のアプリに対し、その旨を示すメッセージ(以下、「着信通知メッセージ」と呼ぶ)を送る。また、音声サーバ4は、Webサイト内に組み込まれたコードスニペッド(以下、「ビーコン」と呼ぶ)、及びSDK(Software Development Kit)に着信通知メッセージを送る。
 (通話先端末)
 通話先端末5は、通話先CがユーザUと通話する際に操作する情報処理端末であって、例えばスマートフォン、固定電話等で構成される。
 管理サーバ1を含む情報処理システムが以上のような構成を有することにより、業務上、管理者は、管理される側のユーザを教育する際、営業支援情報を活用することで費用をかけずに効率的に教育することができる。また、ユーザは、通話先との通話において、支援情報をリアルタイムで活用することができる。
 その結果、ユーザ(営業担当者)の教育にかかるコストを低減させながらも成約率を向上させることが可能となる。
 (ハードウェア構成)
 図3は、図2の情報処理システムを構成する管理サーバ1のハードウェア構成の一例を示すブロック図である。
 管理サーバ1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、出力部16と、入力部17と、記憶部18と、通信部19と、ドライブ20と、を備えている。
 CPU11は、ROM12に記録されているプログラム、又は記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
 RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
 CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、出力部16、入力部17、記憶部18、通信部19及びドライブ20が接続されている。
 出力部16は、液晶等のディスプレイにより構成され、各種画像を表示する。
 入力部17は、各種ハードウェアボタン等で構成され、操作者の指示操作に応じて各種情報を入力する。
 記憶部18は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
 通信部19は、インターネットを含むネットワークNを介して他の装置(専用通信装置2、ユーザ端末3、及び音声サーバ(PBX)4)との間で行う通信を制御する。
 ドライブ20は、必要に応じて設けられる。ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア30が適宜装着される。ドライブ20によってリムーバブルメディア30から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。また、リムーバブルメディア30は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
 なお、図示はしないが、図2の情報処理システムのうち、専用通信装置2、ユーザ端末3、音声サーバ(PBX)4、及び通話先端末5も、図2に示すハードウェア構成を有している。ただし、専用通信装置2、ユーザ端末3、及び通話先端末5がスマートフォンやタブレットで構成される場合には、出力部16及び入力部17として、タッチパネルを有している。
 このような図1の管理サーバ1の各種ハードウェアと各種ソフトウェアとの協働により、管理サーバ1において、営業支援処理等の各種処理の実行が可能になる。その結果、サービス提供者(図示せず)は、ユーザUに対し、上述のサービスを提供することができる。営業支援処理とは、ユーザUに営業支援情報を生成して提示する処理をいう。
 以下、営業支援処理を実行するための機能構成について説明する。
 (機能的構成)
 (管理サーバ)
 図4は、図3の管理サーバ1を含む情報処理システムの機能的構成のうち、営業支援処理を実行するための機能的構成を示す機能ブロック図である。
 図4に示すように、管理サーバ1のCPU11においては、営業支援処理の実行が制御される場合、取得部101と、抽出部102と、解析部103と、生成部104と、提示部105とが機能する。
 取得部101は、ユーザと通話先との通話の間で録音された情報を、通話情報として取得する。
 具体的には、取得部101は、ユーザUと通話先Cとの通話の間で録音された情報を通話情報として取得する。
 取得部101により取得された通話情報は、通話DB181に記憶されて管理される。
 抽出部102は、取得された通話情報から、音声が存在する発話区間を検出し、発話区間毎の音声情報を抽出する。
 具体的には、抽出部102は、取得部101により取得された通話情報から発話区間VS1乃至VSnを検出し、発話区間VS1乃至VSvの夫々について、音声情報VI1乃至VImを抽出する。
 解析部103は、抽出された1以上の音声情報に基づいて、1以上の要素に基づく解析を行う。
 具体的には、解析部103は、抽出部102により抽出された音声情報VI1乃至VImに基づいて、要素E1乃至Epに基づく解析を行う。
 上述したように、解析部103は、「保留音」、「ユーザUのみが発話している箇所」、「通話先Cのみが発話している箇所」、「被りが生じた箇所」、「沈黙が生じた箇所」等に関する情報を要素Eとする解析を行うことができる。例えば、「保留音」に関する情報を要素Eとする解析を行う場合には、音声情報VIに含まれるユーザUの音声及び通話先Cの音声と、保留音とを区別し、通話が保留状態となった回数や時間を特定する。
 また例えば、解析部103は、要素E1乃至Epに基づいて、ユーザU及び通話先Cの感情の度合を判定し、その判定結果を解析結果に加味することができる。この場合、音声サーバ(PBX)4の他にビデオ中継サーバ(図示せず)を情報処理システムの構成に含めることで、撮像された動画像からユーザU及び通話先Cの感情の度合を判定することもできる。
 また例えば、解析部103は、解析に際して、解析候補にゆらぎを含んだ検索の結果を考慮すること等して、解析の精度を高めてもよい。
 なお、解析部103による解析の結果は、解析結果DB182に記憶されて管理される。
 生成部104は、解析の結果に基づいて、ユーザの通話を支援する支援情報を生成する。
 具体的には、生成部104は、解析部103による解析の結果に基づいて、営業支援情報を生成する。なお、生成部104により生成される営業支援情報の詳細については、図5に示す具体例を参照して後述する。
 提示部105は、生成された支援情報をユーザに提示する。
 具体的には、提示部105は、生成部104により生成された営業支援情報をユーザ端末3に送信する制御を実行する。
 (専用通信装置)
 また、管理サーバ1により営業支援処理の実行が制御される場合、専用通信装置2においては、音声入出力部201と、制御部202とが機能する。
 音声入出力部201は、音声の入力及び出力を行う。
 制御部202は、専用通信装置2の各種機能の制御を実行する。具体的には例えば、制御部202は、専用通信装置2における音声の入出力の制御、及び通信の制御を実行する。
 (ユーザ端末)
 また、管理サーバ1により営業支援処理の実行が制御される場合、ユーザ端末3においては、アプリ制御部301が機能する。
 アプリ制御部301は、ユーザ端末3における各種アプリのインストール、起動、及び終了の制御を実行する。
 具体的には例えば、アプリ制御部301は、Webアプリ311、デスクトップアプリ312、及びモバイルアプリ313のインストール、起動、及び終了の制御を実行する。
 ここで、Webアプリ311は、ネットワークNを介して使用するアプリである。デスクトップアプリ312は、ユーザ端末3のデスクトップ環境上で動作するアプリであり、ユーザ端末3にインストールされることで動作する。モバイルアプリ313は、スマートフォン、タブレット、その他の携帯端末で動作するように設計されたアプリである。
 (音声サーバ(PBX))
 また、管理サーバ1により営業支援処理の実行が制御される場合、音声サーバ(PBX)4においては、通信転送部401と、制御部402とが機能する。
 通信転送部401は、専用通信装置2から送信されてきた通信情報を通話先端末5に転送し、通話先端末5から送信されてきた通信情報を専用通信装置2に転送する。
 制御部402は、通信転送部401による通信情報の転送の制御を実行する。
 以上の機能的構成を有する管理サーバ1、専用通信装置2、ユーザ端末3、及び音声サーバ(PBX)4を含む情報処理システムにより掲載判定処理を実行することができる。
 これにより、業務上、管理者は、管理される側のユーザを教育する際、営業支援情報を活用することで費用をかけずに効率的に教育することができる。また、ユーザは、通話先との通話において、支援情報をリアルタイムで活用することができる。
 その結果、ユーザ(営業担当者)の教育にかかるコストを低減させながらも成約率を向上させることが可能となる。
 (具体例)
 次に、図5乃至7を参照して、管理サーバ1により生成される営業支援情報の具体例について説明する。
 図5は、管理サーバ1により生成される営業支援情報の具体例を示す図である。
 図5に示す営業支援情報は、電話営業を行うユーザUが視認できるように、ユーザ端末3に表示される。
 図5に示すように、営業支援情報は、表示領域F1及びF2で構成されている。
 表示領域F1には、通常検索、又はあいまい検索(ゆらぎ)が可能な検索ボタンと、ユーザU1乃至Ur(rは1以上の整数値)の夫々が直近で応対した通話先Cの履歴を表示させることができる。これにより、様々な角度からの検索が可能となるとともに、どのユーザが、どの通話先Cと、何年何月何日の何時何分何秒に、何をどのように話したのかを容易に確認することができる。
 図5に示す例では、ユーザU2は、「2018年10月25日」の「10:04」に、「○○株式会社」の担当者「○○」に電話営業を行っており、その通話時間が「1:56(1分56秒)」であることがわかる。また、ユーザU3は、「2018年10月25日」の「09:03」に、「株式会社○○」の担当者「○○」に電話営業を行っており、その通話時間が「2:12(2分12秒)」であることがわかる。また、ユーザU4は、「2018年10月25日」の「08:57」に、「○○クリニック」の担当者「○○」に電話営業を行っており、その通話時間が「2:02(2分2秒)」であることがわかる。なお、ユーザU1乃至Urの夫々が直近で応対した通話先Cの履歴の他の例については、図5の表示領域F1に示すとおりである。
 表示領域F2には、登録された応対メモの項目と、「応対メモ追加」と表示されたボタンB51(以下、「応対メモ追加ボタンB51」と呼ぶ)と、複数の要素Eに基づいて通話情報を解析した結果(以下、「通話解析結果」と呼ぶ)と、この通話情報に関連する情報を含むコメントとが表示されている。
 ここで、「応対メモ」とは、通話終了後に事前に登録された項目を使用した簡単なメモのことをいう。応対メモは通話情報に紐付けて登録することができる。これにより、通話情報の管理がし易くなるので、事後的な確認を容易に行うことができるようになる。以下、応対メモを登録する機能のことを「応対メモ機能」と呼ぶ。
 応対メモ機能は、フリーワード入力されたメモの内容を登録する機能ではなく、フリーワード入力のほか、予め設定された定型的な文章を登録する機能である。このため、ユーザUは通話終了後、即座に1以上の応対メモを登録することができるので、応対メモの登録に要する時間的コストを最小限に抑えることができる。その結果、「時間がなくてメモを残しておくことができなかった」といった事態が生じることを避けることができる。例えば、通話内容が、「アポイントを取り付けることに成功した」というものである場合には、ユーザUは、事前に設定されている応対メモの項目の中から、「アポ獲得成功」といった項目を選択して登録する。
 応対メモ機能は、管理者向けの機能とすることができる。即ち、管理者のみが応対メモの設定登録を行えるようにすることができる。この場合、管理者により精査された信頼性のある応答メモとして活用することができる。
 また、応答メモ機能は、管理者以外の者でも利用できる機能とすることもできる。即ち、管理者以外の者であっても、応対メモを登録できるようにすることができる。この場合、通話の内容についての記憶が一番鮮明である通話終了時における備忘録として、担当者レベルで応対メモを登録することができる。
 図5の例では、登録された応対メモの項目として、「アポ獲得成功」と表示されたアイコンと、「他社サービスXご利用中」と表示されたアイコンとが表示されている。この場合、通話情報には、「アポ獲得成功」という応対メモと、「他社サービスXご利用中」という応対メモが登録されていることになる。
 応対メモ追加ボタンB51は、通話情報に応答メモを追加的に登録するときに押下されるボタンである。応対メモ追加ボタンB51が押下されると、応答メモを選択して登録できる操作画面(以下、「応対メモ選択登録画面」と呼ぶ)が表示される。登録された応対メモは、所定の操作を行うことで削除する(登録を外す)こともできる。
 なお、応答メモ選択登録画面の具体例については、図6を参照して後述する。
 「通話解析結果」には、通話情報を可視化したグラフ(以下、「音声グラフ」と呼ぶ)と、応対の評価と、音声の評価と、話速と、通話中に出現した所定のキーワードの出現時間と回数と、他のユーザUや、AI(人工知能)からのコメントとが表示されている。
 音声グラフには、2018年10月25日の15:25から2018年10月25日の15:27までの間にユーザU1と通話先C(○○スポーツの担当者○○)との通話情報が可視化されている。
 音声グラフは、横軸を通話時間、縦軸(上方)をユーザU1の音声の出力量、縦軸(下方)を通話先Cの音声の出力量とするグラフであり、実線L1がユーザU1の音声を示し、破線L2が通話先Cの音声を示している。
 実線L1及び破線L2を見ると、基本的には、ユーザU1が音声を発している(話している)間は、通話先Cは音声を発しておらず(黙って聞いている)、通話先Cが音声を発している(話している)間は、ユーザU1は音声を発していない(黙って聞いている)ことがわかる。ここで、Z3で示された箇所は、両者が同時に音声を発している状態(被っている状態)であり、通話先Cの話が終わらないうちにユーザU1が話し始めた可能性がある。Z1及びZ2で示された箇所は、両者が音声を発していない時間(沈黙の時間)である。P1及びP2で示された箇所は、所定のキーワードが出現した箇所である。
 また、音声グラフには、図5に示すように「再生」、「停止」、「コメント」、「再生速度」、及び「ダウンロード」と表示された各種ボタンが配置されている。「再生」、「停止」、及び「再生速度」と表示された各種ボタンが配置されているので、通話の再生、停止、及び再生速度の変更を自由に行うことができる。また、「コメント」と表示されたボタンが配置されているので、通話に関するコメントを閲覧したり、自ら書き込んだりすることが可能となる。また、「ダウンロード」と表示されたボタンが配置されているので、通話情報を自由にダウンロードして保存することができる。さらに、図示はしないが、「しおり」にジャンプして再生するようにすることもできる。
 応対の評価(図5の「応対評価」)は、「全体のスコア」、「Talk:Listen比率」、「沈黙回数」、「被り回数」、及び「キーワード回数」で示される。
 図5に示す例では、全体のスコアが「4.7」、Talk:Listen比率が「63(%):37(%)」、沈黙回数が「2回(音声グラフのZ1及びZ2)」、被り回数が「1回(音声グラフのZ3)」、キーワード回数が「2回(音声グラフのP1及びP2)」となっていることがわかる。
 これにより、ユーザU1は、「Talk:Listen比率」に表示された数値から、例えば自分が喋り過ぎていたかどうか、説明不足ではなかったかどうかといったことを確認することができる。また、「沈黙回数」に表示された数値から、例えば自分の話術の未熟さ、通話先Cを不安にさせた可能性、あるいは不快な思いをさせた可能性等を推察することができる。また、「被り回数」に表示された数値から、例えば通話先Cの話が終わる前に口を挟むことで通話先Cに不快な思いをさせた可能性を確認することができる。また、「キーワード回数」から、通話先Cに対し、例えば新商品の商品名、通話先Cのメリットやリスク等をきちんと伝えたかどうか、といったことを確認することができる。
 音声の評価(図5の「音声評価」)は、「基本周波数(ユーザ)」、「基本周波数(通話先)」、「抑揚の強弱(ユーザ)」、及び「抑揚の強弱(通話先)」で示される。
 図5に示す例では、基本周波数(ユーザ)が「246.35Hz」、基本周波数(通話先)が「86.94Hz」、抑揚の強弱(ユーザ)が「0.3」、抑揚の強弱(通話先)が「0.1」であることがわかる。
 これにより、ユーザU1は、「基本周波数」及び「抑揚の強弱」の夫々に表示された数値について、通話先Cと比較することにより、例えば自分が落ち着いて話したかどうか、相手(通話先C)をむやみに興奮させなかったかどうか、興奮した相手(通話先C)を落ち着かせるための配慮を行ったかどうか、といったことを確認することができる。
 「話速」は、ユーザU1及び通話先Cの夫々について、1秒間のうちに発せられた文字数(又は単語数)で示される。
 図5に示す例では、ユーザU1の話速が「10.30文字/秒」、通話先Cの話速が「6.08文字/秒」であることがわかる。つまり、ユーザU1の方が話すスピードがかなり速かったことがわかる。
 これにより、ユーザU1は、自分が早口で喋り過ぎていたかどうか、相手(通話先C)を落ち着かせて喋らせていたかどうか、といったことを確認することができる。
 「キーワード出現」は、ユーザU1及び通話先Cの夫々について、所定のキーワードが出現した時間と回数とで示される。この際に、仮に音声が不明瞭であるため音声認識の結果が誤っていたり、社内用語など一般的に用いられない言葉であるため誤って出力されていたりした場合であっても、所定のキーワードに類似した音素配列を認識することでキーワードを検知可能としている。なお、類似した音素配列の認識に利用されるアルゴリズムは特に限定されない。具体的には例えば、レーベンシュタイン距離(修正距離)を用いた手法等によりマッチングを実施することができる。
 図5に示す例では、キーワードが出現した時間が、通話開始後「1.23(1分23秒)」経過時(P1)、及び通話開始後「1.36(1分36秒)」経過時(P2)であることがわかる。
 これにより、ユーザU1は、例えば自分がキーワードとしての新商品の名称をきちんと伝えたかどうか、あるいは通話先Cに新商品の名称を喋らせることで、新商品の名称を印象付けることができたかどうか、といったことを確認することができる。
 「コメント」には、上述したように、ユーザU1と通話先Cとの通話情報に関連する情報を含むコメントが表示されている。具体的には、他のユーザUからのコメントや、AI(人工知能)からのコメントが表示される。これにより、ユーザU間で情報やノウハウの共有を図ることができるだけではなく、解析結果に基づく的確な営業支援情報を容易に取得することができる。
 図5に示す例では、2018年10月27日の22時58分に、「社内異動に伴い、1:00の部分で担当者が○○様から○○様に代わったようです。」というコメントが投稿されている。このコメントは、音声情報の解析結果から、通話開始からちょうど1分が経過した時点で通話先Cが代わったこと、及びその理由が社内異動であることが判明したため、これを営業支援情報としてユーザU1に提示したものである。
 また、2018年10月27日の23時00分に、「2:35-3:00によると、現在は他社のサービスをご利用中ですが、ご不満があり、当社サービスの導入をご検討頂いています。また、5:00によると、想定される利用者は最大で1,300名であるとのことです。」というコメントが投稿されている。このコメントは、音声情報の解析結果から、通話先Cが現在利用する他社サービスに不満があるためユーザU1の会社への変更を検討していること、及び想定される利用者が最大1300名であることが判明したため、これを営業支援情報としてユーザU1に提示したものである。
 このように、ユーザU1は、ユーザ端末3を操作することで、容易に図5に示す営業支援情報を確認することができる。このため、ユーザU1は、通話先Cとの通話において、支援情報をリアルタイム又は事後的に活用することで、セルフコーチングを行うことができる。また、業務上、管理者は、ユーザU1を教育する際、営業支援情報を活用することで費用をかけずに効率的に教育することができる。
 その結果、ユーザU1(営業担当者)の教育にかかるコストを低減させながらも成約率を向上させることが可能となる。
 図6は、応対メモ選択登録画面の具体例を示す図である。
 通話が終了すると、又は図5の応対メモ追加ボタンB51が押下されると、例えば図6に示すような「応対メモ選択登録画面」が表示される。ユーザUは、応対メモ選択登録画面に表示された1以上の項目の中から該当する項目を選択して、これを通話情報に登録することができる。
 応対メモ選択登録画面は、表示領域F3及びF4で構成されている。
 表示領域F3には、事前に設定された項目の夫々が、チェックボックスT31とともに表示されている。図6の例では、アポ獲得成功、担当者不在、折り返し希望、担当者退職、継続フォロー、ニーズ無し、他社サービスX利用中、及び他社サービスY利用中という項目が表示されている。
 図6に例示する項目のうち「アポ獲得成功」は、上述したように、通話先Cのアポイントを取り付けた際に応対メモとして登録され得る項目である。「担当者不在」は、通話先Cの担当者が不在であった際に応対メモとして登録され得る項目である。「折り返し希望」は、通話先Cが、担当者不在等を理由として、折り返しの連絡を希望した際に応対メモとして登録され得る項目である。「担当者退職」は、通話先Cの担当者が退職していた際に応対メモとして登録され得る項目である。「継続フォロー」は、通話先Cに対する継続的なフォローが必要であると判断された際に応対メモとして登録され得る項目である。「ニーズ無し」は、通話先Cにニーズが無いと判断された際に応対メモとして登録され得る項目である。「他社サービスX利用中」は、通話先Cが既に競合他社により提供されているサービスXを利用していることが判明した際に応対メモとして登録され得る項目である。「他社サービスY利用中」は、通話先Cが既に競合他社により提供されているサービスYを利用していることが判明した際に応対メモとして登録され得る項目である。
 ユーザUは、各項目とともに表示されているチェックボックスT31を選択する操作(チェック)を行うだけで、その項目を応対メモとして通話情報に登録することができる。
 上述したように、応対メモとして登録された項目は、図5に示す通話情報の表示領域F2にアイコンで表示される。図6に示す例では、「アポ獲得成功」及び「他社サービスX利用中」のチェックボックスが選択(チェック)されている。このため、図5に示すように、「アポ獲得成功」と表示されたアイコン、及び「他社サービスXご利用中」と表示されたアイコンが通話情報の所定領域(図5の例では表示領域F2)に表示される。
 表示領域F4には、「+ 項目を追加」と表示されたボタンB41と、「登録」と表示されたボタンB42とが表示されている。
 「+ 項目を追加」と表示されたボタンB41が押下されると、表示領域F3に表示された項目以外に、新たに項目を追加する設定を行うことができる操作画面(以下、「応対メモ設定画面」と呼ぶ)が表示される。応対メモ設定画面において事前に新たな項目が設定されると、その設定内容が応対メモ選択登録画面に反映される。
 なお、応対メモ設定画面の具体例については、図7を参照して後述する。
 図7は、応対メモ設定画面の具体例を示す図である。
 応対メモ設定画面は、表示領域F5及びF6で構成されている。
 表示領域F5には、「応対メモ機能を設定すると、通話終了後に応対メモを登録できます。」という案内文と、応対メモの有効・無効を設定するためのチェックボックスT51が表示されている。ユーザUは、チェックボックスT51を押下することで、通話情報における応対メモの表示の有無を指定することができる。
 具体的には、チェックボックスT51が選択(チェック)されている場合には、ユーザUにおいて、通話情報に応対メモを「表示させる」という決定がなされていることになる。これに対して、チェックボックスT51の選択(チェック)が外されている場合には、ユーザUにおいて、通話情報に応対メモを「表示させない」という決定がなされていることになる。なお、図7の例では、チェックボックスT51が選択(チェック)されているため、通話情報に応対メモを「表示させる」という決定がユーザUによってなされている。
 表示領域F6には、設定の対象となる各項目の内容を入力するための入力欄R1と、ポジティブな応対として選択(チェック)するか否かを設定するためのチェックボックスT61とが表示されている。
 ここで、応対メモの一覧に設定されていない項目は、入力欄R1にフリーワード入力することにより、追加で設定することができる。
 また、チェックボックスT61が選択(チェック)されると、その項目は、模範的な応対として記録されることとなる。模範的な応対として記録された項目は、各種解析で活用することができる。
 図7に示す例では、設定されている項目であるアポ獲得成功、担当者不在、折り返し希望、担当者離職、継続フォロー、ニーズ無し、他社サービスX利用中、及び他社サービスY利用中のうち、アポ獲得成功を示すチェックボックスT61が選択(チェック)されている。このため、「アポ獲得成功」という応対メモは、模範的な応対として記録されるとともに、各種解析で活用することができる。
 [第2発明]
 (通信用ハードウェア)
 ユーザUが、本サービスを利用するために用いる通信用ハードウェア(例えば図2の専用通信装置2)は、既存の通信用ハードウェア(例えばパーソナルコンピュータ、スマートフォン、タブレット等)で代用することができる。ここで、ユーザ端末3は、パーソナルコンピュータ、スマートフォン、タブレット等で構成されるので、専用通信装置2の機能をそのまま包含することができる。
 即ち、本サービスは、既存の通信用ハードウェアを用いて利用することができるため、ユーザUは、例えば以下のようなメリットを享受することができる。
 即ち、本サービスで用いられる通信用ハードウェアによれば、既存のスマートフォン等を代用することにより、数分間の設定作業を経るだけで本サービスを利用することが可能となる。
 これにより、工事費用、メンテナンス費用、リース費用、各種機材に要する費用等が不要になる。また、全ての通話を録音して解析の対象とすることができるとともに、履歴の確認を行うことができる。
 また、本サービスで用いられる通信用ハードウェアによれば、国内の優良キャリアを利用することができるため、安価な通信料金、シンプルな料金体系で利用することができる。
 これにより、特に架電の機会が多い営業部門における通信コストを大幅に削減することができる。また、「(東京)03」、「050」、「0120」、「0800」等で始まる電話番号を自由に取得することができる。また、高品質で安定した通話を実現させることができる。さらに、1つの電話番号で国内外問わず通話することができる。また、既存のスマートフォンを利用した場合であっても、例えば「(東京)03」から始まる電話番号による受発信が可能となる。さらに、外出先からでも社内と同じように利用することができるので、外出することが多い営業担当部門にとって好適である。
 また、複数のユーザUが同一の電話番号を共有することにより、チームによる対応が可能となる。また、本サービスはクラウド(図2の管理サーバ1)を利用しているため、メンバーの追加又は削除を容易に行うことができる。
 これにより、組織変更や社内異動にも柔軟に対応することができる。さらに、自動音声応答(IVR/Interactive Voice Response)の設定や自動転送の設定を容易に行うことができる。
 本サービスが提供される際の通信経路は特に限定されない。例えば、社内LAN(Local Area Network)を経由してインターネット上のクラウドに接続される通信経路のほか、通信会社により提供されるデータ通信ネットワークを経由してクラウドに接続される通信経路を採用することができる。これにより、ネットワークの混雑を回避することができるとともに、管理サーバ1を経由した別経路で接続されているWebアプリと連動させることができる。また、ネットワークの混雑を判断して、本サービスで利用するネットワーク経路を自動的に切り替えるようにすることもできる。
 また、本サービスで用いられる通信用ハードウェアの具体的な構成は特に限定されない。加入者を認識するためのモジュールであるSIM(Subscriber Identity Module)、及び通信に必要となる機器(モデム、アンテナ等)を備える装置であればよい。このため、スマートフォン等の既存の通信機器を用いてもよいし、専用のハードウェアを用いてもよい。専用のハードウェアを用いる場合には、ユーザUが使用するヘッドセットに、電力供給手段(例えばリチウムイオンバッテリー)を備える専用のハードウェアを搭載させてもよい。
 (処理フロー)
 次に、図8及び図9を参照して、第2発明に係る通信用ハードウェア(例えば図2の専用通信装置2)を含む情報処理システムの処理の流れについて説明する。
 図8及び図9は、専用通信装置2を含む情報処理システムによる処理の流れを示す図である。
 このうち、図8には、ユーザUから通話先Cに架電する場合における情報処理システムの処理の流れが示されている。
 ユーザUが通話先Cに架電する場合、情報処理システムにおいて以下の処理が実行される。
 即ち、ステップS31-1において、ユーザ端末3は、各種アプリを起動する。具体的には、ユーザ端末3は、Webアプリ311、デスクトップアプリ312、及びモバイルアプリ313を起動させる。
 ステップS31-2において、ユーザ端末3は、音声サーバ(PBX)4に対し、発信要求を送信する。具体的には、ユーザ端末3の画面上に表示された「発信」ボタン又は電話番号を押下する。さらに具体的には、ユーザ端末3にインストールされたアプリが発信要求を送信する。
 ステップS41-1において、音声サーバ(PBX)4は、ユーザ端末3の発信要求を受信する。
 ステップS41-2において、音声サーバ(PBX)4は、通話先端末5に対し発信(呼出し)を行う。
 これに伴い、ステップS21-1において、専用通信装置2は、音声サーバ(PBX)4により発信(呼出し)が行われている旨を示す鳴動を行う。すると、ステップS31-3において、ユーザ端末3は、音声サーバ(PBX)4により発信(呼出し)が行われている旨を示す情報を表示する。ここで、ユーザ端末3に表示される情報は特に限定されない。例えば「呼出中」という文字をユーザ端末3に表示させてもよい。
 ステップS51-1において、通話先端末5は、音声サーバ(PBX)4の発信(呼出し)に応答する。
 ステップS51-2において、通話先端末5は通話可能状態となる。これに伴い、ステップS41-3において、音声サーバ(PBX)4は、通話先端末5による応答がなされたことを示す情報(以下、「応答イベント」と呼ぶ)をユーザ端末3に送信する。すると、ステップS21-2において、専用通信装置2は通話可能状態となる。これにより、ユーザUと通話先Cとの間で通話することができるようになる。また、専用通信装置2は通話可能状態になると、ステップS31-4においてユーザ端末3は、応答イベントを受信し、通話が行われていることを示す情報を表示する。ここで、ユーザ端末3に表示される情報は特に限定されない。例えば「応答中」という文字をユーザ端末3に表示させてもよい。
 ステップS41-4において、音声サーバ(PBX)4は、通話情報を管理サーバ1に転送する。
 ステップS11-1において、管理サーバ1は、送信されてきた通話情報を取得する。
 ステップS11-2において、管理サーバ1は、取得した通話情報から、発話区間VS1乃至VSnを検出する。
 ステップS11-3において、管理サーバ1は、検出された発話区間VS1乃至VSvの夫々について、音声情報VI1乃至VImを抽出する。
 ステップS11-4において、管理サーバ1は、抽出した音声情報VI1乃至VImに基づいて、要素E1乃至Epに基づく解析を行う。なお、上述したように、解析部103は、「保留音」、「ユーザUのみが発話している箇所」、「通話先Cのみが発話している箇所」、「被りが生じた箇所」、「沈黙が生じた箇所」等に関する情報を要素Eとする解析を行うことができる。
 ステップS11-5において、管理サーバ1は、解析の結果に基づいて、営業支援情報を生成する。
 ステップS11-6において、管理サーバ1は、生成した営業支援情報をユーザ端末3に送信する。
 ステップS31-5において、ユーザ端末3は、管理サーバ1から送信されてきた営業支援情報を表示する。
 これにより、ユーザUから通話先Cに架電する場合における情報処理システムの処理は終了する。
 以上の各処理が情報処理システムにおいて実行されることにより、ユーザ(営業担当者)の教育にかかるコストを低減させながらも成約率を向上させることが可能となる。
 図9には、ユーザUが通話先Cからの架電を受電する場合における情報処理システムの処理の流れが示されている。
 ユーザUが通話先Cからの架電を受電する場合、情報処理システムにおいて以下の処理が実行される。
 即ち、ステップS32-1において、ユーザ端末3は、各種アプリを起動する。具体的には、ユーザ端末3は、Webアプリ311、デスクトップアプリ312、及びモバイルアプリ313を起動させる。
 ステップS52-1において、通話先端末5は、音声サーバ(PBX)4に対し発信する。
 ステップS42-1において、音声サーバ(PBX)4は、通話先端末5の発信を着信イベントとして受信する。
 ステップS42-2において、音声サーバ(PBX)4は、ユーザ端末3に対し、着信イベントを送信する。具体的には、音声サーバ(PBX)4は、ユーザ端末3にインストールされたアプリに着信イベントを送信する。
 これに伴い、ステップS22-1において、専用通信装置2は、音声サーバ(PBX)4により着信イベントの送信が行われている旨を示す鳴動を行う。すると、ステップS32-2において、ユーザ端末3は、音声サーバ(PBX)4により着信イベントの送信が行われていること旨を示す情報を表示する。ここで、ユーザ端末3に表示される情報は特に限定されない。例えば「着信中」という文字をユーザ端末3に表示させてもよい。
 ステップS32-3において、ユーザ端末3は、ユーザUによる応答操作を受付ける。応答操作は、例えばユーザ端末3の画面に「電話に出る」と表示されたボタンをユーザUが押下する操作をいう。
 ステップS32-4において、ユーザ端末3は、音声サーバ(PBX)4に対し、応答要求を送信する。
 ステップS42-3において、音声サーバ(PBX)4は、送信されてきた応答要求を受信する。
 ステップS42-4において、音声サーバ(PBX)4は、音声通信を確立する。これにより、ステップS22-2において、専用通信装置2は通話可能状態となる。また、ステップS52-2において、通話先端末5は通話可能状態となる。すると、ステップS32-5において、ユーザ端末3は、通話が行われていることを示す情報を表示する。ここで、ユーザ端末3に表示される情報は特に限定されない。例えば「通話中」という文字をユーザ端末3に表示させてもよい。
 ステップS42-5において、音声サーバ(PBX)4は、通話情報を管理サーバ1に転送する。
 ステップS12-1において、管理サーバ1は、送信されてきた通話情報を取得する。
 ステップS12-2において、管理サーバ1は、取得した通話情報から、発話区間VS1乃至VSnを検出する。
 ステップS12-3において、管理サーバ1は、検出された発話区間VS1乃至VSvの夫々について、音声情報VI1乃至VImを抽出する。
 ステップS12-4において、管理サーバ1は、抽出した音声情報VI1乃至VImに基づいて、要素E1乃至Epに基づく解析を行う。なお、上述したように、解析部103は、「保留音」、「ユーザUのみが発話している箇所」、「通話先Cのみが発話している箇所」、「被りが生じた箇所」、「沈黙が生じた箇所」等に関する情報を要素Eとする解析を行うことができる。
 ステップS12-5において、管理サーバ1は、解析の結果に基づいて、営業支援情報を生成する。
 ステップS12-6において、管理サーバ1は、生成した営業支援情報をユーザ端末3に送信する。
 ステップS32-6において、ユーザ端末3は、管理サーバ1から送信されてきた営業支援情報を表示する。
 これにより、ユーザUが通話先Cからの架電を受電する場合における情報処理システムの処理は終了する。
 以上の各処理が情報処理システムにおいて実行されることにより、ユーザ(営業担当者)の教育にかかるコストを低減させながらも成約率を向上させることが可能となる。
 (具体例)
 図10は、音声認識結果の文中のフィラーが識別されて除去される具体例を示す図である。
 音声認識結果は文字に起こされて、言い淀みを示すいわゆるフィラーfが除去される。具体的には例えば、図10の上段に示すように、音声認識結果が「はい、もしもしお電話ありがとうございます。」である場合には、このうち「はい」が、フィラーf1として識別される。また、音声認識結果が「あ、もしもしあのこちらあの〇〇の□□と申します。お世話になっております。」である場合には、このうち「あ」と、2箇所の「あの」の夫々が、フィラーf2乃至f4の夫々として識別される。フィラーf1乃至f4の夫々として識別された文字は削除される。その結果、図10の下段に示すように、フィラーf1が除去された「もしもしお電話ありがとうございます。」という文が表示される。また、フィラーf2乃至f4が除去された「もしもしこちら〇〇の□□と申します。お世話になっております。」という文が表示される。
 なお、図10の上段に示すように、音声認識結果は、「音声認識」と表記されたタブG1が選択されると、フィラーfが除去されていないものが表示される。これに対して、図10の下段に示すように、「音声認識結果(フィラー除く)」と表記されたタブG1が選択されると、フィラーfが除去されたものが表示される。
 以上、本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
 また例えば、上述の実施形態では、音声サーバ4と通話先端末5は、電話網Tにより接続されているものとして説明を行ったが、特にこれに限定されない。即ち、音声サーバ4と通話先端末5は、例えば、インターネット等を含むその他のあらゆる通信手段によって接続されていてもよい。
 また例えば、図2には、ユーザU、ユーザ端末3、音声サーバ(PBX)4、通話先C、及び通話先端末5は、いずれも1人又は1台のみ記載されているが、これは例示に過ぎず、いずれも複数存在し得るものである。
 また例えば、上述の実施形態では、ユーザ端末3にインストールされた各種アプリを起動させることで、ユーザ端末3において本サービスを利用することができるとしているが、これに限定されない。アプリをインストールすることなく、所定のウェブサイトにアクセスし、所定のログイン操作を行うことで本サービスを利用できるようにしてもよい。
 また例えば、上述の実施形態では、音声情報を解析するための要素Eとして、「保留音」、「ユーザUのみが発話している箇所」、「通話先Cのみが発話している箇所」、「被りが生じた箇所」、及び「沈黙が生じた箇所」に関する情報が採用されているが、これらは例示に過ぎず、これら以外の要素Eに基づいた解析を行うことができる。
 また例えば、上述の実施形態では、通話情報には音声情報のみが含まれる構成となっているが、音声サーバ(PBX)4の他にビデオ中継サーバ(図示せず)を情報処理システムの構成に含めることができる。これにより、音声情報と、撮像された動画像に基づく画像情報とを紐付けて、通話情報として管理することができる。また、この場合、管理サーバ1に画像解析機能をさらに備えるようにすることで、音声情報のみならず、画像情報をも含めた解析を行うことが可能となる。
 また例えば、上述の実施形態では、ユーザ端末3と音声サーバ(PBX)4との間の通信方式について特に限定していない。ただし、音声通信方式に、TCP/UDPの任意のポートを利用した場合、不正な通信であるとみなされて、組織内のファイヤウォール等で遮断されてしまい、音声通信に失敗することがある。このため、例えばWeb閲覧と同じ通信方式(443/TCP)を採用する。これにより、組織内のファイヤウォール等で遮断されるリスクを低減化させることができる。
 また例えば、図5の表示領域F1に示す通話先Cの履歴は、本実施形態のように直近の通話履歴が一番上に表示されるように並べられてもよいが、それ以外の並べられ方であってもよい。例えばユーザU1乃至Urの社内ID(図示せず)の順で並べられてもよいし、営業成績が良い順に上から並べられてもよい。営業成績が良い順に上から並べられることで、多くのユーザUが視認し易くなるため、自身の電話営業の参考とすることができる。
 また例えば、図5の表示領域F2の「応対評価」の欄に項目として示されている要素Eは「全体のスコア」、「Talk:Listen比率」、「沈黙回数」、「被り回数」、及び「キーワード回数」であるが、これに限定されない。これらの5種類の要素E以外の要素Eによる解析が行われてもよい。
 また例えば、図5の表示領域F2の「音声評価」の欄に項目として示されている要素Eは「基本周波数(ユーザ)」、「基本周波数(通話先)」、「抑揚の強弱(ユーザ)」、及び「抑揚の強弱(通話先)」であるが、これに限定されない。これら4種類の要素E以外の要素Eによる解析が行われてもよい。
 また、本発明を適用可能とする本サービスによれば、上述した機能の他に、以下の機能を実装することができる。
 即ち、応答時間、応答時間のゆらぎ、速度などを、Webサイト上、又はソフトウェア上で測定し、音声通話に十分な品質を持った環境かどうかをワンクリックで確認することができる。また、実際に確認用の音声を再生し、途切れやゆらぎ、音質等を、正常な音声と比較して分析するエンジンを用いることができる。これにより、通信環境の準備状況を定量的に数値化することができる。また、本サービスの詳細を設定する機能として、ユーザUを管理するための各種設定機能、自動転送を設定する機能、複数のユーザUをグループとして管理するための設定機能、留守番電話を設定する機能、電話番号を設定する機能、解析に用いられる数値(スコア)に関するルールを設定する機能、電話番号の非通知設定等のプレフィックス番号を設定する機能、図5のキーワードを設定する機能、保留音等を設定するためのサウンド設定機能、図5の応対メモを設定する機能、着信のルールを設定する機能、CRMに関連するサービスを提供する他社サイトと連携させるための設定機能、営業時間を設定する機能、自動音声による応対を設定する機能、自社サービスと連携させるための設定機能等を実装させることができる。
 具体的には例えば、解析に用いられる数値(スコア)に関するルールを設定する機能によれば、通話先Cが属する業界に応じて話速に変化をつけることもできる。
 また、ユーザ端末3を用いた発着信機能として、ウィジェットやアプリを使用した発着信や、Webサイト内のWebページに表示された電話番号をクリックすることで容易に発信するようにすることもできる。各種各様なシステム(例えば社内システム)と連携して利用可能なUI(ユーザインターフェース)を有する発着信画面を備えてもよい。
 図11は、各種各様なシステムと連携して利用可能なUIを有する発着信画面の具体例を示す図である。
 図11上段に示すように、例えばアプリ画面やWebページの一部に表示された、「Phone」と表記されたウィジェットWが表示されるようにすることができる。このウィジェットWが押下されると、図11下段に示すように、電話を掛けることができる態様にウィジェットWの表示が変わるようにしてもよい。
 また、図3に示す管理サーバ1のハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。
 また、図4に示す機能ブロック図は、例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは、特に図4の例に限定されない。
 また、機能ブロックの存在場所も、図4に限定されず、任意でよい。
 また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
 各機能ブロックの処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
 コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
 このようなプログラムを含む記録媒体は、各ユーザにプログラムを提供するために装置本体とは別に配布される、リムーバブルメディアにより構成されるだけではなく、装置本体に予め組み込まれた状態で各ユーザに提供される記録媒体等で構成される。
 なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に添って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
 また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものである。
 以上まとめると、本発明が適用される情報処理装置は、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
 即ち、本発明が適用される情報処理装置(例えば図4の管理サーバ1)は、
 通話先(例えば図2の通話先C)と通話するユーザ(例えば図2のユーザU)を支援する情報処理装置において、
 前記ユーザと前記通話先との通話の間で録音された情報を、通話情報として取得する取得手段(例えば図4の取得部101)と、
 取得された前記通話情報から、音声が存在する発話区間(例えば発話区間VS1乃至VSn)を検出し、前記発話区間毎の音声情報(例えばVI1乃至VIm)を抽出する抽出手段(例えば図4の抽出部102)と、
 抽出された1以上の前記音声情報に基づいて、1以上の要素(例えばE1乃至Ep)に基づく解析を行う解析手段(例えば図4の解析部103)と、
 前記解析の結果に基づいて、前記ユーザの通話を支援する支援情報(例えば営業支援情報)を生成する生成手段(例えば図4の生成部104)と、
 生成された前記支援情報を前記ユーザに提示する提示手段(例えば図4の提示部105)と、
 を備える。
 これにより、業務上、管理者は、管理される側のユーザUを教育する際、営業支援情報を活用することで費用をかけずに効率的に教育することができる。また、ユーザUは、通話先との通話において、支援情報をリアルタイムで活用することができる。
 図12は、支援情報がリアルタイムで活用される場合の具体例を示す図である。
 図12に示すように、顧客及びユーザU(営業担当者)の夫々の発話は、逐次テキスト化させて表示させることができる。これにより、支援情報をリアルタイムで確認することができる。また、AI(人工知能)やユーザU(営業担当者)の上司は、ユーザU(営業担当者)に対してリアルタイムでアドバイスをすることができる。具体的には例えば、「話速を速くした方がいい。」といったアドバイスが投稿されると、その内容がリアルタイムで表示される。さらに、顧客及びユーザU(営業担当者)の夫々の発話の内容が表示された画面と同一の画面で、ユーザU(営業担当者)は、例えば上司に対するメッセージを投稿することもできる。具体的には例えば、「過去にトラブルが多いお客様です。アドバイスをお願いします。」といったメッセージが入力欄R2に入力されて投稿されると、その内容がリアルタイムで表示される。その結果、客観的な指標を考慮しつつ、より効率的な営業活動の実現を補助することができる。
 また、前記1以上の要素には、保留音に関する情報を含めることができる。
 これにより、通話中に保留状態になった回数及び時間を明確にすることができるので、ユーザUの理解不足を確認したり、通話先Cにストレスを与えた可能性について推察したりすることができる。
 また、前記1以上の要素には、音の信号に関する情報を含めることができる。具体的に例えば、音の信号に関する情報としては、前記ユーザのみが発話している箇所、前記通話先のみが発話している箇所(例えば図5の「Talk:Listen比率」)、被りが生じた箇所(例えば図5の「被り回数」)、沈黙が生じた箇所(例えば図5の「沈黙回数」)、周波数(例えば図5の「基本周波数(ユーザ)」、「基本周波数(通話先)」)又は抑揚(例えば図5の「抑揚の強弱(ユーザ)」、及び「抑揚の強弱(通話先)」)等が含まれ得る。
 これにより、ユーザUは、自分が喋り過ぎていたかどうか、説明不足ではなかったかどうかといったことを確認することができる。また、ユーザUは、自分の話術の未熟さ、通話先Cを不安にさせた可能性、あるいは不快な思いをさせた可能性等を推察することができる。また、ユーザUは、通話先Cの話が終わる前に口を挟むことで通話先Cに不快な思いをさせた可能性を確認することができる。また、ユーザUは、通話先Cに対し、例えば新商品の商品名、通話先Cのメリットやリスク等をきちんと伝えたかどうか、といったことを確認することができる。
 これにより、ユーザUは、例えば自分が落ち着いて話したかどうか、相手(通話先C)をむやみに興奮させなかったかどうか、興奮した相手(通話先C)を落ち着かせるための配慮を行ったかどうか、といったことを確認することができる。
 また、前記1以上の要素には、前記発話区間内の文字に関する情報(例えば図5の「話速」)をさらに含むことができる。
 これにより、ユーザUは、自分が早口で喋り過ぎていたかどうか、相手(通話先C)を落ち着かせて喋らせていたかどうか、といったことを確認することができる。
 また、前記支援情報には、前記ユーザの話し方、前記通話先が話す内容、又は前記ユーザに対するアドバイスのうち少なくとも1つの情報(例えば図5の「コメント」)を含むことができる。
 これにより、ユーザUは、通話先Cとの通話において、支援情報をリアルタイムで活用することができる。また、業務上、管理者は、管理される側のユーザUを教育する際、営業支援情報を活用することで費用をかけずに効率的に教育することができる。
 その結果、ユーザU(営業担当者)の教育にかかるコストを低減させながらも成約率を向上させることが可能となる。
 また、音声認識結果の少なくとも一部に誤りが含まれている場合には、ユーザ自身が画面上で訂正する操作を行うことができる。
 図13は、音声認識結果の訂正機能の具体例を示す図である。
 図13に示すように、実際の音声が「あ、もしもし、レブコムサポートの長田です。」であったのに対して、音声認識結果が、例えば「あ、もしもしビジネスサポートしながらです。」であった場合には、一部に誤りが含まれる。この場合、ユーザは、再生ボタンB102、クリップボードにコピーするためのボタンB103や、編集ボタンB104を押下して、実際の音声の内容に訂正するための入力操作を行う。これにより、音声認識結果の誤りを訂正することができる。訂正された音声認識結果は、次回の音声認識が正しく行われるようにするための学習用のデータとして用いられる。これにより、同様の誤認識が繰り返し行われることを抑制することができる。その結果、音声認識の精度を向上させることができる。
 1:管理サーバ、2:専用通信装置、3:ユーザ端末、4:音声サーバ(PBX)、5:通話先端末、11:CPU、12:ROM、13:RAM、14:バス、15:入出力インターフェース、16:出力部、17:入力部、18:記憶部、19:通信部、20:ドライブ、30:リムーバブルメディア、101:取得部、102:抽出部、103:解析部、104:生成部、105:提示部、181:通話DB、182:解析結果DB、201:音声入出力部、202:制御部、301:アプリ制御部、311:Webアプリ、312:デスクトップアプリ、313:モバイルアプリ、401:通信転送部、402:制御部、N:ネットワーク、T:通話網、U,U1乃至Ur:ユーザ、C:通話先、S:情報処理システムにおいて実行される処理の各ステップ、F:各表示領域、L1:実線(ユーザの音声)、L2:破線(通話先の音声)、Z1,Z2:沈黙が生じた箇所、Z3:被りが生じた箇所、P1,P2:キーワードが出現した箇所、T:各チェック入力欄、B:各ボタン、R:入力欄、G:タブ、W:ウィジェット

Claims (5)

  1.  通話先と通話するユーザを支援する情報処理装置において、
     前記ユーザと前記通話先との通話の間で録音された情報を、通話情報として取得する取得手段と、
     取得された前記通話情報から、音声が存在する発話区間を検出し、前記発話区間毎の音声情報を抽出する抽出手段と、
     抽出された1以上の前記音声情報に基づいて、1以上の要素に基づく解析を行う解析手段と、
     前記解析の結果に基づいて、前記ユーザの通話を支援する支援情報を生成する生成手段と、
     生成された前記支援情報を前記ユーザに提示する提示手段と、
     を備える情報処理装置。
  2.  前記1以上の要素には、保留音に関する情報が含まれる、
     請求項1に記載の情報処理装置。
  3.  前記1以上の要素には、音の信号に関する情報が含まれる、
     請求項1又は2に記載の情報処理装置。
  4.  前記1以上の要素には、前記発話区間内の文字に関する情報がさらに含まれる、
     請求項1乃至3のうちいずれか1項に記載の情報処理装置。
  5.  前記支援情報には、前記ユーザの話し方、前記通話先が話す内容、又は前記ユーザに対するアドバイスのうち少なくとも1つの情報が含まれる、
     請求項1乃至4のうちいずれか1項に記載の情報処理装置。
PCT/JP2020/010634 2019-03-11 2020-03-11 情報処理装置 WO2020184631A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019043549 2019-03-11
JP2019-043549 2019-03-11

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020010634A JPWO2020184631A1 (ja) 2019-03-11 2020-03-11 情報処理装置

Publications (1)

Publication Number Publication Date
WO2020184631A1 true WO2020184631A1 (ja) 2020-09-17

Family

ID=72426666

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/010634 WO2020184631A1 (ja) 2019-03-11 2020-03-11 情報処理装置

Country Status (2)

Country Link
JP (1) JPWO2020184631A1 (ja)
WO (1) WO2020184631A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014178567A (ja) * 2013-03-15 2014-09-25 Yahoo Japan Corp 音声認識装置、音声認識方法、およびプログラム
JP2017010374A (ja) * 2015-06-24 2017-01-12 株式会社ネクスゲート 営業支援情報提供システム及び営業支援情報提供方法
JP6572354B1 (ja) * 2018-08-10 2019-09-11 Regain Group株式会社 営業提案システム、営業提案プログラム及び営業提案方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014178567A (ja) * 2013-03-15 2014-09-25 Yahoo Japan Corp 音声認識装置、音声認識方法、およびプログラム
JP2017010374A (ja) * 2015-06-24 2017-01-12 株式会社ネクスゲート 営業支援情報提供システム及び営業支援情報提供方法
JP6572354B1 (ja) * 2018-08-10 2019-09-11 Regain Group株式会社 営業提案システム、営業提案プログラム及び営業提案方法

Also Published As

Publication number Publication date
JPWO2020184631A1 (ja) 2021-04-01

Similar Documents

Publication Publication Date Title
US10530923B1 (en) Computer control of online social interactions based on conversation processing
US9860379B2 (en) Recording user communications
US9509838B2 (en) Contextual conversation processing in telecommunication applications
US9742913B2 (en) Recording user communications
US8045699B2 (en) Method and system for performing automated telemarketing
US7640510B2 (en) Apparatus, system, and method for presenting scripts to a contact
JP2007324708A (ja) 電話対応方法、コールセンターシステム、コールセンター用プログラムおよびプログラム記録媒体
US8494149B2 (en) Monitoring device, evaluation data selecting device, agent evaluation device, agent evaluation system, and program
US9020107B2 (en) Performing actions for users based on spoken information
US20030046181A1 (en) Systems and methods for using a conversation control system in relation to a plurality of entities
US8468027B2 (en) Systems and methods for deploying and utilizing a network of conversation control systems
US20030046102A1 (en) Systems and methods for maintaining consistency in interpersonal communications related to marketing operations
WO2020184631A1 (ja) 情報処理装置
JP2007060225A (ja) コールセンターシステム及びプログラム
JP2020027441A (ja) 営業提案システム、営業提案プログラム及び営業提案方法
JP2019125011A (ja) 人工知能スピーカシステム、アプリケーションソフトウェア
Cameron Speech at the Interface
US20210304107A1 (en) Employee performance monitoring and analysis
WO2020258168A1 (en) A method for managing incoming calls on a communication device and the corresponding device
US20210233634A1 (en) Automated Clinical Documentation System and Method
AGARWAL ³INTERACTIVE VOICE RESPONSE SYSTEM

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2020549075

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20770826

Country of ref document: EP

Kind code of ref document: A1