JPWO2020184631A1 - 情報処理装置 - Google Patents
情報処理装置 Download PDFInfo
- Publication number
- JPWO2020184631A1 JPWO2020184631A1 JP2020549075A JP2020549075A JPWO2020184631A1 JP WO2020184631 A1 JPWO2020184631 A1 JP WO2020184631A1 JP 2020549075 A JP2020549075 A JP 2020549075A JP 2020549075 A JP2020549075 A JP 2020549075A JP WO2020184631 A1 JPWO2020184631 A1 JP WO2020184631A1
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- call
- voice
- call destination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5175—Call or contact centers supervision arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/54—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/428—Arrangements for placing incoming calls on hold
- H04M3/4283—Call holding circuits
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/40—Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/55—Aspects of automatic or semi-automatic exchanges related to network data storage and management
- H04M2203/555—Statistics, e.g. about subscribers but not being call statistics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/42221—Conversation recording systems
Abstract
Description
このため、営業活動の客観的な評価は、営業成績(例えば成約率、成約数)や、顧客からの評価(例えばアンケート)等に限られていた。その結果、営業担当者の教育は、上司等が個別に行ったり、社内で研修や講義等を開催したりする必要があり、コストがかかっていた。
通話先と通話するユーザを支援する情報処理装置において、
前記ユーザと前記通話先との通話の間で録音された情報を、通話情報として取得する取得手段と、
取得された前記通話情報から、音声が存在する発話区間を検出し、前記発話区間毎の音声情報を抽出する抽出手段と、
抽出された1以上の前記音声情報に基づいて、1以上の要素に基づく解析を行う解析手段と、
前記解析の結果に基づいて、前記ユーザの通話を支援する支援情報を生成する生成手段と、
生成された前記支援情報を前記ユーザに提示する提示手段と、
を備える。
図1は、本発明の情報処理装置の一実施形態に係る管理サーバ1を含む、情報処理システムにより実現可能な営業支援サービス(以下、「本サービス」と呼ぶ)の概要を示すイメージ図である。
ここで、「通話」とは、一般的な電話による音声のやり取りに限定されず、通信による音声のやり取り、及び無音部分を含む概念とする。
また、「音声」とは、人が発声器官を通じて発する音(声)を意味しており、典型的には例えば、ユーザUと通話先Cとの間で電話を介して取り交わされる声等がこれに含まれる。しかしながら、本明細書における「音声」には、通話に関連して発生し得る各種音、例えば、保留音や周囲の雑音等が含まれるものとする。
その結果、定性的な面からも、また定量的な面からも、利益の増加とコストの削減とを図ることが可能となる。
(解析用ソフトウェア)
本サービスにおいて、ユーザによる架電又は受電の相手方となる者(以下、「通話先」と呼ぶ)との間の通話に関する情報は、通話情報として記憶され、ビッグデータ化される。また、ビッグデータ化された通話情報は、AI(人工知能)による解析の対象となり、その解析結果に基づいて営業支援情報が生成される。
また、業務上、管理職にある者やスーパーバイザー等、ユーザを管理する立場にある者(以下、「管理者」と呼ぶ)は、管理される側のユーザ全員の稼動状況をリアルタイムでモニタリングすることができるので、「良かった点」や「悪かった点」などを含め、的確な指示や教育を行うことができる。
また、社内で別途管理されているデータベース等に本サービスを連携させることもできるので、社内システムの一括管理を実現させることもできる。
即ち、「電話営業におけるノウハウが蓄積されていないため電話営業をどのように行えばよいのかがわからない」という問題、「受注を逃した案件(以下、「失注」と呼ぶ)の原因を追究せずにそのままの状態になっている」という問題、「通話先にニュアンスやパーソナリティまで細かく伝達することができない」という問題、「顧客情報を確認しながら架電することを面倒に感じてしまう」という問題を、営業支援情報を活用することで解決することができる。
即ち、「誰によるどのような理由で失注が生じたのかを特定することができない」という問題、「営業成績の優秀なユーザの話術を他のユーザに効率良く学んでもらう方法がない」という問題、「トラブルが生じた際、過去の通話実績を確認することが困難である」という問題を、営業支援情報を活用することで解決することができる。
さらに、本サービスによれば、各種設定の変更等の操作が容易であるため、「ユーザの不在時や営業時間外における着信設定の変更が面倒である」という問題を容易に解決することもできる。
これにより、ユーザ同士で協力し、または切磋琢磨して組織全体の生産性を向上させることができる。
その結果、ユーザ(営業担当者)の教育にかかるコストを低減させながらも成約率を向上させることが可能となる。
次に、図1に示す本サービスの提供を実現化させる情報処理システムの構成について説明する。
図2は、本発明の情報処理装置の一実施形態に係る管理サーバ1を含む、情報処理システムの構成を示す図である。
管理サーバ1、専用通信装置2、ユーザ端末3、及び音声サーバ(PBX)4は、インターネット等の所定のネットワークNを介して相互に接続されている。また、音声サーバ(PBX)4と、通話先端末5とは、電話網Tを介して接続されている。
管理サーバ1は、サービス提供者(図示せず)により管理される情報処理装置である。管理サーバ1は、専用通信装置2、ユーザ端末3、及び音声サーバ(PBX)4と適宜通信をしながら、本サービスを実現するための各種処理を実行する。
以下、発話区間VS1乃至VSvを区別する必要がない場合、これらをまとめて「発話区間VS」と呼ぶ。また、音声情報VI1乃至VImを区別する必要がない場合、これらをまとめて「音声情報V」と呼ぶ。
その意味において、本明細書において、管理サーバ1は、生成された営業支援情報をユーザUに提示することが可能となる。
専用通信装置2は、ユーザUから通話先Cへの架電、及び通話先CからユーザUへの架電に対する受電を制御する装置である。専用通信装置2は、独立した筐体を有する装置であってもよいし、一部又は全ての機能を、後述するユーザ端末3(例えば図2に描画されたPC)に搭載させてもよい。また、専用通信装置2は、ユーザUのヘッドセット(例えば図2に描画されたヘッドセット)に搭載させてもよい。
なお、専用通信装置2の態様については、第2発明の説明において後述する。
ユーザ端末3は、ユーザUが電話営業を行うために操作する情報処理装置であって、例えばパーソナルコンピュータ、スマートフォン、タブレット等で構成される。ユーザ端末3は、管理サーバ1により生成された営業支援情報を表示する。これにより、ユーザUは、ユーザ端末3に表示された営業支援情報を自身の電話営業に活かすことができる。
音声サーバ4は、ネットワークNと電話網Tとを互いに接続することで専用通信装置2と通話先端末5との間における通話を可能とする交換機として機能するサーバである。音声サーバ4は、通話先CからユーザUに対する架電があった場合に、専用通信装置2のアプリに対し、その旨を示すメッセージ(以下、「着信通知メッセージ」と呼ぶ)を送る。また、音声サーバ4は、Webサイト内に組み込まれたコードスニペッド(以下、「ビーコン」と呼ぶ)、及びSDK(Software Development Kit)に着信通知メッセージを送る。
通話先端末5は、通話先CがユーザUと通話する際に操作する情報処理端末であって、例えばスマートフォン、固定電話等で構成される。
その結果、ユーザ(営業担当者)の教育にかかるコストを低減させながらも成約率を向上させることが可能となる。
図3は、図2の情報処理システムを構成する管理サーバ1のハードウェア構成の一例を示すブロック図である。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
入力部17は、各種ハードウェアボタン等で構成され、操作者の指示操作に応じて各種情報を入力する。
通信部19は、インターネットを含むネットワークNを介して他の装置(専用通信装置2、ユーザ端末3、及び音声サーバ(PBX)4)との間で行う通信を制御する。
以下、営業支援処理を実行するための機能構成について説明する。
(管理サーバ)
図4は、図3の管理サーバ1を含む情報処理システムの機能的構成のうち、営業支援処理を実行するための機能的構成を示す機能ブロック図である。
具体的には、取得部101は、ユーザUと通話先Cとの通話の間で録音された情報を通話情報として取得する。
取得部101により取得された通話情報は、通話DB181に記憶されて管理される。
具体的には、抽出部102は、取得部101により取得された通話情報から発話区間VS1乃至VSnを検出し、発話区間VS1乃至VSvの夫々について、音声情報VI1乃至VImを抽出する。
具体的には、解析部103は、抽出部102により抽出された音声情報VI1乃至VImに基づいて、要素E1乃至Epに基づく解析を行う。
上述したように、解析部103は、「保留音」、「ユーザUのみが発話している箇所」、「通話先Cのみが発話している箇所」、「被りが生じた箇所」、「沈黙が生じた箇所」等に関する情報を要素Eとする解析を行うことができる。例えば、「保留音」に関する情報を要素Eとする解析を行う場合には、音声情報VIに含まれるユーザUの音声及び通話先Cの音声と、保留音とを区別し、通話が保留状態となった回数や時間を特定する。
また例えば、解析部103は、要素E1乃至Epに基づいて、ユーザU及び通話先Cの感情の度合を判定し、その判定結果を解析結果に加味することができる。この場合、音声サーバ(PBX)4の他にビデオ中継サーバ(図示せず)を情報処理システムの構成に含めることで、撮像された動画像からユーザU及び通話先Cの感情の度合を判定することもできる。
また例えば、解析部103は、解析に際して、解析候補にゆらぎを含んだ検索の結果を考慮すること等して、解析の精度を高めてもよい。
なお、解析部103による解析の結果は、解析結果DB182に記憶されて管理される。
具体的には、生成部104は、解析部103による解析の結果に基づいて、営業支援情報を生成する。なお、生成部104により生成される営業支援情報の詳細については、図5に示す具体例を参照して後述する。
具体的には、提示部105は、生成部104により生成された営業支援情報をユーザ端末3に送信する制御を実行する。
また、管理サーバ1により営業支援処理の実行が制御される場合、専用通信装置2においては、音声入出力部201と、制御部202とが機能する。
また、管理サーバ1により営業支援処理の実行が制御される場合、ユーザ端末3においては、アプリ制御部301が機能する。
具体的には例えば、アプリ制御部301は、Webアプリ311、デスクトップアプリ312、及びモバイルアプリ313のインストール、起動、及び終了の制御を実行する。
ここで、Webアプリ311は、ネットワークNを介して使用するアプリである。デスクトップアプリ312は、ユーザ端末3のデスクトップ環境上で動作するアプリであり、ユーザ端末3にインストールされることで動作する。モバイルアプリ313は、スマートフォン、タブレット、その他の携帯端末で動作するように設計されたアプリである。
また、管理サーバ1により営業支援処理の実行が制御される場合、音声サーバ(PBX)4においては、通信転送部401と、制御部402とが機能する。
制御部402は、通信転送部401による通信情報の転送の制御を実行する。
これにより、業務上、管理者は、管理される側のユーザを教育する際、営業支援情報を活用することで費用をかけずに効率的に教育することができる。また、ユーザは、通話先との通話において、支援情報をリアルタイムで活用することができる。
その結果、ユーザ(営業担当者)の教育にかかるコストを低減させながらも成約率を向上させることが可能となる。
次に、図5乃至7を参照して、管理サーバ1により生成される営業支援情報の具体例について説明する。
図5は、管理サーバ1により生成される営業支援情報の具体例を示す図である。
図5に示すように、営業支援情報は、表示領域F1及びF2で構成されている。
また、応答メモ機能は、管理者以外の者でも利用できる機能とすることもできる。即ち、管理者以外の者であっても、応対メモを登録できるようにすることができる。この場合、通話の内容についての記憶が一番鮮明である通話終了時における備忘録として、担当者レベルで応対メモを登録することができる。
なお、応答メモ選択登録画面の具体例については、図6を参照して後述する。
実線L1及び破線L2を見ると、基本的には、ユーザU1が音声を発している(話している)間は、通話先Cは音声を発しておらず(黙って聞いている)、通話先Cが音声を発している(話している)間は、ユーザU1は音声を発していない(黙って聞いている)ことがわかる。ここで、Z3で示された箇所は、両者が同時に音声を発している状態(被っている状態)であり、通話先Cの話が終わらないうちにユーザU1が話し始めた可能性がある。Z1及びZ2で示された箇所は、両者が音声を発していない時間(沈黙の時間)である。P1及びP2で示された箇所は、所定のキーワードが出現した箇所である。
図5に示す例では、全体のスコアが「4.7」、Talk:Listen比率が「63(%):37(%)」、沈黙回数が「2回(音声グラフのZ1及びZ2)」、被り回数が「1回(音声グラフのZ3)」、キーワード回数が「2回(音声グラフのP1及びP2)」となっていることがわかる。
これにより、ユーザU1は、「Talk:Listen比率」に表示された数値から、例えば自分が喋り過ぎていたかどうか、説明不足ではなかったかどうかといったことを確認することができる。また、「沈黙回数」に表示された数値から、例えば自分の話術の未熟さ、通話先Cを不安にさせた可能性、あるいは不快な思いをさせた可能性等を推察することができる。また、「被り回数」に表示された数値から、例えば通話先Cの話が終わる前に口を挟むことで通話先Cに不快な思いをさせた可能性を確認することができる。また、「キーワード回数」から、通話先Cに対し、例えば新商品の商品名、通話先Cのメリットやリスク等をきちんと伝えたかどうか、といったことを確認することができる。
図5に示す例では、基本周波数(ユーザ)が「246.35Hz」、基本周波数(通話先)が「86.94Hz」、抑揚の強弱(ユーザ)が「0.3」、抑揚の強弱(通話先)が「0.1」であることがわかる。
これにより、ユーザU1は、「基本周波数」及び「抑揚の強弱」の夫々に表示された数値について、通話先Cと比較することにより、例えば自分が落ち着いて話したかどうか、相手(通話先C)をむやみに興奮させなかったかどうか、興奮した相手(通話先C)を落ち着かせるための配慮を行ったかどうか、といったことを確認することができる。
図5に示す例では、ユーザU1の話速が「10.30文字/秒」、通話先Cの話速が「6.08文字/秒」であることがわかる。つまり、ユーザU1の方が話すスピードがかなり速かったことがわかる。
これにより、ユーザU1は、自分が早口で喋り過ぎていたかどうか、相手(通話先C)を落ち着かせて喋らせていたかどうか、といったことを確認することができる。
図5に示す例では、キーワードが出現した時間が、通話開始後「1.23(1分23秒)」経過時(P1)、及び通話開始後「1.36(1分36秒)」経過時(P2)であることがわかる。
これにより、ユーザU1は、例えば自分がキーワードとしての新商品の名称をきちんと伝えたかどうか、あるいは通話先Cに新商品の名称を喋らせることで、新商品の名称を印象付けることができたかどうか、といったことを確認することができる。
図5に示す例では、2018年10月27日の22時58分に、「社内異動に伴い、1:00の部分で担当者が○○様から○○様に代わったようです。」というコメントが投稿されている。このコメントは、音声情報の解析結果から、通話開始からちょうど1分が経過した時点で通話先Cが代わったこと、及びその理由が社内異動であることが判明したため、これを営業支援情報としてユーザU1に提示したものである。
また、2018年10月27日の23時00分に、「2:35−3:00によると、現在は他社のサービスをご利用中ですが、ご不満があり、当社サービスの導入をご検討頂いています。また、5:00によると、想定される利用者は最大で1,300名であるとのことです。」というコメントが投稿されている。このコメントは、音声情報の解析結果から、通話先Cが現在利用する他社サービスに不満があるためユーザU1の会社への変更を検討していること、及び想定される利用者が最大1300名であることが判明したため、これを営業支援情報としてユーザU1に提示したものである。
このように、ユーザU1は、ユーザ端末3を操作することで、容易に図5に示す営業支援情報を確認することができる。このため、ユーザU1は、通話先Cとの通話において、支援情報をリアルタイム又は事後的に活用することで、セルフコーチングを行うことができる。また、業務上、管理者は、ユーザU1を教育する際、営業支援情報を活用することで費用をかけずに効率的に教育することができる。
その結果、ユーザU1(営業担当者)の教育にかかるコストを低減させながらも成約率を向上させることが可能となる。
表示領域F3には、事前に設定された項目の夫々が、チェックボックスT31とともに表示されている。図6の例では、アポ獲得成功、担当者不在、折り返し希望、担当者退職、継続フォロー、ニーズ無し、他社サービスX利用中、及び他社サービスY利用中という項目が表示されている。
上述したように、応対メモとして登録された項目は、図5に示す通話情報の表示領域F2にアイコンで表示される。図6に示す例では、「アポ獲得成功」及び「他社サービスX利用中」のチェックボックスが選択(チェック)されている。このため、図5に示すように、「アポ獲得成功」と表示されたアイコン、及び「他社サービスXご利用中」と表示されたアイコンが通話情報の所定領域(図5の例では表示領域F2)に表示される。
「+ 項目を追加」と表示されたボタンB41が押下されると、表示領域F3に表示された項目以外に、新たに項目を追加する設定を行うことができる操作画面(以下、「応対メモ設定画面」と呼ぶ)が表示される。応対メモ設定画面において事前に新たな項目が設定されると、その設定内容が応対メモ選択登録画面に反映される。
なお、応対メモ設定画面の具体例については、図7を参照して後述する。
表示領域F5には、「応対メモ機能を設定すると、通話終了後に応対メモを登録できます。」という案内文と、応対メモの有効・無効を設定するためのチェックボックスT51が表示されている。ユーザUは、チェックボックスT51を押下することで、通話情報における応対メモの表示の有無を指定することができる。
具体的には、チェックボックスT51が選択(チェック)されている場合には、ユーザUにおいて、通話情報に応対メモを「表示させる」という決定がなされていることになる。これに対して、チェックボックスT51の選択(チェック)が外されている場合には、ユーザUにおいて、通話情報に応対メモを「表示させない」という決定がなされていることになる。なお、図7の例では、チェックボックスT51が選択(チェック)されているため、通話情報に応対メモを「表示させる」という決定がユーザUによってなされている。
ここで、応対メモの一覧に設定されていない項目は、入力欄R1にフリーワード入力することにより、追加で設定することができる。
また、チェックボックスT61が選択(チェック)されると、その項目は、模範的な応対として記録されることとなる。模範的な応対として記録された項目は、各種解析で活用することができる。
図7に示す例では、設定されている項目であるアポ獲得成功、担当者不在、折り返し希望、担当者離職、継続フォロー、ニーズ無し、他社サービスX利用中、及び他社サービスY利用中のうち、アポ獲得成功を示すチェックボックスT61が選択(チェック)されている。このため、「アポ獲得成功」という応対メモは、模範的な応対として記録されるとともに、各種解析で活用することができる。
(通信用ハードウェア)
ユーザUが、本サービスを利用するために用いる通信用ハードウェア(例えば図2の専用通信装置2)は、既存の通信用ハードウェア(例えばパーソナルコンピュータ、スマートフォン、タブレット等)で代用することができる。ここで、ユーザ端末3は、パーソナルコンピュータ、スマートフォン、タブレット等で構成されるので、専用通信装置2の機能をそのまま包含することができる。
即ち、本サービスは、既存の通信用ハードウェアを用いて利用することができるため、ユーザUは、例えば以下のようなメリットを享受することができる。
即ち、本サービスで用いられる通信用ハードウェアによれば、既存のスマートフォン等を代用することにより、数分間の設定作業を経るだけで本サービスを利用することが可能となる。
これにより、工事費用、メンテナンス費用、リース費用、各種機材に要する費用等が不要になる。また、全ての通話を録音して解析の対象とすることができるとともに、履歴の確認を行うことができる。
これにより、特に架電の機会が多い営業部門における通信コストを大幅に削減することができる。また、「(東京)03」、「050」、「0120」、「0800」等で始まる電話番号を自由に取得することができる。また、高品質で安定した通話を実現させることができる。さらに、1つの電話番号で国内外問わず通話することができる。また、既存のスマートフォンを利用した場合であっても、例えば「(東京)03」から始まる電話番号による受発信が可能となる。さらに、外出先からでも社内と同じように利用することができるので、外出することが多い営業担当部門にとって好適である。
これにより、組織変更や社内異動にも柔軟に対応することができる。さらに、自動音声応答(IVR/Interactive Voice Response)の設定や自動転送の設定を容易に行うことができる。
また、本サービスで用いられる通信用ハードウェアの具体的な構成は特に限定されない。加入者を認識するためのモジュールであるSIM(Subscriber Identity Module)、及び通信に必要となる機器(モデム、アンテナ等)を備える装置であればよい。このため、スマートフォン等の既存の通信機器を用いてもよいし、専用のハードウェアを用いてもよい。専用のハードウェアを用いる場合には、ユーザUが使用するヘッドセットに、電力供給手段(例えばリチウムイオンバッテリー)を備える専用のハードウェアを搭載させてもよい。
次に、図8及び図9を参照して、第2発明に係る通信用ハードウェア(例えば図2の専用通信装置2)を含む情報処理システムの処理の流れについて説明する。
図8及び図9は、専用通信装置2を含む情報処理システムによる処理の流れを示す図である。
このうち、図8には、ユーザUから通話先Cに架電する場合における情報処理システムの処理の流れが示されている。
即ち、ステップS31−1において、ユーザ端末3は、各種アプリを起動する。具体的には、ユーザ端末3は、Webアプリ311、デスクトップアプリ312、及びモバイルアプリ313を起動させる。
ステップS41−1において、音声サーバ(PBX)4は、ユーザ端末3の発信要求を受信する。
これに伴い、ステップS21−1において、専用通信装置2は、音声サーバ(PBX)4により発信(呼出し)が行われている旨を示す鳴動を行う。すると、ステップS31−3において、ユーザ端末3は、音声サーバ(PBX)4により発信(呼出し)が行われている旨を示す情報を表示する。ここで、ユーザ端末3に表示される情報は特に限定されない。例えば「呼出中」という文字をユーザ端末3に表示させてもよい。
ステップS51−1において、通話先端末5は、音声サーバ(PBX)4の発信(呼出し)に応答する。
ステップS11−1において、管理サーバ1は、送信されてきた通話情報を取得する。
ステップS11−3において、管理サーバ1は、検出された発話区間VS1乃至VSvの夫々について、音声情報VI1乃至VImを抽出する。
ステップS11−4において、管理サーバ1は、抽出した音声情報VI1乃至VImに基づいて、要素E1乃至Epに基づく解析を行う。なお、上述したように、解析部103は、「保留音」、「ユーザUのみが発話している箇所」、「通話先Cのみが発話している箇所」、「被りが生じた箇所」、「沈黙が生じた箇所」等に関する情報を要素Eとする解析を行うことができる。
ステップS11−5において、管理サーバ1は、解析の結果に基づいて、営業支援情報を生成する。
ステップS31−5において、ユーザ端末3は、管理サーバ1から送信されてきた営業支援情報を表示する。
以上の各処理が情報処理システムにおいて実行されることにより、ユーザ(営業担当者)の教育にかかるコストを低減させながらも成約率を向上させることが可能となる。
即ち、ステップS32−1において、ユーザ端末3は、各種アプリを起動する。具体的には、ユーザ端末3は、Webアプリ311、デスクトップアプリ312、及びモバイルアプリ313を起動させる。
ステップS42−1において、音声サーバ(PBX)4は、通話先端末5の発信を着信イベントとして受信する。
これに伴い、ステップS22−1において、専用通信装置2は、音声サーバ(PBX)4により着信イベントの送信が行われている旨を示す鳴動を行う。すると、ステップS32−2において、ユーザ端末3は、音声サーバ(PBX)4により着信イベントの送信が行われていること旨を示す情報を表示する。ここで、ユーザ端末3に表示される情報は特に限定されない。例えば「着信中」という文字をユーザ端末3に表示させてもよい。
ステップS32−4において、ユーザ端末3は、音声サーバ(PBX)4に対し、応答要求を送信する。
ステップS42−3において、音声サーバ(PBX)4は、送信されてきた応答要求を受信する。
ステップS42−4において、音声サーバ(PBX)4は、音声通信を確立する。これにより、ステップS22−2において、専用通信装置2は通話可能状態となる。また、ステップS52−2において、通話先端末5は通話可能状態となる。すると、ステップS32−5において、ユーザ端末3は、通話が行われていることを示す情報を表示する。ここで、ユーザ端末3に表示される情報は特に限定されない。例えば「通話中」という文字をユーザ端末3に表示させてもよい。
ステップS12−1において、管理サーバ1は、送信されてきた通話情報を取得する。
ステップS12−3において、管理サーバ1は、検出された発話区間VS1乃至VSvの夫々について、音声情報VI1乃至VImを抽出する。
ステップS12−4において、管理サーバ1は、抽出した音声情報VI1乃至VImに基づいて、要素E1乃至Epに基づく解析を行う。なお、上述したように、解析部103は、「保留音」、「ユーザUのみが発話している箇所」、「通話先Cのみが発話している箇所」、「被りが生じた箇所」、「沈黙が生じた箇所」等に関する情報を要素Eとする解析を行うことができる。
ステップS12−5において、管理サーバ1は、解析の結果に基づいて、営業支援情報を生成する。
ステップS32−6において、ユーザ端末3は、管理サーバ1から送信されてきた営業支援情報を表示する。
これにより、ユーザUが通話先Cからの架電を受電する場合における情報処理システムの処理は終了する。
以上の各処理が情報処理システムにおいて実行されることにより、ユーザ(営業担当者)の教育にかかるコストを低減させながらも成約率を向上させることが可能となる。
図10は、音声認識結果の文中のフィラーが識別されて除去される具体例を示す図である。
なお、図10の上段に示すように、音声認識結果は、「音声認識」と表記されたタブG1が選択されると、フィラーfが除去されていないものが表示される。これに対して、図10の下段に示すように、「音声認識結果(フィラー除く)」と表記されたタブG1が選択されると、フィラーfが除去されたものが表示される。
即ち、応答時間、応答時間のゆらぎ、速度などを、Webサイト上、又はソフトウェア上で測定し、音声通話に十分な品質を持った環境かどうかをワンクリックで確認することができる。また、実際に確認用の音声を再生し、途切れやゆらぎ、音質等を、正常な音声と比較して分析するエンジンを用いることができる。これにより、通信環境の準備状況を定量的に数値化することができる。また、本サービスの詳細を設定する機能として、ユーザUを管理するための各種設定機能、自動転送を設定する機能、複数のユーザUをグループとして管理するための設定機能、留守番電話を設定する機能、電話番号を設定する機能、解析に用いられる数値(スコア)に関するルールを設定する機能、電話番号の非通知設定等のプレフィックス番号を設定する機能、図5のキーワードを設定する機能、保留音等を設定するためのサウンド設定機能、図5の応対メモを設定する機能、着信のルールを設定する機能、CRMに関連するサービスを提供する他社サイトと連携させるための設定機能、営業時間を設定する機能、自動音声による応対を設定する機能、自社サービスと連携させるための設定機能等を実装させることができる。
具体的には例えば、解析に用いられる数値(スコア)に関するルールを設定する機能によれば、通話先Cが属する業界に応じて話速に変化をつけることもできる。
また、ユーザ端末3を用いた発着信機能として、ウィジェットやアプリを使用した発着信や、Webサイト内のWebページに表示された電話番号をクリックすることで容易に発信するようにすることもできる。各種各様なシステム(例えば社内システム)と連携して利用可能なUI(ユーザインターフェース)を有する発着信画面を備えてもよい。
図11上段に示すように、例えばアプリ画面やWebページの一部に表示された、「Phone」と表記されたウィジェットWが表示されるようにすることができる。このウィジェットWが押下されると、図11下段に示すように、電話を掛けることができる態様にウィジェットWの表示が変わるようにしてもよい。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
即ち、本発明が適用される情報処理装置(例えば図4の管理サーバ1)は、
通話先(例えば図2の通話先C)と通話するユーザ(例えば図2のユーザU)を支援する情報処理装置において、
前記ユーザと前記通話先との通話の間で録音された情報を、通話情報として取得する取得手段(例えば図4の取得部101)と、
取得された前記通話情報から、音声が存在する発話区間(例えば発話区間VS1乃至VSn)を検出し、前記発話区間毎の音声情報(例えばVI1乃至VIm)を抽出する抽出手段(例えば図4の抽出部102)と、
抽出された1以上の前記音声情報に基づいて、1以上の要素(例えばE1乃至Ep)に基づく解析を行う解析手段(例えば図4の解析部103)と、
前記解析の結果に基づいて、前記ユーザの通話を支援する支援情報(例えば営業支援情報)を生成する生成手段(例えば図4の生成部104)と、
生成された前記支援情報を前記ユーザに提示する提示手段(例えば図4の提示部105)と、
を備える。
その結果、ユーザU(営業担当者)の教育にかかるコストを低減させながらも成約率を向上させることが可能となる。
図13に示すように、実際の音声が「あ、もしもし、レブコムサポートの長田です。」であったのに対して、音声認識結果が、例えば「あ、もしもしビジネスサポートしながらです。」であった場合には、一部に誤りが含まれる。この場合、ユーザは、再生ボタンB102、クリップボードにコピーするためのボタンB103や、編集ボタンB104を押下して、実際の音声の内容に訂正するための入力操作を行う。これにより、音声認識結果の誤りを訂正することができる。訂正された音声認識結果は、次回の音声認識が正しく行われるようにするための学習用のデータとして用いられる。これにより、同様の誤認識が繰り返し行われることを抑制することができる。その結果、音声認識の精度を向上させることができる。
Claims (5)
- 通話先と通話するユーザを支援する情報処理装置において、
前記ユーザと前記通話先との通話の間で録音された情報を、通話情報として取得する取得手段と、
取得された前記通話情報から、音声が存在する発話区間を検出し、前記発話区間毎の音声情報を抽出する抽出手段と、
抽出された1以上の前記音声情報に基づいて、1以上の要素に基づく解析を行う解析手段と、
前記解析の結果に基づいて、前記ユーザの通話を支援する支援情報を生成する生成手段と、
生成された前記支援情報を前記ユーザに提示する提示手段と、
を備える情報処理装置。 - 前記1以上の要素には、保留音に関する情報が含まれる、
請求項1に記載の情報処理装置。 - 前記1以上の要素には、音の信号に関する情報が含まれる、
請求項1又は2に記載の情報処理装置。 - 前記1以上の要素には、前記発話区間内の文字に関する情報がさらに含まれる、
請求項1乃至3のうちいずれか1項に記載の情報処理装置。 - 前記支援情報には、前記ユーザの話し方、前記通話先が話す内容、又は前記ユーザに対するアドバイスのうち少なくとも1つの情報が含まれる、
請求項1乃至4のうちいずれか1項に記載の情報処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022048850A JP2022100317A (ja) | 2019-03-11 | 2022-03-24 | 情報処理装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019043549 | 2019-03-11 | ||
JP2019043549 | 2019-03-11 | ||
PCT/JP2020/010634 WO2020184631A1 (ja) | 2019-03-11 | 2020-03-11 | 情報処理装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022048850A Division JP2022100317A (ja) | 2019-03-11 | 2022-03-24 | 情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020184631A1 true JPWO2020184631A1 (ja) | 2021-04-01 |
JP7053069B2 JP7053069B2 (ja) | 2022-04-12 |
Family
ID=72426666
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020549075A Active JP7053069B2 (ja) | 2019-03-11 | 2020-03-11 | 情報処理装置 |
JP2022048850A Pending JP2022100317A (ja) | 2019-03-11 | 2022-03-24 | 情報処理装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022048850A Pending JP2022100317A (ja) | 2019-03-11 | 2022-03-24 | 情報処理装置 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11862190B2 (ja) |
JP (2) | JP7053069B2 (ja) |
SG (1) | SG11202109138VA (ja) |
WO (1) | WO2020184631A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11862190B2 (en) | 2019-03-11 | 2024-01-02 | Revcomm Inc. | Information processing device |
EP4085452A1 (en) * | 2020-01-30 | 2022-11-09 | Google LLC | Speech recognition |
US20220230116A1 (en) * | 2021-01-21 | 2022-07-21 | Mindtickle, Inc. | Automated scoring of call interactions |
WO2023013027A1 (ja) * | 2021-08-06 | 2023-02-09 | 株式会社I’mbesideyou | 動画像分析システム |
JP7168262B1 (ja) * | 2021-11-22 | 2022-11-09 | 株式会社RevComm | プログラム、情報処理システム及び情報処理方法 |
WO2024058585A1 (ko) * | 2022-09-16 | 2024-03-21 | 사회복지법인 삼성생명공익재단 | 음성 데이터 및 임상 정보를 이용하여 대상자의 폐질환의 중증도를 분류하는 방법 및 분석장치 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011102862A (ja) * | 2009-11-10 | 2011-05-26 | Advanced Media Inc | 音声認識結果管理装置および音声認識結果表示方法 |
JP2013157666A (ja) * | 2012-01-26 | 2013-08-15 | Sumitomo Mitsui Banking Corp | 電話応対業務支援システムおよびその方法 |
JP2014178567A (ja) * | 2013-03-15 | 2014-09-25 | Yahoo Japan Corp | 音声認識装置、音声認識方法、およびプログラム |
JP2016076788A (ja) * | 2014-10-03 | 2016-05-12 | みずほ情報総研株式会社 | 通話評価システム、通話評価方法及び通話評価プログラム |
JP2017010374A (ja) * | 2015-06-24 | 2017-01-12 | 株式会社ネクスゲート | 営業支援情報提供システム及び営業支援情報提供方法 |
JP6572354B1 (ja) * | 2018-08-10 | 2019-09-11 | Regain Group株式会社 | 営業提案システム、営業提案プログラム及び営業提案方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002269335A (ja) | 2001-03-14 | 2002-09-20 | Recomm Kk | 営業支援システム |
US20040096043A1 (en) | 2002-11-18 | 2004-05-20 | Timmins Timothy A. | Technique for assisting a user with information services at an information/call center |
JP4584649B2 (ja) * | 2004-08-18 | 2010-11-24 | 富士通株式会社 | 通信端末装置及びそのダイヤル登録方法 |
US7155207B2 (en) | 2004-09-09 | 2006-12-26 | Nextel Communications Inc. | System and method of analyzing communications between a calling party and a called party |
US8068719B2 (en) | 2006-04-21 | 2011-11-29 | Cyberlink Corp. | Systems and methods for detecting exciting scenes in sports video |
US8615074B1 (en) | 2011-01-05 | 2013-12-24 | West Corporation | Method and apparatus of analyzing customer call data and related call information to determine call characteristics |
US9479642B2 (en) * | 2012-01-26 | 2016-10-25 | Zoom International S.R.O. | Enhanced quality monitoring |
KR20200085026A (ko) * | 2019-01-04 | 2020-07-14 | 라인 가부시키가이샤 | 메신저 기반 계좌 거래 이력과 관련된 사용자 편의 인터페이스를 제공하는 방법, 시스템, 및 비-일시적인 컴퓨터 판독가능한 기록 매체 |
US11862190B2 (en) | 2019-03-11 | 2024-01-02 | Revcomm Inc. | Information processing device |
-
2020
- 2020-03-11 US US17/433,987 patent/US11862190B2/en active Active
- 2020-03-11 JP JP2020549075A patent/JP7053069B2/ja active Active
- 2020-03-11 SG SG11202109138VA patent/SG11202109138VA/en unknown
- 2020-03-11 WO PCT/JP2020/010634 patent/WO2020184631A1/ja active Application Filing
-
2022
- 2022-03-24 JP JP2022048850A patent/JP2022100317A/ja active Pending
-
2023
- 2023-12-06 US US18/530,787 patent/US20240105212A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011102862A (ja) * | 2009-11-10 | 2011-05-26 | Advanced Media Inc | 音声認識結果管理装置および音声認識結果表示方法 |
JP2013157666A (ja) * | 2012-01-26 | 2013-08-15 | Sumitomo Mitsui Banking Corp | 電話応対業務支援システムおよびその方法 |
JP2014178567A (ja) * | 2013-03-15 | 2014-09-25 | Yahoo Japan Corp | 音声認識装置、音声認識方法、およびプログラム |
JP2016076788A (ja) * | 2014-10-03 | 2016-05-12 | みずほ情報総研株式会社 | 通話評価システム、通話評価方法及び通話評価プログラム |
JP2017010374A (ja) * | 2015-06-24 | 2017-01-12 | 株式会社ネクスゲート | 営業支援情報提供システム及び営業支援情報提供方法 |
JP6572354B1 (ja) * | 2018-08-10 | 2019-09-11 | Regain Group株式会社 | 営業提案システム、営業提案プログラム及び営業提案方法 |
Non-Patent Citations (2)
Title |
---|
小野寺 佐知子, 第67回(平成17年)全国大会講演論文集(2) 人工知能と認知科学, JPN6021041155, 2 March 2005 (2005-03-02), pages 2 - 125, ISSN: 0004619870 * |
横山 貴彦: "複数人談話における言語情報と非言語情報を利用した盛り上がり判定", 言語処理学会第18回年次大会発表論文集 チュートリアル 本会議 [CD−ROM], JPN6021014826, 13 March 2012 (2012-03-13), JP, pages 291 - 294, ISSN: 0004493251 * |
Also Published As
Publication number | Publication date |
---|---|
JP2022100317A (ja) | 2022-07-05 |
SG11202109138VA (en) | 2021-09-29 |
US20220139418A1 (en) | 2022-05-05 |
WO2020184631A1 (ja) | 2020-09-17 |
JP7053069B2 (ja) | 2022-04-12 |
US11862190B2 (en) | 2024-01-02 |
US20240105212A1 (en) | 2024-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7053069B2 (ja) | 情報処理装置 | |
US11575784B1 (en) | System and method for modifying the operational state of a telecommunication application using conversational processing | |
US10530923B1 (en) | Computer control of online social interactions based on conversation processing | |
US9860379B2 (en) | Recording user communications | |
US9742913B2 (en) | Recording user communications | |
US20210005207A1 (en) | System and method for querying multiple information sources using agent assist within a cloud-based contact center | |
US8494149B2 (en) | Monitoring device, evaluation data selecting device, agent evaluation device, agent evaluation system, and program | |
US7640510B2 (en) | Apparatus, system, and method for presenting scripts to a contact | |
US20100074421A1 (en) | Method and system for performing automated telemarketing | |
US20210304107A1 (en) | Employee performance monitoring and analysis | |
JP2019125011A (ja) | 人工知能スピーカシステム、アプリケーションソフトウェア | |
US20030046181A1 (en) | Systems and methods for using a conversation control system in relation to a plurality of entities | |
JP2023076430A (ja) | プログラム、情報処理システム及び情報処理方法 | |
US20030046102A1 (en) | Systems and methods for maintaining consistency in interpersonal communications related to marketing operations | |
JP2020027441A (ja) | 営業提案システム、営業提案プログラム及び営業提案方法 | |
WO2023090379A1 (ja) | プログラム、情報処理システム及び情報処理方法 | |
US11961516B1 (en) | System and method for modifying operations of telecommunication devices using conversation processing | |
US20240135921A1 (en) | System and method for modifying operations of telecommunication devices using conversation processing | |
WO2020258168A1 (en) | A method for managing incoming calls on a communication device and the corresponding device | |
Lucas | How to be a great call center representative | |
KR20200062904A (ko) | 업무 가이드 장치 및 방법 | |
AGARWAL | Bachelor of Technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200914 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200914 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200914 |
|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20201110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201221 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220324 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7053069 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |