JP2020184763A - 人工知能決定による表情に基づくビデオコールルーティング及び管理 - Google Patents

人工知能決定による表情に基づくビデオコールルーティング及び管理 Download PDF

Info

Publication number
JP2020184763A
JP2020184763A JP2020081776A JP2020081776A JP2020184763A JP 2020184763 A JP2020184763 A JP 2020184763A JP 2020081776 A JP2020081776 A JP 2020081776A JP 2020081776 A JP2020081776 A JP 2020081776A JP 2020184763 A JP2020184763 A JP 2020184763A
Authority
JP
Japan
Prior art keywords
real
transcript
time
emotion
video call
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020081776A
Other languages
English (en)
Other versions
JP7001738B2 (ja
Inventor
カーティ ジェラード
Carty Gerard
カーティ ジェラード
モラン トーマス
Thomas Moran
モラン トーマス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avaya Inc
Original Assignee
Avaya Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avaya Inc filed Critical Avaya Inc
Publication of JP2020184763A publication Critical patent/JP2020184763A/ja
Application granted granted Critical
Publication of JP7001738B2 publication Critical patent/JP7001738B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/523Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing with call distribution or queueing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/22Arrangements for supervision, monitoring or testing
    • H04M3/2281Call monitoring, e.g. for law enforcement purposes; Call tracing; Detection or prevention of malicious calls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5175Call or contact centers supervision arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/50Telephonic communication in combination with video communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/40Aspects of automatic or semi-automatic exchanges related to call centers
    • H04M2203/406Rerouting calls between call centers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/55Aspects of automatic or semi-automatic exchanges related to network data storage and management
    • H04M2203/551Call history
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5166Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Technology Law (AREA)
  • Telephonic Communication Services (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】コンタクトセンターにおいて、通信相手の感情状態の理解を促進する。【解決手段】通信エンドポイントとコンタクトセンターエージェントの通信エンドポイントとの間のビデオコールのビデオストリームを受信してリアルタイム感情トランスクリプトを生成するように処理する。リアルタイム感情トランスクリプトは、ビデオストリームに発生する表情等の非言語的表現に基づいて複数の感情を追跡する。顧客及びコンタクトセンターエージェントの双方の異なる感情をリアルタイム感情トランスクリプトにおいて追跡できる。リアルタイム感情トランスクリプトと以前のビデオコールの感情トランスクリプトとを比較し、ビデオコールをコンタクトセンターにおいて異なる態様で扱われるべきかを判定する。異なる態様で扱われるべきと判定すると、ビデオコールのコンタクトセンターにおいて管理の変更を決定する。【選択図】図1

Description

我々が意思疎通する相手の感情を理解することは、その人との関係を構築することにおいて非常に重要な部分である。人がどのように感じているかを理解するプロセスは時間を伴うものであり、多くの場合、相手が与える非言語的な「ヒント」を理解することができることから来るものである。これらの非言語的な「ヒント」の一部は、時間をかけても検出するのが難しい。さらに、非言語的な「ヒント」によっては、何を求めるかを人間が知っている場合でさえも人間によっては検出不能なこともある。例えば、参照によりその全体においてここに取り込まれるDavid Matsumoto及びHyi Swang HwangによるPsychological Science Agenda、「Reading facial expressions of emotion」、2011年5月(https://www.apa.org/science/about/psa/2011/05/facial-expressions.aspx)は、マイクロエクスプレッションといわれるものを記載している。マイクロエクスプレッション「は、一瞬に、場合によっては1/30秒もの速さにおいて、顔に現れては消える表現。・・・それらは非常に速く発生するため、ほとんどの人はリアルタイムでは確認又は認識できない」(Id参照)。
コンタクトセンターでは、これらの非言語的な「ヒント」を捉えるのは一層難しい。例えば、コンタクトセンターエージェントは初めて顧客と話していることもあれば、文化的な差が伴うことなどもある。さらに、フレームレート、圧縮比、制限された帯域幅、輻輳(すなわち、喪失パケット)などのために、マイクロエクスプレッションは、微妙なマイクロエクスプレッションを検出するビデオプロセッサの補助なしには完全に検出不能となり得る。顧客の感情状態の非言語的な「ヒント」をコンタクトセンターエージェントが理解できないことによって、顧客のフラストレーションの増加、コール回数の増加、歳入の喪失、不満を募らせる作業要員、効率的でないコンタクトセンターなどがもたらされてしまう。
これら及び他のニーズが、本開示の種々の実施形態及び構成によって対処される。顧客の通信エンドポイントとコンタクトセンターエージェントの通信エンドポイントとの間のビデオコールのビデオストリームが受信される。ビデオコールのビデオストリームは、リアルタイム感情トランスクリプトを生成するようにリアルタイムで処理される。リアルタイム感情トランスクリプトは、ビデオコールのビデオストリームにおいて発生する非言語的表現(例えば、マイクロエクスプレッション)に基づいて複数の別個の感情を追跡する。例えば、顧客及びコンタクトセンターエージェントの双方の異なる感情が、リアルタイム感情トランスクリプトにおいて追跡され得る。リアルタイム感情トランスクリプトは、ビデオコールがコンタクトセンターにおいて異なる態様で扱われるべきかを判定するように、少なくとも1つの以前のビデオコールの感情トランスクリプトと比較される。ビデオコールがコンタクトセンターにおいて異なる態様で扱われるべきかを判定することに応じて、どのようにしてビデオコールがコンタクトセンターにおいて管理されるかを変更するアクションが決定される。例えば、ビデオコールは、コンタクトセンター内でコンタクトセンターキュー、他のコンタクトセンターエージェント又は監督者の通信エンドポイントなどに再ルーティングされ得る。
文言「少なくとも1つ」、「1以上」、「又は(若しくは)」及び「及び/又は」は、用法において接続的かつ離接的なオープンエンドな表現である。例えば、「A、B及びCの少なくとも1つ」、「A、B又はCの少なくとも1つ」、「A、B及びCの1以上」、「A、B又はCの1以上」、「A、B及び/又はC」及び「A、B又はC」という表現の各々は、Aのみ、Bのみ、Cのみ、A及びBの双方、A及びCの双方、B及びCの双方、又はA、B及びCの全てを意味する。
用語「a」又は「an」エンティティは、そのエンティティの1以上をいう。このように、用語「a」(又は「an」)、「1以上」及び「少なくとも1つ」は、ここでは互換可能に使用され得る。また、用語「備える」、「含む」及び「有する」も互換可能に使用され得ることを注記する。
ここで使用する用語「自動的」及びその変化形とは、その処理又は動作が実行されると実質的な人間の入力なしに行われる任意の処理又は動作であって通常は連続的又は準連続的であるものをいう。ただし、処理又は動作の実行が実質的又は非実質的な人間の入力を用いるとしても、その入力がその処理又は動作の実行前に受信される場合にはその処理又は動作は自動的となり得る。人間の入力は、どのようにして処理又は動作が実行されるかにその入力が影響を与える場合に実質的であるとみなされる。処理又は動作の実行に同意する人間の入力は、「実質的」とはみなされない。
本開示の態様は、ここでは全て一般に「回路」、「モジュール」又は「システム」ともいう全体的にハードウェアの実施形態、全体的にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)又はソフトウェア及びハードウェアの態様を組み合わせた実施形態の形式を採り得る。1以上のコンピュータ可読媒体の任意の組合せが利用され得る。コンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体であり得る。
コンピュータ可読記憶媒体は、例えば、ただし限定的にではなく、電子、磁気、光学、電磁、赤外若しくは半導体システム、装置若しくはデバイス又は上記の任意の適宜の組合せであればよい。コンピュータ可読記憶媒体のより具体的な例(網羅的リストではない)は以下:1以上の配線を有する電気接続、可搬コンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、可搬コンパクトディスク読み出し専用メモリ(CD−ROM)、光学記憶デバイス、磁気記憶デバイス、又は上記の任意の適宜の組合せを含むことになる。この書類の背景において、コンピュータ可読記憶媒体は、命令実行システム、装置又はデバイスによる又はそれとの関連における使用のためにプログラムを含み又は記憶することができる任意の有形媒体となり得る。
コンピュータ可読信号媒体は、例えば、ベースバンドにおいて又は搬送波の一部としてここに具現化されるコンピュータ可読プログラムコードを有する伝搬データ信号を含み得る。そのような伝搬信号は、これに限定されないが、電磁気、光又はこれらの任意の適切な組合せを含む種々の形態のいずれかをとり得る。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体ではなく、命令実行システム、装置若しくはデバイスによって又はそれとの接続において使用するためにプログラムを通信、伝搬又は搬送することができる任意のコンピュータ可読媒体であり得る。コンピュータ可読媒体上で具現化されるプログラムコードは、これに限定されないが、無線、有線、光ファイバケーブル、RFなど又は上記の任意の適切な組合せを含む任意の適切な媒体を用いて送信され得る。
ここで使用される用語「判定する/決定する」、「算出する」及び「計算する」並びにその変化形は、互換可能に使用され、任意のタイプの方法、処理、数学的演算又は技術を含む。
ここで使用される用語「手段」は米国特許法第112条(f)及び/又は112条、第6項によるその最も広い可能な解釈で与えられるべきである。したがって、用語「手段」を含む請求項は、全ての構造物、材料又はここに説明する動作及びその均等物の全てを包含するものである。また、構造物、材料又は動作及びその均等物は、概要、図面の簡単な説明、詳細な説明、要約書及び特許請求の範囲自体に記載される全てのものを含むものである。
ここに及び特許請求の範囲において規定される用語「顧客」は、コンタクトセンター、通信システム及び/又は他の当事者とビデオコールを行う任意の人間であり得る。
ここに及び特許請求の範囲において記載されるように、ビデオコールの「再ルーティング」という用語は、ビデオコールの接続特性が変化する任意のシナリオであってもよいし、それを含んでいてもよい。再ルーティングは、他の通信エンドポイントをビデオコールに参加させること、媒体の(例えば、ビデオコールからオーディオのみのコールへの)変更、ボイスコールを他のデバイス又は要素(例えば、コンタクトセンターキュー、インタラクティブボイスレスポンス(IVR)、他のエージェント通信エンドポイント、他のコンタクトセンターなど)にルーティングすること、ビデオコールを保留すること、ビデオコールを音消しすることなどを含む。上記タイプの再ルーティングの全ては、自動的に達成され得る。
前述のものは、開示の幾つかの態様の理解を与える簡略化された概要である。この概要は、開示及びその種々の実施形態の広範な概観でも網羅的な概観でもない。それは、開示の鍵となる又は重要な要素を特定するものでも、開示の範囲を境界付けるものでもなく、以下に提示されるより詳細な説明への導入として簡略化された態様において開示の選択的コンセプトを提示するものである。理解されるように、開示の他の実施形態は、以上に記載され又は以下に詳細に説明される構成の1以上を単独又は組合せにおいて利用して可能となる。また、開示は例示の実施形態の観点において提示されるが、開示の個々の態様が個別に特許請求され得ることが理解されるべきである。
図1は、ビデオコールのビデオストリームにおける表情の感情を検出するリアルタイムビデオ処理に基づいてビデオコールを管理するための第1の例示的システムのブロック図である。 図2は、顧客とコンタクトセンターエージェントの間のビデオコールについてのリアルタイム感情トランスクリプトを示す例示のユーザインターフェースである。 図3は、監督者に対して表示される、顧客とコンタクトセンターエージェントの間のビデオコールについてのリアルタイム感情トランスクリプトを示す例示のユーザインターフェースである。 図4は、表情検出に基づくビデオコールを管理するための処理のフロー図である。 図5は、リアルタイム感情トランスクリプトを先行ボイスコールの感情トランスクリプトと比較するための処理のフロー図である。
図1は、ビデオコールのビデオストリームにおける表情の感情を検出するリアルタイムビデオ処理に基づいてビデオコールを管理するための第1の例示的システム100のブロック図である。第1の例示的システム100は、通信エンドポイント101A〜101N、ネットワーク110、コンタクトセンター120、エージェント通信エンドポイント130A〜130N及び監督者通信エンドポイント132を備える。さらに、図1は、顧客105A〜105N、コンタクトセンターエージェント131A〜131N及び監督者133を示す。
通信エンドポイント101A〜101Nは、パーソナルコンピュータ(PC)、ビデオフォン、ビデオシステム、携帯電話、パーソナルデジタルアシスタント(PDA)、タブレットデバイス、ノートブックデバイス、スマートフォンなどのような、ビデオ通信に対応するとともにネットワーク110上で通信可能な任意の通信エンドポイントデバイスであってもよいし、それを含んでいてもよい。通信エンドポイント101A〜101Nは、通信セッションを終端するデバイスである。通信エンドポイント101A〜101Nは、通信マネージャ121又はルータのような、ネットワークにおいて通信セッションを促進及び/又は中継するネットワーク要素ではない。図1に示すように、任意数の通信エンドポイント101A〜101Nが、ネットワーク110に接続され得る。
通信エンドポイント101Aは、マイクロプロセッサ102A、カメラ103A及びディスプレイ104Aを備える。便宜上不図示であるが、通信エンドポイント101B〜101Nも、マイクロプロセッサ102、カメラ103及びディスプレイ104を備える。
マイクロプロセッサ102Aは、デジタル信号プロセッサ(DSP)、マイクロコントローラ、マルチコアプロセッサ、特定用途向けプロセッサなどのような任意のハードウェアプロセッサであってもよいし、それを含んでいてもよい。
カメラ103Aは、ビデオストリームを取り込むのに使用される任意のハードウェア要素であってもよいし、それを含んでいてもよい。カメラ103Aは、ビデオコールのビデオストリームを送信するビデオアプリケーションを備える。
ネットワーク110は、インターネット、ワイドエリアネットワーク(WAN)、ローカルエリアネットワーク(LAN)、ボイスオーバーIPネットワーク(VoIP)、公衆電話交換網(PSTN)、パケット交換ネットワーク、回路交換ネットワーク、セルラネットワーク、これらの組合せなどのような、電子通信を送受信することができる通信機器の任意の集合であってもよいし、それを含んでいてもよい。ネットワーク110は、イーサネット、インターネットプロトコル(IP)、セッション開始プロトコル(SIP)、サービス総合デジタル網(ISDN)、ビデオプロトコルなどのような、多様な電子プロトコルを用いることができる。したがって、ネットワーク110は、パケット及び/又は回路交換通信を介してメッセージを搬送するように構成された電子通信ネットワークである。
コンタクトセンター120は、通信エンドポイント101A〜101N、エージェント通信エンドポイント130A〜130N及び監督者通信エンドポイント132との通信を管理及びルーティングすることができる任意のコンタクトセンター120であってもよいし、それを含んでいてもよい。コンタクトセンター120は、ビデオコール、オーディオコール、インスタントメッセージ、eメール、テキストメッセージ、仮想現実コール、マルチメディアコールなどのような種々のタイプの通信を管理及びルーティングすることができる。
コンタクトセンター120は、通信マネージャ121、コンタクトセンターキュー122、インタラクティブボイスレスポンス(IVR)システム123、ビデオシグナリングプロセッサ124、ビデオコール管理モジュール125及び履歴感情トランスクリプトデータベース126を備える。通信マネージャ121は、構内交換機(PBX)、セッションマネージャ、スイッチ、プロキシサーバなどのような、コンタクトセンター120における通信をルーティング及び管理することができるソフトウェアに結合された任意のハードウェアであってもよいし、それを含んでいてもよい。通信マネージャ121は、ボイスコール、ビデオコール、インスタントメッセージコール、eメール、テキストメッセージなどのような種々のタイプの通信を管理及びルーティングすることができる。
コンタクトセンターキュー122は、1以上の通信/コールを保持するコンピュータ構築物である。コンタクトセンターキュー122は、同じタイプの通信又は異なるタイプの通信(例えば、ボイスコール及びビデオコール)を保持し得る。コンタクトセンターキュー122は、特定のタイプのサービス、特定の商品、熟練レベル(例えば、特定の商品又はサービスについてのフロントラインサポート/バックラインサポート)などをサポートし得る。
IVRシステム123は、顧客105とボイスインタラクション又はビデオ/ボイスインタラクションのいずれかを提供することができるソフトウェアに結合された任意のハードウェアであってもよいし、それを含んでいてもよい。IVRシステム123は、顧客105が種々のコンタクトセンターキュー122/エージェント通信エンドポイント130A〜130Nに誘導されることを可能とする。
ビデオシグナリングプロセッサ124は、デジタルシグナリングプロセッサ、マルチコアプロセッサ、特定用途向けプロセッサなどのような、ビデオストリーム(例えば、リアルタイムビデオストリーム)を処理することができるソフトウェアに結合された任意のハードウェアであってもよいし、それを含んでいてもよい。ビデオシグナリングプロセッサ124は、(例えば、通信エンドポイント101Aとエージェント通信エンドポイント130Aの間の)リアルタイムビデオストリームを処理して、任意数の参加者についてのビデオストリームにおいて非言語的表現(例えば、微笑んでいる参加者)を識別する。ビデオストリームは、3人以上の顧客105/コンタクトセンターエージェント131/監督者133とのビデオ会議コールであってもよい。ビデオシグナリングプロセッサ124は、人間でないエンティティに顧客105が接続される場合に顧客105のビデオストリームを処理し得る。例えば、顧客105がIVRシステム123(この事例におけるビデオIVRシステム123)と対話し、又はコンタクトセンターキュー122で待機している間に、ビデオシグナリングプロセッサ124は非言語的表現を識別することができる。
ビデオシグナリングプロセッサ124は、ビデオコールにおける参加者の一部又は全部についてのビデオストリーム内の非言語的表現を識別する。非言語的表現は、怒り、不満、嫌悪、恐怖、喜び、悲しみ、驚きなどのような全てのタイプの感情について検出され得る。行動科学者による研究調査は、7種の感情:怒り、不満、嫌悪、恐怖、喜び、悲しみ及び驚きを表現するのに本質的に同じ表情が用いられるということが全世界の文化にわたって一致することについての強力な証拠があることを示した。視力がなく生まれた個人は正常な視力がある個人と同じ表情を作ることも示された。感情状態は、自然に1/2秒〜約4秒にわたって起こり、マクロエクスプレッションと言われる。
行動科学者による他の重要な発見は、マイクロエクスプレッションである。マイクロエクスプレッションは、一瞬に顔に現れては消える表情である。通常、マイクロエクスプレッションは、約1/30秒の継続時間にわたって発生し、表情を見ている者によって観察さえされないことがある。ある科学者は、そのようなマイクロエクスプレッションは個人によって直接制御可能でないと考えている。マイクロエクスプレッションは、無意識の感情状態又は個人が隠したいと思う感情状態を表し得るようなものでもある。ビデオシグナリングプロセッサ124は、双方とも非言語的表現の形態であるマクロエクスプレッション及びマイクロエクスプレッションの双方を検出することができる。
ビデオストリームにおける検出された非言語的表現に基づいて、ビデオシグナリングプロセッサ124は、1以上のリアルタイム感情トランスクリプトを生成する。リアルタイム感情トランスクリプトは、個々の感情を追跡してビデオコールにおける個々の参加者(例えば、顧客105)についての感情の集合を形成する。ビデオシグナリングプロセッサ124は、ビデオコールにおける各参加者について(又は参加者の部分集合について)別個のリアルタイム感情トランスクリプトを生成することができる。
ビデオコール管理モジュール125は、ビデオシグナリングプロセッサ124/通信マネージャ121との関連において作用する。ビデオコール管理モジュール125は、生成されたリアルタイム感情トランスクリプトとの関連において規定のルールを用いて、リアルタイムでビデオコールの種々の態様を管理する。ビデオコール管理モジュール125はまた、履歴感情トランスクリプトデータベース126に記憶される先行ビデオコールの感情トランスクリプトを用いることによってどのようにしてより良くビデオコールを管理するかを時間をかけて学習することができる人工知能(AI)モジュールを含み得る。
履歴感情トランスクリプトデータベース126は、リレーショナルデータベース、ファイルシステム、ディレクトリサービス、オブジェクト指向データベースなどのような任意のタイプのデータベースであってもよいし、それを含んでいてもよい。履歴感情トランスクリプトデータベース126は、ビデオコール管理モジュール125によって取得され得る先行ビデオコールから感情トランスクリプトを記憶し、どのようにしてライブのリアルタイムビデオコールをより良く管理するかについての判断を補助するのに使用される。
エージェント通信エンドポイント130A〜130Nは、コンタクトセンターエージェント131A〜131Nがビデオコールで対話することを可能とする任意の通信デバイスであり得る。エージェント通信エンドポイント130A〜130Nは、通信エンドポイント101であってもよい。
監督者通信エンドポイント132は、コンタクトセンター120におけるビデオコールを管理するのに監督者133に使用される通信エンドポイント101である。監督者133は、監督者通信エンドポイント132を用いて、ビデオコールを監視し、ビデオコールに参加し、統計を閲覧することなどができる。
図1はコンタクトセンター120においてビデオシグナリングプロセッサ124/ビデオコール管理モジュール125を示すが、他の実施形態では、ビデオシグナリングプロセッサ124/ビデオコール管理モジュール125はコンタクトセンター120と1以上の通信エンドポイント101/130との間に分散され得る。
他の実施形態では、ビデオシグナリングプロセッサ124/ビデオコール管理モジュール125は、非コンタクトセンター環境で作用し得る。例えば、ビデオシグナリングプロセッサ124/ビデオコール管理モジュール125は、サーバ又は通信エンドポイント101に位置していてもよい。あるいは、ビデオシグナリングプロセッサ124/ビデオコール管理モジュール125は、通信エンドポイント101と、通信システムなどの非コンタクトセンター要素との間に分散されてもよい。
図2は、顧客105とコンタクトセンターエージェント131の間のビデオコールについてのリアルタイム感情トランスクリプト210/211を示す例示のユーザインターフェース200である。例示として、通信エンドポイント101A〜101N、コンタクトセンター120、通信マネージャ121、コンタクトセンターキュー122、IVRシステム123、ビデオシグナリングプロセッサ124、ビデオコール管理モジュール125、履歴感情トランスクリプトデータベース126、エージェント通信エンドポイント130A〜130N及び監督者通信エンドポイント132は、メモリ(すなわち、コンピュータメモリ、ハードディスクなど)などのコンピュータ可読記憶媒体に記憶されたプログラム命令を実行することによって、図2〜5の方法及びここに記載される処理を実行するコンピュータ又はマイクロプロセッサのような記憶プログラム制御によるエンティティである。図2〜5に記載される方法は特定の順序で示されるが、当業者であれば図2〜5におけるステップは異なる順序で実施され及び/又はマルチスレッド環境で実施され得ることを認識するはずである。さらに、種々のステップが、実施に基づいて省略又は追加され得る。
ユーザインターフェース200は、エージェント通信エンドポイント130を介してコンタクトセンターエージェント131に対して表示される例示のユーザインターフェースである。ユーザインターフェース200は、コンタクトセンターエージェント131が彼/彼女の感情状態を知るだけでなく、顧客105の感情状態も知るようにリアルタイムで表示され得る。ユーザインターフェース200は、ライブのリアルタイムビデオコールのリアルタイム顧客感情トランスクリプト210及びリアルタイムエージェント感情トランスクリプト211を備える。リアルタイム顧客感情トランスクリプト210/リアルタイムエージェント感情トランスクリプト211は、この例では(7種のうちの)4種の感情:怒り、悲しみ、驚き及び喜びのみを示す。ただし、リアルタイム顧客感情トランスクリプト210/リアルタイムエージェント感情トランスクリプト211は、任意数の感情を示してもよい。ビデオコールが複数の顧客105を含む場合、ユーザインターフェース200は、ビデオコールにおける各顧客105についてリアルタイム顧客感情トランスクリプト210を示すことができる。
リアルタイム顧客感情トランスクリプト210/リアルタイムエージェント感情トランスクリプト211は、ビデオコール全体のリアルタイムトランスクリプト210/211を示す。ただし、他の実施形態では、リアルタイム顧客感情トランスクリプト210/リアルタイムエージェント感情トランスクリプト211は、(例えば、最後の5分間の)ローリングトランスクリプトであってもよい。
一実施形態では、リアルタイム顧客感情トランスクリプト210又はリアルタイムエージェント感情トランスクリプト211のうちの1つのみが、同時に示されてもよい。例えば、コンタクトセンターエージェント131は、リアルタイム顧客感情トランスクリプト210のみを確認し得る。
図3は、監督者133に対して表示される、顧客105とコンタクトセンターエージェント131の間のビデオコールについてのリアルタイム感情トランスクリプト210/211を示す例示のユーザインターフェース300である。ただし、一実施形態では、ユーザインターフェース300は、コンタクトセンターエージェント131に対して表示されてもよい。ユーザインターフェース300は、リアルタイム顧客感情トランスクリプト210及びリアルタイムエージェント感情トランスクリプト211を備える。ユーザインターフェース300は、種々の基準に基づいて監督者133に対して表示され得る。例えば、ユーザインターフェース300は、ビデオコールが監督者133に転送された場合、監督者133がビデオコールに参加する場合、監督者133がビデオコールのリアルタイム感情トランスクリプト210/211を監視したい場合などに監督者133に対して表示され得る。
リアルタイム顧客感情トランスクリプト210は、変化点マーカ312A及び312Bをさらに備える。さらに、リアルタイムエージェント感情トランスクリプト211は、変化点マーカ312Cを備える。変化点マーカ312は、リアルタイムビデオコールにおいて顧客105及び/又はコンタクトセンターエージェント131が感情状態(肯定的/否定的)を変化させた点を識別する。変化点マーカ312Aは、顧客の驚きの感情が変化した箇所を識別する。変化点マーカ312Bは、顧客の怒りの感情が特定レベルまで増加した箇所を識別する。変化点マーカ312Cは、コンタクトセンターエージェントの驚きの感情が大幅に変化した箇所を識別する。
ビデオコール管理モジュール125は、種々のルールを用いて、いつ変化点マーカ312をユーザインターフェース300に示すかを決定する。例えば、変化点マーカ312は、特定の感情が特定レベルに達した時に示されてもよい。ビデオコール管理モジュール125は、(ルールに加えて又はルールとは別個に)先行感情トランスクリプトを用いて、いつ変化点マーカ132を示すかを決定してもよい。例えば、コンタクトセンターエージェント131が以前のビデオコールについてエージェント感情トランスクリプトにおいて驚きの感情の変化をほとんど示さなかった場合には、リアルタイムエージェント感情トランスクリプト211における驚きの感情の劇的な変化は、変化点マーカ312Cを生成するための手段となり得る。
監督者133は、変化点マーカ312A〜312Cの1つを(例えば、変化点マーカ312をクリックすることによって)選択することができる。例えば、ステップ313に示すように、監督者133は、変化点マーカ312Cを選択している。変化点マーカ312Cの選択によって、リアルタイムビデオコールのテキストトランスクリプトの部分が(例えば、コンタクトセンターエージェント131の驚きの感情がピークとなるまでの2分間)テキストトランスクリプトウインドウ315において監督者133に対して表示される。そして、監督者133は、進む/戻るボタン314を用いて、ライブのビデオコールのテキストトランスクリプトを前方又は後方にスクロールすることができる。
図4は、表情検出に基づくビデオコールを管理するための処理のフロー図である。処理は、ステップ400で開始する。通信マネージャ121は、ステップ402において、ビデオコール(又は会議ビデオコール)がステップ402において確立されたかを判定する。ビデオコールがステップ402において確立されていない場合、ステップ402の処理が繰り返される。
一方、ビデオコールがステップ402において確立された場合、ビデオシグナリングプロセッサ124は、ステップ404において、ビデオストリームを処理してリアルタイム感情トランスクリプト210/211を生成し始める。例えば、ビデオシグナリングプロセッサ124は、マクロエクスプレッション/マイクロエクスプレッションに基づいて感情を識別するように学習可能な確率的近傍埋め込みと併せてK平均法などの機械学習アルゴリズムに基づいてリアルタイム顧客感情トランスクリプト210及びリアルタイムエージェント感情トランスクリプト211を生成し得る。
あるいは、単一の感情トランスクリプト210/211のみが、ステップ404において生成されてもよい。例えば、顧客105がIVRシステム123とのみ対話してきたために、又はルールがリアルタイム顧客感情トランスクリプト210の生成のみを指示するために、リアルタイム顧客感情トランスクリプト210のみが生成されてもよい。
一実施形態では、合成リアルタイム感情トランスクリプトが、ステップ404において生成され得る。合成リアルタイム感情トランスクリプトは、ビデオコールの参加者の2人以上の合成感情トランスクリプトであり得る。例えば、合成感情トランスクリプトは、リアルタイム感情トランスクリプト210/211の合成であってもよい。
リアルタイム感情トランスクリプト210/211及び/又は合成感情トランスクリプトは、マクロエクスプレッション及び/又はマイクロエクスプレッションを用いて生成される。背景の章で上述したように、マイクロエクスプレッションは、人間によってはマイクロプロセッサの補助なしに検出不能であり得る。これは、極めて短い継続時間に起因し、及び/又はビデオストリームを取り込んでそのビデオストリームをネットワーク110にわたって送信することに関する問題のためである。一実施形態では、他のソースからの感情情報は、リアルタイム感情トランスクリプト210/211及び/又は合成感情トランスクリプトを生成するための追加の入力として取り込まれて使用され得る。例えば、リアルタイム感情トランスクリプト210/211及び/又は合成感情トランスクリプトを強化するのに役立つように、ジェスチャーが検出され、声の感情が検出されるなどしてもよい。
通信マネージャ121は、ステップ406において、ビデオコールが終了したかを判定する。ステップ406においてビデオコールが終了していた場合、処理はステップ402に戻る。一方、ステップ406においてビデオコールが終了していない場合、ビデオシグナリングプロセッサ124は、ステップ408において、リアルタイム感情トランスクリプト210/211及び/又は合成リアルタイム感情トランスクリプトを生成するのにビデオストリームに充分な映像があるかを判定する。例えば、ビデオシグナリングプロセッサ124は、リアルタイム感情トランスクリプト210/211及び/又は合成リアルタイム感情トランスクリプトを生成するためにビデオストリームにマクロエクスプレッション/マイクロエクスプレッションを識別するために短い期間を必要としすることがある。充分な映像があるかを判定するのに必要な時間は、種々のルールに基づき得る。
リアルタイム感情トランスクリプト210/211及び/又は合成リアルタイム感情トランスクリプトを生成するのにビデオストリームに充分な映像がない場合、処理はステップ404に戻る。一方、ステップ408においてリアルタイム感情トランスクリプト210/211及び/又は合成リアルタイム感情トランスクリプトを生成するのに充分な映像がある場合、ビデオコール管理モジュール125は、ステップ410において、リアルタイム感情トランスクリプト210/211及び/又は合成リアルタイム感情トランスクリプトを以前のビデオコールの感情トランスクリプトと比較する。
ビデオコール管理モジュール125は、種々の態様で、リアルタイム感情トランスクリプト210/211及び/又は合成リアルタイム感情トランスクリプトを以前のビデオコールの感情トランスクリプトと比較することができる。例えば、ビデオコール管理モジュール125は、リアルタイム顧客感情トランスクリプト210を先行ビデオコールにおける異なる顧客105の顧客感情トランスクリプトと比較してもよい。ビデオコール管理モジュール125は、リアルタイム顧客感情トランスクリプト210を同じ顧客105についての以前の顧客感情トランスクリプトと比較してもよい。
ビデオコール管理モジュール125は、ステップ410において、リアルタイム合成感情トランスクリプトを先行ビデオコールの合成感情トランスクリプトと比較し得る。ビデオコール管理モジュール125は、ステップ410において、複数の感情トランスクリプトを相互に比較してもよい。例えば、ビデオコール管理モジュール125は、リアルタイムエージェント感情トランスクリプト211を先行エージェント感情トランスクリプトと比較するのと併せて、リアルタイム顧客感情トランスクリプト210を先行顧客感情トランスクリプトと比較してもよい。
ステップ410の比較は、具体的なタイプのビデオコールを比較することに基づいていてもよい。例えば、感情トランスクリプトの比較は、コンタクトセンター120によって提供されるサービスに関連するビデオコール、コンタクトセンターキュー122に関連するビデオコール、サポートされる商品に関連するビデオコール、コンタクトセンターエージェント131の技量(例えば、より高い技量レベル)に関連するビデオコールなどに対するものであり得る。
ビデオコール管理モジュール125は、ステップ410の比較に基づいて、ステップ412においてビデオコールが異なる態様で扱われる必要があるかを判定する。例えば、リアルタイム顧客感情トランスクリプト210が、典型的には顧客105が先行ビデオコールを切った場合の先行顧客感情トランスクリプトと類似パターンを有する(例えば、顧客105が低いレベルの喜びとともに高いレベルの怒り及び悲しみを示している)場合、ビデオコール管理モジュール125は、フィードバックをコンタクトセンターエージェント131に提供すること、ビデオコールを(例えば、同様に感情的には反応しない別のエージェントに)転送すること、ビデオコールに監督者を参加させることなどを決定し得る。リアルタイム顧客感情トランスクリプト210が、肯定的なフィードバックが受信された先行コールの顧客感情トランスクリプトと類似するパターンを有する場合、ビデオコール管理モジュール125は、ステップ412において、ビデオコールを異なる態様では扱わないことを判断し得る。例えば、識別された先行ビデオコールについてのリアルタイム顧客感情トランスクリプトが、顧客105が満足している可能性が高いことを示した場合、ビデオコール管理モジュール125は、ステップ412において、ビデオコールを異なる態様では管理しないことを判断し得る。
ビデオコール管理モジュール125は、種々の態様で感情トランスクリプト間で類似のパターンを判定することができる。例えば、分散が使用され得る(例えば、個々の感情が10%以内である)。分散は、追跡されている複数の感情の間の合成分散であり得る。
ステップ412においてビデオコールが異なる態様で扱われない場合、処理はステップ404に進む。一方、ステップ412においてビデオコールが異なる態様で扱われる場合、ビデオコール管理モジュール125は、ステップ414において、どのようにしてビデオコールがコンタクトセンター120において管理されるのかを変更する。ビデオコールは、種々の態様で管理され得る。例えば、ビデオコールは、監督者通信エンドポイント132をビデオコールに参加させること、ビデオコールを第2のコンタクトセンターエージェント131の第2の通信エンドポイント101にルーティングすること、ビデオコールをインタラクティブボイスレスポンス(IVR)システム123にルーティングすること、ビデオコールをコンタクトセンターキュー122にルーティングすること、ビデオコールを第2のコンタクトセンター120にルーティングすること、ビデオコールを保留又は音消しとすること、ビデオコールの媒体を変更することなどによって再ルーティングされ得る。ビデオコールは、メッセージをコンタクトセンターエージェント131に送信すること、リアルタイム顧客感情トランスクリプト210及び/又はリアルタイムエージェント感情トランスクリプト211をデータベースにフラグ付け及び記憶することなどによって管理されてもよい。ステップ414においてビデオコールが管理された後、処理はステップ404に進む。
図5は、リアルタイム感情トランスクリプト210/211を先行ボイスコールの感情トランスクリプトと比較するための処理のフロー図である。図5の処理は、図4のステップ410/412の例示の実施形態である。ビデオコール管理モジュール125は、ステップ408においてリアルタイム感情トランスクリプトを生成するのに充分な映像があると判定した後に、ステップ500において、リアルタイム顧客感情トランスクリプト210及びリアルタイムエージェント感情トランスクリプト211を取得する。ビデオコール管理モジュール125は、ステップ502において、リアルタイム感情トランスクリプト210/211を先行ビデオコールの感情トランスクリプトと比較する。リアルタイム感情トランスクリプト210/211の比較は、先行ビデオコール及び/又はリアルタイムビデオコールの一部分のみを比較してもよい。例えば、リアルタイムビデオコールが3分間しかない場合、リアルタイム感情トランスクリプト210/211は3分間超又は未満の継続時間を有する先行ビデオコールと比較され得る。
先行ビデオコールは、同じ顧客105/同じコンタクトセンターエージェント131、同じ顧客105/異なるコンタクトセンターエージェント131、異なる顧客105/同じコンタクトセンターエージェント131、異なる顧客105/異なるコンタクトセンターエージェント131などでのものであり得る。さらに、時間(例えば、時刻、週の時刻)、ビデオコールタイプ(特定の商品に対するコール)などのような他の要因が、ステップ502の比較において使用される要因となり得る。
リアルタイム感情トランスクリプト210/211は、ステップ504において、先行ビデオコールのマッチングする感情トランスクリプトを識別するように比較される。例えば、ビデオコール管理モジュール125は、ビデオコールのリアルタイム顧客感情トランスクリプト210及びリアルタイムエージェント感情トランスクリプト211をコンタクトセンター120における先行ビデオコールの直近100個の顧客感情トランスクリプト/エージェント感情トランスクリプトと比較して、類似の特性を有する1以上の以前のビデオコールを識別することができる。例えば、ビデオコール管理モジュール125は、直近100個の先行ビデオコールを検索して、リアルタイム感情トランスクリプト210/211と類似するパターンがあるかを確認し得る。
ビデオコール管理モジュール125は、ステップ506において、類似する先行ビデオコールの結果を判定する。例えば、ビデオコール管理モジュール125が100個の先行ビデオコールのうちの類似する顧客感情トランスクリプト/エージェント感情トランスクリプトを有する3個のビデオコールを識別した場合には、ビデオコール管理モジュール125はその3個が肯定的又は否定的結果を有するかを判定する。肯定的又は否定的結果は、識別された先行コールの平均値に基づき得る。肯定的/否定的結果は、調査を行うこと、商品の購入、商品を購入しないこと、顧客105がコールを切ったこと、顧客105が怒り出すこと、ビデオコールが通常よりも長引くこと、ビデオコールが通常よりも時間を要さないこと、識別された先行コールの監督者評価などのような種々の要因に基づき得る。例えば、3個の識別された先行ビデオコールの各々が、顧客105が商品を購入することなく平均コール時間よりも3〜4倍長く続く場合、これらの先行コールの結果は、ルールに従って否定的な結果として識別され得る。ステップ506において先行ビデオコールの結果が肯定的である(リアルタイムビデオコールが異なる態様で管理される必要がない)場合、処理はステップ404に進む。一方、ステップ506において先行ビデオコールの結果が否定的である(リアルタイムビデオコールが異なる態様で管理される必要がある)場合、処理はステップ414に進む。
上記処理は、コンタクトセンター120の環境において記載される。ただし、上記説明は、コンタクトセンター120の環境に限定されず、任意のビデオコールについて用いられ得る。例えば、感情トランスクリプトは、ビデオコールをユーザにルーティングする通信システムにおいて使用され得る。
ここに記載されるプロセッサの例は、これに限定されないが、Qualcomm(登録商標)Snapdragon(登録商標)800及び801、4G LTE Integration及び64ビットコンピューティングでのQualcomm(登録商標)Snapdragon(登録商標)610及び615、64ビットアーキテクチャでのApple(登録商標)A7プロセッサ、Apple(登録商標)M7モーション・コプロセッサ、Samsung(登録商標)Exynos(登録商標)シリーズ、Intel(登録商標)Core(登録商標)ファミリのプロセッサ、Intel(登録商標)Xeon(登録商標)ファミリのプロセッサ、Intel(登録商標)Atom(登録商標)ファミリのプロセッサ、Intel Itanium(登録商標)ファミリのプロセッサ、Intel(登録商標)Core(登録商標)i5−4670K及びi7−4770K 22nm Haswell、Intel(登録商標)Core(登録商標)i5−3570K 22nm Ivy Bridge、AMD(登録商標)FX(登録商標)ファミリのプロセッサ、AMD(登録商標)FX−4300、FX−6300及びFX−8350 32nm Vishera、AMD(登録商標)Kaveriプロセッサ、Texas Instruments(登録商標)Jacinto C6000(登録商標)車載インフォテイメントプロセッサ、Texas Instruments(登録商標)OMAP(登録商標)車載グレードモバイルプロセッサ、ARM(登録商標)Cortex(登録商標)−Mプロセッサ、ARM(登録商標)Cortex−A及びARM926EJ−S(登録商標)プロセッサ、その他工業用の同等のプロセッサの少なくとも1つを含み得るものであり、いずれかの周知又は将来開発される標準、命令セット、ライブラリ及び/又はアーキテクチャを用いる計算機能を実行し得る。
ここに記載されるステップ、機能及び動作のいずれも、連続的及び自動的に実行され得る。
ただし、本開示を無用に曖昧にすることを回避するため、前述の説明は多数の周知の構造及びデバイスを省略している。この省略は、特許請求される開示の範囲の限定として解釈されるべきではない。具体的詳細が、本開示の理解を与えるように説明される。ただし、本開示は、ここに説明する具体的詳細を超える様々な態様で実施され得ることが理解されるべきである。
ここに説明する例示の実施形態は共配置されるシステムの種々の構成要素を示すが、システムの特定の構成要素はLAN及び/又はインターネットなどの分散ネットワークの離れた部分において又は専用システム内で遠隔に配置されてもよい。したがって、システムの構成要素は1以上のデバイスに組み合わされ、アナログ及び/又はデジタル電気通信ネットワーク、パケット交換ネットワーク又は回路交換ネットワークのような分散ネットワークの特定のノードにおいて共配置され得ることが理解されるべきである。前述の説明から、及び計算効率の理由のために、システムの構成要素はシステムの動作に影響を与えることなく構成要素の分散ネットワーク内の任意の位置において配置され得ることが分かるはずである。例えば、種々の構成要素が、PBX及びメディアサーバ、ゲートウェイのようなスイッチに、1以上の通信デバイスに、1以上のユーザ施設に、又はこれらの組合せに位置し得る。同様に、システムの1以上の機能部分が、電気通信デバイスと関連のコンピューティングデバイスとの間に分散され得る。
またさらに、要素を接続する種々のリンクは有線若しくは無線リンク又はその任意の組合せ、又は接続された要素に並びに要素からデータを供給及び/若しくは通信することができる他の任意の周知の若しくは後に開発される要素であればよいことが理解されるべきである。これらの有線又は無線リンクは、安全なリンクであってもよく、暗号化された情報を通信することができる。リンクとして使用される伝送メディアは、例えば、同軸ケーブル、銅配線及びファイバ光学系を含む、電気信号に対する任意の適切なキャリアであればよく、電磁波及び赤外線データ通信中に生成されるものなどの音響又は光波の形式を採り得る。
また、フローチャートが特定のシーケンスのイベントとの関連で記載及び図示されたが、このシーケンスに対する変更、付加及び省略が開示の動作に実質的に影響を与えることなく行われ得ることが理解されるべきである。
本開示の多数のバリエーション及び変形例が使用され得る。開示の幾つかの構成について他を提供することなく提供することが可能となる。
さらに他の実施形態では、この開示のシステム及び方法は、専用コンピュータ、プログラムされたマイクロプロセッサ又はマイクロコントローラ及び周辺集積回路素子、ASIC又は他の集積回路、デジタル信号プロセッサ、ディスクリート素子回路などのハード配線電子又は論理回路、PLD、PLA、FPGA、PALなどのプログラマブル論理デバイス又はゲートアレイ、専用コンピュータ、任意の比較手段などとの関連において実施可能である。一般に、ここに説明する方法を実施することができる任意のデバイス又は手段は、この開示の種々の態様を実施するのに使用され得る。本開示に使用され得る例示のハードウェアは、コンピュータ、ハンドヘルドデバイス、電話機(例えば、セルラ、インターネット可能な、デジタル、アナログ、ハイブリッド及びその他)及び当技術で周知の他のハードウェアを含む。これらのデバイスの一部は、プロセッサ(例えば、単一又は複数のマイクロプロセッサ)、メモリ、不揮発性ストレージ、入力デバイス及び出力デバイスを含む。またさらに、ただし限定することなく、分散処理又はコンポーネント/オブジェクト分散処理、並列処理又は仮想機械処理を含む代替のソフトウェア実施例も、ここに記載される方法を実施するのに構築され得る。
さらに他の実施形態では、開示の方法は、様々なコンピュータ又はワークステーションプラットフォームにおいて使用可能な可搬ソースコードを提供するオブジェクト又はオブジェクト指向ソフトウェア開発環境を用いてソフトウェアとの関連で直ちに実施され得る。あるいは、開示のシステムは、標準論理回路又はVLSI設計を用いてハードウェアにおいて部分的又は完全に実施され得る。本開示に応じたシステムを実施するのにソフトウェアが使用されるのかハードウェアが使用されるのかは、システムの速度及び/又は効率要件、特定の機能、並びに利用される特定のソフトウェア若しくはハードウェアシステム又はマイクロプロセッサ若しくはマイクロコンピュータシステムに依存する。
さらに他の実施形態では、開示の方法は、記憶媒体に記憶され、プログラムされた汎用コンピュータにおいてコントローラ及びメモリ、専用コンピュータ、マイクロプロセッサなどの協働によって実行され得るソフトウェアにおいて部分的に実施され得る。これらのインスタンスにおいて、この開示のシステム及び方法は、アプレット、JAVA(登録商標)又はCGIスクリプトのようなパーソナルコンピュータに組み込まれたプログラムとして、サーバ又はコンピュータワークステーションに常駐するリソースとして、専用測定システム、システムコンポーネントなどに組み込まれたルーチンとして実施され得る。システムはまた、システム及び/又は方法をソフトウェア及び/又はハードウェアシステムに物理的に含むことによって実施され得る。
本開示は特定の標準及びプロトコルを参照して実施形態において実施される構成要素及び機能を説明するが、開示はそのような標準及びプロトコルに限定されない。ここに言及されない他の類似の標準及びプロトコルが存在しており、本開示に含まれるものとみなされる。さらに、ここに言及される標準及びプロトコル並びにここに言及されない他の類似の標準及びプロトコルは、本質的に同じ機能を有するより速い又はより有効な均等物によって定期的に代替される。そのような同じ機能を有する代替の標準及びプロトコルは、本開示に含まれる均等物とみなされる。
本開示は、種々の実施形態、機器構成及び態様において、種々の実施形態、部分的組合せ及びその部分集合を含む、ここに実質的に図示及び記載する構成要素、方法、処理、システム及び/又は装置を含む。当業者は、本開示を理解すれば、ここに開示されたシステム及び方法をどのように製造及び使用するかを理解するはずである。本開示は、種々の実施形態、機器構成及び態様において、例えば、性能を向上し、容易性を実現し、及び/又は実施のコストを低減するために従来のデバイス又は処理において使用されてきたようなアイテムがないことを含み、ここに図示及び/若しくは記載されていないアイテムがなくても、又はその種々の実施形態、機器構成若しくは態様において、デバイス及び処理を提供することを含む。
本開示の以上の説明は、説明及び図示の目的で提示された。上記は、ここに開示される単数又は複数の形態に開示を限定することを意図するものではない。以上の詳細な説明では、例えば、開示の種々の構成が、開示の合理化の目的で1以上の実施形態、機器構成又は態様においてともにグループ化されている。開示の実施形態、機器構成又は態様の構成は、上述したもの以外の代替の実施形態、機器構成又は態様と組み合わせられ得る。この開示の方法は、特許請求される開示が、各請求項に明示的に記載されるよりも多くの構成を要件とする意図を反映するものとして解釈されてはならない。そうではなく、以降の特許請求の範囲が反映するように、進歩的な態様は上記の単一の開示の実施形態、機器構成又は態様の全ての構成よりも少ないものに存在する。したがって、以降の特許請求の範囲は、独立した開示の好ましい実施形態として各請求項がそれ自体で成立する状態でこの詳細な説明にそれにより含まれる。
さらに、開示の説明は1以上の実施形態、機器構成又は態様並びに特定のバリエーション及び変形例の記載を含んでいるが、他のバリエーション、組合せ及び変形例は、例えば、本開示を理解した後に当業者の技術及び知識内となるように、開示の範囲内となる。いずれの特許可能な事項も公に特化させることを意図することなく、そのような代替の、互換可能な及び/又は均等の構造、機能、範囲若しくはステップがここに開示されるか否かにかかわらず、請求項に記載されるものに対する代替の、互換可能な及び/又は均等の構造、機能、範囲若しくはステップを含み、許可される程度で代替の実施形態、機器構成又は態様を含む権利を取得することが意図されている。

Claims (10)

  1. 第1のコンタクトセンターであって、
    マイクロプロセッサと、
    コンピュータ可読媒体であって、前記マイクロプロセッサに結合され、前記マイクロプロセッサによって実行されると、前記マイクロプロセッサに、
    顧客の通信エンドポイントと第1のコンタクトセンターエージェントの第1の通信エンドポイントとの間のリアルタイムビデオコールのビデオストリームを受信させ、
    リアルタイムで、前記リアルタイムビデオコールの前記ビデオストリームを処理させて第1のリアルタイム感情トランスクリプトを生成させ、該第1のリアルタイム感情トランスクリプトは前記リアルタイムビデオコールの前記ビデオストリームに発生する複数の非言語的表現に基づいて複数の別個の感情を追跡するものであり、
    前記第1のリアルタイム感情トランスクリプトを少なくとも1つの以前のビデオコールの第2の感情トランスクリプトと比較させて、前記リアルタイムビデオコールが前記第1のコンタクトセンターにおいて異なる態様で扱われるべきであるかを判定させ、
    前記リアルタイムビデオコールが前記第1のコンタクトセンターにおいて異なる態様で扱われるべきと判定したことに応じて、前記リアルタイムビデオコールがどのように前記第1のコンタクトセンターにおいて管理されるかを変更するアクションを決定させる
    マイクロプロセッサ可読及び実行可能命令を備えるコンピュータ可読媒体と
    を備える第1のコンタクトセンター。
  2. 前記複数の非言語的表現が、前記マイクロプロセッサの補助なしに人間によって視覚的に検出可能でない少なくとも1つのマイクロエクスプレッションを備える、請求項1に記載の第1のコンタクトセンター。
  3. 前記リアルタイムビデオコールがどのように前記第1のコンタクトセンターにおいて管理されるかを変更する前記アクションが、前記第1のコンタクトセンターにおいて前記リアルタイムビデオコールを再ルーティングすることを備え、前記第1のコンタクトセンターにおいて前記リアルタイムビデオコールを再ルーティングすることが、監督者通信エンドポイントを前記リアルタイムビデオコールに参加させること、前記リアルタイムビデオコールをインタラクティブボイスレスポンス(IVR)システムにルーティングすること、前記リアルタイムビデオコールを第2のコンタクトセンターエージェントの第2の通信エンドポイントにルーティングすること、前記リアルタイムビデオコールをコンタクトセンターキューにルーティングすること、前記リアルタイムビデオコールを第2のコンタクトセンターにルーティングすること、前記リアルタイムビデオコールを保留にすること、前記リアルタイムビデオコールを音消しすること、及び前記リアルタイムビデオコールを異なる媒体タイプに変更することのうちの少なくとも1つを備える、請求項1に記載の第1のコンタクトセンター。
  4. 前記第1のリアルタイム感情トランスクリプトが、第1のリアルタイム顧客感情トランスクリプト及び第1のリアルタイムエージェント感情トランスクリプトを備え、前記第2の感情トランスクリプトが複数の先行ビデオコールの複数の先行顧客感情トランスクリプト及び複数の先行エージェント感情トランスクリプトを備え、前記第1のリアルタイム感情トランスクリプトを前記第2の感情トランスクリプトと比較することが、前記複数の先行ビデオコールのうちの、前記第1のリアルタイム顧客感情トランスクリプトに類似する顧客感情トランスクリプト及び前記第1のリアルタイムエージェント感情トランスクリプトに類似するエージェント感情トランスクリプトを有する少なくとも1つの先行ビデオコールを識別することを備える、請求項1に記載の第1のコンタクトセンター。
  5. 前記第1のリアルタイム感情トランスクリプトが第1のリアルタイム顧客感情トランスクリプトを備え、前記第2の感情トランスクリプトが第2の顧客感情トランスクリプトを備え、前記第1のリアルタイム顧客感情トランスクリプト及び前記第2の顧客感情トランスクリプトが同じ顧客についてのものであり、前記第1のリアルタイム感情トランスクリプト及び前記第2の感情トランスクリプトが特定タイプのリアルタイムビデオコールに関連するトランスクリプトであり、前記特定タイプのリアルタイムビデオコールが、サポートされるタイプのサービス、コンタクトセンターキュー、サポートされる商品及びエージェント技量レベルの少なくとも1つに関連付けられる、請求項1に記載の第1のコンタクトセンター。
  6. 前記第1のリアルタイム感情トランスクリプトが、第1のリアルタイム顧客感情トランスクリプト及び第1のリアルタイムエージェント感情トランスクリプトを備え、前記リアルタイムビデオコールが、監督者通信エンドポイントに転送され又は監督者通信エンドポイントによって参加されるものの1つであり、前記マイクロプロセッサ可読及び実行可能命令が、前記マイクロプロセッサに、さらに、
    前記第1のコンタクトセンターエージェントの前記第1の通信エンドポイントにおいて、表示用に、前記第1のリアルタイム顧客感情トランスクリプト及び前記リアルタイムエージェント感情トランスクリプトのうちの少なくとも一方を生成させ、
    前記監督者通信エンドポイントにおいて、表示用に、前記第1のリアルタイム顧客感情トランスクリプト及び前記第1のリアルタイムエージェント感情トランスクリプトを生成させ、
    前記複数の追跡される別個の感情の個々の1つずつについて1以上の変更点を識別させ、
    前記監督者通信エンドポイントにおいて、表示用に、前記第1のリアルタイム顧客感情トランスクリプト及び前記第1のリアルタイムエージェント感情トランスクリプトの少なくとも一方における1以上の変更点を識別するマーカを生成させ、
    前記マーカの1つの選択を受信させ、
    前記監督者通信エンドポイントにおいて、表示用に、前記マーカの前記1つの前記選択されたものに関連する前記リアルタイムビデオコールの部分のテキストトランスクリプトを生成させる、請求項1に記載の第1のコンタクトセンター。
  7. 前記第1のリアルタイム感情トランスクリプトは前記リアルタイムビデオコールにおける全ての参加者の合成感情トランスクリプトであり、前記第2の感情トランスクリプトが前記少なくとも1つの以前のコールにおける全ての参加者の合成感情トランスクリプトである、請求項1に記載の第1のコンタクトセンター。
  8. 方法であって、
    第1のコンタクトセンターにおけるマイクロプロセッサによって、顧客の通信エンドポイントと第1のコンタクトセンターエージェントの第1の通信エンドポイントとの間のリアルタイムビデオコールのビデオストリームを受信するステップと、
    前記マイクロプロセッサによって、リアルタイムで、前記リアルタイムビデオコールの前記ビデオストリームを処理して第1のリアルタイム感情トランスクリプトを生成するステップであって、該第1のリアルタイム感情トランスクリプトは前記リアルタイムビデオコールの前記ビデオストリームに発生する複数の非言語的表現に基づいて複数の別個の感情を追跡する、ステップと、
    前記マイクロプロセッサによって、前記第1のリアルタイム感情トランスクリプトを少なくとも1つの以前のビデオコールの第2の感情トランスクリプトと比較して、前記リアルタイムビデオコールが前記第1のコンタクトセンターにおいて異なる態様で扱われるべきであるかを判定するステップと、
    前記リアルタイムビデオコールが前記第1のコンタクトセンターにおいて異なる態様で扱われるべきと判定したことに応じて、前記マイクロプロセッサによって、前記第1のコンタクトセンターにおいて前記リアルタイムビデオコールがどのように管理されるかを変更するアクションを決定するステップと
    を備える方法。
  9. 前記複数の非言語的表現が、前記マイクロプロセッサの補助なしに人間によって視覚的に検出可能でない少なくとも1つのマイクロエクスプレッションを備え、
    前記リアルタイムビデオコールがどのように管理されるかを変更する前記アクションが、前記第1のコンタクトセンターにおいて前記リアルタイムビデオコールを再ルーティングすることを備え、前記第1のコンタクトセンターにおいて前記リアルタイムビデオコールを再ルーティングすることが、監督者通信エンドポイントを前記リアルタイムビデオコールに参加させること、前記リアルタイムビデオコールをインタラクティブボイスレスポンス(IVR)システムにルーティングすること、前記リアルタイムビデオコールを第2のコンタクトセンターエージェントの第2の通信エンドポイントにルーティングすること、前記リアルタイムビデオコールをコンタクトセンターキューにルーティングすること、前記リアルタイムビデオコールを第2のコンタクトセンターにルーティングすること、前記リアルタイムビデオコールを保留にすること、前記リアルタイムビデオコールを音消しすること、及び前記リアルタイムビデオコールを異なる媒体タイプに変更することのうちの少なくとも1つを備え、
    前記第1のリアルタイム感情トランスクリプトが、第1のリアルタイム顧客感情トランスクリプト及び第1のリアルタイムエージェント感情トランスクリプトを備え、前記第2の感情トランスクリプトが複数の先行ビデオコールの複数の先行顧客感情トランスクリプト及び複数の先行エージェント感情トランスクリプトを備え、前記第1のリアルタイム感情トランスクリプトを前記第2の感情トランスクリプトと比較することが、前記複数の先行ビデオコールのうちの、前記第1のリアルタイム顧客感情トランスクリプトに類似する顧客感情トランスクリプト及び前記第1のリアルタイムエージェント感情トランスクリプトに類似するエージェント感情トランスクリプトを有する少なくとも1つの先行ビデオコールを識別することを備え、
    前記方法は、前記第1のコンタクトセンターエージェントの前記第1の通信エンドポイントにおいて、表示用に、前記第1のリアルタイム顧客感情トランスクリプト及び前記第1のリアルタイムエージェント感情トランスクリプトのうちの少なくとも一方を生成するステップをさらに備え、
    前記第1のコンタクトセンターにおいて前記リアルタイムビデオコールを再ルーティングすることが、少なくとも前記監督者通信エンドポイントへの転送又は前記監督者通信エンドポイントの参加をさらに備え、前記リアルタイムビデオコールが前記監督者通信エンドポイントに転送され又は前記監督者通信エンドポイントによって参加されるものの1つであり、
    前記方法は、前記監督者通信エンドポイントにおいて、表示用に、前記第1のリアルタイム顧客感情トランスクリプト及び前記第1のリアルタイムエージェント感情トランスクリプトを生成するステップと、前記複数の追跡される別個の感情の個々の1つずつについて1以上の変更点を識別するステップと、前記監督者通信エンドポイントにおいて、表示用に、前記第1のリアルタイム顧客感情トランスクリプト及び前記第1のリアルタイムエージェント感情トランスクリプトの少なくとも一方における1以上の変更点を識別するマーカを生成するステップと、前記マーカの1つの選択を受信するステップと、前記監督者通信エンドポイントにおいて、表示用に、前記マーカの前記1つの前記選択されたものに関連する前記リアルタイムビデオコールの部分のテキストトランスクリプトを生成するステップとをさらに備える請求項8に記載の方法。
  10. システムであって、
    マイクロプロセッサと、
    コンピュータ可読媒体であって、前記マイクロプロセッサに結合され、前記マイクロプロセッサによって実行されると、前記マイクロプロセッサに、
    第1の通信エンドポイントと第2の通信エンドポイントとの間のリアルタイムビデオコールのビデオストリームを受信させ、
    リアルタイムで、前記リアルタイムビデオコールの前記ビデオストリームを処理させて第1のリアルタイム感情トランスクリプトを生成させ、該第1のリアルタイム感情トランスクリプトは前記リアルタイムビデオコールの前記ビデオストリームに発生する複数の非言語的表現に基づいて複数の別個の感情を追跡するものであり、
    前記第1のリアルタイム感情トランスクリプトを少なくとも1つの以前のビデオコールの第2の感情トランスクリプトと比較させて、前記リアルタイムビデオコールが異なる態様で扱われるべきであるかを判定させ、
    前記リアルタイムビデオコールが異なる態様で扱われるべきと判定したことに応じて、前記リアルタイムビデオコールをコンピュータネットワークにおいて再ルーティングさせる
    マイクロプロセッサ可読及び実行可能命令を備えるコンピュータ可読媒体と
    を備えるシステム。
JP2020081776A 2019-05-07 2020-05-07 人工知能決定による表情に基づくビデオコールルーティング及び管理 Active JP7001738B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/405,023 2019-05-07
US16/405,023 US11102353B2 (en) 2019-05-07 2019-05-07 Video call routing and management based on artificial intelligence determined facial emotion

Publications (2)

Publication Number Publication Date
JP2020184763A true JP2020184763A (ja) 2020-11-12
JP7001738B2 JP7001738B2 (ja) 2022-01-20

Family

ID=70613604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020081776A Active JP7001738B2 (ja) 2019-05-07 2020-05-07 人工知能決定による表情に基づくビデオコールルーティング及び管理

Country Status (4)

Country Link
US (1) US11102353B2 (ja)
EP (1) EP3737079B1 (ja)
JP (1) JP7001738B2 (ja)
CN (1) CN111918015B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022128594A (ja) * 2021-02-23 2022-09-02 アバイア マネジメント エル.ピー. 通信セッション品質の単語ベース表現

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111818290B (zh) * 2020-06-29 2021-07-09 广州快决测信息科技有限公司 一种在线访谈的方法及系统
US11646987B1 (en) * 2021-04-08 2023-05-09 Kaarya Llc System and method for adaptive message distribution
CN115713754B (zh) * 2022-12-16 2023-10-03 吉林大学 基于驾驶员恐惧情绪识别的分阶段分级干预的方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080151038A1 (en) * 2006-12-20 2008-06-26 Cisco Technology, Inc. Video contact center facial expression analyzer module
US20140337527A1 (en) * 2013-05-07 2014-11-13 Yp Intellectual Property Llc Platform shape shifter
US20150256675A1 (en) * 2014-03-05 2015-09-10 24/7 Customer, Inc. Method and apparatus for improving goal-directed textual conversations between agents and customers
JP2016149063A (ja) * 2015-02-13 2016-08-18 オムロン株式会社 感情推定装置及び感情推定方法
US20170353605A1 (en) * 2016-06-02 2017-12-07 Interactive Intelligence Group, Inc. Technologies for monitoring interaction between customers and agents using sentiment detection
US20180005272A1 (en) * 2016-06-30 2018-01-04 Paypal, Inc. Image data detection for micro-expression analysis and targeted data services

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7222075B2 (en) 1999-08-31 2007-05-22 Accenture Llp Detecting emotions using voice signal analysis
US7359688B2 (en) * 2004-04-23 2008-04-15 Samsung Electronics Co., Ltd. Device and method for displaying a status of a portable terminal by using a character image
US8488023B2 (en) 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US20080068397A1 (en) 2006-09-14 2008-03-20 Carey James E Emotion-Based Digital Video Alteration
US8805110B2 (en) * 2008-08-19 2014-08-12 Digimarc Corporation Methods and systems for content processing
US8054964B2 (en) 2009-04-30 2011-11-08 Avaya Inc. System and method for detecting emotions at different steps in a communication
ES2466366T3 (es) * 2009-12-21 2014-06-10 Fundación Tecnalia Research & Innovation Sistema y procedimiento de supervisión del bienestar afectivo
KR20130022434A (ko) * 2011-08-22 2013-03-07 (주)아이디피쉬 통신단말장치의 감정 컨텐츠 서비스 장치 및 방법, 이를 위한 감정 인지 장치 및 방법, 이를 이용한 감정 컨텐츠를 생성하고 정합하는 장치 및 방법
KR101944416B1 (ko) * 2012-07-02 2019-01-31 삼성전자주식회사 영상 통화 분석 서비스를 제공하기 위한 방법 및 그 전자 장치
US9521258B2 (en) 2012-11-21 2016-12-13 Castel Communications, LLC Real-time call center call monitoring and analysis
US9014364B1 (en) 2014-03-31 2015-04-21 Noble Systems Corporation Contact center speech analytics system having multiple speech analytics engines
CN104346074A (zh) * 2014-10-23 2015-02-11 深圳市金立通信设备有限公司 一种终端
US10069971B1 (en) * 2014-12-16 2018-09-04 Amazon Technologies, Inc. Automated conversation feedback
US9576190B2 (en) * 2015-03-18 2017-02-21 Snap Inc. Emotion recognition in video conferencing
US9600715B2 (en) 2015-06-26 2017-03-21 Intel Corporation Emotion detection system
US10049263B2 (en) * 2016-06-15 2018-08-14 Stephan Hau Computer-based micro-expression analysis
CN106792170A (zh) * 2016-12-14 2017-05-31 合网络技术(北京)有限公司 视频处理方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080151038A1 (en) * 2006-12-20 2008-06-26 Cisco Technology, Inc. Video contact center facial expression analyzer module
US20140337527A1 (en) * 2013-05-07 2014-11-13 Yp Intellectual Property Llc Platform shape shifter
US20150256675A1 (en) * 2014-03-05 2015-09-10 24/7 Customer, Inc. Method and apparatus for improving goal-directed textual conversations between agents and customers
JP2016149063A (ja) * 2015-02-13 2016-08-18 オムロン株式会社 感情推定装置及び感情推定方法
US20170353605A1 (en) * 2016-06-02 2017-12-07 Interactive Intelligence Group, Inc. Technologies for monitoring interaction between customers and agents using sentiment detection
US20180005272A1 (en) * 2016-06-30 2018-01-04 Paypal, Inc. Image data detection for micro-expression analysis and targeted data services

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022128594A (ja) * 2021-02-23 2022-09-02 アバイア マネジメント エル.ピー. 通信セッション品質の単語ベース表現

Also Published As

Publication number Publication date
US20200358900A1 (en) 2020-11-12
CN111918015A (zh) 2020-11-10
US11102353B2 (en) 2021-08-24
EP3737079B1 (en) 2023-11-01
JP7001738B2 (ja) 2022-01-20
CN111918015B (zh) 2022-09-09
EP3737079A1 (en) 2020-11-11

Similar Documents

Publication Publication Date Title
JP7001738B2 (ja) 人工知能決定による表情に基づくビデオコールルーティング及び管理
US10764435B2 (en) Smart customer assistant in a contact center
US11108911B2 (en) System and method for flexible routing
US11570217B2 (en) Switch controller for separating multiple portions of call
US9635061B2 (en) System and method for managing conference calls
CN111225028B (zh) 在联络中心中提供增强的路由的系统和方法
KR102219548B1 (ko) 컨택 센터 통신 세션 라우팅 동작의 시행
US11632465B2 (en) Communication session hold time management in a contact center
US20190312918A1 (en) System and method for providing a rich user experience for cellular calls
CN111083099A (zh) 基于上下文的通信会话桥接
US10924894B2 (en) System and method for sending and receiving non-visual messages in an electronic audio communication session
US20220311717A1 (en) Multi-dimensional/multi-actor conversational bot
US20190102713A1 (en) Split enterprise/provider workflows
US20200145534A1 (en) Intelligent multi-channel interaction management within a contact center communication system
EP2693429A1 (en) System and method for analyzing voice communications
US20230036771A1 (en) Systems and methods for providing digital assistance relating to communication session information
US20220311632A1 (en) Intelligent participant display for video conferencing
US20200007685A1 (en) Prioritization of routing for escalated communication sessions in a contact center
US20230179701A1 (en) Methods and systems for reconstructing communication sessions using natural language processing
US20120102108A1 (en) Communications system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211224

R150 Certificate of patent or registration of utility model

Ref document number: 7001738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150