JP2023076017A - Program, information processing system, and information processing method - Google Patents
Program, information processing system, and information processing method Download PDFInfo
- Publication number
- JP2023076017A JP2023076017A JP2021189154A JP2021189154A JP2023076017A JP 2023076017 A JP2023076017 A JP 2023076017A JP 2021189154 A JP2021189154 A JP 2021189154A JP 2021189154 A JP2021189154 A JP 2021189154A JP 2023076017 A JP2023076017 A JP 2023076017A
- Authority
- JP
- Japan
- Prior art keywords
- call
- user
- customer
- response
- memo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 49
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 230000004044 response Effects 0.000 claims abstract description 187
- 230000008520 organization Effects 0.000 claims description 98
- 230000005540 biological transmission Effects 0.000 claims 1
- 238000000034 method Methods 0.000 abstract description 148
- 238000012545 processing Methods 0.000 description 161
- 230000008569 process Effects 0.000 description 141
- 238000004458 analytical method Methods 0.000 description 68
- 238000004364 calculation method Methods 0.000 description 42
- 238000010586 diagram Methods 0.000 description 33
- 238000004891 communication Methods 0.000 description 19
- 238000011156 evaluation Methods 0.000 description 14
- 238000009826 distribution Methods 0.000 description 13
- 230000033001 locomotion Effects 0.000 description 10
- 239000000945 filler Substances 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 238000013136 deep learning model Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 206010002953 Aphonia Diseases 0.000 description 2
- 230000009118 appropriate response Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000013518 transcription Methods 0.000 description 2
- 230000035897 transcription Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
新規性喪失の例外適用申請有り There is an application for exception to loss of novelty
本開示は、プログラム、情報処理システム及び情報処理方法に関する。 The present disclosure relates to a program, an information processing system, and an information processing method.
従来、通話サービスを提供する情報処理システムにおいて、オペレータ用の支援システムが知られている
特許文献1には、携帯端末からそれぞれ通話音声データを受信し格納し各自が欲する通話音声データを再現し提供するメタデータ付き通話音声データ提供システムが開示されている。特許文献2には、電話対応時のオペレータの音声情報を解析してオペレータの電話対応を評価する電話対応評価システムが開示されている。特許文献3には、コールセンタのオペレータを補助するための対応提示装置が開示されている。
Conventionally, in an information processing system that provides call services, a support system for operators is known.
しかしながら、ユーザと顧客との間で行われる通話に関連する通話音声に基づき、通話に対して応対メモを付与する場合において、より適した応対メモを推論することはできていなかった。 However, it has not been possible to infer a more appropriate response memo when giving a response memo to a call based on the call voice related to the call between the user and the customer.
そこで、本開示は、上記課題を解決すべくなされたものであって、その目的は、ユーザと顧客との間で行われる通話に対して、通話により適した応対メモを推論する技術を提供することである。 Therefore, the present disclosure has been made to solve the above problems, and its object is to provide a technique for inferring a response memo that is more suitable for a call between a user and a customer. That is.
プロセッサと、記憶部とを備え、ユーザと顧客との間で行われる通話に関連するデータをコンピュータに管理させるためのプログラムであって、プログラムは、プロセッサに、通話に関する音声データを受け付けるステップと、通話の通話属性を取得する取得ステップと、通話属性に基づき学習モデルを選択する選択ステップと、選択された学習モデルに音声データを適用することにより、通話に対する応対メモを推論する推論ステップと、を実行させるプログラム。 A program for causing a computer to manage data related to a call conducted between a user and a customer, the program comprising a processor and a storage unit, the program receiving voice data related to the call in the processor; an acquisition step of acquiring call attributes of a call, a selection step of selecting a learning model based on the call attributes, and an inference step of inferring a response note for the call by applying speech data to the selected learning model. program to run.
本開示によれば、ユーザと顧客との間で行われる通話に対して、通話により適した応対メモを推論することができる。 Advantageous Effects of Invention According to the present disclosure, it is possible to infer an answering memo that is more suitable for a call made between a user and a customer.
以下、本開示の実施形態について図面を参照して説明する。実施形態を説明する全図において、共通の構成要素には同一の符号を付し、繰り返しの説明を省略する。なお、以下の実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。また、各図は模式図であり、必ずしも厳密に図示されたものではない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In all the drawings for explaining the embodiments, common constituent elements are denoted by the same reference numerals, and repeated explanations are omitted. It should be noted that the following embodiments do not unduly limit the content of the present disclosure described in the claims. Also, not all the components shown in the embodiments are essential components of the present disclosure. Each figure is a schematic diagram and is not necessarily strictly illustrated.
<情報処理システム1の概要>
図1は、情報処理システム1の全体の構成を示す図である。本開示における情報処理システム1は、本開示にかかる通話サービスを提供する情報処理システムである。情報処理システム1は、ユーザと顧客との間で行われる通話に関するサービスを提供するとともに、通話に関連するデータを記憶、管理するための情報処理システムである。
<Overview of
FIG. 1 is a diagram showing the overall configuration of an
<情報処理システム1の基本構成>
本開示における情報処理システム1を図1に示す。情報処理システム1は、ネットワークNを介して接続された、サーバ10、複数のユーザ端末20A、20B、20C、CRMシステム30、音声サーバ(PBX)40、および、音声サーバ(PBX)40に対して電話網Tを介して接続された顧客端末50A、50B、50Cを備えて構成されている。
図2は、サーバ10の機能構成を示すブロック図である。図3は、ユーザ端末20の機能構成を示すブロック図である。図4は、CRMシステム30の機能構成を示すブロック図である。図5は、顧客端末50の機能構成を示すブロック図である。
<Basic Configuration of
FIG. 1 shows an
FIG. 2 is a block diagram showing the functional configuration of the
サーバ10は、ユーザと顧客との間で行われる通話に関連するデータ(通話データ)を記憶、管理するサービスを提供する情報処理装置である。
The
ユーザ端末20は、サービスを利用するユーザが操作する情報処理装置である。ユーザ端末20は、例えば、据え置き型のPC(Personal Computer)、ラップトップPCでもよいし、スマートフォン、タブレット等の携帯端末であってもよい。また、HMD(Head Mount Display)、腕時計型端末等のウェアラブル端末であってもよい。
The
CRMシステム30は、CRM(Customer Relationship Management、顧客関係管理)サービスを提供する事業者(CRM事業者)が管理、運営する情報処理装置である。CRMサービスとしては、SalesForce、HubSpot、Zoho CRM、kintoneなどがある。
The
音声サーバ(PBX)40は、ネットワークNと電話網Tとを互いに接続することでユーザ端末20と顧客端末50との間における通話を可能とする交換機として機能する情報処理装置である。
The voice server (PBX) 40 is an information processing device that functions as a switching system that enables communication between the
顧客端末50は、顧客がユーザと通話する際に操作する情報処理装置である。顧客端末50は、例えば、スマートフォン、タブレット等の携帯端末でもよいし、据え置き型のPC(Personal Computer)、ラップトップPCであってもよい。また、HMD(Head Mount Display)、腕時計型端末等のウェアラブル端末であってもよい。
The
各情報処理装置は演算装置と記憶装置とを備えたコンピュータにより構成されている。コンピュータの基本ハードウェア構成および、当該ハードウェア構成により実現されるコンピュータの基本機能構成は後述する。サーバ10、ユーザ端末20、CRMシステム30、音声サーバ(PBX)40、顧客端末50のそれぞれについて、後述するコンピュータの基本ハードウェア構成およびコンピュータの基本機能構成と重複する説明は省略する。
Each information processing device is composed of a computer having an arithmetic device and a storage device. The basic hardware configuration of the computer and the basic functional configuration of the computer realized by the hardware configuration will be described later. Descriptions of the
以下、各装置の構成およびその動作を説明する。 The configuration and operation of each device will be described below.
<サーバ10の機能構成>
サーバ10のハードウェア構成が実現する機能構成を図2に示す。サーバ10は、記憶部101、制御部104を備える。
<Functional Configuration of
FIG. 2 shows a functional configuration realized by the hardware configuration of the
<サーバ10の記憶部の構成>
サーバ10の記憶部101は、アプリケーションプログラム1011、ユーザテーブル1012、組織テーブル1013、通話テーブル1014、音声認識テーブル1015、要約テーブル1016、応対メモテーブル1017を備える。
図6は、ユーザテーブル1012のデータ構造を示す図である。図7は、組織テーブル1013のデータ構造を示す図である。図8は、通話テーブル1014のデータ構造を示す図である。図9は、音声認識テーブル1015のデータ構造を示す図である。図10は、要約テーブル1016のデータ構造を示す図である。図11は、応対メモテーブル1017のデータ構造を示す図である。
<Configuration of Storage Unit of
FIG. 6 is a diagram showing the data structure of the user table 1012. As shown in FIG. FIG. 7 is a diagram showing the data structure of the organization table 1013. As shown in FIG. FIG. 8 is a diagram showing the data structure of the call table 1014. As shown in FIG. FIG. 9 is a diagram showing the data structure of the speech recognition table 1015. As shown in FIG. FIG. 10 is a diagram showing the data structure of the summary table 1016. As shown in FIG. FIG. 11 shows the data structure of the response memo table 1017. As shown in FIG.
ユーザテーブル1012は、サービスを利用する会員ユーザ(以下、ユーザ)の情報を記憶し管理するテーブルである。ユーザは、サービスの利用登録を行うことで、当該ユーザの情報がユーザテーブル1012の新しいレコードに記憶される。これにより、ユーザは本開示にかかるサービスを利用できるようになる。ユーザテーブル1012は、ユーザIDを主キーとし、ユーザID、CRMID、組織ID、ユーザ名、連携モード、ユーザ属性、評価指標のカラムを有するテーブルである。 The user table 1012 is a table that stores and manages information on member users (hereinafter referred to as users) who use the service. By registering to use the service, the user's information is stored in a new record in the user table 1012 . This enables the user to use the service according to the present disclosure. The user table 1012 is a table having user ID as a primary key and columns of user ID, CRM ID, organization ID, user name, cooperation mode, user attribute, and evaluation index.
ユーザIDは、ユーザを識別するためのユーザ識別情報を記憶する項目である。
CRMIDは、CRMシステム30において、ユーザを識別するための識別情報を記憶する項目である。ユーザはCRMIDによりCRMシステム30にログインすることにより、CRMサービスの提供を受けることができる。つまり、サーバ10におけるユーザIDと、CRMシステム30におけるCRMIDが紐付けられる。
組織IDは、ユーザが所属する組織の組織IDを記憶する項目である。
ユーザ名は、ユーザの氏名を記憶する項目である。
連携モードは、ユーザと顧客との間で行われる通話に関連するデータを外部のCRMシステムに記憶する際の設定項目(連携設定)を記憶する項目である。
本開示において、連携モードはユーザごとに記憶されるものとしたが、組織テーブルにおいて、組織、部署ごとに記憶しても良い。その場合、各ユーザに適用される連携モードは、組織テーブルに記憶された、組織、部署ごとの連携モードを参照して各ユーザに対して適用される。このとき、組織、部署に所属するユーザに対して一律の連携モードを適用することができる。
ユーザ属性は、ユーザの年齢、性別、出身地、方言、職種(営業、カスタマーサポートなど)などのユーザの属性に関する情報を記憶する項目である。
評価指標は、ユーザの通話応対スキルに対する定量的な評価指標を記憶する項目である。具体的に、評価指標は、ユーザの過去の音声データを解析することにより得られる後述する解析データの各指標(Talk:Listen比率、沈黙回数、被り回数、ラリー回数、基本周波数、抑揚の強弱、話速、フィラー数、トークスクリプト一致度など)に対して所定のアルゴリズムを適用することにより算定される数値である。
評価指標は、例えば、インサイドセールスなどの分野においては、ユーザごとの顧客応対スキルを定量的に表したものに相当し、評価指標が高いユーザほど高い営業成績が期待される。
User ID is an item that stores user identification information for identifying a user.
CRMID is an item that stores identification information for identifying a user in the
The organization ID is an item that stores the organization ID of the organization to which the user belongs.
The user name is an item that stores the name of the user.
The cooperation mode is an item for storing setting items (cooperation settings) when storing data related to a call between a user and a customer in an external CRM system.
In the present disclosure, the cooperation mode is stored for each user, but may be stored for each organization or department in the organization table. In this case, the cooperation mode applied to each user is applied to each user by referring to the cooperation mode for each organization and department stored in the organization table. At this time, a uniform cooperation mode can be applied to users belonging to an organization or department.
The user attribute is an item that stores information related to user attributes such as age, gender, hometown, dialect, occupation (sales, customer support, etc.) of the user.
The evaluation index is an item that stores a quantitative evaluation index for the call handling skill of the user. Specifically, the evaluation index is each index of analysis data (Talk:Listen ratio, number of times of silence, number of times of suffering, number of rallies, fundamental frequency, intonation strength, It is a numerical value calculated by applying a predetermined algorithm to speech speed, number of fillers, talk script matching degree, etc.).
For example, in a field such as inside sales, the evaluation index quantitatively represents the customer service skill of each user, and a user with a higher evaluation index is expected to have a higher sales performance.
組織テーブル1013は、ユーザが所属する組織に関する情報を定義するテーブルである。組織は、会社、法人、企業グループ、サークル、各種団体など任意の組織、グループなどが含まれる。組織は、会社の部署(営業部、総務部、カスタマーサポート部)などのより詳細なサブグループごとに定義しても良い。組織テーブル1013は、組織IDを主キーとして、組織ID、組織名、組織属性のカラムを有するテーブルである。 The organization table 1013 is a table that defines information about the organization to which the user belongs. Organizations include arbitrary organizations and groups such as companies, corporations, corporate groups, circles, and various organizations. Organizations may also be defined by more detailed sub-groups such as company departments (Sales Department, General Affairs Department, Customer Support Department). The organization table 1013 is a table having columns of organization ID, organization name, and organization attribute with organization ID as a primary key.
組織IDは、組織を識別するための組織識別情報を記憶する項目である。
組織名は、組織の名称を記憶する項目である。組織の名称は、会社名、法人名、企業グループ名、サークル名、各種団体名など任意の組織名、グループ名を含む。
組織属性は、組織種別(会社、企業グループ、その他団体など)、業種(不動産、金融など)などの組織の属性に関する情報を記憶する項目である。
The organization ID is an item that stores organization identification information for identifying an organization.
The organization name is an item that stores the name of the organization. The name of the organization includes arbitrary organization names and group names such as company names, corporate names, corporate group names, circle names, and various organization names.
The organization attribute is an item that stores information related to organization attributes such as organization type (company, corporate group, other organization, etc.) and industry (real estate, finance, etc.).
通話テーブル1014は、ユーザと顧客との間で行われる通話に関連する通話データを記憶し管理するテーブルである。通話テーブル1014は、通話IDを主キーとし、通話ID、ユーザID、顧客ID、通話カテゴリ、受発信種別、音声データ、音声認識有無、要約有無、解析データのカラムを有するテーブルである。 Call table 1014 is a table that stores and manages call data related to calls made between users and customers. The call table 1014 is a table having call ID as a primary key and columns of call ID, user ID, customer ID, call category, incoming/outgoing call type, voice data, presence/absence of voice recognition, presence/absence of summary, and analysis data.
通話IDは、通話データを識別するための通話データ識別情報を記憶する項目である。
ユーザIDは、ユーザと顧客との間で行われる通話において、ユーザのユーザID(ユーザ識別情報)を記憶する項目である。
顧客IDは、ユーザと顧客との間で行われる通話において、顧客の顧客ID(顧客識別情報)を記憶する項目である。
通話カテゴリは、ユーザと顧客との間で行われた通話の種類(カテゴリ)を記憶する項目である。通話データは、通話カテゴリにより分類される。通話カテゴリには、ユーザと顧客との間で行われる通話の目的などに応じて、テレフォンオペレーター、テレマーケティング、カスタマーサポート、テクニカルサポートなどの値が記憶される。
受発信種別は、ユーザと顧客との間で行われた通話が、ユーザが発信した(アウトバウンド)ものか、ユーザが受信した(インバウンド)もののいずれかを区別するための情報を記憶する項目である。
音声データは、ユーザと顧客との間で行われた通話の音声データを記憶する項目である。音声データの形式としては、mp4、wavなど各種音声データ形式を用いることができる。また、他の場所に配置された音声データファイルに対する参照情報(パス)を記憶するものとしても良い。
音声データは、ユーザの音声と顧客の音声とが、それぞれ独立して識別可能な識別子が設定された形式のデータであっても良い。この場合、サーバ10の制御部104は、ユーザの音声、顧客の音声に対してそれぞれ独立した解析処理を実行することができる。
本開示において、音声データに替えて、音声情報を含む動画データを用いても構わない。また、本開示における音声データは、動画データに含まれる音声データも含む概念である。
音声認識有無は、ユーザと顧客との間で行われた通話の音声データに対して音声認識処理が行われたか否かを判定するための情報を記憶する項目である。音声データに対し音声認識処理が行われている場合は、音声認識処理が行われていることを示す情報などが記憶される。音声データに対し音声認識処理が行われていない場合は、ブランク、ヌル、その他、音声認識処理が行われていないことを示す情報などが記憶される。
要約有無は、ユーザと顧客との間で行われた通話の音声データに対して要約処理が行われたか否かを判定するための情報を記憶する項目である。要約処理が行われている場合は、要約処理が行われていることを示す情報などが記憶される。要約処理が行われていない場合は、ブランク、ヌル、その他、要約処理が行われていないことを示す情報などが記憶される。
解析データは、ユーザと顧客との間で行われた通話の音声データの音声を解析して得られた解析データを記憶する項目である。解析データには、Talk:Listen比率、沈黙回数、被り回数、ラリー回数、基本周波数、抑揚の強弱、話速、フィラー数、トークスクリプト一致度などが含まれる。
The call ID is an item that stores call data identification information for identifying call data.
The user ID is an item that stores the user's user ID (user identification information) in a call between the user and the customer.
The customer ID is an item that stores the customer's customer ID (customer identification information) in a call between the user and the customer.
The call category is an item that stores the type (category) of calls made between the user and the customer. Call data is classified by call category. In the call category, values such as telephone operator, telemarketing, customer support, and technical support are stored according to the purpose of the call between the user and the customer.
The incoming/outgoing call type is an item that stores information for distinguishing whether a call made between a user and a customer is originated by the user (outbound) or received by the user (inbound). .
Voice data is an item that stores voice data of a call made between a user and a customer. As the audio data format, various audio data formats such as mp4 and wav can be used. Also, it is possible to store reference information (path) to an audio data file located at another location.
The voice data may be data in a format in which the user's voice and the customer's voice are individually identifiable as identifiers. In this case, the
In the present disclosure, video data including audio information may be used instead of audio data. Also, audio data in the present disclosure is a concept including audio data included in moving image data.
The presence/absence of voice recognition is an item that stores information for determining whether voice recognition processing has been performed on voice data of a call between a user and a customer. When voice recognition processing is performed on voice data, information indicating that voice recognition processing is being performed is stored. If speech recognition processing has not been performed on the speech data, information such as blank, null, and other information indicating that speech recognition processing has not been performed is stored.
Summarization presence/absence is an item for storing information for determining whether or not summarization processing has been performed on voice data of a call made between a user and a customer. When summarization processing is being performed, information indicating that summarization processing is being performed is stored. If the summarization process has not been performed, blank, null, or other information indicating that the summarization process has not been performed is stored.
The analysis data is an item that stores analysis data obtained by analyzing voice data of voice calls made between the user and the customer. The analysis data includes the Talk:Listen ratio, the number of times of silence, the number of times of covering, the number of times of rallying, the fundamental frequency, the intensity of intonation, the speed of speech, the number of fillers, the talk script matching degree, and the like.
音声認識テーブル1015は、ユーザと顧客との間で行われた通話の音声データに対して音声認識処理を行い得られた発話時刻、話者、テキストからなる音声認識情報を記憶するテーブルである。音声認識テーブル1015は、通話ID、テキスト、発話時刻、話者のカラムを有するテーブルである。 The speech recognition table 1015 is a table that stores speech recognition information including speech time, speaker, and text obtained by performing speech recognition processing on speech data of a call between a user and a customer. The voice recognition table 1015 is a table having columns of call ID, text, utterance time, and speaker.
通話IDは、音声認識情報の生成元となる通話データの通話ID(通話データ識別情報)を記憶する項目である。
テキストは、ユーザと顧客との間で行われた通話の音声データの音声が存在する区間(発話区間)ごとのテキスト認識結果のテキスト情報を記憶する項目である。具体的には、音声データの発話区間ごとの話者により発話された文章内容がテキストデータとして記憶される。
発話時刻は、発話区間の音声データ(区間音声データ)中の開始時刻を記憶する項目である。なお、発話時刻は、各発話区間の開始時刻、各発話区間の終了時刻、各発話区間の任意の間の時刻など各発話区間に関連した任意の時刻としても良い。
話者は、区間音声データの話者を識別するための情報が記憶される。具体的には、ユーザまたは顧客を識別するための情報である。なお、ユーザID、顧客IDなどの話者を識別するためのユーザ識別情報、顧客識別情報などが記憶されても良い。
The call ID is an item that stores the call ID (call data identification information) of the call data from which the voice recognition information is generated.
The text is an item that stores text information of the text recognition result for each section (speech section) in which the voice of the voice data of the call conducted between the user and the customer exists. Specifically, the contents of sentences uttered by the speaker for each utterance section of the voice data are stored as text data.
The utterance time is an item that stores the start time in the voice data of the utterance period (interval voice data). Note that the utterance time may be an arbitrary time related to each utterance period, such as the start time of each utterance period, the end time of each utterance period, or the time between any utterance periods.
As for the speaker, information for identifying the speaker of the interval voice data is stored. Specifically, it is information for identifying a user or a customer. Note that user identification information for identifying a speaker such as a user ID and customer ID, customer identification information, and the like may be stored.
要約テーブル1016は、ユーザと顧客との間で行われた通話の音声認識情報に対して要約処理を行い得られた発話時刻、話者、テキストからなる要約情報を記憶するテーブルである。要約情報は、ユーザと顧客との間で行われた通話に関連し、当該通話を特徴づけるテキストからなる情報である。ユーザは、要約情報を確認することにより、ユーザと顧客との間で行われた通話の内容を短時間で把握することができる。要約テーブル1016は、通話ID、テキスト、発話時刻、話者のカラムを有するテーブルである。 The summary table 1016 is a table that stores summary information consisting of utterance time, speaker, and text obtained by performing summary processing on voice recognition information of a call made between a user and a customer. Summary information is textual information relating to and characterizing a call between a user and a customer. By checking the summary information, the user can grasp the content of the call made between the user and the customer in a short time. Summary table 1016 is a table having columns for call ID, text, time of speech, and speaker.
通話IDは、要約情報の生成元となる通話データの通話ID(通話データ識別情報)を記憶する項目である。
テキストは、要約情報として抽出された音声認識情報のテキストを記憶する項目である。
発話時刻は、要約情報として抽出された音声認識情報の発話時刻を記憶する項目である。
話者は、要約情報として抽出された音声認識情報の話者を記憶する項目である。
The call ID is an item that stores the call ID (call data identification information) of the call data that is the source of the summary information.
Text is an item that stores the text of speech recognition information extracted as summary information.
The utterance time is an item that stores the utterance time of the speech recognition information extracted as summary information.
Speaker is an item that stores the speaker of the speech recognition information extracted as summary information.
応対メモテーブル1017は、ユーザと顧客との間で行われる通話に関連する通話データに対して紐付けられ記憶される応対メモに関する情報を記憶し管理するテーブルである。ユーザは、通話データに対して応対メモを設定(付与)することにより多数の通話データを整理し管理することができる。また、サーバ10は、各種制御処理を行う際に通話データに付与された応対メモを用いて処理条件を変化させることができる。応対メモテーブル1017は、メモIDを主キーとし、メモID、通話ID、付与者ID、メモ内容、メモ日時のカラムを有するテーブルである。
The response memo table 1017 is a table that stores and manages information related to response memos that are associated with call data related to calls made between users and customers. A user can organize and manage a large number of call data by setting (attaching) a response memo to the call data. Further, the
メモIDは、応対メモを識別するための応対メモ識別情報を記憶する項目である。
通話IDは、応対メモが付与された通話データの通話ID(通話データ識別情報)を記憶する項目である。
付与者IDは、通話データに対して応対メモを付与したユーザのユーザIDを記憶する項目である。
メモ内容は、通話データに対して付与される応対メモの内容を記憶する項目である。メモ内容は、通常は文字列(テキスト)情報である。
メモ日時は、ユーザが通話データに対して応対メモを付与した日時を記憶する項目である。
Memo ID is an item for storing response memo identification information for identifying a response memo.
The call ID is an item that stores the call ID (call data identification information) of the call data to which the response memo is attached.
The giver ID is an item for storing the user ID of the user who gave the response memo to the call data.
The content of the memo is an item that stores the content of the memo attached to the call data. The contents of the memo are usually character string (text) information.
The memo date and time is an item for storing the date and time when the user added a response memo to the call data.
<サーバ10の制御部の構成>
サーバ10の制御部104は、ユーザ登録制御部1041、設定部1042、認識部1043、解析部1044、重要度算定部1045、要約部1046、学習部1047、応対メモ提案部1048、応対メモ付与部1049、スコア算定部1050、CRM記憶制御部1051、表示制御部1052を備える。制御部104は、記憶部101に記憶されたアプリケーションプログラム1011を実行することにより、各機能ユニットが実現される。
<Configuration of Control Unit of
The
ユーザ登録制御部1041は、本開示に係るサービスの利用を希望するユーザの情報をユーザテーブル1012に記憶する処理を行う。
ユーザテーブル1012に記憶される、ユーザID、ユーザ名、ユーザ属性などの情報は、ユーザが任意の情報処理端末からサービス提供者が運営するウェブページなどを開き、所定の入力フォームにユーザID、ユーザ名、ユーザ属性を入力しサーバ10へ送信する。サーバ10のユーザ登録制御部1041は、受信したユーザID、ユーザ名、ユーザ属性をユーザテーブル1012の新しいレコードに記憶し、ユーザ登録が完了する。これにより、ユーザテーブル1012に記憶されたユーザはサービスを利用することができるようになる。
ユーザ登録制御部1041によるユーザ情報のユーザテーブル1012への登録に先立ち、サービス提供者は所定の審査を行いユーザによるサービス利用可否を制限しても良い。
ユーザIDは、ユーザを識別できる任意の文字列または数字で良く、ユーザが希望する任意の文字列または数字、もしくはサーバ10のユーザ登録制御部1041が自動的に任意の文字列または数字を設定しても良い。
ユーザ登録制御部1041は、ユーザ登録の際に、ユーザと紐付けて、ユーザが所属する組織の組織ID、組織名、組織属性などの情報を組織テーブル1013に記憶しても良い。ユーザが所属する組織の情報は、ユーザ自身が入力しても良いし、ユーザが所属する組織の管理者、本開示にかかるサービスの運営者などが登録するものとしても良い。
The user
Information stored in the user table 1012, such as user IDs, user names, and user attributes, can be obtained by opening a web page or the like operated by a service provider from any information processing terminal, filling in a predetermined input form with the user ID, user First name and user attributes are entered and transmitted to the
Prior to registration of user information in the user table 1012 by the user
The user ID may be any character string or number that can identify the user, any character string or number desired by the user, or any character string or number automatically set by the user
The user
設定部1042は、連携モード設定処理を実行する。詳細は後述する。
認識部1043は、音声認識処理を実行する。詳細は後述する。
解析部1044は、音声解析処理を実行する。詳細は後述する。
重要度算定部1045は、重要度算定処理を実行する。詳細は後述する。
要約部1046は、要約処理を実行する。詳細は後述する。
学習部1047は、学習処理を実行する。詳細は後述する。
応対メモ提案部1048は、応対メモ提案処理を実行する。詳細は後述する。
応対メモ付与部1049は、応対メモ付与処理を実行する。詳細は後述する。
スコア算定部1050は、スコア算定処理を実行する。詳細は後述する。
CRM記憶制御部1051は、CRM記憶処理を実行する。詳細は後述する。
表示制御部1052は、通話表示処理を実行する。詳細は後述する。
The
The
The
The
Summarizing
The
The response
The response
The
The CRM
The
<ユーザ端末20の機能構成>
ユーザ端末20のハードウェア構成が実現する機能構成を図3に示す。ユーザ端末20は、記憶部201、制御部204、ユーザ端末20に接続された入力装置206、出力装置208を備える。入力装置206は、カメラ2061、マイク2062、位置情報センサ2063、モーションセンサ2064、キーボード2065、マウス2066を含む。出力装置208は、ディスプレイ2081、スピーカ2082を含む。
<Functional Configuration of
A functional configuration realized by the hardware configuration of the
<ユーザ端末20の記憶部の構成>
ユーザ端末20の記憶部201は、ユーザ端末20を利用するユーザを識別するためのユーザID2011、アプリケーションプログラム2012、CRMID2013を記憶する。
ユーザIDは、サーバ10に対するユーザのアカウントIDである。ユーザは、ユーザ端末20からユーザID2011を、サーバ10へ送信する。サーバ10は、ユーザID2011に基づきユーザを識別し、本開示にかかるサービスをユーザに対して提供する。なお、ユーザIDには、ユーザ端末20を利用しているユーザを識別するにあたりサーバ10から一時的に付与されるセッションIDなどの情報を含む。
CRMIDは、CRMシステム30に対するユーザのアカウントIDである。ユーザは、ユーザ端末20からCRMID2013を、CRMシステム30へ送信する。CRMシステム30は、CRMID2013に基づきユーザを識別し、CRMサービスをユーザに対して提供する。なお、CRMID2013には、ユーザ端末20を利用しているユーザを識別するにあたりCRMシステム30から一時的に付与されるセッションIDなどの情報を含む。
アプリケーションプログラム2012は、記憶部201に予め記憶されていても良いし、通信IFを介してサービス提供者が運営するウェブサーバ等からダウンロードする構成としても良い。アプリケーションプログラム2012は、ユーザ端末20に記憶されているウェブブラウザアプリケーション上で実行されるJavaScript(登録商標)などのインタープリター型プログラミング言語を含む。
<Configuration of Storage Unit of
The
The user ID is the user's account ID for the
CRMID is the user's account ID for the
The
<ユーザ端末20の制御部の構成>
ユーザ端末20の制御部204は、入力制御部2041および出力制御部2042を備える。制御部204は、記憶部201に記憶されたアプリケーションプログラム2012を実行することにより、入力制御部2041、出力制御部2042の機能ユニットが実現される。
ユーザ端末20の入力制御部2041は、ユーザ端末20に接続されたカメラ2061、マイク2062、位置情報センサ2063、モーションセンサ2064、キーボード2065、マウス2066などの入力装置から出力される情報を取得し各種処理を実行する。ユーザ端末20の入力制御部2041は、入力装置206から取得した情報をユーザID2011とともにサーバ10へ送信する処理を実行する。同様に、ユーザ端末20の入力制御部2041は、入力装置206から取得した情報をCRMID2013とともにCRMシステム30へ送信する処理を実行する。
ユーザ端末20の出力制御部2042は、入力装置206に対するユーザによる操作およびサーバ10、CRMシステム30から情報を受信し、ユーザ端末20に接続されたディスプレイ2081の表示内容、スピーカ2082の音声出力内容の制御処理を実行する。
<Configuration of Control Unit of
The
The input control unit 2041 of the
The
<CRMシステム30の機能構成>
CRMシステム30のハードウェア構成が実現する機能構成を図4に示す。CRMシステム30は、記憶部301、制御部304を備える。
ユーザは、別途CRM事業者とも契約を締結しており、ユーザごとに設定されたCRMID2013を用いてCRM事業者が運営するウェブサイトへウェブブラウザなどを介してアクセス(ログイン)することにより、CRMサービスの提供を受ける事ができる。
<Functional Configuration of
A functional configuration realized by the hardware configuration of the
The user has also concluded a separate contract with a CRM business, and by using the
<CRMシステム30の記憶部の構成>
CRMシステム30の記憶部301は、顧客テーブル3012、応対履歴テーブル3013を備える。
図12は、顧客テーブル3012のデータ構造を示す図である。図13は、応対履歴テーブル3013のデータ構造を示す図である。
<Configuration of Storage Unit of
The
FIG. 12 is a diagram showing the data structure of the customer table 3012. As shown in FIG. FIG. 13 shows the data structure of the response history table 3013. As shown in FIG.
顧客テーブル3012は、顧客情報を記憶し管理するためのテーブルである。顧客テーブル3012は、顧客IDを主キーとし、顧客ID、ユーザID、氏名、電話番号、顧客属性、顧客組織名、顧客組織属性のカラムを有するテーブルである。 The customer table 3012 is a table for storing and managing customer information. The customer table 3012 is a table having customer ID as a primary key and columns of customer ID, user ID, name, telephone number, customer attribute, customer organization name, and customer organization attribute.
顧客IDは、顧客を識別するための顧客識別情報を記憶する項目である。
ユーザIDは、顧客に紐付けられたユーザのユーザID(ユーザ識別情報)を記憶する項目である。ユーザは、自身のユーザIDに紐付けられた顧客を一覧表示したり、顧客に対して発信(架電)することができる。
本開示において、顧客はユーザに対して紐付けられるものとしたが、組織(組織テーブル1013の組織ID)に対して紐付けても良い。その場合、組織に所属するユーザは、自身の組織IDに紐付けられた顧客を一覧表示したり、顧客に対して発信することができる。
氏名は、顧客の氏名を記憶する項目である。
電話番号は、顧客の電話番号を記憶する項目である。
ユーザは、CRMシステムが提供するウェブサイトにアクセスし、電話を発信したい顧客を選択し「発信」などの所定の操作を行なうことにより、ユーザ端末20から顧客の電話番号に対して電話を発信することができる。
顧客属性は、顧客の年齢、性別、出身地、方言、職種(営業、カスタマーサポートなど)などの顧客の属性に関する情報を記憶する項目である。
顧客組織名は、顧客の所属する組織の名称を記憶する項目である。組織の名称は、会社名、法人名、企業グループ名、サークル名、各種団体名など任意の組織名、グループ名を含む。
顧客組織属性は、顧客の組織種別(会社、企業グループ、その他団体など)、業種(不動産、金融など)などの組織の属性に関する情報を記憶する項目である。
顧客属性、顧客組織名、顧客組織属性は、ユーザが入力することにより記憶する構成としても良いし、所定のウェブサイトへ顧客がアクセスすることにより、顧客に入力させても良い。
The customer ID is an item that stores customer identification information for identifying the customer.
The user ID is an item that stores the user ID (user identification information) of the user associated with the customer. The user can display a list of customers associated with his/her own user ID, and can make calls (calls) to the customers.
In the present disclosure, the customer is associated with the user, but may be associated with the organization (organization ID of the organization table 1013). In that case, a user belonging to an organization can display a list of customers associated with his/her own organization ID, or can send a message to the customer.
The name is an item for storing the customer's name.
The phone number is an item that stores the customer's phone number.
A user accesses a website provided by the CRM system, selects a customer to call, and performs a predetermined operation such as "Call" to make a call to the customer's telephone number from the
The customer attribute is an item that stores information related to customer attributes such as customer age, gender, hometown, dialect, occupation (sales, customer support, etc.).
The customer organization name is an item that stores the name of the organization to which the customer belongs. The name of the organization includes arbitrary organization names and group names such as company names, corporate names, corporate group names, circle names, and various organization names.
The customer organization attribute is an item that stores information related to organization attributes such as the customer's organization type (company, corporate group, other organization, etc.) and type of industry (real estate, finance, etc.).
The customer attribute, customer organization name, and customer organization attribute may be input by the user and stored, or may be input by the customer when the customer accesses a predetermined website.
応対履歴テーブル3013は、顧客対応(応対履歴)の記録(応対履歴情報)を記憶し管理するためのテーブルである。顧客対応が営業活動の場合には、過去の営業活動の記録(日時、営業活動の内容など)が記憶される。応対履歴テーブル3013は、応対履歴IDを主キーとし、応対履歴ID、通話ID、URL、顧客ID、ユーザID(発信者)、ダイアル日時、通話開始日時、通話終了日時、コメントのカラムを有するテーブルである。 The response history table 3013 is a table for storing and managing records (response history information) of customer responses (response history). When the customer correspondence is sales activities, records of past sales activities (date and time, contents of sales activities, etc.) are stored. The response history table 3013 has a response history ID as a primary key, and has columns of response history ID, call ID, URL, customer ID, user ID (caller), dialing date and time, call start date and time, call end date and time, and comment. is.
本開示においては、ユーザと顧客との間で通話が行われるごとに、新たにレコードが作成され応対履歴情報が記憶される。
応対履歴IDは、応対履歴を識別するための応対履歴識別情報を記憶する項目である。
通話IDは、応対履歴に関する通話データの通話ID(通話データ識別情報)を記憶する項目である。これにより、CRMシステムにおける応対履歴は、サーバ10の通話データと紐付けられる。
URLは、通話IDを一意に特定する文字列を含むURL(Uniform Resource Locator)情報である。URLには通話IDが直接含まれていても良いし、通話IDを復号可能な文字列、その他、不図示のテーブルを参照して通話IDを取得できる特定の文字列が含まれていても良い。ユーザは、ユーザ端末20のブラウザを操作し、URLを開くことにより、サーバ10にアクセスし応対履歴に関する通話データの解析データを可視化した解析結果画面を確認することができる。
顧客IDは、応対履歴に関する顧客の顧客ID(顧客識別情報)を記憶する項目である。
ユーザIDは、応対履歴に関するユーザのユーザID(ユーザ識別情報)を記憶する項目である。
ダイアル日時は、応対履歴に関して、ユーザが顧客に対して発信を行った日時を記憶する項目である。
通話開始日時は、応対履歴に関して、ユーザと顧客との間で行われた通話の開始日時を記憶する項目である。
通話終了日時は、応対履歴に関して、ユーザと顧客との間で行われた通話の終了日時を記憶する項目である。
コメントは、応対履歴に関して、メモ、コメントなどのテキスト情報を記憶する項目である。ユーザは、応対履歴に関して気づいた事項、申し送り事項などをコメントに事由に編集することができる。また、サーバ10の制御部104は、CRMシステム30のAPI(Application Programming Interface)へ所定のリクエストを送信することにより、コメントを自由に編集することができる。
In the present disclosure, each time a call is made between a user and a customer, a new record is created and reception history information is stored.
The response history ID is an item for storing response history identification information for identifying the response history.
The call ID is an item that stores the call ID (call data identification information) of call data related to the response history. Thereby, the reception history in the CRM system is associated with the call data of the
The URL is URL (Uniform Resource Locator) information including a character string that uniquely identifies the call ID. The URL may contain the call ID directly, or may contain a character string that can decode the call ID, or a specific character string that can acquire the call ID by referring to a table (not shown). . By operating the browser of the
The customer ID is an item that stores the customer's customer ID (customer identification information) related to the response history.
The user ID is an item that stores the user ID (user identification information) of the user regarding the response history.
The date and time dialed is an item for storing the date and time when the user made a call to the customer in relation to the reception history.
The call start date and time is an item that stores the start date and time of the call made between the user and the customer in relation to the reception history.
The call end date and time is an item that stores the end date and time of the call between the user and the customer in relation to the response history.
A comment is an item that stores text information such as memos and comments regarding the response history. The user can edit the matters noticed about the response history, the matters to be transferred, etc. as comments. Also, the
<CRMシステム30の制御部の構成>
CRMシステム30の制御部304は、ユーザ登録制御部3041を備える。制御部304は、記憶部301に記憶されたアプリケーションプログラム3011を実行することにより、各機能ユニットが実現される。
<Configuration of Control Unit of
The
CRMシステム30は、API(Application Programming Interface)、SDK(Software Development Kit)、コードスニペッド(以下、「ビーコン」と呼ぶ)と呼ばれる機能を提供しており、ユーザは予め本開示にかかるサーバ10およびCRMシステム30についてアカウント情報などの紐付け設定を行うことにより、サーバ10の制御部104とCRMシステム30の制御部304は相互に通信し、任意の情報処理を実現することができる。
The
<音声サーバ(PBX)40の概要>
音声サーバ(PBX)40は、ユーザから顧客に対する発信があった場合に、顧客端末50に対し発信(呼出し)を行う。
音声サーバ(PBX)40は、顧客からユーザに対する発信があった場合に、ユーザ端末20に対し、その旨を示すメッセージ(以下、「着信通知メッセージ」と呼ぶ)を送る。また、音声サーバ(PBX)40は、サーバ10が提供するビーコン、SDK、APIなどに着信通知メッセージを送ることができる。
<Outline of voice server (PBX) 40>
The voice server (PBX) 40 makes a call to the
The voice server (PBX) 40 sends a message (hereinafter referred to as an "incoming call notification message") to the
<顧客端末50の機能構成>
顧客端末50のハードウェア構成が実現する機能構成を図5に示す。顧客端末50は、記憶部501、制御部504、タッチパネル506、タッチセンシティブデバイス5061、ディスプレイ5062、マイク5081、スピーカ5082、位置情報センサ5083、カメラ5084、モーションセンサ5085を備える。
<Functional Configuration of
FIG. 5 shows a functional configuration realized by the hardware configuration of the
<顧客端末50の記憶部の構成>
顧客端末50の記憶部501は、顧客端末50を利用する顧客の電話番号5011、アプリケーションプログラム5012を記憶する。
アプリケーションプログラム5012は、記憶部501に予め記憶されていても良いし、通信IFを介してサービス提供者が運営するウェブサーバ等からダウンロードする構成としても良い。アプリケーションプログラム5012は、顧客端末50に記憶されているウェブブラウザアプリケーション上で実行されるJavaScript(登録商標)などのインタープリター型プログラミング言語を含む。
<Configuration of Storage Unit of
The
The
<顧客端末50の制御部の構成>
顧客端末50の制御部504は、入力制御部5041および出力制御部5042を備える。制御部504は、記憶部501に記憶されたアプリケーションプログラム5012を実行することにより、入力制御部5041、出力制御部5042の機能ユニットが実現される。
顧客端末50の入力制御部5041は、ユーザによるタッチパネル506のタッチセンシティブデバイス5061への操作内容、マイク5081への音声入力、位置情報センサ5083、カメラ5084、モーションセンサ5085などの入力装置から出力される情報を取得し各種処理を実行する。
顧客端末50の出力制御部5042は、入力装置に対するユーザによる操作およびサーバ10から情報を受信し、ディスプレイ5062の表示内容、スピーカ5082の音声出力内容などの制御処理を実行する。
<Configuration of Control Unit of
The
The input control unit 5041 of the
The
<情報処理システム1の動作>
以下、情報処理システム1の各処理について説明する。
図14は、要約処理(第一実施例)の動作を示すフローチャートである。
図15は、要約処理(第二実施例)の動作を示すフローチャートである。
図16は、応対メモ付与処理の動作を示すフローチャートである。
図17は、応対メモ提案処理の動作を示すフローチャートである。
図18は、スコア算定処理の動作を示すフローチャートである。
図19は、CRM記憶処理の動作を示すフローチャートである。
図20は、通話表示処理の動作を示すフローチャートである。
図21は、要約処理(第一実施例)におけるバインディング処理の概要を示した図である。
図22は、要約処理(第二実施例)における追加抽出処理の概要を示した図である。
図23は、要約表示処理の概要を示した図である。
図24は、通話表示処理におけるCRMサービスの画面例を示した図である。
<Operation of
Each process of the
FIG. 14 is a flow chart showing the operation of summary processing (first embodiment).
FIG. 15 is a flow chart showing the operation of summary processing (second embodiment).
FIG. 16 is a flow chart showing the operation of the response memo adding process.
FIG. 17 is a flow chart showing the operation of the response memo proposal process.
FIG. 18 is a flow chart showing the operation of the score calculation process.
FIG. 19 is a flow chart showing the operation of CRM storage processing.
FIG. 20 is a flow chart showing the operation of call display processing.
FIG. 21 is a diagram showing an overview of binding processing in summary processing (first embodiment).
FIG. 22 is a diagram showing an outline of additional extraction processing in summarization processing (second embodiment).
FIG. 23 is a diagram showing an overview of summary display processing.
FIG. 24 is a diagram showing a screen example of the CRM service in call display processing.
<用語定義>
情報処理システム1の各処理について説明するにあたり、用語を以下の通り定義する。
通話データは、ユーザと顧客との間で行われる通話に関するデータであり、通話テーブル1014の各項目に記憶されたデータ、通話IDにより紐づけられた音声認識テーブル1015の各項目に記憶されたデータ、通話IDにより紐づけられた要約テーブル1016の各項目に記憶されたデータなどを含むデータである。通話IDにより紐づけられた応対メモテーブル1017、応対履歴テーブル3013の各項目に記憶されたデータなどを含むデータである。
通話属性は、ユーザと顧客との間で行われる通話の属性に関するデータであり、ユーザ属性、ユーザの所属する組織の組織名または組織属性、顧客属性、顧客の所属する組織の組織名または組織属性、通話カテゴリ、受発信者種別などを含む。つまり、通話データは、通話を行なうユーザのユーザ属性、通話を行なう顧客の顧客属性、通話の通話カテゴリ、受発信者種別などの属性値により特徴づけられることになる。
<Definition of terms>
In describing each process of the
The call data is data related to calls made between the user and the customer, and includes data stored in each item of the call table 1014 and data stored in each item of the voice recognition table 1015 associated with the call ID. , data stored in each item of the summary table 1016 associated with the call ID. This data includes data stored in each item of the response memo table 1017 and the response history table 3013 associated with the call ID.
The call attribute is data related to the attribute of a call made between the user and the customer, and includes user attribute, organization name or organization attribute of the organization to which the user belongs, customer attribute, organization name or organization attribute of the organization to which the customer belongs. , call category, caller type, etc. In other words, call data is characterized by attribute values such as the user attribute of the user who makes the call, the customer attribute of the customer who makes the call, the call category of the call, and the type of caller/receiver.
<発信処理>
発信処理は、ユーザから顧客に対し発信(架電)する処理である。
<Outgoing processing>
The calling process is a process of making a call (calling) from the user to the customer.
<発信処理の概要>
発信処理は、ユーザはユーザ端末20の画面に表示された複数の顧客のうち発信を希望する顧客を選択し、発信操作を行うことにより、顧客に対して発信を行なう一連の処理である。
<Outline of call processing>
The calling process is a series of processes in which the user selects a customer who wishes to make a call from among a plurality of customers displayed on the screen of the
<発信処理の詳細>
ユーザから顧客に発信する場合における情報処理システム1の発信処理について説明する。
<Details of outgoing processing>
A call processing of the
ユーザが顧客に発信する場合、情報処理システム1において以下の処理が実行される。
When a user calls a customer, the
ユーザはユーザ端末20を操作することにより、ウェブブラウザを起動し、CRMシステム30が提供するCRMサービスのウェブサイトへアクセスする。ユーザは、CRMサービスが提供する顧客管理画面を開くことにより自身の顧客をユーザ端末20のディスプレイ2081へ一覧表示することができる。
具体的に、ユーザ端末20は、CRMID2013および顧客を一覧表示する旨のリクエストをCRMシステム30へ送信する。CRMシステム30は、リクエストを受信すると、顧客テーブル3012を検索し、顧客ID、氏名、電話番号、顧客属性、顧客組織名、顧客組織属性などのユーザの顧客に関する情報をユーザ端末20に送信する。ユーザ端末20は、受信した顧客に関する情報をユーザ端末20のディスプレイ2081に表示する。
By operating the
Specifically, the
ユーザは、ユーザ端末20のディスプレイ2081に一覧表示された顧客から発信を希望する顧客を押下し選択する。顧客が選択された状態で、ユーザ端末20のディスプレイ2081に表示された「発信」ボタンまたは、電話番号ボタンを押下することにより、CRMシステム30に対し電話番号を含むリクエストを送信する。リクエストを受信したCRMシステム30は、電話番号を含むリクエストをサーバ10へ送信する。リクエストを受信したサーバ10は、音声サーバ(PBX)40に対し、発信リクエストを送信する。音声サーバ(PBX)40は、発信リクエストを受信すると、受信した電話番号に基づき顧客端末50に対し発信(呼出し)を行う。
The user presses and selects a customer who wishes to make a call from the customers listed on the
これに伴い、ユーザ端末20は、スピーカ2082などを制御し音声サーバ(PBX)40により発信(呼出し)が行われている旨を示す鳴動を行う。また、ユーザ端末20のディスプレイ2081は、音声サーバ(PBX)40により顧客に対して発信(呼出し)が行われている旨を示す情報を表示する。例えば、ユーザ端末20のディスプレイ2081は、「呼出中」という文字を表示してもよい。
Along with this, the
顧客は、顧客端末50において不図示の受話器を持ち上げたり、顧客端末50のタッチパネル506に着信時に表示される「受信」ボタンなどを押下することにより、顧客端末50は通話可能状態となる。これに伴い、音声サーバ(PBX)40は、顧客端末50による応答がなされたことを示す情報(以下、「応答イベント」と呼ぶ)を、サーバ10、CRMシステム30などを介してユーザ端末20に送信する。
これにより、ユーザと顧客は、それぞれユーザ端末20、顧客端末50を用いて通話可能状態となり、ユーザと顧客との間で通話することができるようになる。具体的には、ユーザ端末20のマイク2062により集音されたユーザの音声は、顧客端末50のスピーカ5082から出力される。同様に、顧客端末50のマイク5081から集音された顧客の音声は、ユーザ端末20のスピーカ2082から出力される。
When the customer picks up the receiver (not shown) of the
As a result, the user and the customer are ready to talk using the
ユーザ端末20のディスプレイ2081は、通話可能状態になると、応答イベントを受信し、通話が行われていることを示す情報を表示する。例えば、ユーザ端末20のディスプレイ2081は、「応答中」という文字を表示してもよい。
The
通話可能状態になると、後述する通話記憶処理、CRM記憶処理が実行される。 When the call is enabled, call storage processing and CRM storage processing, which will be described later, are executed.
<着信処理>
着信処理は、ユーザが顧客から着信(受電)する処理である。
<Incoming processing>
Incoming call processing is processing in which a user receives a call (receives a call) from a customer.
<着信処理の概要>
着信処理は、ユーザがユーザ端末20においてアプリケーションを立ち上げている場合に、顧客がユーザに対して発信した場合に、ユーザが着信する一連の処理である。
<Overview of Incoming Call Processing>
The incoming call process is a series of processes in which the user receives an incoming call when the user has started an application on the
<着信処理の詳細>
ユーザが顧客から着信(受電)する場合における情報処理システム1の着信処理について説明する。
<Details of incoming call processing>
Incoming call processing of the
ユーザが顧客から着信する場合、情報処理システム1において以下の処理が実行される。
When a user receives an incoming call from a customer, the
ユーザはユーザ端末20を操作することにより、ウェブブラウザを起動し、CRMシステム30が提供するCRMサービスのウェブサイトへアクセスする。このとき、ユーザはウェブブラウザにおいて、自身のアカウントにてCRMシステム30にログインし待機しているものとする。なお、ユーザはCRMシステム30にログインしていれば良く、CRMサービスにかかる他の作業などを行っていても良い。
By operating the
顧客は、顧客端末50を操作し、音声サーバ(PBX)40に割り当てられた所定の電話番号を入力し、音声サーバ(PBX)40に対して発信する。音声サーバ(PBX)40は、顧客端末50の発信を着信イベントとして受信する。
The customer operates the
音声サーバ(PBX)40は、サーバ10に対し、着信イベントを送信する。具体的には、音声サーバ(PBX)40は、サーバ10に対して顧客の電話番号5011を含む着信リクエストを送信する。サーバ10は、CRMシステム30を介してユーザ端末20に対して着信リクエストを送信する。
これに伴い、ユーザ端末20は、スピーカ2082などを制御し音声サーバ(PBX)40により着信が行われている旨を示す鳴動を行う。ユーザ端末20のディスプレイ2081は、音声サーバ(PBX)40により顧客から着信があること旨を示す情報を表示する。例えば、ユーザ端末20のディスプレイ2081は、「着信中」という文字を表示してもよい。
A voice server (PBX) 40 sends an incoming call event to the
Along with this, the
ユーザ端末20は、ユーザによる応答操作を受付ける。応答操作は、例えば、ユーザ端末20において不図示の受話器を持ち上げたり、ユーザ端末20のディスプレイ2081に「電話に出る」と表示されたボタンを、ユーザがマウス2066を操作して押下する操作などにより実現される。
ユーザ端末20は、応答操作を受付けると、音声サーバ(PBX)40に対し、CRMシステム30、サーバ10を介して応答リクエストを送信する。音声サーバ(PBX)40は、送信されてきた応答リクエストを受信し、音声通信を確立する。これにより、ユーザ端末20は、顧客端末50と通話可能状態となる。
ユーザ端末20のディスプレイ2081は、通話が行われていることを示す情報を表示する。例えば、ユーザ端末20のディスプレイ2081は、「通話中」という文字を表示してもよい。
The
Upon accepting the response operation, the
The
通話可能状態になると、後述する通話記憶処理、CRM記憶処理が実行される。 When the call is enabled, call storage processing and CRM storage processing, which will be described later, are executed.
<通話記憶処理>
通話記憶処理は、ユーザと顧客との間で行われる通話に関するデータを記憶する処理である。
<Call memory processing>
A call storage process is the process of storing data relating to calls made between a user and a customer.
<通話記憶処理の概要>
通話記憶処理は、ユーザと顧客との間で通話が開始された場合に、通話に関するデータを通話テーブル1014に記憶する一連の処理である。
<Overview of call memory processing>
The call storage process is a series of processes for storing data related to calls in the call table 1014 when a call is started between a user and a customer.
<通話記憶処理の詳細>
ユーザと顧客との間で通話が開始されると、音声サーバ(PBX)40は、ユーザと顧客との間で行われる通話に関する音声データを録音し、サーバ10へ送信する。サーバ10の制御部104は、音声データを受信すると、通話テーブル1014に新たなレコードを作成し、ユーザと顧客との間で行われる通話に関するデータを記憶する。具体的に、サーバ10の制御部104は、ユーザID、顧客ID、通話カテゴリ、受発信種別、音声データの内容を通話テーブル1014に記憶する。
<Details of call memory processing>
When a call is started between the user and the customer, the voice server (PBX) 40 records voice data regarding the call between the user and the customer and transmits the data to the
サーバ10の制御部104は、発信処理または着信処理においてユーザ端末20から、ユーザのユーザID2011を取得し、新たなレコードのユーザIDの項目に記憶する。
サーバ10の制御部104は、発信処理または着信処理において電話番号に基づきCRMシステム30へ問い合わせを行なう。CRMシステム30は、顧客テーブル3012を電話番号により検索することにより、顧客IDを取得し、サーバ10へ送信する。サーバ10の制御部104は、取得した顧客IDを新たなレコードの顧客IDの項目に記憶する。
サーバ10の制御部104は、予めユーザまたは顧客ごとに設定された通話カテゴリの値を、新たなレコードの通話カテゴリの項目に記憶する。なお、通話カテゴリは、通話ごとにユーザが値を選択したり入力することにより記憶しても良い。
サーバ10の制御部104は、行われている通話がユーザにより発信したものか、顧客から発信されたものかを識別し、新たなレコードの受発信種別の項目にアウトバウンド(ユーザから発信)、インバウンド(顧客から発信)のいずれかの値を記憶する。
サーバ10の制御部104は、音声サーバ(PBX)40から受信する音声データを、新たなレコードの音声データの項目に記憶する。なお、音声データは他の場所に音声データファイルとして記憶し、通話終了後に、音声データファイルに対する参照情報(パス)を記憶するものとしても良い。また、サーバ10の制御部104は、通話終了後にデータを記憶する構成としても良い。
The
The
The
The
The
<音声認識処理>
音声認識処理は、ユーザと顧客との間で行われた通話の音声データに対してテキスト認識を行うことによりテキスト情報に変換し記憶する処理である。
<Voice recognition processing>
Speech recognition processing is processing for converting speech data of a call between a user and a customer into text information by text recognition and storing the text information.
<音声認識処理の概要>
音声認識処理は、通話テーブル1014に記憶された音声データを音声が存在する区間(発話区間)ごとに分割し区間音声データを抽出する。それぞれの区間音声データに対してテキスト認識を行なうことにより音声認識情報を生成し、音声認識テーブル1015に記憶する一連の処理である。
<Overview of speech recognition processing>
In the speech recognition process, the speech data stored in the call table 1014 is divided into sections (speech sections) in which speech exists, and section speech data is extracted. This is a series of processes in which speech recognition information is generated by performing text recognition on each section speech data and stored in the speech recognition table 1015 .
<音声認識処理の詳細>
サーバ10の認識部1043は、通話テーブル1014において通話記憶処理が行われたものの、音声認識処理が行われていないレコードを検索する。具体的には、サーバ10の認識部1043は、通話テーブル1014から、音声認識有無の項目にブランク、ヌル、その他、音声認識処理が行われていないことを示す情報などが記憶されているレコードを検索する。なお、サーバ10の認識部1043は、通話テーブル1014に音声データが記憶されているものの、音声認識テーブル1015に通話IDが存在しないレコードを音声認識処理が行われていないレコードと判定しても良い。
<Details of voice recognition processing>
The
サーバ10の認識部1043は、音声認識処理が行われていないレコードの通話IDおよび音声データを取得する(受け付ける)。サーバ10の認識部1043は、取得(受付)した音声データから、音声が存在する区間(発話区間)を検出し、発話区間のそれぞれに対して音声データを区間音声データとして抽出する。区間音声データは、発話区間ごとに話者および発話時刻と紐付けられている。
サーバ10の認識部1043は、抽出された区間音声データに対してテキスト認識を行うことにより、区間音声データを文字(テキスト)に変換する(文字に起こす)。なお、テキスト認識の具体的手法は特に限定されない。例えば信号処理技術、AI(人工知能)を利用した機械学習や深層学習によって変換してもよい。
The
The
サーバ10の認識部1043は、発話区間ごとのテキストを、各発話区間の開始時刻、話者(ユーザまたは顧客)と紐付けた一連のデータを、処理対象の通話IDと紐づけて音声認識テーブル1015に記憶する。サーバ10の認識部1043は、通話テーブル1014の音声認識有無の項目に、音声認識処理が完了したことを示す情報を記憶する。
The
音声認識テーブル1015には、音声データの発話区間ごとのテキストが、発話時刻、話者と紐付けられ連続的な時系列データとして記憶される。ユーザは、音声認識テーブル1015に記憶されたデータを確認することで、音声データの内容を聞かずにテキスト情報として通話内容を確認することができる。 In the speech recognition table 1015, the text for each utterance section of the voice data is associated with the utterance time and the speaker and stored as continuous time-series data. By checking the data stored in the voice recognition table 1015, the user can check the content of the call as text information without listening to the content of the voice data.
なお、発話時刻は、各発話区間の開始時刻、各発話区間の終了時刻、各発話区間の任意の間の時刻など各発話区間に関連した任意の時刻としても良い。 Note that the utterance time may be an arbitrary time related to each utterance period, such as the start time of each utterance period, the end time of each utterance period, or the time between any utterance periods.
<音声認識処理の変形例>
なお、音声認識処理の際に、予めテキストに含まれるフィラーなどのユーザと顧客との間で行われた通話を把握する上で無意味な情報をテキストから除外して、音声認識情報を音声認識テーブル1015に記憶する構成としても良い。
<Modified example of voice recognition processing>
In addition, during the speech recognition process, information such as fillers included in the text that is meaningless in terms of understanding the call between the user and the customer is removed from the text in advance, and the speech recognition information is converted to speech recognition. It may be configured to be stored in the table 1015 .
<音声解析処理>
音声解析処理は、ユーザと顧客との間で行われた通話の音声データを解析し解析データを生成し、記憶する処理である。
<Speech analysis processing>
The voice analysis process is a process of analyzing voice data of a call made between a user and a customer, generating analysis data, and storing the data.
<音声解析処理の概要>
音声解析処理は、通話テーブル1014に記憶された音声データに対して、音声解析処理を実行することにより、解析データを生成し、通話テーブル1014に記憶する一連の処理である。
<Outline of speech analysis processing>
The voice analysis process is a series of processes in which analysis data is generated by executing voice analysis process on voice data stored in the call table 1014 and stored in the call table 1014 .
<音声解析処理の詳細>
サーバ10の解析部1044は、通話テーブル1014において通話記憶処理が行われたものの、音声解析処理が行われていないレコードを検索する。具体的には、サーバ10の解析部1044は、通話テーブル1014から、音声データが記憶されているものの、解析データが記憶されていないレコードを検索する。解析データが記憶されていないとは、解析データの項目がブランク、ヌル、その他、記憶されていないことを示す情報などが記憶されていることを示す。
その他、不図示のカラムに音声解析処理の対象である旨を示す情報を記憶し、当該情報が記憶されているレコードを音声解析処理の対象としても良い。
<Details of voice analysis processing>
The
In addition, information indicating that the record is to be subjected to the voice analysis process may be stored in a column (not shown), and the record in which the information is stored may be subjected to the voice analysis process.
サーバ10は、音声解析処理が行われていないレコードの通話IDおよび音声データを取得する。サーバ10の解析部1044は、取得した音声データを解析し、Talk:Listen比率、沈黙回数、被り回数、ラリー回数、基本周波数、抑揚の強弱、話速、話速比、フィラー数、トークスクリプト一致度などを算出する。なお、解析の具体的手法は特に限定されない。例えば信号処理技術、AI(人工知能)を利用した機械学習や深層学習によって解析してもよい。
The
Talk:Listen比率とは、ユーザの発話時間と通話先の発話時間との比率である。
沈黙回数は、通話において沈黙が生じた回数である。被り回数は、通話において被りが生じた回数である。
ラリー回数は、通話においてユーザと顧客との間で応対が行われた回数(会話が切り替わった回数)である。
基本周波数は、ユーザ、顧客ごとに定義され、ユーザまたは顧客の音声の基本周波数、つまり声の高さに相当する情報である。
抑揚の強弱は、ユーザ、顧客ごとに定義され、ユーザまたは顧客の抑揚の大きさを定量的に評価した情報である。
話速は、ユーザ、顧客ごとに定義され、ユーザまたは顧客の話すスピードである。話速は、例えば、1秒間のうちに発せられた文字数(または単語数)で示される。
話速比は、ユーザおよび顧客の話速の比に関する情報である。具体的には、ユーザの話速から顧客の話速を割った数値として示される。例えば、値が大きいほどユーザは顧客に比べて話速が速いことになる。
フィラー数は、音声認識データの文中のフィラー(例えばえー、あのー、などの言い淀み)の検出数である。フィラー数は、ユーザ、顧客ごとに定義されても良い。
トークスクリプト一致度は、ユーザまたはユーザの所属する組織ごとに設定されたトークスクリプトと、音声認識データから検出されたユーザの発話内容との一致度に関する情報である。
The Talk:Listen ratio is the ratio between the user's speaking time and the callee's speaking time.
The number of silences is the number of times silence occurred in the call. The number of times of confusion is the number of times that confusion occurs in a call.
The number of rallies is the number of times the user and the customer interacted with each other in a call (the number of times the conversation was switched).
The fundamental frequency is defined for each user or customer, and is information corresponding to the fundamental frequency of the voice of the user or customer, that is, the pitch of the voice.
The intensity of intonation is defined for each user or customer, and is information obtained by quantitatively evaluating the magnitude of intonation of the user or customer.
Speech speed is defined for each user or customer, and is the speaking speed of the user or customer. The speed of speech is indicated by, for example, the number of characters (or the number of words) uttered in one second.
The speech speed ratio is information regarding the ratio of speech speeds of the user and the customer. Specifically, it is indicated as a numerical value obtained by dividing the customer's speech rate from the user's speech rate. For example, the higher the value, the faster the user speaks than the customer.
The number of fillers is the number of detected fillers (for example, hesitation such as ah, ah, etc.) in the sentence of the speech recognition data. The number of fillers may be defined for each user, customer.
The talk script matching degree is information regarding the degree of matching between the talk script set for each user or the organization to which the user belongs and the user's utterance content detected from the speech recognition data.
サーバ10の解析部1044は、解析データを通話テーブル1014の処理対象のレコードの解析データの項目に記憶する。
The
<要約処理(第一実施例)>
要約処理(第一実施例)は、音声認識情報から要約情報を生成し記憶する処理である。以下、要約処理(第一実施例)の詳細を図14のフローチャートを用いて説明する。
<Summary processing (first embodiment)>
Summarization processing (first embodiment) is processing for generating and storing summary information from speech recognition information. Details of the summarization process (first embodiment) will be described below with reference to the flowchart of FIG.
<要約処理(第一実施例)の概要>
要約処理(第一実施例)は、音声認識テーブル1015に記憶された音声認識情報を取得し、音声認識情報に含まれるテキストを発話時刻の順番に並べた場合に、話者が変化する前後のテキストをテキスト群としてバインディングするバインディング処理を実行し、バインディング処理後のテキスト及びテキスト群に対して重要度を算定し、当該重要度に基づき要約文書に用いるテキストを抽出し、要約文書を生成しサーバ10およびCRMシステム30に記憶する一連の処理である。
<Overview of summary processing (first embodiment)>
Summarization processing (first embodiment) acquires the speech recognition information stored in the speech recognition table 1015, and arranges the text included in the speech recognition information in the order of utterance time. Execute the binding process to bind the text as a text group, calculate the importance of the text and the text group after the binding process, extract the text to be used for the summary document based on the importance level, generate the summary document, and
<要約処理(第一実施例)の詳細>
サーバ10の要約部1046は、定期的に要約処理(第一実施例)を自動的に実行する。
ステップS101において、サーバ10の要約部1046は、定期的に要約処理(第一実施例)を開始する。なお、サーバ10の要約部1046は、ユーザと顧客との間の通話の終了を検知して、要約処理(第一実施例)を開始するものとしても良い。
<Details of summary processing (first embodiment)>
The summarizing
In step S101, the summarizing
ステップS102において、サーバ10の要約部1046は、通話テーブル1014を参照し、音声認識有無の項目に、音声認識処理が完了したことを示す情報が記憶されているレコードを検索する。サーバ10の要約部1046は、音声認識処理が完了したことを示す情報が記憶されているレコードが見つかると、当該レコードを取得しステップS103に進む(ステップS102のYes)。
ユーザと顧客との間の通話が終了した後、音声認識処理が完了するまでの間は、通話テーブル1014の該当レコードの音声認識有無の項目には、音声認識処理が完了したことを示す情報が記憶されていないため、サーバ10の要約部は、ステップS102にて待機する(ステップS102のNo)。
In step S102, the summarizing
After the end of the call between the user and the customer, until the voice recognition process is completed, information indicating that the voice recognition process has been completed is displayed in the voice recognition presence/absence item of the corresponding record in the call table 1014. Since it is not stored, the summary unit of the
ステップS103において、サーバ10の要約部1046は、ステップS102において取得したレコードの要約有無の項目にブランク、ヌル、その他、要約処理(第一実施例)が行われていないことを示す情報などが記憶されているレコードを検索する。なお、サーバ10の要約部1046は、通話テーブル1014に音声データが記憶されているものの、要約テーブル1016に通話IDが存在しないレコードを要約処理(第一実施例)が行われていないレコードと判定しても良い。
サーバ10の要約部1046は、要約処理(第一実施例)が行われていないレコードが見つかると、当該レコードを取得しステップS104に進む(ステップS102のYes)。
In step S103, the
When the summarizing
ステップS104において、サーバ10の要約部1046は、要約処理(第一実施例)が行われていないレコードの通話IDに基づき音声認識テーブル1015を検索し、テキスト、発話時刻、話者のレコードからなる音声認識情報を取得する。
In step S104, the summarizing
ステップS105において、サーバ10の要約部1046は、取得した音声認識情報に対してバインディング処理を実行する。具体的には、取得した音声認識情報を発話時刻の順番に並べた場合に、話者情報が変化する前後の複数のテキストをまとめたテキスト群を生成する。テキスト群は、配列などのデータ構造であり、話者が異なる複数のテキストを含む情報である。テキスト群には、発話時刻、話者などの他の音声認識情報が含まれていても良い。
In step S105, the summarizing
図21は、要約処理(第一実施例)におけるバインディング処理の概要を示した図であり、話者ごとのテキストを発話時刻の順番に下方向に並べたものである。ユーザ、顧客ごとの発話区間ごとに認識されたテキストに対し、それぞれU1、U2・・・、C1、C2・・・と識別番号を採番してある。サーバ10の要約部1046は、例えば話者情報が顧客からユーザに変化するC4、U5のテキストをまとめてテキスト群を生成する。
FIG. 21 is a diagram showing an overview of the binding process in the summarization process (first embodiment), in which texts for each speaker are arranged downward in order of utterance time. Identification numbers such as U1, U2, . . . , C1, C2 . The summarizing
なお、本開示においては、ユーザおよび顧客のそれぞれ1つずつのテキストをまとめてテキスト群を生成したが、話者情報が変化する前後の2以上のテキストをまとめてテキスト群を生成しても良い。話者情報が変化する前後のテキスト(例えば、C4、U5など)に対して予め重要度を算定し、重要度の値に応じた数のテキストをまとめてテキスト群を生成しても良い。例えば、重要度が大きいほどより多くのテキストをまとめてテキスト群を生成しても良い。
3者以上の会話においても、話者情報が変化する前後の複数のテキストをまとめたテキスト群を生成するものとしても良い。
In the present disclosure, a text group is generated by combining one text from each of the user and the customer, but two or more texts before and after the change in speaker information may be combined to generate a text group. . The importance may be calculated in advance for the texts before and after the speaker information changes (for example, C4, U5, etc.), and a text group may be generated by collecting the number of texts according to the value of the importance. For example, a text group may be generated by collecting more texts as the degree of importance is higher.
Even in conversations involving three or more parties, a text group may be generated by summarizing a plurality of texts before and after the change in speaker information.
ステップS106において、サーバ10の重要度算定部1045は、テキストおよびテキスト群に対して重要度算定処理を行う。重要度の算定方法は、任意の重要文抽出アルゴリズムを適用してもよい。
本開示においては、LexRankとよばれるアルゴリズムによる重要度の算定手法を一例として説明する。LexRankにおいては、複数の入力文章を対象として、それぞれの入力文章を形態素解析により単語ごとに分割し、各文章ごとの類似度(例えば、コサイン類似度)を算定し、文章間の類似度に基づくグラフ構造を算定し、グラフ構造に基づき各文章ごとの重要度を算定するアルゴリズムである。
具体的には、サーバ10の重要度算定部1045は、テキストおよびテキスト群のそれぞれを1つの入力文章として、LexRankを適用することにより、テキストおよびテキスト群ごとに重要度を算定する。
In step S106, the
In the present disclosure, a method of calculating importance by an algorithm called LexRank will be described as an example. In LexRank, a plurality of input sentences are targeted, each input sentence is divided into words by morphological analysis, the similarity for each sentence (for example, cosine similarity) is calculated, and the similarity between sentences is calculated. This algorithm calculates the graph structure and calculates the importance of each sentence based on the graph structure.
Specifically, the
<重要度算定処理(第一実施例)>
重要度算定処理(第一実施例)において、サーバ10の重要度算定部1045は、テキスト群に含まれる複数のテキストを結合したテキストを1つの文章として扱いLexRankを適用する。例えば、C4「田口様いらっしゃいますでしょうか。」と、U5「田口ですね。」を結合した、「田口様いらっしゃいますでしょうか。田口ですね。」を1つの文章としてLexRankを適用し重要度を算定する。
<Importance degree calculation processing (first embodiment)>
In the importance calculation process (first embodiment), the
<重要度算定処理(第二実施例)>
重要度算定処理(第二実施例)において、サーバ10の重要度算定部1045は、テキスト群に含まれる複数のテキストのそれぞれを独立した文章としてLexRankを適用する。サーバ10の重要度算定部1045は、独立した文章に対して算定された重要度の和をテキスト群の重要度とする処理を実行する。
例えば、サーバ10の重要度算定部1045は、テキスト群に含まれるC4、U5のそれぞれの文章に対してLexRankを適用し、C4、U5のそれぞれに対して重要度を算定する。その後、サーバ10の重要度算定部1045は、C4の重要度と、U5の重要度の和をテキスト群の重要度とする処理を実行する。
なお、独立した文章に対して算定された重要度に対して統計処理を行なった統計値(平均値、中央値、最頻値、最大値、最小値など)をテキスト群の重要度としても良い。具体的には、独立した文章に対して算定された重要度の平均、最大値などがテキスト群の重要度として好適である。
<Importance degree calculation processing (second embodiment)>
In the importance calculation process (second embodiment), the
For example, the
Note that statistical values (average, median, mode, maximum, minimum, etc.) obtained by statistically processing the importance calculated for independent sentences may be used as the importance of the text group. . Specifically, the average or maximum value of importance calculated for independent sentences is suitable as the importance of the text group.
ステップS107において、サーバ10の要約部1046は、所定値以上の重要度が算定されたテキストまたはテキスト群を抽出する。サーバ10の要約部1046は、抽出されたテキストおよびテキスト群に含まれるテキストを、音声認識テーブル1015における各テキストの発話時刻、話者とともに要約テーブル1016に記憶する。これにより、要約テーブル1016に要約情報が記憶される。サーバ10の要約部1046は、通話テーブル1014の要約有無の項目に、要約処理(第一実施例)が完了したことを示す情報を記憶する。
In step S107, the summarizing
サーバ10の要約部1046は、抽出されたテキストおよびテキスト群に含まれるテキストを、音声認識テーブル1015における各テキストの発話時刻、話者とともに1つの文章(要約テキスト)に結合し、通話IDおよび要約テキストを含むリクエストを生成し、CRMシステム30に送信する。
CRMシステム30は、リクエストを受信すると、リクエストに含まれる通話IDから応対履歴テーブル3013を検索し、当該通話IDを有するレコードのコメントの項目に、受信した要約テキストを記憶する。
The summarizing
When the request is received, the
<要約処理(第二実施例)>
要約処理(第二実施例)は、音声認識情報から要約情報を生成し記憶する処理の第二の実施形態である。以下、要約処理(第二実施例)の詳細を図15のフローチャートを用いて説明する。
<Summary processing (second embodiment)>
Summary processing (second embodiment) is a second embodiment of processing for generating and storing summary information from speech recognition information. Details of the summarization process (second embodiment) will be described below with reference to the flowchart of FIG.
<要約処理(第二実施例)の概要>
要約処理(第二実施例)は、音声認識テーブル1015に記憶された音声認識情報を取得し、音声認識情報に含まれるテキストに対して重要度を算定し、当該重要度に基づき要約文書に用いるテキストを抽出する。音声認識情報に含まれるテキストを発話時刻の順番に並べた場合に、抽出したテキストに対して話者が変化する前後のテキストを要約文書に用いるテキストとして抽出し、要約文書を生成しサーバ10およびCRMシステム30に記憶する一連の処理である。
<Overview of Summary Processing (Second Embodiment)>
The summarization process (second embodiment) acquires the speech recognition information stored in the speech recognition table 1015, calculates the importance of the text included in the speech recognition information, and uses it for the summary document based on the importance. Extract text. When the texts included in the speech recognition information are arranged in the order of utterance time, the text before and after the speaker changes in the extracted text is extracted as the text to be used for the summary document, and the summary document is generated. It is a series of processes stored in the
<要約処理(第二実施例)の詳細>
ステップS201からステップS204までの処理は、要約処理(第一実施例)のステップS101からステップS104までの処理と同様であるため説明を省略する。
<Details of summary processing (second embodiment)>
The processing from step S201 to step S204 is the same as the processing from step S101 to step S104 of the summarization processing (first embodiment), so description thereof is omitted.
ステップS205において、サーバ10の重要度算定部1045は、取得した音声認識情報に対して重要度算定処理を行う。重要度の算定方法は、任意の重要文抽出アルゴリズムを適用しても構わないが、本開示においては要約処理(第二実施例)と同様にLexRankとよばれるアルゴリズムによる重要度の算定手法を一例として説明する。
In step S205, the
<重要度算定処理(第三実施例)>
サーバ10の重要度算定部1045は、取得した音声認識情報に含まれるテキストを1つの文章として扱いLexRankを適用する。図22は、要約処理(第二実施例)における追加抽出処理の概要を示した図であり、話者ごとのテキストを発話時刻の順番に下方向に並べたものである。図22の事例では、U1からU8、C1からC6のテキストすべてに対してそれぞれ重要度が算定される。
<Importance degree calculation processing (third embodiment)>
The
ステップS206において、サーバ10の要約部1046は、所定値以上の重要度が算定されたテキストを抽出する。サーバ10の要約部1046は、抽出されたテキストと話者が異なり、発話時刻において前後するテキストを追加抽出する。
例えば、テキストU5が抽出された場合に、話者が異なり発話時刻において前後するテキストC4を追加抽出する。
In step S206, the summarizing
For example, when the text U5 is extracted, the text C4 that is spoken by a different speaker and whose utterance time is before or after is additionally extracted.
なお、本開示においては、話者が異なり発話時刻において前後する1のテキストを追加抽出するとしたが、2以上のテキストを追加抽出しても良い。抽出されたテキストの重要度の値に応じた数のテキストを追加抽出しても良い。例えば、重要度が大きいほどより多くの話者が異なり発話時刻において前後するテキストを追加抽出しても良い。
3者以上の会話においても、話者情報が変化する前後の複数のテキストを追加抽出しても良い。
Note that, in the present disclosure, one text is additionally extracted from different speakers and the utterance time is preceded or followed, but two or more texts may be additionally extracted. A number of additional texts may be extracted according to the importance value of the extracted texts. For example, the greater the importance, the more texts of different speakers and the earlier and later texts may be additionally extracted.
Also in a conversation involving three or more parties, a plurality of texts before and after the change in speaker information may be additionally extracted.
ステップS207の処理は、要約処理(第一実施例)のステップS107の処理と同様であるため説明を省略する。 Since the process of step S207 is the same as the process of step S107 of the summarization process (first embodiment), description thereof is omitted.
<要約処理の変形例>
要約処理(第一実施例)、要約処理(第二実施例)において、サーバ10の重要度算定部1045は、テキストの重要度算定にあたり、テキストに含まれるフィラーなどのユーザと顧客との間で行われた通話を把握する上で無意味な情報を除外して、重要度の算定を行っても良い。
同様に、要約処理(第一実施例)、要約処理(第二実施例)の際に、予めテキストに含まれるフィラーなどのユーザと顧客との間で行われた通話を把握する上で無意味な情報をテキストから除外して、要約情報を要約テーブル1016に記憶する構成としても良い。
<Modified example of summary processing>
In the summarization process (first embodiment) and the summarization process (second embodiment), the
Similarly, during the summarization process (first embodiment) and the summarization process (second embodiment), it is meaningless to grasp the call made between the user and the customer, such as fillers included in the text in advance. Such information may be excluded from the text, and the summary information may be stored in the summary table 1016. FIG.
<要約表示処理>
要約表示処理は、要約情報を要約文書としてユーザに対して表示する処理である。以下、要約表示処理の詳細を図23の画面例を用いて説明する。
<Summary display processing>
Summary display processing is processing for displaying summary information to the user as a summary document. The details of the summary display process will be described below using the screen example of FIG.
<要約表示処理の概要>
要約表示処理は、要約テーブル1016に記憶された要約情報を取得し、要約情報に含まれるテキストを話者ごとに異なる色の吹き出しに格納し、発話時刻の順番に並べ、要約文書としてユーザ端末20のディスプレイ2081に表示する一連の処理である。
<Overview of summary display processing>
The summary display process acquires the summary information stored in the summary table 1016, stores the text included in the summary information in balloons of different colors for each speaker, arranges them in order of utterance time, and displays them as a summary document on the
<要約表示処理の詳細>
ユーザは、サーバ10へログインし所定の操作を行なうことにより、自身または自身が所属する組織の同僚などが過去に顧客と行なった通話履歴を一覧表示するためのリクエストをサーバ10へ送信する。サーバ10は、リクエストを受信すると、通話テーブル1014を照会し過去の通話履歴のレコードをユーザ端末20へ送信する。ユーザ端末20は、受信した過去の通話履歴のレコードをユーザ端末20のディスプレイ2081に一覧表示する。
<Details of summary display processing>
By logging into the
ユーザは、ユーザ端末20を操作し要約情報を確認したい通話履歴のレコードを選択し、要約表示ボタン等を押下することにより、選択した通話履歴に関し、通話IDを含む要約表示に関するリクエストをサーバ10へ送信する。
サーバ10は、リクエストを受信すると、通話IDに基づき要約テーブル1016を検索し、当該通話IDに関する要約情報をユーザ端末20へ送信する。
The user operates the
Upon receiving the request, the
ユーザ端末20は、受信した要約情報を要約文書としてディスプレイ2081に表示する。ユーザ端末20に表示される要約文書を、図23に基づき説明する。ユーザ端末20のディスプレイ2081は、要約表示画面70を表示する。要約表示画面は、ユーザの発話内容(テキスト)が発話時刻701とともに吹き出し702で表示され、顧客の発話内容(テキスト)が発話時刻711とともに吹き出し712で表示される。ユーザの発話内容を表示する吹き出し702は、吹き出しの方向が左側を向いており、吹き出しの方向が右側を向いている顧客の発話内容を表示する吹き出し712とは識別可能なように表示される。
ユーザ端末20の表示制御部1052は、取得した要約情報に含まれる、テキスト、発話時刻、話者の情報に基づき、要約表示画面70の上部から、発話時刻順に、話者がユーザであるテキストをユーザの発話内容を表示する吹き出し702に、話者が顧客であるテキストを顧客の発話内容を表示する吹き出し712に区別できる態様で一覧表示させる。
The
ユーザの発話内容を表示する吹き出し702の色は、顧客の発話内容を表示する吹き出し712の色と異なっている。これにより、ユーザが要約文書を確認するときに、発話内容の話者を視覚的に確認することができる。また、発話内容を表示する吹き出し702、712の色は、要約処理(第一実施例)、要約処理(第二実施例)において算定された発話内容が含むテキストの重要度に基づき、色の明度、色相、彩度、濃さの少なくともいずれか1つを変化させて表示させても良い。例えば、重要度が高いテキストを含む吹き出し702、712ほど色を濃くしても良い。これにより、ユーザが要約文書を確認するときに、発話内容ごとの重要度を視覚的に確認することができ、短時間で文章内容を理解することができる。
The color of
<音声認識表示処理>
音声認識表示処理は、音声認識情報を音声認識文書としてユーザに対して表示する処理である。
<Voice Recognition Display Processing>
The voice recognition display process is a process of displaying voice recognition information as a voice recognition document to the user.
<音声認識表示処理の概要>
音声認識表示処理は、音声認識テーブル1015に記憶された音声認識情報を取得し、音声認識情報に含まれるテキストを話者ごとに異なる色の吹き出しに格納し、発話時刻の順番に並べ、音声認識文書としてユーザ端末20のディスプレイ2081に表示する一連の処理である。
<Overview of speech recognition display processing>
The speech recognition display process acquires the speech recognition information stored in the speech recognition table 1015, stores the text included in the speech recognition information in balloons of different colors for each speaker, arranges them in order of utterance time, and performs speech recognition. This is a series of processes for displaying on the
<音声認識表示処理の詳細>
音声認識表示処理は、要約表示処理において、要約情報に替えて音声認識情報を用いる、即ち、要約テーブル1016に替えて音声認識テーブル1015を用いるのみで処理内容は同一であるため説明を省略する。音声認識表示処理においては、図23と略同一な音声認識表示画面に、音声認識情報が話者ごとに区別可能な態様で吹き出し形式で一覧表示される。
音声認識表示処理において、ユーザの発話内容を表示する吹き出しの色は、顧客の発話内容を表示する吹き出しの色と異なっている。これにより、ユーザが音声認識文書を確認するときに、発話内容の話者を視覚的に確認することができる。また、発話内容を表示する吹き出しの色は、要約処理(第一実施例)、要約処理(第二実施例)において算定された発話内容が含むテキストの重要度に基づき、色の明度、色相、彩度、濃さの少なくともいずれか1つを変化させて表示させても良い。例えば、重要度が高いテキストを含む吹き出しほど色を濃くしても良い。これにより、ユーザが音声認識文書を確認するときに、発話内容ごとの重要度を視覚的に確認することができ、短時間で文章内容を理解することができる。つまり、ユーザが、ユーザと顧客との間で行われた通話の音声認識情報をすべて確認する場合においても、重要な発話内容のみを視覚的に直感的に把握することができる。
<Details of speech recognition display processing>
The speech recognition display process uses the speech recognition information instead of the summary information in the summary display process, that is, the speech recognition table 1015 is used instead of the summary table 1016, and the processing contents are the same, so the explanation is omitted. In the voice recognition display process, a list of voice recognition information is displayed in balloon form on a voice recognition display screen substantially the same as that shown in FIG.
In the speech recognition display process, the color of the speech balloon displaying the content of the user's utterance is different from the color of the speech balloon displaying the content of the customer's utterance. This allows the user to visually confirm the speaker of the utterance content when confirming the speech recognition document. In addition, the color of the speech balloon displaying the utterance content is determined based on the degree of importance of the text included in the utterance content calculated in the summary processing (first embodiment) and the summary processing (second embodiment). At least one of saturation and density may be changed for display. For example, the color of a balloon containing text of higher importance may be darker. As a result, when the user confirms the speech recognition document, the user can visually confirm the importance of each utterance content, and can understand the sentence content in a short time. In other words, even when the user confirms all the speech recognition information of the call made between the user and the customer, the user can visually and intuitively grasp only the important utterance contents.
<応対メモ付与処理>
応対メモ付与処理は、ユーザと顧客との間で行われる通話に対して応対メモを自動的に付与する処理である。以下、応対メモ付与処理の詳細を図16のフローチャートを用いて説明する。
<Response memo addition processing>
The response memo adding process is a process of automatically adding a response memo to a call between the user and the customer. The details of the response memo adding process will be described below with reference to the flowchart of FIG.
<応対メモ付与処理の概要>
応対メモ付与処理は、ユーザと顧客との間で行われる通話に関する音声データを取得し、音声データに対して学習モデルを適用することにより応対メモ候補を推論し、推論された応対メモ候補を当該通話に関連する通話データに紐づけて記憶する一連の処理である。
<Overview of processing to add a response memo>
In the answering memo adding process, voice data relating to a call between a user and a customer is obtained, a learning model is applied to the voice data to infer answering memo candidates, and the inferred answering memo candidates are sent to the relevant party. This is a series of processes that are stored in association with call data related to the call.
<応対メモ付与処理の詳細>
ステップS301において、サーバ10の応対メモ付与部1049は、ユーザと顧客との間の通話の終了を検知して、応対メモ付与処理を開始する。
<Details of response memo addition processing>
In step S301, the response
ステップS302において、サーバ10の応対メモ付与部1049は、処理対象となる通話の通話属性を取得する。
具体的には、サーバ10の応対メモ付与部1049は、処理対象となる通話の通話IDに基づき、通話テーブル1014を検索し、通話カテゴリ、受発信種別を取得する。
サーバ10の応対メモ付与部1049は、処理対象となる通話のユーザIDに基づき、ユーザテーブル1012を検索し、ユーザ属性を取得する。サーバ10の応対メモ付与部1049は、通話のユーザIDに基づき、ユーザテーブル1012に記憶された組織IDから、組織テーブル1013を検索し、ユーザが所属する組織の組織名、組織属性を取得する。
サーバ10の応対メモ付与部1049は、処理対象となる通話の顧客IDに基づき、CRMシステム30へ問い合わせを行い、CRMシステム30の顧客テーブル3012から顧客属性、顧客組織名、顧客組織属性を取得する。
サーバ10の応対メモ付与部1049は、すべての通話属性を取得する必要はなく、必要に応じて複数の通話属性のうち少なくとも1つの通話属性を取得すれば良い。
In step S302, the response
Specifically, the response
The response
The response
The response
ステップS303において、サーバ10の応対メモ付与部1049は、取得した通話属性に基づき、学習モデルを選択する。学習モデルは、通話属性ごとに用意されていてもよいし、複数の通話属性の組み合わせ、例えば、ユーザ属性および顧客属性の組み合わせごとに用意されていても良い。
学習モデルは、任意の機械学習、深層学習モデルなどを含み、通話属性に応じて作成されたデータセットにより学習されている。学習処理の詳細は後述する。
本開示においては、深層学習モデルを学習モデルの一例として説明する。深層学習モデルは、RNN(Recurrent Neural Network)、LSTM(Long Short Term Memory)、GRU(Gated Recurrent Unit)など、任意の時系列データを入力データとする深層学習モデルであればどのような学習モデルであっても構わない。学習モデルは、例えば、Attention、Transformerなどを含む任意の深層学習モデルを含む。
In step S303, the response
The learning model includes arbitrary machine learning, deep learning models, etc., and is learned from a data set created according to call attributes. Details of the learning process will be described later.
In this disclosure, a deep learning model will be described as an example of a learning model. The deep learning model is any deep learning model that takes arbitrary time series data as input data, such as RNN (Recurrent Neural Network), LSTM (Long Short Term Memory), GRU (Gated Recurrent Unit), etc. It doesn't matter if there is. A learning model includes, for example, any deep learning model including Attention, Transformer, and the like.
ステップS304において、サーバ10の応対メモ付与部1049は、処理対象となる通話の音声データを取得し、当該音声データを選択した学習モデルの入力データとして適用することにより、出力データとして複数の応対メモ候補(応対メモ群)が確率分布とともに出力(推論)される。
具体的には、応対メモ「AAA」、「BBB」、「CCC」などに対して、それぞれ「0.6」、「0.3」、「0.1」などの確率分布が出力される。確率分布はソフトマックス関数などで正規化されていても良いし、正規化されていなくても構わない。
In step S304, the response
Specifically, probability distributions such as "0.6", "0.3", and "0.1" are output for correspondence notes "AAA", "BBB", "CCC", and the like, respectively. The probability distribution may or may not be normalized by a softmax function or the like.
ステップS305において、サーバ10の応対メモ付与部1049は、出力された応対メモ候補のうち最も確率が高い応対メモ候補を、処理対象となる通話の通話IDと紐付けて応対メモテーブル1017のメモ内容の項目に記憶する。付与日時の項目には、現在日時を記憶しても良い。付与者IDの項目には、サーバ10などのユーザ以外のシステムが自動的に付与したことを示す情報を記憶しても良い。
なお、サーバ10の応対メモ付与部1049は、出力された応対メモ候補のうち、確率が所定値以上の複数の応対メモ候補を、応対メモテーブル1017のメモ内容の項目に記憶しても良い。
In step S305, the response
Note that the response
<応対メモ付与処理(変形例)>
ステップS303において、サーバ10の応対メモ付与部1049は、複数の異なる通話属性に基づき、複数の学習モデルを選択しても良い。例えば、サーバ10の応対メモ付与部1049は、ユーザ属性ごとに用意された第1の学習モデル、顧客属性ごとに用意された第2の学習モデルを選択しても良い。このとき、サーバ10の応対メモ付与部1049は、任意の複数個の通話属性に基づき、複数の学習モデルを選択するものとしても良い。
<Response memo addition processing (modification)>
In step S303, the response
ステップS304において、サーバ10の応対メモ付与部1049は、処理対象となる通話の音声データを取得し、当該音声データを選択した複数の学習モデルの入力データとして適用することにより、適用した学習モデルごとに、出力データとして複数の応対メモ候補が確率分布とともに出力(推論)される。
サーバ10の応対メモ付与部1049は、複数の応対メモ候補の確率分布に対して任意の演算を適用することにより、応対メモ候補ごとの確率分布を算定しても良い。例えば、複数の応対メモ候補の確率分布に対して和や積をとったものを、出力する応対メモ候補ごとの確率分布としても良い。
具体的には、応対メモ「AAA」、「BBB」、「CCC」などに対して、第1の学習モデルに対する確率分布の推論結果が「0.6」、「0.3」、「0.1」、第2の学習モデルに対する確率分布の推論結果が「0.3」、「0.4」、「0.1」である場合において、それらの積である「0.18」、「0.12」、「0.01」を、応対メモ「AAA」、「BBB」、「CCC」の確率分布としても良い。確率分布はソフトマックス関数などで正規化されていても良いし、正規化されていなくても構わない。
In step S304, the response
The reception
Specifically, the inference results of the probability distribution for the first learning model are "0.6", "0.3", "0. 1”, and when the inference results of the probability distribution for the second learning model are “0.3”, “0.4”, and “0.1”, their products “0.18”, “0 .12” and “0.01” may be used as the probability distributions of the response memos “AAA”, “BBB” and “CCC”. The probability distribution may or may not be normalized by a softmax function or the like.
<応対メモ提案処理>
応対メモ提案処理は、ユーザと顧客との間で行われる通話において、ユーザに対して応対メモ候補を提案する処理である。以下、応対メモ付与処理の詳細を図17のフローチャートを用いて説明する。
<Response memo proposal processing>
The answering memo proposing process is a process of proposing answering memo candidates to the user in a call between the user and the customer. The details of the response memo adding process will be described below with reference to the flowchart of FIG.
<応対メモ提案処理の概要>
応対メモ提案処理は、ユーザと顧客との間で行われる通話に関する音声データを取得し、音声データに対して学習モデルを適用することにより応対メモ候補を推論し、推論された応対メモ候補をユーザに対して提案し、ユーザが選択した応対メモ候補を当該通話に関連する通話データに紐づけて記憶する一連の処理である。
<Overview of response memo proposal processing>
The processing for proposing a response memo acquires voice data relating to a call between a user and a customer, applies a learning model to the voice data, infers a candidate for a response memo, and presents the inferred candidate for a response memo to the user. This is a series of processes in which an answering memo candidate selected by the user is stored in association with call data related to the call.
<応対メモ提案処理の詳細>
ステップS401からステップS404までの処理は、応対メモ付与処理のステップS301からステップS304までの処理と同様であるため説明を省略する。
<Details of response memo proposal processing>
Since the processing from step S401 to step S404 is the same as the processing from step S301 to step S304 of the reception memo addition processing, description thereof is omitted.
ステップS405において、サーバ10の応対メモ提案部1048は、出力された応対メモ候補および確率分布をユーザ端末20に送信する。ユーザ端末20のディスプレイ2081は、受信した応対メモ候補をユーザが選択可能なように一覧表示する。
このとき、ユーザ端末20は、応対メモ候補ごとの確率を応対メモ候補の優先順位として、優先順位が高い応対メモ候補ほど、ユーザ端末20のディスプレイ2081のユーザが選択しやすい位置に表示しても良い。例えば、優先順位が高い応対メモ候補をリストの上位に表示させたり、複数の応対メモ候補をカルーセルまたはページ送りにより表示する場合にはより先頭のページに表示させることが考えられる。
つまり、ユーザ端末20は、確率が高い応対メモ候補を、ユーザ端末20のディスプレイ2081のユーザが選択しやすい位置に表示する。これにより、ユーザは、複数の応対メモからより確からしい応対メモを、より正確に簡単に選択することができる。
In step S<b>405 , the answering
At this time, the
That is, the
ステップS406において、ユーザは、ユーザ端末20のディスプレイ2081に表示された応対メモ候補から1または複数の応対メモ候補を選択する。ユーザは、ユーザ端末20のディスプレイ2081に表示された送信ボタンを押下することにより、選択した応対メモ候補およびユーザID2011をサーバ10へ送信する。
In step S<b>406 , the user selects one or more reception memo candidates from the reception memo candidates displayed on the
ステップS407において、サーバ10の応対メモ付与部1049は、受信した応対メモ候補、ユーザID2011を処理対象となる通話の通話IDと紐付けて応対メモテーブル1017のメモ内容、付与者IDの項目に記憶する。付与日時の項目には、現在日時を記憶しても良い。
In step S407, the response
<学習処理>
学習処理は、応対メモ付与処理、応対メモ提案処理などで利用する学習モデルを構築する処理である。
<Learning processing>
The learning process is a process of constructing a learning model to be used in a response memo addition process, a response memo proposal process, and the like.
<学習処理の概要>
学習処理は、通話に関する通話属性ごとに、ユーザと顧客との間で行われた通話に関する音声データを入力データ、当該音声データに紐付けられたメモ内容を出力データ(出力ベクトル)として学習モデルのパラメータを学習させるための処理である。
<Overview of learning process>
In the learning process, for each call attribute related to the call, the voice data related to the call between the user and the customer is used as input data, and the memo content linked to the voice data is used as output data (output vector) of the learning model. This is a process for learning parameters.
<学習処理の詳細>
サーバ10の学習部1047は、通話テーブル1014を検索し、音声データおよび、通話IDを介して応対メモテーブル1017を参照することで音声データに紐付けられたメモ内容を取得する。サーバ10の学習部1047は、音声データを通話属性ごとに分割し、通話属性ごとに訓練データ、テストデータ、検証データなどのデータセットを作成する。
サーバ10の学習部1047は、通話属性ごとに用意した学習モデルに対し、それぞれの通話属性に応じたデータセットを用いることで、学習モデルのパラメータを学習させる。
<Details of learning process>
The
The
サーバ10の学習部1047は、所定の応対メモと紐付けられた音声データを除外しても良い。具体的には、サーバ10の学習部1047は、データセットを作成する際に、メモ内容が「留守番電話」、「顧客(担当者)不在」、「顧客受付ブロック」など、顧客との通話が実質的に成立していない通話であることを示すメモ内容が付与された通話に関する音声データを除外する。これにより、メモ内容を推論する学習モデルの作成に望ましくないデータをデータセットから除外することにより、より精度の高い学習モデルを作成することができる。
The
一例として、サーバ10の学習部1047は、通話を行うユーザに関する職種、所属組織の業種、所属組織の名称の何れか1つのユーザ属性に関する情報ごとにデータセットを作成しても良い。
一例として、サーバ10の学習部1047は、通話を行う顧客に関する職種、顧客の所属組織の業種、顧客の所属組織の名称の何れか1つの顧客属性に関する情報ごとにデータセットを作成しても良い、
一例として、サーバ10の学習部1047は、テレフォンオペレータ、テレマーケティング、カスタマーサポート、テクニカルサポートなどの行われた通話の通話カテゴリに関する情報ごとにデータセットを作成しても良い。
一例として、サーバ10の学習部1047は、ユーザから顧客に対して発信されたアウトバウンド、顧客からユーザが受信したインバウンドのいずれかに関する情報ごとにデータセットを作成しても良い。
As an example, the
As an example, the
As an example, the
As an example, the
サーバ10の学習部1047は、通話を行うユーザのユーザ属性ごとに学習モデルを学習させる際に、ユーザの音声のみを抽出(顧客の音声を除外)する処理を行ったものを入力データとして学習処理を行わせても良い。この場合、応対メモ付与処理、応対メモ提案処理のステップS304、S404における推論処理における、学習モデルへ適用する音声データに対しても同様に、ユーザの音声のみを抽出(顧客の音声を除外)する処理を行ったものを入力データとする処理を行う。
ユーザ属性に応じた学習モデルは、ユーザの発話内容のみに基づき学習させることにより、より正確に応対メモを推論することができる学習モデルを得ることができる。
When the
A learning model according to user attributes can obtain a learning model that can more accurately infer a response memo by making the learning model learn based only on the contents of the user's utterances.
サーバ10の学習部1047は、通話を行う顧客の顧客属性ごとに学習モデルを学習させる際に、顧客の音声のみを抽出(ユーザの音声を除外)する処理を行ったものを入力データとして学習処理を行わせても良い。この場合、応対メモ付与処理、応対メモ提案処理のステップS304、S404における推論処理における、学習モデルへ適用する音声データに対しても同様に、顧客の音声のみを抽出(ユーザの音声を除外)する処理を行ったものを入力データとする処理を行う。
顧客属性に応じた学習モデルは、顧客の発話内容のみに基づき学習させることにより、より正確に応対メモを推論することができる学習モデルを得ることができる。
When the
A learning model according to customer attributes can obtain a learning model that can more accurately infer a response memo by learning only based on the contents of the customer's utterances.
<学習処理の変形例>
本開示においては、学習モデルの入力データを音声データとしたが、音声データに対して任意の情報処理を行うことにより変換されたデータを入力データとしても良い。例えば、音声データに替えて当該音声データに対してテキスト認識を行うこと(テキスト起こし)により得られたテキストデータを入力データとしても良い。また、テキストデータに対して、任意の情報処理を行うことにより変換されたデータを入力データとしても良い。本開示における、学習モデルに音声データを適用することとは、そのように、ある音声データに対して任意の情報処理を行うことにより変換されたデータに対して学習モデルを適用することも含む。
この場合、応対メモ付与処理、応対メモ提案処理などの学習モデルにおける応対メモ候補を推論する際に、入力データである音声データに対して同様の情報処理を行い学習モデルを適用すれば良い。例えば、応対メモ付与処理、応対メモ提案処理などの学習モデルにおける応対メモ候補を推論する際に、音声データに替えて当該音声データに対してテキスト認識を行うこと(テキスト起こし)により得られたテキストデータを入力データとすれば良い。
<Modified Example of Learning Processing>
In the present disclosure, voice data is used as the input data for the learning model, but data converted by performing arbitrary information processing on the voice data may be used as the input data. For example, instead of voice data, text data obtained by performing text recognition (text transcription) on the voice data may be used as input data. Data converted by performing arbitrary information processing on text data may be used as input data. In the present disclosure, applying speech data to a learning model also includes applying a learning model to data converted by performing arbitrary information processing on certain speech data.
In this case, when inferring an answering memo candidate in a learning model such as an answering memo addition process or an answering memo proposal process, the same information processing may be performed on voice data, which is input data, and the learning model may be applied. For example, text obtained by performing text recognition (text transcription) on voice data instead of voice data when inferring a response memo candidate in a learning model such as a response memo addition process, a response memo proposal process, etc. Data should be used as input data.
<スコア算定処理>
スコア算定処理は、ユーザごとの通話スコアを算定する処理である。以下、スコア算定処理の詳細を図18のフローチャートを用いて説明する。
<Score calculation process>
The score calculation process is a process of calculating a call score for each user. The details of the score calculation process will be described below with reference to the flowchart of FIG.
<スコア算定処理の概要>
スコア算定処理は、ユーザごとの通話データに対して解析処理および統計処理を行うことにより、それぞれのユーザに対する通話スコアの算定を行う処理である。これにより、例えば、ユーザごとの顧客応対のスキルを定量的な指標で評価することができる。
<Overview of score calculation process>
The score calculation process is a process of calculating a call score for each user by performing analysis processing and statistical processing on call data for each user. Thereby, for example, the customer service skill of each user can be evaluated using a quantitative index.
<スコア算定処理の詳細>
ステップS501において、ユーザはユーザ端末20を操作することにより、サーバ10へユーザ一覧のリクエストを送信する。サーバ10のスコア算定部1050は、受信したリクエストに基づき、リクエストを送信したユーザと同じ組織に所属する(同じ組織IDを有する)ユーザの一覧をユーザテーブル1012から取得し、ユーザ端末20へ送信する。
ユーザ端末20のディスプレイ2081は、取得したユーザの一覧をユーザが選択可能なように一覧表示する。ユーザは、ユーザ端末20のディスプレイ2081に表示されたユーザの一覧から、スコアを算定したいユーザを選択する。ユーザは、ユーザ端末20のディスプレイ2081に表示された送信ボタンを押下することにより、選択されたユーザのユーザIDをサーバ10へ送信する。
<Details of score calculation processing>
In step S<b>501 , the user operates the
The
ステップS502において、サーバ10のスコア算定部1050は、受信したユーザIDに基づき通話テーブルを検索し、対象ユーザの通話ごとの解析データを取得する。
In step S502, the
このとき、サーバ10のスコア算定部1050は、所定の応対メモと紐付けられた解析データを除外しても良い。具体的には、サーバ10のスコア算定部1050は、対象ユーザの通話ごとの解析データを取得する際に、当該通話の通話IDにより紐付けられた応対メモテーブル1017のメモ内容を取得する。サーバ10のスコア算定部1050は、メモ内容が「留守番電話」、「顧客(担当者)不在」、「顧客受付ブロック」など、顧客との通話が実質的に成立していない通話であることを示すメモ内容が付与された通話に関する解析データを除外する。これにより、対象ユーザの通話スコアを算定する際に、通話が実質的に成立していない通話を除外することにより、より精度の高い通話スコアを算定することができる。
At this time, the
サーバ10のスコア算定部1050は、通話ごとの解析データに対して、所定のアルゴリズムを適用することにより通話スコアを算定する。具体的には、サーバ10のスコア算定部1050は、解析データに含まれる、各種指標値(沈黙回数、被り回数、ラリー回数など)の基準指標値などに対する乖離度に基づき、所定の重み付け和をとることにより通話スコアを算定する。このとき、指標値に対して正規化などの任意の処理を適用しても構わない。
The
ステップS504において、サーバ10のスコア算定部1050は、対象ユーザの通話ごとの解析データに基づき算定された通話スコアに対して統計処理を行った統計値(平均値、中央値、最頻値、最大値、最小値など)を対象ユーザのユーザ評価指標として算定する。具体的には、対象ユーザの通話ごとの解析データに基づき算定された通話スコアの平均がユーザ評価指標として好適である。
In step S504, the
サーバ10のスコア算定部1050は、算定したユーザ評価指標をユーザテーブル1012の、対象ユーザのレコードの評価指標の項目に記憶する。サーバ10のスコア算定部1050は、算定したユーザ評価指標を、スコア算定処理を実行したユーザのユーザ端末20へ送信する。ユーザ端末20のディスプレイ2081は、受信した対象ユーザのユーザ評価指標をユーザに対して表示する。
The
<連携モード設定処理>
連携モード設定処理は、通話記憶処理にあたり、CRMシステム30への通話情報の記憶処理を設定するための処理である。
<Link mode setting processing>
The cooperation mode setting process is a process for setting the storage process of the call information to the
<連携モード設定処理の概要>
ユーザまたは、ユーザが所属する組織、部署の管理者などはサーバ10が提供する所定のウェブサイトを開き、連携モード設定の編集画面を表示する。ユーザは、連携モード設定画面において、希望する連携モードを選択し、保存操作などを実行することによりサーバ10における、CRMシステム30への通話情報の記憶処理を設定することができる。
なお、ユーザが設定することなしに、連携モード設定は所定の規定値を予め有するものとしても良い。ユーザが、本開示にかかる音声通話サービスを初めて利用する際に設定するものとしても良い。
<Overview of link mode setting processing>
A user or an administrator of an organization or department to which the user belongs opens a predetermined website provided by the
It should be noted that the cooperation mode setting may have a predetermined prescribed value in advance without being set by the user. The user may set this when using the voice call service according to the present disclosure for the first time.
<連携モード設定処理の詳細>
ユーザまたは、ユーザが所属する組織、部署の管理者など(ユーザ等)は自身のユーザ端末20を操作し、ウェブブラウザなどによりサーバ10が提供する連携モード設定の編集画面に関するウェブサイトを開く。ユーザ等は、ユーザ端末20を操作し、連携モード設定画面において、希望する連携モードとして第1モードまたは第2モードのいずれかを選択する。ユーザ等は、ユーザ端末20を操作し、自身のユーザID2011、選択した連携モードをサーバ10へ送信する。サーバ10の設定部1042は、受信したユーザID2011によりユーザテーブル1012を検索し、当該ユーザのレコードの連携モードの項目に、受信した連携モードを記憶する。
なお、連携モードは、ユーザごとではなく、ユーザが所属する組織ごとに記憶しても良い。つまり、組織テーブル1013に設けられた連携モードの項目に記憶し、各ユーザの連携モードは、組織IDにより紐づけられた組織テーブル1013の連携モードの項目を参照しても良い。
<Details of link mode setting processing>
A user or an administrator of an organization or department to which the user belongs operates his or her
Note that the cooperation mode may be stored for each organization to which the user belongs instead of for each user. That is, it may be stored in the item of cooperation mode provided in the organization table 1013, and the cooperation mode of each user may refer to the item of cooperation mode of the organization table 1013 linked by the organization ID.
<CRM記憶処理>
CRM記憶処理は、本開示にかかる音声通話サービスを利用してユーザと顧客との間で行われる通話に関する情報をCRMシステム30に記憶するための処理である。以下、CRM記憶処理の詳細を図19のフローチャートを用いて説明する。
<CRM storage processing>
The CRM storage process is a process for storing, in the
<CRM記憶処理の概要>
CRM記憶処理は、ユーザと顧客との間で通話が開始された場合に、ユーザまたは組織ごとに設定された連携モードを取得し、連携モードの設定値に応じて通話に関するデータをCRMシステム30に記憶する一連の処理である。これにより、通話に関するデータは、CRMシステム30において、通話対象の顧客情報と紐付けて記憶される。
<Overview of CRM storage processing>
The CRM storage process acquires the cooperation mode set for each user or organization when a call is started between the user and the customer, and sends data related to the call to the
<CRM記憶処理の詳細>
ステップS601において、発信処理または受信処理(受発信処理)が行われた後に、ユーザと顧客との間で通話が開始される。これにより、サーバ10はユーザと顧客との間で通話が開始されたことを検知する。
<Details of CRM storage processing>
In step S601, after the originating process or the receiving process (receiving/transmitting process) is performed, a call is started between the user and the customer. Thereby, the
ステップS602において、サーバ10のCRM記憶制御部1051は、ユーザ端末20から受信したユーザID2011に基づきユーザテーブル1012を検索し、通話しているユーザの連携モードを取得する。なお、連携モードが組織ごとに組織テーブル1013等に記憶されている場合には、該当ユーザの組織IDに基づき組織テーブル1013等を検索し、該当ユーザに紐づけられている連携モードを、ユーザの連携モードとする。
In step S602, the CRM
ステップS603において、サーバ10のCRM記憶制御部1051は、取得した連携モードが、第1モードか第2モードか判定する。サーバ10のCRM記憶制御部1051は、取得した連携モードが、第1モードである場合にはステップS604に進む。サーバ10のCRM記憶制御部1051は、取得した連携モードが、第2モードである場合にはステップS604をスキップし、ステップS605に進む。
In step S603, the CRM
ステップS604において、サーバ10のCRM記憶制御部1051は、第1通話データおよび、当該通話の通話テーブル1014における通話IDを含む通話データを顧客IDと関連付けて記憶させるリクエストをCRMシステム30へ送信する。第1通話データとは、当該通話の開始後、通話が終了するまでに取得可能な通話に関するデータである。
具体的には、CRMシステム30は、通話IDと紐づけて、第1通話データとして通話をしているユーザのユーザID、顧客の顧客ID、発信日時(発信の場合のみ)、通話の開始日時を、それぞれ応対履歴テーブル3013のユーザID、顧客ID、ダイアル日時、通話開始日時の項目に記憶する。なお、第1通話データは、ユーザID、顧客の顧客ID、ダイアル日時、通話開始日時の少なくとも1つを含む構成としても構わない。
In step S604, the CRM
Specifically, the
ステップS605において、サーバ10のCRM記憶制御部1051は、ユーザと顧客との間の通話終了を検知する。
In step S605, the CRM
ステップS606において、サーバ10のCRM記憶制御部1051は、当該通話に関する音声解析処理が完了しているか否かを判定する。具体的に、サーバ10のCRM記憶制御部1051は、通話テーブル1014を参照し、当該通話のレコードにおける解析データの項目にブランク、ヌル、その他、音声解析処理が完了していないことを示す情報が記憶されているか否かを判定する。
音声解析処理が完了していない場合には、サーバ10のCRM記憶制御部1051は、ステップS606で待機する。音声解析処理が完了している場合は、サーバ10のCRM記憶制御部1051は、ステップS607に進む。
In step S606, the CRM
If the speech analysis processing has not been completed, the CRM
ステップS607において、サーバ10のCRM記憶制御部1051は、取得した連携モードが、第1モードか第2モードか判定する。サーバ10のCRM記憶制御部1051は、取得した連携モードが、第1モードである場合にはステップS609に進む。サーバ10のCRM記憶制御部1051は、取得した連携モードが、第2モードである場合にはステップS608に進む。
In step S607, the CRM
ステップS608において、サーバ10のCRM記憶制御部1051は、第2通話データおよび、当該通話の通話テーブル1014における通話IDを含む通話データを顧客IDと関連付けて記憶させるリクエストをCRMシステム30へ送信する。第2通話データとは、当該通話の終了後に取得可能な通話に関するデータである。
CRMシステム30は、通話IDと紐づけて、第2通話データとして通話をしているユーザのユーザID、顧客の顧客ID、発信日時(発信の場合のみ)、通話の開始日時、通話の終了日時をそれぞれ応対履歴テーブル3013のユーザID、顧客ID、ダイアル日時、通話開始日時、通話終了日時の項目に記憶する。CRMシステム30は、通話IDと紐づけて、通話に関する音声認識情報、通話に関する要約情報を応対履歴テーブル3013のコメントの項目に記憶する。具体的には、図24のコメント807の音声認識結果、要約結果のように、発話時刻、話者、テキストを結合したテキスト形式の情報に変換し応対履歴テーブル3013のコメントの項目に記憶する。CRMシステム30は、通話IDと紐づけて、通話IDに基づき生成したURLを応対履歴テーブル3013のURLの項目に記憶する。なお、応対履歴テーブル3013には、第2通話データの一部の情報のみを記憶する構成としても構わない。
In step S608, the CRM
The
ステップS609において、サーバ10のCRM記憶制御部1051は、第3通話データおよび、当該通話の通話テーブル1014における通話IDを含む通話データを顧客IDと関連付けて記憶させるリクエストをCRMシステム30へ送信する。第3通話データとは、当該通話の終了後に取得可能な通話に関するデータのうち、第1通話データに含まれるデータを除いたものである。
CRMシステム30は、通話IDと紐づけて、第2通話データとして通話の終了日時を応対履歴テーブル3013の通話終了日時の項目に記憶する。CRMシステム30は、通話IDと紐づけて、通話に関する音声認識情報、通話に関する要約情報を応対履歴テーブル3013のコメントの項目に追記する。具体的には、図24のコメント807の音声認識結果、要約結果のように、発話時刻、話者、テキストを結合したテキスト形式の情報に変換し応対履歴テーブル3013のコメントの項目に追記する。
このとき、サーバ10のCRM記憶制御部1051は、連携モードが第1モードである場合は、ステップS604において既に応対履歴テーブル3013にレコードが生成されているため、当該レコードのコメントに既に記載された内容を上書きしないように追記する。具体的には、連携モードが第1モードである場合は、応対履歴テーブル3013には当該通話のレコードが新たに作成され、他のユーザなどによりコメントへの追記が行われる場合がある。そのような場合にも、サーバ10のCRM記憶制御部1051は、当該レコードのコメントを上書きしないように追記する。
CRMシステム30は、通話IDと紐づけて、通話IDに基づき生成したURLを応対履歴テーブル3013のURLの項目に記憶する。なお、応対履歴テーブル3013には、第3通話データの一部の情報のみを記憶する構成としても構わない。
In step S609, the CRM
The
At this time, if the cooperation mode is the first mode, the CRM
The
<変形例>
サーバ10は、CRMシステム30の顧客テーブル3012などから顧客情報を取得し不図示のデータベース等に記憶することにより自身でも顧客情報を記憶する構成とできる。この場合、サーバ10のCRM記憶制御部1051は、通話IDに替えて、顧客IDまたは顧客の氏名、顧客組織名などを含むリクエストをCRMシステム30へ送信することにより、通話データを通話対象の顧客と関連付けて記憶しても良い。この場合も、通話に関するデータは、CRMシステム30において、通話対象の顧客情報と紐付けて記憶される。
<Modification>
The
本開示においては、サーバ10がユーザと顧客との間の通話に関するサービスも提供するが、通話サービスは不図示の外部サービスが提供しても良い。このとき、サーバ10のCRM記憶制御部1051は、当該外部サービスから提供されるユーザと顧客との間の通話開始に関するリクエストの受信をもって、ユーザと顧客との間の通話が開始したことを検知してCRM記憶処理を開始しても良い。同様に、当該外部サービスから提供されるユーザと顧客との間の通話終了に関するリクエストの受信をもって、ユーザと顧客との間の通話が終了したことを検知しても良い。その他、ユーザと顧客との間で行われる音声データに基づき、例えば、音声データがなくなったことをもって、ユーザと顧客との間の通話が終了したことを検知しても良い。
In the present disclosure, the
<通話表示処理>
通話表示処理は、CRMシステム30に記憶された通話データを、ユーザに表示するための処理である。以下、通話表示処理の詳細を図20のフローチャートを用いて説明する。図24は、通話表示処理におけるCRMシステム30が出力する画面例を示した図である。
<Call display processing>
Call display processing is processing for displaying call data stored in the
<通話表示処理の概要>
ユーザは、顧客との間の通話が終了した後に、ユーザ端末20を操作し、CRMシステム30に記憶された顧客との応対履歴を表示させる。ユーザは、ユーザ端末20を操作し、顧客との応対履歴から、解析データを表示させたい応対履歴を選択し、解析データの表示をリクエストすると、CRMシステム30はサーバ10から解析データを取得し、ユーザ端末20のディスプレイ2081に顧客情報と解析データとを表示させる。
<Overview of call display processing>
After finishing the call with the customer, the user operates the
<通話表示処理の詳細>
ステップS701において、ユーザはユーザ端末20を操作してCRMシステム30が提供する所定のウェブサイトを開き、応対履歴表示画面を表示させる。
具体的には、ユーザ端末20は、顧客情報の一覧表示に関するリクエストをCRMシステム30に送信する。CRMシステム30は、顧客テーブル3012を検索し、レコードをユーザ端末20へ送信する。ユーザ端末20のディスプレイ2081は、受信した顧客情報をユーザが選択可能なように一覧表示する。
ユーザは、ユーザ端末20のディスプレイ2081に一覧表示された顧客情報から、応対履歴を表示させたい顧客を選択し、「送信」ボタンを押下することにより、CRMシステム30に選択された顧客の顧客IDを送信する。CRMシステム30は、顧客IDを受信すると、応対履歴テーブル3013を検索し、選択された顧客に関する応対履歴のレコードをユーザ端末20へ送信する。ユーザ端末20のディスプレイ2081は、受信した応対履歴をユーザが選択可能なように一覧表示する。
<Details of call display processing>
In step S701, the user operates the
Specifically, the
The user selects a customer whose response history is to be displayed from the customer information displayed in a list on the
ステップS702において、ユーザは、ユーザ端末20のディスプレイ2081に一覧表示された応対履歴から、応対履歴を表示させたいレコードを選択し、「送信」ボタンを押下することにより、CRMシステム30に選択された応対履歴の応対履歴IDを送信する。CRMシステム30は、選択された応対履歴情報の表示画面を生成しユーザ端末20に送信する。ユーザ端末20のディスプレイ2081は、受信した応対履歴情報の表示画面を表示する。応対履歴情報の表示画面には、応対履歴テーブル3013に記憶された、URL、顧客情報、ユーザ情報、ダイアル日時、通話開始日時、通話終了日時、CRM記憶処理によりコメントに記憶された音声認識情報および要約情報などが表示される。
なお、ステップS701、S702の処理を行わずに、例えば、ユーザと顧客との間の通話が終了した後に、ユーザ端末20は、当該通話に関する応対履歴を選択された応対履歴とし、応対履歴IDをCRMシステム30へ送信しても良い。
In step S702, the user selects a record whose response history is to be displayed from the list of response histories displayed on the
For example, after the call between the user and the customer ends without performing the processes of steps S701 and S702, the
ステップS703において、ユーザは、ユーザ端末20を操作し、応対履歴情報の表示画面に表示された「解析結果」のボタン801を押下する。ユーザ端末20は、CRMシステム30に対して、当該通話に関連する応対履歴IDを含む解析結果を表示するリクエストを送信する。CRMシステム30は、受信した応対履歴IDに基づき、応対履歴テーブル3013を検索し通話IDを特定する。CRMシステム30は、特定した通話IDを含む、解析データを要求するリクエストをサーバ10へ送信する。サーバ10は、受信した通話IDに基づき通話テーブル1014を検索し、解析データの存在有無を確認する。解析データが存在しない場合には、ステップS703にて待機する。
解析データが存在する場合はステップS704に進む。
In step S703, the user operates the
If analysis data exists, the process proceeds to step S704.
ステップS704において、サーバ10は、受信した通話IDに基づき、通話テーブル1014を検索し、解析データをCRMシステム30に送信する。CRMシステム30は、受信した解析データに基づき、解析データを可視化した解析結果画面808を生成しユーザ端末20へ送信する。解析結果画面808は、図24に示す音声解析結果802、応対評価804、音声評価805、話速806を含む。解析結果画面808は、応対履歴テーブル3013のコメントの項目に記憶された、テキスト形式の音声認識結果、要約結果であるコメント807を含んでも良い。ユーザは、再生、停止ボタン803を押下することにより、通話音声を再生することができる。
CRMシステム30には、顧客テーブル3012などの顧客に関する情報が蓄積されており、ユーザはCRMシステム30に記憶された顧客に関する情報と、解析データを可視化した解析結果画面とを選択的に切り替えて表示したり、並べて表示することで、顧客との応対履歴を短時間でより詳細に把握することができる。つまり、ユーザは、CRMシステム30に対する操作により、顧客情報の管理に加え、解析データの可視化結果も確認することができる。
In step S<b>704 , the
Customer information such as a customer table 3012 is stored in the
<変形例>
本開示において、音声サーバ(PBX)40と顧客端末50は、電話網Tにより接続されているものとして説明を行ったが、特にこれに限定されない。つまり、音声サーバ(PBX)40と顧客端末50は、例えば、インターネット等を含むあらゆる通信手段により接続されていても良い。
<Modification>
In the present disclosure, the voice server (PBX) 40 and the
この場合、発信処理において、顧客の電話番号ではなく、顧客を識別するための任意の顧客識別情報、URLなどの情報に基づき顧客端末50に対して発信(架電)を行う構成としても良い。同様に、着信処理においても、着信リクエストは顧客を識別するための任意の顧客識別情報、URLなどの情報を含んでもよく、当該顧客識別情報、URLなどの情報に基づき着信するユーザ端末20を特定し、着信(受電)を行う構成としても良い。
In this case, in the calling process, a call may be made to the
<コンピュータの基本ハードウェア構成>
図25は、コンピュータ90の基本的なハードウェア構成を示すブロック図である。コンピュータ90は、プロセッサ901、主記憶装置902、補助記憶装置903、通信IF991(インタフェース、Interface)を少なくとも備える。これらは通信バス921により相互に電気的に接続される。
<Basic computer hardware configuration>
FIG. 25 is a block diagram showing the basic hardware configuration of
プロセッサ901とは、プログラムに記述された命令セットを実行するためのハードウェアである。プロセッサ901は、演算装置、レジスタ、周辺回路等から構成される。
The
主記憶装置902とは、プログラム、及びプログラム等で処理されるデータ等を一時的に記憶するためのものである。例えば、DRAM(Dynamic Random Access Memory)等の揮発性のメモリである。
The
補助記憶装置903とは、データ及びプログラムを保存するための記憶装置である。例えば、フラッシュメモリ、HDD(Hard Disc Drive)、光磁気ディスク、CD―ROM、DVD―ROM、半導体メモリ等である。
通信IF991とは、有線又は無線の通信規格を用いて、他のコンピュータとネットワークを介して通信するための信号を入出力するためのインタフェースである。
ネットワークは、インターネット、LAN、無線基地局等によって構築される各種移動通信システム等で構成される。例えば、ネットワークには、3G、4G、5G移動通信システム、LTE(Long Term Evolution)、所定のアクセスポイントによってインターネットに接続可能な無線ネットワーク(例えばWi-Fi(登録商標))等が含まれる。無線で接続する場合、通信プロトコルとして例えば、Z―Wave(登録商標)、ZigBee(登録商標)、Bluetooth(登録商標)等が含まれる。有線で接続する場合は、ネットワークには、USB(Universal Serial Bus)ケーブル等により直接接続するものも含む。
The communication IF 991 is an interface for inputting and outputting signals for communicating with other computers via a network using a wired or wireless communication standard.
The network is composed of various mobile communication systems constructed by the Internet, LAN, wireless base stations, and the like. For example, networks include 3G, 4G, and 5G mobile communication systems, LTE (Long Term Evolution), wireless networks (for example, Wi-Fi (registered trademark)) that can be connected to the Internet through predetermined access points, and the like. When connecting wirelessly, communication protocols include, for example, Z-Wave (registered trademark), ZigBee (registered trademark), Bluetooth (registered trademark), and the like. In the case of wired connection, the network includes direct connection using a USB (Universal Serial Bus) cable or the like.
なお、各ハードウェア構成の全部または一部を複数のコンピュータ90に分散して設け、ネットワークを介して相互に接続することによりコンピュータ90を仮想的に実現することができる。このように、コンピュータ90は、単一の筐体、ケースに収納されたコンピュータ90だけでなく、仮想化されたコンピュータシステムも含む概念である。
It should be noted that the
<コンピュータ90の基本機能構成>
コンピュータ90の基本ハードウェア構成(図25)により実現されるコンピュータの機能構成を説明する。コンピュータは、制御部、記憶部、通信部の機能ユニットを少なくとも備える。
<Basic Functional Configuration of
A functional configuration of the computer realized by the basic hardware configuration of the computer 90 (FIG. 25) will be described. The computer includes at least functional units of a control section, a storage section, and a communication section.
なお、コンピュータ90が備える機能ユニットは、それぞれの機能ユニットの全部または一部を、ネットワークで相互に接続された複数のコンピュータ90に分散して設けても実現することができる。コンピュータ90は、単一のコンピュータ90だけでなく、仮想化されたコンピュータシステムも含む概念である。
Note that the functional units included in the
制御部は、プロセッサ901が補助記憶装置903に記憶された各種プログラムを読み出して主記憶装置902に展開し、当該プログラムに従って処理を実行することにより実現される。制御部は、プログラムの種類に応じて様々な情報処理を行う機能ユニットを実現することができる。これにより、コンピュータは情報処理を行う情報処理装置として実現される。
The control unit is implemented by the
記憶部は、主記憶装置902、補助記憶装置903により実現される。記憶部は、データ、各種プログラム、各種データベースを記憶する。また、プロセッサ901は、プログラムに従って記憶部に対応する記憶領域を主記憶装置902または補助記憶装置903に確保することができる。また、制御部は、各種プログラムに従ってプロセッサ901に、記憶部に記憶されたデータの追加、更新、削除処理を実行させることができる。
A storage unit is realized by the
データベースは、リレーショナルデータベースを指し、行と列によって構造的に規定された表形式のテーブル、マスタと呼ばれるデータ集合を、互いに関連づけて管理するためのものである。データベースでは、表をテーブル、マスタ、表の列をカラム、表の行をレコードと呼ぶ。リレーショナルデータベースでは、テーブル、マスタ同士の関係を設定し、関連づけることができる。
通常、各テーブル、各マスタにはレコードを一意に特定するための主キーとなるカラムが設定されるが、カラムへの主キーの設定は必須ではない。制御部は、各種プログラムに従ってプロセッサ901に、記憶部に記憶された特定のテーブル、マスタにレコードを追加、削除、更新を実行させることができる。
A database refers to a relational database, and is used to manage tabular tables structurally defined by rows and columns, and data sets called masters in association with each other. In a database, a table is called a table, a master is called a column, and a row is called a record. In a relational database, relationships between tables and masters can be set and associated.
Normally, each table and each master has a primary key column for uniquely identifying a record, but setting a primary key to a column is not essential. The control unit can cause the
通信部は、通信IF991により実現される。通信部は、ネットワークを介して他のコンピュータ90と通信を行う機能を実現する。通信部は、他のコンピュータ90から送信された情報を受信し、制御部へ入力することができる。制御部は、各種プログラムに従ってプロセッサ901に、受信した情報に対する情報処理を実行させることができる。また、通信部は、制御部から出力された情報を他のコンピュータ90へ送信することができる。
A communication unit is implemented by the communication IF 991 . The communication unit implements a function of communicating with another
<付記>
以上の各実施形態で説明した事項を以下に付記する。
<Appendix>
The items described in the above embodiments will be added below.
(付記1)
プロセッサと、記憶部とを備え、ユーザと顧客との間で行われる通話に関連するデータをコンピュータに管理させるためのプログラムであって、プログラムは、プロセッサに、通話に関する音声データを受け付けるステップと、通話の通話属性を取得する取得ステップ(S302、S402)と、通話属性に基づき学習モデルを選択する選択ステップ(S303、S403)と、選択ステップにおいて選択された学習モデルに音声データを適用することにより、通話に対する応対メモを推論する推論ステップ(S304、S404)と、を実行させるプログラム。
これにより、ユーザと顧客との間で行われる通話に関連するデータを管理するコンピュータにおいて、ユーザと顧客との間で行われる通話に対して、より適した応対メモを推論することができる。ユーザは、応対メモを調べるための煩雑な作業を省略することができる。
(Appendix 1)
A program for causing a computer to manage data related to a call conducted between a user and a customer, the program comprising a processor and a storage unit, the program receiving voice data related to the call in the processor; Acquisition step (S302, S402) of acquiring a call attribute of a call; selection step (S303, S403) of selecting a learning model based on the call attribute; and applying speech data to the learning model selected in the selection step , and an inference step (S304, S404) for inferring a response memo for a call.
As a result, the computer that manages the data related to the call between the user and the customer can infer a more suitable answering memo for the call between the user and the customer. The user can omit the troublesome work of checking the reception memo.
(付記2)
通話属性は、ユーザ属性、顧客属性、通話カテゴリ、受発信種別の少なくとも1つを含む、付記1記載のプログラム。
これにより、ユーザは、ユーザと顧客との間で行われる通話に対して、通話属性に応じた学習モデルを用いることで、より適した応対メモを推論することができる。
(Appendix 2)
1. The program according to
As a result, the user can infer a more suitable response memo for a call between the user and the customer by using the learning model according to the call attribute.
(付記3)
ユーザ属性は、通話を行うユーザに関する職種、所属組織の業種、所属組織の名称の何れか1つの属性に関する情報を含み、顧客属性は、通話を行う顧客に関する職種、所属組織の業種、所属組織の名称の何れか1つの属性に関する情報を含み、通話カテゴリは、ユーザと顧客との間で行われた通話の種類または通話の目的に関する情報を含み、受発信種別は、ユーザから顧客に対して発信されたアウトバウンド、顧客からユーザが受信したインバウンドのいずれかに関する情報を含む、付記2記載のプログラム。
これにより、ユーザは、ユーザと顧客との間で行われる通話に対して、通話属性に応じた学習モデルを用いることで、より適した応対メモを推論することができる。
(Appendix 3)
The user attribute includes information on any one attribute of the job title, the business category of the affiliated organization, and the name of the affiliated organization regarding the user who makes the call. The call category includes information about the type of call made between the user and the customer or the purpose of the call. 3. The program of
As a result, the user can infer a more suitable response memo for a call between the user and the customer by using the learning model according to the call attribute.
(付記4)
通話属性は、ユーザ属性および顧客属性を含み、選択ステップは、ユーザ属性および顧客属性に基づき学習モデルを選択するステップ(S303、S403)を含む、付記1から3のいずれか記載のプログラム。
これにより、ユーザは、ユーザ属性および顧客属性の両方に基づき、応対メモを推論する通話により即した学習モデルを適用することにより、より適した応対メモを推論することができる。
(Appendix 4)
4. The program according to any one of
This allows the user to infer a more appropriate response note by applying a learning model that is more suitable for inferring a response note based on both user attributes and customer attributes.
(付記5)
通話属性は、第1属性および第2属性を含み、選択ステップは、第1属性に基づき第1学習モデルを選択するステップ(S303、S403)と、第2属性に基づき第2学習モデルを選択するステップ(S303、S403)と、を含み、推論ステップは、第1学習モデルに通話に関する音声データを適用することにより、音声データに対し、複数の応対メモからなる第1応対メモ群を推論する第1推論ステップ(S304、S404)と、第2学習モデルに通話に関する音声データを適用することにより、音声データに対し、複数の応対メモからなる第2応対メモ群を推論する第2推論ステップ(S304、S404)と、第1応対メモ群および第2応対メモ群に基づき、応対メモを推論するステップ(S304、S404)と、を含む、付記1から4のいずれか記載のプログラム。
これにより、通話属性ごとに音声データ(学習に用いるデータセット)が十分にない場合においても、複数の学習モデルを組み合わせて適用することにより、より適した応対メモを推論することができる。
(Appendix 5)
The call attribute includes a first attribute and a second attribute, and the selecting step includes selecting the first learning model based on the first attribute (S303, S403) and selecting the second learning model based on the second attribute. and a step (S303, S403), wherein the inference step is to infer a first answering memo group consisting of a plurality of answering memos for the speech data by applying the speech data relating to the call to the first learning model. 1 inference step (S304, S404), and a second inference step (S304) of inferring a second answering memo group consisting of a plurality of answering memos for the speech data by applying the speech data related to the call to the second learning model. , S404) and inferring a response memo based on the first response memo group and the second response memo group (S304, S404).
As a result, even if there is not enough voice data (data set used for learning) for each call attribute, it is possible to infer a more suitable answering memo by applying a combination of multiple learning models.
(付記6)
第1属性は、ユーザ属性であり、第2属性は、顧客属性である、付記5記載のプログラム。
これにより、ユーザは、ユーザ属性および顧客属性ごとに音声データが十分にない場合においても、ユーザ属性および顧客属性のそれぞれの学習モデルを組み合わせて適用することにより、より適した応対メモを推論することができる。
(Appendix 6)
6. The program according to
As a result, even if there is not enough voice data for each user attribute and customer attribute, the user can infer a more suitable response memo by applying a combination of learning models for each user attribute and customer attribute. can be done.
(付記7)
第1学習モデルは、音声データのうち、ユーザの通話部分に関する音声データに基づき学習が行われ、顧客の通話部分に関する音声データに基づき学習が行われず、第2学習モデルは、音声データのうち、顧客の通話部分に関する音声データに基づき学習が行われ、ユーザの通話部分に関する音声データに基づき学習が行われない、付記6記載のプログラム。
これにより、ユーザは、ユーザ属性および顧客属性の両方に基づき、より適した応対メモを推論することができる。
(Appendix 7)
The first learning model is trained based on the voice data related to the user's call part of the voice data, and is not trained based on the voice data related to the customer's call part. 7. The program of
This allows the user to infer a more suitable response memo based on both user attributes and customer attributes.
(付記8)
推論ステップは、複数の応対メモからなる応対メモ群を推論するステップ(S405)であり、プログラムは、プロセッサに、複数の応対メモ群を、ユーザに対して選択可能に表示する表示ステップ(S406)と、応対メモ群のうち、ユーザにより選択された一または複数の応対メモを、音声データと紐付けて記憶する記憶ステップ(S407)と、を実行させる付記1から7のいずれか記載のプログラム。
これにより、ユーザは、推論された複数の応対メモから、音声データに付与する応対メモを選択することにより、煩雑な入力作業なしに音声データに対して応対メモを付与することができる。
(Appendix 8)
The inference step is a step of inferring a reception memo group consisting of a plurality of reception memos (S405), and the program causes the processor to display the plurality of reception memo groups in a selectable manner for the user (S406). and a storage step (S407) of storing one or more response memos selected by the user from the response memo group in association with voice data (S407).
Thereby, the user can add a response memo to the voice data without complicated input work by selecting a response memo to be added to the voice data from a plurality of inferred response memos.
(付記9)
推論ステップは、応対メモ群に含まれる応対メモのそれぞれに対して優先順位を算定するステップ(S404)を含み、表示ステップは、第1位置に、複数の応対メモ群に含まれる第1応対メモを表示し、第1位置よりもユーザが選択しにくい第2位置に、複数の応対メモ群に含まれる第2応対メモを表示する、ステップ(S405)を含み、第1応対メモは、第2応対メモよりも優先順位が高い、付記8記載のプログラム。
これにより、優先順位が高い応対メモほど、ユーザが選択しやすい位置に表示することにより、ユーザは、煩雑な作業なしに音声データに対して、複数の応対メモからより確からしい応対メモを付与することができる。
(Appendix 9)
The inference step includes a step of calculating a priority (S404) for each of the response memos included in the response memo group, and the display step includes placing a first response memo included in the plurality of response memo groups at a first location. and displaying a second response memo included in the plurality of response memo groups at a second position that is harder for the user to select than the first position (S405), wherein the first response memo is the second The program according to
Thus, by displaying a response memo with a higher priority at a position where it is easier for the user to select it, the user can attach a more likely response memo from a plurality of response memos to voice data without complicated work. be able to.
(付記10)
学習モデルは、音声データのうち、所定の応対メモが付与された音声データを除外して学習されたものである、付記1から9のいずれか記載のプログラム。
これにより、「留守番電話」、「顧客(担当者)不在」、「顧客受付ブロック」など、顧客との通話が実質的に成立していない通話を除外された学習モデルを用いることにより、より適した応対メモを推論することができる。
(Appendix 10)
10. The program according to any one of
As a result, by using a learning model that excludes calls such as "answering machine", "customer (person in charge) absent", "customer reception block", etc. that are not actually established with customers, It is possible to infer the response memo.
(付記11)
プロセッサと、記憶部とを備え、ユーザと顧客との間で行われる通話に関連するデータを管理するための情報処理システムであって、プロセッサに、通話に関する音声データを受け付けるステップと、通話の通話属性を取得する取得ステップ(S302、S402)と、通話属性に基づき学習モデルを選択する選択ステップ(S303、S403)と、選択ステップにおいて選択された学習モデルに音声データを適用することにより、通話に対する応対メモを推論する推論ステップ(S304、S404)と、を実行させる情報処理システム。
これにより、ユーザと顧客との間で行われる通話に関連するデータを管理するコンピュータにおいて、ユーザと顧客との間で行われる通話に対して、より適した応対メモを推論することができる。ユーザは、応対メモを調べるための煩雑な作業を省略することができる。
(Appendix 11)
An information processing system for managing data related to a call made between a user and a customer, the information processing system comprising a processor and a storage unit, the processor receiving voice data related to the call; Acquisition step (S302, S402) for acquiring attributes, selection step (S303, S403) for selecting a learning model based on call attributes, and applying speech data to the learning model selected in the selection step, An information processing system for executing an inference step (S304, S404) for inferring a response memo.
As a result, the computer that manages the data related to the call between the user and the customer can infer a more suitable answering memo for the call between the user and the customer. The user can omit the troublesome work of checking the reception memo.
(付記12)
プロセッサと、記憶部とを備え、ユーザと顧客との間で行われる通話に関連するデータをコンピュータに管理させるための情報処理方法であって、プロセッサに、通話に関する音声データを受け付けるステップと、通話の通話属性を取得する取得ステップ(S302、S402)と、通話属性に基づき学習モデルを選択する選択ステップ(S303、S403)と、選択ステップにおいて選択された学習モデルに音声データを適用することにより、通話に対する応対メモを推論する推論ステップ(S304、S404)と、を実行させる情報処理方法。
これにより、ユーザと顧客との間で行われる通話に関連するデータを管理するコンピュータにおいて、ユーザと顧客との間で行われる通話に対して、より適した応対メモを推論することができる。ユーザは、応対メモを調べるための煩雑な作業を省略することができる。
(Appendix 12)
An information processing method, comprising a processor and a storage unit, for causing a computer to manage data relating to a call conducted between a user and a customer, the method comprising: receiving voice data relating to the call; Acquisition step (S302, S402) of acquiring the call attribute of; Selection step (S303, S403) of selecting a learning model based on the call attribute; and an inference step (S304, S404) for inferring a response memo for a call.
As a result, the computer that manages the data related to the call between the user and the customer can infer a more suitable answering memo for the call between the user and the customer. The user can omit the troublesome work of checking the reception memo.
1 情報処理システム、10 サーバ、101 記憶部、103 制御部、20A,20B,20C ユーザ端末、201 記憶部、204 制御部、30 CRMシステム、301 記憶部、304 制御部、50A,50B,50C 顧客端末、501 記憶部、504 制御部
1 information processing system, 10 server, 101 storage unit, 103 control unit, 20A, 20B, 20C user terminal, 201 storage unit, 204 control unit, 30 CRM system, 301 storage unit, 304 control unit, 50A, 50B, 50C customer terminal, 501 storage unit, 504 control unit
Claims (12)
前記プログラムは、前記プロセッサに、
前記通話に関する音声データを受け付けるステップと、
前記通話の通話属性を取得する取得ステップと、
前記通話属性に基づき学習モデルを選択する選択ステップと、
前記選択ステップにおいて選択された前記学習モデルに前記音声データを適用することにより、前記通話に対する応対メモを推論する推論ステップと、
を実行させるプログラム。 A program, comprising a processor and a storage unit, for causing a computer to manage data related to a call made between a user and a customer,
The program causes the processor to:
receiving audio data relating to the call;
an obtaining step of obtaining call attributes of the call;
a selection step of selecting a learning model based on the call attributes;
an inference step of inferring a response note for the call by applying the speech data to the learning model selected in the selection step;
program to run.
請求項1記載のプログラム。 The call attributes include at least one of user attributes, customer attributes, call categories, and incoming and outgoing call types.
A program according to claim 1.
前記顧客属性は、前記通話を行う顧客に関する職種、所属組織の業種、所属組織の名称の何れか1つの属性に関する情報を含み、
前記通話カテゴリは、ユーザと顧客との間で行われた通話の種類または通話の目的に関する情報を含み、
前記受発信種別は、ユーザから顧客に対して発信されたアウトバウンド、顧客からユーザが受信したインバウンドのいずれかに関する情報を含む、
請求項2記載のプログラム。 The user attribute includes information on any one attribute of the job type, the industry of the affiliated organization, and the name of the affiliated organization regarding the user who makes the call,
The customer attribute includes information on any one attribute of the job type, the industry type of the affiliated organization, and the name of the affiliated organization regarding the customer who makes the call,
the call category includes information about the type of call or purpose of the call made between the user and the customer;
The reception and transmission type includes information on either outbound sent from the user to the customer or inbound received by the user from the customer,
3. A program according to claim 2.
前記選択ステップは、前記ユーザ属性および前記顧客属性に基づき前記学習モデルを選択するステップを含む、
請求項1から3のいずれか記載のプログラム。 the call attributes include user attributes and customer attributes;
the selecting step includes selecting the learning model based on the user attributes and the customer attributes;
A program according to any one of claims 1 to 3.
前記選択ステップは、
第1属性に基づき第1学習モデルを選択するステップと、
第2属性に基づき第2学習モデルを選択するステップと、
を含み、
前記推論ステップは、
第1学習モデルに前記通話に関する音声データを適用することにより、前記音声データに対し、複数の前記応対メモからなる第1応対メモ群を推論する第1推論ステップと、
第2学習モデルに前記通話に関する音声データを適用することにより、前記音声データに対し、複数の前記応対メモからなる第2応対メモ群を推論する第2推論ステップと、
第1応対メモ群および第2応対メモ群に基づき、前記応対メモを推論するステップと、
を含む、
請求項1から4のいずれか記載のプログラム。 the call attributes include a first attribute and a second attribute;
The selection step includes:
selecting a first learning model based on the first attribute;
selecting a second learning model based on a second attribute;
including
The inference step includes:
a first inference step of inferring a first answering memo group consisting of a plurality of said answering memos for said speech data by applying speech data relating to said call to said first learning model;
a second inference step of inferring a second answering memo group consisting of a plurality of said answering memos for said speech data by applying speech data relating to said call to a second learning model;
inferring the response memo based on the first response memo group and the second response memo group;
including,
A program according to any one of claims 1 to 4.
第2属性は、顧客属性である、
請求項5記載のプログラム。 The first attribute is a user attribute,
The second attribute is a customer attribute,
6. A program according to claim 5.
第2学習モデルは、前記音声データのうち、顧客の通話部分に関する音声データに基づき学習が行われ、ユーザの通話部分に関する音声データに基づき学習が行われない、
請求項6記載のプログラム。 In the first learning model, learning is performed based on voice data related to the user's call part among the voice data, and learning is not performed based on voice data related to the customer's call part,
The second learning model is learned based on the voice data related to the customer's call part among the voice data, and is not learned based on the voice data related to the user's call part.
7. The program according to claim 6.
前記プログラムは、前記プロセッサに、
複数の前記応対メモ群を、ユーザに対して選択可能に表示する表示ステップと、
前記応対メモ群のうち、ユーザにより選択された一または複数の前記応対メモを、前記音声データと紐付けて記憶する記憶ステップと、
を実行させる請求項1から7のいずれか記載のプログラム。 the inference step is a step of inferring a reception memo group consisting of a plurality of the reception memos;
The program causes the processor to:
a display step of selectively displaying a plurality of the response memo groups to a user;
a storage step of storing one or more of the response memos selected by the user from the group of response memos in association with the voice data;
8. The program according to any one of claims 1 to 7, causing the execution of
前記表示ステップは、
第1位置に、複数の前記応対メモ群に含まれる第1応対メモを表示し、
第1位置よりもユーザが選択しにくい第2位置に、複数の前記応対メモ群に含まれる第2応対メモを表示する、
ステップを含み、
前記第1応対メモは、前記第2応対メモよりも優先順位が高い、
請求項8記載のプログラム。 the inference step includes calculating a priority order for each of the response memos included in the response memo group;
The display step includes:
displaying a first response memo included in the plurality of response memos at a first position;
displaying a second response memo included in the plurality of response memos at a second position that is more difficult for a user to select than at a first position;
including steps
The first response memo has a higher priority than the second response memo,
9. A program according to claim 8.
請求項1から9のいずれか記載のプログラム。 The learning model is learned by excluding the voice data to which the predetermined response memo is attached from among the voice data,
A program according to any one of claims 1 to 9.
前記プロセッサに、
前記通話に関する音声データを受け付けるステップと、
前記通話の通話属性を取得する取得ステップと、
前記通話属性に基づき学習モデルを選択する選択ステップと、
前記選択ステップにおいて選択された前記学習モデルに前記音声データを適用することにより、前記通話に対する応対メモを推論する推論ステップと、
を実行させる情報処理システム。 An information processing system, comprising a processor and a storage unit, for managing data associated with a call conducted between a user and a customer, comprising:
to the processor;
receiving audio data relating to the call;
an obtaining step of obtaining call attributes of the call;
a selection step of selecting a learning model based on the call attributes;
an inference step of inferring a response note for the call by applying the speech data to the learning model selected in the selection step;
Information processing system that executes
前記プロセッサに、
前記通話に関する音声データを受け付けるステップと、
前記通話の通話属性を取得する取得ステップと、
前記通話属性に基づき学習モデルを選択する選択ステップと、
前記選択ステップにおいて選択された前記学習モデルに前記音声データを適用することにより、前記通話に対する応対メモを推論する推論ステップと、
を実行させる情報処理方法。
An information processing method, comprising a processor and a storage unit, for causing a computer to manage data related to a call conducted between a user and a customer, comprising:
to the processor;
receiving audio data relating to the call;
an obtaining step of obtaining call attributes of the call;
a selection step of selecting a learning model based on the call attributes;
an inference step of inferring a response note for the call by applying the speech data to the learning model selected in the selection step;
Information processing method that causes the execution of
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021189154A JP2023076017A (en) | 2021-11-22 | 2021-11-22 | Program, information processing system, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021189154A JP2023076017A (en) | 2021-11-22 | 2021-11-22 | Program, information processing system, and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023076017A true JP2023076017A (en) | 2023-06-01 |
Family
ID=86547707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021189154A Pending JP2023076017A (en) | 2021-11-22 | 2021-11-22 | Program, information processing system, and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023076017A (en) |
-
2021
- 2021-11-22 JP JP2021189154A patent/JP2023076017A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10194029B2 (en) | System and methods for analyzing online forum language | |
CN110825858A (en) | Intelligent interaction robot system applied to customer service center | |
US11862190B2 (en) | Information processing device | |
US11762629B2 (en) | System and method for providing a response to a user query using a visual assistant | |
JP2017111190A (en) | Interactive text summarization apparatus and method | |
AU2014205546B2 (en) | Method and apparatus for analyzing leakage from chat to voice | |
TW202036323A (en) | Intelligent online customer service convergence core system which can provide a reply or query to an intention generated through voice recognition and natural language processing procedures | |
WO2023090380A1 (en) | Program, information processing system, and information processing method | |
WO2019142976A1 (en) | Display control method, computer-readable recording medium, and computer device for displaying conversation response candidate for user speech input | |
WO2023090379A1 (en) | Program, information processing system and information processing method | |
JP3761158B2 (en) | Telephone response support apparatus and method | |
EP4018438A1 (en) | Systems and methods for real-time processing of audio feedback | |
JP2023076017A (en) | Program, information processing system, and information processing method | |
CN117424960A (en) | Intelligent voice service method, device, terminal equipment and storage medium | |
CN110765242A (en) | Method, device and system for providing customer service information | |
KR102137155B1 (en) | Telecommunication service system and method using speech recognition technology | |
JP7169031B1 (en) | Program, information processing device, information processing system, information processing method, information processing terminal | |
JP7169030B1 (en) | Program, information processing device, information processing system, information processing method, information processing terminal | |
WO2024209953A1 (en) | Information processing system and information processing method | |
WO2024127476A1 (en) | Program, information processing device, production method and information processing method | |
CN112911074A (en) | Voice communication processing method, device, equipment and machine readable medium | |
WO2024127477A1 (en) | Program, information processing device, manufacturing method, and information processing method | |
CN111556096A (en) | Information pushing method, device, medium and electronic equipment | |
JP2023105607A (en) | Program, information processing device, and information processing method | |
CN113132927B (en) | Incoming call processing method, device, equipment and machine readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20211129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241017 |