JP2023076430A - Program, information processing system, and information processing method - Google Patents

Program, information processing system, and information processing method Download PDF

Info

Publication number
JP2023076430A
JP2023076430A JP2023024850A JP2023024850A JP2023076430A JP 2023076430 A JP2023076430 A JP 2023076430A JP 2023024850 A JP2023024850 A JP 2023024850A JP 2023024850 A JP2023024850 A JP 2023024850A JP 2023076430 A JP2023076430 A JP 2023076430A
Authority
JP
Japan
Prior art keywords
call
user
information
customer
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023024850A
Other languages
Japanese (ja)
Inventor
真生 小川
Masanari Ogawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Revcomm
Revcomm Inc
Original Assignee
Revcomm
Revcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Revcomm, Revcomm Inc filed Critical Revcomm
Priority to JP2023024850A priority Critical patent/JP2023076430A/en
Publication of JP2023076430A publication Critical patent/JP2023076430A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Acoustics & Sound (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Operations Research (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Telephonic Communication Services (AREA)
  • Machine Translation (AREA)

Abstract

To provide a program configured so that a user can accurately identify a response on a call between the user and a customer in a short time by confirming summary information, an information processing system, and an information processing method.SOLUTION: Summary processing includes: a binding step S105 for binding text information before/after a change of speaker information as a text information group when multiple pieces of text information are arranged in order of speaking time; an importance calculating step for calculating importance levels for the multiple pieces of text information and one or more text information groups; and a summary extraction step S107 for extracting the text information or the text information group on the basis of the importance levels.SELECTED DRAWING: Figure 14

Description

特許法第30条第2項適用申請有り (ア)サービスのリリースによる発明の公開 1.サービスのリリース日 2020年11月26日 2021年6月1日 2.ウェブサイトのアドレス https://miitel.revcomm.co.jp/ 3.公開者 株式会社RevComm (イ)ウェブサイトによる発表 1.ウェブサイトにおける公開日 a.2020年11月26日 b.2021年6月1日 c.2021年10月4日 2.ウェブサイトのアドレス a.https://support.miitel.jp b.https://support.miitel.jp c.https://www.revcomm.co.jp 3.公開者 株式会社RevCommThere is an application for the application of Article 30, Paragraph 2 of the Patent Act. Service release date November 26, 2020 June 1, 2021 2. Website address https://miitel. revcomm. co. jp/ 3. Publisher: RevComm Inc. (b) Announcement on the website 1. Publication date on website a. November 26, 2020 b. June 1, 2021 c. October 4, 2021 2. Website address a. https://support. mitel. jp b. https://support. mitel. jp c. https://www. revcomm. co. jp 3. Publisher: RevComm Inc.

本開示は、プログラム、情報処理システム及び情報処理方法に関する。 The present disclosure relates to a program, an information processing system, and an information processing method.

従来、通話サービスを提供するコンピュータシステムにおいて、通話内容を特徴づける要約文書を作成する技術が知られている。
特許文献1には、対話の内容から重要な文を抽出して要約を生成する技術が開示されている。特許文献2には、対話構造を利用して単語単位で対話テキストを読み易く訂正する要約技術が開示されている。特許文献3には、コールセンタにおいて、スーパバイザの監視業務の効率化と、オペレータの顧客への応対品質を向上させる技術が開示されている。
Conventionally, in a computer system that provides call services, there is known a technique for creating a summary document that characterizes the contents of a call.
Patent Literature 1 discloses a technique for extracting important sentences from the content of dialogue and generating a summary. Japanese Patent Laid-Open No. 2002-200000 discloses a technique for summarizing a dialogue text by using a dialogue structure to correct the dialogue text so that it is easier to read. Patent Literature 3 discloses a technique for improving the efficiency of a supervisor's monitoring work and improving the quality of an operator's response to a customer in a call center.

特開2013―120514号JP 2013-120514 特開2017―111190号JP 2017-111190 特開2020―150408号JP 2020-150408

しかしながら、ユーザと顧客との間で行われる通話において、発話、応対のいずれか一方が省略された要約情報が生成されることがあり、要約情報を確認したユーザにとっては何に対して発話、応対がなされているのか確認することが難しい場合があった。 However, in a call between a user and a customer, summary information may be generated in which either the speech or the response is omitted. It was sometimes difficult to confirm whether

そこで、本開示は、上記課題を解決すべくなされたものであって、その目的は、ユーザと顧客との発話、応対からなる要約情報を生成する技術を提供することである。 Therefore, the present disclosure has been made to solve the above problems, and its object is to provide a technique for generating summary information consisting of utterances and responses between a user and a customer.

プロセッサと、記憶部とを備え、ユーザと顧客との間で行われる通話に関連するデータをコンピュータに管理させるためのプログラムであって、プログラムは、プロセッサに、通話に関する音声データを受け付ける受付ステップと、音声データから、発話区間ごとに複数の区間音声データを抽出する音声抽出ステップと、複数の区間音声データのそれぞれに対してテキスト認識を行い複数のテキスト情報を抽出するテキスト抽出ステップと、テキスト抽出ステップにおいて抽出された複数のテキスト情報から、話者情報が異なり、発話時刻において前後する1または複数のテキスト情報を要約情報として抽出する要約抽出ステップと、を実行するプログラム。 A program for causing a computer to manage data related to a call conducted between a user and a customer, the program comprising a processor and a storage unit, wherein the program causes the processor to receive voice data related to the call; a speech extraction step of extracting a plurality of segmental speech data for each utterance segment from speech data; a text extraction step of performing text recognition on each of the plurality of segmental speech data to extract a plurality of pieces of text information; A program for executing a summary extraction step of extracting, as summary information, one or a plurality of pieces of text information having different speaker information and preceding and following utterance times from the plurality of pieces of text information extracted in the step.

ユーザと顧客との通話応対に注目した要約情報を生成することができる。
ユーザは、要約情報を確認することで、ユーザと顧客との間で行われた通話応対を短時間で正確に把握することができる。
It is possible to generate summary information that focuses on call handling between the user and the customer.
By confirming the summary information, the user can accurately grasp the call handling between the user and the customer in a short period of time.

情報処理システム1の全体の構成を示す図である。1 is a diagram showing an overall configuration of an information processing system 1; FIG. サーバ10の機能構成を示すブロック図である。3 is a block diagram showing the functional configuration of the server 10; FIG. ユーザ端末20の機能構成を示すブロック図である。2 is a block diagram showing a functional configuration of a user terminal 20; FIG. CRMシステム30の機能構成を示すブロック図である。3 is a block diagram showing the functional configuration of a CRM system 30; FIG. 顧客端末50の機能構成を示すブロック図である。3 is a block diagram showing the functional configuration of a customer terminal 50; FIG. ユーザテーブル1012のデータ構造を示す図である。FIG. 10 is a diagram showing the data structure of a user table 1012; FIG. 組織テーブル1013のデータ構造を示す図である。FIG. 10 is a diagram showing the data structure of an organization table 1013; FIG. 通話テーブル1014のデータ構造を示す図である。It is a figure which shows the data structure of the call table 1014. FIG. 音声認識テーブル1015のデータ構造を示す図である。FIG. 10 is a diagram showing the data structure of a speech recognition table 1015; FIG. 要約テーブル1016のデータ構造を示す図である。FIG. 10 shows the data structure of a summary table 1016; 応対メモテーブル1017のデータ構造を示す図である。FIG. 10 is a diagram showing the data structure of a response memo table 1017. FIG. 顧客テーブル3012のデータ構造を示す図である。FIG. 11 shows the data structure of a customer table 3012; FIG. 応対履歴テーブル3013のデータ構造を示す図である。FIG. 10 is a diagram showing the data structure of a response history table 3013; 要約処理(第一実施例)の動作を示すフローチャートである。It is a flowchart which shows the operation|movement of a summary process (1st Example). 要約処理(第二実施例)の動作を示すフローチャートである。It is a flowchart which shows the operation|movement of a summary process (2nd Example). 応対メモ付与処理の動作を示すフローチャートである。It is a flowchart which shows the operation|movement of a response memo addition process. 応対メモ提案処理の動作を示すフローチャートである。It is a flowchart which shows the operation|movement of a response memo proposal process. スコア算定処理の動作を示すフローチャートである。4 is a flowchart showing the operation of score calculation processing; CRM記憶処理の動作を示すフローチャートである。It is a flowchart which shows the operation|movement of CRM storage processing. 通話表示処理の動作を示すフローチャートである。It is a flowchart which shows the operation|movement of a call display process. 要約処理(第一実施例)におけるバインディング処理の概要を示した図である。FIG. 10 is a diagram showing an overview of binding processing in summary processing (first embodiment); 要約処理(第二実施例)における追加抽出処理の概要を示した図である。It is the figure which showed the outline|summary of the additional extraction process in a summary process (2nd Example). 要約表示処理の概要を示した図である。FIG. 10 is a diagram showing an overview of summary display processing; 通話表示処理におけるCRMサービスの画面例を示した図である。It is the figure which showed the screen example of the CRM service in call display processing. コンピュータ90の基本的なハードウェア構成を示すブロック図である。2 is a block diagram showing the basic hardware configuration of computer 90. FIG.

以下、本開示の実施形態について図面を参照して説明する。実施形態を説明する全図において、共通の構成要素には同一の符号を付し、繰り返しの説明を省略する。なお、以下の実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。また、各図は模式図であり、必ずしも厳密に図示されたものではない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In all the drawings for explaining the embodiments, common constituent elements are denoted by the same reference numerals, and repeated explanations are omitted. It should be noted that the following embodiments do not unduly limit the content of the present disclosure described in the claims. Also, not all the components shown in the embodiments are essential components of the present disclosure. Each figure is a schematic diagram and is not necessarily strictly illustrated.

<情報処理システム1の概要>
図1は、情報処理システム1の全体の構成を示す図である。本開示における情報処理システム1は、本開示にかかる通話サービスを提供する情報処理システムである。情報処理システム1は、ユーザと顧客との間で行われる通話に関するサービスを提供するとともに、通話に関連するデータを記憶、管理するための情報処理システムである。
<Overview of information processing system 1>
FIG. 1 is a diagram showing the overall configuration of an information processing system 1. As shown in FIG. An information processing system 1 according to the present disclosure is an information processing system that provides a call service according to the present disclosure. The information processing system 1 is an information processing system for providing services related to calls between users and customers, and for storing and managing data related to calls.

<情報処理システム1の基本構成>
本開示における情報処理システム1を図1に示す。情報処理システム1は、ネットワークNを介して接続された、サーバ10、複数のユーザ端末20A、20B、20C、CRMシステム30、音声サーバ(PBX)40、および、音声サーバ(PBX)40に対して電話網Tを介して接続された顧客端末50A、50B、50Cを備えて構成されている。
図2は、サーバ10の機能構成を示すブロック図である。図3は、ユーザ端末20の機能構成を示すブロック図である。図4は、CRMシステム30の機能構成を示すブロック図である。図5は、顧客端末50の機能構成を示すブロック図である。
<Basic Configuration of Information Processing System 1>
FIG. 1 shows an information processing system 1 according to the present disclosure. The information processing system 1 is connected via a network N to a server 10, a plurality of user terminals 20A, 20B, 20C, a CRM system 30, a voice server (PBX) 40, and a voice server (PBX) 40. It comprises customer terminals 50A, 50B, and 50C connected via a telephone network T. FIG.
FIG. 2 is a block diagram showing the functional configuration of the server 10. As shown in FIG. FIG. 3 is a block diagram showing the functional configuration of the user terminal 20. As shown in FIG. FIG. 4 is a block diagram showing the functional configuration of the CRM system 30. As shown in FIG. FIG. 5 is a block diagram showing the functional configuration of the customer terminal 50. As shown in FIG.

サーバ10は、ユーザと顧客との間で行われる通話に関連するデータ(通話データ)を記憶、管理するサービスを提供する情報処理装置である。 The server 10 is an information processing device that provides a service of storing and managing data (call data) related to calls made between users and customers.

ユーザ端末20は、サービスを利用するユーザが操作する情報処理装置である。ユーザ端末20は、例えば、据え置き型のPC(Personal Computer)、ラップトップPCでもよいし、スマートフォン、タブレット等の携帯端末であってもよい。また、HMD(Head Mount Display)、腕時計型端末等のウェアラブル端末であってもよい。 The user terminal 20 is an information processing device operated by a user who uses the service. The user terminal 20 may be, for example, a stationary PC (Personal Computer), a laptop PC, or a mobile terminal such as a smart phone or a tablet. Moreover, it may be a wearable terminal such as an HMD (Head Mount Display) or a wristwatch type terminal.

CRMシステム30は、CRM(Customer Relationship Management、顧客関係管理)サービスを提供する事業者(CRM事業者)が管理、運営する情報処理装置である。CRMサービスとしては、SalesForce、HubSpot、Zoho CRM、kintoneなどがある。 The CRM system 30 is an information processing device managed and operated by a company (CRM company) that provides CRM (Customer Relationship Management) services. CRM services include SalesForce, HubSpot, Zoho CRM, Kintone, and the like.

音声サーバ(PBX)40は、ネットワークNと電話網Tとを互いに接続することでユーザ端末20と顧客端末50との間における通話を可能とする交換機として機能する情報処理装置である。 The voice server (PBX) 40 is an information processing device that functions as a switching system that enables communication between the user terminal 20 and the customer terminal 50 by connecting the network N and the telephone network T to each other.

顧客端末50は、顧客がユーザと通話する際に操作する情報処理装置である。顧客端末50は、例えば、スマートフォン、タブレット等の携帯端末でもよいし、据え置き型のPC(Personal Computer)、ラップトップPCであってもよい。また、HMD(Head Mount Display)、腕時計型端末等のウェアラブル端末であってもよい。 The customer terminal 50 is an information processing device operated by the customer when talking to the user. The customer terminal 50 may be, for example, a mobile terminal such as a smart phone or a tablet, a stationary PC (Personal Computer), or a laptop PC. Moreover, it may be a wearable terminal such as an HMD (Head Mount Display) or a wristwatch type terminal.

各情報処理装置は演算装置と記憶装置とを備えたコンピュータにより構成されている。コンピュータの基本ハードウェア構成および、当該ハードウェア構成により実現されるコンピュータの基本機能構成は後述する。サーバ10、ユーザ端末20、CRMシステム30、音声サーバ(PBX)40、顧客端末50のそれぞれについて、後述するコンピュータの基本ハードウェア構成およびコンピュータの基本機能構成と重複する説明は省略する。 Each information processing device is composed of a computer having an arithmetic device and a storage device. The basic hardware configuration of the computer and the basic functional configuration of the computer realized by the hardware configuration will be described later. Descriptions of the server 10, the user terminal 20, the CRM system 30, the voice server (PBX) 40, and the customer terminal 50 that overlap with the basic hardware configuration of the computer and the basic functional configuration of the computer, which will be described later, will be omitted.

以下、各装置の構成およびその動作を説明する。 The configuration and operation of each device will be described below.

<サーバ10の機能構成>
サーバ10のハードウェア構成が実現する機能構成を図2に示す。サーバ10は、記憶部101、制御部104を備える。
<Functional Configuration of Server 10>
A functional configuration realized by the hardware configuration of the server 10 is shown in FIG. The server 10 has a storage unit 101 and a control unit 104 .

<サーバ10の記憶部の構成>
サーバ10の記憶部101は、アプリケーションプログラム1011、ユーザテーブル1012、組織テーブル1013、通話テーブル1014、音声認識テーブル1015、要約テーブル1016、応対メモテーブル1017を備える。
図6は、ユーザテーブル1012のデータ構造を示す図である。図7は、組織テーブル1013のデータ構造を示す図である。図8は、通話テーブル1014のデータ構造を示す図である。図9は、音声認識テーブル1015のデータ構造を示す図である。図10は、要約テーブル1016のデータ構造を示す図である。図11は、応対メモテーブル1017のデータ構造を示す図である。
<Configuration of Storage Unit of Server 10>
Storage unit 101 of server 10 includes application program 1011 , user table 1012 , organization table 1013 , call table 1014 , speech recognition table 1015 , summary table 1016 and response memo table 1017 .
FIG. 6 is a diagram showing the data structure of the user table 1012. As shown in FIG. FIG. 7 is a diagram showing the data structure of the organization table 1013. As shown in FIG. FIG. 8 is a diagram showing the data structure of the call table 1014. As shown in FIG. FIG. 9 is a diagram showing the data structure of the speech recognition table 1015. As shown in FIG. FIG. 10 is a diagram showing the data structure of the summary table 1016. As shown in FIG. FIG. 11 shows the data structure of the response memo table 1017. As shown in FIG.

ユーザテーブル1012は、サービスを利用する会員ユーザ(以下、ユーザ)の情報を記憶し管理するテーブルである。ユーザは、サービスの利用登録を行うことで、当該ユーザの情報がユーザテーブル1012の新しいレコードに記憶される。これにより、ユーザは本開示にかかるサービスを利用できるようになる。ユーザテーブル1012は、ユーザIDを主キーとし、ユーザID、CRMID、組織ID、ユーザ名、連携モード、ユーザ属性、評価指標のカラムを有するテーブルである。 The user table 1012 is a table that stores and manages information on member users (hereinafter referred to as users) who use the service. By registering to use the service, the user's information is stored in a new record in the user table 1012 . This enables the user to use the service according to the present disclosure. The user table 1012 is a table having user ID as a primary key and columns of user ID, CRM ID, organization ID, user name, cooperation mode, user attribute, and evaluation index.

ユーザIDは、ユーザを識別するためのユーザ識別情報を記憶する項目である。
CRMIDは、CRMシステム30において、ユーザを識別するための識別情報を記憶する項目である。ユーザはCRMIDによりCRMシステム30にログインすることにより、CRMサービスの提供を受けることができる。つまり、サーバ10におけるユーザIDと、CRMシステム30におけるCRMIDが紐付けられる。
組織IDは、ユーザが所属する組織の組織IDを記憶する項目である。
ユーザ名は、ユーザの氏名を記憶する項目である。
連携モードは、ユーザと顧客との間で行われる通話に関連するデータを外部のCRMシステムに記憶する際の設定項目(連携設定)を記憶する項目である。
本開示において、連携モードはユーザごとに記憶されるものとしたが、組織テーブルにおいて、組織、部署ごとに記憶しても良い。その場合、各ユーザに適用される連携モードは、組織テーブルに記憶された、組織、部署ごとの連携モードを参照して各ユーザに対して適用される。このとき、組織、部署に所属するユーザに対して一律の連携モードを適用することができる。
ユーザ属性は、ユーザの年齢、性別、出身地、方言、職種(営業、カスタマーサポートなど)などのユーザの属性に関する情報を記憶する項目である。
評価指標は、ユーザの通話応対スキルに対する定量的な評価指標を記憶する項目である。具体的に、評価指標は、ユーザの過去の音声データを解析することにより得られる後述する解析データの各指標(Talk:Listen比率、沈黙回数、被り回数、ラリー回数、基本周波数、抑揚の強弱、話速、フィラー数、トークスクリプト一致度など)に対して所定のアルゴリズムを適用することにより算定される数値である。
評価指標は、例えば、インサイドセールスなどの分野においては、ユーザごとの顧客応対スキルを定量的に表したものに相当し、評価指標が高いユーザほど高い営業成績が期待される。
User ID is an item that stores user identification information for identifying a user.
CRMID is an item that stores identification information for identifying a user in the CRM system 30 . The user can receive CRM services by logging into the CRM system 30 with the CRM ID. That is, the user ID in the server 10 and the CRMID in the CRM system 30 are linked.
The organization ID is an item that stores the organization ID of the organization to which the user belongs.
The user name is an item that stores the name of the user.
The cooperation mode is an item for storing setting items (cooperation settings) when storing data related to a call between a user and a customer in an external CRM system.
In the present disclosure, the cooperation mode is stored for each user, but may be stored for each organization or department in the organization table. In this case, the cooperation mode applied to each user is applied to each user by referring to the cooperation mode for each organization and department stored in the organization table. At this time, a uniform cooperation mode can be applied to users belonging to an organization or department.
The user attribute is an item that stores information related to user attributes such as age, gender, hometown, dialect, occupation (sales, customer support, etc.) of the user.
The evaluation index is an item that stores a quantitative evaluation index for the call handling skill of the user. Specifically, the evaluation index is each index of analysis data (Talk:Listen ratio, number of times of silence, number of times of suffering, number of rallies, fundamental frequency, intonation strength, It is a numerical value calculated by applying a predetermined algorithm to speech speed, number of fillers, talk script matching degree, etc.).
For example, in a field such as inside sales, the evaluation index quantitatively represents the customer service skill of each user, and a user with a higher evaluation index is expected to have a higher sales performance.

組織テーブル1013は、ユーザが所属する組織に関する情報を定義するテーブルである。組織は、会社、法人、企業グループ、サークル、各種団体など任意の組織、グループなどが含まれる。組織は、会社の部署(営業部、総務部、カスタマーサポート部)などのより詳細なサブグループごとに定義しても良い。組織テーブル1013は、組織IDを主キーとして、組織ID、組織名、組織属性のカラムを有するテーブルである。 The organization table 1013 is a table that defines information about the organization to which the user belongs. Organizations include arbitrary organizations and groups such as companies, corporations, corporate groups, circles, and various organizations. Organizations may also be defined by more detailed sub-groups such as company departments (Sales Department, General Affairs Department, Customer Support Department). The organization table 1013 is a table having columns of organization ID, organization name, and organization attribute with organization ID as a primary key.

組織IDは、組織を識別するための組織識別情報を記憶する項目である。
組織名は、組織の名称を記憶する項目である。組織の名称は、会社名、法人名、企業グループ名、サークル名、各種団体名など任意の組織名、グループ名を含む。
組織属性は、組織種別(会社、企業グループ、その他団体など)、業種(不動産、金融など)などの組織の属性に関する情報を記憶する項目である。
The organization ID is an item that stores organization identification information for identifying an organization.
The organization name is an item that stores the name of the organization. The name of the organization includes arbitrary organization names and group names such as company names, corporate names, corporate group names, circle names, and various organization names.
The organization attribute is an item that stores information on the organization attributes such as the organization type (company, corporate group, other organization, etc.) and industry (real estate, finance, etc.).

通話テーブル1014は、ユーザと顧客との間で行われる通話に関連する通話データを記憶し管理するテーブルである。通話テーブル1014は、通話IDを主キーとし、通話ID、ユーザID、顧客ID、通話カテゴリ、受発信種別、音声データ、音声認識有無、要約有無、解析データのカラムを有するテーブルである。 Call table 1014 is a table that stores and manages call data related to calls made between users and customers. The call table 1014 is a table having call ID as a primary key and columns of call ID, user ID, customer ID, call category, incoming/outgoing call type, voice data, presence/absence of voice recognition, presence/absence of summary, and analysis data.

通話IDは、通話データを識別するための通話データ識別情報を記憶する項目である。
ユーザIDは、ユーザと顧客との間で行われる通話において、ユーザのユーザID(ユーザ識別情報)を記憶する項目である。
顧客IDは、ユーザと顧客との間で行われる通話において、顧客の顧客ID(顧客識別情報)を記憶する項目である。
通話カテゴリは、ユーザと顧客との間で行われた通話の種類(カテゴリ)を記憶する項目である。通話データは、通話カテゴリにより分類される。通話カテゴリには、ユーザと顧客との間で行われる通話の目的などに応じて、テレフォンオペレーター、テレマーケティング、カスタマーサポート、テクニカルサポートなどの値が記憶される。
受発信種別は、ユーザと顧客との間で行われた通話が、ユーザが発信した(アウトバウンド)ものか、ユーザが受信した(インバウンド)もののいずれかを区別するための情報を記憶する項目である。
音声データは、ユーザと顧客との間で行われた通話の音声データを記憶する項目である。音声データの形式としては、mp4、wavなど各種音声データ形式を用いることができる。また、他の場所に配置された音声データファイルに対する参照情報(パス)を記憶するものとしても良い。
音声データは、ユーザの音声と顧客の音声とが、それぞれ独立して識別可能な識別子が設定された形式のデータであっても良い。この場合、サーバ10の制御部104は、ユーザの音声、顧客の音声に対してそれぞれ独立した解析処理を実行することができる。
本開示において、音声データに替えて、音声情報を含む動画データを用いても構わない。また、本開示における音声データは、動画データに含まれる音声データも含む概念である。
音声認識有無は、ユーザと顧客との間で行われた通話の音声データに対して音声認識処理が行われたか否かを判定するための情報を記憶する項目である。音声データに対し音声認識処理が行われている場合は、音声認識処理が行われていることを示す情報などが記憶される。音声データに対し音声認識処理が行われていない場合は、ブランク、ヌル、その他、音声認識処理が行われていないことを示す情報などが記憶される。
要約有無は、ユーザと顧客との間で行われた通話の音声データに対して要約処理が行われたか否かを判定するための情報を記憶する項目である。要約処理が行われている場合は、要約処理が行われていることを示す情報などが記憶される。要約処理が行われていない場合は、ブランク、ヌル、その他、要約処理が行われていないことを示す情報などが記憶される。
解析データは、ユーザと顧客との間で行われた通話の音声データの音声を解析して得られた解析データを記憶する項目である。解析データには、Talk:Listen比率、沈黙回数、被り回数、ラリー回数、基本周波数、抑揚の強弱、話速、フィラー数、トークスクリプト一致度などが含まれる。
The call ID is an item that stores call data identification information for identifying call data.
The user ID is an item that stores the user's user ID (user identification information) in a call between the user and the customer.
The customer ID is an item that stores the customer's customer ID (customer identification information) in a call between the user and the customer.
The call category is an item that stores the type (category) of calls made between the user and the customer. Call data is classified by call category. In the call category, values such as telephone operator, telemarketing, customer support, and technical support are stored according to the purpose of the call between the user and the customer.
The incoming/outgoing call type is an item that stores information for distinguishing whether a call made between a user and a customer is originated by the user (outbound) or received by the user (inbound). .
Voice data is an item that stores voice data of a call made between a user and a customer. As the audio data format, various audio data formats such as mp4 and wav can be used. Also, it is possible to store reference information (path) to an audio data file located at another location.
The voice data may be data in a format in which the user's voice and the customer's voice are individually identifiable as identifiers. In this case, the control unit 104 of the server 10 can perform independent analysis processing on the user's voice and the customer's voice.
In the present disclosure, video data including audio information may be used instead of audio data. Also, audio data in the present disclosure is a concept including audio data included in moving image data.
The presence/absence of voice recognition is an item that stores information for determining whether voice recognition processing has been performed on voice data of a call between a user and a customer. When voice recognition processing is performed on voice data, information indicating that voice recognition processing is being performed is stored. If speech recognition processing has not been performed on the speech data, information such as blank, null, and other information indicating that speech recognition processing has not been performed is stored.
Summarization presence/absence is an item for storing information for determining whether or not summarization processing has been performed on voice data of a call made between a user and a customer. When summarization processing is being performed, information indicating that summarization processing is being performed is stored. If the summarization process has not been performed, blank, null, or other information indicating that the summarization process has not been performed is stored.
The analysis data is an item that stores analysis data obtained by analyzing voice data of voice calls made between the user and the customer. The analysis data includes the Talk:Listen ratio, the number of times of silence, the number of times of covering, the number of times of rallying, the fundamental frequency, the intensity of intonation, the speed of speech, the number of fillers, the talk script matching degree, and the like.

音声認識テーブル1015は、ユーザと顧客との間で行われた通話の音声データに対して音声認識処理を行い得られた発話時刻、話者、テキストからなる音声認識情報を記憶するテーブルである。音声認識テーブル1015は、通話ID、テキスト、発話時刻、話者のカラムを有するテーブルである。 The speech recognition table 1015 is a table that stores speech recognition information including speech time, speaker, and text obtained by performing speech recognition processing on speech data of a call between a user and a customer. The voice recognition table 1015 is a table having columns of call ID, text, utterance time, and speaker.

通話IDは、音声認識情報の生成元となる通話データの通話ID(通話データ識別情報)を記憶する項目である。
テキストは、ユーザと顧客との間で行われた通話の音声データの音声が存在する区間(発話区間)ごとのテキスト認識結果のテキスト情報を記憶する項目である。具体的には、音声データの発話区間ごとの話者により発話された文章内容がテキストデータとして記憶される。
発話時刻は、発話区間の音声データ(区間音声データ)中の開始時刻を記憶する項目である。なお、発話時刻は、各発話区間の開始時刻、各発話区間の終了時刻、各発話区間の任意の間の時刻など各発話区間に関連した任意の時刻としても良い。
話者は、区間音声データの話者を識別するための情報が記憶される。具体的には、ユーザまたは顧客を識別するための情報である。なお、ユーザID、顧客IDなどの話者を識別するためのユーザ識別情報、顧客識別情報などが記憶されても良い。
The call ID is an item that stores the call ID (call data identification information) of the call data from which the voice recognition information is generated.
The text is an item that stores text information of the text recognition result for each section (speech section) in which the voice of the voice data of the call conducted between the user and the customer exists. Specifically, the contents of sentences uttered by the speaker for each utterance section of the voice data are stored as text data.
The utterance time is an item that stores the start time in the voice data of the utterance period (interval voice data). Note that the utterance time may be an arbitrary time related to each utterance period, such as the start time of each utterance period, the end time of each utterance period, or the time between any utterance periods.
As for the speaker, information for identifying the speaker of the interval voice data is stored. Specifically, it is information for identifying a user or a customer. Note that user identification information for identifying a speaker such as a user ID and customer ID, customer identification information, and the like may be stored.

要約テーブル1016は、ユーザと顧客との間で行われた通話の音声認識情報に対して要約処理を行い得られた発話時刻、話者、テキストからなる要約情報を記憶するテーブルである。要約情報は、ユーザと顧客との間で行われた通話に関連し、当該通話を特徴づけるテキストからなる情報である。ユーザは、要約情報を確認することにより、ユーザと顧客との間で行われた通話の内容を短時間で把握することができる。要約テーブル1016は、通話ID、テキスト、発話時刻、話者のカラムを有するテーブルである。 The summary table 1016 is a table that stores summary information consisting of utterance time, speaker, and text obtained by performing summary processing on voice recognition information of a call made between a user and a customer. Summary information is textual information relating to and characterizing a call between a user and a customer. By checking the summary information, the user can grasp the content of the call made between the user and the customer in a short time. Summary table 1016 is a table having columns for call ID, text, time of speech, and speaker.

通話IDは、要約情報の生成元となる通話データの通話ID(通話データ識別情報)を記憶する項目である。
テキストは、要約情報として抽出された音声認識情報のテキストを記憶する項目である。
発話時刻は、要約情報として抽出された音声認識情報の発話時刻を記憶する項目である。
話者は、要約情報として抽出された音声認識情報の話者を記憶する項目である。
The call ID is an item that stores the call ID (call data identification information) of the call data that is the source of the summary information.
Text is an item that stores the text of speech recognition information extracted as summary information.
The utterance time is an item that stores the utterance time of the speech recognition information extracted as summary information.
Speaker is an item that stores the speaker of the speech recognition information extracted as summary information.

応対メモテーブル1017は、ユーザと顧客との間で行われる通話に関連する通話データに対して紐付けられ記憶される応対メモに関する情報を記憶し管理するテーブルである。ユーザは、通話データに対して応対メモを設定(付与)することにより多数の通話データを整理し管理することができる。また、サーバ10は、各種制御処理を行う際に通話データに付与された応対メモを用いて処理条件を変化させることができる。応対メモテーブル1017は、メモIDを主キーとし、メモID、通話ID、付与者ID、メモ内容、メモ日時のカラムを有するテーブルである。 The response memo table 1017 is a table that stores and manages information related to response memos that are associated with call data related to calls made between users and customers. A user can organize and manage a large number of call data by setting (attaching) a response memo to the call data. Further, the server 10 can change the processing conditions by using the response memo added to the call data when performing various control processing. The response memo table 1017 is a table having memo ID as a primary key and columns of memo ID, call ID, grantor ID, memo content, and memo date and time.

メモIDは、応対メモを識別するための応対メモ識別情報を記憶する項目である。
通話IDは、応対メモが付与された通話データの通話ID(通話データ識別情報)を記憶する項目である。
付与者IDは、通話データに対して応対メモを付与したユーザのユーザIDを記憶する項目である。
メモ内容は、通話データに対して付与される応対メモの内容を記憶する項目である。メモ内容は、通常は文字列(テキスト)情報である。
メモ日時は、ユーザが通話データに対して応対メモを付与した日時を記憶する項目である。
Memo ID is an item for storing response memo identification information for identifying a response memo.
The call ID is an item that stores the call ID (call data identification information) of the call data to which the response memo is attached.
The giver ID is an item for storing the user ID of the user who gave the response memo to the call data.
The content of the memo is an item that stores the content of the memo attached to the call data. The contents of the memo are usually character string (text) information.
The memo date and time is an item for storing the date and time when the user added a response memo to the call data.

<サーバ10の制御部の構成>
サーバ10の制御部104は、ユーザ登録制御部1041、設定部1042、認識部1043、解析部1044、重要度算定部1045、要約部1046、学習部1047、応対メモ提案部1048、応対メモ付与部1049、スコア算定部1050、CRM記憶制御部1051、表示制御部1052を備える。制御部104は、記憶部101に記憶されたアプリケーションプログラム1011を実行することにより、各機能ユニットが実現される。
<Configuration of Control Unit of Server 10>
The control unit 104 of the server 10 includes a user registration control unit 1041, a setting unit 1042, a recognition unit 1043, an analysis unit 1044, an importance calculation unit 1045, a summary unit 1046, a learning unit 1047, a response memo proposal unit 1048, and a response memo addition unit. 1049 , a score calculation unit 1050 , a CRM storage control unit 1051 and a display control unit 1052 . Control unit 104 implements each functional unit by executing application program 1011 stored in storage unit 101 .

ユーザ登録制御部1041は、本開示に係るサービスの利用を希望するユーザの情報をユーザテーブル1012に記憶する処理を行う。
ユーザテーブル1012に記憶される、ユーザID、ユーザ名、ユーザ属性などの情報は、ユーザが任意の情報処理端末からサービス提供者が運営するウェブページなどを開き、所定の入力フォームにユーザID、ユーザ名、ユーザ属性を入力しサーバ10へ送信する。サーバ10のユーザ登録制御部1041は、受信したユーザID、ユーザ名、ユーザ属性をユーザテーブル1012の新しいレコードに記憶し、ユーザ登録が完了する。これにより、ユーザテーブル1012に記憶されたユーザはサービスを利用することができるようになる。
ユーザ登録制御部1041によるユーザ情報のユーザテーブル1012への登録に先立ち、サービス提供者は所定の審査を行いユーザによるサービス利用可否を制限しても良い。
ユーザIDは、ユーザを識別できる任意の文字列または数字で良く、ユーザが希望する任意の文字列または数字、もしくはサーバ10のユーザ登録制御部1041が自動的に任意の文字列または数字を設定しても良い。
ユーザ登録制御部1041は、ユーザ登録の際に、ユーザと紐付けて、ユーザが所属する組織の組織ID、組織名、組織属性などの情報を組織テーブル1013に記憶しても良い。ユーザが所属する組織の情報は、ユーザ自身が入力しても良いし、ユーザが所属する組織の管理者、本開示にかかるサービスの運営者などが登録するものとしても良い。
The user registration control unit 1041 performs processing for storing information of users who wish to use the service according to the present disclosure in the user table 1012 .
Information stored in the user table 1012, such as user IDs, user names, and user attributes, can be obtained by opening a web page or the like operated by a service provider from any information processing terminal, filling in a predetermined input form with the user ID, user First name and user attributes are entered and transmitted to the server 10 . The user registration control unit 1041 of the server 10 stores the received user ID, user name, and user attributes in a new record of the user table 1012, and user registration is completed. As a result, the users stored in the user table 1012 can use the service.
Prior to registration of user information in the user table 1012 by the user registration control unit 1041, the service provider may perform a predetermined examination to limit whether or not the user can use the service.
The user ID may be any character string or number that can identify the user, any character string or number desired by the user, or any character string or number automatically set by the user registration control unit 1041 of the server 10. can be
The user registration control unit 1041 may store information such as the organization ID, organization name, and organization attributes of the organization to which the user belongs in the organization table 1013 in association with the user at the time of user registration. The information on the organization to which the user belongs may be input by the user himself or may be registered by the administrator of the organization to which the user belongs, the operator of the service according to the present disclosure, or the like.

設定部1042は、連携モード設定処理を実行する。詳細は後述する。
認識部1043は、音声認識処理を実行する。詳細は後述する。
解析部1044は、音声解析処理を実行する。詳細は後述する。
重要度算定部1045は、重要度算定処理を実行する。詳細は後述する。
要約部1046は、要約処理を実行する。詳細は後述する。
学習部1047は、学習処理を実行する。詳細は後述する。
応対メモ提案部1048は、応対メモ提案処理を実行する。詳細は後述する。
応対メモ付与部1049は、応対メモ付与処理を実行する。詳細は後述する。
スコア算定部1050は、スコア算定処理を実行する。詳細は後述する。
CRM記憶制御部1051は、CRM記憶処理を実行する。詳細は後述する。
表示制御部1052は、通話表示処理を実行する。詳細は後述する。
The setting unit 1042 executes cooperation mode setting processing. Details will be described later.
The recognition unit 1043 executes voice recognition processing. Details will be described later.
The analysis unit 1044 executes voice analysis processing. Details will be described later.
The importance calculation unit 1045 executes importance calculation processing. Details will be described later.
Summarizing unit 1046 performs a summarizing process. Details will be described later.
The learning unit 1047 executes learning processing. Details will be described later.
The response memo proposal unit 1048 executes a response memo proposal process. Details will be described later.
The response memo adding unit 1049 executes a response memo adding process. Details will be described later.
The score calculation unit 1050 executes score calculation processing. Details will be described later.
The CRM storage control unit 1051 executes CRM storage processing. Details will be described later.
The display control unit 1052 executes call display processing. Details will be described later.

<ユーザ端末20の機能構成>
ユーザ端末20のハードウェア構成が実現する機能構成を図3に示す。ユーザ端末20は、記憶部201、制御部204、ユーザ端末20に接続された入力装置206、出力装置208を備える。入力装置206は、カメラ2061、マイク2062、位置情報センサ2063、モーションセンサ2064、キーボード2065、マウス2066を含む。出力装置208は、ディスプレイ2081、スピーカ2082を含む。
<Functional Configuration of User Terminal 20>
A functional configuration realized by the hardware configuration of the user terminal 20 is shown in FIG. The user terminal 20 includes a storage unit 201 , a control unit 204 , an input device 206 connected to the user terminal 20 and an output device 208 . Input device 206 includes camera 2061 , microphone 2062 , position information sensor 2063 , motion sensor 2064 , keyboard 2065 and mouse 2066 . The output device 208 includes a display 2081 and speakers 2082 .

<ユーザ端末20の記憶部の構成>
ユーザ端末20の記憶部201は、ユーザ端末20を利用するユーザを識別するためのユーザID2011、アプリケーションプログラム2012、CRMID2013を記憶する。
ユーザIDは、サーバ10に対するユーザのアカウントIDである。ユーザは、ユーザ端末20からユーザID2011を、サーバ10へ送信する。サーバ10は、ユーザID2011に基づきユーザを識別し、本開示にかかるサービスをユーザに対して提供する。なお、ユーザIDには、ユーザ端末20を利用しているユーザを識別するにあたりサーバ10から一時的に付与されるセッションIDなどの情報を含む。
CRMIDは、CRMシステム30に対するユーザのアカウントIDである。ユーザは、ユーザ端末20からCRMID2013を、CRMシステム30へ送信する。CRMシステム30は、CRMID2013に基づきユーザを識別し、CRMサービスをユーザに対して提供する。なお、CRMID2013には、ユーザ端末20を利用しているユーザを識別するにあたりCRMシステム30から一時的に付与されるセッションIDなどの情報を含む。
アプリケーションプログラム2012は、記憶部201に予め記憶されていても良いし、通信IFを介してサービス提供者が運営するウェブサーバ等からダウンロードする構成としても良い。アプリケーションプログラム2012は、ユーザ端末20に記憶されているウェブブラウザアプリケーション上で実行されるJavaScript(登録商標)などのインタープリター型プログラミング言語を含む。
<Configuration of Storage Unit of User Terminal 20>
The storage unit 201 of the user terminal 20 stores a user ID 2011 for identifying a user who uses the user terminal 20, an application program 2012, and a CRM ID 2013. FIG.
The user ID is the user's account ID for the server 10 . The user transmits the user ID 2011 from the user terminal 20 to the server 10 . The server 10 identifies the user based on the user ID 2011 and provides the user with the service according to the present disclosure. The user ID includes information such as a session ID temporarily assigned by the server 10 to identify the user using the user terminal 20 .
CRMID is the user's account ID for the CRM system 30 . The user transmits the CRMID 2013 from the user terminal 20 to the CRM system 30 . The CRM system 30 identifies the user based on the CRMID 2013 and provides the CRM service to the user. The CRMID 2013 includes information such as a session ID temporarily assigned by the CRM system 30 to identify the user using the user terminal 20 .
The application program 2012 may be stored in the storage unit 201 in advance, or may be downloaded from a web server or the like operated by the service provider via the communication IF. Application program 2012 includes an interpreted programming language such as JavaScript (registered trademark) that runs on a web browser application stored in user terminal 20 .

<ユーザ端末20の制御部の構成>
ユーザ端末20の制御部204は、入力制御部2041および出力制御部2042を備える。制御部204は、記憶部201に記憶されたアプリケーションプログラム2012を実行することにより、入力制御部2041、出力制御部2042の機能ユニットが実現される。
ユーザ端末20の入力制御部2041は、ユーザ端末20に接続されたカメラ2061、マイク2062、位置情報センサ2063、モーションセンサ2064、キーボード2065、マウス2066などの入力装置から出力される情報を取得し各種処理を実行する。ユーザ端末20の入力制御部2041は、入力装置206から取得した情報をユーザID2011とともにサーバ10へ送信する処理を実行する。同様に、ユーザ端末20の入力制御部2041は、入力装置206から取得した情報をCRMID2013とともにCRMシステム30へ送信する処理を実行する。
ユーザ端末20の出力制御部2042は、入力装置206に対するユーザによる操作およびサーバ10、CRMシステム30から情報を受信し、ユーザ端末20に接続されたディスプレイ2081の表示内容、スピーカ2082の音声出力内容の制御処理を実行する。
<Configuration of Control Unit of User Terminal 20>
The control unit 204 of the user terminal 20 has an input control unit 2041 and an output control unit 2042 . By executing the application program 2012 stored in the storage unit 201 , the control unit 204 implements functional units of an input control unit 2041 and an output control unit 2042 .
The input control unit 2041 of the user terminal 20 acquires information output from input devices such as a camera 2061, a microphone 2062, a position information sensor 2063, a motion sensor 2064, a keyboard 2065, and a mouse 2066 connected to the user terminal 20, and various Execute the process. The input control unit 2041 of the user terminal 20 executes a process of transmitting information acquired from the input device 206 to the server 10 together with the user ID 2011 . Similarly, the input control unit 2041 of the user terminal 20 performs a process of transmitting information acquired from the input device 206 to the CRM system 30 together with the CRMID 2013 .
The output control unit 2042 of the user terminal 20 receives the user's operation on the input device 206 and information from the server 10 and the CRM system 30, and controls the display content of the display 2081 connected to the user terminal 20 and the audio output content of the speaker 2082. Execute control processing.

<CRMシステム30の機能構成>
CRMシステム30のハードウェア構成が実現する機能構成を図4に示す。CRMシステム30は、記憶部301、制御部304を備える。
ユーザは、別途CRM事業者とも契約を締結しており、ユーザごとに設定されたCRMID2013を用いてCRM事業者が運営するウェブサイトへウェブブラウザなどを介してアクセス(ログイン)することにより、CRMサービスの提供を受ける事ができる。
<Functional Configuration of CRM System 30>
A functional configuration realized by the hardware configuration of the CRM system 30 is shown in FIG. The CRM system 30 has a storage unit 301 and a control unit 304 .
The user has also concluded a separate contract with a CRM business, and by using the CRM ID 2013 set for each user to access (login to) the website operated by the CRM business through a web browser, etc., the CRM service can be accessed. can be provided.

<CRMシステム30の記憶部の構成>
CRMシステム30の記憶部301は、顧客テーブル3012、応対履歴テーブル3013を備える。
図12は、顧客テーブル3012のデータ構造を示す図である。図13は、応対履歴テーブル3013のデータ構造を示す図である。
<Configuration of Storage Unit of CRM System 30>
The storage unit 301 of the CRM system 30 has a customer table 3012 and a reception history table 3013 .
FIG. 12 is a diagram showing the data structure of the customer table 3012. As shown in FIG. FIG. 13 shows the data structure of the response history table 3013. As shown in FIG.

顧客テーブル3012は、顧客情報を記憶し管理するためのテーブルである。顧客テーブル3012は、顧客IDを主キーとし、顧客ID、ユーザID、氏名、電話番号、顧客属性、顧客組織名、顧客組織属性のカラムを有するテーブルである。 The customer table 3012 is a table for storing and managing customer information. The customer table 3012 is a table having customer ID as a primary key and columns of customer ID, user ID, name, telephone number, customer attribute, customer organization name, and customer organization attribute.

顧客IDは、顧客を識別するための顧客識別情報を記憶する項目である。
ユーザIDは、顧客に紐付けられたユーザのユーザID(ユーザ識別情報)を記憶する項目である。ユーザは、自身のユーザIDに紐付けられた顧客を一覧表示したり、顧客に対して発信(架電)することができる。
本開示において、顧客はユーザに対して紐付けられるものとしたが、組織(組織テーブル1013の組織ID)に対して紐付けても良い。その場合、組織に所属するユーザは、自身の組織IDに紐付けられた顧客を一覧表示したり、顧客に対して発信することができる。
氏名は、顧客の氏名を記憶する項目である。
電話番号は、顧客の電話番号を記憶する項目である。
ユーザは、CRMシステムが提供するウェブサイトにアクセスし、電話を発信したい顧客を選択し「発信」などの所定の操作を行なうことにより、ユーザ端末20から顧客の電話番号に対して電話を発信することができる。
顧客属性は、顧客の年齢、性別、出身地、方言、職種(営業、カスタマーサポートなど)などの顧客の属性に関する情報を記憶する項目である。
顧客組織名は、顧客の所属する組織の名称を記憶する項目である。組織の名称は、会社名、法人名、企業グループ名、サークル名、各種団体名など任意の組織名、グループ名を含む。
顧客組織属性は、顧客の組織種別(会社、企業グループ、その他団体など)、業種(不動産、金融など)などの組織の属性に関する情報を記憶する項目である。
顧客属性、顧客組織名、顧客組織属性は、ユーザが入力することにより記憶する構成としても良いし、所定のウェブサイトへ顧客がアクセスすることにより、顧客に入力させても良い。
The customer ID is an item that stores customer identification information for identifying the customer.
The user ID is an item that stores the user ID (user identification information) of the user associated with the customer. The user can display a list of customers associated with his/her own user ID, and can make calls (calls) to the customers.
In the present disclosure, the customer is associated with the user, but may be associated with the organization (organization ID of the organization table 1013). In that case, a user belonging to an organization can display a list of customers associated with his/her own organization ID, or can send a message to the customer.
The name is an item for storing the customer's name.
The phone number is an item that stores the customer's phone number.
A user accesses a website provided by the CRM system, selects a customer to call, and performs a predetermined operation such as "Call" to make a call to the customer's telephone number from the user terminal 20. be able to.
The customer attribute is an item that stores information related to customer attributes such as customer age, gender, hometown, dialect, occupation (sales, customer support, etc.).
The customer organization name is an item that stores the name of the organization to which the customer belongs. The name of the organization includes arbitrary organization names and group names such as company names, corporate names, corporate group names, circle names, and various organization names.
The customer organization attribute is an item that stores information related to organization attributes such as the customer's organization type (company, corporate group, other organization, etc.) and type of industry (real estate, finance, etc.).
The customer attribute, the customer organization name, and the customer organization attribute may be stored by inputting them by the user, or may be input by the customer when the customer accesses a predetermined website.

応対履歴テーブル3013は、顧客対応(応対履歴)の記録(応対履歴情報)を記憶し管理するためのテーブルである。顧客対応が営業活動の場合には、過去の営業活動の記録(日時、営業活動の内容など)が記憶される。応対履歴テーブル3013は、応対履歴IDを主キーとし、応対履歴ID、通話ID、URL、顧客ID、ユーザID(発信者)、ダイアル日時、通話開始日時、通話終了日時、コメントのカラムを有するテーブルである。 The response history table 3013 is a table for storing and managing records (response history information) of customer responses (response history). When the customer correspondence is sales activities, records of past sales activities (date and time, contents of sales activities, etc.) are stored. The response history table 3013 has a response history ID as a primary key, and has columns of response history ID, call ID, URL, customer ID, user ID (caller), dialing date and time, call start date and time, call end date and time, and comment. is.

本開示においては、ユーザと顧客との間で通話が行われるごとに、新たにレコードが作成され応対履歴情報が記憶される。
応対履歴IDは、応対履歴を識別するための応対履歴識別情報を記憶する項目である。
通話IDは、応対履歴に関する通話データの通話ID(通話データ識別情報)を記憶する項目である。これにより、CRMシステムにおける応対履歴は、サーバ10の通話データと紐付けられる。
URLは、通話IDを一意に特定する文字列を含むURL(Uniform Resource Locator)情報である。URLには通話IDが直接含まれていても良いし、通話IDを復号可能な文字列、その他、不図示のテーブルを参照して通話IDを取得できる特定の文字列が含まれていても良い。ユーザは、ユーザ端末20のブラウザを操作し、URLを開くことにより、サーバ10にアクセスし応対履歴に関する通話データの解析データを可視化した解析結果画面を確認することができる。
顧客IDは、応対履歴に関する顧客の顧客ID(顧客識別情報)を記憶する項目である。
ユーザIDは、応対履歴に関するユーザのユーザID(ユーザ識別情報)を記憶する項目である。
ダイアル日時は、応対履歴に関して、ユーザが顧客に対して発信を行った日時を記憶する項目である。
通話開始日時は、応対履歴に関して、ユーザと顧客との間で行われた通話の開始日時を記憶する項目である。
通話終了日時は、応対履歴に関して、ユーザと顧客との間で行われた通話の終了日時を記憶する項目である。
コメントは、応対履歴に関して、メモ、コメントなどのテキスト情報を記憶する項目である。ユーザは、応対履歴に関して気づいた事項、申し送り事項などをコメントに事由に編集することができる。また、サーバ10の制御部104は、CRMシステム30のAPI(Application Programming Interface)へ所定のリクエストを送信することにより、コメントを自由に編集することができる。
In the present disclosure, each time a call is made between a user and a customer, a new record is created and reception history information is stored.
The response history ID is an item for storing response history identification information for identifying the response history.
The call ID is an item that stores the call ID (call data identification information) of call data related to the response history. Thereby, the reception history in the CRM system is associated with the call data of the server 10 .
The URL is URL (Uniform Resource Locator) information including a character string that uniquely identifies the call ID. The URL may contain the call ID directly, or may contain a character string that can decode the call ID, or a specific character string that can acquire the call ID by referring to a table (not shown). . By operating the browser of the user terminal 20 and opening the URL, the user can access the server 10 and check the analysis result screen that visualizes the analysis data of the call data related to the response history.
The customer ID is an item that stores the customer's customer ID (customer identification information) related to the response history.
The user ID is an item that stores the user ID (user identification information) of the user regarding the response history.
The date and time dialed is an item for storing the date and time when the user made a call to the customer in relation to the reception history.
The call start date and time is an item that stores the start date and time of the call made between the user and the customer in relation to the reception history.
The call end date and time is an item that stores the end date and time of the call between the user and the customer in relation to the response history.
A comment is an item that stores text information such as memos and comments regarding the response history. The user can edit the matters noticed about the response history, the matters to be transferred, etc. as comments. Also, the control unit 104 of the server 10 can freely edit the comment by sending a predetermined request to the API (Application Programming Interface) of the CRM system 30 .

<CRMシステム30の制御部の構成>
CRMシステム30の制御部304は、ユーザ登録制御部3041を備える。制御部304は、記憶部301に記憶されたアプリケーションプログラム3011を実行することにより、各機能ユニットが実現される。
<Configuration of Control Unit of CRM System 30>
The control section 304 of the CRM system 30 has a user registration control section 3041 . Control unit 304 implements each functional unit by executing application program 3011 stored in storage unit 301 .

CRMシステム30は、API(Application Programming Interface)、SDK(Software Development Kit)、コードスニペッド(以下、「ビーコン」と呼ぶ)と呼ばれる機能を提供しており、ユーザは予め本開示にかかるサーバ10およびCRMシステム30についてアカウント情報などの紐付け設定を行うことにより、サーバ10の制御部104とCRMシステム30の制御部304は相互に通信し、任意の情報処理を実現することができる。 The CRM system 30 provides functions called API (Application Programming Interface), SDK (Software Development Kit), and code snippets (hereinafter referred to as "beacons"), and the user can use the server 10 and By setting account information and the like for the CRM system 30, the control unit 104 of the server 10 and the control unit 304 of the CRM system 30 can communicate with each other to realize arbitrary information processing.

<音声サーバ(PBX)40の概要>
音声サーバ(PBX)40は、ユーザから顧客に対する発信があった場合に、顧客端末50に対し発信(呼出し)を行う。
音声サーバ(PBX)40は、顧客からユーザに対する発信があった場合に、ユーザ端末20に対し、その旨を示すメッセージ(以下、「着信通知メッセージ」と呼ぶ)を送る。また、音声サーバ(PBX)40は、サーバ10が提供するビーコン、SDK、APIなどに着信通知メッセージを送ることができる。
<Outline of voice server (PBX) 40>
The voice server (PBX) 40 makes a call to the customer terminal 50 when the user makes a call to the customer.
The voice server (PBX) 40 sends a message (hereinafter referred to as an "incoming call notification message") to the user terminal 20 to indicate that the customer has made a call to the user. Also, the voice server (PBX) 40 can send an incoming call notification message to the beacon, SDK, API, etc. provided by the server 10 .

<顧客端末50の機能構成>
顧客端末50のハードウェア構成が実現する機能構成を図5に示す。顧客端末50は、記憶部501、制御部504、タッチパネル506、タッチセンシティブデバイス5061、ディスプレイ5062、マイク5081、スピーカ5082、位置情報センサ5083、カメラ5084、モーションセンサ5085を備える。
<Functional Configuration of Customer Terminal 50>
FIG. 5 shows a functional configuration realized by the hardware configuration of the customer terminal 50. As shown in FIG. The customer terminal 50 includes a storage unit 501 , a control unit 504 , a touch panel 506 , a touch sensitive device 5061 , a display 5062 , a microphone 5081 , a speaker 5082 , a position information sensor 5083 , a camera 5084 and a motion sensor 5085 .

<顧客端末50の記憶部の構成>
顧客端末50の記憶部501は、顧客端末50を利用する顧客の電話番号5011、アプリケーションプログラム5012を記憶する。
アプリケーションプログラム5012は、記憶部501に予め記憶されていても良いし、通信IFを介してサービス提供者が運営するウェブサーバ等からダウンロードする構成としても良い。アプリケーションプログラム5012は、顧客端末50に記憶されているウェブブラウザアプリケーション上で実行されるJavaScript(登録商標)などのインタープリター型プログラミング言語を含む。
<Configuration of Storage Unit of Customer Terminal 50>
The storage unit 501 of the customer terminal 50 stores telephone numbers 5011 and application programs 5012 of customers who use the customer terminal 50 .
The application program 5012 may be stored in the storage unit 501 in advance, or may be downloaded from a web server or the like operated by the service provider via the communication IF. The application program 5012 includes an interpreted programming language such as JavaScript (registered trademark) executed on a web browser application stored in the customer terminal 50 .

<顧客端末50の制御部の構成>
顧客端末50の制御部504は、入力制御部5041および出力制御部5042を備える。制御部504は、記憶部501に記憶されたアプリケーションプログラム5012を実行することにより、入力制御部5041、出力制御部5042の機能ユニットが実現される。
顧客端末50の入力制御部5041は、ユーザによるタッチパネル506のタッチセンシティブデバイス5061への操作内容、マイク5081への音声入力、位置情報センサ5083、カメラ5084、モーションセンサ5085などの入力装置から出力される情報を取得し各種処理を実行する。
顧客端末50の出力制御部5042は、入力装置に対するユーザによる操作およびサーバ10から情報を受信し、ディスプレイ5062の表示内容、スピーカ5082の音声出力内容などの制御処理を実行する。
<Configuration of Control Unit of Customer Terminal 50>
The control section 504 of the customer terminal 50 has an input control section 5041 and an output control section 5042 . By executing the application program 5012 stored in the storage unit 501 , the control unit 504 realizes the functional units of the input control unit 5041 and the output control unit 5042 .
The input control unit 5041 of the customer terminal 50 outputs from input devices such as the user's operation content to the touch sensitive device 5061 of the touch panel 506, voice input to the microphone 5081, position information sensor 5083, camera 5084, motion sensor 5085, etc. Acquire information and execute various processes.
The output control unit 5042 of the customer terminal 50 receives information from the user's operation on the input device and the server 10, and executes control processing of display contents of the display 5062, audio output contents of the speaker 5082, and the like.

<情報処理システム1の動作>
以下、情報処理システム1の各処理について説明する。
図14は、要約処理(第一実施例)の動作を示すフローチャートである。
図15は、要約処理(第二実施例)の動作を示すフローチャートである。
図16は、応対メモ付与処理の動作を示すフローチャートである。
図17は、応対メモ提案処理の動作を示すフローチャートである。
図18は、スコア算定処理の動作を示すフローチャートである。
図19は、CRM記憶処理の動作を示すフローチャートである。
図20は、通話表示処理の動作を示すフローチャートである。
図21は、要約処理(第一実施例)におけるバインディング処理の概要を示した図である。
図22は、要約処理(第二実施例)における追加抽出処理の概要を示した図である。
図23は、要約表示処理の概要を示した図である。
図24は、通話表示処理におけるCRMサービスの画面例を示した図である。
<Operation of information processing system 1>
Each process of the information processing system 1 will be described below.
FIG. 14 is a flow chart showing the operation of summary processing (first embodiment).
FIG. 15 is a flow chart showing the operation of summary processing (second embodiment).
FIG. 16 is a flow chart showing the operation of the response memo adding process.
FIG. 17 is a flow chart showing the operation of the response memo proposal process.
FIG. 18 is a flow chart showing the operation of the score calculation process.
FIG. 19 is a flow chart showing the operation of CRM storage processing.
FIG. 20 is a flow chart showing the operation of call display processing.
FIG. 21 is a diagram showing an overview of binding processing in summary processing (first embodiment).
FIG. 22 is a diagram showing an outline of additional extraction processing in summarization processing (second embodiment).
FIG. 23 is a diagram showing an overview of summary display processing.
FIG. 24 is a diagram showing a screen example of the CRM service in call display processing.

<用語定義>
情報処理システム1の各処理について説明するにあたり、用語を以下の通り定義する。
通話データは、ユーザと顧客との間で行われる通話に関するデータであり、通話テーブル1014の各項目に記憶されたデータ、通話IDにより紐づけられた音声認識テーブル1015の各項目に記憶されたデータ、通話IDにより紐づけられた要約テーブル1016の各項目に記憶されたデータなどを含むデータである。通話IDにより紐づけられた応対メモテーブル1017、応対履歴テーブル3013の各項目に記憶されたデータなどを含むデータである。
通話属性は、ユーザと顧客との間で行われる通話の属性に関するデータであり、ユーザ属性、ユーザの所属する組織の組織名または組織属性、顧客属性、顧客の所属する組織の組織名または組織属性、通話カテゴリ、受発信者種別などを含む。つまり、通話データは、通話を行なうユーザのユーザ属性、通話を行なう顧客の顧客属性、通話の通話カテゴリ、受発信者種別などの属性値により特徴づけられることになる。
<Definition of terms>
In describing each process of the information processing system 1, terms are defined as follows.
The call data is data related to calls made between the user and the customer, and includes data stored in each item of the call table 1014 and data stored in each item of the voice recognition table 1015 associated with the call ID. , data stored in each item of the summary table 1016 associated with the call ID. This data includes data stored in each item of the response memo table 1017 and the response history table 3013 associated with the call ID.
The call attribute is data related to the attribute of a call made between the user and the customer, and includes user attribute, organization name or organization attribute of the organization to which the user belongs, customer attribute, organization name or organization attribute of the organization to which the customer belongs. , call category, caller type, etc. In other words, call data is characterized by attribute values such as the user attribute of the user who makes the call, the customer attribute of the customer who makes the call, the call category of the call, and the type of caller/receiver.

<発信処理>
発信処理は、ユーザから顧客に対し発信(架電)する処理である。
<Outgoing process>
The calling process is a process of making a call (calling) from the user to the customer.

<発信処理の概要>
発信処理は、ユーザはユーザ端末20の画面に表示された複数の顧客のうち発信を希望する顧客を選択し、発信操作を行うことにより、顧客に対して発信を行なう一連の処理である。
<Outline of call processing>
The calling process is a series of processes in which the user selects a customer who wishes to make a call from among a plurality of customers displayed on the screen of the user terminal 20 and performs a calling operation to make a call to the customer.

<発信処理の詳細>
ユーザから顧客に発信する場合における情報処理システム1の発信処理について説明する。
<Details of outgoing processing>
A call processing of the information processing system 1 when a user makes a call to a customer will be described.

ユーザが顧客に発信する場合、情報処理システム1において以下の処理が実行される。 When a user calls a customer, the information processing system 1 performs the following processes.

ユーザはユーザ端末20を操作することにより、ウェブブラウザを起動し、CRMシステム30が提供するCRMサービスのウェブサイトへアクセスする。ユーザは、CRMサービスが提供する顧客管理画面を開くことにより自身の顧客をユーザ端末20のディスプレイ2081へ一覧表示することができる。
具体的に、ユーザ端末20は、CRMID2013および顧客を一覧表示する旨のリクエストをCRMシステム30へ送信する。CRMシステム30は、リクエストを受信すると、顧客テーブル3012を検索し、顧客ID、氏名、電話番号、顧客属性、顧客組織名、顧客組織属性などのユーザの顧客に関する情報をユーザ端末20に送信する。ユーザ端末20は、受信した顧客に関する情報をユーザ端末20のディスプレイ2081に表示する。
By operating the user terminal 20 , the user activates the web browser and accesses the CRM service website provided by the CRM system 30 . The user can display a list of his/her own customers on the display 2081 of the user terminal 20 by opening the customer management screen provided by the CRM service.
Specifically, the user terminal 20 transmits a CRM ID 2013 and a request to display a list of customers to the CRM system 30 . When the CRM system 30 receives the request, it searches the customer table 3012 and transmits to the user terminal 20 information about the user's customer, such as customer ID, name, telephone number, customer attributes, customer organization name, and customer organization attributes. The user terminal 20 displays the received customer information on the display 2081 of the user terminal 20 .

ユーザは、ユーザ端末20のディスプレイ2081に一覧表示された顧客から発信を希望する顧客を押下し選択する。顧客が選択された状態で、ユーザ端末20のディスプレイ2081に表示された「発信」ボタンまたは、電話番号ボタンを押下することにより、CRMシステム30に対し電話番号を含むリクエストを送信する。リクエストを受信したCRMシステム30は、電話番号を含むリクエストをサーバ10へ送信する。リクエストを受信したサーバ10は、音声サーバ(PBX)40に対し、発信リクエストを送信する。音声サーバ(PBX)40は、発信リクエストを受信すると、受信した電話番号に基づき顧客端末50に対し発信(呼出し)を行う。 The user presses and selects a customer who wishes to make a call from the customers listed on the display 2081 of the user terminal 20 . With the customer selected, pressing the "call" button or phone number button displayed on the display 2081 of the user terminal 20 sends a request including the phone number to the CRM system 30 . The CRM system 30 that has received the request transmits the request including the telephone number to the server 10 . The server 10 that has received the request transmits a call origination request to the voice server (PBX) 40 . Upon receiving the call request, the voice server (PBX) 40 makes a call (call) to the customer terminal 50 based on the received telephone number.

これに伴い、ユーザ端末20は、スピーカ2082などを制御し音声サーバ(PBX)40により発信(呼出し)が行われている旨を示す鳴動を行う。また、ユーザ端末20のディスプレイ2081は、音声サーバ(PBX)40により顧客に対して発信(呼出し)が行われている旨を示す情報を表示する。例えば、ユーザ端末20のディスプレイ2081は、「呼出中」という文字を表示してもよい。 Along with this, the user terminal 20 controls the speaker 2082 and the like to ring to indicate that the voice server (PBX) 40 is making a call (calling). Also, the display 2081 of the user terminal 20 displays information indicating that the voice server (PBX) 40 is making a call to the customer. For example, the display 2081 of the user terminal 20 may display the characters "calling".

顧客は、顧客端末50において不図示の受話器を持ち上げたり、顧客端末50のタッチパネル506に着信時に表示される「受信」ボタンなどを押下することにより、顧客端末50は通話可能状態となる。これに伴い、音声サーバ(PBX)40は、顧客端末50による応答がなされたことを示す情報(以下、「応答イベント」と呼ぶ)を、サーバ10、CRMシステム30などを介してユーザ端末20に送信する。
これにより、ユーザと顧客は、それぞれユーザ端末20、顧客端末50を用いて通話可能状態となり、ユーザと顧客との間で通話することができるようになる。具体的には、ユーザ端末20のマイク2062により集音されたユーザの音声は、顧客端末50のスピーカ5082から出力される。同様に、顧客端末50のマイク5081から集音された顧客の音声は、ユーザ端末20のスピーカ2082から出力される。
When the customer picks up the receiver (not shown) of the customer terminal 50 or presses the "Receive" button displayed on the touch panel 506 of the customer terminal 50 when receiving a call, the customer terminal 50 becomes ready for communication. Along with this, the voice server (PBX) 40 transmits information indicating that the customer terminal 50 has made a response (hereinafter referred to as "response event") to the user terminal 20 via the server 10, the CRM system 30, and the like. Send.
As a result, the user and the customer are ready to talk using the user terminal 20 and the customer terminal 50, respectively, and can talk between the user and the customer. Specifically, the user's voice collected by the microphone 2062 of the user terminal 20 is output from the speaker 5082 of the customer terminal 50 . Similarly, the customer's voice collected from the microphone 5081 of the customer terminal 50 is output from the speaker 2082 of the user terminal 20 .

ユーザ端末20のディスプレイ2081は、通話可能状態になると、応答イベントを受信し、通話が行われていることを示す情報を表示する。例えば、ユーザ端末20のディスプレイ2081は、「応答中」という文字を表示してもよい。 The display 2081 of the user terminal 20 receives the response event and displays information indicating that a call is being made when the call is ready. For example, the display 2081 of the user terminal 20 may display the characters "answering".

通話可能状態になると、後述する通話記憶処理、CRM記憶処理が実行される。 When the call is enabled, call storage processing and CRM storage processing, which will be described later, are executed.

<着信処理>
着信処理は、ユーザが顧客から着信(受電)する処理である。
<Incoming processing>
Incoming call processing is processing in which a user receives a call (receives a call) from a customer.

<着信処理の概要>
着信処理は、ユーザがユーザ端末20においてアプリケーションを立ち上げている場合に、顧客がユーザに対して発信した場合に、ユーザが着信する一連の処理である。
<Overview of Incoming Call Processing>
The incoming call process is a series of processes in which the user receives an incoming call when the user has started an application on the user terminal 20 and the customer has made a call to the user.

<着信処理の詳細>
ユーザが顧客から着信(受電)する場合における情報処理システム1の着信処理について説明する。
<Details of incoming call processing>
Incoming call processing of the information processing system 1 when the user receives an incoming call (receives a call) from a customer will be described.

ユーザが顧客から着信する場合、情報処理システム1において以下の処理が実行される。 When a user receives an incoming call from a customer, the information processing system 1 performs the following processes.

ユーザはユーザ端末20を操作することにより、ウェブブラウザを起動し、CRMシステム30が提供するCRMサービスのウェブサイトへアクセスする。このとき、ユーザはウェブブラウザにおいて、自身のアカウントにてCRMシステム30にログインし待機しているものとする。なお、ユーザはCRMシステム30にログインしていれば良く、CRMサービスにかかる他の作業などを行っていても良い。 By operating the user terminal 20 , the user activates the web browser and accesses the CRM service website provided by the CRM system 30 . At this time, it is assumed that the user logs in to the CRM system 30 with his own account on the web browser and waits. It is sufficient for the user to be logged in to the CRM system 30, and the user may be performing other work related to the CRM service.

顧客は、顧客端末50を操作し、音声サーバ(PBX)40に割り当てられた所定の電話番号を入力し、音声サーバ(PBX)40に対して発信する。音声サーバ(PBX)40は、顧客端末50の発信を着信イベントとして受信する。 The customer operates the customer terminal 50 , inputs a predetermined telephone number assigned to the voice server (PBX) 40 , and makes a call to the voice server (PBX) 40 . The voice server (PBX) 40 receives the outgoing call from the customer terminal 50 as an incoming call event.

音声サーバ(PBX)40は、サーバ10に対し、着信イベントを送信する。具体的には、音声サーバ(PBX)40は、サーバ10に対して顧客の電話番号5011を含む着信リクエストを送信する。サーバ10は、CRMシステム30を介してユーザ端末20に対して着信リクエストを送信する。
これに伴い、ユーザ端末20は、スピーカ2082などを制御し音声サーバ(PBX)40により着信が行われている旨を示す鳴動を行う。ユーザ端末20のディスプレイ2081は、音声サーバ(PBX)40により顧客から着信があること旨を示す情報を表示する。例えば、ユーザ端末20のディスプレイ2081は、「着信中」という文字を表示してもよい。
A voice server (PBX) 40 sends an incoming call event to the server 10 . Specifically, the voice server (PBX) 40 transmits an incoming call request including the customer's telephone number 5011 to the server 10 . The server 10 transmits an incoming call request to the user terminal 20 via the CRM system 30 .
Along with this, the user terminal 20 controls the speaker 2082 and the like to ring to indicate that the voice server (PBX) 40 is receiving an incoming call. The display 2081 of the user terminal 20 displays information indicating that the voice server (PBX) 40 has received an incoming call from the customer. For example, the display 2081 of the user terminal 20 may display the characters "incoming call".

ユーザ端末20は、ユーザによる応答操作を受付ける。応答操作は、例えば、ユーザ端末20において不図示の受話器を持ち上げたり、ユーザ端末20のディスプレイ2081に「電話に出る」と表示されたボタンを、ユーザがマウス2066を操作して押下する操作などにより実現される。
ユーザ端末20は、応答操作を受付けると、音声サーバ(PBX)40に対し、CRMシステム30、サーバ10を介して応答リクエストを送信する。音声サーバ(PBX)40は、送信されてきた応答リクエストを受信し、音声通信を確立する。これにより、ユーザ端末20は、顧客端末50と通話可能状態となる。
ユーザ端末20のディスプレイ2081は、通話が行われていることを示す情報を表示する。例えば、ユーザ端末20のディスプレイ2081は、「通話中」という文字を表示してもよい。
The user terminal 20 receives a response operation by the user. The response operation is, for example, by lifting the handset (not shown) of the user terminal 20, or by operating the mouse 2066 to press the button labeled "answer the call" on the display 2081 of the user terminal 20. Realized.
Upon accepting the response operation, the user terminal 20 transmits a response request to the voice server (PBX) 40 via the CRM system 30 and the server 10 . The voice server (PBX) 40 receives the transmitted response request and establishes voice communication. As a result, the user terminal 20 becomes ready for communication with the customer terminal 50 .
The display 2081 of the user terminal 20 displays information indicating that a call is being made. For example, the display 2081 of the user terminal 20 may display the characters "busy".

通話可能状態になると、後述する通話記憶処理、CRM記憶処理が実行される。 When the call is enabled, call storage processing and CRM storage processing, which will be described later, are executed.

<通話記憶処理>
通話記憶処理は、ユーザと顧客との間で行われる通話に関するデータを記憶する処理である。
<Call memory processing>
A call storage process is the process of storing data relating to calls made between a user and a customer.

<通話記憶処理の概要>
通話記憶処理は、ユーザと顧客との間で通話が開始された場合に、通話に関するデータを通話テーブル1014に記憶する一連の処理である。
<Overview of call memory processing>
The call storage process is a series of processes for storing data related to calls in the call table 1014 when a call is started between a user and a customer.

<通話記憶処理の詳細>
ユーザと顧客との間で通話が開始されると、音声サーバ(PBX)40は、ユーザと顧客との間で行われる通話に関する音声データを録音し、サーバ10へ送信する。サーバ10の制御部104は、音声データを受信すると、通話テーブル1014に新たなレコードを作成し、ユーザと顧客との間で行われる通話に関するデータを記憶する。具体的に、サーバ10の制御部104は、ユーザID、顧客ID、通話カテゴリ、受発信種別、音声データの内容を通話テーブル1014に記憶する。
<Details of call memory processing>
When a call is started between the user and the customer, the voice server (PBX) 40 records voice data regarding the call between the user and the customer and transmits the data to the server 10 . When the voice data is received, the control unit 104 of the server 10 creates a new record in the call table 1014 and stores the data regarding the call made between the user and the customer. Specifically, the control unit 104 of the server 10 stores the user ID, customer ID, call category, incoming/outgoing type, and contents of voice data in the call table 1014 .

サーバ10の制御部104は、発信処理または着信処理においてユーザ端末20から、ユーザのユーザID2011を取得し、新たなレコードのユーザIDの項目に記憶する。
サーバ10の制御部104は、発信処理または着信処理において電話番号に基づきCRMシステム30へ問い合わせを行なう。CRMシステム30は、顧客テーブル3012を電話番号により検索することにより、顧客IDを取得し、サーバ10へ送信する。サーバ10の制御部104は、取得した顧客IDを新たなレコードの顧客IDの項目に記憶する。
サーバ10の制御部104は、予めユーザまたは顧客ごとに設定された通話カテゴリの値を、新たなレコードの通話カテゴリの項目に記憶する。なお、通話カテゴリは、通話ごとにユーザが値を選択したり入力することにより記憶しても良い。
サーバ10の制御部104は、行われている通話がユーザにより発信したものか、顧客から発信されたものかを識別し、新たなレコードの受発信種別の項目にアウトバウンド(ユーザから発信)、インバウンド(顧客から発信)のいずれかの値を記憶する。
サーバ10の制御部104は、音声サーバ(PBX)40から受信する音声データを、新たなレコードの音声データの項目に記憶する。なお、音声データは他の場所に音声データファイルとして記憶し、通話終了後に、音声データファイルに対する参照情報(パス)を記憶するものとしても良い。また、サーバ10の制御部104は、通話終了後にデータを記憶する構成としても良い。
The control unit 104 of the server 10 acquires the user ID 2011 of the user from the user terminal 20 in the outgoing call process or incoming call process, and stores it in the user ID item of the new record.
The control unit 104 of the server 10 makes an inquiry to the CRM system 30 based on the telephone number in the outgoing call processing or incoming call processing. The CRM system 30 acquires the customer ID by searching the customer table 3012 by telephone number and transmits it to the server 10 . The control unit 104 of the server 10 stores the acquired customer ID in the customer ID item of the new record.
The control unit 104 of the server 10 stores the value of the call category set in advance for each user or customer in the call category item of the new record. Note that the call category may be stored by the user selecting or inputting a value for each call.
The control unit 104 of the server 10 identifies whether the call being made is originated by the user or originated by the customer, and puts outbound (originating from the user) and inbound in the incoming and outgoing call type item of the new record. (originating from the customer).
The control unit 104 of the server 10 stores the voice data received from the voice server (PBX) 40 in the voice data item of the new record. It should be noted that the voice data may be stored as a voice data file in another location, and the reference information (path) to the voice data file may be stored after the end of the call. Also, the control unit 104 of the server 10 may be configured to store data after the end of the call.

<音声認識処理>
音声認識処理は、ユーザと顧客との間で行われた通話の音声データに対してテキスト認識を行うことによりテキスト情報に変換し記憶する処理である。
<Voice recognition processing>
The voice recognition process is a process of converting voice data of a call between a user and a customer into text information and storing the data by text recognition.

<音声認識処理の概要>
音声認識処理は、通話テーブル1014に記憶された音声データを音声が存在する区間(発話区間)ごとに分割し区間音声データを抽出する。それぞれの区間音声データに対してテキスト認識を行なうことにより音声認識情報を生成し、音声認識テーブル1015に記憶する一連の処理である。
<Overview of speech recognition processing>
In the speech recognition process, the speech data stored in the call table 1014 is divided into sections (speech sections) in which speech exists, and section speech data is extracted. This is a series of processes in which speech recognition information is generated by performing text recognition on each section speech data and stored in the speech recognition table 1015 .

<音声認識処理の詳細>
サーバ10の認識部1043は、通話テーブル1014において通話記憶処理が行われたものの、音声認識処理が行われていないレコードを検索する。具体的には、サーバ10の認識部1043は、通話テーブル1014から、音声認識有無の項目にブランク、ヌル、その他、音声認識処理が行われていないことを示す情報などが記憶されているレコードを検索する。なお、サーバ10の認識部1043は、通話テーブル1014に音声データが記憶されているものの、音声認識テーブル1015に通話IDが存在しないレコードを音声認識処理が行われていないレコードと判定しても良い。
<Details of voice recognition processing>
The recognition unit 1043 of the server 10 searches the call table 1014 for records for which the call memory processing has been performed but the voice recognition processing has not been performed. Specifically, the recognition unit 1043 of the server 10 selects a record in which information such as blank, null, or other information indicating that the voice recognition process is not performed is stored in the voice recognition presence/absence item from the call table 1014. search for. Note that the recognition unit 1043 of the server 10 may determine a record in which voice data is stored in the call table 1014 but no call ID exists in the voice recognition table 1015 as a record in which voice recognition processing has not been performed. .

サーバ10の認識部1043は、音声認識処理が行われていないレコードの通話IDおよび音声データを取得する(受け付ける)。サーバ10の認識部1043は、取得(受付)した音声データから、音声が存在する区間(発話区間)を検出し、発話区間のそれぞれに対して音声データを区間音声データとして抽出する。区間音声データは、発話区間ごとに話者および発話時刻と紐付けられている。
サーバ10の認識部1043は、抽出された区間音声データに対してテキスト認識を行うことにより、区間音声データを文字(テキスト)に変換する(文字に起こす)。なお、テキスト認識の具体的手法は特に限定されない。例えば信号処理技術、AI(人工知能)を利用した機械学習や深層学習によって変換してもよい。
The recognition unit 1043 of the server 10 acquires (accepts) the call ID and voice data of the record for which voice recognition processing has not been performed. The recognition unit 1043 of the server 10 detects segments (utterance segments) in which voice exists from the acquired (accepted) voice data, and extracts voice data for each of the utterance segments as segment voice data. The segment voice data is associated with the speaker and the utterance time for each utterance segment.
The recognition unit 1043 of the server 10 performs text recognition on the extracted segmental voice data, thereby converting the segmental voice data into characters (text). Note that the specific method of text recognition is not particularly limited. For example, it may be converted by machine learning or deep learning using signal processing technology, AI (artificial intelligence).

サーバ10の認識部1043は、発話区間ごとのテキストを、各発話区間の開始時刻、話者(ユーザまたは顧客)と紐付けた一連のデータを、処理対象の通話IDと紐づけて音声認識テーブル1015に記憶する。サーバ10の認識部1043は、通話テーブル1014の音声認識有無の項目に、音声認識処理が完了したことを示す情報を記憶する。 The recognition unit 1043 of the server 10 associates a series of data in which the text for each speech period is associated with the start time of each speech period and the speaker (user or customer) with the call ID to be processed, and generates a speech recognition table. Store in 1015 . The recognition unit 1043 of the server 10 stores information indicating that the voice recognition process has been completed in the voice recognition presence/absence item of the call table 1014 .

音声認識テーブル1015には、音声データの発話区間ごとのテキストが、発話時刻、話者と紐付けられ連続的な時系列データとして記憶される。ユーザは、音声認識テーブル1015に記憶されたデータを確認することで、音声データの内容を聞かずにテキスト情報として通話内容を確認することができる。 In the speech recognition table 1015, the text for each utterance section of the voice data is associated with the utterance time and the speaker and stored as continuous time-series data. By checking the data stored in the voice recognition table 1015, the user can check the content of the call as text information without listening to the content of the voice data.

なお、発話時刻は、各発話区間の開始時刻、各発話区間の終了時刻、各発話区間の任意の間の時刻など各発話区間に関連した任意の時刻としても良い。 Note that the utterance time may be an arbitrary time related to each utterance period, such as the start time of each utterance period, the end time of each utterance period, or the time between any utterance periods.

<音声認識処理の変形例>
なお、音声認識処理の際に、予めテキストに含まれるフィラーなどのユーザと顧客との間で行われた通話を把握する上で無意味な情報をテキストから除外して、音声認識情報を音声認識テーブル1015に記憶する構成としても良い。
<Modified example of speech recognition processing>
In addition, during the speech recognition process, information such as fillers included in the text that is meaningless in terms of understanding the call between the user and the customer is removed from the text in advance, and the speech recognition information is converted to speech recognition. It may be configured to be stored in the table 1015 .

<音声解析処理>
音声解析処理は、ユーザと顧客との間で行われた通話の音声データを解析し解析データを生成し、記憶する処理である。
<Speech analysis processing>
The voice analysis process is a process of analyzing voice data of a call made between a user and a customer, generating analysis data, and storing the data.

<音声解析処理の概要>
音声解析処理は、通話テーブル1014に記憶された音声データに対して、音声解析処理を実行することにより、解析データを生成し、通話テーブル1014に記憶する一連の処理である。
<Outline of speech analysis processing>
The voice analysis process is a series of processes in which analysis data is generated by executing voice analysis process on voice data stored in the call table 1014 and stored in the call table 1014 .

<音声解析処理の詳細>
サーバ10の解析部1044は、通話テーブル1014において通話記憶処理が行われたものの、音声解析処理が行われていないレコードを検索する。具体的には、サーバ10の解析部1044は、通話テーブル1014から、音声データが記憶されているものの、解析データが記憶されていないレコードを検索する。解析データが記憶されていないとは、解析データの項目がブランク、ヌル、その他、記憶されていないことを示す情報などが記憶されていることを示す。
その他、不図示のカラムに音声解析処理の対象である旨を示す情報を記憶し、当該情報が記憶されているレコードを音声解析処理の対象としても良い。
<Details of voice analysis processing>
The analysis unit 1044 of the server 10 searches the call table 1014 for records for which the call memory processing has been performed but the voice analysis processing has not been performed. Specifically, the analysis unit 1044 of the server 10 searches the call table 1014 for a record in which voice data is stored but analysis data is not stored. The fact that the analysis data is not stored means that the item of the analysis data is blank, null, or other information indicating that it is not stored.
In addition, information indicating that the record is to be subjected to the voice analysis process may be stored in a column (not shown), and the record in which the information is stored may be subjected to the voice analysis process.

サーバ10は、音声解析処理が行われていないレコードの通話IDおよび音声データを取得する。サーバ10の解析部1044は、取得した音声データを解析し、Talk:Listen比率、沈黙回数、被り回数、ラリー回数、基本周波数、抑揚の強弱、話速、話速比、フィラー数、トークスクリプト一致度などを算出する。なお、解析の具体的手法は特に限定されない。例えば信号処理技術、AI(人工知能)を利用した機械学習や深層学習によって解析してもよい。 The server 10 acquires the call ID and voice data of records for which voice analysis processing has not been performed. The analysis unit 1044 of the server 10 analyzes the acquired voice data, Talk:Listen ratio, Silence count, Cover count, Rally count, Fundamental frequency, Inflection strength, Speech speed, Speech speed ratio, Filler count, Talk script match. Calculate degrees, etc. Note that the specific method of analysis is not particularly limited. For example, analysis may be performed by machine learning or deep learning using signal processing technology, AI (artificial intelligence).

Talk:Listen比率とは、ユーザの発話時間と通話先の発話時間との比率である。
沈黙回数は、通話において沈黙が生じた回数である。被り回数は、通話において被りが生じた回数である。
ラリー回数は、通話においてユーザと顧客との間で応対が行われた回数(会話が切り替わった回数)である。
基本周波数は、ユーザ、顧客ごとに定義され、ユーザまたは顧客の音声の基本周波数、つまり声の高さに相当する情報である。
抑揚の強弱は、ユーザ、顧客ごとに定義され、ユーザまたは顧客の抑揚の大きさを定量的に評価した情報である。
話速は、ユーザ、顧客ごとに定義され、ユーザまたは顧客の話すスピードである。話速は、例えば、1秒間のうちに発せられた文字数(または単語数)で示される。
話速比は、ユーザおよび顧客の話速の比に関する情報である。具体的には、ユーザの話速から顧客の話速を割った数値として示される。例えば、値が大きいほどユーザは顧客に比べて話速が速いことになる。
フィラー数は、音声認識データの文中のフィラー(例えばえー、あのー、などの言い淀み)の検出数である。フィラー数は、ユーザ、顧客ごとに定義されても良い。
トークスクリプト一致度は、ユーザまたはユーザの所属する組織ごとに設定されたトークスクリプトと、音声認識データから検出されたユーザの発話内容との一致度に関する情報である。
The Talk:Listen ratio is the ratio between the user's speaking time and the callee's speaking time.
The number of silences is the number of times silence occurred in the call. The number of times of confusion is the number of times that confusion occurs in a call.
The number of rallies is the number of times the user and the customer interacted with each other in a call (the number of times the conversation was switched).
The fundamental frequency is defined for each user or customer, and is information corresponding to the fundamental frequency of the voice of the user or customer, that is, the pitch of the voice.
The intensity of intonation is defined for each user or customer, and is information obtained by quantitatively evaluating the magnitude of intonation of the user or customer.
Speech speed is defined for each user or customer, and is the speaking speed of the user or customer. The speed of speech is indicated by, for example, the number of characters (or the number of words) uttered in one second.
The speech speed ratio is information regarding the ratio of speech speeds of the user and the customer. Specifically, it is indicated as a numerical value obtained by dividing the customer's speech rate from the user's speech rate. For example, the higher the value, the faster the user speaks than the customer.
The number of fillers is the number of detected fillers (for example, hesitation such as ah, ah, etc.) in the sentence of the speech recognition data. The number of fillers may be defined for each user, customer.
The talk script matching degree is information regarding the degree of matching between the talk script set for each user or the organization to which the user belongs and the user's utterance content detected from the speech recognition data.

サーバ10の解析部1044は、解析データを通話テーブル1014の処理対象のレコードの解析データの項目に記憶する。 The analysis unit 1044 of the server 10 stores the analysis data in the analysis data item of the record to be processed in the call table 1014 .

<要約処理(第一実施例)>
要約処理(第一実施例)は、音声認識情報から要約情報を生成し記憶する処理である。以下、要約処理(第一実施例)の詳細を図14のフローチャートを用いて説明する。
<Summary processing (first embodiment)>
Summarization processing (first embodiment) is processing for generating and storing summary information from speech recognition information. Details of the summarization process (first embodiment) will be described below with reference to the flowchart of FIG.

<要約処理(第一実施例)の概要>
要約処理(第一実施例)は、音声認識テーブル1015に記憶された音声認識情報を取得し、音声認識情報に含まれるテキストを発話時刻の順番に並べた場合に、話者が変化する前後のテキストをテキスト群としてバインディングするバインディング処理を実行し、バインディング処理後のテキスト及びテキスト群に対して重要度を算定し、当該重要度に基づき要約文書に用いるテキストを抽出し、要約文書を生成しサーバ10およびCRMシステム30に記憶する一連の処理である。
<Overview of summary processing (first embodiment)>
Summarization processing (first embodiment) acquires the speech recognition information stored in the speech recognition table 1015, and arranges the text included in the speech recognition information in the order of utterance time. Execute binding processing to bind text as a text group, calculate the importance of the text after binding processing and the text group, extract the text to be used for the summary document based on the importance, generate the summary document, and server 10 and the CRM system 30.

<要約処理(第一実施例)の詳細>
サーバ10の要約部1046は、定期的に要約処理(第一実施例)を自動的に実行する。
ステップS101において、サーバ10の要約部1046は、定期的に要約処理(第一実施例)を開始する。なお、サーバ10の要約部1046は、ユーザと顧客との間の通話の終了を検知して、要約処理(第一実施例)を開始するものとしても良い。
<Details of summary processing (first embodiment)>
The summarizing unit 1046 of the server 10 automatically executes the summarizing process (first embodiment) periodically.
In step S101, the summarizing unit 1046 of the server 10 periodically starts summarizing processing (first embodiment). Note that the summarizing unit 1046 of the server 10 may detect the end of the call between the user and the customer and start the summarizing process (first embodiment).

ステップS102において、サーバ10の要約部1046は、通話テーブル1014を参照し、音声認識有無の項目に、音声認識処理が完了したことを示す情報が記憶されているレコードを検索する。サーバ10の要約部1046は、音声認識処理が完了したことを示す情報が記憶されているレコードが見つかると、当該レコードを取得しステップS103に進む(ステップS102のYes)。
ユーザと顧客との間の通話が終了した後、音声認識処理が完了するまでの間は、通話テーブル1014の該当レコードの音声認識有無の項目には、音声認識処理が完了したことを示す情報が記憶されていないため、サーバ10の要約部は、ステップS102にて待機する(ステップS102のNo)。
In step S102, the summarizing unit 1046 of the server 10 refers to the call table 1014 and searches for a record in which information indicating that the voice recognition process has been completed is stored in the voice recognition presence/absence item. When the summarizing unit 1046 of the server 10 finds a record storing information indicating that the speech recognition processing has been completed, it acquires the record and proceeds to step S103 (Yes in step S102).
After the end of the call between the user and the customer, until the voice recognition process is completed, information indicating that the voice recognition process has been completed is displayed in the voice recognition presence/absence field of the corresponding record in the call table 1014. Since it is not stored, the summary unit of the server 10 waits in step S102 (No in step S102).

ステップS103において、サーバ10の要約部1046は、ステップS102において取得したレコードの要約有無の項目にブランク、ヌル、その他、要約処理(第一実施例)が行われていないことを示す情報などが記憶されているレコードを検索する。なお、サーバ10の要約部1046は、通話テーブル1014に音声データが記憶されているものの、要約テーブル1016に通話IDが存在しないレコードを要約処理(第一実施例)が行われていないレコードと判定しても良い。
サーバ10の要約部1046は、要約処理(第一実施例)が行われていないレコードが見つかると、当該レコードを取得しステップS104に進む(ステップS102のYes)。
In step S103, the summarization unit 1046 of the server 10 stores information such as blanks, nulls, and other information indicating that the summarization process (first embodiment) has not been performed in the summary presence/absence item of the record acquired in step S102. Search for records that have Note that the summarization unit 1046 of the server 10 determines that a record in which voice data is stored in the call table 1014 but whose call ID does not exist in the summary table 1016 is a record in which the summarization process (first embodiment) has not been performed. You can
When the summarizing unit 1046 of the server 10 finds a record that has not undergone the summarizing process (first embodiment), it acquires the record and proceeds to step S104 (Yes in step S102).

ステップS104において、サーバ10の要約部1046は、要約処理(第一実施例)が行われていないレコードの通話IDに基づき音声認識テーブル1015を検索し、テキスト、発話時刻、話者のレコードからなる音声認識情報を取得する。 In step S104, the summarizing unit 1046 of the server 10 searches the speech recognition table 1015 based on the call ID of the record that has not undergone the summarizing process (first embodiment), and finds the record consisting of text, utterance time, and speaker record. Get speech recognition information.

ステップS105において、サーバ10の要約部1046は、取得した音声認識情報に対してバインディング処理を実行する。具体的には、取得した音声認識情報を発話時刻の順番に並べた場合に、話者情報が変化する前後の複数のテキストをまとめたテキスト群を生成する。テキスト群は、配列などのデータ構造であり、話者が異なる複数のテキストを含む情報である。テキスト群には、発話時刻、話者などの他の音声認識情報が含まれていても良い。 In step S105, the summarizing unit 1046 of the server 10 performs binding processing on the acquired speech recognition information. Specifically, when the acquired speech recognition information is arranged in order of utterance time, a text group is generated by collecting a plurality of texts before and after the speaker information changes. A text group is a data structure such as an array, and is information including a plurality of texts by different speakers. The set of texts may also include other speech recognition information such as time of utterance, speaker, and so on.

図21は、要約処理(第一実施例)におけるバインディング処理の概要を示した図であり、話者ごとのテキストを発話時刻の順番に下方向に並べたものである。ユーザ、顧客ごとの発話区間ごとに認識されたテキストに対し、それぞれU1、U2・・・、C1、C2・・・と識別番号を採番してある。サーバ10の要約部1046は、例えば話者情報が顧客からユーザに変化するC4、U5のテキストをまとめてテキスト群を生成する。 FIG. 21 is a diagram showing an overview of the binding process in the summarization process (first embodiment), in which texts for each speaker are arranged downward in order of utterance time. Identification numbers such as U1, U2, . . . , C1, C2 . The summarizing unit 1046 of the server 10 generates a text group by collecting the texts of C4 and U5 whose speaker information changes from the customer to the user, for example.

なお、本開示においては、ユーザおよび顧客のそれぞれ1つずつのテキストをまとめてテキスト群を生成したが、話者情報が変化する前後の2以上のテキストをまとめてテキスト群を生成しても良い。話者情報が変化する前後のテキスト(例えば、C4、U5など)に対して予め重要度を算定し、重要度の値に応じた数のテキストをまとめてテキスト群を生成しても良い。例えば、重要度が大きいほどより多くのテキストをまとめてテキスト群を生成しても良い。
3者以上の会話においても、話者情報が変化する前後の複数のテキストをまとめたテキスト群を生成するものとしても良い。
In the present disclosure, a text group is generated by combining one text from each of the user and the customer, but two or more texts before and after the change in speaker information may be combined to generate a text group. . The importance may be calculated in advance for the texts before and after the speaker information changes (for example, C4, U5, etc.), and a text group may be generated by collecting the number of texts according to the value of the importance. For example, a text group may be generated by collecting more texts as the degree of importance is higher.
Even in conversations involving three or more parties, a text group may be generated by summarizing a plurality of texts before and after the change in speaker information.

ステップS106において、サーバ10の重要度算定部1045は、テキストおよびテキスト群に対して重要度算定処理を行う。重要度の算定方法は、任意の重要文抽出アルゴリズムを適用してもよい。
本開示においては、LexRankとよばれるアルゴリズムによる重要度の算定手法を一例として説明する。LexRankにおいては、複数の入力文章を対象として、それぞれの入力文章を形態素解析により単語ごとに分割し、各文章ごとの類似度(例えば、コサイン類似度)を算定し、文章間の類似度に基づくグラフ構造を算定し、グラフ構造に基づき各文章ごとの重要度を算定するアルゴリズムである。
具体的には、サーバ10の重要度算定部1045は、テキストおよびテキスト群のそれぞれを1つの入力文章として、LexRankを適用することにより、テキストおよびテキスト群ごとに重要度を算定する。
In step S106, the importance calculation unit 1045 of the server 10 performs importance calculation processing on the text and the text group. Any important sentence extraction algorithm may be applied to the calculation method of importance.
In the present disclosure, a method of calculating importance by an algorithm called LexRank will be described as an example. In LexRank, a plurality of input sentences are targeted, each input sentence is divided into words by morphological analysis, the similarity for each sentence (for example, cosine similarity) is calculated, and the similarity between sentences is calculated. It is an algorithm that calculates the graph structure and calculates the importance of each sentence based on the graph structure.
Specifically, the importance calculation unit 1045 of the server 10 treats each of the text and the text group as one input sentence, and applies LexRank to calculate the importance of each text and text group.

<重要度算定処理(第一実施例)>
重要度算定処理(第一実施例)において、サーバ10の重要度算定部1045は、テキスト群に含まれる複数のテキストを結合したテキストを1つの文章として扱いLexRankを適用する。例えば、C4「田口様いらっしゃいますでしょうか。」と、U5「田口ですね。」を結合した、「田口様いらっしゃいますでしょうか。田口ですね。」を1つの文章としてLexRankを適用し重要度を算定する。
<Importance degree calculation processing (first embodiment)>
In the importance calculation process (first embodiment), the importance calculation unit 1045 of the server 10 treats a text obtained by combining a plurality of texts included in a text group as one sentence and applies LexRank. For example, C4 "Is Mr. Taguchi here?" and U5 "I'm Taguchi." Calculate.

<重要度算定処理(第二実施例)>
重要度算定処理(第二実施例)において、サーバ10の重要度算定部1045は、テキスト群に含まれる複数のテキストのそれぞれを独立した文章としてLexRankを適用する。サーバ10の重要度算定部1045は、独立した文章に対して算定された重要度の和をテキスト群の重要度とする処理を実行する。
例えば、サーバ10の重要度算定部1045は、テキスト群に含まれるC4、U5のそれぞれの文章に対してLexRankを適用し、C4、U5のそれぞれに対して重要度を算定する。その後、サーバ10の重要度算定部1045は、C4の重要度と、U5の重要度の和をテキスト群の重要度とする処理を実行する。
なお、独立した文章に対して算定された重要度に対して統計処理を行なった統計値(平均値、中央値、最頻値、最大値、最小値など)をテキスト群の重要度としても良い。具体的には、独立した文章に対して算定された重要度の平均、最大値などがテキスト群の重要度として好適である。
<Importance degree calculation processing (second embodiment)>
In the importance calculation process (second embodiment), the importance calculation unit 1045 of the server 10 applies LexRank to each of the plurality of texts included in the text group as independent sentences. The importance calculation unit 1045 of the server 10 executes a process of setting the sum of the importances calculated for the independent sentences as the importance of the text group.
For example, the importance calculator 1045 of the server 10 applies LexRank to each sentence of C4 and U5 included in the text group, and calculates the importance of each of C4 and U5. After that, the importance calculation unit 1045 of the server 10 executes a process of setting the sum of the importance of C4 and the importance of U5 as the importance of the text group.
Note that statistical values (average, median, mode, maximum, minimum, etc.) obtained by statistically processing the importance calculated for independent sentences may be used as the importance of the text group. . Specifically, the average or maximum value of importance calculated for independent sentences is suitable as the importance of the text group.

ステップS107において、サーバ10の要約部1046は、所定値以上の重要度が算定されたテキストまたはテキスト群を抽出する。サーバ10の要約部1046は、抽出されたテキストおよびテキスト群に含まれるテキストを、音声認識テーブル1015における各テキストの発話時刻、話者とともに要約テーブル1016に記憶する。これにより、要約テーブル1016に要約情報が記憶される。サーバ10の要約部1046は、通話テーブル1014の要約有無の項目に、要約処理(第一実施例)が完了したことを示す情報を記憶する。 In step S107, the summarizing unit 1046 of the server 10 extracts texts or text groups for which the degree of importance of a predetermined value or more has been calculated. Summarization unit 1046 of server 10 stores the extracted texts and texts included in the text group in summary table 1016 together with the utterance time and speaker of each text in speech recognition table 1015 . As a result, summary information is stored in summary table 1016 . The summarizing unit 1046 of the server 10 stores information indicating that the summarizing process (first embodiment) has been completed in the summarization presence/absence item of the call table 1014 .

サーバ10の要約部1046は、抽出されたテキストおよびテキスト群に含まれるテキストを、音声認識テーブル1015における各テキストの発話時刻、話者とともに1つの文章(要約テキスト)に結合し、通話IDおよび要約テキストを含むリクエストを生成し、CRMシステム30に送信する。
CRMシステム30は、リクエストを受信すると、リクエストに含まれる通話IDから応対履歴テーブル3013を検索し、当該通話IDを有するレコードのコメントの項目に、受信した要約テキストを記憶する。
The summarizing unit 1046 of the server 10 combines the extracted texts and texts included in the text group into one sentence (summary text) together with the utterance time and speaker of each text in the speech recognition table 1015, the call ID and the summary. Generate a request containing the text and send it to the CRM system 30 .
When the request is received, the CRM system 30 searches the response history table 3013 from the call ID included in the request, and stores the received summary text in the comment field of the record having the call ID.

<要約処理(第二実施例)>
要約処理(第二実施例)は、音声認識情報から要約情報を生成し記憶する処理の第二の実施形態である。以下、要約処理(第二実施例)の詳細を図15のフローチャートを用いて説明する。
<Summary processing (second embodiment)>
Summarization processing (second embodiment) is a second embodiment of processing for generating and storing summary information from speech recognition information. Details of the summarization process (second embodiment) will be described below with reference to the flowchart of FIG.

<要約処理(第二実施例)の概要>
要約処理(第二実施例)は、音声認識テーブル1015に記憶された音声認識情報を取得し、音声認識情報に含まれるテキストに対して重要度を算定し、当該重要度に基づき要約文書に用いるテキストを抽出する。音声認識情報に含まれるテキストを発話時刻の順番に並べた場合に、抽出したテキストに対して話者が変化する前後のテキストを要約文書に用いるテキストとして抽出し、要約文書を生成しサーバ10およびCRMシステム30に記憶する一連の処理である。
<Overview of Summary Processing (Second Embodiment)>
The summarization process (second embodiment) acquires the speech recognition information stored in the speech recognition table 1015, calculates the importance of the text included in the speech recognition information, and uses it for the summary document based on the importance. Extract text. When the texts included in the speech recognition information are arranged in the order of utterance time, the text before and after the speaker changes in the extracted text is extracted as the text to be used for the summary document, and the summary document is generated. It is a series of processes stored in the CRM system 30 .

<要約処理(第二実施例)の詳細>
ステップS201からステップS204までの処理は、要約処理(第一実施例)のステップS101からステップS104までの処理と同様であるため説明を省略する。
<Details of summary processing (second embodiment)>
The processing from step S201 to step S204 is the same as the processing from step S101 to step S104 of the summarization processing (first embodiment), so description thereof is omitted.

ステップS205において、サーバ10の重要度算定部1045は、取得した音声認識情報に対して重要度算定処理を行う。重要度の算定方法は、任意の重要文抽出アルゴリズムを適用しても構わないが、本開示においては要約処理(第二実施例)と同様にLexRankとよばれるアルゴリズムによる重要度の算定手法を一例として説明する。 In step S205, the importance calculation unit 1045 of the server 10 performs importance calculation processing on the acquired speech recognition information. Any important sentence extraction algorithm may be applied to the method of calculating the importance, but in the present disclosure, an example of the method of calculating the importance by an algorithm called LexRank is used as in the summarization process (second embodiment). described as.

<重要度算定処理(第三実施例)>
サーバ10の重要度算定部1045は、取得した音声認識情報に含まれるテキストを1つの文章として扱いLexRankを適用する。図22は、要約処理(第二実施例)における追加抽出処理の概要を示した図であり、話者ごとのテキストを発話時刻の順番に下方向に並べたものである。図22の事例では、U1からU8、C1からC6のテキストすべてに対してそれぞれ重要度が算定される。
<Importance degree calculation processing (third embodiment)>
The importance calculation unit 1045 of the server 10 treats the text included in the acquired speech recognition information as one sentence and applies LexRank. FIG. 22 is a diagram showing an outline of additional extraction processing in summarization processing (second embodiment), in which texts for each speaker are arranged downward in order of utterance time. In the case of FIG. 22, the importance is calculated for all the texts U1 to U8 and C1 to C6.

ステップS206において、サーバ10の要約部1046は、所定値以上の重要度が算定されたテキストを抽出する。サーバ10の要約部1046は、抽出されたテキストと話者が異なり、発話時刻において前後するテキストを追加抽出する。
例えば、テキストU5が抽出された場合に、話者が異なり発話時刻において前後するテキストC4を追加抽出する。
In step S206, the summarizing unit 1046 of the server 10 extracts texts for which the degree of importance is calculated to be equal to or greater than a predetermined value. The summarizing unit 1046 of the server 10 additionally extracts texts that are different in speaker from the extracted text and whose utterance times are before and after.
For example, when the text U5 is extracted, the text C4 that is spoken by a different speaker and whose utterance time is before or after is additionally extracted.

なお、本開示においては、話者が異なり発話時刻において前後する1のテキストを追加抽出するとしたが、2以上のテキストを追加抽出しても良い。抽出されたテキストの重要度の値に応じた数のテキストを追加抽出しても良い。例えば、重要度が大きいほどより多くの話者が異なり発話時刻において前後するテキストを追加抽出しても良い。
3者以上の会話においても、話者情報が変化する前後の複数のテキストを追加抽出しても良い。
In addition, in the present disclosure, one text is additionally extracted from different speakers and whose utterance time is preceded or followed, but two or more texts may be additionally extracted. A number of additional texts may be extracted according to the importance value of the extracted texts. For example, the greater the importance, the more texts of different speakers may be additionally extracted at the utterance time.
Also in a conversation involving three or more parties, a plurality of texts before and after the change in speaker information may be additionally extracted.

ステップS207の処理は、要約処理(第一実施例)のステップS107の処理と同様であるため説明を省略する。 Since the process of step S207 is the same as the process of step S107 of the summarization process (first embodiment), description thereof is omitted.

<要約処理の変形例>
要約処理(第一実施例)、要約処理(第二実施例)において、サーバ10の重要度算定部1045は、テキストの重要度算定にあたり、テキストに含まれるフィラーなどのユーザと顧客との間で行われた通話を把握する上で無意味な情報を除外して、重要度の算定を行っても良い。
同様に、要約処理(第一実施例)、要約処理(第二実施例)の際に、予めテキストに含まれるフィラーなどのユーザと顧客との間で行われた通話を把握する上で無意味な情報をテキストから除外して、要約情報を要約テーブル1016に記憶する構成としても良い。
<Modified example of summary processing>
In the summarization process (first embodiment) and the summarization process (second embodiment), the importance calculation unit 1045 of the server 10 calculates the importance of the text by calculating the fillers included in the text between the user and the customer. Importance may be calculated by excluding non-meaningful information in grasping the calls that have been made.
Similarly, during the summarization process (first embodiment) and the summarization process (second embodiment), it is meaningless to grasp the call made between the user and the customer, such as fillers included in the text in advance. Such information may be excluded from the text, and the summary information may be stored in the summary table 1016. FIG.

<要約表示処理>
要約表示処理は、要約情報を要約文書としてユーザに対して表示する処理である。以下、要約表示処理の詳細を図23の画面例を用いて説明する。
<Summary display processing>
Summary display processing is processing for displaying summary information to the user as a summary document. The details of the summary display process will be described below using the screen example of FIG.

<要約表示処理の概要>
要約表示処理は、要約テーブル1016に記憶された要約情報を取得し、要約情報に含まれるテキストを話者ごとに異なる色の吹き出しに格納し、発話時刻の順番に並べ、要約文書としてユーザ端末20のディスプレイ2081に表示する一連の処理である。
<Overview of summary display processing>
The summary display process acquires the summary information stored in the summary table 1016, stores the text included in the summary information in balloons of different colors for each speaker, arranges them in order of utterance time, and displays them as a summary document on the user terminal 20. This is a series of processing for displaying on the display 2081 of .

<要約表示処理の詳細>
ユーザは、サーバ10へログインし所定の操作を行なうことにより、自身または自身が所属する組織の同僚などが過去に顧客と行なった通話履歴を一覧表示するためのリクエストをサーバ10へ送信する。サーバ10は、リクエストを受信すると、通話テーブル1014を照会し過去の通話履歴のレコードをユーザ端末20へ送信する。ユーザ端末20は、受信した過去の通話履歴のレコードをユーザ端末20のディスプレイ2081に一覧表示する。
<Details of summary display processing>
A user logs in to the server 10 and performs a predetermined operation to send a request to the server 10 for displaying a list of call histories that he or his colleagues in the organization to which he belongs have made with customers in the past. Upon receiving the request, the server 10 refers to the call table 1014 and transmits a record of past call history to the user terminal 20 . The user terminal 20 displays a list of the received past call history records on the display 2081 of the user terminal 20 .

ユーザは、ユーザ端末20を操作し要約情報を確認したい通話履歴のレコードを選択し、要約表示ボタン等を押下することにより、選択した通話履歴に関し、通話IDを含む要約表示に関するリクエストをサーバ10へ送信する。
サーバ10は、リクエストを受信すると、通話IDに基づき要約テーブル1016を検索し、当該通話IDに関する要約情報をユーザ端末20へ送信する。
The user operates the user terminal 20 to select a call history record for which summary information is to be confirmed, and presses a summary display button or the like to send a request to the server 10 for summary display, including the call ID, of the selected call history. Send.
Upon receiving the request, the server 10 searches the summary table 1016 based on the call ID and transmits summary information regarding the call ID to the user terminal 20 .

ユーザ端末20は、受信した要約情報を要約文書としてディスプレイ2081に表示する。ユーザ端末20に表示される要約文書を、図23に基づき説明する。ユーザ端末20のディスプレイ2081は、要約表示画面70を表示する。要約表示画面は、ユーザの発話内容(テキスト)が発話時刻701とともに吹き出し702で表示され、顧客の発話内容(テキスト)が発話時刻711とともに吹き出し712で表示される。ユーザの発話内容を表示する吹き出し702は、吹き出しの方向が左側を向いており、吹き出しの方向が右側を向いている顧客の発話内容を表示する吹き出し712とは識別可能なように表示される。
ユーザ端末20の表示制御部1052は、取得した要約情報に含まれる、テキスト、発話時刻、話者の情報に基づき、要約表示画面70の上部から、発話時刻順に、話者がユーザであるテキストをユーザの発話内容を表示する吹き出し702に、話者が顧客であるテキストを顧客の発話内容を表示する吹き出し712に区別できる態様で一覧表示させる。
User terminal 20 displays the received summary information on display 2081 as a summary document. A summary document displayed on the user terminal 20 will be described with reference to FIG. The display 2081 of the user terminal 20 displays the summary display screen 70. FIG. On the summary display screen, the content (text) of the user's utterance is displayed together with an utterance time 701 in a balloon 702 , and the customer's utterance content (text) is displayed together with an utterance time 711 in a balloon 712 . A speech balloon 702 displaying the user's utterance contents is displayed so as to be identifiable from a speech balloon 712 displaying the customer's utterance contents whose direction of the speech balloon is directed to the left and which is directed to the right.
The display control unit 1052 of the user terminal 20 displays the text in which the speaker is the user from the upper part of the summary display screen 70 in order of the utterance time based on the text, utterance time, and speaker information included in the acquired summary information. A speech bubble 702 displaying the user's utterance content displays a list of texts in which the speaker is the customer in a distinguishable manner in a speech balloon 712 displaying the customer's utterance content.

ユーザの発話内容を表示する吹き出し702の色は、顧客の発話内容を表示する吹き出し712の色と異なっている。これにより、ユーザが要約文書を確認するときに、発話内容の話者を視覚的に確認することができる。また、発話内容を表示する吹き出し702、712の色は、要約処理(第一実施例)、要約処理(第二実施例)において算定された発話内容が含むテキストの重要度に基づき、色の明度、色相、彩度、濃さの少なくともいずれか1つを変化させて表示させても良い。例えば、重要度が高いテキストを含む吹き出し702、712ほど色を濃くしても良い。これにより、ユーザが要約文書を確認するときに、発話内容ごとの重要度を視覚的に確認することができ、短時間で文章内容を理解することができる。 The color of balloon 702 displaying the user's utterance content is different from the color of balloon 712 displaying the customer's utterance content. This allows the user to visually confirm the speaker of the utterance content when confirming the summary document. In addition, the color of the speech balloons 702 and 712 displaying the utterance content is determined based on the importance of the text included in the utterance content calculated in the summarization process (first embodiment) and the summarization process (second embodiment). , at least one of hue, saturation, and density may be changed for display. For example, balloons 702 and 712 containing text of higher importance may be colored darker. As a result, the user can visually confirm the importance of each utterance content when confirming the summary document, and can understand the text content in a short period of time.

<音声認識表示処理>
音声認識表示処理は、音声認識情報を音声認識文書としてユーザに対して表示する処理である。
<Voice Recognition Display Processing>
The voice recognition display process is a process of displaying voice recognition information as a voice recognition document to the user.

<音声認識表示処理の概要>
音声認識表示処理は、音声認識テーブル1015に記憶された音声認識情報を取得し、音声認識情報に含まれるテキストを話者ごとに異なる色の吹き出しに格納し、発話時刻の順番に並べ、音声認識文書としてユーザ端末20のディスプレイ2081に表示する一連の処理である。
<Overview of speech recognition display processing>
The speech recognition display process acquires the speech recognition information stored in the speech recognition table 1015, stores the text included in the speech recognition information in balloons of different colors for each speaker, arranges them in order of utterance time, and performs speech recognition. This is a series of processes for displaying on the display 2081 of the user terminal 20 as a document.

<音声認識表示処理の詳細>
音声認識表示処理は、要約表示処理において、要約情報に替えて音声認識情報を用いる、即ち、要約テーブル1016に替えて音声認識テーブル1015を用いるのみで処理内容は同一であるため説明を省略する。音声認識表示処理においては、図23と略同一な音声認識表示画面に、音声認識情報が話者ごとに区別可能な態様で吹き出し形式で一覧表示される。
音声認識表示処理において、ユーザの発話内容を表示する吹き出しの色は、顧客の発話内容を表示する吹き出しの色と異なっている。これにより、ユーザが音声認識文書を確認するときに、発話内容の話者を視覚的に確認することができる。また、発話内容を表示する吹き出しの色は、要約処理(第一実施例)、要約処理(第二実施例)において算定された発話内容が含むテキストの重要度に基づき、色の明度、色相、彩度、濃さの少なくともいずれか1つを変化させて表示させても良い。例えば、重要度が高いテキストを含む吹き出しほど色を濃くしても良い。これにより、ユーザが音声認識文書を確認するときに、発話内容ごとの重要度を視覚的に確認することができ、短時間で文章内容を理解することができる。つまり、ユーザが、ユーザと顧客との間で行われた通話の音声認識情報をすべて確認する場合においても、重要な発話内容のみを視覚的に直感的に把握することができる。
<Details of speech recognition display processing>
The speech recognition display process uses the speech recognition information instead of the summary information in the summary display process, that is, the speech recognition table 1015 is used instead of the summary table 1016, and the processing contents are the same, so the description is omitted. In the voice recognition display process, a list of voice recognition information is displayed in balloon form on a voice recognition display screen substantially the same as that shown in FIG.
In the speech recognition display process, the color of the speech balloon displaying the content of the user's utterance is different from the color of the speech balloon displaying the content of the customer's utterance. This allows the user to visually confirm the speaker of the utterance content when confirming the speech recognition document. In addition, the color of the speech balloon displaying the utterance content is determined based on the degree of importance of the text included in the utterance content calculated in the summary processing (first embodiment) and the summary processing (second embodiment). At least one of saturation and density may be changed for display. For example, the color of a balloon containing text of higher importance may be darker. As a result, when the user confirms the speech recognition document, the user can visually confirm the importance of each utterance content, and can understand the sentence content in a short time. That is, even when the user confirms all the voice recognition information of the call made between the user and the customer, the user can visually and intuitively grasp only the important utterance contents.

<応対メモ付与処理>
応対メモ付与処理は、ユーザと顧客との間で行われる通話に対して応対メモを自動的に付与する処理である。以下、応対メモ付与処理の詳細を図16のフローチャートを用いて説明する。
<Response memo addition processing>
The response memo adding process is a process of automatically adding a response memo to a call between the user and the customer. The details of the response memo adding process will be described below with reference to the flowchart of FIG.

<応対メモ付与処理の概要>
応対メモ付与処理は、ユーザと顧客との間で行われる通話に関する音声データを取得し、音声データに対して学習モデルを適用することにより応対メモ候補を推論し、推論された応対メモ候補を当該通話に関連する通話データに紐づけて記憶する一連の処理である。
<Overview of processing to add a response memo>
In the answering memo adding process, voice data relating to a call between a user and a customer is obtained, a learning model is applied to the voice data to infer answering memo candidates, and the inferred answering memo candidates are sent to the relevant party. This is a series of processes that are stored in association with call data related to the call.

<応対メモ付与処理の詳細>
ステップS301において、サーバ10の応対メモ付与部1049は、ユーザと顧客との間の通話の終了を検知して、応対メモ付与処理を開始する。
<Details of response memo addition processing>
In step S301, the response memo adding unit 1049 of the server 10 detects the end of the call between the user and the customer, and starts the response memo adding process.

ステップS302において、サーバ10の応対メモ付与部1049は、処理対象となる通話の通話属性を取得する。
具体的には、サーバ10の応対メモ付与部1049は、処理対象となる通話の通話IDに基づき、通話テーブル1014を検索し、通話カテゴリ、受発信種別を取得する。
サーバ10の応対メモ付与部1049は、処理対象となる通話のユーザIDに基づき、ユーザテーブル1012を検索し、ユーザ属性を取得する。サーバ10の応対メモ付与部1049は、通話のユーザIDに基づき、ユーザテーブル1012に記憶された組織IDから、組織テーブル1013を検索し、ユーザが所属する組織の組織名、組織属性を取得する。
サーバ10の応対メモ付与部1049は、処理対象となる通話の顧客IDに基づき、CRMシステム30へ問い合わせを行い、CRMシステム30の顧客テーブル3012から顧客属性、顧客組織名、顧客組織属性を取得する。
サーバ10の応対メモ付与部1049は、すべての通話属性を取得する必要はなく、必要に応じて複数の通話属性のうち少なくとも1つの通話属性を取得すれば良い。
In step S302, the response memo adding unit 1049 of the server 10 acquires the call attribute of the call to be processed.
Specifically, the response memo adding unit 1049 of the server 10 searches the call table 1014 based on the call ID of the call to be processed, and acquires the call category and incoming/outgoing type.
The response memo adding unit 1049 of the server 10 searches the user table 1012 based on the user ID of the call to be processed and acquires the user attribute. The response memo adding unit 1049 of the server 10 searches the organization table 1013 from the organization ID stored in the user table 1012 based on the user ID of the call, and acquires the organization name and organization attributes of the organization to which the user belongs.
The response memo adding unit 1049 of the server 10 makes an inquiry to the CRM system 30 based on the customer ID of the call to be processed, and acquires the customer attribute, the customer organization name, and the customer organization attribute from the customer table 3012 of the CRM system 30. .
The response memo adding unit 1049 of the server 10 does not need to acquire all call attributes, and may acquire at least one call attribute among a plurality of call attributes as necessary.

ステップS303において、サーバ10の応対メモ付与部1049は、取得した通話属性に基づき、学習モデルを選択する。学習モデルは、通話属性ごとに用意されていてもよいし、複数の通話属性の組み合わせ、例えば、ユーザ属性および顧客属性の組み合わせごとに用意されていても良い。
学習モデルは、任意の機械学習、深層学習モデルなどを含み、通話属性に応じて作成されたデータセットにより学習されている。学習処理の詳細は後述する。
本開示においては、深層学習モデルを学習モデルの一例として説明する。深層学習モデルは、RNN(Recurrent Neural Network)、LSTM(Long Short Term Memory)、GRU(Gated Recurrent Unit)など、任意の時系列データを入力データとする深層学習モデルであればどのような学習モデルであっても構わない。学習モデルは、例えば、Attention、Transformerなどを含む任意の深層学習モデルを含む。
In step S303, the response memo adding unit 1049 of the server 10 selects a learning model based on the acquired call attributes. A learning model may be prepared for each call attribute, or may be prepared for each combination of a plurality of call attributes, for example, each combination of user attributes and customer attributes.
The learning model includes arbitrary machine learning, deep learning models, etc., and is learned from a data set created according to call attributes. Details of the learning process will be described later.
In this disclosure, a deep learning model will be described as an example of a learning model. The deep learning model is any deep learning model that takes arbitrary time series data as input data, such as RNN (Recurrent Neural Network), LSTM (Long Short Term Memory), GRU (Gated Recurrent Unit), etc. It doesn't matter if there is. A learning model includes, for example, any deep learning model including Attention, Transformer, and the like.

ステップS304において、サーバ10の応対メモ付与部1049は、処理対象となる通話の音声データを取得し、当該音声データを選択した学習モデルの入力データとして適用することにより、出力データとして複数の応対メモ候補(応対メモ群)が確率分布とともに出力(推論)される。
具体的には、応対メモ「AAA」、「BBB」、「CCC」などに対して、それぞれ「0.6」、「0.3」、「0.1」などの確率分布が出力される。確率分布はソフトマックス関数などで正規化されていても良いし、正規化されていなくても構わない。
In step S304, the response memo adding unit 1049 of the server 10 acquires the voice data of the call to be processed, applies the voice data as input data of the selected learning model, and outputs a plurality of response memos as output data. Candidates (response memo group) are output (deduced) together with probability distributions.
Specifically, probability distributions such as "0.6", "0.3", and "0.1" are output for correspondence notes "AAA", "BBB", "CCC", and the like, respectively. The probability distribution may or may not be normalized by a softmax function or the like.

ステップS305において、サーバ10の応対メモ付与部1049は、出力された応対メモ候補のうち最も確率が高い応対メモ候補を、処理対象となる通話の通話IDと紐付けて応対メモテーブル1017のメモ内容の項目に記憶する。付与日時の項目には、現在日時を記憶しても良い。付与者IDの項目には、サーバ10などのユーザ以外のシステムが自動的に付与したことを示す情報を記憶しても良い。
なお、サーバ10の応対メモ付与部1049は、出力された応対メモ候補のうち、確率が所定値以上の複数の応対メモ候補を、応対メモテーブル1017のメモ内容の項目に記憶しても良い。
In step S305, the response memo adding unit 1049 of the server 10 associates the response memo candidate with the highest probability among the output response memo candidates with the call ID of the call to be processed, and adds the memo contents of the response memo table 1017 to the memo content of the response memo table 1017. stored in the item The current date and time may be stored in the item of date and time of grant. Information indicating that a system other than the user, such as the server 10, has automatically given the ID may be stored in the item of the giver ID.
Note that the response memo adding unit 1049 of the server 10 may store, among the output response memo candidates, a plurality of response memo candidates whose probability is equal to or greater than a predetermined value in the item of memo contents of the response memo table 1017 .

<応対メモ付与処理(変形例)>
ステップS303において、サーバ10の応対メモ付与部1049は、複数の異なる通話属性に基づき、複数の学習モデルを選択しても良い。例えば、サーバ10の応対メモ付与部1049は、ユーザ属性ごとに用意された第1の学習モデル、顧客属性ごとに用意された第2の学習モデルを選択しても良い。このとき、サーバ10の応対メモ付与部1049は、任意の複数個の通話属性に基づき、複数の学習モデルを選択するものとしても良い。
<Response memo addition processing (modification)>
In step S303, the response memo adding unit 1049 of the server 10 may select a plurality of learning models based on a plurality of different call attributes. For example, the response memo adding unit 1049 of the server 10 may select a first learning model prepared for each user attribute and a second learning model prepared for each customer attribute. At this time, the response memo adding unit 1049 of the server 10 may select a plurality of learning models based on a plurality of arbitrary call attributes.

ステップS304において、サーバ10の応対メモ付与部1049は、処理対象となる通話の音声データを取得し、当該音声データを選択した複数の学習モデルの入力データとして適用することにより、適用した学習モデルごとに、出力データとして複数の応対メモ候補が確率分布とともに出力(推論)される。
サーバ10の応対メモ付与部1049は、複数の応対メモ候補の確率分布に対して任意の演算を適用することにより、応対メモ候補ごとの確率分布を算定しても良い。例えば、複数の応対メモ候補の確率分布に対して和や積をとったものを、出力する応対メモ候補ごとの確率分布としても良い。
具体的には、応対メモ「AAA」、「BBB」、「CCC」などに対して、第1の学習モデルに対する確率分布の推論結果が「0.6」、「0.3」、「0.1」、第2の学習モデルに対する確率分布の推論結果が「0.3」、「0.4」、「0.1」である場合において、それらの積である「0.18」、「0.12」、「0.01」を、応対メモ「AAA」、「BBB」、「CCC」の確率分布としても良い。確率分布はソフトマックス関数などで正規化されていても良いし、正規化されていなくても構わない。
In step S304, the response memo adding unit 1049 of the server 10 acquires the voice data of the call to be processed, and applies the voice data as input data for a plurality of selected learning models. Then, a plurality of answering memo candidates are output (deduced) as output data together with the probability distribution.
The reception memo adding unit 1049 of the server 10 may calculate the probability distribution for each reception memo candidate by applying an arbitrary operation to the probability distribution of a plurality of reception memo candidates. For example, the sum or product of the probability distributions of a plurality of answering memo candidates may be used as the probability distribution for each answering memo candidate to be output.
Specifically, the inference results of the probability distribution for the first learning model are "0.6", "0.3", "0. 1”, and when the inference results of the probability distribution for the second learning model are “0.3”, “0.4”, and “0.1”, their products “0.18”, “0 .12” and “0.01” may be used as the probability distributions of the response memos “AAA”, “BBB” and “CCC”. The probability distribution may or may not be normalized by a softmax function or the like.

<応対メモ提案処理>
応対メモ提案処理は、ユーザと顧客との間で行われる通話において、ユーザに対して応対メモ候補を提案する処理である。以下、応対メモ付与処理の詳細を図17のフローチャートを用いて説明する。
<Response memo proposal processing>
The answering memo proposing process is a process of proposing answering memo candidates to the user in a call between the user and the customer. Details of the response memo adding process will be described below with reference to the flowchart of FIG.

<応対メモ提案処理の概要>
応対メモ提案処理は、ユーザと顧客との間で行われる通話に関する音声データを取得し、音声データに対して学習モデルを適用することにより応対メモ候補を推論し、推論された応対メモ候補をユーザに対して提案し、ユーザが選択した応対メモ候補を当該通話に関連する通話データに紐づけて記憶する一連の処理である。
<Overview of response memo proposal processing>
The processing for proposing a response memo acquires voice data relating to a call between a user and a customer, applies a learning model to the voice data, infers a candidate for a response memo, and presents the inferred candidate for a response memo to the user. This is a series of processes in which an answering memo candidate selected by the user is stored in association with call data related to the call.

<応対メモ提案処理の詳細>
ステップS401からステップS404までの処理は、応対メモ付与処理のステップS301からステップS304までの処理と同様であるため説明を省略する。
<Details of response memo proposal processing>
Since the processing from step S401 to step S404 is the same as the processing from step S301 to step S304 of the reception memo addition processing, description thereof is omitted.

ステップS405において、サーバ10の応対メモ提案部1048は、出力された応対メモ候補および確率分布をユーザ端末20に送信する。ユーザ端末20のディスプレイ2081は、受信した応対メモ候補をユーザが選択可能なように一覧表示する。
このとき、ユーザ端末20は、応対メモ候補ごとの確率を応対メモ候補の優先順位として、優先順位が高い応対メモ候補ほど、ユーザ端末20のディスプレイ2081のユーザが選択しやすい位置に表示しても良い。例えば、優先順位が高い応対メモ候補をリストの上位に表示させたり、複数の応対メモ候補をカルーセルまたはページ送りにより表示する場合にはより先頭のページに表示させることが考えられる。
つまり、ユーザ端末20は、確率が高い応対メモ候補を、ユーザ端末20のディスプレイ2081のユーザが選択しやすい位置に表示する。これにより、ユーザは、複数の応対メモからより確からしい応対メモを、より正確に簡単に選択することができる。
In step S<b>405 , the answering memo proposal unit 1048 of the server 10 transmits the output answering memo candidate and probability distribution to the user terminal 20 . The display 2081 of the user terminal 20 displays a list of the received answering memo candidates so that the user can select them.
At this time, the user terminal 20 may display the probability of each candidate of the answering memo as the priority of the candidate of the answering memo, and display the candidate of the answering memo with a higher priority at a position on the display 2081 of the user terminal 20 that is easier for the user to select. good. For example, it is conceivable to display the answering memo candidate with the highest priority at the top of the list, or to display a plurality of answering memo candidates by carousel or page turning, to display them on the first page.
That is, the user terminal 20 displays the answering memo candidate with a high probability at a position on the display 2081 of the user terminal 20 where the user can easily select it. This allows the user to more accurately and easily select a more likely response memo from a plurality of response memos.

ステップS406において、ユーザは、ユーザ端末20のディスプレイ2081に表示された応対メモ候補から1または複数の応対メモ候補を選択する。ユーザは、ユーザ端末20のディスプレイ2081に表示された送信ボタンを押下することにより、選択した応対メモ候補およびユーザID2011をサーバ10へ送信する。 In step S<b>406 , the user selects one or more reception memo candidates from the reception memo candidates displayed on the display 2081 of the user terminal 20 . By pressing a send button displayed on the display 2081 of the user terminal 20 , the user sends the selected answering memo candidate and the user ID 2011 to the server 10 .

ステップS407において、サーバ10の応対メモ付与部1049は、受信した応対メモ候補、ユーザID2011を処理対象となる通話の通話IDと紐付けて応対メモテーブル1017のメモ内容、付与者IDの項目に記憶する。付与日時の項目には、現在日時を記憶しても良い。 In step S407, the response memo adding unit 1049 of the server 10 associates the received response memo candidate and user ID 2011 with the call ID of the call to be processed, and stores them in the items of memo content and grantor ID of the response memo table 1017. do. The current date and time may be stored in the item of date and time of grant.

<学習処理>
学習処理は、応対メモ付与処理、応対メモ提案処理などで利用する学習モデルを構築する処理である。
<Learning processing>
The learning process is a process of constructing a learning model to be used in a response memo addition process, a response memo proposal process, and the like.

<学習処理の概要>
学習処理は、通話に関する通話属性ごとに、ユーザと顧客との間で行われた通話に関する音声データを入力データ、当該音声データに紐付けられたメモ内容を出力データ(出力ベクトル)として学習モデルのパラメータを学習させるための処理である。
<Overview of learning process>
In the learning process, for each call attribute related to the call, the voice data related to the call between the user and the customer is used as input data, and the memo content linked to the voice data is used as output data (output vector) of the learning model. This is a process for learning parameters.

<学習処理の詳細>
サーバ10の学習部1047は、通話テーブル1014を検索し、音声データおよび、通話IDを介して応対メモテーブル1017を参照することで音声データに紐付けられたメモ内容を取得する。サーバ10の学習部1047は、音声データを通話属性ごとに分割し、通話属性ごとに訓練データ、テストデータ、検証データなどのデータセットを作成する。
サーバ10の学習部1047は、通話属性ごとに用意した学習モデルに対し、それぞれの通話属性に応じたデータセットを用いることで、学習モデルのパラメータを学習させる。
<Details of learning process>
The learning unit 1047 of the server 10 searches the call table 1014 and acquires the contents of the memo linked to the voice data by referring to the response memo table 1017 via the voice data and the call ID. The learning unit 1047 of the server 10 divides the voice data for each call attribute, and creates data sets such as training data, test data, and verification data for each call attribute.
The learning unit 1047 of the server 10 allows the learning model prepared for each call attribute to learn parameters of the learning model by using a data set corresponding to each call attribute.

サーバ10の学習部1047は、所定の応対メモと紐付けられた音声データを除外しても良い。具体的には、サーバ10の学習部1047は、データセットを作成する際に、メモ内容が「留守番電話」、「顧客(担当者)不在」、「顧客受付ブロック」など、顧客との通話が実質的に成立していない通話であることを示すメモ内容が付与された通話に関する音声データを除外する。これにより、メモ内容を推論する学習モデルの作成に望ましくないデータをデータセットから除外することにより、より精度の高い学習モデルを作成することができる。 The learning unit 1047 of the server 10 may exclude voice data associated with a predetermined response memo. Specifically, when creating a data set, the learning unit 1047 of the server 10 determines whether the contents of the memo are "answering machine", "customer (person in charge) absent", "customer reception block", etc. Exclude voice data relating to a call to which a memo indicating that the call is not actually established. As a result, a more accurate learning model can be created by excluding from the data set data that is not desirable for creating a learning model for inferring the content of the memo.

一例として、サーバ10の学習部1047は、通話を行うユーザに関する職種、所属組織の業種、所属組織の名称の何れか1つのユーザ属性に関する情報ごとにデータセットを作成しても良い。
一例として、サーバ10の学習部1047は、通話を行う顧客に関する職種、顧客の所属組織の業種、顧客の所属組織の名称の何れか1つの顧客属性に関する情報ごとにデータセットを作成しても良い、
一例として、サーバ10の学習部1047は、テレフォンオペレータ、テレマーケティング、カスタマーサポート、テクニカルサポートなどの行われた通話の通話カテゴリに関する情報ごとにデータセットを作成しても良い。
一例として、サーバ10の学習部1047は、ユーザから顧客に対して発信されたアウトバウンド、顧客からユーザが受信したインバウンドのいずれかに関する情報ごとにデータセットを作成しても良い。
As an example, the learning unit 1047 of the server 10 may create a data set for each piece of information related to any one of the job type, the type of organization to which the user belongs, and the name of the organization to which the user makes a call.
As an example, the learning unit 1047 of the server 10 may create a data set for each piece of information related to one of the customer attributes of the job type of the customer making the call, the industry of the organization to which the customer belongs, and the name of the organization to which the customer belongs. ,
As an example, the learning unit 1047 of the server 10 may create a data set for each information regarding the call category of calls made, such as telephone operator, telemarketing, customer support, technical support, and the like.
As an example, the learning unit 1047 of the server 10 may create a data set for each piece of information relating to either outbound sent from the user to the customer or inbound received from the customer by the user.

サーバ10の学習部1047は、通話を行うユーザのユーザ属性ごとに学習モデルを学習させる際に、ユーザの音声のみを抽出(顧客の音声を除外)する処理を行ったものを入力データとして学習処理を行わせても良い。この場合、応対メモ付与処理、応対メモ提案処理のステップS304、S404における推論処理における、学習モデルへ適用する音声データに対しても同様に、ユーザの音声のみを抽出(顧客の音声を除外)する処理を行ったものを入力データとする処理を行う。
ユーザ属性に応じた学習モデルは、ユーザの発話内容のみに基づき学習させることにより、より正確に応対メモを推論することができる学習モデルを得ることができる。
When the learning unit 1047 of the server 10 learns the learning model for each user attribute of the user who makes the call, the learning process is performed using as input data the process of extracting only the user's voice (excluding the customer's voice). may be performed. In this case, only the user's voice is similarly extracted (the customer's voice is excluded) for voice data applied to the learning model in the inference processing in steps S304 and S404 of the response memo addition processing and the response memo proposal processing. Perform processing using the processed data as input data.
A learning model according to user attributes can obtain a learning model that can more accurately infer a response memo by making the learning model learn based only on the contents of the user's utterances.

サーバ10の学習部1047は、通話を行う顧客の顧客属性ごとに学習モデルを学習させる際に、顧客の音声のみを抽出(ユーザの音声を除外)する処理を行ったものを入力データとして学習処理を行わせても良い。この場合、応対メモ付与処理、応対メモ提案処理のステップS304、S404における推論処理における、学習モデルへ適用する音声データに対しても同様に、顧客の音声のみを抽出(ユーザの音声を除外)する処理を行ったものを入力データとする処理を行う。
顧客属性に応じた学習モデルは、顧客の発話内容のみに基づき学習させることにより、より正確に応対メモを推論することができる学習モデルを得ることができる。
When the learning unit 1047 of the server 10 learns a learning model for each customer attribute of a customer who makes a call, the learning process is performed using as input data a process of extracting only the customer's voice (excluding the user's voice). may be performed. In this case, only the customer's voice is similarly extracted (user's voice is excluded) for the speech data applied to the learning model in the inference processing in steps S304 and S404 of the response memo addition processing and the response memo proposal processing. Perform processing using the processed data as input data.
A learning model according to customer attributes can obtain a learning model that can more accurately infer a response memo by learning only based on the contents of the customer's utterances.

<学習処理の変形例>
本開示においては、学習モデルの入力データを音声データとしたが、音声データに対して任意の情報処理を行うことにより変換されたデータを入力データとしても良い。例えば、音声データに替えて当該音声データに対してテキスト認識を行うこと(テキスト起こし)により得られたテキストデータを入力データとしても良い。また、テキストデータに対して、任意の情報処理を行うことにより変換されたデータを入力データとしても良い。本開示における、学習モデルに音声データを適用することとは、そのように、ある音声データに対して任意の情報処理を行うことにより変換されたデータに対して学習モデルを適用することも含む。
この場合、応対メモ付与処理、応対メモ提案処理などの学習モデルにおける応対メモ候補を推論する際に、入力データである音声データに対して同様の情報処理を行い学習モデルを適用すれば良い。例えば、応対メモ付与処理、応対メモ提案処理などの学習モデルにおける応対メモ候補を推論する際に、音声データに替えて当該音声データに対してテキスト認識を行うこと(テキスト起こし)により得られたテキストデータを入力データとすれば良い。
<Modified Example of Learning Processing>
In the present disclosure, voice data is used as the input data for the learning model, but data converted by performing arbitrary information processing on the voice data may be used as the input data. For example, instead of voice data, text data obtained by performing text recognition (text transcription) on the voice data may be used as input data. Data converted by performing arbitrary information processing on text data may be used as input data. In the present disclosure, applying speech data to a learning model also includes applying a learning model to data converted by performing arbitrary information processing on certain speech data.
In this case, when inferring an answering memo candidate in a learning model such as an answering memo addition process or an answering memo proposal process, the same information processing may be performed on voice data as input data, and the learning model may be applied. For example, text obtained by performing text recognition (text transcription) on voice data instead of voice data when inferring a response memo candidate in a learning model such as a response memo addition process, a response memo proposal process, etc. Data should be used as input data.

<スコア算定処理>
スコア算定処理は、ユーザごとの通話スコアを算定する処理である。以下、スコア算定処理の詳細を図18のフローチャートを用いて説明する。
<Score calculation process>
The score calculation process is a process of calculating a call score for each user. The details of the score calculation process will be described below with reference to the flowchart of FIG.

<スコア算定処理の概要>
スコア算定処理は、ユーザごとの通話データに対して解析処理および統計処理を行うことにより、それぞれのユーザに対する通話スコアの算定を行う処理である。これにより、例えば、ユーザごとの顧客応対のスキルを定量的な指標で評価することができる。
<Overview of score calculation process>
The score calculation process is a process of calculating a call score for each user by performing analysis processing and statistical processing on call data for each user. Thereby, for example, the customer service skill of each user can be evaluated using a quantitative index.

<スコア算定処理の詳細>
ステップS501において、ユーザはユーザ端末20を操作することにより、サーバ10へユーザ一覧のリクエストを送信する。サーバ10のスコア算定部1050は、受信したリクエストに基づき、リクエストを送信したユーザと同じ組織に所属する(同じ組織IDを有する)ユーザの一覧をユーザテーブル1012から取得し、ユーザ端末20へ送信する。
ユーザ端末20のディスプレイ2081は、取得したユーザの一覧をユーザが選択可能なように一覧表示する。ユーザは、ユーザ端末20のディスプレイ2081に表示されたユーザの一覧から、スコアを算定したいユーザを選択する。ユーザは、ユーザ端末20のディスプレイ2081に表示された送信ボタンを押下することにより、選択されたユーザのユーザIDをサーバ10へ送信する。
<Details of score calculation processing>
In step S<b>501 , the user operates the user terminal 20 to transmit a user list request to the server 10 . Based on the received request, the score calculation unit 1050 of the server 10 obtains from the user table 1012 a list of users belonging to the same organization (having the same organization ID) as the user who sent the request, and transmits the list to the user terminal 20. .
The display 2081 of the user terminal 20 displays the obtained list of users so that the user can select one. The user selects a user whose score is to be calculated from the user list displayed on the display 2081 of the user terminal 20 . The user sends the user ID of the selected user to the server 10 by pressing the send button displayed on the display 2081 of the user terminal 20 .

ステップS502において、サーバ10のスコア算定部1050は、受信したユーザIDに基づき通話テーブルを検索し、対象ユーザの通話ごとの解析データを取得する。 In step S502, the score calculation unit 1050 of the server 10 searches the call table based on the received user ID, and acquires analysis data for each call of the target user.

このとき、サーバ10のスコア算定部1050は、所定の応対メモと紐付けられた解析データを除外しても良い。具体的には、サーバ10のスコア算定部1050は、対象ユーザの通話ごとの解析データを取得する際に、当該通話の通話IDにより紐付けられた応対メモテーブル1017のメモ内容を取得する。サーバ10のスコア算定部1050は、メモ内容が「留守番電話」、「顧客(担当者)不在」、「顧客受付ブロック」など、顧客との通話が実質的に成立していない通話であることを示すメモ内容が付与された通話に関する解析データを除外する。これにより、対象ユーザの通話スコアを算定する際に、通話が実質的に成立していない通話を除外することにより、より精度の高い通話スコアを算定することができる。 At this time, the score calculation unit 1050 of the server 10 may exclude analysis data associated with a predetermined response memo. Specifically, when acquiring the analysis data for each call of the target user, the score calculation unit 1050 of the server 10 acquires the memo content of the response memo table 1017 associated with the call ID of the call. The score calculation unit 1050 of the server 10 determines that the contents of the memo are "answering machine", "customer (person in charge) absent", "customer reception block", etc., and that the communication with the customer has not been established. Excludes analysis data related to calls with memo content shown. Thereby, when calculating the call score of the target user, by excluding the calls in which the call is not established substantially, it is possible to calculate the call score with higher accuracy.

サーバ10のスコア算定部1050は、通話ごとの解析データに対して、所定のアルゴリズムを適用することにより通話スコアを算定する。具体的には、サーバ10のスコア算定部1050は、解析データに含まれる、各種指標値(沈黙回数、被り回数、ラリー回数など)の基準指標値などに対する乖離度に基づき、所定の重み付け和をとることにより通話スコアを算定する。このとき、指標値に対して正規化などの任意の処理を適用しても構わない。 The score calculation unit 1050 of the server 10 calculates a call score by applying a predetermined algorithm to the analysis data for each call. Specifically, the score calculation unit 1050 of the server 10 calculates a predetermined weighted sum based on the degree of divergence of various index values (number of times of silence, number of times of being covered, number of times of rallies, etc.) from the reference index value, etc. included in the analysis data. Calculate the call score by taking At this time, arbitrary processing such as normalization may be applied to the index values.

ステップS504において、サーバ10のスコア算定部1050は、対象ユーザの通話ごとの解析データに基づき算定された通話スコアに対して統計処理を行った統計値(平均値、中央値、最頻値、最大値、最小値など)を対象ユーザのユーザ評価指標として算定する。具体的には、対象ユーザの通話ごとの解析データに基づき算定された通話スコアの平均がユーザ評価指標として好適である。 In step S504, the score calculation unit 1050 of the server 10 performs statistical processing on the call score calculated based on the analysis data for each call of the target user (average, median, mode, maximum value, minimum value, etc.) as the user evaluation index for the target user. Specifically, the average call score calculated based on the analysis data for each call of the target user is suitable as the user evaluation index.

サーバ10のスコア算定部1050は、算定したユーザ評価指標をユーザテーブル1012の、対象ユーザのレコードの評価指標の項目に記憶する。サーバ10のスコア算定部1050は、算定したユーザ評価指標を、スコア算定処理を実行したユーザのユーザ端末20へ送信する。ユーザ端末20のディスプレイ2081は、受信した対象ユーザのユーザ評価指標をユーザに対して表示する。 The score calculation unit 1050 of the server 10 stores the calculated user evaluation index in the evaluation index item of the record of the target user in the user table 1012 . The score calculation unit 1050 of the server 10 transmits the calculated user evaluation index to the user terminal 20 of the user who executed the score calculation process. The display 2081 of the user terminal 20 displays the received user evaluation index of the target user to the user.

<連携モード設定処理>
連携モード設定処理は、通話記憶処理にあたり、CRMシステム30への通話情報の記憶処理を設定するための処理である。
<Link mode setting processing>
The cooperation mode setting process is a process for setting the storage process of the call information to the CRM system 30 in connection with the call storage process.

<連携モード設定処理の概要>
ユーザまたは、ユーザが所属する組織、部署の管理者などはサーバ10が提供する所定のウェブサイトを開き、連携モード設定の編集画面を表示する。ユーザは、連携モード設定画面において、希望する連携モードを選択し、保存操作などを実行することによりサーバ10における、CRMシステム30への通話情報の記憶処理を設定することができる。
なお、ユーザが設定することなしに、連携モード設定は所定の規定値を予め有するものとしても良い。ユーザが、本開示にかかる音声通話サービスを初めて利用する際に設定するものとしても良い。
<Overview of link mode setting processing>
A user or an administrator of an organization or department to which the user belongs opens a predetermined website provided by the server 10 and displays an edit screen for setting the cooperation mode. The user can select a desired cooperation mode on the cooperation mode setting screen and execute a save operation or the like to set storage processing of call information to the CRM system 30 in the server 10 .
It should be noted that the cooperation mode setting may have a predetermined prescribed value in advance without being set by the user. The user may set this when using the voice call service according to the present disclosure for the first time.

<連携モード設定処理の詳細>
ユーザまたは、ユーザが所属する組織、部署の管理者など(ユーザ等)は自身のユーザ端末20を操作し、ウェブブラウザなどによりサーバ10が提供する連携モード設定の編集画面に関するウェブサイトを開く。ユーザ等は、ユーザ端末20を操作し、連携モード設定画面において、希望する連携モードとして第1モードまたは第2モードのいずれかを選択する。ユーザ等は、ユーザ端末20を操作し、自身のユーザID2011、選択した連携モードをサーバ10へ送信する。サーバ10の設定部1042は、受信したユーザID2011によりユーザテーブル1012を検索し、当該ユーザのレコードの連携モードの項目に、受信した連携モードを記憶する。
なお、連携モードは、ユーザごとではなく、ユーザが所属する組織ごとに記憶しても良い。つまり、組織テーブル1013に設けられた連携モードの項目に記憶し、各ユーザの連携モードは、組織IDにより紐づけられた組織テーブル1013の連携モードの項目を参照しても良い。
<Details of link mode setting processing>
A user or an administrator of an organization or department to which the user belongs operates his or her own user terminal 20 and opens a website related to an edit screen for cooperation mode settings provided by the server 10 using a web browser or the like. The user or the like operates the user terminal 20 and selects either the first mode or the second mode as the desired cooperation mode on the cooperation mode setting screen. A user or the like operates the user terminal 20 to transmit his/her own user ID 2011 and the selected cooperation mode to the server 10 . The setting unit 1042 of the server 10 searches the user table 1012 with the received user ID 2011, and stores the received cooperation mode in the cooperation mode item of the record of the user.
Note that the cooperation mode may be stored for each organization to which the user belongs instead of for each user. That is, it may be stored in the item of cooperation mode provided in the organization table 1013, and the cooperation mode of each user may refer to the item of cooperation mode of the organization table 1013 linked by the organization ID.

<CRM記憶処理>
CRM記憶処理は、本開示にかかる音声通話サービスを利用してユーザと顧客との間で行われる通話に関する情報をCRMシステム30に記憶するための処理である。以下、CRM記憶処理の詳細を図19のフローチャートを用いて説明する。
<CRM storage processing>
The CRM storage process is a process for storing, in the CRM system 30, information regarding calls made between users and customers using the voice call service according to the present disclosure. The details of the CRM storage process will be described below with reference to the flowchart of FIG.

<CRM記憶処理の概要>
CRM記憶処理は、ユーザと顧客との間で通話が開始された場合に、ユーザまたは組織ごとに設定された連携モードを取得し、連携モードの設定値に応じて通話に関するデータをCRMシステム30に記憶する一連の処理である。これにより、通話に関するデータは、CRMシステム30において、通話対象の顧客情報と紐付けて記憶される。
<Overview of CRM storage processing>
The CRM storage process acquires the cooperation mode set for each user or organization when a call is started between the user and the customer, and sends data related to the call to the CRM system 30 according to the setting value of the cooperation mode. It is a series of processing to be stored. As a result, the data related to the call is stored in the CRM system 30 in association with the customer information of the call target.

<CRM記憶処理の詳細>
ステップS601において、発信処理または受信処理(受発信処理)が行われた後に、ユーザと顧客との間で通話が開始される。これにより、サーバ10はユーザと顧客との間で通話が開始されたことを検知する。
<Details of CRM storage processing>
In step S601, after the originating process or the receiving process (receiving/transmitting process) is performed, a call is started between the user and the customer. Thereby, the server 10 detects that a call has been started between the user and the customer.

ステップS602において、サーバ10のCRM記憶制御部1051は、ユーザ端末20から受信したユーザID2011に基づきユーザテーブル1012を検索し、通話しているユーザの連携モードを取得する。なお、連携モードが組織ごとに組織テーブル1013等に記憶されている場合には、該当ユーザの組織IDに基づき組織テーブル1013等を検索し、該当ユーザに紐づけられている連携モードを、ユーザの連携モードとする。 In step S602, the CRM storage control unit 1051 of the server 10 searches the user table 1012 based on the user ID 2011 received from the user terminal 20, and acquires the cooperation mode of the user making the call. If the cooperation mode is stored in the organization table 1013 or the like for each organization, the organization table 1013 or the like is searched based on the organization ID of the user, and the cooperation mode linked to the user is determined by the user's organization. Set to cooperation mode.

ステップS603において、サーバ10のCRM記憶制御部1051は、取得した連携モードが、第1モードか第2モードか判定する。サーバ10のCRM記憶制御部1051は、取得した連携モードが、第1モードである場合にはステップS604に進む。サーバ10のCRM記憶制御部1051は、取得した連携モードが、第2モードである場合にはステップS604をスキップし、ステップS605に進む。 In step S603, the CRM storage control unit 1051 of the server 10 determines whether the acquired cooperation mode is the first mode or the second mode. If the acquired cooperation mode is the first mode, the CRM storage control unit 1051 of the server 10 proceeds to step S604. If the acquired cooperation mode is the second mode, the CRM storage control unit 1051 of the server 10 skips step S604 and proceeds to step S605.

ステップS604において、サーバ10のCRM記憶制御部1051は、第1通話データおよび、当該通話の通話テーブル1014における通話IDを含む通話データを顧客IDと関連付けて記憶させるリクエストをCRMシステム30へ送信する。第1通話データとは、当該通話の開始後、通話が終了するまでに取得可能な通話に関するデータである。
具体的には、CRMシステム30は、通話IDと紐づけて、第1通話データとして通話をしているユーザのユーザID、顧客の顧客ID、発信日時(発信の場合のみ)、通話の開始日時を、それぞれ応対履歴テーブル3013のユーザID、顧客ID、ダイアル日時、通話開始日時の項目に記憶する。なお、第1通話データは、ユーザID、顧客の顧客ID、ダイアル日時、通話開始日時の少なくとも1つを含む構成としても構わない。
In step S604, the CRM storage control unit 1051 of the server 10 transmits to the CRM system 30 a request to store the first call data and the call data including the call ID in the call table 1014 of the call in association with the customer ID. The first call data is data related to a call that can be obtained from the start of the call until the end of the call.
Specifically, the CRM system 30 associates the call ID with the user ID of the user who is making the call, the customer ID of the customer, the date and time of the call (only in the case of call), and the date and time of the start of the call as the first call data. are stored in the fields of user ID, customer ID, dial date and time, and call start date and time of the response history table 3013, respectively. Note that the first call data may include at least one of the user ID, the customer ID of the customer, the dial date and time, and the call start date and time.

ステップS605において、サーバ10のCRM記憶制御部1051は、ユーザと顧客との間の通話終了を検知する。 In step S605, the CRM storage control unit 1051 of the server 10 detects termination of the call between the user and the customer.

ステップS606において、サーバ10のCRM記憶制御部1051は、当該通話に関する音声解析処理が完了しているか否かを判定する。具体的に、サーバ10のCRM記憶制御部1051は、通話テーブル1014を参照し、当該通話のレコードにおける解析データの項目にブランク、ヌル、その他、音声解析処理が完了していないことを示す情報が記憶されているか否かを判定する。
音声解析処理が完了していない場合には、サーバ10のCRM記憶制御部1051は、ステップS606で待機する。音声解析処理が完了している場合は、サーバ10のCRM記憶制御部1051は、ステップS607に進む。
In step S606, the CRM storage control unit 1051 of the server 10 determines whether or not the voice analysis processing regarding the call has been completed. Specifically, the CRM storage control unit 1051 of the server 10 refers to the call table 1014, and the item of analysis data in the record of the call is blank, null, or other information indicating that the voice analysis process has not been completed. Determine whether or not it is stored.
If the speech analysis processing has not been completed, the CRM storage control unit 1051 of the server 10 waits in step S606. If the voice analysis process has been completed, the CRM storage control unit 1051 of the server 10 proceeds to step S607.

ステップS607において、サーバ10のCRM記憶制御部1051は、取得した連携モードが、第1モードか第2モードか判定する。サーバ10のCRM記憶制御部1051は、取得した連携モードが、第1モードである場合にはステップS609に進む。サーバ10のCRM記憶制御部1051は、取得した連携モードが、第2モードである場合にはステップS608に進む。 In step S607, the CRM storage control unit 1051 of the server 10 determines whether the acquired cooperation mode is the first mode or the second mode. If the acquired cooperation mode is the first mode, the CRM storage control unit 1051 of the server 10 proceeds to step S609. If the acquired cooperation mode is the second mode, the CRM storage control unit 1051 of the server 10 proceeds to step S608.

ステップS608において、サーバ10のCRM記憶制御部1051は、第2通話データおよび、当該通話の通話テーブル1014における通話IDを含む通話データを顧客IDと関連付けて記憶させるリクエストをCRMシステム30へ送信する。第2通話データとは、当該通話の終了後に取得可能な通話に関するデータである。
CRMシステム30は、通話IDと紐づけて、第2通話データとして通話をしているユーザのユーザID、顧客の顧客ID、発信日時(発信の場合のみ)、通話の開始日時、通話の終了日時をそれぞれ応対履歴テーブル3013のユーザID、顧客ID、ダイアル日時、通話開始日時、通話終了日時の項目に記憶する。CRMシステム30は、通話IDと紐づけて、通話に関する音声認識情報、通話に関する要約情報を応対履歴テーブル3013のコメントの項目に記憶する。具体的には、図24のコメント807の音声認識結果、要約結果のように、発話時刻、話者、テキストを結合したテキスト形式の情報に変換し応対履歴テーブル3013のコメントの項目に記憶する。CRMシステム30は、通話IDと紐づけて、通話IDに基づき生成したURLを応対履歴テーブル3013のURLの項目に記憶する。なお、応対履歴テーブル3013には、第2通話データの一部の情報のみを記憶する構成としても構わない。
In step S608, the CRM storage control unit 1051 of the server 10 transmits to the CRM system 30 a request to store the second call data and the call data including the call ID in the call table 1014 of the call in association with the customer ID. The second call data is data related to a call that can be obtained after the call ends.
The CRM system 30 associates the call ID with the user ID of the user who is making the call, the customer ID of the customer, the date and time of the call (only in the case of call), the start date and time of the call, and the end date and time of the call as second call data. are stored in the fields of user ID, customer ID, dial date and time, call start date and time, and call end date and time in the response history table 3013, respectively. The CRM system 30 stores the speech recognition information about the call and the summary information about the call in the comment field of the response history table 3013 in association with the call ID. Specifically, like the speech recognition result and summary result of the comment 807 in FIG. The CRM system 30 stores the URL generated based on the call ID in the URL field of the response history table 3013 in association with the call ID. Note that the response history table 3013 may be configured to store only part of the second call data.

ステップS609において、サーバ10のCRM記憶制御部1051は、第3通話データおよび、当該通話の通話テーブル1014における通話IDを含む通話データを顧客IDと関連付けて記憶させるリクエストをCRMシステム30へ送信する。第3通話データとは、当該通話の終了後に取得可能な通話に関するデータのうち、第1通話データに含まれるデータを除いたものである。
CRMシステム30は、通話IDと紐づけて、第2通話データとして通話の終了日時を応対履歴テーブル3013の通話終了日時の項目に記憶する。CRMシステム30は、通話IDと紐づけて、通話に関する音声認識情報、通話に関する要約情報を応対履歴テーブル3013のコメントの項目に追記する。具体的には、図24のコメント807の音声認識結果、要約結果のように、発話時刻、話者、テキストを結合したテキスト形式の情報に変換し応対履歴テーブル3013のコメントの項目に追記する。
このとき、サーバ10のCRM記憶制御部1051は、連携モードが第1モードである場合は、ステップS604において既に応対履歴テーブル3013にレコードが生成されているため、当該レコードのコメントに既に記載された内容を上書きしないように追記する。具体的には、連携モードが第1モードである場合は、応対履歴テーブル3013には当該通話のレコードが新たに作成され、他のユーザなどによりコメントへの追記が行われる場合がある。そのような場合にも、サーバ10のCRM記憶制御部1051は、当該レコードのコメントを上書きしないように追記する。
CRMシステム30は、通話IDと紐づけて、通話IDに基づき生成したURLを応対履歴テーブル3013のURLの項目に記憶する。なお、応対履歴テーブル3013には、第3通話データの一部の情報のみを記憶する構成としても構わない。
In step S609, the CRM storage control unit 1051 of the server 10 transmits to the CRM system 30 a request to store the third call data and the call data including the call ID in the call table 1014 of the call in association with the customer ID. The third call data is the data related to the call that can be obtained after the end of the call, excluding the data included in the first call data.
The CRM system 30 stores the end date and time of the call as second call data in the item of call end date and time of the response history table 3013 in association with the call ID. The CRM system 30 adds the speech recognition information about the call and the summary information about the call to the comment item of the response history table 3013 in association with the call ID. Specifically, like the voice recognition result and summary result of the comment 807 in FIG.
At this time, if the cooperation mode is the first mode, the CRM storage control unit 1051 of the server 10 has already generated a record in the response history table 3013 in step S604. Add so as not to overwrite the content. Specifically, when the cooperation mode is the first mode, a record of the call is newly created in the reception history table 3013, and another user may add the comment to the comment. Even in such a case, the CRM storage control unit 1051 of the server 10 adds the comment so as not to overwrite the comment of the record.
The CRM system 30 stores the URL generated based on the call ID in the URL field of the response history table 3013 in association with the call ID. Note that the response history table 3013 may be configured to store only part of the third call data.

<変形例>
サーバ10は、CRMシステム30の顧客テーブル3012などから顧客情報を取得し不図示のデータベース等に記憶することにより自身でも顧客情報を記憶する構成とできる。この場合、サーバ10のCRM記憶制御部1051は、通話IDに替えて、顧客IDまたは顧客の氏名、顧客組織名などを含むリクエストをCRMシステム30へ送信することにより、通話データを通話対象の顧客と関連付けて記憶しても良い。この場合も、通話に関するデータは、CRMシステム30において、通話対象の顧客情報と紐付けて記憶される。
<Modification>
The server 10 can be configured to store customer information itself by acquiring customer information from the customer table 3012 of the CRM system 30 and storing it in a database (not shown). In this case, the CRM storage control unit 1051 of the server 10 sends the call data to the customer to be called by sending a request including the customer ID, the name of the customer, the name of the customer organization, etc. to the CRM system 30 instead of the call ID. may be stored in association with . In this case as well, the data related to the call is stored in the CRM system 30 in association with the customer information of the call target.

本開示においては、サーバ10がユーザと顧客との間の通話に関するサービスも提供するが、通話サービスは不図示の外部サービスが提供しても良い。このとき、サーバ10のCRM記憶制御部1051は、当該外部サービスから提供されるユーザと顧客との間の通話開始に関するリクエストの受信をもって、ユーザと顧客との間の通話が開始したことを検知してCRM記憶処理を開始しても良い。同様に、当該外部サービスから提供されるユーザと顧客との間の通話終了に関するリクエストの受信をもって、ユーザと顧客との間の通話が終了したことを検知しても良い。その他、ユーザと顧客との間で行われる音声データに基づき、例えば、音声データがなくなったことをもって、ユーザと顧客との間の通話が終了したことを検知しても良い。 In the present disclosure, the server 10 also provides services related to calls between users and customers, but the call services may be provided by an external service (not shown). At this time, the CRM storage control unit 1051 of the server 10 detects that a call between the user and the customer has started by receiving a request for starting a call between the user and the customer provided by the external service. may start the CRM storage process. Similarly, the termination of the call between the user and the customer may be detected upon receipt of a request for termination of the call between the user and the customer provided by the external service. In addition, based on voice data between the user and the customer, for example, the end of the call between the user and the customer may be detected when the voice data disappears.

<通話表示処理>
通話表示処理は、CRMシステム30に記憶された通話データを、ユーザに表示するための処理である。以下、通話表示処理の詳細を図20のフローチャートを用いて説明する。図24は、通話表示処理におけるCRMシステム30が出力する画面例を示した図である。
<Call display processing>
Call display processing is processing for displaying call data stored in the CRM system 30 to the user. Details of the call display processing will be described below with reference to the flowchart of FIG. FIG. 24 is a diagram showing an example of a screen output by the CRM system 30 in call display processing.

<通話表示処理の概要>
ユーザは、顧客との間の通話が終了した後に、ユーザ端末20を操作し、CRMシステム30に記憶された顧客との応対履歴を表示させる。ユーザは、ユーザ端末20を操作し、顧客との応対履歴から、解析データを表示させたい応対履歴を選択し、解析データの表示をリクエストすると、CRMシステム30はサーバ10から解析データを取得し、ユーザ端末20のディスプレイ2081に顧客情報と解析データとを表示させる。
<Overview of call display processing>
After finishing the call with the customer, the user operates the user terminal 20 to display the customer reception history stored in the CRM system 30 . When the user operates the user terminal 20, selects the customer service history for which the analysis data is to be displayed from the service history with the customer, and requests display of the analysis data, the CRM system 30 acquires the analysis data from the server 10, The customer information and analysis data are displayed on the display 2081 of the user terminal 20 .

<通話表示処理の詳細>
ステップS701において、ユーザはユーザ端末20を操作してCRMシステム30が提供する所定のウェブサイトを開き、応対履歴表示画面を表示させる。
具体的には、ユーザ端末20は、顧客情報の一覧表示に関するリクエストをCRMシステム30に送信する。CRMシステム30は、顧客テーブル3012を検索し、レコードをユーザ端末20へ送信する。ユーザ端末20のディスプレイ2081は、受信した顧客情報をユーザが選択可能なように一覧表示する。
ユーザは、ユーザ端末20のディスプレイ2081に一覧表示された顧客情報から、応対履歴を表示させたい顧客を選択し、「送信」ボタンを押下することにより、CRMシステム30に選択された顧客の顧客IDを送信する。CRMシステム30は、顧客IDを受信すると、応対履歴テーブル3013を検索し、選択された顧客に関する応対履歴のレコードをユーザ端末20へ送信する。ユーザ端末20のディスプレイ2081は、受信した応対履歴をユーザが選択可能なように一覧表示する。
<Details of call display processing>
In step S701, the user operates the user terminal 20 to open a predetermined website provided by the CRM system 30, and displays a reception history display screen.
Specifically, the user terminal 20 transmits a request for displaying a list of customer information to the CRM system 30 . CRM system 30 searches customer table 3012 and sends the record to user terminal 20 . The display 2081 of the user terminal 20 displays a list of the received customer information so that the user can select it.
The user selects a customer whose response history is to be displayed from the customer information displayed in a list on the display 2081 of the user terminal 20, and presses the "Send" button. to send. When the customer ID is received, the CRM system 30 searches the customer service history table 3013 and transmits to the user terminal 20 a customer service history record for the selected customer. The display 2081 of the user terminal 20 displays a list of received reception histories so that the user can select them.

ステップS702において、ユーザは、ユーザ端末20のディスプレイ2081に一覧表示された応対履歴から、応対履歴を表示させたいレコードを選択し、「送信」ボタンを押下することにより、CRMシステム30に選択された応対履歴の応対履歴IDを送信する。CRMシステム30は、選択された応対履歴情報の表示画面を生成しユーザ端末20に送信する。ユーザ端末20のディスプレイ2081は、受信した応対履歴情報の表示画面を表示する。応対履歴情報の表示画面には、応対履歴テーブル3013に記憶された、URL、顧客情報、ユーザ情報、ダイアル日時、通話開始日時、通話終了日時、CRM記憶処理によりコメントに記憶された音声認識情報および要約情報などが表示される。
なお、ステップS701、S702の処理を行わずに、例えば、ユーザと顧客との間の通話が終了した後に、ユーザ端末20は、当該通話に関する応対履歴を選択された応対履歴とし、応対履歴IDをCRMシステム30へ送信しても良い。
In step S702, the user selects a record whose response history is to be displayed from the list of response histories displayed on the display 2081 of the user terminal 20, and presses the "Send" button. Send the response history ID of the response history. The CRM system 30 generates a display screen of the selected reception history information and transmits it to the user terminal 20 . The display 2081 of the user terminal 20 displays the received reception history information display screen. The display screen of the response history information includes the URL, customer information, user information, dialing date and time, call start date and time, call end date and time, voice recognition information stored in the comment by CRM storage processing, and voice recognition information stored in the response history table 3013. Summary information and so on are displayed.
For example, after the call between the user and the customer ends without performing the processes of steps S701 and S702, the user terminal 20 sets the selected response history as the response history related to the call, and sets the response history ID as You may transmit to the CRM system 30.

ステップS703において、ユーザは、ユーザ端末20を操作し、応対履歴情報の表示画面に表示された「解析結果」のボタン801を押下する。ユーザ端末20は、CRMシステム30に対して、当該通話に関連する応対履歴IDを含む解析結果を表示するリクエストを送信する。CRMシステム30は、受信した応対履歴IDに基づき、応対履歴テーブル3013を検索し通話IDを特定する。CRMシステム30は、特定した通話IDを含む、解析データを要求するリクエストをサーバ10へ送信する。サーバ10は、受信した通話IDに基づき通話テーブル1014を検索し、解析データの存在有無を確認する。解析データが存在しない場合には、ステップS703にて待機する。
解析データが存在する場合はステップS704に進む。
In step S703, the user operates the user terminal 20 and presses the "analysis result" button 801 displayed on the display screen of the response history information. The user terminal 20 transmits a request to the CRM system 30 to display the analysis result including the reception history ID related to the call. The CRM system 30 searches the response history table 3013 based on the received response history ID to identify the call ID. CRM system 30 sends a request to server 10 for analytical data, including the identified call ID. The server 10 searches the call table 1014 based on the received call ID and confirms the presence or absence of analysis data. If the analysis data does not exist, it waits in step S703.
If analysis data exists, the process proceeds to step S704.

ステップS704において、サーバ10は、受信した通話IDに基づき、通話テーブル1014を検索し、解析データをCRMシステム30に送信する。CRMシステム30は、受信した解析データに基づき、解析データを可視化した解析結果画面808を生成しユーザ端末20へ送信する。解析結果画面808は、図24に示す音声解析結果802、応対評価804、音声評価805、話速806を含む。解析結果画面808は、応対履歴テーブル3013のコメントの項目に記憶された、テキスト形式の音声認識結果、要約結果であるコメント807を含んでも良い。ユーザは、再生、停止ボタン803を押下することにより、通話音声を再生することができる。
CRMシステム30には、顧客テーブル3012などの顧客に関する情報が蓄積されており、ユーザはCRMシステム30に記憶された顧客に関する情報と、解析データを可視化した解析結果画面とを選択的に切り替えて表示したり、並べて表示することで、顧客との応対履歴を短時間でより詳細に把握することができる。つまり、ユーザは、CRMシステム30に対する操作により、顧客情報の管理に加え、解析データの可視化結果も確認することができる。
In step S<b>704 , the server 10 searches the call table 1014 based on the received call ID, and transmits analysis data to the CRM system 30 . Based on the received analysis data, the CRM system 30 generates an analysis result screen 808 that visualizes the analysis data and transmits it to the user terminal 20 . Analysis result screen 808 includes voice analysis result 802, response evaluation 804, voice evaluation 805, and speech speed 806 shown in FIG. The analysis result screen 808 may include a comment 807 that is a speech recognition result in text format and a summary result stored in the comment item of the response history table 3013 . The user can reproduce the call voice by pressing the play/stop button 803 .
Customer information such as a customer table 3012 is stored in the CRM system 30, and the user selectively switches between the customer information stored in the CRM system 30 and an analysis result screen that visualizes the analysis data. By displaying them side by side, it is possible to grasp the customer's response history in more detail in a short time. In other words, by operating the CRM system 30, the user can check the visualization results of the analysis data in addition to managing the customer information.

<変形例>
本開示において、音声サーバ(PBX)40と顧客端末50は、電話網Tにより接続されているものとして説明を行ったが、特にこれに限定されない。つまり、音声サーバ(PBX)40と顧客端末50は、例えば、インターネット等を含むあらゆる通信手段により接続されていても良い。
<Modification>
In the present disclosure, the voice server (PBX) 40 and the customer terminal 50 have been described as being connected via the telephone network T, but this is not a particular limitation. In other words, the voice server (PBX) 40 and the customer terminal 50 may be connected by any means of communication including, for example, the Internet.

この場合、発信処理において、顧客の電話番号ではなく、顧客を識別するための任意の顧客識別情報、URLなどの情報に基づき顧客端末50に対して発信(架電)を行う構成としても良い。同様に、着信処理においても、着信リクエストは顧客を識別するための任意の顧客識別情報、URLなどの情報を含んでもよく、当該顧客識別情報、URLなどの情報に基づき着信するユーザ端末20を特定し、着信(受電)を行う構成としても良い。 In this case, in the calling process, a call may be made to the customer terminal 50 based on arbitrary customer identification information for identifying the customer, URL, etc., instead of the customer's telephone number. Similarly, in the incoming call process, the incoming call request may contain information such as arbitrary customer identification information and URL for identifying the customer, and the user terminal 20 receiving the incoming call is specified based on the information such as customer identification information and URL. However, the configuration may be such that an incoming call (power reception) is performed.

<コンピュータの基本ハードウェア構成>
図25は、コンピュータ90の基本的なハードウェア構成を示すブロック図である。コンピュータ90は、プロセッサ901、主記憶装置902、補助記憶装置903、通信IF991(インタフェース、Interface)を少なくとも備える。これらは通信バス921により相互に電気的に接続される。
<Computer hardware configuration>
FIG. 25 is a block diagram showing the basic hardware configuration of the computer 90. As shown in FIG. The computer 90 includes at least a processor 901, a main storage device 902, an auxiliary storage device 903, and a communication IF 991 (Interface). These are electrically connected to each other by a communication bus 921 .

プロセッサ901とは、プログラムに記述された命令セットを実行するためのハードウェアである。プロセッサ901は、演算装置、レジスタ、周辺回路等から構成される。 The processor 901 is hardware for executing an instruction set described in a program. The processor 901 is composed of an arithmetic unit, registers, peripheral circuits, and the like.

主記憶装置902とは、プログラム、及びプログラム等で処理されるデータ等を一時的に記憶するためのものである。例えば、DRAM(Dynamic Random Access Memory)等の揮発性のメモリである。 The main storage device 902 is for temporarily storing programs and data processed by the programs. For example, it is a volatile memory such as a DRAM (Dynamic Random Access Memory).

補助記憶装置903とは、データ及びプログラムを保存するための記憶装置である。例えば、フラッシュメモリ、HDD(Hard Disc Drive)、光磁気ディスク、CD―ROM、DVD―ROM、半導体メモリ等である。 Auxiliary storage device 903 is a storage device for storing data and programs. For example, flash memory, HDD (Hard Disc Drive), magneto-optical disk, CD-ROM, DVD-ROM, semiconductor memory, and the like.

通信IF991とは、有線又は無線の通信規格を用いて、他のコンピュータとネットワークを介して通信するための信号を入出力するためのインタフェースである。
ネットワークは、インターネット、LAN、無線基地局等によって構築される各種移動通信システム等で構成される。例えば、ネットワークには、3G、4G、5G移動通信システム、LTE(Long Term Evolution)、所定のアクセスポイントによってインターネットに接続可能な無線ネットワーク(例えばWi-Fi(登録商標))等が含まれる。無線で接続する場合、通信プロトコルとして例えば、Z―Wave(登録商標)、ZigBee(登録商標)、Bluetooth(登録商標)等が含まれる。有線で接続する場合は、ネットワークには、USB(Universal Serial Bus)ケーブル等により直接接続するものも含む。
The communication IF 991 is an interface for inputting and outputting signals for communicating with other computers via a network using a wired or wireless communication standard.
The network is composed of various mobile communication systems constructed by the Internet, LAN, wireless base stations, and the like. For example, networks include 3G, 4G, and 5G mobile communication systems, LTE (Long Term Evolution), wireless networks (for example, Wi-Fi (registered trademark)) that can be connected to the Internet through predetermined access points, and the like. When connecting wirelessly, communication protocols include, for example, Z-Wave (registered trademark), ZigBee (registered trademark), Bluetooth (registered trademark), and the like. In the case of wired connection, the network includes direct connection using a USB (Universal Serial Bus) cable or the like.

なお、各ハードウェア構成の全部または一部を複数のコンピュータ90に分散して設け、ネットワークを介して相互に接続することによりコンピュータ90を仮想的に実現することができる。このように、コンピュータ90は、単一の筐体、ケースに収納されたコンピュータ90だけでなく、仮想化されたコンピュータシステムも含む概念である。 It should be noted that the computer 90 can be virtually realized by distributing all or part of each hardware configuration to a plurality of computers 90 and connecting them to each other via a network. Thus, the computer 90 is a concept that includes not only the computer 90 housed in a single housing or case, but also a virtualized computer system.

<コンピュータ90の基本機能構成>
コンピュータ90の基本ハードウェア構成(図25)により実現されるコンピュータの機能構成を説明する。コンピュータは、制御部、記憶部、通信部の機能ユニットを少なくとも備える。
<Basic Functional Configuration of Computer 90>
A functional configuration of the computer realized by the basic hardware configuration of the computer 90 (FIG. 25) will be described. The computer includes at least functional units of a control section, a storage section, and a communication section.

なお、コンピュータ90が備える機能ユニットは、それぞれの機能ユニットの全部または一部を、ネットワークで相互に接続された複数のコンピュータ90に分散して設けても実現することができる。コンピュータ90は、単一のコンピュータ90だけでなく、仮想化されたコンピュータシステムも含む概念である。 Note that the functional units included in the computer 90 can also be implemented by distributing all or part of each functional unit to a plurality of computers 90 interconnected via a network. The computer 90 is a concept that includes not only a single computer 90 but also a virtualized computer system.

制御部は、プロセッサ901が補助記憶装置903に記憶された各種プログラムを読み出して主記憶装置902に展開し、当該プログラムに従って処理を実行することにより実現される。制御部は、プログラムの種類に応じて様々な情報処理を行う機能ユニットを実現することができる。これにより、コンピュータは情報処理を行う情報処理装置として実現される。 The control unit is implemented by the processor 901 reading out various programs stored in the auxiliary storage device 903, developing them in the main storage device 902, and executing processing according to the programs. The control unit can implement functional units that perform various information processing according to the type of program. Thereby, the computer is implemented as an information processing device that performs information processing.

記憶部は、主記憶装置902、補助記憶装置903により実現される。記憶部は、データ、各種プログラム、各種データベースを記憶する。また、プロセッサ901は、プログラムに従って記憶部に対応する記憶領域を主記憶装置902または補助記憶装置903に確保することができる。また、制御部は、各種プログラムに従ってプロセッサ901に、記憶部に記憶されたデータの追加、更新、削除処理を実行させることができる。 A storage unit is realized by the main storage device 902 and the auxiliary storage device 903 . The storage unit stores data, various programs, and various databases. Also, the processor 901 can secure a storage area corresponding to the storage unit in the main storage device 902 or the auxiliary storage device 903 according to a program. In addition, the control unit can cause the processor 901 to execute addition, update, and deletion processing of data stored in the storage unit according to various programs.

データベースは、リレーショナルデータベースを指し、行と列によって構造的に規定された表形式のテーブル、マスタと呼ばれるデータ集合を、互いに関連づけて管理するためのものである。データベースでは、表をテーブル、マスタ、表の列をカラム、表の行をレコードと呼ぶ。リレーショナルデータベースでは、テーブル、マスタ同士の関係を設定し、関連づけることができる。
通常、各テーブル、各マスタにはレコードを一意に特定するための主キーとなるカラムが設定されるが、カラムへの主キーの設定は必須ではない。制御部は、各種プログラムに従ってプロセッサ901に、記憶部に記憶された特定のテーブル、マスタにレコードを追加、削除、更新を実行させることができる。
A database refers to a relational database, and is for managing tabular tables structurally defined by rows and columns, and data sets called masters in association with each other. In a database, a table is called a table, a master is called a column, and a row is called a record. In a relational database, relationships between tables and masters can be set and associated.
Normally, each table and each master has a primary key column for uniquely identifying a record, but setting a primary key to a column is not essential. The control unit can cause the processor 901 to add, delete, and update records in specific tables and masters stored in the storage unit according to various programs.

通信部は、通信IF991により実現される。通信部は、ネットワークを介して他のコンピュータ90と通信を行う機能を実現する。通信部は、他のコンピュータ90から送信された情報を受信し、制御部へ入力することができる。制御部は、各種プログラムに従ってプロセッサ901に、受信した情報に対する情報処理を実行させることができる。また、通信部は、制御部から出力された情報を他のコンピュータ90へ送信することができる。 A communication unit is implemented by the communication IF 991 . The communication unit implements a function of communicating with another computer 90 via a network. The communication section can receive information transmitted from another computer 90 and input it to the control section. The control unit can cause the processor 901 to execute information processing on the received information according to various programs. Also, the communication section can transmit information output from the control section to another computer 90 .

<付記>
以上の各実施形態で説明した事項を以下に付記する。
<Appendix>
The items described in the above embodiments will be added below.

(付記1)
プロセッサと、記憶部とを備え、ユーザと顧客との間で行われる通話に関連するデータをコンピュータに管理させるためのプログラムであって、プログラムは、プロセッサに、通話に関する音声データを受け付ける受付ステップと、音声データから、発話区間ごとに複数の区間音声データを抽出する音声抽出ステップ(S104、S204)と、複数の区間音声データのそれぞれに対してテキスト認識を行い複数のテキスト情報を抽出するテキスト抽出ステップ(S104、S204)と、テキスト抽出ステップにおいて抽出された複数のテキスト情報から、話者情報が異なり、発話時刻において前後する1または複数のテキスト情報を要約情報として抽出する要約抽出ステップ(S107、S207)と、を実行するプログラム。
これにより、ユーザと顧客との通話応対に注目した要約情報を生成することができる。
ユーザは、要約情報を確認することで、ユーザと顧客との間で行われた通話応対を短時間で正確に把握することができる。
(Appendix 1)
A program for causing a computer to manage data related to a call conducted between a user and a customer, the program comprising a processor and a storage unit, wherein the program causes the processor to receive voice data related to the call; a voice extraction step (S104, S204) for extracting a plurality of segmental voice data for each utterance segment from the voice data; a step (S104, S204); and a summary extraction step (S107, S107, S107, S107, S107, S204) of extracting, from the plurality of pieces of text information extracted in the text extraction step, one or a plurality of pieces of text information having different speaker information and preceding or succeeding in speech time. S207) and a program that executes.
As a result, it is possible to generate summarized information focusing on the call response between the user and the customer.
By confirming the summary information, the user can accurately grasp the call handling between the user and the customer in a short period of time.

(付記2)
プログラムは、プロセッサに、テキスト抽出ステップにおいて抽出された複数のテキスト情報に対して、複数のテキスト情報を発話時刻の順番に並べた場合に、話者情報が変化する前後のテキスト情報をテキスト情報群としてバインディングするバインディングステップ(S105)と、複数のテキスト情報、および、バインディングステップにおいてバインディングされた1または複数のテキスト情報群に対して重要度を算定する算定ステップ(S106)と、を実行させ、要約抽出ステップは、重要度に基づき、テキスト情報またはテキスト情報群を要約情報として抽出するステップである、付記1記載のプログラム。
これにより、ユーザと顧客との間で行われる通話に関連するデータを管理するコンピュータにおいて、ユーザと顧客との間で行われる通話に基づき、バインディングが行われた発話と応対のテキスト情報群というユーザと顧客との通話応対に注目した要約情報を生成することができる。
ユーザは、要約情報を確認することで、ユーザと顧客との間で行われた通話応対を短時間で正確に把握することができる。
(Appendix 2)
The program stores, in the processor, a text information group of text information before and after a change in speaker information when the plurality of text information extracted in the text extraction step is arranged in order of utterance time. and a calculating step (S106) of calculating the importance of a plurality of pieces of text information and one or more groups of text information bound in the binding step, and summarizing The program according to appendix 1, wherein the extracting step is a step of extracting the text information or the text information group as summary information based on the degree of importance.
As a result, in a computer that manages data related to a call made between a user and a customer, a group of text information of utterances and responses that are bound based on the call made between the user and the customer. It is possible to generate summary information that focuses on the call response between the customer and the customer.
By confirming the summary information, the user can accurately grasp the call handling between the user and the customer in a short period of time.

(付記3)
算定ステップは、バインディングステップにおいてバインディングされた1または複数のテキスト情報群のそれぞれに対し、当該テキスト情報群に含まれるテキスト情報を結合してなる一の文章として重要度を算定するステップ(S106)である、付記2記載のプログラム。
これにより、バインディングが行われた発話と応対のテキスト情報群ごとの重要度を算定することができる。ユーザと顧客との通話応対に注目した要約情報が生成される。
ユーザは、要約情報を確認することで、ユーザと顧客との間で行われた通話応対を短時間で正確に把握することができる。
(Appendix 3)
In the calculating step, for each of the one or more text information groups bound in the binding step, the importance is calculated as one sentence formed by combining the text information contained in the text information group (S106). A program according to Appendix 2.
This makes it possible to calculate the importance of each text information group of bound utterances and responses. Summary information is generated that focuses on the call handling between the user and the customer.
By confirming the summary information, the user can accurately grasp the call handling between the user and the customer in a short period of time.

(付記4)
算定ステップは、バインディングステップにおいてバインディングされたテキスト情報群に含まれる複数のテキスト情報のそれぞれに対して重要度を算定し、算定された複数の重要度に対して統計処理を行った値を、テキスト情報群の重要度として算定するステップ(S106)である、付記2記載のプログラム。
これにより、バインディングが行われた発話と応対のテキスト情報群ごとの重要度を算定することができる。ユーザと顧客との通話応対に注目した要約情報が生成される。
ユーザは、要約情報を確認することで、ユーザと顧客との間で行われた通話応対を短時間で正確に把握することができる。
(Appendix 4)
In the calculation step, the importance is calculated for each of the plurality of text information contained in the text information group bound in the binding step, and the values obtained by performing statistical processing on the calculated plurality of importance are added to the text. The program according to appendix 2, which is a step (S106) of calculating the importance of the information group.
This makes it possible to calculate the importance of each text information group of bound utterances and responses. Summary information is generated that focuses on the call handling between the user and the customer.
By confirming the summary information, the user can accurately grasp the call handling between the user and the customer in a short period of time.

(付記5)
算定ステップは、算定された複数の重要度のうち最も大きな重要度をテキスト情報群の重要度とするステップ(S106)である、付記4記載のプログラム。
これにより、バインディングが行われた発話と応対のテキスト情報群に含まれるテキスト情報のうち最も重要度の高いテキスト情報の重要度に基づき、テキスト情報群の重要度が算定される。重要度が大きいテキスト情報を含む要約情報を生成することができる。
ユーザは、要約情報を確認することで、ユーザと顧客との間で行われた通話応対のうち、重要度が大きいテキスト情報を見落とさずに確認することができる。
(Appendix 5)
4. The program according to appendix 4, wherein the calculating step is a step (S106) of setting the highest degree of importance among the plurality of calculated degrees of importance as the degree of importance of the text information group.
As a result, the importance of the text information group is calculated based on the importance of the text information with the highest importance among the text information included in the bound utterance and response text information group. Summary information can be generated that includes textual information with a high degree of importance.
By checking the summary information, the user can check without overlooking the text information of high importance in the call handling between the user and the customer.

(付記6)
算定ステップは、算定された複数の重要度の和または平均をテキスト情報群の重要度とするステップ(S106)である、付記4記載のプログラム。
これにより、バインディングが行われた発話と応対のテキスト情報群に含まれるテキスト情報の重要度の和または平均に基づき、テキスト情報群の重要度が算定される。重要度が大きいテキスト情報をより多く含む要約情報を生成することができる。
ユーザは、要約情報を確認することで、ユーザと顧客との間で行われた通話応対のうち、重要度が大きいテキスト情報をより多く含むテキスト情報を見落とさずに確認することができる。
(Appendix 6)
4. The program according to appendix 4, wherein the calculating step is a step (S106) of setting the sum or average of the calculated plurality of degrees of importance as the degree of importance of the text information group.
As a result, the importance of the text information group is calculated based on the sum or average of the importance of the text information included in the bound utterance and response text information group. It is possible to generate summary information that includes more text information with a high degree of importance.
By confirming the summary information, the user can confirm without overlooking the text information including a large amount of text information with high importance among the call responses between the user and the customer.

(付記7)
プログラムは、プロセッサに、テキスト抽出ステップにおいて抽出された複数のテキスト情報に対して、重要度を算定する算定ステップ(S205)と、を実行させ、要約抽出ステップは、重要度に基づき、テキスト抽出ステップにおいて抽出された複数のテキスト情報から1または複数のテキスト情報を抽出するステップと、抽出された1または複数のテキスト情報と話者情報が異なり、発話時刻において前後するテキスト情報を要約情報として抽出するステップ(S206)と、を含む、付記1記載のプログラム。
これにより、通話に関連するデータを管理するコンピュータにおいて、ユーザと顧客との間で行われる通話に基づき、バインディングが行われた発話と応対のテキスト情報群というユーザと顧客との通話応対に注目した要約情報を生成することができる。
ユーザは、要約情報を確認することで、ユーザと顧客との間で行われた通話応対を短時間で正確に把握することができる。
(Appendix 7)
The program causes the processor to perform a calculation step (S205) of calculating importance for a plurality of pieces of text information extracted in the text extraction step, and the summary extraction step is based on the importance, and the text extraction step a step of extracting one or more pieces of text information from the plurality of pieces of text information extracted in step of extracting text information that differs from the extracted one or more pieces of text information and speaker information and that precedes or follows in utterance time as summary information. The program according to Supplementary Note 1, comprising a step (S206).
As a result, in the computer that manages the data related to the call, we focused on the call response between the user and the customer, which is the text information group of the utterance and response that was bound based on the call between the user and the customer. Summary information can be generated.
By confirming the summary information, the user can accurately grasp the call handling between the user and the customer in a short period of time.

(付記8)
プログラムは、プロセッサに、要約抽出ステップにおいて抽出された、要約情報に含まれるテキスト情報を発話時刻の順番に並べた要約文書を表示する表示ステップ(S207)と、を実行する付記1から7のいずれか記載のプログラム。
これにより、ユーザは、要約文書を確認することで、ユーザと顧客との間で行われた通話応対を短時間で正確に把握することができる。
(Appendix 8)
The program executes, on the processor, a display step (S207) of displaying, on the processor, a summary document in which the text information included in the summary information is arranged in order of utterance time, extracted in the summary extraction step. or the program described.
Accordingly, by confirming the summary document, the user can accurately grasp the call handling performed between the user and the customer in a short time.

(付記9)
要約文書は、テキスト情報ごとに吹き出しで表示された要約文書であり、吹き出しは、テキスト情報の話者ごとに異なる色で表示され、吹き出しの色は、テキスト情報またはテキスト情報の重要度に基づき、色の明度、色相、彩度、濃さの少なくともいずれか1つを変化させて表示される、付記8記載のプログラム。
これにより、ユーザは、テキスト情報が含まれる吹き出しの色の明度、色相、彩度、濃さを確認することにより、視覚的に吹き出しに含まれるテキスト情報の重要度を把握することができる。
(Appendix 9)
The summary document is a summary document displayed in balloons for each piece of text information, and the balloons are displayed in different colors for each speaker of the text information. 9. The program according to appendix 8, wherein at least one of color brightness, hue, saturation, and density is changed for display.
Thereby, the user can visually grasp the importance of the text information contained in the balloon by confirming the lightness, hue, saturation, and density of the color of the balloon containing the text information.

(付記10)
プログラムは、プロセッサに、外部のCRMシステムに要約文書を記憶させる記憶ステップ(S107、S207)と、を実行させる、付記8または9記載のプログラム。
これにより、ユーザは、ユーザと顧客との間で行われる通話の要約文書を、顧客情報とともに、CRMシステムで体系的に管理することができる。
(Appendix 10)
10. The program according to appendix 8 or 9, wherein the program causes the processor to perform a storage step (S107, S207) of storing the summary document in an external CRM system.
This allows the user to systematically manage summaries of calls made between the user and the customer together with the customer information in the CRM system.

(付記11)
プロセッサと、記憶部とを備え、ユーザと顧客との間で行われる通話に関連するデータを管理するための情報処理システムであって、プロセッサに、通話に関する音声データを受け付ける受付ステップと、音声データから、発話区間ごとに複数の区間音声データを抽出する音声抽出ステップ(S104、S204)と、複数の区間音声データのそれぞれに対してテキスト認識を行い複数のテキスト情報を抽出するテキスト抽出ステップ(S104、S204)と、テキスト抽出ステップにおいて抽出された複数のテキスト情報から、話者情報が異なり、発話時刻において前後する1または複数のテキスト情報を要約情報として抽出する要約抽出ステップ(S107、S207)と、を実行する情報処理システム。
これにより、ユーザと顧客との通話応対に注目した要約情報を生成することができる。
ユーザは、要約情報を確認することで、ユーザと顧客との間で行われた通話応対を短時間で正確に把握することができる。
(Appendix 11)
An information processing system comprising a processor and a storage unit for managing data related to a call conducted between a user and a customer, wherein the processor receives voice data related to the call; , a speech extraction step (S104, S204) for extracting a plurality of segmental speech data for each utterance segment, and a text extraction step (S104 , S204), and a summary extraction step (S107, S207) for extracting, as summary information, one or a plurality of pieces of text information having different speaker information and preceding or following utterance times from the plurality of pieces of text information extracted in the text extraction step (S107, S207). , an information processing system that runs
As a result, it is possible to generate summary information focusing on the call response between the user and the customer.
By confirming the summary information, the user can accurately grasp the call handling between the user and the customer in a short period of time.

(付記12)
プロセッサと、記憶部とを備え、ユーザと顧客との間で行われる通話に関連するデータをコンピュータに管理させるための情報処理方法であって、プロセッサに、通話に関する音声データを受け付ける受付ステップと、音声データから、発話区間ごとに複数の区間音声データを抽出する音声抽出ステップ(S104、S204)と、複数の区間音声データのそれぞれに対してテキスト認識を行い複数のテキスト情報を抽出するテキスト抽出ステップ(S104、S204)と、テキスト抽出ステップにおいて抽出された複数のテキスト情報から、話者情報が異なり、発話時刻において前後する1または複数のテキスト情報を要約情報として抽出する要約抽出ステップ(S107、S207)と、を実行する情報処理方法。
これにより、ユーザと顧客との通話応対に注目した要約情報を生成することができる。
ユーザは、要約情報を確認することで、ユーザと顧客との間で行われた通話応対を短時間で正確に把握することができる。
(Appendix 12)
An information processing method, comprising a processor and a storage unit, for causing a computer to manage data related to a call conducted between a user and a customer, the method comprising: a receiving step of receiving voice data related to the call into the processor; A voice extraction step (S104, S204) for extracting a plurality of segmental voice data for each utterance segment from the voice data, and a text extraction step for performing text recognition on each of the plurality of segmental voice data and extracting a plurality of pieces of text information. (S104, S204), and a summary extraction step (S107, S207) for extracting, as summary information, one or more pieces of text information having different speaker information and preceding or succeeding in speech time from the plurality of text information extracted in the text extraction step (S107, S207). ) and the information processing method that performs the
As a result, it is possible to generate summarized information focusing on the call response between the user and the customer.
By confirming the summary information, the user can accurately grasp the call handling between the user and the customer in a short period of time.

1 情報処理システム、10 サーバ、101 記憶部、103 制御部、20A,20B,20C ユーザ端末、201 記憶部、204 制御部、30 CRMシステム、301 記憶部、304 制御部、50A,50B,50C 顧客端末、501 記憶部、504 制御部
1 information processing system, 10 server, 101 storage unit, 103 control unit, 20A, 20B, 20C user terminal, 201 storage unit, 204 control unit, 30 CRM system, 301 storage unit, 304 control unit, 50A, 50B, 50C customer terminal, 501 storage unit, 504 control unit

Claims (12)

プロセッサと、記憶部とを備え、ユーザと顧客との間で行われる通話に関連するデータをコンピュータに管理させるためのプログラムであって、
前記プログラムは、前記プロセッサに、
前記通話に関する音声データを受け付ける受付ステップと、
前記音声データから、発話区間ごとに複数の区間音声データを抽出する音声抽出ステップと、
前記複数の区間音声データのそれぞれに対してテキスト認識を行い複数のテキスト情報を抽出するテキスト抽出ステップと、
前記テキスト抽出ステップにおいて抽出された前記複数のテキスト情報から、話者情報が異なり、発話時刻において前後する1または複数の前記テキスト情報を要約情報として抽出する要約抽出ステップと、
を実行するプログラム。
A program, comprising a processor and a storage unit, for causing a computer to manage data related to a call made between a user and a customer,
The program causes the processor to:
a receiving step of receiving voice data related to the call;
a voice extracting step of extracting a plurality of segmental voice data for each utterance segment from the voice data;
a text extraction step of performing text recognition on each of the plurality of segmental audio data to extract a plurality of pieces of text information;
a summary extraction step of extracting, as summary information, one or a plurality of pieces of text information having different speaker information and preceding or following an utterance time from the plurality of pieces of text information extracted in the text extraction step;
A program that runs
前記プログラムは、前記プロセッサに、
前記テキスト抽出ステップにおいて抽出された前記複数のテキスト情報に対して、前記複数のテキスト情報を発話時刻の順番に並べた場合に、話者情報が変化する前後のテキスト情報をテキスト情報群としてバインディングするバインディングステップと、
前記複数のテキスト情報、および、バインディングステップにおいてバインディングされた前記1または複数のテキスト情報群に対して重要度を算定する算定ステップと、
を実行させ、
前記要約抽出ステップは、前記重要度に基づき、前記テキスト情報または前記テキスト情報群を前記要約情報として抽出するステップである、
請求項1記載のプログラム。
The program causes the processor to:
For the plurality of text information extracted in the text extraction step, when the plurality of text information are arranged in the order of utterance time, the text information before and after the speaker information changes are bound as a text information group. a binding step;
a calculation step of calculating the importance of the plurality of text information and the one or more text information groups bound in the binding step;
and
The summary extraction step is a step of extracting the text information or the text information group as the summary information based on the importance.
A program according to claim 1.
前記算定ステップは、前記バインディングステップにおいてバインディングされた前記1または複数のテキスト情報群のそれぞれに対し、当該テキスト情報群に含まれるテキスト情報を結合してなる一の文章として重要度を算定するステップである、
請求項2記載のプログラム。
In the calculating step, for each of the one or more text information groups bound in the binding step, the importance is calculated as one sentence formed by combining the text information included in the text information group. be,
3. A program according to claim 2.
前記算定ステップは、前記バインディングステップにおいてバインディングされた前記テキスト情報群に含まれる複数のテキスト情報のそれぞれに対して重要度を算定し、算定された複数の重要度に対して統計処理を行った値を、前記テキスト情報群の重要度として算定するステップである、
請求項2記載のプログラム。
The calculating step calculates the importance of each of a plurality of pieces of text information included in the text information group bound in the binding step, and performs statistical processing on the calculated plurality of pieces of importance. is calculated as the importance of the text information group,
3. A program according to claim 2.
前記算定ステップは、算定された前記複数の重要度のうち最も大きな重要度を前記テキスト情報群の重要度とするステップである、
請求項4記載のプログラム。
The calculating step is a step of setting the highest degree of importance among the plurality of calculated degrees of importance as the degree of importance of the text information group,
5. The program according to claim 4.
前記算定ステップは、算定された前記複数の重要度の和または平均を前記テキスト情報群の重要度とするステップである、
請求項4記載のプログラム。
The calculating step is a step of setting the sum or average of the calculated plurality of degrees of importance as the degree of importance of the text information group,
5. The program according to claim 4.
前記プログラムは、前記プロセッサに、
前記テキスト抽出ステップにおいて抽出された前記複数のテキスト情報に対して、重要度を算定する算定ステップと、
を実行させ、
前記要約抽出ステップは、
前記重要度に基づき、前記テキスト抽出ステップにおいて抽出された前記複数のテキスト情報から1または複数のテキスト情報を抽出するステップと、
抽出された1または前記複数のテキスト情報と話者情報が異なり、発話時刻において前後する前記テキスト情報を前記要約情報として抽出するステップと、
を含む、
請求項1記載のプログラム。
The program causes the processor to:
a calculation step of calculating the degree of importance of the plurality of pieces of text information extracted in the text extraction step;
and
The abstract extraction step includes:
extracting one or more pieces of text information from the plurality of pieces of text information extracted in the text extraction step, based on the degree of importance;
a step of extracting, as the summary information, the text information that is different from the extracted one or the plurality of text information and the speaker information, and that has an utterance time before and after the text information;
including,
A program according to claim 1.
前記プログラムは、前記プロセッサに、
前記要約抽出ステップにおいて抽出された、前記要約情報に含まれる前記テキスト情報を発話時刻の順番に並べた要約文書を表示する表示ステップと、
を実行する請求項1から7のいずれか記載のプログラム。
The program causes the processor to:
a display step of displaying a summary document in which the text information included in the summary information extracted in the summary extraction step is arranged in order of utterance time;
8. The program according to any one of claims 1 to 7, which executes
前記要約文書は、前記テキスト情報ごとに吹き出しで表示された要約文書であり、
前記吹き出しは、前記テキスト情報の話者ごとに異なる色で表示され、
前記吹き出しの色は、前記テキスト情報または前記テキスト情報の重要度に基づき、色の明度、色相、彩度、濃さの少なくともいずれか1つを変化させて表示される、
請求項8記載のプログラム。
the summary document is a summary document displayed in a balloon for each piece of text information;
the balloon is displayed in a different color for each speaker of the text information;
The color of the balloon is displayed by changing at least one of color brightness, hue, saturation, and density based on the text information or the importance of the text information.
9. A program according to claim 8.
前記プログラムは、前記プロセッサに、
外部のCRMシステムに前記要約文書を記憶させる記憶ステップと、
を実行させる、
請求項8または9記載のプログラム。
The program causes the processor to:
a storage step of storing the summary document in an external CRM system;
to run
10. A program according to claim 8 or 9.
プロセッサと、記憶部とを備え、ユーザと顧客との間で行われる通話に関連するデータを管理するための情報処理システムであって、
前記プロセッサに、
前記通話に関する音声データを受け付ける受付ステップと、
前記音声データから、発話区間ごとに複数の区間音声データを抽出する音声抽出ステップと、
前記複数の区間音声データのそれぞれに対してテキスト認識を行い複数のテキスト情報を抽出するテキスト抽出ステップと、
前記テキスト抽出ステップにおいて抽出された前記複数のテキスト情報から、話者情報が異なり、発話時刻において前後する1または複数の前記テキスト情報を要約情報として抽出する要約抽出ステップと、
を実行する情報処理システム。
An information processing system, comprising a processor and a storage unit, for managing data associated with a call conducted between a user and a customer, comprising:
to the processor;
a receiving step of receiving voice data related to the call;
a voice extracting step of extracting a plurality of segmental voice data for each utterance segment from the voice data;
a text extraction step of performing text recognition on each of the plurality of segmental audio data to extract a plurality of pieces of text information;
a summary extraction step of extracting, as summary information, one or a plurality of pieces of text information having different speaker information and preceding or following an utterance time from the plurality of pieces of text information extracted in the text extraction step;
An information processing system that executes
プロセッサと、記憶部とを備え、ユーザと顧客との間で行われる通話に関連するデータをコンピュータに管理させるための情報処理方法であって、
前記プロセッサに、
前記通話に関する音声データを受け付ける受付ステップと、
前記音声データから、発話区間ごとに複数の区間音声データを抽出する音声抽出ステップと、
前記複数の区間音声データのそれぞれに対してテキスト認識を行い複数のテキスト情報を抽出するテキスト抽出ステップと、
前記テキスト抽出ステップにおいて抽出された前記複数のテキスト情報から、話者情報が異なり、発話時刻において前後する1または複数の前記テキスト情報を要約情報として抽出する要約抽出ステップと、
を実行する情報処理方法。
An information processing method, comprising a processor and a storage unit, for causing a computer to manage data related to a call conducted between a user and a customer, comprising:
to the processor;
a receiving step of receiving voice data related to the call;
a voice extracting step of extracting a plurality of segmental voice data for each utterance segment from the voice data;
a text extraction step of performing text recognition on each of the plurality of segmental speech data to extract a plurality of pieces of text information;
a summary extraction step of extracting, as summary information, one or a plurality of pieces of text information having different speaker information and preceding or following an utterance time from the plurality of pieces of text information extracted in the text extraction step;
Information processing method that performs
JP2023024850A 2021-11-22 2023-02-21 Program, information processing system, and information processing method Pending JP2023076430A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023024850A JP2023076430A (en) 2021-11-22 2023-02-21 Program, information processing system, and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021189134A JP7237381B1 (en) 2021-11-22 2021-11-22 Program, information processing system and information processing method
JP2023024850A JP2023076430A (en) 2021-11-22 2023-02-21 Program, information processing system, and information processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021189134A Division JP7237381B1 (en) 2021-11-22 2021-11-22 Program, information processing system and information processing method

Publications (1)

Publication Number Publication Date
JP2023076430A true JP2023076430A (en) 2023-06-01

Family

ID=85513813

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021189134A Active JP7237381B1 (en) 2021-11-22 2021-11-22 Program, information processing system and information processing method
JP2023024850A Pending JP2023076430A (en) 2021-11-22 2023-02-21 Program, information processing system, and information processing method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021189134A Active JP7237381B1 (en) 2021-11-22 2021-11-22 Program, information processing system and information processing method

Country Status (2)

Country Link
JP (2) JP7237381B1 (en)
WO (1) WO2023090380A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7344612B1 (en) * 2023-04-20 2023-09-14 amptalk株式会社 Programs, conversation summarization devices, and conversation summarization methods

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003066991A (en) 2001-08-22 2003-03-05 Seiko Epson Corp Method and apparatus for outputting voice recognition result and recording medium with program for outputting and processing voice recognition result recorded thereon
JP5468474B2 (en) 2010-06-21 2014-04-09 株式会社野村総合研究所 Talk script usage status calculation system and talk script usage status calculation program
JP7046546B2 (en) 2017-09-28 2022-04-04 株式会社野村総合研究所 Conference support system and conference support program
JP6517419B1 (en) 2018-10-31 2019-05-22 株式会社eVOICE Dialogue summary generation apparatus, dialogue summary generation method and program

Also Published As

Publication number Publication date
JP7237381B1 (en) 2023-03-13
JP2023076003A (en) 2023-06-01
WO2023090380A1 (en) 2023-05-25

Similar Documents

Publication Publication Date Title
US10194029B2 (en) System and methods for analyzing online forum language
US20210134283A1 (en) Methods and systems of virtual agent real-time recommendation, suggestion and advertisement
CN110825858A (en) Intelligent interaction robot system applied to customer service center
US11762629B2 (en) System and method for providing a response to a user query using a visual assistant
US11862190B2 (en) Information processing device
JP2016103270A (en) Information processing system, receiving server, information processing method, and program
JP2010113167A (en) Harmful customer detection system, its method and harmful customer detection program
KR20200092499A (en) Method and apparatus for counseling support using interactive artificial intelligence technology
WO2023090380A1 (en) Program, information processing system, and information processing method
TW202036323A (en) Intelligent online customer service convergence core system which can provide a reply or query to an intention generated through voice recognition and natural language processing procedures
JP3761158B2 (en) Telephone response support apparatus and method
JP7168262B1 (en) Program, information processing system and information processing method
WO2019142976A1 (en) Display control method, computer-readable recording medium, and computer device for displaying conversation response candidate for user speech input
JP2023076017A (en) Program, information processing system, and information processing method
CN110765242A (en) Method, device and system for providing customer service information
JP2019186707A (en) Telephone system and program
KR102137155B1 (en) Telecommunication service system and method using speech recognition technology
WO2021035245A1 (en) Systems and methods for real-time processing of audio feedback
CN112911074A (en) Voice communication processing method, device, equipment and machine readable medium
CN113132927B (en) Incoming call processing method, device, equipment and machine readable medium
JP2023105607A (en) Program, information processing device, and information processing method
JP2023168692A (en) Program, information processing device, information processing system, information processing method, and information processing terminal
JP2023168691A (en) Program, information processing device, information processing system, information processing method, and information processing terminal
JP2023168690A (en) Program, information processing device, information processing system, information processing method, and information processing terminal
WO2020258168A1 (en) A method for managing incoming calls on a communication device and the corresponding device