JP2019028910A - Dialogue analysis system and dialogue analysis program - Google Patents

Dialogue analysis system and dialogue analysis program Download PDF

Info

Publication number
JP2019028910A
JP2019028910A JP2017150527A JP2017150527A JP2019028910A JP 2019028910 A JP2019028910 A JP 2019028910A JP 2017150527 A JP2017150527 A JP 2017150527A JP 2017150527 A JP2017150527 A JP 2017150527A JP 2019028910 A JP2019028910 A JP 2019028910A
Authority
JP
Japan
Prior art keywords
dialog
dialogue
analysis
data
analysis system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017150527A
Other languages
Japanese (ja)
Other versions
JP6865653B2 (en
Inventor
航 上林
Ko Kamibayashi
航 上林
裕一郎 赤金
Yuichiro Akagane
裕一郎 赤金
悠吾 佐藤
Yugo Sato
悠吾 佐藤
和成 高尾
Kazunari Takao
和成 高尾
智貴 藪
Tomoki Yabu
智貴 藪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2017150527A priority Critical patent/JP6865653B2/en
Publication of JP2019028910A publication Critical patent/JP2019028910A/en
Application granted granted Critical
Publication of JP6865653B2 publication Critical patent/JP6865653B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Machine Translation (AREA)

Abstract

To make it more efficient to search the contents of explanations to a customer for dialogues that need to be monitored and to do the monitoring.SOLUTION: The dialogue analysis system includes: a dialogue analysis unit 11 for performing natural language analysis processing on a sound recognition text 32 and outputting the analysis result; a dialogue attribute extraction unit 12 for giving a topic tag based on customer attribute data 42 to each dialogue and recording the topic tag as analyzed dialogue data 15; a user interface unit 14 for extracting dialogues from the analyzed dialogue data 15 on the basis of a specified condition and causing a user terminal 51 to display a list of the extracted dialogues; and a monitoring part extraction unit 13 for displaying a first region for displaying the words in a specified dialogue in time-series and a second region for displaying words that have been determined to describe a predetermined item.SELECTED DRAWING: Figure 1

Description

本発明は、自然言語解析の技術に関し、特に、顧客との商談において営業担当者が説明すべき事項を説明し、述べてはいけない事項を述べていないことをチェックする対話分析システムおよび対話分析プログラムに適用して有効な技術に関するものである。   TECHNICAL FIELD The present invention relates to a natural language analysis technique, and in particular, a dialog analysis system and a dialog analysis program for explaining matters to be explained by a sales person in business negotiations with a customer and checking that matters that should not be stated are not stated. It is related to technology effective when applied to.

例えば、金融機関の営業担当者等が金融商品についての営業活動を行う際、コンプライアンス上、所定の事項を順守する必要がある。この所定の事項には、例えば、金融商品のリスク等、説明をしなければいけない事項(以下では「必要事項」と記載する場合がある)を説明しており、顧客が理解していることや、「絶対に儲かります」等、発言してはいけない事項・表現(以下では「禁止表現」と記載する場合がある)を発言していないこと、高齢者や認知症の方等、顧客の適格性(販売制限の有無)に問題がないこと等が含まれる。   For example, when a sales person in charge of a financial institution conducts a sales activity on a financial product, it is necessary to comply with predetermined matters for compliance. This predetermined item explains, for example, the risks of financial products and other matters that must be explained (hereinafter sometimes referred to as “necessary items”), , “Do not speak up”, such as “I will definitely make a mistake”, not to speak (sometimes referred to as “prohibited expression” below), eligibility for customers such as elderly people and people with dementia, etc. This includes the fact that there is no problem with sex (with or without sales restrictions).

これらの事項が順守されているかについて、例えば、営業部門の管理者や、本社機構のコンプライアンスチェック担当者等は、商談内容の録音データを聞き起こして確認(以下では「モニタリング」と記載する場合がある)を行っており、これに膨大な作業時間がかかっている。また、コンプライアンス順守の要請が年々高まっている中で、モニタリングの対象とすべき件数は増加している一方で、限られた人員で顧客との全ての対話をモニタリングすることは現実的ではなく、対話をサンプリングした上でのモニタリングが中心となっている。また、モニタリング業務に従事する担当者にはベテラン社員が多く、これらの人員が近い将来一斉に退職することによるモニタリングパワーの減少も課題となっている。   For example, the manager of the sales department or the compliance check person in charge at the head office organization arouses and confirms the recorded data of the business negotiations (hereinafter referred to as “monitoring” in some cases). This takes a lot of work time. While the number of requests for compliance is increasing year by year, the number of cases to be monitored is increasing, but it is not realistic to monitor all customer interactions with limited personnel. Monitoring is based on sampling the dialogue. In addition, there are many veteran employees in charge of monitoring work, and the reduction of monitoring power due to the retirement of these personnel all at once in the near future is also an issue.

さらに、複数回の商談を通して金融商品の説明等の営業活動が行われた結果として商談が成立するような場合には、1回の商談の単位で必要事項が全て説明されるとは限らない。この場合、過去になされた一連の商談の内容についても併せて確認することが必要となる場合があり、これも作業時間の増加の要因となっている。   Further, when a business negotiation is established as a result of a business activity such as explanation of financial products through a plurality of business negotiations, all necessary items are not necessarily explained in units of one business negotiation. In this case, it may be necessary to confirm the contents of a series of business negotiations that have been made in the past, which also increases the working time.

これに対し、商談内容の録音データを音声認識(ディクテーション)技術によりテキスト化することで閲覧性と検索性を付加し、モニタリング業務の効率化を図ることが検討されている。例えば、特開2016−85697号公報(特許文献1)には、営業担当者の各発話の内容をテキスト化したテキストデータに対して自然言語解析処理を行った解析済テキスト情報と、必要事項情報に予め定義されたテキストデータとの類似度を算出し、類似度が所定の値を超えた場合に、対象の発話において対象の必要事項が説明されたものと判定し、また、禁止表現情報に予め定義されたテキストデータにマッチするものがある場合に、対象の発話において対象の禁止表現が述べられたものと判定することで、「禁止表現」の有無、および「必要事項」が含まれているか否かのいずれについてもチェック対象とする旨が記載されている。   On the other hand, it is considered to improve the efficiency of the monitoring work by adding the viewability and searchability by converting the recorded data of the negotiation contents into a text by using a voice recognition (dictation) technique. For example, JP-A-2006-85697 (Patent Document 1) discloses analyzed text information obtained by performing natural language analysis processing on text data obtained by converting the contents of each utterance of a sales representative into text, and necessary information. When the similarity with the predefined text data is calculated and the similarity exceeds a predetermined value, it is determined that the necessary items of the target are explained in the target utterance, and the prohibited expression information is included in the prohibited expression information. If there is something that matches the predefined text data, it is determined that the target prohibited expression is stated in the target utterance, so the presence or absence of “prohibited expression” and “necessary items” are included. Whether or not there is a check target is described.

特開2016−85697号公報JP-A-2006-85697

特許文献1に記載されたような技術によれば、営業担当者が商談や営業活動の際に顧客に対して説明したり述べたりした内容がコンプライアンスを順守しているか否かをシステム的にある程度チェックすることが可能である。また、商談や営業活動の際の顧客への説明内容等のデータに基づいて、「必要事項」が含まれているか否か、および「禁止表現」の有無のいずれについてもチェック対象とすることができる。   According to the technology described in Patent Document 1, whether the contents explained or stated to the customer by the sales person in the course of business negotiations or business activities comply with the compliance to some extent. It is possible to check. Also, based on data such as explanations to customers during business negotiations and sales activities, whether or not “necessary items” are included and whether or not there are “prohibited expressions” may be included in the check. it can.

しかし、例えば、多数の営業担当者が活動するような大規模な金融機関等では、商談や営業活動の数も膨大となり、その中から実際に対話内容のモニタリングを行う必要がある対話を探索・抽出する作業にも大きな作業時間を要する。また、実際にモニタリングを行う際に要する作業時間についても、より一層の効率化による短縮が求められる。すなわち、特許文献1に記載されたような技術には、さらなる改善の余地がある。   However, for example, in a large-scale financial institution where a large number of sales representatives are active, the number of business negotiations and sales activities is enormous. The extraction work also requires a large work time. Further, the work time required for actual monitoring is also required to be shortened by further increasing efficiency. That is, there is room for further improvement in the technique described in Patent Document 1.

そこで本発明の目的は、商談や営業活動の際の顧客への説明内容等のデータから実際にモニタリングを行う必要がある対話を探索する作業、およびそのモニタリングの作業を効率化する対話分析システムおよび対話分析プログラムを提供することにある。   Accordingly, an object of the present invention is to search for a dialog that needs to be actually monitored from data such as explanation contents to a customer during business negotiations or sales activities, and a dialog analysis system that makes the monitoring work efficient and It is to provide a dialogue analysis program.

本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。   The above and other objects and novel features of the present invention will be apparent from the description of this specification and the accompanying drawings.

本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、以下のとおりである。   Of the inventions disclosed in this application, the outline of typical ones will be briefly described as follows.

本発明の代表的な実施の形態による対話分析システムは、説明者と相手方との間の対話中における所定の事項の説明の有無を判定する対話分析システムであって、対話の内容が録音された音声データの内容を音声認識技術によりテキスト化した音声認識テキストに対して、形態素解析を含む自然言語解析処理を行って解析結果を出力する対話解析部と、前記対話解析部から出力された解析結果に含まれる各対話に対して、前記相手方の属性データを含むデータに基づいて話題に係るタグを付与して、解析済対話データとして記録する対話属性抽出部と、を有する。   A dialog analysis system according to a representative embodiment of the present invention is a dialog analysis system for determining whether or not a predetermined matter is explained during a dialog between an explainer and a counterpart, and the contents of the dialog are recorded. A dialog analysis unit that performs natural language analysis processing including morphological analysis on speech recognition text obtained by converting speech data into text using speech recognition technology and outputs an analysis result, and an analysis result output from the dialog analysis unit A dialogue attribute extraction unit that attaches a tag related to the topic based on the data including the attribute data of the other party and records the dialogue as analyzed dialogue data.

また、情報処理端末を介してユーザにより指定された条件に基づいて、前記解析済対話データから前記条件にマッチする対話を抽出して、前記情報処理端末に一覧表示させるユーザインタフェース部と、前記情報処理端末を介して前記一覧表示の中からユーザにより指定された対話について、対話中における前記説明者および前記相手方の各発話を時系列で表示する第1領域と、前記説明者により前記所定の事項の説明が行われていると判定された発話を抽出して表示する第2領域と、を前記ユーザインタフェース部を介して前記情報処理端末に表示させるモニタリング箇所抽出部と、を有する。   A user interface unit that extracts dialogs that match the conditions from the analyzed dialog data based on conditions specified by a user via the information processing terminal, and displays the list on the information processing terminal; For dialogs designated by the user from the list display via the processing terminal, a first area for displaying each utterance of the presenter and the other party in the time series in the dialog, and the predetermined matter by the presenter A second area for extracting and displaying an utterance determined to be explained, and a monitoring location extracting section for displaying the utterance on the information processing terminal via the user interface section.

また、本発明は、コンピュータを上記のような対話分析システムとして動作させる対話分析プログラムにも適用することができる。   The present invention can also be applied to a dialog analysis program that causes a computer to operate as the dialog analysis system as described above.

本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。   Among the inventions disclosed in the present application, effects obtained by typical ones will be briefly described as follows.

すなわち、本発明の代表的な実施の形態によれば、商談や営業活動の際の顧客への説明内容等のデータから実際にモニタリングを行う必要がある対話を探索する作業、およびそのモニタリングの作業を効率化し、モニタリング業務に係る作業時間を短縮することが可能となる。   That is, according to a typical embodiment of the present invention, a task for searching for a dialogue that needs to be actually monitored from data such as explanation contents to a customer during business negotiations or sales activities, and a task for the monitoring It becomes possible to shorten the work time concerning monitoring work.

本発明の一実施の形態である対話分析システムの構成例について概要を示した図である。It is the figure which showed the outline | summary about the structural example of the dialog analysis system which is one embodiment of this invention. 本発明の一実施の形態におけるユーザ端末に表示される対話検索画面の例について概要を示した図である。It is the figure which showed the outline | summary about the example of the dialog search screen displayed on the user terminal in one embodiment of this invention. 本発明の一実施の形態における各対話に対して属性情報を抽出して付与する処理の流れの例について概要を示したフローチャートである。It is the flowchart which showed the outline | summary about the example of the flow of the process which extracts and provides attribute information with respect to each dialog in one embodiment of this invention. 本発明の一実施の形態におけるユーザ端末に表示される対話内容のモニタリング画面の例について概要を示した図である。It is the figure which showed the outline | summary about the example of the monitoring screen of the content of dialog displayed on the user terminal in one embodiment of this invention. 本発明の一実施の形態における対象の対話からモニタリングを行うべき箇所を抽出する処理の流れの例について概要を示したフローチャートである。It is the flowchart which showed the outline | summary about the example of the flow of a process which extracts the location which should be monitored from the dialogue of the object in one embodiment of this invention. 本発明の一実施の形態におけるカテゴリ付与情報のマッチングルールの例について概要を示した図である。It is the figure which showed the outline | summary about the example of the matching rule of the category provision information in one embodiment of this invention. 本発明の一実施の形態における発話のカテゴリの優先度と出現順序の設定例について概要を示した図である。It is the figure which showed the outline | summary about the setting example of the priority and appearance order of the category of speech in one embodiment of this invention. 本発明の一実施の形態における機械学習エンジンに取り込む学習データの例について概要を示した図である。It is the figure which showed the outline | summary about the example of the learning data taken in into the machine learning engine in one embodiment of this invention.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部には原則として同一の符号を付し、その繰り返しの説明は省略する。一方で、ある図において符号を付して説明した部位について、他の図の説明の際に再度の図示はしないが同一の符号を付して言及する場合がある。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that components having the same function are denoted by the same reference symbols throughout the drawings for describing the embodiment, and the repetitive description thereof will be omitted. On the other hand, parts described with reference numerals in some drawings may be referred to with the same reference numerals although not illustrated again in the description of other drawings.

本発明の一実施の形態である対話分析システムは、例えば、金融機関等の営業担当者が商談や営業活動の際に顧客へ行った説明等に係る対話の内容を音声データとして録音し、これをテキスト化したデータに基づいて自然言語解析を行って、「必要事項」を説明しているか、および「禁止表現」を発していないかを自動的に判定し、結果を表示するものである。これにより、営業担当者自身やその管理者等が、営業活動におけるコンプライアンスの順守状況をモニタリングすることを可能とする。   The dialog analysis system according to an embodiment of the present invention records, for example, the contents of a dialog related to an explanation made by a sales person such as a financial institution to a customer during a business negotiation or sales activity as voice data. A natural language analysis is performed on the basis of the data converted into text, and it is automatically determined whether “necessary items” are explained and “prohibited expressions” are not issued, and the result is displayed. As a result, the sales staff and their managers can monitor the status of compliance in sales activities.

その際、本実施の形態では、対話中における「必要事項」や「禁止表現」を発した発話の特定を容易に行えるユーザインタフェースとすることで、モニタリングの作業に要する時間の短縮を可能とする。さらに、本実施の形態では、解析された対話内容に基づいて、各対話に対して話題タグ(予め定義された対話の種類)を自動的に付与する。これにより、膨大な対話の中から実際にモニタリングを行う必要がある対話を探索する作業を効率化し、これに要する時間の短縮を可能とする。   At this time, in this embodiment, it is possible to shorten the time required for the monitoring work by providing a user interface that can easily identify the utterances that have issued “necessary items” and “prohibited expressions” during the conversation. . Furthermore, in the present embodiment, a topic tag (a predefined conversation type) is automatically assigned to each conversation based on the analyzed conversation content. As a result, it is possible to improve the efficiency of searching for a dialog that needs to be actually monitored from a large number of dialogs, and to shorten the time required for this.

なお、本実施の形態では、金融機関の営業担当者等が金融商品についての営業活動を行う際の商談についてのコンプライアンスチェックを対象として説明するが、これに限られるものではない。本発明の一実施の形態である対話分析システムは、説明者と相手方との間の対話の中で所定の事項が発言されたか否か(「必要事項」を発しているか、「禁止表現」を発していないか)をチェックする必要がある業務等に対して広く適用することができる。   In the present embodiment, a description will be given of a compliance check for a business negotiation when a sales person in charge of a financial institution conducts a sales activity on a financial product, but the present invention is not limited to this. The dialogue analysis system according to an embodiment of the present invention determines whether or not a predetermined matter is stated in the dialogue between the presenter and the other party (whether a “necessary matter” is issued or a “prohibited expression” is set). It can be widely applied to tasks that need to be checked.

<システム構成>
図1は、本発明の一実施の形態である対話分析システム1の構成例について概要を示した図である。対話分析システム1は、例えば、金融機関の営業担当者やその管理者等のユーザ(より具体的には当該ユーザが使用する情報処理端末であるユーザ端末51)に対して、営業担当者等が行った商談についてのコンプライアンスチェックの作業を支援する情報処理システムである。
<System configuration>
FIG. 1 is a diagram showing an outline of a configuration example of a dialog analysis system 1 according to an embodiment of the present invention. In the dialog analysis system 1, for example, a sales representative or the like is provided to a user such as a sales representative of a financial institution or a manager thereof (more specifically, a user terminal 51 which is an information processing terminal used by the user). This is an information processing system that supports compliance check work for business negotiations.

対話分析システム1は、例えば、サーバ機器やクラウドコンピューティングサービス上に構築された仮想サーバ等により構成される。そして、図示しないCPU(Central Processing Unit)により、HDD(Hard Disk Drive)等の記録装置からメモリ上に展開したOS(Operating System)やDBMS(DataBase Management System)、Webサーバプログラム等のミドルウェアや、その上で稼働するソフトウェアを実行することで、コンプライアンスチェック作業の支援に係る後述する各種機能を実現する。   The dialog analysis system 1 is configured by, for example, a server device or a virtual server constructed on a cloud computing service. Then, a middle processing such as an OS (Operating System), a DBMS (DataBase Management System), and a Web server program developed on a memory from a recording device such as an HDD (Hard Disk Drive) by a CPU (Central Processing Unit) (not shown) By executing the software that operates on the above, various functions to be described later relating to the support of the compliance check work are realized.

対話分析システム1は、例えば、ソフトウェアにより実装された対話解析部11、対話属性抽出部12、モニタリング箇所抽出部13、およびユーザインタフェース部14等の各部を有する。また、データベース等により実装された解析済対話データ15や、図示しないその他のファイル、テーブル等を保持している。   The dialog analysis system 1 includes various units such as a dialog analysis unit 11, a dialog attribute extraction unit 12, a monitoring location extraction unit 13, and a user interface unit 14 implemented by software. In addition, the analyzed dialogue data 15 implemented by a database or the like, and other files, tables, etc. (not shown) are held.

対話解析部11は、商談の音声データをテキスト化した音声認識テキスト32に基づいて形態素解析を含む自然言語解析を行い、例えば、キーワードマッチングによる「禁止表現」の有無のチェック、および類似度の算出による「必要事項」を含むか否かのチェックを行うという基本機能を有する。この対話解析部11の各基本機能は、例えば、上述した特許文献1に記載されたコンプライアンスチェックシステムの各部(例えば、「テキスト解析部210」や「類似度算出部220」、「キーワードマッチング部230」等)と同様の構成により実装することができるため、ここでの再度の詳細な説明は省略する。   The dialogue analysis unit 11 performs natural language analysis including morphological analysis based on the speech recognition text 32 obtained by converting the speech data of the negotiation into text, for example, checking for the presence of “prohibited expressions” by keyword matching, and calculating similarity. It has a basic function of checking whether or not it includes “necessary items”. Each basic function of the dialog analysis unit 11 is, for example, each unit (for example, “text analysis unit 210”, “similarity calculation unit 220”, “keyword matching unit 230” of the compliance check system described in Patent Document 1 described above. , Etc.), a detailed description thereof is omitted here.

なお、音声認識テキスト32は、例えば、商談に係る営業担当者と顧客との対話内容を対話録音システム2により録音して対話録音データ21として記録し、この対話録音データ21の内容を、音声認識システム3の音声認識部31によりテキスト化することで得られる。   Note that the voice recognition text 32 is recorded, for example, as dialogue recording data 21 by the dialogue recording system 2 by recording the dialogue contents between the sales representative and the customer involved in the business negotiation, and the contents of the dialogue recording data 21 are voice recognition. It is obtained by converting into text by the speech recognition unit 31 of the system 3.

対話録音システム2は、例えば、営業担当者と顧客との間の直接の対話を図示しないマイク等により録音するものであってもよいし、電話による通話内容を録音するものであってもよい。記録した対話録音データ21は、対話分析システム1に送信する、もしくは対話分析システム1からアクセス可能とすることで、対話分析システム1において音声として再生可能とする。また、音声認識システム3の音声認識部31において対話録音データ21の内容をテキスト化する技術については特に限定されず、公知のシステムやソフトウェア、ライブラリなどを適宜用いることができる。   The dialogue recording system 2 may record, for example, a direct dialogue between a sales person and a customer using a microphone (not shown) or may record the contents of a telephone call. The recorded dialog recording data 21 is transmitted to the dialog analysis system 1 or can be accessed from the dialog analysis system 1 so that the dialog analysis system 1 can reproduce it as voice. In addition, the technology for converting the content of the dialog recording data 21 into text in the voice recognition unit 31 of the voice recognition system 3 is not particularly limited, and a known system, software, library, or the like can be used as appropriate.

対話属性抽出部12は、対話解析部11による解析結果の対話データに対して、例えば、金融機関のCRMシステム4が保持するCRMデータ41から取得した対象の顧客に係る顧客属性データ42を含む情報に基づいて、対話毎に話題タグを付与するとともに、一連の対話として取り扱う複数の対話をグルーピングして分類し、処理結果の対話データを解析済対話データ15として記録する機能を有する。これにより、膨大な対話の中から実際にモニタリングを行う必要がある対話を探索する作業を効率化する。対話属性抽出部12での詳細な処理内容については後述する。   The dialog attribute extracting unit 12 includes, for example, information including customer attribute data 42 related to the target customer acquired from the CRM data 41 held by the CRM system 4 of the financial institution for the dialog data of the analysis result by the dialog analyzing unit 11. Based on the above, a topic tag is assigned to each dialogue, a plurality of dialogues handled as a series of dialogues are grouped and classified, and dialogue data as a processing result is recorded as analyzed dialogue data 15. As a result, it is possible to improve the efficiency of searching for a dialog that needs to be actually monitored from a large number of dialogs. Detailed processing contents in the dialog attribute extracting unit 12 will be described later.

なお、音声認識システム3の音声認識部31、対話分析システム1の対話解析部11、および対話属性抽出部12の各部における処理は、それぞれ、例えば日次等のタイミングでのバッチ処理として行うとともに、ユーザからの指示に基づいて随時行うようにしてもよい。   In addition, while performing the process in each part of the speech recognition part 31 of the speech recognition system 3, the dialog analysis part 11 of the dialog analysis system 1, and the dialog attribute extraction part 12, for example, while performing as a batch process at timings, such as daily, respectively, You may make it perform at any time based on the instruction | indication from a user.

モニタリング箇所抽出部13は、解析済対話データ15の対話の内、後述するユーザインタフェース部14を介してユーザから指定された対話について、対話内の各発話に対してカテゴリを付与するとともに、営業担当者が顧客に対して「必要事項」の説明を行っていると思われる発話を抽出する機能を有する。これにより、対象の対話の中で実際にモニタリングを行うべき優先度の高い箇所をユーザに提示することができる。モニタリング箇所抽出部13での詳細な処理内容については後述する。   The monitoring part extraction unit 13 assigns a category to each utterance in the dialogue and adds a category to the dialogue specified by the user via the user interface unit 14 described later in the dialogue of the analyzed dialogue data 15. Has a function of extracting utterances that the user seems to be explaining "necessary items" to customers. This makes it possible to present to the user a high-priority location that should actually be monitored in the target dialogue. Detailed processing contents in the monitoring location extraction unit 13 will be described later.

ユーザインタフェース部14は、ユーザ端末51に対して、商談の内容のモニタリングを行う際の画面による入出力のインタフェースを提供する機能を有する。例えば、図示しないWebサーバプログラムにより、ユーザ端末51上のWebブラウザ上に後述するような対話の検索画面や対話のモニタリング画面等を表示する。   The user interface unit 14 has a function of providing the user terminal 51 with an input / output interface using a screen when monitoring the contents of the negotiation. For example, an interactive search screen, an interactive monitoring screen, etc., which will be described later, are displayed on the Web browser on the user terminal 51 by a Web server program (not shown).

<モニタリングの対象とする対話の特定>
本実施の形態では、ユーザは、まず、ユーザ端末51を使用して対話分析システム1のユーザインタフェース部14にアクセスして、解析済対話データ15中の対話を検索して、モニタリングの対象とする対話を特定する。
<Identification of dialogue to be monitored>
In the present embodiment, the user first accesses the user interface unit 14 of the dialog analysis system 1 using the user terminal 51, searches for dialogs in the analyzed dialog data 15, and sets them as monitoring targets. Identify the conversation.

図2は、本実施の形態におけるユーザ端末51に表示される対話検索画面の例について概要を示した図である。この画面では、営業担当者と顧客との間の電話による通話を対象に、解析済対話データ15中の対話を検索した結果を一覧で表示している。画面上部には、「キーワード」や「営業社員名」、「期間」、「時間」、「確認ステータス」等についてのユーザからの指定を受け付ける入力フィールドやドロップダウンリスト等が表示されている。ここでの指定により、対話の内容のテキストに対するキーワード検索や、各種のインデックス情報を使用した絞り込みを行うことが可能である。   FIG. 2 is a diagram showing an outline of an example of a dialog search screen displayed on the user terminal 51 in the present embodiment. This screen displays a list of search results of dialogs in the analyzed dialog data 15 for telephone calls between sales representatives and customers. In the upper part of the screen, there are displayed an input field, a drop-down list, and the like for accepting designation from the user about “keyword”, “sales employee name”, “period”, “time”, “confirmation status”, and the like. By specifying here, it is possible to perform keyword search for the text of the dialogue content and narrow down using various index information.

画面下部の検索結果のリストには、解析済対話データ15から抽出された各対話と、それぞれの対話の属性情報を示す項目が一覧表示されている。ここでは、右方の「話題タグ」列に示すように、対話内容を解析した結果として、例えば、当該対話が対象とする商品等、対話の話題やトピックを示すタグが付与される。解析結果が不適切である場合もあるため、自動的に付与された話題タグは、ユーザが手動で追加・削除・修正することができる。この話題タグの内容に基づいて、後述するモニタリング画面において使用する解析ルールが決定される。   The list of search results at the bottom of the screen lists each dialog extracted from the analyzed dialog data 15 and items indicating attribute information of each dialog. Here, as shown in the “topic tag” column on the right, as a result of analyzing the content of the dialog, for example, a tag indicating the topic or topic of the dialog such as a product targeted by the dialog is given. Since the analysis result may be inappropriate, the topic tag automatically assigned can be manually added / deleted / modified by the user. Based on the content of the topic tag, an analysis rule to be used on a monitoring screen described later is determined.

また、「危険度」列では、対話の内容や、対象の顧客の属性情報等から、営業活動を行うことに対するコンプライアンス上のリスクの程度を判定して表示している。なお、ここでの「対話の内容」とは、例えば「同じことを何度も言っている」や「相槌が少ない」等、商談内容に依存しない一般的な内容や特徴を示す。このような対話内容や顧客属性情報に基づいて判定することで、例えば、説明の対象や内容に関わらず、相手方が認知症や高齢者の顧客であるような場合に危険度を高くすることができ、モニタリングする対話を特定する際の優先度を上げることができる。図中の例では、「危険度」列において、3つのマークのうち色が塗られたマークによって危険度を高・中・低の3段階で示しているが、他の表示方法であってもよい。   Further, in the “risk level” column, the degree of compliance risk with respect to business activities is determined and displayed from the content of the dialogue, the attribute information of the target customer, and the like. Note that the “contents of dialogue” here indicates general contents and features that do not depend on the contents of the negotiation, such as “I say the same thing many times” and “There are few conflicts”. By making a determination based on such conversation contents and customer attribute information, for example, the risk may be increased when the other party is a dementia or elderly customer, regardless of the target or contents of the explanation. And increase the priority in identifying the dialogue to be monitored. In the example in the figure, in the “Danger Level” column, the risk level is shown in three levels of high, medium, and low by colored marks among the three marks, but other display methods may be used. Good.

左方の「通話ID」の列では、各対話に一意に割り振られた通話IDをハイパーリンクにより表示しており、ユーザがこのリンクを選択することで、選択された対話を対象として後述するモニタリング画面に遷移する。また、「グループID」列では、各対話について、例えば、相手先電話番号および上記の話題タグの解析結果等に基づいて、これらが同じであり、かつ対話の内容に連続性がある複数の対話を一連一体のものとしてグルーピングし、各グループに割り振られたグループIDをハイパーリンクにより表示している。ユーザがこのリンクを選択することで、グループ内の各対話を結合したものを対象として後述するモニタリング画面に遷移する。   In the “call ID” column on the left, call IDs uniquely assigned to each dialog are displayed as hyperlinks, and when the user selects this link, monitoring will be described later for the selected dialog. Transition to the screen. In the “Group ID” column, for each dialogue, for example, based on the destination telephone number and the analysis result of the topic tag, etc. Are grouped as a series, and the group ID assigned to each group is displayed by a hyperlink. When the user selects this link, a transition is made to a monitoring screen, which will be described later, for a combination of dialogs in the group.

図3は、本実施の形態における対話属性抽出部12が各対話に対して属性情報を抽出して付与する処理の流れの例について概要を示したフローチャートである。日次等のタイミングでのバッチ処理において、対話属性抽出部12は、まず、対話解析部11による解析結果の対話データを取得する(S01)。   FIG. 3 is a flowchart showing an outline of an example of the flow of processing in which the dialog attribute extracting unit 12 in the present embodiment extracts and assigns attribute information to each dialog. In batch processing at a daily timing, the dialogue attribute extraction unit 12 first acquires dialogue data as a result of analysis by the dialogue analysis unit 11 (S01).

そして、取得した対話データ中の各対話に対して話題タグを付与する(S02)。ここでは、例えば、対話中のキーワードや、CRMシステム4から取得した顧客属性データ42(例えば、過去に購入した商品の種類や購入時期、顧客の年齢等)に基づいて、対象の対話において話題となっている金融商品や顧客属性をルールベースで判定し、後に行うモニタリングの観点で話題タグを付与する。話題タグは複数付与してもよい。   Then, a topic tag is assigned to each dialogue in the obtained dialogue data (S02). Here, for example, based on the keywords being interacted with and customer attribute data 42 acquired from the CRM system 4 (for example, the type of product purchased in the past, purchase time, customer age, etc.), The current financial product and customer attributes are determined on a rule basis, and a topic tag is attached from the viewpoint of monitoring performed later. A plurality of topic tags may be assigned.

付与することができる話題タグの種類は、例えば、話題タグ情報121のテーブルやファイルに予め登録しておく。話題タグ情報121には、例えば、話題タグと、これに関連付けられたキーワードや顧客属性等の情報とが登録されている。話題タグ情報121の内容の登録や更新等のメンテナンスは、例えば、ユーザにより別途不定期に行われる(S00)。   The types of topic tags that can be assigned are registered in advance in a table or file of topic tag information 121, for example. In the topic tag information 121, for example, a topic tag and information such as keywords and customer attributes associated therewith are registered. Maintenance such as registration and update of the content of the topic tag information 121 is separately performed irregularly by the user, for example (S00).

例えば、上述した図2の対話検索結果の画面例において、各対話に付与された話題タグをユーザが手動で修正等することができるが、この修正後の話題タグと、対象の対話のテキストデータとに基づいて、話題タグ情報121の内容を更新することができる。具体的には、例えば、話題タグ毎に、対象の話題タグが付与された対話のテキストデータ中の単語についてTF−IDF(Term Frequency - Inverse Document Frequency)値を算出して特徴スコアをつけ、スコアの高い単語を対象の話題タグに関連付けられたキーワードとして設定する等の手法をとることができる。   For example, in the screen example of the dialog search result in FIG. 2 described above, the user can manually correct the topic tag given to each dialog. The corrected topic tag and the text data of the target dialog Based on the above, the contents of the topic tag information 121 can be updated. Specifically, for example, for each topic tag, a TF-IDF (Term Frequency-Inverse Document Frequency) value is calculated for a word in the text data of the conversation to which the target topic tag is assigned, and a feature score is assigned. It is possible to take a technique such as setting a high word as a keyword associated with a target topic tag.

ステップS02において各対話に対して話題タグが付与されると、付与された話題タグに基づいて、各対話においてそれぞれ営業担当者が「必要事項」を説明しているか否かを判定し、これに基づいてモニタリングすべき発話を抽出する処理を行う(S03)。このモニタリング箇所抽出処理の内容については後述する。なお、当該処理の精度が高くない場合には、このタイミングで当該処理を行うことは必須ではないことから、当該処理をスキップしてもよい。   When a topic tag is assigned to each dialogue in step S02, it is determined whether or not a sales representative explains “necessary items” in each dialogue based on the given topic tag. Based on this, a process for extracting an utterance to be monitored is performed (S03). The details of the monitoring location extraction process will be described later. If the accuracy of the process is not high, it is not essential to perform the process at this timing, and the process may be skipped.

その後さらに、各対話についてのコンプライアンス上の危険度を判定する(S04)。ここでは、例えば、対話のテキストデータ中のキーワードや、顧客の話し方や反応(例えば、「同じことを何度も言っている(認知症の可能性)」や、「相槌が少ない(話を聞いていない可能性)」等)、CRMシステム4から取得した顧客属性データ42(例えば、「高齢者かどうか」や「取引歴が浅いかどうか」等)に基づいて、所定のルールや重み付けによって対話の危険度を判定する。   Thereafter, the degree of compliance risk for each dialogue is further determined (S04). Here, for example, keywords in dialogue text data, how customers speak and respond (for example, “I say the same thing many times (possibility of dementia)”, “ Based on the customer attribute data 42 obtained from the CRM system 4 (for example, “whether it is an elderly person”, “whether the transaction history is shallow”, etc.) Determine the risk level.

また、ステップS03においてモニタリング箇所の抽出処理を行っている場合は、その結果情報、すなわち、対象の対話において「必要事項」をどの程度説明しているかの情報に基づいて、危険度に補正を加えるようにしてもよい。   Further, when the monitoring point extraction process is performed in step S03, the risk level is corrected based on the result information, that is, the information indicating how much “necessary items” are explained in the target dialogue. You may do it.

危険度の算出は、具体的には、例えば、
・顧客の年齢が70歳以上の場合 → 危険度を+0.5
・顧客の取引歴が3年未満の場合 → 危険度を+0.5
・対話において営業担当者が30秒以上話し続けており、
その間に顧客が一度も発話していない場合 → 危険度を+1.0
・(モニタリング箇所の抽出処理を行っている場合)
「必要事項」の説明が1つでも漏れている場合 → 危険度を+1.5
等のルールに該当する場合に危険度の値を積算(もしくは減算)していくことで、最終的な危険度を算出する。
Specifically, the calculation of the risk level is, for example,
・ If the customer's age is 70 years old or higher → the risk is +0.5
・ If the customer's transaction history is less than 3 years → the risk is +0.5
・ The sales representative has been talking for over 30 seconds in the dialogue.
If the customer has never spoken during that time → the risk is +1.0
・ (When monitoring points are being extracted)
If even one explanation of “Required Information” is missing → Increase the risk level to +1.5
The final risk level is calculated by integrating (or subtracting) the risk level values when the above rules are met.

その後、対話のテキストデータ中のキーワードや、CRMシステム4から取得した顧客属性データ42(例えば、過去に購入した商品の種類や購入時期等)の情報等に基づいて、対象の顧客についての過去の対話との連続性を判定し、連続性がある一連の対話についてグルーピングして(S05)、処理を終了する。   After that, based on the keyword in the text data of the dialogue and the information of the customer attribute data 42 acquired from the CRM system 4 (for example, the type of product purchased in the past, the purchase time, etc.) The continuity with the dialogue is determined, a series of dialogues having continuity is grouped (S05), and the process is terminated.

例えば、対話のテキストデータ中に「以前ご検討いただいていた…」というようなキーワードが含まれていた場合、以前の商談で対象の商品について既に説明していることが伺われ、以前の商談と連続性があると判定することができる。また、「この度新しい商品が募集されたので…」というようなキーワードが含まれていた場合、今回の商談で初めて新しい商品を提案することが伺われ、過去の商談と連続性がないと判定することができる。また、同一の営業担当者による過去の対話との連続性があるとされた対話であっても、例えば、直近の1ヶ月以上応対の履歴がない対話である場合は、新たにグループを作成して、このグループに当該対話を関連付ける。一方、直近の1ヶ月以内に応対の履歴がある対話である場合は、1つ前の対話が属するグループに当該対話を関連付ける。   For example, if the dialogue text data contains a keyword such as “I had previously considered…”, it was heard that the target product was already explained in the previous negotiation, It can be determined that there is continuity. Also, if a keyword such as “This time a new product has been recruited…” is included, it will be asked to propose a new product for the first time in this business negotiation, and it will be judged that there is no continuity with past business negotiations. be able to. In addition, even if the conversation is supposed to be continuous with the previous conversation by the same salesperson, for example, if the conversation has no history of response for more than one month, a new group is created. To associate this dialog with this group. On the other hand, if the dialogue has a history of response within the most recent month, the dialogue is associated with the group to which the previous dialogue belongs.

<指定された対話に対するモニタリング>
本実施の形態では、ユーザは、図2の例に示すような対話の検索結果の画面から、例えば、危険度が高いと判定された対話(もしくは対話のグループ)を選択して、当該対話中での営業担当者の具体的な発話内容において「必要事項」が説明されており、かつ「危険表現」が発されていないかをモニタリングする。
<Monitoring for specified dialogue>
In the present embodiment, the user selects, for example, a dialogue (or a group of dialogues) determined to have a high degree of risk from the dialogue search result screen as shown in the example of FIG. Monitor whether the “necessary items” are explained in the specific utterances of the sales representatives and whether “danger expressions” are issued.

図4は、本実施の形態におけるユーザ端末51に表示される対話内容のモニタリング画面の例について概要を示した図である。この画面では、図2の例に示すような対話の検索結果の画面からユーザにより選択された対話(同じグループ内の対話を結合したものを含む)について、左側の領域にはその内容、すなわち、営業担当者と顧客との対話の内容が発話毎に時系列で表示される。また、右側の領域には、応対記録として、選択された対話に係る要約(すなわち、営業担当者が顧客に対して説明した説明事項)が発話のカテゴリ毎に表示される。   FIG. 4 is a diagram showing an overview of an example of a dialogue content monitoring screen displayed on the user terminal 51 in the present embodiment. In this screen, for the dialogue selected by the user from the dialogue search result screen as shown in the example of FIG. 2 (including those obtained by combining the dialogues in the same group), the contents on the left side, that is, The contents of the dialogue between the sales representative and the customer are displayed in time series for each utterance. In the right area, a summary of the selected dialogue (that is, an explanation item explained to the customer by the sales representative) is displayed for each utterance category as a response record.

左側の領域に表示される対話内容は、対話解析部11での自然言語解析により設定された各発話の種別に基づいて、例えば、「相槌」や「挨拶」等の不必要な会話を非表示とした「簡約」として表示される。また、各発話には再生アイコンが付されており、ユーザは、このアイコンを選択することで、発話の単位で部分的に対話の内容を音声として再生し、音声によるモニタリングを行うことができる。また、対話全体に対しても再生アイコンおよび停止アイコンが付されており、対話全体を再生・停止することができる。この他にも、一時停止や早送り、巻き戻し等の音声再生に係る各種操作が可能である。再生に際して、例えば、「1倍速」、「1.5倍速」、「倍速」のように再生速度を選択できるようにしてもよい。また、再生中の発話の該当箇所について点滅やハイライト等の強調表示を行うようにてしてもよい。   The dialogue content displayed in the left area is based on the type of each utterance set by the natural language analysis in the dialogue analysis unit 11 and, for example, unnecessary conversations such as “conversation” and “greeting” are hidden. It is displayed as “Simple”. Each utterance is provided with a reproduction icon, and by selecting this icon, the user can reproduce the contents of the conversation partially as utterances in units of utterances and perform monitoring by voice. Also, a playback icon and a stop icon are attached to the entire dialog, and the entire dialog can be played / stopped. In addition, various operations related to audio reproduction such as pause, fast forward, and rewind are possible. During playback, for example, the playback speed may be selected such as “1 × speed”, “1.5 × speed”, “double speed”. Further, highlighting such as blinking or highlighting may be performed for the corresponding part of the utterance being reproduced.

また、各発話には、後述するカテゴリが付与されている。図中の例では、「書類の到着確認」や「劣後特約」、「債券の格付け」等のカテゴリが付与されている。これにより、各発話において説明等の対象としている「必要事項」を容易に把握することができる。   Each utterance is given a category to be described later. In the example in the figure, categories such as “document arrival confirmation”, “subordinated special contract”, and “bond rating” are assigned. Thereby, it is possible to easily grasp the “necessary items” that are the subject of explanation in each utterance.

右側の領域に表示される応対記録では、カテゴリ毎に、「必要事項」の内容を説明していると判定された箇所、すなわち、ユーザがモニタリングを行うべき発話を対話から抽出して表示している。ここで、例えば、詳細に確認したい発話をユーザが選択して指示すると、ユーザインタフェース部14は、左側の領域に表示される対話内容を当該発話が表示される位置まで自動的にスクロールさせ、当該発話から音声の再生を開始するようにしてもよい。   In the response record displayed in the area on the right side, for each category, the part that is determined to explain the “necessary items”, that is, the utterance that the user should monitor is extracted from the dialog and displayed. Yes. Here, for example, when the user selects and designates an utterance to be confirmed in detail, the user interface unit 14 automatically scrolls the conversation content displayed in the left area to the position where the utterance is displayed, and You may make it start reproduction | regeneration of an audio | voice from speech.

また、モニタリング箇所抽出部13における「必要事項」の説明箇所の特定の精度に応じて、抽出される箇所(発話)の粒度(抽出量)を、ユーザが画面上部のスライダーバーを操作することで動的に変更できるようにしてもよい。例えば、粒度を大きくすると「必要事項」を含むと考えられる広い範囲をカバーして多くの発話を抽出し、粒度を小さくすると狭い範囲に絞り込んで発話(もしくはその一部)を抽出する。これらの仕組みにより、ユーザは、「必要事項」を説明していると思われる、モニタリングすべき発話を効率的に特定し、無用なモニタリングを排除することができる。   Further, the user operates the slider bar at the top of the screen to determine the granularity (extraction amount) of the extracted part (utterance) according to the specific accuracy of the description part of the “necessary items” in the monitoring part extracting unit 13. You may enable it to change dynamically. For example, if the granularity is increased, many utterances are extracted covering a wide range considered to include “necessary items”, and if the granularity is decreased, utterances (or a part thereof) are extracted by narrowing down to a narrower range. With these mechanisms, the user can efficiently identify the utterance to be monitored, which seems to explain “necessary items”, and eliminate unnecessary monitoring.

図5は、本実施の形態におけるモニタリング箇所抽出部13が対象の対話からモニタリングを行うべき箇所を抽出する処理の流れの例について概要を示したフローチャートである。図2の例に示すような対話の検索結果の画面を介してユーザにより対話が選択されると、モニタリング箇所抽出部13は、まず、解析済対話データ15から対象の対話に係る対話データを取得する(S11)。   FIG. 5 is a flowchart showing an outline of an example of a flow of processing in which the monitoring location extraction unit 13 in the present embodiment extracts a location to be monitored from the target dialogue. When a dialog is selected by the user via the dialog search result screen as shown in the example of FIG. 2, the monitoring location extraction unit 13 first acquires dialog data related to the target dialog from the analyzed dialog data 15. (S11).

そして、取得した対話データ中の各発話に対してカテゴリを付与する(S12)。ここでは、例えば、対話解析部11での自然言語解析によって抽出されている各発話の話者や単語(もしくはその活用)、固有表現、発話意図等の情報に基づいてルールベースでのマッチングにより発話のカテゴリを付与する。カテゴリを付与するルールの情報は、例えば、カテゴリ付与情報131のテーブルやファイルに予め登録しておく。図6は、本実施の形態におけるカテゴリ付与情報131のマッチングルールの例について概要を示した図である。各発話の内容が図6に示されたような各ルール(図中の例では「ルールa」、「ルールb」、「ルールc」、…)にマッチするか否かを判定する。   Then, a category is assigned to each utterance in the acquired dialogue data (S12). Here, for example, utterances are made by rule-based matching based on information such as speakers and words (or their utilization), specific expressions, utterance intentions, and the like extracted by natural language analysis in the dialog analysis unit 11. Is given a category. Information on the rule for assigning the category is registered in advance in, for example, a table or file of the category assignment information 131. FIG. 6 is a diagram showing an outline of an example of the matching rule of the category assignment information 131 in the present embodiment. It is determined whether or not the content of each utterance matches each rule shown in FIG. 6 (in the example in the figure, “rule a”, “rule b”, “rule c”,...).

対象の発話がいずれのカテゴリのルールにもマッチしなかった場合は、例えば、直前の発話に対して付与されたカテゴリをそのまま付与するようにしてもよい。一方、対象の発話が複数のカテゴリにマッチした場合は、例えば、各カテゴリに対して予め設定された優先度と順位に基づいていずれかのカテゴリを付与する。図7は、本実施の形態における発話のカテゴリの優先度と出現順序の設定例について概要を示した図である。ある発話について複数のカテゴリにマッチした場合、まず、優先度の高いカテゴリを付与する(ルール1)。したがって、例えば、対話中の1番目の発話が「劣後特約」のカテゴリと「元利金免除リスク」のカテゴリにマッチした場合、ルール1によって、優先度が高い「劣後特約」のカテゴリが付与される。   If the target utterance does not match any of the category rules, for example, the category assigned to the immediately preceding utterance may be assigned as it is. On the other hand, when the target utterance matches a plurality of categories, for example, one of the categories is assigned to each category based on a preset priority and rank. FIG. 7 is a diagram showing an outline of an example of setting the priority and appearance order of the utterance category in the present embodiment. When a plurality of categories are matched for a certain utterance, first, a category with a high priority is assigned (rule 1). Therefore, for example, when the first utterance in the dialogue matches the category of “subordinated special contract” and the category of “principal interest exemption risk”, the category of “subordinated special contract” with high priority is given by rule 1. .

一方、マッチした複数のカテゴリの優先度が同じである場合は、当該発話の直前の発話に対して付与されているカテゴリの情報を取得し、当該カテゴリより後順位で直近の順位のカテゴリを付与する(ルール2)。したがって、例えば、2番目の発話が「書面の到着確認(順位1)」のカテゴリと「実質破綻時免除特約(順位3)」のカテゴリにマッチした場合、ルール2によって、直前の1番目の発話に付与された「劣後特約(順位2)」のカテゴリより後順位(かつ直近の順位)の「実質破綻時免除特約」のカテゴリが付与される。   On the other hand, if the priorities of multiple matched categories are the same, information on the category assigned to the utterance immediately before the utterance is acquired, and the category with the latest rank is assigned after the category. (Rule 2). Thus, for example, if the second utterance matches the category of “document arrival confirmation (rank 1)” and the “substantial failure exemption special contract (rank 3)” category, the first utterance immediately before according to rule 2 The category of “exemption at the time of substantial bankruptcy” is assigned to the subordinate category (and the latest ranking) from the category of “subordinated special agreement (ranking 2)”.

後順位のカテゴリが存在しない場合は、直前の発話に対して付与されているカテゴリの順位に最も近い順位のカテゴリを付与する(ルール3)。したがって、例えば、3番目の発話に「信用リスク(順位5)」のカテゴリが付与されている状態で、4番目の発話が「書面の到着確認(順位1)」のカテゴリと「実質破綻時免除特約(順位3)」のカテゴリにマッチした場合、ルール3によって、直前の3番目の発話に付与された「信用リスク」のカテゴリの順位(順位5)に最も近い順位(順位3)の「実質破綻時免除特約」のカテゴリが付与される。以上のようなルールに基づいてカテゴリを付与することで、対話中の発話の流れも考慮した自然な形でカテゴリを自動的に付与することができる。   If there is no rear-ranked category, the category with the rank closest to the rank of the category assigned to the immediately preceding utterance is assigned (rule 3). Thus, for example, with the category of “credit risk (rank 5)” assigned to the third utterance, the fourth utterance is classified as “document arrival confirmation (rank 1)” and “exempt at the time of substantial failure”. If it matches the category of “Special Contract (Rank 3)”, the “Real” of the rank (Rank 3) closest to the rank of the “Credit Risk” category (Rank 5) assigned to the third utterance immediately before by the rule 3 The category of “exemption on bankruptcy” is granted. By assigning a category based on the above rules, it is possible to automatically assign a category in a natural manner considering the flow of utterances during conversation.

図5に戻り、各発話に対してカテゴリが付与されると、次に、対話中において「必要事項」を説明していると考えられる発話(1つ以上の発話、もしくは発話の一部)を抽出して(S13)、処理を終了する。ここでは、例えば、解析済対話データ15に記録された対象の対話中の各発話について、発話毎にその特徴を抽出し、抽出結果を学習モデル(説明箇所抽出情報132)により評価する。評価結果は、例えば、−1〜1の値の範囲に正規化されたスコアにより示され、このスコアが所定の閾値より大きい発話を「必要事項」の説明箇所と判断して抽出する。   Returning to FIG. 5, when a category is assigned to each utterance, next, an utterance (one or more utterances, or a part of the utterance) that is considered to explain “necessary items” during the dialogue is selected. Extract (S13), and the process ends. Here, for example, for each utterance in the target dialogue recorded in the analyzed dialogue data 15, the feature is extracted for each utterance, and the extraction result is evaluated by the learning model (explained part extraction information 132). The evaluation result is indicated by, for example, a score normalized to a value range of −1 to 1, and an utterance whose score is larger than a predetermined threshold is determined as an explanation part of “necessary items” and extracted.

学習モデルである説明箇所抽出情報132の更新等のメンテナンスは、例えば、ユーザの指示により別途不定期に行われる(S10)。月次等の所定のタイミングで定期的に行うようにしてもよい。ここでは、例えば、機械学習を行う際の学習データとして、過去の対話に対して図4に示したような画面を介してユーザがモニタリングによる確認を行った箇所(もしくは行うべきとして指定された箇所)の情報を抽出する。抽出を可能とするために、ユーザがモニタリングを行った発話(もしくは行うべきとして指定された発話)に対して、解析済対話データ15においてフラグを立てておくようにしてもよい。   Maintenance such as updating of the explanation location extraction information 132, which is a learning model, is separately performed irregularly, for example, in accordance with a user instruction (S10). It may be performed periodically at a predetermined timing such as monthly. Here, for example, as learning data when performing machine learning, a place where a user has confirmed by monitoring through a screen as shown in FIG. 4 for a past dialogue (or a place designated to be performed) ) Information. In order to enable extraction, a flag may be set in the analyzed dialogue data 15 for the utterance (or the utterance designated to be performed) monitored by the user.

メンテナンス処理では、さらに、各発話について、発話を構成する要素とその特徴の情報を抽出する。特徴には、例えば、使われている単語やその品詞の情報、発話意図、対話における発話の位置等の情報が含まれ得る。   In the maintenance process, for each utterance, information on the elements constituting the utterance and its features are further extracted. The features may include, for example, information on the words used and their parts of speech, utterance intentions, utterance positions in dialogue, and the like.

そして、モニタリングを行った発話(行うべき発話)の情報、および発話の特徴の情報を、それぞれ、図示しない機械学習エンジンにより学習することができる形式にフォーマット変換した上で当該機械学習エンジンにより学習し、学習モデルである説明箇所抽出情報132を出力する。なお、使用する機械学習エンジンについては特に限定されず、例えば、LIBLINEAR等のオープンソースの機械学習ライブラリ等を適宜使用することができる。   The information of the utterance (the utterance to be performed) and the information of the utterance characteristics that have been monitored are converted into a format that can be learned by a machine learning engine (not shown), and then learned by the machine learning engine. The description location extraction information 132, which is a learning model, is output. The machine learning engine to be used is not particularly limited. For example, an open source machine learning library such as LIBLINEAR can be used as appropriate.

図8は、本実施の形態における機械学習エンジンに取り込む学習データの例について概要を示した図である。上段のデータは、例えば、解析済対話データ15から抽出された、対話(「Dlg」)中の各発話(「Stmt」)について、モニタリングすべきか否かの情報(必要な場合は「OK」、不要な場合は「NG」)が設定されたデータである。これに対し、下段のデータは、上段のデータを、例えば、LIBLINEARが解釈できるフォーマットである、
[クラス番号] [素性番号1]:[その頻度] [素性番号2]:[その頻度]…
の形式に変換したものである。ここでは、[クラス番号]として、モニタリングすべきか否かのスコア(「OK」の場合は1、「NG」の場合は−1)を設定している。このファイルをLIBLINEARに取り込んで学習することで、説明箇所抽出情報132(学習モデル)を作成・更新する。
FIG. 8 is a diagram showing an outline of an example of learning data imported into the machine learning engine according to the present embodiment. The upper data is, for example, information on whether or not to monitor each utterance (“Stmt”) in the dialogue (“Dlg”) extracted from the analyzed dialogue data 15 (“OK” if necessary), If not required, “NG”) is set. On the other hand, the lower data is a format in which the upper data can be interpreted by, for example, LIBLINEAR.
[Class number] [Feature number 1]: [frequency] [Feature number 2]: [frequency]
It is converted to the format. Here, a score indicating whether or not to monitor (1 for “OK” and −1 for “NG”) is set as [class number]. The explanation location extraction information 132 (learning model) is created and updated by taking this file into LIBREAR and learning.

なお、上述した例では、「必要事項」を説明している箇所を抽出して、図4に示したようなモニタリング画面において応対記録として表示するようにしているが、「禁止表現」を発している箇所を抽出して同様に表示するようにしてもよい。   In the above-mentioned example, the part explaining “necessary items” is extracted and displayed as a response record on the monitoring screen as shown in FIG. 4, but a “prohibited expression” is issued. It is also possible to extract and display the same location.

以上に説明したように、本発明の一実施の形態である対話分析システム1によれば、顧客へ行った説明等に係る対話の内容を音声データとして録音し、これをテキスト化したデータに基づいて自然言語解析を行って、「必要事項」を説明しているか、および「禁止表現」を発していないかを自動的に判定し、結果を表示することができる。これにより、営業担当者自身やその管理者等が、営業活動におけるコンプライアンスの順守状況をモニタリングすることが可能となる。   As described above, according to the dialog analysis system 1 according to an embodiment of the present invention, the content of the dialog related to the explanation given to the customer is recorded as voice data, and this is converted into text. Thus, natural language analysis is performed to automatically determine whether “necessary items” are explained and whether “prohibited expressions” are not issued, and the result can be displayed. As a result, the sales staff and their managers can monitor the status of compliance in sales activities.

その際、対話中における「必要事項」や「禁止表現」を発した発話の特定を容易に行えるユーザインタフェースとすることで、モニタリングの作業に要する時間の短縮が可能となる。さらに、解析された対話内容に基づいて、各対話に対して話題タグを自動的に付与することで、膨大な対話の中から実際にモニタリングを行う必要がある対話を探索する作業に要する時間の短縮が可能となる。   At this time, the time required for the monitoring work can be reduced by providing a user interface that can easily identify the utterances that have issued “necessary items” and “prohibited expressions” during the conversation. Furthermore, by automatically assigning topic tags to each dialogue based on the analyzed dialogue content, the time required for searching for dialogues that actually need to be monitored from a large number of dialogues is reduced. Shortening is possible.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、上記の実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、上記の実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   As mentioned above, the invention made by the present inventor has been specifically described based on the embodiments. However, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention. Needless to say. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to the one having all the configurations described. In addition, it is possible to add, delete, and replace other configurations for a part of the configuration of the above-described embodiment.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、またはICカード、SDカード、DVD等の記録媒体に置くことができる。   Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function can be stored in a recording device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、上記の各図において、制御線や情報線は説明上必要と考えられるものを示しており、必ずしも実装上の全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。   Moreover, in each said figure, the control line and the information line have shown what is considered necessary for description, and do not necessarily show all the control lines and information lines on mounting. Actually, it may be considered that almost all the components are connected to each other.

本発明は、顧客との商談において営業担当者が説明すべき事項を説明し、述べてはいけない事項を述べていないことをチェックする対話分析システムおよび対話分析プログラムに利用可能である。   The present invention can be used for a dialog analysis system and a dialog analysis program for explaining matters to be explained by a sales person in a business talk with a customer and checking that matters that should not be stated are not stated.

1…対話分析システム、2…対話録音システム、3…音声認識システム、4…CRMシステム、
11…対話解析部、12…対話属性抽出部、13…モニタリング箇所抽出部、14…ユーザインタフェース部、15…解析済対話データ、
21…対話録音データ、
31…音声認識部、32…音声認識テキスト、
41…CRMデータ、42…顧客属性データ
51…ユーザ端末、
121…話題タグ情報、131…カテゴリ付与情報、132…説明箇所抽出情報
1 ... Dialog analysis system, 2 ... Dialog recording system, 3 ... Speech recognition system, 4 ... CRM system,
DESCRIPTION OF SYMBOLS 11 ... Dialog analysis part, 12 ... Dialog attribute extraction part, 13 ... Monitoring location extraction part, 14 ... User interface part, 15 ... Analyzed dialog data,
21 ... Dialogue recording data,
31 ... voice recognition unit, 32 ... voice recognition text,
41 ... CRM data, 42 ... Customer attribute data 51 ... User terminal,
121: Topic tag information, 131: Category assignment information, 132: Explanation location extraction information

Claims (9)

説明者と相手方との間の対話中における所定の事項の説明の有無を判定する対話分析システムであって、
対話の内容が録音された音声データの内容を音声認識技術によりテキスト化した音声認識テキストに対して、形態素解析を含む自然言語解析処理を行って解析結果を出力する対話解析部と、
前記対話解析部から出力された解析結果に含まれる各対話に対して、前記相手方の属性データを含むデータに基づいて話題に係るタグを付与して、解析済対話データとして記録する対話属性抽出部と、
情報処理端末を介してユーザにより指定された条件に基づいて、前記解析済対話データから前記条件にマッチする対話を抽出して、前記情報処理端末に一覧表示させるユーザインタフェース部と、
前記情報処理端末を介して前記一覧表示の中からユーザにより指定された対話について、対話中における前記説明者および前記相手方の各発話を時系列で表示する第1領域と、前記説明者により前記所定の事項の説明が行われていると判定された発話を抽出して表示する第2領域と、を前記ユーザインタフェース部を介して前記情報処理端末に表示させるモニタリング箇所抽出部と、を有する、対話分析システム。
A dialog analysis system for determining whether or not there is an explanation of a predetermined matter during a dialog between an explainer and the other party,
A dialogue analysis unit that performs natural language analysis processing including morphological analysis on speech recognition text obtained by converting the content of speech data in which dialogue content is recorded into text using speech recognition technology, and outputs an analysis result;
A dialog attribute extraction unit that adds a tag related to a topic to each dialog included in the analysis result output from the dialog analysis unit based on data including the other party's attribute data, and records the data as analyzed dialog data When,
Based on conditions specified by the user via the information processing terminal, a user interface unit that extracts dialogs that match the conditions from the analyzed dialog data and displays the list on the information processing terminal;
For dialogs designated by the user from the list display via the information processing terminal, a first area for displaying the utterances of the presenter and the other party during the conversation in time series, and the predetermined by the presenter A second area for extracting and displaying an utterance determined to have been explained, and a monitoring location extracting section for displaying the utterance on the information processing terminal via the user interface section. Analysis system.
請求項1に記載の対話分析システムにおいて、
前記対話属性抽出部は、前記解析結果に含まれる各対話に対して、前記相手方の属性データ、および説明対象に依存しない対話の内容に基づいて、各対話のコンプライアンス上の危険度を判定する、対話分析システム。
The dialog analysis system according to claim 1,
The dialog attribute extraction unit determines the degree of compliance risk of each dialog based on the content of the dialog that does not depend on the attribute data of the other party and the explanation target for each dialog included in the analysis result. Dialogue analysis system.
請求項1に記載の対話分析システムにおいて、
前記対話属性抽出部は、前記解析結果に含まれる前記説明者に係る各対話について、対話中のキーワード、付与された前記タグ、および前記相手方を含む情報に基づいて、一連のものとして取り扱う複数の対話をグルーピングする、対話分析システム。
The dialog analysis system according to claim 1,
The dialogue attribute extraction unit, for each dialogue related to the presenter included in the analysis result, based on information including a keyword during dialogue, the tag provided, and the opponent, a plurality of Dialog analysis system that groups dialogs.
請求項1に記載の対話分析システムにおいて、
前記ユーザインタフェース部は、前記情報処理端末に表示された前記第2領域においてユーザにより指定された発話が、前記第1領域において表示されるよう前記第1領域をスクロールさせる、対話分析システム。
The dialog analysis system according to claim 1,
The dialog analysis system, wherein the user interface unit scrolls the first area so that an utterance designated by the user in the second area displayed on the information processing terminal is displayed in the first area.
請求項4に記載の対話分析システムにおいて、
前記ユーザインタフェース部は、前記第2領域においてユーザにより指定された発話に係る音声データを前記情報処理端末上で再生させる、対話分析システム。
In the dialog analysis system according to claim 4,
The dialog analysis system, wherein the user interface unit reproduces voice data related to an utterance designated by a user in the second area on the information processing terminal.
請求項1に記載の対話分析システムにおいて、
前記モニタリング箇所抽出部は、前記情報処理端末に表示された前記第2領域でのユーザの所定の操作量に応じて、前記説明者により前記所定の事項の説明が行われていると判定された発話を抽出する際の粒度を変更する、対話分析システム。
The dialog analysis system according to claim 1,
The monitoring location extraction unit is determined to explain the predetermined matter by the instructor according to a predetermined operation amount of the user in the second area displayed on the information processing terminal. A dialog analysis system that changes the granularity when extracting utterances.
請求項1に記載の対話分析システムにおいて、
前記モニタリング箇所抽出部は、前記一覧表示の中からユーザにより指定された対話中の各発話に対して、所定のルールとのマッチングにより前記所定の事項と対応するカテゴリを付与し、マッチするカテゴリがない場合は直前の発話に付与されたカテゴリを付与する、対話分析システム。
The dialog analysis system according to claim 1,
The monitoring location extraction unit assigns a category corresponding to the predetermined item by matching with a predetermined rule for each utterance in the conversation designated by the user from the list display, and the matching category is Dialog analysis system that assigns the category assigned to the previous utterance if there is not.
請求項1に記載の対話分析システムにおいて、
前記モニタリング箇所抽出部は、前記一覧表示の中からユーザにより指定された対話中の各発話に対して、所定のルールとのマッチングにより前記所定の事項と対応するカテゴリを付与し、マッチするカテゴリが複数ある場合は優先度が最も高いカテゴリを選択して付与し、優先度が最も高いカテゴリが複数ある場合は直前の発話に付与されたカテゴリに基づいていずれか1つのカテゴリを選択して付与する、対話分析システム。
The dialog analysis system according to claim 1,
The monitoring location extraction unit assigns a category corresponding to the predetermined item by matching with a predetermined rule for each utterance in the conversation designated by the user from the list display, and the matching category is If there are multiple categories, the category with the highest priority is selected and assigned, and if there are multiple categories with the highest priority, any one category is selected and assigned based on the category assigned to the immediately preceding utterance. , Dialogue analysis system.
説明者と相手方との間の対話中における所定の事項の説明の有無を判定する対話分析システムとして機能するよう、コンピュータに処理を実行させる対話分析プログラムであって、
対話の内容が録音された音声データの内容を音声認識技術によりテキスト化した音声認識テキストに対して、形態素解析を含む自然言語解析処理を行って解析結果を出力する対話解析処理と、
前記対話解析処理により出力された解析結果に含まれる各対話に対して、前記相手方の属性データを含むデータに基づいて話題に係るタグを付与して、解析済対話データとして記録する対話属性抽出処理と、
情報処理端末を介してユーザにより指定された条件に基づいて、前記解析済対話データから前記条件にマッチする対話を抽出して、前記情報処理端末に一覧表示させる表示処理と、
前記情報処理端末を介して前記一覧表示の中からユーザにより指定された対話について、対話中における前記説明者および前記相手方の各発話を時系列で表示する第1領域と、前記説明者により前記所定の事項の説明が行われていると判定された発話を抽出して表示する第2領域と、を前記情報処理端末に表示させるモニタリング箇所抽出処理と、を前記コンピュータに実行させる、対話分析プログラム。
A dialogue analysis program for causing a computer to execute a process so as to function as a dialogue analysis system for determining whether or not there is an explanation of a predetermined item during a dialogue between an explainer and a partner,
Dialogue analysis processing that performs natural language analysis processing including morphological analysis and outputs the analysis results to the speech recognition text that has been converted into text by speech recognition technology, the content of the speech data recorded the dialogue content,
Dialog attribute extraction processing for adding a tag related to a topic based on data including attribute data of the other party to each dialogue included in the analysis result output by the dialogue analysis processing, and recording it as analyzed dialogue data When,
Based on conditions specified by the user via the information processing terminal, a dialog that matches the conditions from the analyzed dialog data is extracted and displayed in a list on the information processing terminal;
For dialogs designated by the user from the list display via the information processing terminal, a first area for displaying the utterances of the presenter and the other party during the conversation in time series, and the predetermined by the presenter The interactive analysis program which makes the said computer perform the monitoring location extraction process which makes the said information processing terminal display the 2nd area | region which extracts and displays the speech determined that description of the matter is performed.
JP2017150527A 2017-08-03 2017-08-03 Dialogue analysis system and dialogue analysis program Active JP6865653B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017150527A JP6865653B2 (en) 2017-08-03 2017-08-03 Dialogue analysis system and dialogue analysis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017150527A JP6865653B2 (en) 2017-08-03 2017-08-03 Dialogue analysis system and dialogue analysis program

Publications (2)

Publication Number Publication Date
JP2019028910A true JP2019028910A (en) 2019-02-21
JP6865653B2 JP6865653B2 (en) 2021-04-28

Family

ID=65476291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017150527A Active JP6865653B2 (en) 2017-08-03 2017-08-03 Dialogue analysis system and dialogue analysis program

Country Status (1)

Country Link
JP (1) JP6865653B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140481A (en) * 2019-02-28 2020-09-03 日本電気株式会社 Processing device, processing method and program
JP2020140480A (en) * 2019-02-28 2020-09-03 日本電気株式会社 Processing device, processing method and program
JP6807586B1 (en) * 2020-01-30 2021-01-06 ベルフェイス株式会社 Information processing equipment, information processing methods and programs
CN113065328A (en) * 2021-04-06 2021-07-02 浙江百应科技有限公司 Conversation content analysis method based on regular and text truncation
WO2021153618A1 (en) * 2020-01-30 2021-08-05 ベルフェイス株式会社 Information processing device, information processing method, program, and recording medium
KR20210146827A (en) * 2020-05-27 2021-12-06 로브록스 코포레이션 Generation of text tags from game communication transcripts
JP7123448B1 (en) 2021-11-09 2022-08-23 株式会社バベル Information processing method, computer program and information processing device
JP7178750B1 (en) 2022-03-30 2022-11-28 株式会社スキマデパート Information analysis device, information analysis system, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318528A (en) * 2003-04-16 2004-11-11 Seiko Epson Corp Information extracting system, program and method, and document extracting system, program and method
JP2007212532A (en) * 2006-02-07 2007-08-23 Nec Corp Monitoring device, evaluation data selection device, reception person evaluation device, and reception person evaluation system and program
JP2008123447A (en) * 2006-11-15 2008-05-29 Mitsubishi Electric Information Systems Corp Operator business support system
JP2011223447A (en) * 2010-04-13 2011-11-04 Toshiba Corp Program recording apparatus and program recording method
JP2013003814A (en) * 2011-06-16 2013-01-07 Casio Comput Co Ltd Sales data processing device and program
JP2016085697A (en) * 2014-10-29 2016-05-19 株式会社野村総合研究所 Compliance check system and compliance check program
JP2016122413A (en) * 2014-12-25 2016-07-07 キヤノン株式会社 Image processing apparatus, control method of image processing apparatus, and program
JP2017010309A (en) * 2015-06-23 2017-01-12 トヨタ自動車株式会社 Decision-making support apparatus and decision-making method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318528A (en) * 2003-04-16 2004-11-11 Seiko Epson Corp Information extracting system, program and method, and document extracting system, program and method
JP2007212532A (en) * 2006-02-07 2007-08-23 Nec Corp Monitoring device, evaluation data selection device, reception person evaluation device, and reception person evaluation system and program
JP2008123447A (en) * 2006-11-15 2008-05-29 Mitsubishi Electric Information Systems Corp Operator business support system
JP2011223447A (en) * 2010-04-13 2011-11-04 Toshiba Corp Program recording apparatus and program recording method
JP2013003814A (en) * 2011-06-16 2013-01-07 Casio Comput Co Ltd Sales data processing device and program
JP2016085697A (en) * 2014-10-29 2016-05-19 株式会社野村総合研究所 Compliance check system and compliance check program
JP2016122413A (en) * 2014-12-25 2016-07-07 キヤノン株式会社 Image processing apparatus, control method of image processing apparatus, and program
JP2017010309A (en) * 2015-06-23 2017-01-12 トヨタ自動車株式会社 Decision-making support apparatus and decision-making method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140481A (en) * 2019-02-28 2020-09-03 日本電気株式会社 Processing device, processing method and program
JP2020140480A (en) * 2019-02-28 2020-09-03 日本電気株式会社 Processing device, processing method and program
JP7211160B2 (en) 2019-02-28 2023-01-24 日本電気株式会社 Processing device, processing method and program
JP7211161B2 (en) 2019-02-28 2023-01-24 日本電気株式会社 Processing device, processing method and program
WO2021153621A1 (en) * 2020-01-30 2021-08-05 ベルフェイス株式会社 Information processing device, information processing method, program, and storage medium
JP2021120813A (en) * 2020-01-30 2021-08-19 ベルフェイス株式会社 Information processor and information processing method and program
JP2021120709A (en) * 2020-01-30 2021-08-19 ベルフェイス株式会社 Information processing device, information processing method, and program
JP7403133B2 (en) 2020-01-30 2023-12-22 ベルフェイス株式会社 Information processing device, information processing method and program
WO2021153618A1 (en) * 2020-01-30 2021-08-05 ベルフェイス株式会社 Information processing device, information processing method, program, and recording medium
JP6807586B1 (en) * 2020-01-30 2021-01-06 ベルフェイス株式会社 Information processing equipment, information processing methods and programs
KR102615236B1 (en) * 2020-05-27 2023-12-19 로브록스 코포레이션 Generation of text tags from game communication transcripts
KR20210146827A (en) * 2020-05-27 2021-12-06 로브록스 코포레이션 Generation of text tags from game communication transcripts
US11893357B2 (en) 2020-05-27 2024-02-06 Roblox Corporation Generation of text tags from game communication transcripts
CN113065328A (en) * 2021-04-06 2021-07-02 浙江百应科技有限公司 Conversation content analysis method based on regular and text truncation
JP2023070466A (en) * 2021-11-09 2023-05-19 株式会社バベル Information processing method, computer program, and information processing apparatus
JP7123448B1 (en) 2021-11-09 2022-08-23 株式会社バベル Information processing method, computer program and information processing device
JP2023147582A (en) * 2022-03-30 2023-10-13 株式会社スキマデパート Information analysis apparatus, information analysis system, and program
JP7178750B1 (en) 2022-03-30 2022-11-28 株式会社スキマデパート Information analysis device, information analysis system, and program

Also Published As

Publication number Publication date
JP6865653B2 (en) 2021-04-28

Similar Documents

Publication Publication Date Title
JP6865653B2 (en) Dialogue analysis system and dialogue analysis program
US10824814B2 (en) Generalized phrases in automatic speech recognition systems
US9575936B2 (en) Word cloud display
US20180102126A1 (en) System and method for semantically exploring concepts
US9477752B1 (en) Ontology administration and application to enhance communication data analytics
US11082554B2 (en) Method for conversion and classification of data based on context
US20210182326A1 (en) Call summary
JP7042693B2 (en) Interactive business support system
US20220156305A1 (en) Labeling/names of themes
US20230089596A1 (en) Database systems and methods of defining conversation automations
EP3446267A1 (en) Quality monitoring automation in contact centers
US10078689B2 (en) Labeling/naming of themes
US9697246B1 (en) Themes surfacing for communication data analysis
US10896688B2 (en) Real-time conversation analysis system
WO2016163028A1 (en) Utterance presentation device, utterance presentation method, and program
JP6533048B2 (en) Compliance check system and compliance check program
CN110475032A (en) Multi-service interface switching method, device, computer installation and storage medium
JP2015094811A (en) System and method for visualizing speech recording
US20160034509A1 (en) 3d analytics
JP6614589B2 (en) Compliance check system and compliance check program
JP2019207647A (en) Interactive business assistance system
US11310363B2 (en) Systems and methods for providing coachable events for agents
WO2022208711A1 (en) Information processing device, information processing system, information processing method, and program
JP7169031B1 (en) Program, information processing device, information processing system, information processing method, information processing terminal
JP2023168690A (en) Program, information processing device, information processing system, information processing method, and information processing terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210406

R150 Certificate of patent or registration of utility model

Ref document number: 6865653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250