JP2017054307A - Utterance content evaluation system and utterance content evaluation method - Google Patents

Utterance content evaluation system and utterance content evaluation method Download PDF

Info

Publication number
JP2017054307A
JP2017054307A JP2015177770A JP2015177770A JP2017054307A JP 2017054307 A JP2017054307 A JP 2017054307A JP 2015177770 A JP2015177770 A JP 2015177770A JP 2015177770 A JP2015177770 A JP 2015177770A JP 2017054307 A JP2017054307 A JP 2017054307A
Authority
JP
Japan
Prior art keywords
utterance content
word
frequency
evaluation
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015177770A
Other languages
Japanese (ja)
Inventor
卓矢 岩澤
Takuya Iwazawa
卓矢 岩澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2015177770A priority Critical patent/JP2017054307A/en
Publication of JP2017054307A publication Critical patent/JP2017054307A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Sub-Exchange Stations And Push- Button Telephones (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】評価者の能力に依存せずに、精度高くオペレータの発話内容を自動的に評価する。
【解決手段】各々の単語に対して、全ての発話内容のサンプルにわたり、重み付け平均頻度と、平均頻度標準偏差による正規分布の評価式とサンプルのスコアの差分を最小にする値を、出現頻度スコア係数とし、各々の単語に対して、全ての発話内容のサンプルにわたり、重み付け相対出現位置と、出現位置標準偏差による正規分布の評価式とサンプルのスコアの差分を最小にする値を、出現位置スコア係数として計算し、評価する発話内容の各々の単語に対して、出現頻度スコア係数をかけた正規分布評価式の出現頻度の評価値と、出現位置スコア係数をかけた正規分布評価式の出現位置の評価値とを求め、評価する発話内容の単語に対して総和をとって、発話内容の評価値とする。
【選択図】 図5
The present invention automatically evaluates the utterance content of an operator with high accuracy without depending on the ability of an evaluator.
For each word, a value that minimizes the difference between a weighted average frequency, an evaluation formula of a normal distribution based on an average frequency standard deviation, and a sample score over all utterance content samples is represented as an appearance frequency score. For each word, for each word, a value that minimizes the difference between the weighted relative appearance position and the normal distribution evaluation formula based on the appearance position standard deviation and the sample score is used for each word. For each word of utterance content calculated and evaluated as a coefficient, the appearance frequency evaluation value of the normal distribution evaluation formula multiplied by the appearance frequency score coefficient and the appearance position of the normal distribution evaluation expression multiplied by the appearance position score coefficient And the sum of the words of the utterance content to be evaluated is taken as the evaluation value of the utterance content.
[Selection] Figure 5

Description

本発明は、発話内容評価システム、及び、発話内容評価方法に係り、特に、コールセンターにおけるオペレータの応対を評価して応対スキルを診断する用途に好適な発話内容評価システム、及び、発話内容評価方法に関する。   The present invention relates to an utterance content evaluation system and an utterance content evaluation method, and more particularly, to an utterance content evaluation system and an utterance content evaluation method suitable for use in diagnosing reception skills by evaluating an operator's reception in a call center. .

コールセンターは、企業において顧客への電話対応業務を専門に行う事業所・部門である。コールセンターには、一般消費者向けの通信販売・サービス業・製造業を行う企業が、苦情・各種問い合わせ・注文を受け付けるものや、コンピュータ操作など機器の操作を電話により教えるものなどがある。   A call center is a business establishment / department that specializes in telephone support for customers in a company. Some call centers include mail order / service / manufacturing companies for general consumers that accept complaints, various inquiries and orders, and others that teach device operations such as computer operations over the phone.

そして、いずれの場合でも、コールセンターのオペレータの応答は、顧客に対する企業イメージ、顧客満足になどに大きな影響を与えるため、企業サイドとしては、質の高いオペレータを確保することが重要になる。   In any case, the response of the call center operator greatly affects the corporate image of the customer, customer satisfaction, etc., so it is important for the corporate side to secure a high-quality operator.

従来、このようなコールセンターによるオペレータの応対の評価は人手によって行われていた。しかし、多量の発話を評価するには多大なコストを要するために評価の対象が限定されることと、評価者の先入観等により評価が主観的になりやすいことから、評価の精度を上げることが困難であった。この課題に対し特許文献1では、情報処理装置を用いて、音声認識を利用して自動的に発話内容を評価する技術が提案されている。特許文献1の「電話応答診断装置」では、オペレータの電話応答を音声認識して、テキスト化し、そのテキストを項目ごとにグループ化した後に、表現パターンとマッチングさせることにより、発話者(クリエータ)の電話応答を評価している。   Conventionally, the operator's response evaluation by such a call center has been performed manually. However, evaluating a large amount of utterances requires a great deal of cost, so the target of the evaluation is limited, and the evaluation tends to be subjective due to the preconceptions of the evaluator. It was difficult. In order to solve this problem, Patent Document 1 proposes a technique for automatically evaluating the utterance content using voice recognition using an information processing apparatus. In the “telephone response diagnosis device” of Patent Document 1, the telephone response of the operator is recognized as voice, converted into text, the text is grouped for each item, and then matched with the expression pattern, so that the speaker (creator) Evaluating the telephone response.

特開2005−318101号公報JP-A-2005-318101 特開平1−156866号公報Japanese Patent Laid-Open No. 1-156866

上記特許文献1に記載された技術のように、コールセンターにおけるオペレータの応対を評価する際、コストを削減するために音声認識を利用して自動的に発話内容を評価することが可能である。しかしながら、従来技術の特許文献1では、評価方法としては決められた単語を用いたパターンとマッチングするか否かを判定することになるため、予め評価者が評価基準を作成する必要があり完全な自動評価ではない。また、評価基準の作成時に評価者の主観が含まれる余地があり、客観的な評価とは言い難いことと評価精度が評価者の能力に依存するという問題点があった。   As in the technique described in Patent Document 1, when evaluating the response of an operator in a call center, it is possible to automatically evaluate the utterance content using voice recognition in order to reduce costs. However, in Patent Document 1 of the prior art, as an evaluation method, it is determined whether or not a pattern using a predetermined word is matched. It is not an automatic evaluation. In addition, there is room for including the evaluator's subjectivity when the evaluation standard is created, and there is a problem that it is difficult to say objective evaluation and the evaluation accuracy depends on the ability of the evaluator.

本発明は、上記問題点を解決するためになされたもので、その目的は、複数の評価済みでスコアをつけられた発話内容との差異を評価することより、評価者の能力に依存せずに、精度が高くオペレータの発話内容を自動的に評価することができる発話内容評価システムを提供することにある。   The present invention has been made to solve the above problems, and its purpose is not to depend on the evaluator's ability to evaluate the difference between a plurality of evaluated and scored utterance contents. Another object of the present invention is to provide an utterance content evaluation system that can automatically evaluate the utterance content of an operator with high accuracy.

本発明の発話内容評価システムは、各々スコア付けされた一つ以上の発話内容のサンプルに基づき、発話内容を評価する発話内容評価システムであって、発話内容のサンプルの各々の単語の出現頻度と、発話内容のサンプルの各々の単語の相対出現位置とを計算し、各々の単語に対して、発話内容のスコアにより重み付けられた出現頻度の重み付け平均頻度と、発話内容のスコアにより重み付けられた出現頻度の平均頻度標準偏差とを計算する。   The utterance content evaluation system of the present invention is an utterance content evaluation system that evaluates utterance content based on one or more utterance content samples each scored, and the appearance frequency of each word in the utterance content sample and Calculate the relative appearance position of each word in the utterance content sample, and for each word, the weighted average frequency of the appearance frequency weighted by the utterance content score and the appearance weighted by the utterance content score Calculate the average frequency standard deviation of the frequency.

次に、各々の単語に対して、発話内容のスコアにより重み付けられた相対出現位置の重み付け平均出現位置と、発話内容のスコアにより重み付けられた相対出現位置の出現位置標準偏差とを計算し、各々の単語に対して、全ての発話内容のサンプルにわたり、重み付け平均頻度と、平均頻度標準偏差による正規分布の評価式とサンプルのスコアの差分を最小にする値を、出現頻度スコア係数として計算する。そして、各々の単語に対して、全ての発話内容のサンプルにわたり、重み付け相対出現位置と、出現位置標準偏差による正規分布の評価式とサンプルのスコアの差分を最小にする値を、出現位置スコア係数として計算し、評価する発話内容の各々の単語に対して、出現頻度スコア係数をかけた重み付け平均頻度と、平均頻度標準偏差による正規分布の評価式を、評価時の出現頻度の評価式として、その単語に対する出現頻度の評価値を求める。発話内容の評価時には、評価する発話内容の各々の単語に対して、出現位置スコア係数をかけた重み付け平均出現位置と、出現位置標準偏差による正規分布の評価式を、評価時の出現位置の評価式として、その単語に対する出現位置の評価値を求め、評価する発話内容の各々の単語にわたり、出現頻度の評価値と、出現位置の評価値の総和をとって、評価する発話内容の評価値とする。   Next, for each word, calculate the weighted average appearance position of the relative appearance position weighted by the utterance content score, and the appearance position standard deviation of the relative appearance position weighted by the utterance content score, A value that minimizes the difference between the weighted average frequency, the normal distribution evaluation formula based on the average frequency standard deviation, and the score of the sample is calculated as an appearance frequency score coefficient. Then, for each word, over the sample of all utterance contents, a value that minimizes the difference between the weighted relative appearance position, the normal distribution evaluation formula based on the appearance position standard deviation, and the score of the sample is represented as an appearance position score coefficient. For each word of the utterance content to be calculated and evaluated, the weighted average frequency multiplied by the appearance frequency score coefficient and the normal distribution evaluation formula by the average frequency standard deviation are used as the evaluation expression of the appearance frequency at the time of evaluation. The evaluation value of the appearance frequency for the word is obtained. When evaluating the utterance content, for each word in the utterance content to be evaluated, the weighted average appearance position multiplied by the appearance position score coefficient and the normal distribution evaluation formula based on the appearance position standard deviation are evaluated. As an expression, the evaluation value of the appearance position for the word is obtained, and the evaluation value of the appearance frequency and the evaluation value of the utterance content to be evaluated are obtained by taking the sum of the evaluation value of the appearance frequency and the evaluation value of the appearance position over each word of the utterance content to be evaluated. To do.

本発明によれば、複数の評価済みでスコアをつけられた発話内容との差異を評価することより、評価者の能力に依存せずに、精度高くオペレータの発話内容を自動的に評価することができる発話内容評価システムを提供することができる。   According to the present invention, it is possible to automatically evaluate an utterance content of an operator with high accuracy without depending on an evaluator's ability, by evaluating a difference from a plurality of evaluated and scored utterance content. It is possible to provide an utterance content evaluation system that can

本発明の一実施形態に係る発話内容評価システムのブロック図である。It is a block diagram of the utterance content evaluation system concerning one embodiment of the present invention. 本発明の一実施形態に係る発話内容評価システムのハードウェア構成図である。It is a hardware block diagram of the utterance content evaluation system which concerns on one Embodiment of this invention. 過去発話内容蓄積部と評価基準生成部の詳細な機能ブロック図である。It is a detailed functional block diagram of a past utterance content accumulation unit and an evaluation criterion generation unit. 発話内容評価部の詳細な機能ブロック図である。It is a detailed functional block diagram of an utterance content evaluation part. 発話内容評価基準の生成と、それに基づく発話内容の評価の概要を説明する図である。It is a figure explaining the outline | summary of the production | generation of utterance content evaluation criteria, and the evaluation of the utterance content based on it. 発話内容Aの内容を示す図である。It is a figure which shows the content of the utterance content A. FIG. 発話内容Bの内容を示す図である。It is a figure which shows the content of the utterance content B. FIG. 発話内容Cの内容を示す図である。It is a figure which shows the content of the utterance content C. FIG. 各発話のスコアを示すスコアテーブルの一例を示す図である。It is a figure which shows an example of the score table which shows the score of each utterance. 正規化頻度計算、相対位置計算までの処理を示すフローチャートである。It is a flowchart which shows the process to normalization frequency calculation and relative position calculation. 評価式の生成までの処理を示すフローチャートである。It is a flowchart which shows the process until the production | generation of an evaluation formula. 発話内容Aの頻度テーブルを示す図である。It is a figure which shows the frequency table of the utterance content A. 発話内容Bの頻度テーブルを示す図である。It is a figure which shows the frequency table of the utterance content B. FIG. 発話内容Cの頻度テーブルを示す図である。It is a figure which shows the frequency table of the content of speech. ユーザ定義カテゴリテーブルの一例を示す図である。It is a figure which shows an example of a user definition category table. 無意味単語テーブルの一例を示す図である。It is a figure which shows an example of a meaningless word table. 各発話者の総文字数テーブルの一例を示す図である。It is a figure which shows an example of the total character number table of each speaker. 無意味単語除去後の発話内容Aの正規化頻度テーブルである。It is a normalization frequency table of the utterance content A after a meaningless word removal. 無意味単語除去後の発話内容Bの正規化頻度テーブルである。It is a normalization frequency table of the utterance content B after a meaningless word removal. 無意味単語除去後の発話内容Cの正規化頻度テーブルである。It is a normalization frequency table of the utterance content C after a meaningless word removal. 無意味単語除去後の発話内容Aの相対出現位置テーブルである。It is a relative appearance position table of the utterance content A after a meaningless word removal. 無意味単語除去後の発話内容Bの相対出現位置テーブルである。It is a relative appearance position table of the utterance content B after a meaningless word removal. 無意味単語除去後の発話内容Cの相対出現位置テーブルである。It is a relative appearance position table of the utterance content C after a meaningless word removal. 無意味、低頻度単語除去後の重み付け平均頻度テーブルの一例を示す図である。It is a figure which shows an example of the weighted average frequency table after a meaningless and low frequency word removal. 無意味、低頻度単語除去後の重み付け相対出現位置テーブルである。It is a weighted relative appearance position table after meaningless and low frequency word removal. 無意味、低頻度単語除去後の平均頻度標準偏差テーブルの一例を示す図である。It is a figure which shows an example of the average frequency standard deviation table after a meaningless low frequency word removal. 無意味、低頻度単語除去後の出現位置標準偏差テーブルの一例を示すであるIt is an example of an appearance position standard deviation table after meaningless, low-frequency word removal 出現頻度スコア係数テーブルの一例を示す図である。It is a figure which shows an example of an appearance frequency score coefficient table. 出現位置スコア係数テーブルの一例を示す図である。It is a figure which shows an example of an appearance position score coefficient table. 生成された評価式により、発話内容Xを評価する処理を示すフローチャートである。It is a flowchart which shows the process which evaluates the utterance content X with the produced | generated evaluation formula.

以下、本発明に係る一実施形態を、図1ないし図18Bを用いて説明する。   Hereinafter, an embodiment according to the present invention will be described with reference to FIGS. 1 to 18B.

先ず、図1ないし図4を用いて本発明の一実施形態に係る発話内容評価システムの構成について説明する。図1は、本発明の一実施形態に係る発話内容評価システムのブロック図である。図2は、本発明の一実施形態に係る発話内容評価システムのハードウェア構成図である。図3は、過去発話内容蓄積部と評価基準生成部の詳細な機能ブロック図である。図4は、発話内容評価部の詳細な機能ブロック図である。   First, the configuration of an utterance content evaluation system according to an embodiment of the present invention will be described with reference to FIGS. 1 to 4. FIG. 1 is a block diagram of an utterance content evaluation system according to an embodiment of the present invention. FIG. 2 is a hardware configuration diagram of the utterance content evaluation system according to the embodiment of the present invention. FIG. 3 is a detailed functional block diagram of the past utterance content accumulation unit and the evaluation criterion generation unit. FIG. 4 is a detailed functional block diagram of the utterance content evaluation unit.

本実施形態の発話内容評価システムは、図1に示されるように、音声認識部101、評価基準生成部102、発話内容評価部103、評価結果格納部104、過去発話内容蓄積部105からなる。   As shown in FIG. 1, the utterance content evaluation system according to the present embodiment includes a speech recognition unit 101, an evaluation reference generation unit 102, an utterance content evaluation unit 103, an evaluation result storage unit 104, and a past utterance content accumulation unit 105.

音声認識部101は、評価対象の発話データをテキストデータに変換し、発話内容106として発話内容評価部103に送信する。
評価基準生成部102は、過去発話内容蓄積部105に蓄積された発話内容と対応するスコアを、それぞれ過去発話内容108と過去発話スコア109として受信し、評価基準を自動生成し、生成評価基準107として発話内容評価部103に送信する。
The speech recognition unit 101 converts the utterance data to be evaluated into text data, and transmits it as the utterance content 106 to the utterance content evaluation unit 103.
The evaluation reference generation unit 102 receives the scores corresponding to the utterance contents stored in the past utterance content storage unit 105 as the past utterance contents 108 and the past utterance score 109, respectively, automatically generates the evaluation reference, and generates the generation evaluation reference 107. To the utterance content evaluation unit 103.

発話内容評価部103は、評価基準生成部102から受信した生成評価基準107に基づき、発話のスコアを計算し、発話内容評価結果110として評価結果格納部104に送信する。
評価結果格納部104は、発話内容評価部103から受信した発話内容評価結果110を格納する。
The utterance content evaluation unit 103 calculates the utterance score based on the generation evaluation criterion 107 received from the evaluation criterion generation unit 102 and transmits the utterance score as the utterance content evaluation result 110 to the evaluation result storage unit 104.
The evaluation result storage unit 104 stores the utterance content evaluation result 110 received from the utterance content evaluation unit 103.

過去発話内容蓄積部105は、発話内容と対応するスコアを過去発話内容として格納する。   The past utterance content accumulation unit 105 stores a score corresponding to the utterance content as past utterance content.

次に、図2を用いて本実施形態の発話内容評価システムのハードウェア構成について説明する。
発話内容評価システムのハードウェア構成としては、例えば、図2に示されるような一般的な情報処理装置400で実現される。
情報処理装置400は、CPU(Central Processing Unit)402、主記憶装置404、ネットワークI/F406、表示I/F408、入出力I/F410、補助記憶I/F412が、バスにより結合された形態になっている。
Next, the hardware configuration of the utterance content evaluation system of this embodiment will be described with reference to FIG.
The hardware configuration of the utterance content evaluation system is realized by, for example, a general information processing apparatus 400 as shown in FIG.
The information processing apparatus 400 is configured such that a CPU (Central Processing Unit) 402, a main storage device 404, a network I / F 406, a display I / F 408, an input / output I / F 410, and an auxiliary storage I / F 412 are coupled by a bus. ing.

CPU402は、情報処理装置400の各部を制御し、主記憶装置404に必要なプログラムをロードして実行する。   The CPU 402 controls each unit of the information processing device 400 and loads and executes a necessary program in the main storage device 404.

主記憶装置404は、通常、RAMなどの揮発メモリで構成され、CPU402が実行するプログラム、参照するデータが記憶される。   The main storage device 404 is generally composed of a volatile memory such as a RAM, and stores a program executed by the CPU 402 and data to be referred to.

ネットワークI/F406は、ネットワークと接続するためのインタフェースである。 表示I/F408は、LCD(Liquid Crystal Display)などの表示装置420を接続するためのインタフェースである。   A network I / F 406 is an interface for connecting to a network. A display I / F 408 is an interface for connecting a display device 420 such as an LCD (Liquid Crystal Display).

入出力I/F410は、入出力装置を接続するためのインタフェースである。図5の例では、キーボード430とポインティングデバイスのマウス432が接続されている。   The input / output I / F 410 is an interface for connecting an input / output device. In the example of FIG. 5, a keyboard 430 and a pointing device mouse 432 are connected.

補助記憶I/F412は、HDD(Hard Disk Drive)450やDVDドライブなどの補助記憶装置を接続するためのインタフェースである。
HDD450は、大容量の記憶容量を有しており、本実施形態を実行するためのプログラムが格納されている。本実施形態の情報処理装置400には、音声認識プログラム460、評価基準生成プログラム462、発話内容評価プログラム464がインストールされている。また、データベースとして、過去発話内容DB470、評価基準生成DB472、発話内容評価DB474を保持している。
The auxiliary storage I / F 412 is an interface for connecting an auxiliary storage device such as an HDD (Hard Disk Drive) 450 or a DVD drive.
The HDD 450 has a large storage capacity, and stores a program for executing this embodiment. A speech recognition program 460, an evaluation reference generation program 462, and an utterance content evaluation program 464 are installed in the information processing apparatus 400 of this embodiment. In addition, a past utterance content DB 470, an evaluation reference generation DB 472, and an utterance content evaluation DB 474 are held as databases.

音声認識プログラム460は、評価対象の発話データをテキストデータに変換し、発話内容として発話内容評価プログラム464に受け渡す。評価基準生成プログラム462は、過去発話内容蓄積DB470に蓄積された発話内容と対応するスコアを、それぞれ過去発話内容と過去発話スコアとして参照し、評価基準を自動生成し、生成評価基準として発話内容評価プログラムに受け渡す。   The speech recognition program 460 converts the utterance data to be evaluated into text data, and passes it to the utterance content evaluation program 464 as the utterance content. The evaluation criterion generation program 462 refers to the scores corresponding to the utterance contents stored in the past utterance content storage DB 470 as the past utterance contents and the past utterance scores, respectively, automatically generates an evaluation criterion, and evaluates the utterance contents as the generation evaluation criterion. Hand it over to the program.

発話内容評価プログラム464は、評価基準生成プログラムで生成された生成評価基準に基づき、発話のスコアを計算し、発話内容評価結果として評価結果格納DB472に格納する。   The utterance content evaluation program 464 calculates the utterance score based on the generation evaluation criterion generated by the evaluation criterion generation program, and stores it in the evaluation result storage DB 472 as the utterance content evaluation result.

過去発話内容蓄積DB470は、過去の発話内容と、それに対応するスコアを過去発話内容として格納するデータベースである。   The past utterance content accumulation DB 470 is a database that stores past utterance content and the corresponding score as past utterance content.

評価基準生成DB472は、評価基準時に作られるテーブル類を格納するデータベースである。   The evaluation reference generation DB 472 is a database that stores tables created at the time of evaluation reference.

評価結果格納DB474は、発話内容評価時に作られるテーブル類と、発話内容評価結果を格納するデータベースである。   The evaluation result storage DB 474 is a database that stores tables created at the time of utterance content evaluation and utterance content evaluation results.

次に、図3を用いて過去発話内容蓄積部と、評価基準生成部の詳細な機能構成を説明する。   Next, detailed functional configurations of the past utterance content accumulation unit and the evaluation criterion generation unit will be described with reference to FIG.

発話内容格納部201は、過去発話内容108の発話内容を、単語リスト抽出部208と総文字数カウント部203に送信する。
総文字数カウント部203は、発話内容格納部201から受信した過去発話内容108から各発話毎に総文字数をカウントし、総文字数情報204として総文字数格納部205に送信する。
The utterance content storage unit 201 transmits the utterance content of the past utterance content 108 to the word list extraction unit 208 and the total character count unit 203.
The total character count unit 203 counts the total number of characters for each utterance from the past utterance content 108 received from the utterance content storage unit 201 and transmits the total number of characters as total character number information 204 to the total character number storage unit 205.

総文字数格納部205は、総文字数カウント部203から受信した総文字数情報204を格納し、総文字数データ206として正規化頻度計算部215と、相対位置計算部224に送信する。   The total character number storage unit 205 stores the total character number information 204 received from the total character number count unit 203, and transmits the total character number information 204 to the normalization frequency calculation unit 215 and the relative position calculation unit 224.

単語リスト抽出部208は、発話内容格納部201から受信した過去発話内容108から単語のリストを抽出し、単語リスト209として単語頻度カウント部211と単語・頻度リスト格納部213に送信する。なお、単語の抽出には、特許文献2に記載されている技術等が利用できる。   The word list extraction unit 208 extracts a word list from the past utterance content 108 received from the utterance content storage unit 201, and transmits it as a word list 209 to the word frequency count unit 211 and the word / frequency list storage unit 213. In addition, the technique etc. which are described in patent document 2 can be utilized for extraction of a word.

単語頻度カウント部211は、単語リスト抽出部208から受信した単語リスト209に含まれる単語の発話中の出現頻度をカウントし、頻度リスト212として単語・頻度リスト格納部214に送信する。   The word frequency counting unit 211 counts the appearance frequency of words included in the word list 209 received from the word list extraction unit 208 during utterance, and transmits the frequency as a frequency list 212 to the word / frequency list storage unit 214.

単語、頻度リスト格納部213は、単語リスト抽出部208から受信した単語リスト209を抽出単語リストとして、単語頻度カウント部211から受信した頻度リスト212を抽出単語頻度リストとして格納し、単語・頻度リスト214として正規化頻度計算部215に送信する。   The word / frequency list storage unit 213 stores the word list 209 received from the word list extraction unit 208 as an extracted word list, and stores the frequency list 212 received from the word frequency count unit 211 as an extracted word frequency list. It is transmitted to the normalization frequency calculation unit 215 as 214.

正規化頻度計算部215は、単語、頻度リスト格納部213から受信した単語・頻度リスト214にユーザ定義カテゴリテーブル格納部217から受信したユーザ定義カテゴリ情報216を追加し、総文字数格納部205から受信した総文字数データ206から、正規化頻度を計算する。正規化頻度の意味については、後述する。そして、ユーザ定義カテゴリ情報216を参照して、正規化頻度データ218を加工し、それを無意味単語除去部219に送信する。   The normalized frequency calculation unit 215 adds the user-defined category information 216 received from the user-defined category table storage unit 217 to the word / frequency list 214 received from the word / frequency list storage unit 213, and receives it from the total character number storage unit 205. The normalization frequency is calculated from the total number of characters data 206. The meaning of the normalization frequency will be described later. Then, with reference to the user-defined category information 216, the normalized frequency data 218 is processed and transmitted to the meaningless word removal unit 219.

無意味単語除去部219は、正規化頻度計算部215から受信した正規化頻度データ218から、無意味単語テーブル格納部221から受信した無意味単語リスト220に含まれる単語を除去し、無意味単語除去済正規化頻度情報222として正規化頻度格納部223と相対位置計算部224に送信する。   The meaningless word removal unit 219 removes words included in the meaningless word list 220 received from the meaningless word table storage unit 221 from the normalized frequency data 218 received from the normalization frequency calculation unit 215, and the meaningless word The removed normalized frequency information 222 is transmitted to the normalized frequency storage unit 223 and the relative position calculation unit 224.

正規化頻度格納部223は、無意味単語除去部218から受信した無意味単語除去済正規化頻度情報222を格納し、無意味単語除去済正規化頻度リスト226として重み付け平均頻度計算部232と、重み付け平均出現位置計算部236と平均頻度標準偏差計算部240と、出現位置標準偏差計算部244へ送信する。   The normalized frequency storage unit 223 stores the meaningless word removed normalized frequency information 222 received from the meaningless word removal unit 218, and the weighted average frequency calculation unit 232 as the meaningless word removed normalized frequency list 226; The weighted average appearance position calculation unit 236, the average frequency standard deviation calculation unit 240, and the appearance position standard deviation calculation unit 244 are transmitted.

ユーザ定義カテゴリテーブル格納部217は、ユーザによって同一の扱いをするよう定義された単語を格納し、ユーザ定義カテゴリ情報216として正規化頻度計算部に送信する。   The user-defined category table storage unit 217 stores words defined to be handled in the same way by the user, and transmits them as user-defined category information 216 to the normalization frequency calculation unit.

無意味単語テーブル221は、評価基準の生成から除外する無意味な単語を格納し、無意味単語リスト220として無意味単語除去部219に送信する。   The meaningless word table 221 stores meaningless words to be excluded from the generation of evaluation criteria, and transmits the meaningless word list 220 to the meaningless word removal unit 219.

相対位置計算部224は、無意味単語除去部219から受信した無意味単語除去済正規化頻度データ222と、総文字数データ206から相対位置を計算する。そして、相対位置情報227として相対位置格納部228に送信する。   The relative position calculation unit 224 calculates the relative position from the meaningless word removed normalized frequency data 222 received from the meaningless word removal unit 219 and the total number of characters data 206. Then, the relative position information 227 is transmitted to the relative position storage unit 228.

相対位置格納部228は相対位置計算部224から受信した相対位置情報227を格納し、相対位置情報リスト229として重み付け平均出現位置計算部236と出現位置標準偏差計算部244に送信する。   The relative position storage unit 228 stores the relative position information 227 received from the relative position calculation unit 224 and transmits the relative position information list 229 to the weighted average appearance position calculation unit 236 and the appearance position standard deviation calculation unit 244.

スコア格納部230は、各発話に対応するスコアを格納し、過去発話スコア109として、重み付け平均頻度計算部232と重み付け平均出現位置計算部236と平均頻度標準偏差計算部240と出現位置標準偏差計算部244へ送信する。   The score storage unit 230 stores a score corresponding to each utterance and calculates a weighted average frequency calculation unit 232, a weighted average appearance position calculation unit 236, an average frequency standard deviation calculation unit 240, and an appearance position standard deviation as the past utterance score 109. To the unit 244.

重み付け平均頻度計算部232は、正規化頻度格納部223から受信した無意味単語除去済み正規化頻度リスト226からスコアにより重み付けした平均頻度を計算する。なお、重み付け平均頻度については、後述する。そして、重み付け平均頻度情報233として重み付け平均頻度格納部234に送信する。   The weighted average frequency calculation unit 232 calculates an average frequency weighted by a score from the meaningless word removed normalized frequency list 226 received from the normalized frequency storage unit 223. The weighted average frequency will be described later. The weighted average frequency information 233 is transmitted to the weighted average frequency storage unit 234.

重み付け平均頻度格納部234は、重み付け平均頻度計算部232から受信した重み付け平均頻度情報233を格納し、重み付け平均頻度情報リスト235としてスコア係数計算部248に送信する。   The weighted average frequency storage unit 234 stores the weighted average frequency information 233 received from the weighted average frequency calculation unit 232 and transmits the weighted average frequency information list 235 to the score coefficient calculation unit 248.

平均頻度標準偏差計算部240は、正規化頻度格納部223から受信した無意味単語除去済み正規化頻度リスト226から標準偏差を計算する。そして、平均頻度標準偏差情報241として、平均頻度標準偏差格納部242に送信する。   The average frequency standard deviation calculator 240 calculates the standard deviation from the meaningless word removed normalized frequency list 226 received from the normalized frequency storage 223. Then, the average frequency standard deviation information 241 is transmitted to the average frequency standard deviation storage unit 242.

平均頻度標準偏差格納部242は、平均頻度標準偏差計算部240から受信した重み付け平均頻度標準偏差情報241を格納し、平均頻度標準偏差情報リスト243としてスコア係数計算部248に送信する。   The average frequency standard deviation storage unit 242 stores the weighted average frequency standard deviation information 241 received from the average frequency standard deviation calculation unit 240, and transmits the weighted average frequency standard deviation information list 243 to the score coefficient calculation unit 248.

重み付け平均出現位置計算部236は、正規化頻度格納部223から受信した無意味単語除去済み正規化頻度リスト226と相対位置格納部228から受信した相対位置情報リスト229からスコアにより重み付けした平均出現位置を計算する。なお、重み付けした平均出現位置については、後述する。そして、重み付け平均出現位置情報237として重み付け平均出現位置格納部238に送信する。   The weighted average appearance position calculation unit 236 calculates the average appearance position weighted by a score from the normalized frequency list 226 with meaningless word removal received from the normalization frequency storage unit 223 and the relative position information list 229 received from the relative position storage unit 228. Calculate The weighted average appearance position will be described later. Then, the weighted average appearance position information 237 is transmitted to the weighted average appearance position storage unit 238.

重み付け平均出現位置格納部238は、重み付け平均出現位置計算部236から受信した重み付け平均出現位置情報237を格納し、重み付け平均出現位置情報リスト239としてスコア係数計算部248に送信する。   The weighted average appearance position storage unit 238 stores the weighted average appearance position information 237 received from the weighted average appearance position calculation unit 236 and transmits the weighted average appearance position information list 239 to the score coefficient calculation unit 248.

出現位置標準偏差計算部244は、正規化頻度格納部223から受信した無意味単語除去済み正規化頻度リスト226と相対位置格納部228から受信した相対位置情報リスト229から標準偏差を計算する。そして、出現位置標準偏差情報245として、出現位置標準偏差格納部246に送信する。   The appearance position standard deviation calculation unit 244 calculates the standard deviation from the meaningless word removed normalized frequency list 226 received from the normalization frequency storage unit 223 and the relative position information list 229 received from the relative position storage unit 228. Then, the appearance position standard deviation information 245 is transmitted to the appearance position standard deviation storage unit 246.

出現位置標準偏差格納部246は、出現位置標準偏差計算部244から受信した重み付け出現位置標準偏差情報245を格納し、出現位置標準偏差情報リスト247としてスコア係数計算部248に送信する。   The appearance position standard deviation storage unit 246 stores the weighted appearance position standard deviation information 245 received from the appearance position standard deviation calculation unit 244 and transmits it to the score coefficient calculation unit 248 as the appearance position standard deviation information list 247.

スコア係数計算部248は、重み付け平均頻度格納部234から受信した重み付け平均頻度情報リスト235と、平均頻度標準偏差格納部242から受信した平均頻度標準偏差情報リスト243と、重み付け平均出現位置格納部238から受信した重み付け平均出現位置情報リスト239と、出現位置標準偏差格納部246から受信した重み付け出現位置標準偏差情報リスト247から、単語ごとに出現頻度と出現位置の重み付け平均値と標準偏差を抽出する。そして、それらに基づき、単語ごとに、スコア係数を計算し、スコア係数情報225をスコア係数格納部210に送信する。なお、スコア係数の計算の仕方は、後述する。   The score coefficient calculation unit 248 includes a weighted average frequency information list 235 received from the weighted average frequency storage unit 234, an average frequency standard deviation information list 243 received from the average frequency standard deviation storage unit 242, and a weighted average appearance position storage unit 238. From the weighted average appearance position information list 239 received from, and the weighted appearance position standard deviation information list 247 received from the appearance position standard deviation storage unit 246, the appearance frequency, the weighted average value of the appearance position, and the standard deviation are extracted for each word. . Based on them, a score coefficient is calculated for each word, and the score coefficient information 225 is transmitted to the score coefficient storage unit 210. A method for calculating the score coefficient will be described later.

スコア係数格納部210は、スコア係数計算部248から受信したスコア係数情報225を格納する。   The score coefficient storage unit 210 stores the score coefficient information 225 received from the score coefficient calculation unit 248.

次に、図4を用いて、発話評価基準生成部の詳細な機能構成を説明する。
発話評価基準生成部103の機能構成は、図4に示されるように、総文字数カウント部203、総文字数格納部205、単語リスト抽出部208、単語頻度カウント部211、単語・頻度リスト格納部213、正規化頻度計算部215、無意味単語除去部219、正規化頻度格納部223、ユーザ定義カテゴリテーブル格納部217、無意味単語テーブル221、相対位置計算部224、相対位置格納部228の部分は、図3に示した評価基準生成部102と同様である。
Next, a detailed functional configuration of the utterance evaluation reference generation unit will be described with reference to FIG.
As shown in FIG. 4, the functional configuration of the utterance evaluation reference generation unit 103 includes a total character count unit 203, a total character count storage unit 205, a word list extraction unit 208, a word frequency count unit 211, and a word / frequency list storage unit 213. The normalized frequency calculation unit 215, meaningless word removal unit 219, normalization frequency storage unit 223, user-defined category table storage unit 217, meaningless word table 221, relative position calculation unit 224, and relative position storage unit 228 are: This is the same as the evaluation reference generation unit 102 shown in FIG.

そして、さらに、スコア計算部250と、スコア格納部260を有する。スコア計算部250は、頻度に関するスコアを計算する頻度スコア計算部252と、出現位置スコア計算部254からなる。   Further, it has a score calculation unit 250 and a score storage unit 260. The score calculation unit 250 includes a frequency score calculation unit 252 that calculates a score related to frequency and an appearance position score calculation unit 254.

頻度スコア計算部252は、評価基準生成部102から、単語ごとの重み付け平均頻度と、頻度スコア係数を受信し、頻度に関するスコアを計算する。   The frequency score calculation unit 252 receives the weighted average frequency for each word and the frequency score coefficient from the evaluation reference generation unit 102, and calculates a score related to the frequency.

出現位置スコア計算部254は、評価基準生成部102から、単語ごとの重み付け出現位置と、出現位置スコア係数を受信し、出現位置に関するスコアを計算する。そして、両者のスコアは、加算され、最終的に、発話内容に関するスコアとして、スコア係数部210に格納される。   The appearance position score calculation unit 254 receives the weighted appearance position and the appearance position score coefficient for each word from the evaluation reference generation unit 102, and calculates a score related to the appearance position. Then, both scores are added and finally stored in the score coefficient unit 210 as a score related to the utterance content.

次に、図5、図6Aないし図6C、図7を用いて本実施形態の発話内容評価基準の生成と、それに基づく発話内容の評価の概要について説明する。図5は、発話内容評価基準の生成と、それに基づく発話内容の評価の概要を説明する図である。図6Aは、発話内容Aの内容を示す図である。図6Bは、発話内容Bの内容を示す図である。図6Cは、発話内容Cの内容を示す図である。図7は、各発話のスコアを示すスコアテーブルの一例を示す図である。   Next, the outline | summary of the production | generation of the speech content evaluation criteria of this embodiment and evaluation of the speech content based on it is demonstrated using FIG. 5, FIG. 6A thru | or FIG. 6C, FIG. FIG. 5 is a diagram for explaining the outline of the generation of the utterance content evaluation criteria and the evaluation of the utterance content based thereon. FIG. 6A is a diagram showing the content of the utterance content A. FIG. 6B is a diagram showing the content of the utterance content B. FIG. 6C is a diagram showing the content of the utterance content C. FIG. 7 is a diagram illustrating an example of a score table indicating the score of each utterance.

本実施形態の発話内容評価システムは、図5に示すように、過去の発話内容のサンプルにスコア付けをしておき、それにより評価基準に作成(評価式を生成)して、それにより、ターゲットとなる発話内容を評価するものである。本実施形態の例では、図6Aないし図6Cに示されるように、発話内容A、発話内容B、発話内容Cがあり、それらにスコアとして図7に示すように、それぞれ20、10、2がつけられているものとする。そして、それにより評価式を生成し、その評価式により発話内容Xを評価する。   As shown in FIG. 5, the utterance content evaluation system according to the present embodiment scores a sample of past utterance content, thereby creating an evaluation criterion (generating an evaluation formula), thereby generating a target. The content of the utterance is evaluated. In the example of the present embodiment, as shown in FIGS. 6A to 6C, there are utterance content A, utterance content B, and utterance content C. As shown in FIG. It shall be attached. And an evaluation formula is produced | generated by it and the utterance content X is evaluated by the evaluation formula.

各発話内容のスコアは、高いほどよいものとし、コールセンターのオペレータの熟練者、管理者などが、発話者の経歴や技能などを考慮して採点するものとする。   The higher the score of each utterance content, the better the score, and the call center operator's expert, manager, etc. shall score in consideration of the speaker's history and skills.

次に、図8及び図9、図10Aないし図R3を用いて本実施形態の評価式生成までの手順を説明する。図8は、正規化頻度計算、相対位置計算までの処理を示すフローチャートである。図9は、評価式の生成までの処理を示すフローチャートである。図10Aは、発話内容Aの頻度テーブルを示す図である。図10Bは、発話内容Bの頻度テーブルを示す図である。図10Cは、発話内容Cの頻度テーブルを示す図である。図11は、ユーザ定義カテゴリテーブルの一例を示す図である。図12は、無意味単語テーブルの一例を示す図である。図13は、各発話者の総文字数テーブルの一例を示す図である。図14Aは、無意味単語除去後の発話内容Aの正規化頻度テーブルである。図14Bは、無意味単語除去後の発話内容Bの正規化頻度テーブルである。図14Cは、無意味単語除去後の発話内容Cの正規化頻度テーブルである。図15Aは、無意味単語除去後の発話内容Aの相対出現位置テーブルである。図15Bは、無意味単語除去後の発話内容Bの相対出現位置テーブルである。図15Cは、無意味単語除去後の発話内容Cの相対出現位置テーブルである。図16Aは、無意味、低頻度単語除去後の重み付け平均頻度テーブルの一例を示す図である。図16Bは、無意味、低頻度単語除去後の重み付け相対出現位置テーブルである。図17Aは、無意味、低頻度単語除去後の平均頻度標準偏差テーブルの一例を示す図である。図17Bは、無意味、低頻度単語除去後の出現位置標準偏差テーブルの一例を示すである。図18Aは、出現頻度スコア係数テーブルの一例を示す図である。図18Bは、出現位置スコア係数テーブルの一例を示す図である。   Next, the procedure up to the generation of the evaluation formula of this embodiment will be described with reference to FIGS. 8 and 9 and FIGS. 10A to R3. FIG. 8 is a flowchart showing processing up to normalization frequency calculation and relative position calculation. FIG. 9 is a flowchart showing processing up to generation of the evaluation formula. FIG. 10A is a diagram showing a frequency table of utterance content A. FIG. FIG. 10B is a diagram showing a frequency table of the utterance content B. FIG. 10C is a diagram showing a frequency table of utterance contents C. FIG. 11 is a diagram illustrating an example of a user-defined category table. FIG. 12 is a diagram illustrating an example of a meaningless word table. FIG. 13 is a diagram illustrating an example of a total character count table for each speaker. FIG. 14A is a normalization frequency table of utterance content A after meaningless word removal. FIG. 14B is a normalization frequency table of utterance content B after meaningless word removal. FIG. 14C is a normalization frequency table of utterance content C after meaningless word removal. FIG. 15A is a relative appearance position table of the utterance content A after the meaningless word is removed. FIG. 15B is a relative appearance position table of the utterance content B after the meaningless word is removed. FIG. 15C is a relative appearance position table of the utterance content C after the meaningless word is removed. FIG. 16A is a diagram illustrating an example of a weighted average frequency table after meaningless, low-frequency word removal. FIG. 16B is a weighted relative appearance position table after meaningless, low-frequency word removal. FIG. 17A is a diagram illustrating an example of an average frequency standard deviation table after meaningless, low-frequency word removal. FIG. 17B shows an example of an appearance position standard deviation table after meaningless and low-frequency word removal. FIG. 18A is a diagram illustrating an example of an appearance frequency score coefficient table. FIG. 18B is a diagram illustrating an example of an appearance position score coefficient table.

先ず、図8を追いながら正規化頻度計算までの処理について説明する。   First, processing up to normalization frequency calculation will be described with reference to FIG.

最初に、発話内容格納部302の発話から一つを選択する(S301)。
次に、単語リスト抽出部208により、選択した発話から単語を抽出する(S302)。
次に、単語頻度カウント部211により、出現頻度をカウントする(S303)。これにより、図10Aないし図10Cに示した頻度テーブルが生成され、単語・頻度格納部213に格納される。ここで、頻度テーブルのフォーマットは、図10Aないし図10Cに示されるように、それぞれ、発話内容Aの抽出単語リスト801と、発話内容Aの単語出現頻度802、発話内容Bの抽出単語リスト901と、発話内容Bの単語出現頻度902、発話内容Cの抽出単語リスト1001、発話内容Cの単語出現頻度1002が対となっている。
First, one of the utterances in the utterance content storage unit 302 is selected (S301).
Next, the word list extraction unit 208 extracts words from the selected utterance (S302).
Next, the appearance frequency is counted by the word frequency counting unit 211 (S303). As a result, the frequency tables shown in FIGS. 10A to 10C are generated and stored in the word / frequency storage unit 213. Here, as shown in FIGS. 10A to 10C, the format of the frequency table includes the extracted word list 801 of the utterance content A, the word appearance frequency 802 of the utterance content A, and the extracted word list 901 of the utterance content B, respectively. The word appearance frequency 902 of the utterance content B, the extracted word list 1001 of the utterance content C, and the word appearance frequency 1002 of the utterance content C are paired.

そして、総文字数カウント部203により、各発話の総文字数をカウントする(S304)。これにより、図13に示した総文字数テーブルが作成される。   Then, the total number of characters of each utterance is counted by the total character number counting unit 203 (S304). As a result, the total number of characters table shown in FIG. 13 is created.

次に、ユーザ定義カテゴリテーブル格納部217の図11に示したユーザ定義カテゴリテーブルを参照し、定義されているユーザ定義カテゴリと、各々の単語に対して、正規化頻度計算部215により、正規化頻度を計算する(S305)。ユーザ定義カテゴリとは、そのカテゴリに属する単語は、一つのものとして扱う単位である。例えば、図11に示されるように、「推奨単語カテゴリ」として、「今回に限り」、「今回だけ」、「今回のみ」は、実質上、同じ単語として扱われる。また、正規化頻度とは、その単語の頻度を、発話の総文字数で割った商である。   Next, with reference to the user-defined category table shown in FIG. 11 of the user-defined category table storage unit 217, the normalized frequency calculation unit 215 normalizes the defined user-defined category and each word. The frequency is calculated (S305). A user-defined category is a unit that handles words belonging to the category as one. For example, as shown in FIG. 11, as “recommended word categories”, “only this time”, “only this time”, and “only this time” are treated as substantially the same word. The normalization frequency is a quotient obtained by dividing the frequency of the word by the total number of utterances.

次に、無意味単語除去部219により、無意味単語テーブル格納部221に格納された図12に示される無意味単語テーブルを参照して、単語のリストの中から、無意味単語を除去する。そして、図14Aないし図14Cに示した無意味単語除去後の正規化頻度テーブルを、正規化頻度格納部223に格納する(S306)。ここで、無意味単語とは、発話内容の評価には寄与しないとして排除される単語である。ここで、正規化頻度テーブルのフォーマットは、図14Aないし図14Cに示されるように、それぞれ、発話内容Aの無意味単語除去後単語リスト1401と、発話内容Aの正規化頻度リスト1402、発話内容Bの無意味単語除去後単語リスト1501と、発話内容Bの正規化頻度リスト1502、発話内容Cの無意味単語除去後単語リスト1601と、発話内容Cの正規化頻度リスト1602が、それぞれ対になっている。   Next, the meaningless word removal unit 219 refers to the meaningless word table shown in FIG. 12 stored in the meaningless word table storage unit 221 and removes the meaningless word from the word list. Then, the normalized frequency table after the meaningless word removal shown in FIGS. 14A to 14C is stored in the normalized frequency storage unit 223 (S306). Here, the meaningless word is a word that is excluded as not contributing to the evaluation of the utterance content. Here, as shown in FIGS. 14A to 14C, the format of the normalization frequency table includes a word list 1401 after removal of meaningless words of utterance content A, a normalization frequency list 1402 of utterance content A, and utterance content, respectively. A word list 1501 after removal of B meaningless words, a normalization frequency list 1502 of utterance contents B, a word list 1601 after removal of meaningless words of utterance contents C, and a normalization frequency list 1602 of utterance contents C are paired. It has become.

次に、ユーザ定義カテゴリテーブル格納部217の図11に示したユーザ定義カテゴリテーブルを参照し、定義されているユーザ定義カテゴリと、各々の単語に対して、相対位置計算部224により、相対位置を計算する(S307)。また、相対位置とは、発話の全ての文字に対して、その単語の先頭がどこででてくるのかを先頭が0、末尾が1として、スケールとして割り振った数値である。   Next, with reference to the user-defined category table shown in FIG. 11 of the user-defined category table storage unit 217, the relative position calculation unit 224 determines the relative position for the defined user-defined category and each word. Calculate (S307). Further, the relative position is a numerical value assigned as a scale with the beginning of 0 and the end of 1 for the position of the word for all characters in the utterance.

次に、無意味単語除去部219により、無意味単語テーブル格納部221に格納された図12に示される無意味単語テーブルを参照して、単語のリストの中から、無意味単語を除去する。そして、図15Aないし図15Cに示した無意味単語除去後の相対出現位置テーブルを、相対出現位置格納部228に格納する(S308)。単語が複数の個所で現れるときには、その相加平均をとるものとする。ここで、相対出現位置テーブルのフォーマットは、図15Aないし図15Cに示されるように、それぞれ、無意味単語除去後の発話内容Aの単語リスト2001、発話内容Aの相対出現位置リスト2002、無意味単語除去後の発話内容Bの単語リスト2101、発話内容Bの相対出現位置リスト2102、無意味単語除去後の発話内容C2201、発話内容Cの相対出現位置リスト2202が、それぞれ対になっている。   Next, the meaningless word removal unit 219 refers to the meaningless word table shown in FIG. 12 stored in the meaningless word table storage unit 221 and removes the meaningless word from the word list. Then, the relative appearance position table after the meaningless word removal shown in FIGS. 15A to 15C is stored in the relative appearance position storage unit 228 (S308). When a word appears in multiple places, the arithmetic average is taken. Here, as shown in FIGS. 15A to 15C, the format of the relative appearance position table includes the word list 2001 of the utterance content A after removal of the meaningless word, the relative appearance position list 2002 of the utterance content A, and the meaningless, respectively. The word list 2101 of the utterance content B after the word removal, the relative appearance position list 2102 of the utterance content B, the utterance content C2201 after removal of the meaningless word, and the relative appearance position list 2202 of the utterance content C are paired.

そして、未処理の発話がないか否かを判定し(S309)、未処理の発話があれば(S309:NO)、S301に戻り、未処理の発話がなければ(S309:YES)、処理を終了する。   Then, it is determined whether or not there is an unprocessed utterance (S309). If there is an unprocessed utterance (S309: NO), the process returns to S301, and if there is no unprocessed utterance (S309: YES), the process is performed. finish.

次に、図9を追いながら正規化頻度計算から、評価式生成までの処理について説明する。   Next, processing from normalization frequency calculation to evaluation formula generation will be described with reference to FIG.

先ず、正規化頻度格納部223に格納された正規化頻度テーブルの単語を一つ選択する(S401)。
そして、少なくとも一つの発話で該当の単語の正規化頻度が、所定の閾値より高いか否かを判定する(S402)。全ての発話で正規化頻度が、所定の閾値より高くない単語だった場合には(S402:NO)、その単語を処理せずに、S402の処理に戻り、少なくとも一つの発話で頻度が、所定の閾値より高い単語だった場合は、S404の処理に進む。これは、正規化頻度があまりに小さい単語については、評価式の生成の対象としないことを意味する。すべての単語を評価式の生成の対象としたいときには、所定の閾値を0とすればよい。
First, one word in the normalization frequency table stored in the normalization frequency storage unit 223 is selected (S401).
Then, it is determined whether or not the normalization frequency of the corresponding word in at least one utterance is higher than a predetermined threshold (S402). When the normalization frequency is not higher than a predetermined threshold for all utterances (S402: NO), the processing returns to the processing of S402 without processing the word, and the frequency is predetermined for at least one utterance. If the word is higher than the threshold, the process proceeds to S404. This means that a word whose normalization frequency is too low is not subject to generation of an evaluation formula. If it is desired to set all words as targets for generating an evaluation expression, the predetermined threshold value may be set to zero.

次に、スコア格納部230のスコアテーブルのスコアで重み付けした正規化頻度の平均値を、重み付け平均頻度として、重み付け平均頻度計算部232により計算する(S403)。重み付け平均頻度mは、以下の(式1)により計算される。 Next, the average value of the normalized frequencies weighted by the scores in the score table of the score storage unit 230 is calculated by the weighted average frequency calculation unit 232 as the weighted average frequency (S403). The weighted average frequency m F is calculated by the following (Formula 1).

Figure 2017054307
Figure 2017054307

ここで、式中のΣは、スコア付けしたサンプルの発話内容A、発話内容B、発話内容Cにわたってとるものとし、F(i)は、正規化頻度テーブルに格納されている発話内容iにおけるその単語の、正規化頻度であり、S(i)は、スコアテーブルに格納されている発話内容iのスコアである。   Here, Σ in the equation is taken over the utterance content A, utterance content B, and utterance content C of the scored sample, and F (i) is the utterance content i stored in the normalization frequency table. The normalization frequency of the word, and S (i) is the score of the utterance content i stored in the score table.

発話内容A、発話内容B、発話内容Cの各単語の重み付け平均頻度は、図16Aに示されるように、重み付け平均頻度テーブルに格納される。   The weighted average frequency of each word of the utterance content A, the utterance content B, and the utterance content C is stored in the weighted average frequency table as shown in FIG. 16A.

次に、スコア格納部230のスコアテーブルのスコアで重み付けした正規化頻度の標準偏差を、平均頻度標準偏差σとして、平均頻度標準偏差計算部40により計算する。平均頻度標準偏差σは、以下の(式2)により計算される。 Next, the standard deviation of the normalized frequency weighted by the score in the score table of the score storage unit 230 is calculated by the average frequency standard deviation calculation unit 40 as the average frequency standard deviation σ F. The average frequency standard deviation σ F is calculated by the following (Formula 2).

Figure 2017054307
Figure 2017054307

発話内容A、発話内容B、発話内容Cの各単語の平均頻度標準偏差は、図17Aに示されるように、平均頻度標準偏差テーブルに格納される。   The average frequency standard deviation of each word of the utterance content A, the utterance content B, and the utterance content C is stored in the average frequency standard deviation table as shown in FIG. 17A.

次に、スコア格納部230のスコアテーブルのスコアで重み付けした出現位置の平均値を、重み付け平均出現位置として、重み付け平均出現位置計算部236により計算する(S405)。   Next, the average value of the appearance positions weighted by the scores in the score table of the score storage unit 230 is calculated by the weighted average appearance position calculation unit 236 as a weighted average appearance position (S405).

重み付け平均出現位置mは、以下の(式3)により計算される。 Weighted average appearance position m P is calculated by the following equation (3).

Figure 2017054307
Figure 2017054307

ここで、P(i)は、相対出現位置テーブルに格納されている発話内容iにおけるその単語の相対出現位置である。
発話内容A、発話内容B、発話内容Cの各単語の相対出現位置は、図16Bに示されるように、相対出現位置テーブルに格納される。
Here, P (i) is the relative appearance position of the word in the utterance content i stored in the relative appearance position table.
The relative appearance positions of the words of the utterance contents A, the utterance contents B, and the utterance contents C are stored in the relative appearance position table as shown in FIG. 16B.

次に、スコア格納部230のスコアテーブルのスコアで重み付けした相対出現位置の標準偏差を、出現位置標準偏差σとして、出現位置標準偏差計算部244により計算する(S406)。出現位置標準偏差σは、以下の(式4)により計算される。 Next, the appearance position standard deviation calculating unit 244 calculates the standard deviation of the relative appearance position weighted by the score in the score table of the score storage unit 230 as the appearance position standard deviation σ P (S406). The appearance position standard deviation σ P is calculated by the following (formula 4).

Figure 2017054307
Figure 2017054307

発話内容A、発話内容B、発話内容Cの各単語の出現位置標準偏差は、図17Bに示されるように、出現位置標準偏差テーブルに格納される。   The appearance position standard deviation of each word of the utterance content A, the utterance content B, and the utterance content C is stored in the appearance position standard deviation table as shown in FIG. 17B.

次に、各単語の出現頻度スコア係数を、スコア係数計算部248により計算する(S407)。   Next, the appearance frequency score coefficient of each word is calculated by the score coefficient calculation unit 248 (S407).

以下、出現頻度スコア係数の計算の仕方を説明する。
先ず、発話内容i(i=A,B,C)における出現頻度正規分布評価式Ei,Fを、以下の(式5)とする。
Hereinafter, a method of calculating the appearance frequency score coefficient will be described.
First, the appearance frequency normal distribution evaluation expression E i, F in the utterance content i (i = A, B, C) is defined as the following (Expression 5).

Figure 2017054307
Figure 2017054307

次に、発話内容iにおける出現頻度正規分布評価式と、そのスコアの差を評価する評価関数Gi,Fを、以下の(式6)により定義する。 Next, an appearance frequency normal distribution evaluation formula in the utterance content i and an evaluation function Gi , F for evaluating the difference between the scores are defined by the following (formula 6).

Figure 2017054307
Figure 2017054307

ここで、Xは、実数を動く変数であり、評価関数Gi,Fは、Xの二次式となっていること留意する。 Note that X is a variable that moves a real number, and the evaluation functions Gi , F are quadratic expressions of X.

そして、評価関数Gを、評価関数Gi,Fの発話内容i(i=A,B,C)にわたる和として、以下の(式7)により定義する。 Then, the evaluation function G F is defined as the sum of the utterance contents i (i = A, B, C) of the evaluation functions G i, F by the following (Equation 7).

Figure 2017054307
Figure 2017054307

求めるのは、評価関数Gが最小値をとるXの値である。評価関数Gは、下に凸の二次式であり、初等数学で知られているように、Xが、以下の(式8)のときに、最小値をとる。本実施形態では、(式8)の最小値をとるXの値を、各発話内容iにわたり、スコアの差を最小にするものとして、出現頻度スコア係数Cとする。 Finding is given, the evaluation function G F is the value of X which takes the minimum value. The evaluation function G F is a quadratic convex downward, as is known in elementary mathematics, X is, when the following Equation (8), takes the minimum value. In the present embodiment, the value of X that takes the minimum value of (Equation 8) is defined as the appearance frequency score coefficient C F that minimizes the difference in scores over the utterance contents i.

Figure 2017054307
Figure 2017054307

各単語の出現頻度スコア係数は、図18Aに示されるように、出現頻度スコア係数テーブルに格納される。   The appearance frequency score coefficient of each word is stored in the appearance frequency score coefficient table as shown in FIG. 18A.

次に、各単語の出現位置スコア係数を、スコア係数計算部248により計算する(S408)。   Next, an appearance position score coefficient of each word is calculated by the score coefficient calculation unit 248 (S408).

以下、出現位置スコア係数の計算の仕方を説明する。出現位置のスコア係数の計算の仕方は、上記の出現頻度スコア係数の求め方と同様である。   Hereinafter, a method of calculating the appearance position score coefficient will be described. The method of calculating the score coefficient of the appearance position is the same as the method of obtaining the appearance frequency score coefficient.

先ず、発話内容i(i=A,B,C)における出現位置正規分布評価式Ei,Pを、以下の(式9)とする。 First, the appearance position normal distribution evaluation expression E i, P in the utterance content i (i = A, B, C) is defined as the following (Expression 9).

Figure 2017054307
Figure 2017054307

次に、発話内容iにおける出現位置正規分布評価式と、そのスコアの差を評価する評価関数Gi,Pを、以下の(式10)により定義する。 Next, an appearance position normal distribution evaluation formula in the utterance content i and an evaluation function G i, P for evaluating the difference between the scores are defined by the following (formula 10).

Figure 2017054307
Figure 2017054307

ここで、Xは、実数を動く変数であり、評価関数Gi,Pは、Xの二次式となっていること留意する。 Note that X is a variable that moves a real number, and the evaluation function Gi , P is a quadratic expression of X.

そして、評価関数Gを、評価関数Gi,Pの発話内容i(i=A,B,C)にわたる和として、以下の(式11)により定義する。 The evaluation function GP is defined as the sum of the utterance contents i (i = A, B, C) of the evaluation functions G i, P by the following (Equation 11).

Figure 2017054307
Figure 2017054307

求めるのは、評価関数Gの最小値である。評価関数Gは、下に凸の二次式であり、初等数学で知られているように、Xが、以下の(式12)のときに、最小値をとる。本実施形態では、(式12)の最小値をとるXの値を、各発話内容iにわたり、スコアの差を最小にするものとして、出現位置スコア係数Cとする。 What is calculated is the minimum value of the evaluation function GP . The evaluation function GP is a quadratic expression convex downward, and, as is known in elementary mathematics, takes a minimum value when X is the following (Expression 12). In the present embodiment, the value of X that takes the minimum value of (Equation 12) is assumed to be the appearance position score coefficient C F that minimizes the difference in score over each utterance content i.

Figure 2017054307
Figure 2017054307

各単語の出現位置スコア係数は、図18Bに示されるように、出現位置スコア係数テーブルに格納される。   The appearance position score coefficient of each word is stored in the appearance position score coefficient table as shown in FIG. 18B.

これを、全ての発話内容i(i=A,B,C)の単語にわたって行ない(S409)、出現頻度スコア係数、出現位置スコア係数を求める。   This is performed over words of all utterance contents i (i = A, B, C) (S409), and an appearance frequency score coefficient and an appearance position score coefficient are obtained.

次に、図19を用いて生成された評価式により、発話内容Xを評価する処理について説明する。
図19は、生成された評価式により、発話内容Xを評価する処理を示すフローチャートである。
Next, processing for evaluating the utterance content X using the evaluation formula generated with reference to FIG. 19 will be described.
FIG. 19 is a flowchart illustrating a process of evaluating the utterance content X using the generated evaluation formula.

ここで、発話内容Xに対する評価値(スコア)をV(X)で表すこととする。
先ず、V(X)を初期化するために、0を代入する(S500)。
そして、発話内容Xの単語を一つ選択する(S501)。
Here, the evaluation value (score) for the utterance content X is represented by V (X).
First, 0 is substituted to initialize V (X) (S500).
Then, one word of the utterance content X is selected (S501).

次に、選択した単語の出現頻度スコアが、図18Aに示した出現頻度スコア係数テーブルにあるか否かを検索し(S502)、出現頻度スコア係数テーブルにあるときには(S502:YES)、選択した単語の出現頻度の評価式のスコアを計算する(S503)。   Next, it is searched whether or not the appearance frequency score of the selected word is in the appearance frequency score coefficient table shown in FIG. 18A (S502), and when it is in the appearance frequency score coefficient table (S502: YES), it is selected. The score of the evaluation formula of the word appearance frequency is calculated (S503).

以下、出現頻度の評価式のスコアの計算の仕方について説明する。
ここで、(式8)により求められた出現頻度スコア係数Cは、各単語により異なったものになるので、ある単語wに対応した出現頻度スコア係数Cを、C(w)と記述するものとする。同様に、(式1)により求められた重み付け平均頻度mで、ある単語wに対応する重み付け平均頻度を、m(w)とし、(式2)により求められた平均頻度標準偏差σで、ある単語wに対応する平均頻度標準偏差を、m(w)と記述するものとする。また、ある単語wに対応する正規化頻度を、F(w)と記述する。ここでは、図8に示したフローチャートの処理により、評価発話内容Xの単語に対して、無意味単語除去後の正規化頻度が求まっているものと仮定する。
Hereinafter, a method of calculating the score of the appearance frequency evaluation formula will be described.
Here, since the appearance frequency score coefficient C F obtained by (Equation 8) is different for each word, the appearance frequency score coefficient C F corresponding to a certain word w is described as C F (w). It shall be. Similarly, with the weighted average frequency m F obtained by (Equation 1), the weighted average frequency corresponding to a certain word w is m F (w), and the average frequency standard deviation σ F obtained by (Equation 2) is used. The average frequency standard deviation corresponding to a certain word w is described as m F (w). A normalization frequency corresponding to a certain word w is described as F (w). Here, it is assumed that the normalization frequency after removal of meaningless words is obtained for the words of the evaluation utterance content X by the processing of the flowchart shown in FIG.

このときに、ある単語wの出現頻度の評価式V(w)は、以下の(式13)で表される。 At this time, the evaluation formula V F (w) of the appearance frequency of a certain word w is expressed by the following (formula 13).

Figure 2017054307
Figure 2017054307

次に、選択した単語の出現位置スコアが、図18Bに示した出現位置スコア係数テーブルにあるか否かを検索し(S504)、出現位置スコア係数テーブルにあるときには(S502:YES)、選択した単語の出現位置の評価式のスコアを計算する(S503)。   Next, it is searched whether or not the appearance position score of the selected word is in the appearance position score coefficient table shown in FIG. 18B (S504), and when it is in the appearance position score coefficient table (S502: YES), it is selected. The score of the evaluation formula of the word appearance position is calculated (S503).

以下、出現位置の評価式のスコアの計算の仕方について説明する。出現頻度の評価式の場合と同様に、(式12)により求められた出現位置スコア係数Cは、各単語により異なったものになるので、ある単語wに対応した出現位置スコア係数Cを、C(w)と記述するものとする。同様に、(式3)により求められた重み付け出現位置mで、ある単語wに対応する重み付け出現位置を、m(w)とし、(式4)により求められた出現位置標準偏差σで、ある単語wに対応する出現位置標準偏差を、m(w)と記述するものとする。また、ある単語wに対応する相対出現位置を、P(w)と記述する。ここでは、図8のフローチャートに示した処理により、評価発話内容Xの単語に対して、相対位置が求まっているものと仮定する。 Hereinafter, a method of calculating the score of the evaluation formula for the appearance position will be described. As with the frequency of the evaluation formula, the appearance position score coefficients C P obtained by equation (12), since to differ by each word, the occurrence position score coefficients C P corresponding to a word w , C P (w). Similarly, weighting appearance position m P obtained by the (Equation 3), the weighting appearance position corresponding to a word w, and m P (w), the occurrence position standard deviation sigma P obtained by (Equation 4) The appearance position standard deviation corresponding to a certain word w is described as m P (w). A relative appearance position corresponding to a certain word w is described as P (w). Here, it is assumed that the relative position is obtained for the word of the evaluation utterance content X by the processing shown in the flowchart of FIG.

このときに、ある単語wの出現位置の評価式V(w)は、以下の(式14)で表される。 At this time, the evaluation expression V P (w) of the appearance position of a certain word w is expressed by the following (Expression 14).

Figure 2017054307
Figure 2017054307

そして、S503の出現頻度の評価式のスコアと、S504の出現位置の評価式のスコアを、V(X)に足しこむ。
そして、S501ないしS506の処理を、全ての単語にわたって行う(S507)。
V(X)は、最終的に、以下の(式15)により求められることになる。
Then, the score of the evaluation formula for the appearance frequency in S503 and the score of the evaluation formula for the appearance position in S504 are added to V (X).
Then, the processing from S501 to S506 is performed for all words (S507).
V (X) is finally obtained by the following (Formula 15).

Figure 2017054307
Figure 2017054307

ここで、単語wは、評価発話内容Xの全ての単語にわたるものとする。ただし、出現頻度スコア係数テーブルにない単語の出現頻度スコアと、出現位置スコア係数テーブルにない単語の出現位置スコアは除かれる。   Here, the word w covers all the words in the evaluation utterance content X. However, the appearance frequency score of a word not in the appearance frequency score coefficient table and the appearance position score of a word not in the appearance position score coefficient table are excluded.

上記のように、本実施形態の発話内容評価システムでは、スコア付けされた複数の発話のサンプルを用意し、それとの単語単位の出現頻度と、相対位置の関連を評価する評価式を生成し、それに基づいて、発話内容を評価する。したがって、経験のあるベテランの発話者の発話のサンプルのスコアを高いものにして、それとの比較により、あまり経験のない発話者による発話を自動的に、客観的に評価することができ、その評価値を発話者の発話技能の進歩の基準とすることもできる。   As described above, the utterance content evaluation system of the present embodiment prepares a plurality of scored utterance samples, generates an evaluation expression for evaluating the relationship between the appearance frequency of each word unit and the relative position thereof, Based on this, the utterance content is evaluated. Therefore, it is possible to automatically and objectively evaluate utterances by speakers with little experience by comparing the scores of utterances of experienced veteran speakers with high scores. The value can also be used as a basis for the progress of the speaker's speech skills.

101…音声認識部
102…評価基準生成部
103…発話内容評価部
104…評価結果格納部
105…過去発話内容蓄積部
106…発話内容
107…生成評価基準
108…過去発話内容
109…過去発話スコア
201…発話内容格納部
203…総文字数カウント部
204…総文字数情報
205…総文字数格納部
206…総文字数データ
208…単語リスト抽出部
209…単語リスト
210…スコア係数格納部
211…単語頻度カウント部
212…頻度リスト
213…単語・頻度リスト格納部
214…単語・頻度リスト
215…正規化頻度計算部
216…ユーザ定義カテゴリ情報
217…ユーザ定義カテゴリテーブル格納部
218…正規化頻度データ
219…無意味単語除去部
220…無意味単語リスト
221…無意味単語テーブル格納部
222…無意味単語除去済正規化頻度情報
223…正規化頻度格納部
224…相対位置計算部
225…スコア係数情報
226…無意味単語除去済正規化頻度リスト
227…相対位置情報
228…相対位置格納部
229…相対位置情報リスト
230…スコア格納部
232…重み付け平均頻度計算部
233…重み付け平均頻度情報
234…重み付け平均頻度格納部
235…重み付け平均頻度情報リスト
236…重み付け平均出現位置計算部
237…重み付け平均出現位置情報
238…重み付け平均出現位置格納部
239…重み付け平均出現位置情報リスト
240…平均頻度標準偏差計算部
241…重み付け平均頻度標準偏差情報
242…平均頻度標準偏差格納部
243…平均頻度標準偏差情報リスト
244…出現位置標準偏差計算部
245…重み付け出現位置標準偏差情報
246…出現位置標準偏差格納部
247…重み付け出現位置標準偏差情報リスト
248…スコア係数計算部
801…発話内容Aの抽出単語リスト
802…発話内容Aの単語出現頻度
901…発話内容Bの抽出単語リスト
902…発話内容Bの単語出現頻度
1001…発話内容Cの抽出単語リスト
1002…発話内容Cの単語出現頻度
1101…商品名カテゴリ単語リスト
1102…推奨単語カテゴリ単語リスト
1103…ノイズカテゴリ単語リスト
1201…無意味単語リスト
1301…発話リスト
1302…総文字数リスト
1401…発話内容Aの無意味単語除去後単語リスト
1402…発話内容Aの正規化頻度リスト
1501…発話内容Bの無意味単語除去後単語リスト
1502…発話内容Bの正規化頻度リスト
1601…発話内容Cの無意味単語除去後単語リスト
1602…発話内容Cの正規化頻度リスト
1701…発話リスト
1702…スコアリスト
1801…無意味、低頻度単語除去度単語リスト
1802…重み付け平均頻度リスト
1901…無意味、低頻度単語除去度単語リスト
1902…重み付け平均頻度標準偏差リスト
2001…無意味単語除去後の発話内容Aの単語リスト
2002…発話内容Aの相対出現位置テーブルである。
2101…無意味単語除去後の発話内容Bの単語リスト
2102…発話内容Bの相対出現位置テーブルである。
2201…無意味単語除去後の発話内容Cの単語リスト
2202…発話内容Cの相対出現位置テーブルである。
2301…無意味、低頻度単語除去後の単語リスト
2301…スコアで重み付けした平均相対位置
2401…無意味、低頻度単語除去後の単語リスト
2402 …スコアで重み付けした平均相対位置の標準偏差
2801…無意味、低頻度単語除去後の単語リスト
2802…出現頻度スコア係数
2901…無意味、低頻度単語除去後の単語リスト
2902…出現位置スコア係数
DESCRIPTION OF SYMBOLS 101 ... Speech recognition part 102 ... Evaluation criteria production | generation part 103 ... Utterance content evaluation part 104 ... Evaluation result storage part 105 ... Past utterance content storage part 106 ... Utterance content 107 ... Generation evaluation criteria 108 ... Past utterance content 109 ... Past utterance score 201 ... utterance content storage section 203 ... total character count section 204 ... total character count information 205 ... total character count storage section 206 ... total character count data 208 ... word list extraction section 209 ... word list 210 ... score coefficient storage section 211 ... word frequency count section 212 ... frequency list 213 ... word / frequency list storage unit 214 ... word / frequency list 215 ... normalized frequency calculation unit 216 ... user-defined category information 217 ... user-defined category table storage unit 218 ... normalized frequency data 219 ... meaningless word removal Unit 220 ... meaningless word list 221 ... meaningless word table storage unit 22 ... meaningless word removed normalized frequency information 223 ... normalized frequency storage section 224 ... relative position calculation section 225 ... score coefficient information 226 ... meaningless word removed normalized frequency list 227 ... relative position information 228 ... relative position storage section 229 ... Relative position information list 230 ... Score storage section 232 ... Weighted average frequency calculation section 233 ... Weighted average frequency information 234 ... Weighted average frequency storage section 235 ... Weighted average frequency information list 236 ... Weighted average appearance position calculation section 237 ... Weighted average Appearance position information 238 ... Weighted average appearance position storage section 239 ... Weighted average appearance position information list 240 ... Average frequency standard deviation calculation section 241 ... Weighted average frequency standard deviation information 242 ... Average frequency standard deviation storage section 243 ... Average frequency standard deviation information List 244 ... Appearance position standard deviation calculator 245 ... Weighting Current position standard deviation information 246 ... appearance position standard deviation storage unit 247 ... weighted appearance position standard deviation information list 248 ... score coefficient calculation unit 801 ... extracted word list utterance content A 802 ... word appearance frequency 901 of utterance content A ... utterance content B extracted word list 902 ... utterance content B word appearance frequency 1001 ... utterance content C extracted word list 1002 ... utterance content C word appearance frequency 1101 ... product name category word list 1102 ... recommended word category word list 1103 ... noise category Word list 1201 ... meaningless word list 1301 ... utterance list 1302 ... total character number list 1401 ... word list after removal of meaningless words of utterance content A 1402 ... normalization frequency list 1501 of utterance content A ... removal of meaningless words from utterance content B Later word list 1502 ... Normalization frequency list 16 of utterance content B 01 ... Word list 1602 after removal of meaningless words of utterance content C ... Normalization frequency list 1701 of utterance content C ... Speech list 1702 ... Score list 1801 ... Meaningless, low-frequency word removal degree word list 1802 ... Weighted average frequency list 1901 ... meaningless, low-frequency word removal degree word list 1902 ... weighted average frequency standard deviation list 2001 ... utterance content A word list 2002 after meaningless word removal ... utterance content A relative appearance position table.
2101 ... Word list 2 of utterance contents B after removal of meaningless words 2102 ... Relative appearance position table of utterance contents B.
2201 ... Word list 2202 of utterance contents C after meaningless word removal ... Relative appearance position table of utterance contents C.
2301 ... Word list 2301 after removal of meaningless and low-frequency words 2301 Mean relative position 2401 weighted by score ... Word list 2402 after removal of meaningless and low-frequency words 2402 Standard deviation 2801 of average relative position weighted by score ... None Meaning, word list after removal of low-frequency words 2802 ... appearance frequency score coefficient 2901 ... word list after removal of meaningless, low-frequency words 2902 ... appearance position score coefficient

Claims (4)

各々スコア付けされた一つ以上の発話内容のサンプルに基づき、発話内容を評価する発話内容評価システムであって、
前記発話内容のサンプルの各々の単語の出現頻度と、前記発話内容のサンプルの各々の単語の相対出現位置とを計算し、
各々の単語に対して、前記発話内容のスコアにより重み付けられた出現頻度の重み付け平均頻度と、前記発話内容のスコアにより重み付けられた出現頻度の平均頻度標準偏差とを計算し、
各々の単語に対して、前記発話内容のスコアにより重み付けられた相対出現位置の重み付け平均出現位置と、前記発話内容のスコアにより重み付けられた相対出現位置の出現位置標準偏差とを計算し、
各々の単語に対して、全ての発話内容のサンプルにわたり、前記重み付け平均頻度と、前記平均頻度標準偏差による正規分布の評価式と前記サンプルのスコアの差分を最小にする値を、出現頻度スコア係数として計算し、
各々の単語に対して、全ての発話内容のサンプルにわたり、前記重み付け相対出現位置と、前記出現位置標準偏差による正規分布の評価式と前記サンプルのスコアの差分を最小にする値を、出現位置スコア係数として計算し、
前記評価する発話内容の各々の単語に対して、前記出現頻度スコア係数をかけた前記重み付け平均頻度と、前記平均頻度標準偏差による正規分布の評価式を、評価時の出現頻度の評価式として、その単語に対する出現頻度の評価値を求め、
前記評価する発話内容の各々の単語に対して、前記出現位置スコア係数をかけた前記重み付け平均出現位置と、前記出現位置標準偏差による正規分布の評価式を、評価時の出現位置の評価式として、その単語に対する出現位置の評価値を求め、
前記評価する発話内容の各々の単語にわたり、前記出現頻度の評価値と、前記出現位置の評価値の総和をとって、前記評価する発話内容の評価値とすることを特徴とする発話内容評価システム。
An utterance content evaluation system for evaluating utterance content based on one or more utterance content samples each scored,
Calculating the appearance frequency of each word in the utterance content sample and the relative appearance position of each word in the utterance content sample;
For each word, calculate a weighted average frequency of the appearance frequency weighted by the score of the utterance content, and an average frequency standard deviation of the appearance frequency weighted by the score of the utterance content,
For each word, calculate a weighted average appearance position of the relative appearance position weighted by the score of the utterance content, and an appearance position standard deviation of the relative appearance position weighted by the score of the utterance content,
For each word, the appearance frequency score coefficient is a value that minimizes the difference between the weighted average frequency, the normal distribution evaluation formula based on the average frequency standard deviation, and the score of the sample over all utterance content samples. Calculate as
For each word, the appearance position score is a value that minimizes the difference between the weighted relative appearance position, the normal distribution evaluation formula based on the appearance position standard deviation, and the score of the sample over all utterance content samples. Calculated as a coefficient,
For each word of the utterance content to be evaluated, the weighted average frequency multiplied by the appearance frequency score coefficient, and the normal distribution evaluation formula by the average frequency standard deviation, as the evaluation formula of the appearance frequency at the time of evaluation, Find the evaluation value of the appearance frequency for the word,
For each word of the utterance content to be evaluated, the weighted average appearance position multiplied by the appearance position score coefficient and the normal distribution evaluation formula by the appearance position standard deviation are used as the evaluation expression of the appearance position at the time of evaluation. , Find the evaluation value of the appearance position for the word,
An utterance content evaluation system characterized by taking the sum of the evaluation value of the appearance frequency and the evaluation value of the appearance position over each word of the utterance content to be evaluated to obtain the evaluation value of the utterance content to be evaluated .
無意味単語を格納する無意味単語テーブルを保持し、前記発話内容のサンプルの各々の単語の出現頻度とを計算するにあたり、前記無意味単語テーブルに格納された無意味単語を除外することを特徴とする請求項1記載の発話内容評価システム。   A meaningless word table for storing meaningless words is retained, and the meaningless words stored in the meaningless word table are excluded when calculating the appearance frequency of each word in the utterance content sample. The utterance content evaluation system according to claim 1. 同一カテゴリの単語を定義するユーザ定義カテゴリテーブルを保持し、
前記発話内容のサンプルの各々の単語の出現頻度とを計算するにあたり、前記ユーザ定義カテゴリテーブルにより同一のカテゴリと定義されている複数の単語に対しては、一つの単語としてまとめて頻度を計算することを特徴とする請求項1記載の発話内容評価システム。
Holds a user-defined category table that defines words in the same category,
When calculating the appearance frequency of each word in the utterance content sample, for a plurality of words defined as the same category by the user-defined category table, the frequency is calculated as a single word. The utterance content evaluation system according to claim 1.
各々スコア付けされた一つ以上の発話内容のサンプルに基づき、発話内容を評価する発話内容評価方法であって、
前記発話内容のサンプルの各々の単語の出現頻度と、前記発話内容のサンプルの各々の単語の相対出現位置とを計算するステップと、
各々の単語に対して、前記発話内容のスコアにより重み付けられた出現頻度の重み付け平均頻度と、前記発話内容のスコアにより重み付けられた出現頻度の平均頻度標準偏差とを計算するステップと、
各々の単語に対して、前記発話内容のスコアにより重み付けられた相対出現位置の重み付け平均出現位置と、前記発話内容のスコアにより重み付けられた相対出現位置の出現位置標準偏差とを計算するステップと、
各々の単語に対して、全ての発話内容のサンプルにわたり、前記重み付け平均頻度と、前記平均頻度標準偏差による正規分布の評価式と前記サンプルのスコアの差分を最小にする値を、出現頻度スコア係数として計算するステップと、
各々の単語に対して、全ての発話内容のサンプルにわたり、前記重み付け相対出現位置と、前記出現位置標準偏差による正規分布の評価式と前記サンプルのスコアの差分を最小にする値を、出現位置スコア係数として計算するステップと、
前記評価する発話内容の各々の単語に対して、前記出現頻度スコア係数をかけた前記重み付け平均頻度と、前記平均頻度標準偏差による正規分布の評価式を、評価時の出現頻度の評価式として、その単語に対する出現頻度の評価値を求めるステップと、
前記評価する発話内容の各々の単語に対して、前記出現位置スコア係数をかけた前記重み付け平均出現位置と、前記出現位置標準偏差による正規分布の評価式を、評価時の出現位置の評価式として、その単語に対する出現位置の評価値を求めるステップと、
前記評価する発話内容の各々の単語にわたり、前記出現頻度の評価値と、前記出現位置の評価値の総和をとって、前記評価する発話内容の評価値とするステップとを有することを特徴とする発話内容評価方法。
An utterance content evaluation method for evaluating utterance content based on one or more utterance content samples each scored,
Calculating the appearance frequency of each word in the utterance content sample and the relative appearance position of each word in the utterance content sample;
For each word, calculating a weighted average frequency of appearance frequency weighted by the score of the utterance content and an average frequency standard deviation of appearance frequency weighted by the score of the utterance content;
For each word, calculating a weighted average appearance position of relative appearance weights weighted by the utterance content score, and an appearance position standard deviation of relative appearance positions weighted by the utterance content score;
For each word, the appearance frequency score coefficient is a value that minimizes the difference between the weighted average frequency, the normal distribution evaluation formula based on the average frequency standard deviation, and the score of the sample over all utterance content samples. Step to calculate as
For each word, the appearance position score is a value that minimizes the difference between the weighted relative appearance position, the normal distribution evaluation formula based on the appearance position standard deviation, and the score of the sample over all utterance content samples. Calculating as a coefficient;
For each word of the utterance content to be evaluated, the weighted average frequency multiplied by the appearance frequency score coefficient, and the normal distribution evaluation formula by the average frequency standard deviation, as the evaluation formula of the appearance frequency at the time of evaluation, Calculating an appearance frequency evaluation value for the word;
For each word of the utterance content to be evaluated, the weighted average appearance position multiplied by the appearance position score coefficient and the normal distribution evaluation formula by the appearance position standard deviation are used as the evaluation expression of the appearance position at the time of evaluation. , Obtaining an evaluation value of the appearance position for the word;
A step of taking the sum of the evaluation value of the appearance frequency and the evaluation value of the appearance position over each word of the utterance content to be evaluated to obtain the evaluation value of the utterance content to be evaluated. Utterance content evaluation method.
JP2015177770A 2015-09-09 2015-09-09 Utterance content evaluation system and utterance content evaluation method Pending JP2017054307A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015177770A JP2017054307A (en) 2015-09-09 2015-09-09 Utterance content evaluation system and utterance content evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015177770A JP2017054307A (en) 2015-09-09 2015-09-09 Utterance content evaluation system and utterance content evaluation method

Publications (1)

Publication Number Publication Date
JP2017054307A true JP2017054307A (en) 2017-03-16

Family

ID=58320775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015177770A Pending JP2017054307A (en) 2015-09-09 2015-09-09 Utterance content evaluation system and utterance content evaluation method

Country Status (1)

Country Link
JP (1) JP2017054307A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019215808A (en) * 2018-06-14 2019-12-19 Zホールディングス株式会社 Evaluation device, evaluation method, and evaluation program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019215808A (en) * 2018-06-14 2019-12-19 Zホールディングス株式会社 Evaluation device, evaluation method, and evaluation program
JP7057229B2 (en) 2018-06-14 2022-04-19 ヤフー株式会社 Evaluation device, evaluation method and evaluation program

Similar Documents

Publication Publication Date Title
US11657234B2 (en) Computer-based interlocutor understanding using classifying conversation segments
CN107452385A (en) A kind of voice-based data evaluation method and device
CN111738589B (en) Big data item workload assessment method, device and equipment based on content recommendation
CN111507573A (en) Business staff assessment method, system, device and storage medium
CN110910215B (en) Product recommendation method, device, equipment and computer readable storage medium
KR20180061458A (en) Method and system for analyzing evaluation information of industry based on sturectured and unstructured data convergence
CN114880581B (en) User data processing method, storage medium and electronic device
CN114783421A (en) Intelligent recommendation method and device, equipment, medium
CN113065742A (en) Credit evaluation method, system, storage medium and electronic equipment for small and micro enterprises
JP2020135434A (en) Enterprise information processing device, enterprise event prediction method and prediction program
CN115968478A (en) Machine learning feature recommendation
JP2017054307A (en) Utterance content evaluation system and utterance content evaluation method
CN119129646A (en) Information interaction method, device, electronic device and storage medium
CN115146890A (en) Enterprise operation risk warning method and device, computer equipment and storage medium
CN117670367A (en) Complaint work order processing method, complaint work order processing device, terminal equipment and storage medium
JP7092695B2 (en) Property search support system and property search support method
CN110837843A (en) Information classification method and device, computer equipment and storage medium
JP6808599B2 (en) Classification support device, classification support method and program
JP6968662B2 (en) Information provision system, information provision device, information analysis device, and information provision method
CN114078015A (en) Prediction method, device and computing device for main factors affecting user satisfaction
JP7479534B2 (en) Information processing device, estimation device, analysis device, information processing method, and computer program
US20240135249A1 (en) Learning device, learning method, and program
CN115062701B (en) Data processing method, device and electronic equipment
CN115550259B (en) Flow distribution method based on white list and related equipment
JP2019082964A (en) Information providing system, management device, information analysis device, and management method